JP2023074751A - Information processing system, information processing device, information processing method, and program - Google Patents
Information processing system, information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2023074751A JP2023074751A JP2021187864A JP2021187864A JP2023074751A JP 2023074751 A JP2023074751 A JP 2023074751A JP 2021187864 A JP2021187864 A JP 2021187864A JP 2021187864 A JP2021187864 A JP 2021187864A JP 2023074751 A JP2023074751 A JP 2023074751A
- Authority
- JP
- Japan
- Prior art keywords
- information
- face
- image
- information processing
- extraction process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 100
- 238000003672 processing method Methods 0.000 title claims 2
- 238000012545 processing Methods 0.000 claims abstract description 140
- 238000003384 imaging method Methods 0.000 claims abstract description 110
- 238000000605 extraction Methods 0.000 claims abstract description 103
- 238000000034 method Methods 0.000 claims abstract description 95
- 230000001815 facial effect Effects 0.000 claims abstract description 30
- 210000000056 organ Anatomy 0.000 claims abstract description 7
- 238000004458 analytical method Methods 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 230000000873 masking effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 abstract description 35
- 239000000284 extract Substances 0.000 abstract description 17
- 238000012795 verification Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 7
- 240000004050 Pentaglottis sempervirens Species 0.000 description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Cash Registers Or Receiving Machines (AREA)
- Collating Specific Patterns (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、人物認識を使用した人物照合等に使用可能な情報処理技術に関する。 The present invention relates to an information processing technology that can be used for person verification using person recognition.
特許文献1には、顔認識を用いた決済システムが開示されている。特許文献1では、店内カメラを用いて撮像した来店者の顔画像と、登録されている全ての会員情報の顔画像とを照合して、来店中の会員リストを作成する。そして、レジにおける決済時に、来店中の会員リストの顔画像とレジに来た客の顔画像とを用いた照合を行って会員を特定する。また特許文献2には、画像データから顔検出処理や特徴量抽出処理を行う手法として、ディープニューラルネットワークと呼ばれる多階層のニューラルネットワークを用いることが開示されている。 Patent Literature 1 discloses a payment system using face recognition. In Patent Literature 1, a list of members currently visiting the store is created by collating face images of customers captured using an in-store camera with face images of all registered member information. Then, at the time of payment at the cash register, matching is performed using the face image of the list of members who are visiting the store and the face image of the customer who has come to the cash register to identify the member. Japanese Patent Laid-Open No. 2002-200002 discloses using a multi-layered neural network called a deep neural network as a technique for performing face detection processing and feature amount extraction processing from image data.
一般的に店内カメラは高い位置に配されていることが多く、その店内カメラで撮像された画像は店内を俯瞰的に撮像した画像(俯瞰画像)となる。しかしながら俯瞰画像に写る人物の顔画像は斜め上側から見える画像となるため、人物を正面から撮像した顔画像と比較して照合精度が低下し、誤認識が生ずる可能性がある。ここで、人物を誤認識した状態で特許文献1に開示されるような会員リストが作成されると、レジでの決済時にレジ前に来た客の顔画像を用いて再度照合を行おうとしても、会員リストから一致する会員を見つけられずに再照合に失敗することがある。また店舗の規模によっては店内カメラやレジ前のカメラの設置台数が多くなることがあり、それらカメラの台数が多くなればなるほど、顔画像を用いた顔認識のための処理コストが増大する。 Generally, in-store cameras are often arranged at high positions, and the image captured by the in-store camera is a bird's-eye view image of the store (bird's-eye view image). However, since the face image of the person in the bird's-eye view image is an image that can be seen obliquely from above, there is a possibility that the matching accuracy will be lower than that of the face image of the person captured from the front, resulting in erroneous recognition. Here, when a member list as disclosed in Patent Document 1 is created in a state where a person is erroneously recognized, an attempt is made to re-verify using the face images of customers who come to the cash register at the time of payment at the cash register. may fail to rematch without finding a matching member from the member list. In addition, depending on the size of the store, the number of in-store cameras and cameras in front of the cash register may increase. As the number of cameras increases, the processing cost for face recognition using face images increases.
そこで本発明は、誤認識の発生を抑制し、処理コストの低減をも可能にすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to suppress the occurrence of erroneous recognition and to reduce the processing cost.
本発明は、第1の情報処理装置と第2の情報処理装置とを含む情報処理システムであって、前記第1の情報処理装置は、複数の人物の顔画像から、第1の抽出処理によって抽出された第1の特徴情報と、前記第1の抽出処理よりも処理量が多い第2の抽出処理によって抽出された第2の特徴情報と、を含む人物情報を取得し、人物を撮影した第1の顔画像から前記第1の抽出処理によって抽出された第3の特徴情報と、前記人物情報に含まれる前記第1の特徴情報とを比較して類似度を取得する第1の照合処理を行い、前記第1の照合処理による類似度を含めた前記人物情報を、前記第2の情報処理装置に送信し、前記第2の情報処理装置は、前記第1の情報処理装置から前記類似度を含む人物情報を取得し、前記人物情報から、前記類似度に応じた前記第1の特徴情報および前記第2の特徴情報を含むリストを作成し、人物を撮影した第2の顔画像から前記第2の抽出処理によって抽出した第4の特徴情報と、前記リストの前記類似度が高い順の前記第2の特徴情報とを比較して、前記第2の顔画像の人物を、前記人物情報の中から特定する第2の照合処理を行う、ことを特徴とする。 The present invention is an information processing system including a first information processing device and a second information processing device, wherein the first information processing device extracts face images of a plurality of persons by a first extraction process. Acquiring person information including the extracted first feature information and second feature information extracted by a second extraction process having a larger amount of processing than the first extraction process, and photographing the person a first matching process of comparing the third feature information extracted from the first face image by the first extraction process and the first feature information included in the person information to obtain a degree of similarity; and transmits the person information including the degree of similarity obtained by the first matching process to the second information processing device, and the second information processing device receives the similarity from the first information processing device. a list including the first feature information and the second feature information according to the similarity is created from the person information; and a second facial image of the person is created The person in the second face image is identified by comparing the fourth feature information extracted by the second extraction process with the second feature information in the list in descending order of similarity. It is characterized by performing a second collation process to specify from the information.
本発明によれば、誤認識の発生を抑制でき、処理コストの低減も可能となる。 According to the present invention, the occurrence of erroneous recognition can be suppressed, and the processing cost can be reduced.
以下、本発明に係る実施形態を、図面を参照しながら説明する。以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正又は変更され得る。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。以下の各実施形態において、同一の構成には同じ参照符号を付して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments according to the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention, and not all combinations of features described in the embodiments are essential to the solution of the present invention. The configuration of the embodiment can be appropriately modified or changed according to the specifications of the device to which the present invention is applied and various conditions (use conditions, use environment, etc.). Also, a part of each embodiment described later may be appropriately combined. In each of the following embodiments, the same configurations are given the same reference numerals.
本実施形態では、顔認識を用いて決済を行うための情報処理装置を含む情報処理システムを例に挙げて説明する。顔認識を用いて決済を行う情報処理システムでは、予め会員の顔画像と決済情報とを紐づけて人物情報(以後、会員情報とする)として登録しておき、店舗等のレジに設置されたカメラで撮像した客の顔画像と会員情報に登録済みの顔画像とを照合する。そして、照合が成功した場合に、その照合できた顔画像と紐づく決済情報に基づく決済処理が実行される。ここで、登録されている会員情報が多くなると、レジでの照合の処理時間がかかり、レジでの決済時間が長くなってしまうが、前述した特許文献1の技術を用いれば決済時間の短縮が可能になると考えられる。しかしながら、一般的な店内カメラで得られる俯瞰画像では照合の精度が低下して誤認識が生ずることがあり、誤認識した人物を基に特許文献1に開示された会員リストが作成されると、前述したようにレジでの決済時の再照合に失敗することがある。また店舗の規模によって店内カメラやレジ前のカメラの設置台数が多くなると、顔画像を用いた顔認識のための処理コストは増大する。
そこで、本実施形態の情報処理システムでは、顔認識を用いた決済処理を行うための構成として、以下に説明する構成を有し、後述する処理を行うことによって、決済時間の短縮、誤認識の発生抑制、および計算処理コストの低減を可能とする。
In this embodiment, an information processing system including an information processing device for performing settlement using face recognition will be described as an example. In an information processing system that uses face recognition to make payments, a member's face image and payment information are linked in advance and registered as personal information (hereinafter referred to as member information), and is installed at the cash register of a store, etc. A customer's face image captured by a camera is collated with a face image registered in member information. Then, when the collation is successful, settlement processing is executed based on the settlement information associated with the face image that has been collated. If there is a large amount of registered member information, it takes a long time to process the checkout at the cash register, and the settlement time at the cash register becomes long. It is considered possible. However, with a bird's-eye view image obtained by a general in-store camera, the accuracy of matching may decrease and misrecognition may occur. As mentioned above, re-matching at the time of payment at the cash register may fail. In addition, as the number of in-store cameras and cameras installed in front of cash registers increases depending on the size of the store, the processing cost for face recognition using face images increases.
Therefore, the information processing system of the present embodiment has the configuration described below as a configuration for performing settlement processing using face recognition. It is possible to suppress the generation and reduce the calculation processing cost.
<第1の実施形態>
図1は、第1の本実施形態に係る情報処理システムの一構成例を示した図である。
本実施形態の情報処理システムにおいて、第1の情報処理装置としての管理装置10と、第2の情報処理装置の1つである認識装置12aとは、ネットワーク11を介して接続されている。同様に管理装置10と、第2の情報処理装置の1つである認識装置12bとは、ネットワーク11を介して接続されている。認識装置12aと店内撮像装置14aとレジ撮像装置15aとはネットワーク13aを介して接続され、同様に、認識装置12bと店内撮像装置14bとレジ撮像装置15bとはネットワーク13bを介して接続されている。なお、図1では、認識装置12aと12b、店内撮像装置14aと14b、レジ撮像装置15aと15b、およびネットワーク13aと13bのように、それぞれ二つの例を挙げているが、それぞれ一つであってもよいし、三つ以上であってもよい。ネットワーク11とネットワーク13aおよび13bは、例えばEthernet(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。またネットワーク11とネットワーク13aおよび13bは、インターネットや、無線LAN(WIRELESS LAN)、WAN(WIDE AREA NETWORK)等により実現されてもよい。以下、認識装置12aと12b、店内撮像装置14aと14b、レジ撮像装置15aと15b、ネットワーク13aと13bを、それぞれ区別せずに説明する場合には認識装置12、店内撮像装置14、レジ撮像装置15、ネットワーク13とのみ表記する。
<First embodiment>
FIG. 1 is a diagram showing a configuration example of an information processing system according to the first embodiment.
In the information processing system of this embodiment, the
図2は、本実施形態の情報処理システムが適用される店舗のイメージの一例を示した図である。
図2に示すように、店舗20には、店内撮像装置202、レジ撮像装置204、レジ201が配されているとする。店内撮像装置202は図1の店内撮像装置14、レジ撮像装置204は図1のレジ撮像装置15に相当する。店内撮像装置202は店内を俯瞰的に撮影できる位置に配置され、レジ撮像装置204はレジ210の前に配置されている。つまり店内撮像装置202は来店して店内に存在する人物(客等)を俯瞰的に撮影し、レジ撮像装置204はレジ210の前に来た人物(決済しようとしている客)を正面から撮影する。なお図2では、店内撮像装置202とレジ撮像装置204とが一台のみ描かれているが、店内撮像装置202とレジ撮像装置204はそれぞれ複数台配置されていてもよい。また店内撮像装置14は、店内に設置されている場合だけでなく、店舗入口近辺などの店外に設置されていてもよい。レジ201も一つに限らず複数であってもよい。レジ201が複数設けられている場合、レジ撮像装置204はレジごとに配される。
FIG. 2 is a diagram showing an example of an image of a store to which the information processing system of this embodiment is applied.
As shown in FIG. 2, the
店内撮像装置202は店舗20内の人物(来店者203とする)を撮像し、レジ撮像装置204はレジ201前に来て決済しようとしている人物205の顔を撮像する。これら店内撮像装置202にて撮像された来店者203の画像は、図1のネットワーク13を介して認識装置12に送られ、さらにネットワーク11を介して管理装置10に送られる。またレジ撮像装置204にて撮像された人物205(決済しようとしている人物)の顔画像は、図1のネットワーク13を介して認識装置12に送られる。なお、他の例として、レジ撮像装置15は、独立した装置ではなく、スマートフォンやタブレット等に認識装置12と共に設けられていてもよい。
The in-
図1に説明を戻す。
管理装置10は、全ての会員について、クレジットカード情報などの決済情報、氏名、年齢などの個人情報、顔画像、および顔認識に用いる顔情報などを保存し、管理する装置である。本実施形態では、ある会員の決済情報、氏名、年齢などの個人情報、顔画像、および顔認識に用いる顔情報などを含めて会員情報とする。管理装置10は、全ての会員の会員情報を会員情報リストとしてデータベース等に格納して管理しているとする。会員情報リストの詳細は後述する。
Returning to FIG.
The
ここで、本実施形態において、顔情報とは、顔画像から所定の抽出処理によって抽出される顔の特徴を表す特徴情報であり、本実施形態では特徴量と呼ぶ。また本実施形態において、画像から特徴量(顔情報)を抽出する処理は、ディープニューラルネットワークと呼ばれる多階層のニューラルネットワークがディープラーニングを用いて学習されたニューラルネットワークを用いた処理を例に挙げる。また本実施形態の場合、画像から特徴量を抽出する処理には、第1の抽出処理と第2の抽出処理とがある。これら第1の抽出処理と第2の抽出処理にそれぞれ用いられるニューラルネットワークは回路規模が異なっており、第2の抽出処理では、第1の抽出処理よりも回路規模が大きいニューラルネットワークが用いられる。一般に、ニューラルネットワークの回路規模の大小は、当該ニューラルネットワークによる処理量の大小つまり処理コストの大小と対応した関係を有しており、回路規模が小さい方では、回路規模が大きい方よりも処理量が少なくなる。したがって本実施形態において、第2の抽出処理は、第1の抽出処理よりも処理量が多く、処理コストが大きい。また、回路規模が大きいニューラルネットワークにて取得される特徴量は、一般に、それより回路規模が小さいニューラルネットワークにて取得される特徴量よりも高い精度の特徴量であることが多い。このため本実施形態では回路規模が大きいニューラルネットワークを用いる第2の抽出処理にて取得される第2の特徴量を、高精度特徴量(または高精度顔情報)と呼ぶ。また本実施形態では、第2の抽出処理に用いられるものよりも相対的に回路規模が小さいニューラルネットワークを用いる第1の抽出処理にて取得される第1の特徴量を、中精度特徴量(または中精度顔情報)と呼ぶ。 Here, in the present embodiment, face information is feature information representing features of a face extracted from a face image by predetermined extraction processing, and is called a feature amount in the present embodiment. In the present embodiment, the process of extracting a feature amount (face information) from an image is exemplified by a process using a multi-layered neural network called a deep neural network trained using deep learning. Further, in the case of this embodiment, the processing for extracting the feature amount from the image includes the first extraction processing and the second extraction processing. The neural networks used for the first extraction process and the second extraction process have different circuit scales, and the second extraction process uses a neural network with a larger circuit scale than the first extraction process. In general, the circuit scale of a neural network has a corresponding relationship with the amount of processing by the neural network, that is, the processing cost. becomes less. Therefore, in the present embodiment, the second extraction process has a larger processing amount and higher processing cost than the first extraction process. Also, the feature quantity acquired by a neural network with a large circuit scale is generally a feature quantity with higher precision than the feature quantity acquired by a neural network with a smaller circuit scale. For this reason, in the present embodiment, the second feature quantity obtained by the second extraction process using a neural network with a large circuit scale is called a high-precision feature quantity (or high-precision face information). Further, in the present embodiment, the first feature amount obtained in the first extraction process using a neural network having a relatively smaller circuit scale than that used in the second extraction process is used as a medium-precision feature amount ( or medium-precision facial information).
店内撮像装置14とレジ撮像装置15は、それぞれ画像を撮像する装置(カメラ)であり、例えばネットワークカメラ、モジュールカメラなど、その形態は特に規定しない。店内撮像装置14とレジ撮像装置15は、撮像した画像データおよび撮像時刻等を含む撮像データを、ネットワーク13を介して認識装置12に送信する。なお以下の説明では、記載を簡略にするため、画像データを単に画像とのみ記す。
The in-
認識装置12は、ネットワーク13を介して接続されている店内撮像装置14やレジ撮像装置15で撮像された画像を取得し、その画像から人物の顔画像を検出し、さらにその検出した顔画像から特徴量を抽出する。詳細は後述するが、第1の実施形態の認識装置12において、店内撮像装置14の画像に写っている人物(来店者203)の顔画像から特徴量を抽出する際には、第1の抽出処理による第1の特徴量、つまり中精度特徴量(中精度顔情報)を取得する。そして、その抽出した中精度特徴量を、ネットワーク11を介して管理装置10へ送信する。
The
管理装置10は、店内撮像装置14の画像から認識装置12が抽出した中精度特徴量を取得した場合には、その取得した中精度特徴量と、登録会員について事前に登録されている中精度顔情報(中精度特徴量)とを用いた顔照合処理を行う。第1の実施形態では、店内撮像装置14の画像から抽出された中精度特徴量と、登録会員として登録されている中精度顔情報(中精度特徴量)とを用いて、管理装置10で行われる顔照合処理を、第1の顔照合と表記する。そして管理装置10は、その第1の顔照合の結果と会員情報とを、認識装置12に送る。詳細は後述するが、本実施形態において、第1の顔照合の結果を示す情報には、顔の特徴量が類似する度合を示す類似度スコアが用いられる。同じく詳細は後述するが、第1の顔照合の結果と共に認識装置12に送られる会員情報は、管理装置10が管理している会員情報リストの中から、第1の顔照合の結果に応じた会員情報となされる。これら第1の顔照合の結果と会員情報は、認識装置12において、後述する来店者照合リストに保持される情報となされる。
When the
認識装置12は、管理装置10による第1の顔照合の結果と会員情報とを含む来店者照合リストを作成および保持して管理する。詳細は後述するが、来店者照合リストは、第1の顔照合の結果として得られた類似度スコアと、その第1の顔照合の結果に応じた会員情報のうち、会員の識別情報、決済情報、および顔認識に用いる顔情報を少なくとも含むリストとなされる。
The
その後、認識装置12は、ネットワーク13を介してレジ撮像装置15からレジ前の人物(図2の人物205)を撮像した画像を取得すると、その人物の画像から顔画像を検出し、さらにその顔画像から特徴量を抽出する。詳細は後述するが、本実施形態の認識装置12において、レジ撮像装置15の画像に写っている人物(決済しようとしている人物205)の顔画像から特徴量を抽出する際には、第2の抽出処理による第2の特徴量、つまり高精度特徴量(高精度顔情報)を取得する。そして認識装置12は、レジ前の人物の顔画像から得た高精度特徴量と、来店者照合リストの会員情報に含まれる高精度顔情報(高精度特徴量)とを用いて顔認識を行う。本実施形態では、レジ前の人物の顔画像から抽出した高精度特徴量と、来店者照合リストの会員情報に含まれる高精度顔情報(高精度特徴量)とを用いた顔照合処理を、第2の顔照合と表記する。そして、認識装置12は、第2の顔照合の結果を基に、レジ前の人物が、来店者照合リストの会員情報のなかの何れかの会員であるかを特定する。
After that, when the
なお本実施形態において、管理装置10は、データセンターに1台設置されているとするが、複数台が設置されていてもよいし、店舗やクラウド上に置かれていてもよい。また前述の例では、認識装置12は例えば各店舗に1つずつ置かれ、それぞれの店舗ごとの店内撮像装置14およびレジ撮像装置15と接続されているが、認識装置12はデータセンターやクラウド上などに置かれていてもよい。さらに他の例として、認識装置12に係る各機能を実現するためのプログラムがレジ端末にインストールされていてもよく、この場合、認識装置12はレジ端末に含まれる。また本実施形態では、管理装置10と認識装置12が別構成となっている例を挙げているが、管理装置10と認識装置12とは一体の装置であってもよい。この場合の管理装置10は、認識装置12に係る第2の顔照合を含む各処理も実行する。
Note that in the present embodiment, one
図3は、管理装置10のハードウェア構成の一例を示した図である。
図3に示すように、管理装置10は、CPU101、ROM102、RAM103、記録装置104、通信装置105、入力装置106、および表示装置107を有する。
FIG. 3 is a diagram showing an example of the hardware configuration of the
As shown in FIG. 3 , the
CPU101は、ROM102に記録された制御プログラムを読みだして各種処理を実行する。RAM103は主メモリやワークエリア等の一時記憶領域として用いられる。記録装置104は、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)等からなり画像ファイルや会員情報の保存に用いる。
通信装置105は、通信を行う回路であり、当該通信は無線通信であってもよいし、有線通信であってもよい。本実施形態の場合、通信装置105は、ネットワーク11に接続されている。入力装置106はキーボードやタッチパネルのほか、撮像装置(カメラ)を含んでいてもよい。表示装置107は液晶パネルや有機ELパネルを含む。
The
The
図3に例示したように、管理装置10のハードウェア構成は、パーソナルコンピュータ(PC)に搭載されているハードウェア構成と同様の構成要素を有している。そのため、管理装置10で実現される各種機能は、PC上で動作するソフトウェアとして実装することが可能である。管理装置10は、CPU101がプログラムを実行することにより、後述する図5の機能、後述する図11や図13のフローチャートの処理を実現することができる。
As illustrated in FIG. 3, the hardware configuration of the
図4は認識装置12のハードウェア構成の一例を示した図である。
図4に示すように、認識装置12は、CPU121、ROM122、RAM123、記録装置124、通信装置125、入力装置126及び表示装置127を有する。
FIG. 4 is a diagram showing an example of the hardware configuration of the
As shown in FIG. 4 , the
CPU121は、ROM122に記録された制御プログラムを読みだして各種処理を実行する。RAM123は主メモリやワークエリア等の一時記憶領域として用いられる。記録装置124は、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)等からなり画像ファイルや会員情報の保存に用いる。
通信装置125は通信を行う回路である。当該通信は無線通信であってもよいし、有線通信であってもよい。本実施形態の場合、通信装置125は、ネットワーク11とネットワーク13に接続されている。入力装置126はキーボードやタッチパネルを有する。表示装置127は液晶パネルや有機ELパネルを含む。
The
The
図4に例示したように、認識装置12のハードウェア構成は、パーソナルコンピュータ(PC)に搭載されているハードウェア構成と同様の構成要素を有している。そのため、認識装置12で実現される各種機能は、PC上で動作するソフトウェアとして実装可能である。認識装置12は、CPU121がプログラムを実行することにより、後述する図7の機能、後述する図11、図12、図13のフローチャートの処理を実現することができる。
As illustrated in FIG. 4, the hardware configuration of the
図5は、管理装置10の機能構成の一例を示す機能ブロック図である。以下、図5を参照しながら本実施形態に係る管理装置10の機能構成について説明する。
本実施形態の管理装置10の会員情報登録部300は、全ての会員の会員情報リストを保持している。なお本実施形態では、会員情報登録部300が全ての会員情報リストを保持しているとするが、不図示のクラウド上に用意されている会員情報リストやデータベースに保持されている会員情報リストなどを取得してもよい。
FIG. 5 is a functional block diagram showing an example of the functional configuration of the
The member
図6は会員情報リストの一例を示す図である。
図6に示すように、会員情報リストは、会員ID501、クレジットカード情報などの決済情報502、顔認識に用いる高精度顔情報503、顔認識に用いる中精度顔情報504を含む。
会員ID501には、登録されている各会員を個々に識別するための識別情報が保持されている。
決済情報502には、各会員のクレジットカード情報などの決済に使用可能な情報が保持されている。
高精度顔情報503には、会員ごとに予め撮影した顔画像から第2の抽出処理を用いて抽出した高精度顔情報(高精度特徴量)が保持されている。
中精度顔情報504には、会員ごとに予め撮影した顔画像から第1の抽出処理にて抽出した中精度顔情報(中精度特徴量)が保持されている。
なお図6では図示していないが、会員情報リストには、前述した各情報の他、会員の氏名、年齢などの属性情報、顔画像などがさらに保持されていてもよい。本実施形態では、会員情報リストに格納されている会員ごとの情報を会員情報と呼んでいる。なお、会員情報登録部300の会員情報は、予め入力装置106のキーボードから入力されたり、カメラの撮影画像から抽出されたりして保持されるが、決済情報や顔情報をも含めて入力及び保持可能であれば、その入力方法や保持方法は限定されない。
FIG. 6 is a diagram showing an example of a member information list.
As shown in FIG. 6, the member information list includes
The
The
The high-
The medium-
Although not shown in FIG. 6, the member information list may further hold attribute information such as the member's name and age, face image, etc., in addition to the above-described information. In this embodiment, information for each member stored in the member information list is called member information. The member information in the member
図5に説明を戻す。
顔情報取得部301は、認識装置12が顔画像から抽出した顔情報(特徴量)を取得して、顔照合部302に送る。第1の実施形態の場合、顔情報取得部301が取得する顔情報は、認識装置12が店内撮像装置14の画像から顔画像を検出して、さらに第1の抽出処理により抽出した中精度顔情報である。
Returning to FIG.
The face
顔照合部302は、顔情報取得部301が認識装置12から取得した中精度顔情報と、会員情報登録部300に保持されている会員情報の中精度顔情報とを用いて第1の顔照合を行う。そして、顔照合部302は、第1の顔照合の結果として、顔情報の類似度合を示す類似度スコアを取得する。
The
情報送信部303は、第1の顔照合で類似度スコアを得た顔情報にそれぞれ対応した会員情報を、会員情報登録部300から取得する。そして、情報送信部303は、第1の顔照合の結果である類似度スコアと、その類似度スコアの顔情報に対応して会員情報登録部300から取得した会員情報とを、認識装置12に送信する。
The
次に、本実施形態における認識装置12の機能構成について図7を用いて説明する。図7は、認識装置12の機能構成の一例を示す機能ブロック図である。
認識装置12の画像取得部400は、店内撮像装置14あるいはレジ撮像装置15が撮像した画像と、それらの撮像時刻等を含む撮像データを受信し、その受信した撮像データを、順次、顔検出部401へ送信する。なお、撮像された画像は、静止画であってもよいし動画であってもよい。以下、本実施形態では、特に明示する場合を除き、静止画と動画を区別せずに画像と表記している。
Next, the functional configuration of the
The
顔検出部401は、画像取得部400が受信した画像に対し、顔検出処理を行い、画像中で顔が含まれる領域を、顔の境界枠として抽出する。本実施形態では、いわゆる背景差分法によって顔の境界枠を抽出するが、顔および顔の位置を検出するものであれば、どのような手法が用いられてもよい。顔検出部401は、顔検出処理において、例えば図9(a)に示すように、顔の境界枠1500の座標と幅および高さの各情報と共に、目、鼻、口といった顔器官の特徴点を示す情報1501と、それら顔器官の尤もらしさを示す尤度とを取得する。
The
特徴量抽出部402は、高精度処理部408と中精度処理部409とから構成される。
高精度処理部408は、顔検出部401で抽出された顔の境界枠内の画像から、第2の抽出処理によって第2の特徴量である高精度特徴量(高精度顔情報)を抽出する。中精度処理部409は、顔検出部401で抽出された顔の境界枠内の画像から、第1の抽出処理により第1の特徴量である中精度特徴量(中精度顔情報)を抽出する。本実施形態の場合、特徴量抽出部402は、それらの抽出処理を、ディープニューラルネットワークと呼ばれる多階層のニューラルネットワークがディープラーニングを用いて学習されたニューラルネットワークを用いる演算処理により行う。高精度処理部408で用いるニューラルネットワークのモデルは中精度処理部409のニューラルネットワークのモデルよりも大規模である。したがって高精度処理部408は中精度処理部409よりも、一般的には高い精度顔認識(顔検出、特徴量抽出)を行うことが可能であるが、処理コストは大きい。
The feature
A high-
ここで本実施形態の場合、特徴量抽出部402において、画像取得部400が店内撮像装置14から取得して顔検出部401で検出された顔画像に対しては、中精度処理部409による中精度特徴量算出処理が行われる。そして中精度特徴量算出処理で得られた中精度特徴量、つまり店内撮像装置14が撮像した来店者の顔画像から抽出された中精度特徴量は、情報送信部403から管理装置10に送られる。
これにより、管理装置10では、店内撮像装置14の画像から得られた来店者の中精度特徴量(中精度顔情報)を用いた前述した第1の顔照合が行われ、その第1の顔照合の結果と会員情報とが当該認識装置12の会員情報取得部404に送られてくる。
Here, in the case of this embodiment, in the feature
As a result, the
会員情報取得部404は、管理装置10による第1の顔照合の結果と会員情報とを取得し、リスト管理部405へ出力する。
リスト管理部405では、管理装置10における第1の顔照合の結果と会員情報とを、来店者照合リストとして保持および管理する。
The member
The
リスト管理部405において保持、管理される来店者照合リストは、図8に示すように、会員ID801、決済情報802、高精度顔情報805、中精度顔情報803、および類似度スコア804を有するリストとなされる。来店者照合リストは、来店者ごとに管理装置10の顔照合部302で行われた第1の顔照合処理の結果に基づくリストとなされている。類似度スコア804には、管理装置10による第1の顔照合の結果の類似度スコアが高い順に保持される。会員ID801には、管理装置10の情報送信部303が第1の顔照合の結果に応じて図6の会員情報リストから選出して送られてきた会員の識別情報が保持される。決済情報802には、管理装置10の情報送信部303が会員ID801の識別情報に対応して図6の会員情報リストから選出して送られてきた決済情報が保持される。高精度顔情報805には、管理装置10の情報送信部303が会員ID801の識別情報に対応して図6の会員情報リストから選出して送られてきた高精度顔情報(特徴量)が保持される。中精度顔情報803には、管理装置10の情報送信部303が会員ID801の識別情報に対応して図6の会員情報リストから選出して送られてきた中精度顔情報(特徴量)が保持される。
The visitor verification list held and managed by the
なお、来店者照合リストに含まれる会員情報の数は、会員情報リストの全ての会員情報でもよいが、会員数が膨大な数である場合には、例えば上位100件というような上限値が設けられてもよい。また来店者照合リストは、来店者が新規に発見された場合のみ、その来店者の会員情報が追加されて更新され、店内において後述するように追尾できている来店者の会員情報は更新されないとする。さらに来店者照合リストは、来店者が店内で追尾できなくなり、その後、当該来店者がリストに追加された時点から一定時間経過した場合に削除されてもよいし、店舗の閉店時間でリセットされてもよい。なお来店者照合リストには、会員情報取得部404が会員情報を取得した時刻や、画像取得部400が取得した画像等がさらに含まれていてもよい。
The number of member information included in the visitor verification list may be all the member information in the member information list. may be Also, the visitor verification list is updated by adding the member information of the visitor only when a visitor is newly discovered, and the member information of the visitor who can be tracked in the store is not updated as described later. do. Furthermore, the visitor verification list may be deleted when a visitor becomes untrackable in the store and a certain period of time has elapsed since the visitor was added to the list, or reset at the closing time of the store. good too. The visitor verification list may further include the time when the member
また本実施形態において、店内撮像装置14の画像から顔検出部401で検出された来店者の顔画像をついて、特徴量抽出部402の中精度処理部409が算出した中精度の顔情報は、顔照合部406にも送られる。このときの顔照合部406は、その来店者における中精度の顔情報を用いて、当該来店者を追尾する処理を行う。本実施形態の場合、1人の来店者に対して1つの来店者照合リストが紐付けられているため、その追尾している来店者がレジ撮像装置15の前に来た時に、当該来店者に紐付けられた来店者照合リストを用いて、第2の顔照合を行う。
In this embodiment, the medium-precision face information calculated by the medium-
ここで本実施形態において、第2の顔照合は、レジ撮像装置15にて得られた画像から、顔検出部401が検出した顔画像に対し、特徴量抽出部402の高精度処理部408が高精度特徴量算出処理を行って抽出した特徴量(顔情報)を用いて行われる。すなわち顔照合部406は、追尾している来店者がレジ前に来た時、レジ撮像装置15が撮像した来店者の顔画像から高精度特徴量算出処理にて得られた高精度の顔情報(特徴量)と、その来店者に紐づけられた来店者照合リストとを用いて、第2の顔照合を行う。
Here, in the present embodiment, the second face collation is performed by the high-
第2の顔照合の際、顔照合部406は、レジ撮像装置15の画像から検出されて高精度処理部408で取得された決済者の高精度顔情報(特徴量)と、来店者照合リストの類似度スコア804の高い順の高精度特徴量とを用いた照合を行う。そして、顔照合部406は、第2の顔照合の結果、類似度スコアが所定のスコア閾値以上である会員情報に対応した会員ID801と決済情報802を、決済部407に通知する。
At the time of the second face matching, the
なお他の例として、リスト管理部405は、複数の来店者に対して、1つの来店者照合リストを作成してもよい。その場合、来店者照合リストには、店内のいずれかの来店者と、会員との類似度スコアが保存される。そして、顔照合部406は、第2の顔照合において、決済者が誰かに関わらず、来店者照合リストの類似度スコアの高い会員情報から順次、照合を行う。また本実施形態では、来店者照合リストの類似度スコアの高い順に第2の顔照合が行われるが、類似度スコアが別途定めた閾値未満の会員については第2の顔照合を行わないようにしてもよい。
As another example, the
図8に示した来店者照合リストを参照しながら、第2の顔照合の一例について説明する。またここでは、認識が成功(照合が成功)したと判定される際の所定のスコア閾値として700が設定されている場合、つまり類似度スコアが700以上であれば認識成功と判定される例を挙げる。 An example of second face matching will be described with reference to the store visitor matching list shown in FIG. Further, here, an example in which 700 is set as a predetermined score threshold when it is determined that the recognition is successful (matching is successful), that is, if the similarity score is 700 or more, the recognition is determined to be successful. list.
まず顔照合部406は、第1の顔照合の結果を基に管理されている来店者照合リストの類似度スコア804のなかで、最も類似度スコアが高い値(780)の会員ID00003を選出する。さらに顔照合部406は、その会員ID00003に対応付けられている高精度顔情報805と、レジ撮像装置15の画像から抽出された人物の高精度特徴量(顔情報)とを用いて、第2の顔照合を行う。そしてこの第2の顔照合の結果として得られた類似度スコアが680であったとする。この場合、第2の顔照合による類似度スコアの680は、所定のスコア閾値である700未満であるため、顔照合部406は、レジ前にいる人物は会員ID00003の人物ではない、つまり決済が可能な決済者ではないと判定する。
First, the
次に顔照合部406は、来店者照合リストの類似度スコア804のなかで次に類似度スコアが高い値(660)の会員ID00001を選出する。さらに顔照合部406は、その会員ID00001に対応付けられている高精度顔情報805と、レジ撮像装置15の画像から抽出された人物の高精度特徴量(顔情報)とを用いて、第2の顔照合を行う。そしてこの第2の顔照合の結果として得られた類似度スコアが720であったとする。この場合、第2の顔照合による類似度スコアの720は、所定のスコア閾値である700を超えているため、顔照合部406は、レジ前にいる人物は会員ID00001の人物である、つまり決済可能な決済者であると判定する。
Next, the
このようにして、顔照合部406での第2の顔照合の結果、決済者としての会員が特定されると、決済部407は、その特定された会員の会員ID801に対応する決済情報802を用いて、決済処理を行う。本実施形態の場合、例えば、決済処理では、レジといった不図示の購入金額集計システムから決済額を受け取り、不図示の決済システムに決済額、会員ID、決算情報を送信することで決済処理が行われる。
In this way, when the member as the payer is specified as a result of the second face matching in the
図10は、第1の実施形態に係る管理装置10が実行する会員登録処理の流れを示すフローチャートである。本実施形態の場合、会員登録は、会員が店舗で決済を行うよりも前に行われる処理である。図10のフローチャートに示した会員登録処理は、システム管理者が、管理装置10上で不図示の登録処理開始ボタンを押下することで開始されるとする。なおこれ以降の各フローチャートやシーケンス図において用いる符号のSは、それぞれ処理のステップを表しているとする。
FIG. 10 is a flow chart showing the flow of member registration processing executed by the
S501において、事前に不図示の撮像装置で登録対象の人物の顔を撮像した静止画に対して高精度特徴量算出処理と中精度特徴量算出処理を行って取得された高精度顔情報と中精度顔情報とが、管理装置10の会員情報登録部300に入力される。
また501において、会員情報登録部300は、予めシステム管理者等が不図示のキーボード等の入力装置を介して入力した会員IDや決済情報等を取得する。そして、会員情報登録部300は、S501で入力された高精度顔情報と中精度顔情報とS502で取得した会員IDや決済情報等を、会員情報として、図6に示した会員情報リストに保存する。なお、会員情報は、会員が所有する携帯電話やスマートフォンなどのモバイル端末、パーソナルコンピュータ等の情報機器から、ネットワークを介して取得されてもよい。
In S501, high-precision face information and medium-precision face information acquired by performing high-precision feature quantity calculation processing and medium-precision feature quantity calculation processing on a still image of a person's face captured in advance by an imaging device (not shown) and medium-precision feature quantity calculation processing are performed. The accurate facial information is input to the member
In 501, the member
図11は、本実施形態に係る認識装置12と管理装置10とが連携して実行する、店内撮像装置14の画像を用いた第1の顔照合の処理の流れを示すフローチャートである。図11のフローチャートに示した第1の顔照合処理は、システム管理者が、例えば認識装置12上で不図示の第1の顔照合処理開始ボタンを押下することで開始されるとする。なおシステム管理者による指示の他に、予め認識装置12に店舗の営業開始時刻を記憶させておき、営業開始時刻になったことを条件に、認識装置12が第1の顔照合処理を開始するようになされていてもよい。
FIG. 11 is a flow chart showing the flow of the first face matching process using the image of the in-
S600において、認識装置12の画像取得部400は、店内撮像装置14が店舗内を撮像した画像を取得する。
次にS601において、認識装置12の顔検出部401は、画像取得部400から受け取った画像に対して顔検出を行い、図9(a)で説明したような顔の境界枠を取得する。
さらにS602において、認識装置12の特徴量抽出部402は、中精度処理部409により、境界枠内の画像から中精度特徴量(顔情報)を抽出する。
そしてS603において、認識装置12の情報送信部403は、S602で抽出した中精度特徴量(顔情報)を、管理装置10の顔情報取得部301に送信する。
In S600, the
Next, in S601, the
Further, in S602, the medium-
In S<b>603 , the
管理装置10では、S604において、顔情報取得部301が、認識装置12から送信されてき中精度特徴量(顔情報)を受信する。
次にS605において、管理装置10の顔照合部302は、受信した中精度特徴量と、管理装置10の会員情報登録部300が保持している会員情報リストから取得した中精度顔情報(特徴量)との比較により、類似度スコアを取得する。
そしてS606において、管理装置10の情報送信部303は、S605で取得した類似度スコアと、会員情報登録部300から取得した会員情報とを併せて、認識装置12の会員情報取得部404に送信する。
In the
Next, in S605, the
In S606, the
認識装置12では、S607において、会員情報取得部404が、管理装置10から送信されてきた類似度スコアと会員情報とを受信する。
次にS608において、認識装置12のリスト管理部405は、管理装置10から送信された類似度スコアと会員情報とを、来店者照合リストに保存する。
In the
Next, in S608, the
認識装置12と管理装置10は、以上のような流れの第1の顔照合処理を、店内撮像装置14が起動している間、連携して繰り返し続けることにより、店舗内に滞在している全ての来店者について登録済の会員情報との紐づけを行う。
The
本実施形態では、全ての来店者について登録済の会員情報と紐づけを行って来店者照合リストに登録する例を説明したが、他の例として、類似度スコアが予め設定されたスコア閾値以上の会員情報のみを来店者照合リストに登録してもよい。さらに他の例として、第1の顔照合処理のフローチャートにおいて、認識装置12が実行する処理の一部または全部を、管理装置10が実行してもよい。或いは、管理装置が実行する処理の一部または全部を、認識装置12が実行してもよい。
In the present embodiment, an example has been described in which all visitors are linked with registered member information and registered in the visitor verification list. may be registered in the visitor verification list. As still another example, the
図12は、本実施形態に係る認識装置12がレジ撮像装置15の画像を用いて実行する第2の顔照合における処理の流れを示すフローチャートである。図12のフローチャートに示した第2の顔照合処理は、システム管理者が、認識装置12上で不図示の第2の顔照合処理開始ボタンを押下することで開始されるとする。なお、システム管理者による指示の他に、予め認識装置12に店舗の営業開始時刻を記憶させておき、営業開始時刻になったことを条件に、認識装置12が第2の顔照合処理を開始するようになされていてもよい。
FIG. 12 is a flow chart showing the flow of processing in the second face collation executed by the
S700において、画像取得部400は、レジ撮像装置15から、レジで商品の決済を行おうとしている人物の顔を正面から撮像した画像を取得する。
次にS701において、顔検出部401は、画像取得部400から受け取った画像に対して顔検出を行い、顔の境界枠を取得する。
さらにS702において、特徴量抽出部402は、高精度処理部408により、境界枠の画像から高精度特徴量(顔情報)を抽出する。
In S<b>700 , the
Next, in S701, the
Further, in S702, the feature
次にS703において、顔照合部406は、S702で取得した高精度特徴量と、リスト管理部405で管理している来店者照合リストの会員情報の中で類似度スコアが最も高い会員情報の高精度顔情報(特徴量)とを比較し、類似度スコアを取得する。すなわちS703において、顔照合部406は、来店者照合リスト内の高精度顔情報の中で類似度スコアが会員情報の高精度顔情報から順に、S702で取得した高精度特徴量(顔情報)との照合を行う。これにより、レジ撮像装置15の画像に写っている人物、つまりレジで決済を行おうとしている人物が、来店者照合リスト内のいずれの会員情報の人物であるかを特定する。
Next, in S<b>703 , the
本実施形態では、前述のように店内撮像装置14の画像を用いて来店者を追尾し、その追尾を行っている間に、中精度特徴量を用いた第1の顔照合を行い、その第1の顔照合の結果を基に来店者照合リストが1つ生成されて、当該来店者に紐づけられる。そして本実施形態では、店内撮像装置14の画像を基に追尾していた人物がレジ前に来た時、S703において、顔照合部406が、来店者に紐づく来店者照合リストを用い、高精度特徴量による第2の顔照合を行い、来店者がいずれの会員であるかを特定する。
In the present embodiment, as described above, the image of the in-
次にS704において、顔照合部406は、高精度特徴量を用いた照合による類似度スコアが所定のスコア閾値以上であるかを判定する。そして顔照合部406において、スコア閾値以上であると判定した場合、S703でリスト管理部405から取得した会員情報に対応する人物が、決済可能な人物であるして特定される。一方、スコア閾値未満であると判定した場合、顔照合部406は、S703に処理を戻し、次に高い類似度スコアの会員情報における高精度顔情報を用いた比較を行う。なお来店者照合リストの全ての会員情報の高精度顔情報との比較を行っても、類似度スコアがスコア閾値以上にならなかった場合、顔照合部406は、レジ前の人物は非登録者であるとし、不図示の現金払い等の決済を行うように決済部407に指示する。
Next, in S704, the
S705において、決済部407は、前段の処理で決済を行おうとしている人物が会員として特定された場合、その会員(決済者)の決済情報802を用いて、決済処理を行う。
なお他の例として、第2の顔照合処理のフローチャートにおいて認識装置12が実行する処理の一部または全部を管理装置10が実行してもよい。
In S705, the
As another example, the
以上説明したように、第1の実施形態では、店内撮像装置14が取得した画像(俯瞰画像)から検出した顔画像から抽出した中精度特徴量(顔情報)を用いて第1の顔照合を行うことで、全ての会員の中から来店している会員の候補者を絞っておく。そして、絞られた候補者について、会員情報に登録されている顔画像の高精度顔情報(特徴量)と、レジ撮像装置15で正面撮影した顔画像から抽出した高精度特徴量とを比較する第2の顔照合が行われる。これにより、店内撮像装置14の画像の認識精度が低い場合であっても、レジでの認識時間を短縮しながらも、精度の高い顔認識を行って決済者を特定することができる。また、店内撮像装置14における顔認識は中精度特徴量を用いた処理であるため、処理コストを低減させることが可能となる。
As described above, in the first embodiment, the first face matching is performed using the medium-precision feature amount (face information) extracted from the face image detected from the image (overhead image) acquired by the in-
<第2の実施形態>
次に第2の実施形態について説明する。ここでは、第1の実施形態とは異なる機能と処理についてのみ説明し、それ以外については特に触れない限り、第1の実施形態と同様であるものとする。第2の実施形態の場合、店内撮像装置14で取得した画像について高い顔認識精度が必要となるような条件下では、高精度特徴量(高精度顔情報)を用いた認識処理を行うようにする。本実施形態では、店内撮像装置14の画像に対して所定の解析処理を行い、その解析処理の結果を基に、高い顔認識精度が必要となるような条件を満たすか判定し、高い顔認識精度が必要と判定した場合、高精度特徴量を用いた認識処理を行う。店内撮像装置14で取得した画像に対して高い顔認識精度が必要となる条件としては、例えば、顔の一部が髪の毛やマスク、サングラス等の遮蔽物によって隠れていたり、人物が物陰に隠れていたりするような場合等を挙げることができる。第2の実施形態では、所定の解析処理として、人物の顔の一部が隠れているかを解析し、顔の一部が隠れているとの解析結果が得られた場合に、店内撮像装置14の画像から高精度特徴量を抽出する。本実施形態における所定の解析処理の詳細は後述する。
<Second embodiment>
Next, a second embodiment will be described. Here, only the functions and processes different from those of the first embodiment will be described, and the rest are assumed to be the same as those of the first embodiment unless otherwise specified. In the case of the second embodiment, under conditions where high accuracy of face recognition is required for an image acquired by the in-
また前述した第1の実施形態では、来店者が新規に発見された場合のみ来店者照合リストが作成され、追尾されている来店者に対しては更新されない例となっている。これに対し、第2の実施形態では、来店者が新規に発見された場合のみ来店者照合リストが作成され、店内カメラで来店者の顔が検出される度に更新されるとする。 Further, in the above-described first embodiment, the visitor verification list is created only when a visitor is newly discovered, and the visitor who is being tracked is not updated. On the other hand, in the second embodiment, the visitor verification list is created only when a visitor is newly discovered, and is updated every time the visitor's face is detected by the in-store camera.
第2の実施形態の場合、認識装置12において、店内撮像装置14の画像に写っている人物(来店者203)の顔画像から特徴量を抽出する際、顔の一部が遮蔽物等によって隠れているかの解析処理を行う。そして認識装置12は、顔の一部が遮蔽物等により隠れているとの解析結果が得られた場合、店内撮像装置14による顔画像から、第1の抽出処理による第1の特徴量つまり高精度特徴量(高精度顔情報)を取得する。そして、その抽出した高精度特徴量を、ネットワーク11を介して管理装置10へ送信する。
In the case of the second embodiment, when the
第2の実施形態の場合、管理装置10は、店内撮像装置14の画像から抽出された高精度特徴量と、登録会員における高精度顔情報(高精度特徴量)とを用いて、第1の顔照合を行う。そして管理装置10は、第2の実施形態に係る第1の顔照合の結果と会員情報とを、認識装置12に送る。第2の実施形態の場合も、第1の顔照合の結果を示す情報は、顔の特徴量が類似する度合を示す類似度スコアとなされる。
In the case of the second embodiment, the
認識装置12は、管理装置10による第1の顔照合の結果と会員情報とを含む来店者照合リストを作成および保持し、管理する。来店者照合リストの構成は、第1の実施形態と同様であり、第1の顔照合による類似度スコアと、その第1の顔照合の結果に応じた会員の識別情報、決済情報、および顔認識に用いる顔情報を少なくとも含むリストとなされる。
The
図13は、第2の実施形態に係る認識装置12と管理装置10とが連携して実行する、店内撮像装置14の画像を用いた第1の顔照合処理の流れを示すフローチャートである。前述した図11との違いは、認識装置12において、S601の処理後、S801の判断処理が行われ、その結果に応じてS802またはS803の処理が行われた後、S603の処理に進み、さらにS607の処理後にS805の処理が実行される点である。また管理装置10では、S604の処理後に、S804の処理が実行され、そのS804の処理後にS606の処理が実行される点が、図11の処理とは異なる。
FIG. 13 is a flow chart showing the flow of the first face matching process using the image of the in-
S801に進むと、認識装置12の特徴量抽出部402は、所定の解析処理として判断処理を行う。この時の特徴量抽出部402は、顔画像における顔の遮蔽の程度を取得する処理、例えば、S601の顔検出時に取得した顔器官の尤度が、所定の尤度閾値以上であるかを判定する。ここで、図9(a)に示したように顔が隠れていないため顔器官の尤度が所定の尤度閾値以上であれば、顔器官が尤もらしく各顔器官が露出している可能性が高いと判断できる。したがって、特徴量抽出部402は、顔器官の尤度が所定の尤度閾値以上である場合にはS802に処理を進める。一方、図8(b)に示すように、顔の一部が何らかの遮蔽物1502によって隠れている場合、顔器官の尤度が所定の尤度閾値未満になることがあり、この場合、顔器官が尤もらしくなく各顔器官の一部が隠れている可能性が高いと判断できる。したがって、特徴量抽出部402は、顔器官の尤度が所定の尤度閾値未満である場合にはS803に処理を進める。
When proceeding to S801, the feature
S802に進んだ場合、認識装置12の特徴量抽出部402では、中精度処理部409によって、顔の境界枠の画像から中精度特徴量(中精度顔情報)を算出する。
一方、S803に進んだ場合、認識装置12の特徴量抽出部402では、高精度処理部408によって、顔の境界枠の画像から高精度特徴量(高精度顔情報)を算出する。
When proceeding to S802, the medium-
On the other hand, if the process proceeds to S803, the high-
管理装置10において、S604からS804に進むと、顔照合部302は、認識装置12から送られてきた特徴量(顔情報)と、会員情報登録部300から取得した会員の顔情報(特徴量)とを比較して類似度スコアを取得する。すなわち認識装置12から高精度特徴量を受信した場合、顔照合部302では、会員情報登録部300から取得した会員の高精度顔情報との比較によって高精度類似度スコアを取得する。また認識装置12から中精度顔情報を受信した場合、顔照合部302では、会員情報登録部300から取得した会員の中精度顔情報との比較によって中精度類似度スコアを取得する。
In the
また認識装置12において、S607からS805に進むと、リスト管理部405は、来店者ごとに、会員の類似度スコアと会員情報を来店者照合リストに保存する。第2の実施形態の場合、来店者照合リストに保存される類似度スコアは、管理装置10がS804で取得した中精度類似度スコアもしくは高精度類似度スコアを含むことになる。すなわちリスト管理部405は、S802でした中精度特徴量に応じて管理装置10で取得された中精度類似度スコア、もしくはS803で算出した高精度特徴量に応じて管理装置10で取得された高精度類似度スコアを、来店者照合リストに保存する。
Also, in the
なお、既に過去に顔検出され類似度スコアが取得されている来店者であった場合、リスト管理部405は、類似度スコアの値の更新を行う。また、来店者において高精度類似度スコアもしくは中精度類似度スコアのどちらか1つのみが取得されている場合、リスト管理部405は、その来店者について取得されている類似度スコアを評価スコアとする。
Note that if the visitor is a visitor whose face has already been detected and a similarity score has been obtained in the past, the
一方、来店者について既に高精度類似度スコアと中精度類似度スコアが共に取得されている場合、リスト管理部405は、各類似度スコアに重みを考慮し、評価スコアを算出し保存する。例えば、高精度類似度スコア806、中精度類似度スコアに対し、重みを0.5:0.5として、その和を評価スコアとする。
On the other hand, if both the high-precision similarity score and the medium-precision similarity score have already been acquired for the visitor, the
図14は、高精度類似度スコア1401、中精度類似度スコア1402、および評価スコア1403を含む来店者照合リストの一例を示した図である。図14において、会員ID810から中精度顔情報803までは図8と同様であるため、それらの説明は省略する。すなわち第2の実施形態の場合、来店者照合リストには、高精度特徴量を用いた第1の顔照合による類似度スコアが高精度類似度スコア1401に保存され、中精度特徴量を用いた第1の顔照合による類似度スコアが中精度類似度スコア1402に保存される。さらに第2の実施形態に係る来店者照合リストには、重みを考慮して算出された評価スコアが評価スコア1403に保存される。
FIG. 14 is a diagram showing an example of a visitor matching list including a high-
第2の実施形態において、その後、図12に示したフローチャートで決済処理が行われる際、顔照合部406は、S704の処理として、前述のようにして算出された評価スコアの順にレジでの第2の顔照合を行う。第2の実施形態では、来店者一人に対して何度かの顔検出と特徴量抽出が実行されたときを考慮した処理が行われる。 In the second embodiment, when settlement processing is subsequently performed according to the flowchart shown in FIG. 2 face matching is performed. In the second embodiment, processing is performed in consideration of when face detection and feature quantity extraction are performed several times for one visitor.
以上説明したように、第2の実施形態では、来店客の顔が覆われておらず確認できるときには中精度特徴量を用いた顔認識を行うことで、処理コストを下げ、一方、客の顔の一部が隠れている場合には、高精度特徴量を用いた顔認識を行う。これにより、第2の実施形態によれば、システム全体としての処理コストを抑えつつも高い認識精度を維持可能となる。 As described above, in the second embodiment, when the customer's face is not covered and can be confirmed, face recognition is performed using medium-precision feature amounts, thereby reducing the processing cost and reducing the customer's face. is partially hidden, face recognition is performed using high-precision feature amounts. Thus, according to the second embodiment, it is possible to maintain high recognition accuracy while suppressing the processing cost of the system as a whole.
第2の実施形態では、所定の解析処理として、顔器官の尤度といった値を用いて顔の露出状態、言い換えると顔の隠れ状態を確認することを行っているが、これに限るものではない。所定の解析処理として、例えば、画像からサングラスやマスクなどの遮蔽物を検知する処理を行ってもよい。認識装置12は、遮蔽物を検知した場合に、高精度特徴量を用いた顔認識を行うようにする。
In the second embodiment, as the predetermined analysis processing, the face exposed state, in other words, the hidden state of the face is confirmed using a value such as the likelihood of facial features, but the present invention is not limited to this. . As the predetermined analysis process, for example, a process of detecting shielding objects such as sunglasses or a mask from the image may be performed. The
また、顔認識においては、一般に顔の向きが撮像装置に対して正対している方が認識精度を高くなる。したがって、所定の解析処理として、顔検出部401において、顔の検出と共に顔の向きを検出する処理を行い、S801において顔向きが正対の向きであるか否かをも判断して、顔認識の精度を切り替えてもよい。すなわち認識装置12は、顔向きが正対の向きである場合には中精度特徴量を用いた顔認識を行い、正対の向きでない場合には高精度特徴量を用いた顔認識を行う。
Further, in face recognition, recognition accuracy is generally higher when the face faces the imaging device. Therefore, as predetermined analysis processing, the
また本実施形態では、高精度類似度スコアと中精度類似度スコアに基づく評価スコアを用いたが、これに限るものではなく、過去に取得された類似度スコアを累積したものを評価スコアとしてもよい。 In addition, in the present embodiment, the evaluation score based on the high-precision similarity score and the medium-precision similarity score is used, but the present invention is not limited to this. good.
<第3の実施形態>
次に第3の実施形態について説明する。ここでは、第2の実施形態とは異なる機能や処理についてのみ説明し、その他については特に触れない限りは第1,第2の実施形態と同様であるものとする。
第1または第2の実施形態の認識装置12では、第1の顔照合の際には中精度特徴量を用いた照合処理を行うことを基本としている。第3の実施形態の認識装置12は、すべての顔認識に対して基本的には高精度特徴量を用いた照合処理を行い、高精度特徴量を用いても高い認識精度の結果が望めないとき、あるいは過度に処理コストが増加してしまうとき、中精度特徴量を用いた照合を行う。これにより、第3の実施形態では、認識の精度を維持しつつ、処理コストを抑えるようにする。
<Third Embodiment>
Next, a third embodiment will be described. Here, only the functions and processes that are different from those of the second embodiment will be described, and the others are the same as those of the first and second embodiments unless otherwise specified.
In the
第3の実施形態では、高精度特徴量を用いても高い精度の認識結果を望めない場合の一例として、画像から検出した顔の境界枠のサイズが小さい場合を挙げて説明する。すなわち第3の実施形態では、所定の解析処理として、画像から検出した顔の境界枠のサイズを求め、そのサイズの大小に応じて中精度特徴量を用いた照合を行うか、高精度特徴量を用いた照合を行うかを選択(決定)する。例えば、顔の境界枠のサイズが小さい場合、顔画像から得られる情報量が少ないために、高精度特徴量を用いても認識精度の向上が図れないことが多い。このため、本実施形態では、顔の境界枠のサイズが所定の閾値未満である場合には、中精度特徴量を用いることで処理コストを抑えるようにする。一方、顔の境界枠のサイズが所定の閾値以上である場合には、高精度特徴量を用いることで高い認識精度での照合を可能とする。 In the third embodiment, as an example of a case in which a highly accurate recognition result cannot be expected even if a highly accurate feature amount is used, a case where the size of the boundary frame of a face detected from an image is small will be described. That is, in the third embodiment, as predetermined analysis processing, the size of the boundary frame of the face detected from the image is obtained, and depending on the size of the size, matching is performed using medium-precision feature amounts or high-precision feature amounts. Select (determine) whether to perform matching using . For example, when the size of the boundary frame of the face is small, the amount of information obtained from the face image is small, so that it is often impossible to improve the recognition accuracy even if a high-precision feature amount is used. For this reason, in the present embodiment, when the size of the boundary frame of the face is less than a predetermined threshold value, the processing cost is suppressed by using the medium-precision feature amount. On the other hand, when the size of the boundary frame of the face is equal to or larger than the predetermined threshold, matching with high recognition accuracy is possible by using the high-precision feature amount.
第3の実施形態において、認識装置12が管理装置10と連携して実行する、店内撮像装置14の画像を用いた第1の顔照合の処理は、概ね前述した図13のフローチャートと同様な流れになる。ただし、第3の実施形態の場合、図13のフローチャートのS801における判断処理が異なる。
In the third embodiment, the processing of the first face matching using the image of the in-
第3の実施形態の場合、S801において、認識装置12の特徴量抽出部402は、S601の顔検出にて検出された境界枠のサイズが所定のサイズ閾値未満か否かを判断する。より具体的には、特徴量抽出部402は、境界枠の幅が所定の幅閾値未満か、または境界枠の高さが高さ閾値未満かを判断する。そして特徴量抽出部402は、境界枠の幅と高さのいずれか、もしくは両方がそれぞれ閾値(幅閾値、高さ閾値)未満である場合、高精度特徴量(顔情報)を算出するのに十分な情報量がなく、処理コストが低い中精度特徴量を用いた処理でよいと判断する。つまり、境界枠の幅と高さのいずれか、もしくは両方がそれぞれ対応した閾値未満である場合、特徴量抽出部402では、S803において中精度特徴量算出処理を実行する。一方、特徴量抽出部402は、境界枠の幅と高さのいずれもが対応した閾値(幅閾値あるいは高さ閾値)以上の場合、高精度の特徴量を出するのに十分な情報量があると判断して、S802の高精度特徴量算出処理を実行する。
In the case of the third embodiment, in S801, the feature
以上説明したように、第3の実施形態によれば、高精度特徴量(高精度顔情報)を抽出する処理を行っても十分な精度が得られないと判断した場合、中精度特徴量(中精度顔情報)の抽出を行うことにより、精度の維持と処理コストを低減とが可能となる。 As described above, according to the third embodiment, when it is determined that sufficient accuracy cannot be obtained even if a process for extracting high-precision feature amounts (high-precision face information) is performed, medium-precision feature amounts ( By extracting medium-precision face information, it is possible to maintain accuracy and reduce processing costs.
<第3の実施形態の変形例>。
第3の実施形態では、検出された顔の境界枠の大きさを用いたが、所定の解析処理の他の例として、撮像画像から検出された顔の数を検出する処理を行い、その解析結果を基に高精度と中精度のいずれの特徴量算出処理を行うかを選択(切り替え)てもよい。すなわち画像から検出される顔の数が多い場合、それら多数の顔画像を用いた処理を行うと極端に処理コストが増大することが想定される。したがって認識装置12では、第1の顔照合を行う際に、所定の解析処理として画像から顔の数を検出いし、その検出した顔の数が所定の数閾値以上である場合、中精度特徴量算出処理を行うようにする。一方、顔の数が所定の数閾値未満である場合、認識装置12では、高精度特徴量算出処理を行うようする。この変形例によれば、顔の数が多く、高精度特徴量算出を行った場合に処理コストが増大すると判断した場合、中精度特徴量算出を行うことにより、処理コストを低減することが可能となる。
<Modified example of the third embodiment>.
In the third embodiment, the size of the boundary frame of the detected face is used, but as another example of the predetermined analysis processing, processing for detecting the number of faces detected from the captured image is performed, and the analysis is performed. Based on the results, it is possible to select (switch) whether to perform high-precision or medium-precision feature amount calculation processing. That is, when the number of faces detected from an image is large, it is assumed that the processing cost will increase significantly if processing is performed using the large number of face images. Therefore, in the
<第4の実施形態>
前述した第1~第3の実施形態は、管理装置と認識装置が分かれたシステム構成例を挙げたが、管理装置と認識装置の両機能が一つの情報処理装置により実現されてもよい。第4の実施形態は、管理装置と認識装置の両機能を備えた情報処理装置について説明する。
<Fourth Embodiment>
In the above-described first to third embodiments, system configuration examples in which the management device and the recognition device are separate have been given, but both the functions of the management device and the recognition device may be realized by one information processing device. The fourth embodiment describes an information processing apparatus having both functions of a management device and a recognition device.
図15は第4の実施形態に係る情報処理装置の機能構成例を示した図である。なお、第4の実施形態に係る情報処理装置のハードウェア構成は、前述した図3や図4の構成と概ね同様であるため、その図示と説明は省略する。また第4の実施形態の情報処理装置では、前述した第1~第3のいずれかの実施形態における管理装置および認識装置で説明した処理を行えるが、ここでは一例として第1の実施形態で説明した例を第4の実施形態に適用する場合を挙げて説明する。 FIG. 15 is a diagram showing a functional configuration example of an information processing apparatus according to the fourth embodiment. Note that the hardware configuration of the information processing apparatus according to the fourth embodiment is substantially the same as the configurations of FIGS. Further, the information processing apparatus of the fourth embodiment can perform the processing described in the management apparatus and the recognition apparatus in any one of the first to third embodiments, but the first embodiment will be described here as an example. A case where the above example is applied to the fourth embodiment will be described.
第4の実施形態において、情報処理装置の画像取得部141は店内撮像装置14或いはレジ撮像装置15から画像を取得し、顔検出部142は画像から顔検出を行う。
特徴量抽出部146では、店内撮像装置14の画像から検出された顔画像が送られてきた場合、中精度処理部146Mが、中精度特徴量(顔情報)を抽出して第1の顔照合部143に送る。またこのとき、会員情報取得部140は予め用意された会員情報に登録されている顔情報を第1の顔照合部143に送る。そして、第1の顔照合部143では、前述同様の第1の顔照合を行い、リスト管理部144ではその第1の顔照合の結果を基に来店者リストを作成して保持する。
In the fourth embodiment, the
In the feature
また特徴量抽出部146では、レジ撮像装置15の画像から検出された顔画像が送られてきた場合、高精度処理部146Hが、高精度特徴量(顔情報)を抽出して第2の顔照合部147に送る。この時の第2の顔照合部147は、さきに作成して保持されている来店者照合リストから類似度が高い順番で高精度特徴量を取得して第2の顔照合を行う。そして第2の顔照合部147においてレジ前の人物が会員であると特定できたときに、決済部148は決済処理を行う。
Further, in the feature
図16は、第4の実施形態に係る情報処理装置における処理の流れを示すフローチャートである。
S160において、画像取得部141は店内撮像装置14あるいはレジ撮像装置15から画像を取得する。そして、S161において、情報処理装置は、取得した画像が、店内撮像装置14からの画像である場合にはS162以降に処理を進め、レジ撮像装置15からの画像である場合にはS166以降に処理を進める。
FIG. 16 is a flow chart showing the flow of processing in the information processing apparatus according to the fourth embodiment.
In S<b>160 , the
S162の処理に進んだ場合、顔検出部142は、店内撮像装置14による画像から顔検出を行う。
次にS162において、特徴量抽出部146は、顔検出部142にて検出された顔画像(境界枠の画像)から、中精度処理部146Mによって中精度特徴量(顔情報)を抽出する。
さらにS164において、第1の顔照合部143は、会員情報取得部140から会員情報を取得し、その会員情報内の中精度顔情報(特徴量)と、S163で抽出された中精度特徴量とを用いた第1の顔照合を行って類似度スコアを取得する。
そしてS165において、リスト管理部144は、会員情報取得部140から得られた会員情報と、S164で取得された類似度スコアとを基に、来店者照合リストを作成して保持する。その後、情報処理装置は、図16のフローチャートの処理を終了する。
When proceeding to the process of S<b>162 , the
Next, in S162, the feature
Furthermore, in S164, the first
Then, in S165, the
一方、S166に進んだ場合、顔検出部142は、レジ撮像装置15の画像から顔検出を行う。
次にS167において、特徴量抽出部146は、顔検出部142にて検出された顔画像(境界枠の画像)から、高精度処理部146Hによって高精度特徴量(顔情報)を抽出する。
さらにS168において、第2の顔照合部143は、リスト管理部144が保持している来店者照合リストの高精度顔情報(特徴量)と、S167で抽出された高精度特徴量とを用いた第2の顔照合を行う。
そして、情報処理装置は、第2の顔照合において類似度スコアが閾値以上となる結果が得られた場合にはS170に処理を進め、S170において決済部148が決済処理を行う。
一方、S169において類似度スコアが閾値未満の結果が得られた場合、情報処理装置は図16のフローチャートの処理を終了する。すなわちこの場合の決済者は、現金等よる決済を行うことになる。
On the other hand, when proceeding to S<b>166 , the
Next, in S167, the feature
Furthermore, in S168, the second
Then, when the similarity score equals or exceeds the threshold in the second face collation, the information processing apparatus advances the processing to S170, and the
On the other hand, if a similarity score less than the threshold value is obtained in S169, the information processing device ends the processing of the flowchart of FIG. In other words, the payer in this case will make the payment in cash or the like.
図17は、第4の実施形態において、店舗内の情報処理装置1700が、第1の顔照合および来店者照合リストの作成・管理、さらに第2の顔照合から決済要求までを行う場合の処理の流れを示したシーケンス図である。なおこの例では、全ての登録会員の会員情報を管理し、決済処理を行う装置としての、管理装置1000が設けられているとする。
FIG. 17 shows the processing when the
S900において、情報処理装置1700は、管理装置1000に対し、すべての会員における特徴量(顔情報)を含む会員情報を要求する。そしてS901において、情報処理装置1700は、管理装置1000から特徴量を含む会員情報を取得する。
In S900, the
情報処理装置1700は、S902で店内撮像装置14に対して画像の取得要求を送り、店内撮像装置14から画像が送られてきた場合に、S903においてその店内撮像装置14からの画像を取得する。
次にS904において、情報処理装置1700は、店内撮像装置14から取得した画像から人物の顔画像を検出し、その顔画像から中精度特徴量(顔情報)を抽出する。さらに、情報処理装置1700は、S905において、S904で抽出した中精度特徴量と、会員情報リストの中精度顔情報(特徴量)とを用いた第1の顔照合を行い、来店者照合リストを作成する。
The
Next, in S904, the
その後、情報処理装置1700は、S906においてレジ撮像装置15に対して画像の取得要求を送り、レジ撮像装置15から画像が送られてきた場合に、S907においてそのレジ撮像装置15からの画像を取得する。
次にS908において、情報処理装置1700は、レジ撮像装置15の画像から人物の顔画像を検出し、その顔画像から高精度特徴量(顔情報)を抽出する。さらに、S909において、情報処理装置1700は、S908で抽出した高精度特徴量と、来店者照合リストの高精度顔情報(特徴量)とを比較する第2の顔照合を行う。
Thereafter, the
Next, in S908, the
情報処理装置1700は、第2の顔照合の結果、S910において会員を特定すると、S911において管理装置1000に決済情報を送って決済処理を要求する。そして、管理装置1000において決済処理が完了すると、S912において決済処理結果の通知を受け取る。
When the
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.
All of the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical concept or main features.
10:管理装置、12:認識装置、14:店内撮像装置、15:レジ撮像装置、300:会員情報登録部、301:顔情報取得部、302:顔照合部、400:画像取得部、401:顔検出部、402:特徴量抽出部、404:会員情報取得部、405:リスト管理部、406:顔照合部、407:決済部 10: Management device, 12: Recognition device, 14: In-store imaging device, 15: Cash register imaging device, 300: Member information registration unit, 301: Face information acquisition unit, 302: Face matching unit, 400: Image acquisition unit, 401: Face detection unit 402: Feature amount extraction unit 404: Member information acquisition unit 405: List management unit 406: Face matching unit 407: Payment unit
Claims (27)
前記第1の情報処理装置は、
複数の人物の顔画像から、第1の抽出処理によって抽出された第1の特徴情報と、前記第1の抽出処理よりも処理量が多い第2の抽出処理によって抽出された第2の特徴情報と、を含む人物情報を取得し、
人物を撮影した第1の顔画像から前記第1の抽出処理によって抽出された第3の特徴情報と、前記人物情報に含まれる前記第1の特徴情報とを比較して類似度を取得する第1の照合処理を行い、前記第1の照合処理による類似度を含めた前記人物情報を、前記第2の情報処理装置に送信し、
前記第2の情報処理装置は、
前記第1の情報処理装置から前記類似度を含む人物情報を取得し、前記人物情報から、前記類似度に応じた前記第1の特徴情報および前記第2の特徴情報を含むリストを作成し、
人物を撮影した第2の顔画像から前記第2の抽出処理によって抽出した第4の特徴情報と、前記リストの前記類似度が高い順の前記第2の特徴情報とを比較して、前記第2の顔画像の人物を、前記人物情報の中から特定する第2の照合処理を行う、
ことを特徴とする情報処理システム。 An information processing system including a first information processing device and a second information processing device,
The first information processing device is
First feature information extracted by a first extraction process, and second feature information extracted by a second extraction process with a larger amount of processing than the first extraction process, from face images of a plurality of persons. and obtain person information, including
3rd feature information extracted by said 1st extraction process from the 1st face image which image|photographed a person, and said 1st feature information contained in said person information are compared with said 1st feature information, and the similarity is acquired. 1 matching process is performed, and the personal information including the degree of similarity obtained by the first matching process is transmitted to the second information processing device;
The second information processing device is
acquiring personal information including the degree of similarity from the first information processing device, creating a list including the first characteristic information and the second characteristic information according to the degree of similarity from the personal information;
The fourth feature information extracted by the second extraction process from the second facial image of a person is compared with the second feature information in the list in descending order of the degree of similarity, and the performing a second matching process for identifying the person in the face image of 2 from the person information;
An information processing system characterized by:
前記第2の抽出処理は、前記第1の抽出処理よりも回路規模が大きいニューラルネットワークを用いた処理であることを特徴とする請求項1に記載の情報処理システム。 The first extraction process and the second extraction process are processes using neural networks having different circuit scales,
2. The information processing system according to claim 1, wherein the second extraction process is a process using a neural network having a circuit scale larger than that of the first extraction process.
前記第1の情報処理装置は、前記第2の情報処理装置から受信した前記特徴情報を、前記第3の特徴情報として取得することを特徴とする請求項1または2に記載の情報処理システム。 The second information processing device transmits to the first information processing device feature information extracted by the first extraction process from the first face image of a person, and
3. The information processing system according to claim 1, wherein said first information processing device acquires said feature information received from said second information processing device as said third feature information.
前記第2の情報処理装置は、人物を撮影した顔画像を用いた所定の解析処理の結果を基に、前記第1の顔画像に対する抽出処理を前記第1の抽出処理と前記第2の抽出処理のいずれにするかを選択し、前記選択した抽出処理によって抽出した特徴情報を前記第1の情報処理装置に送信し、
前記第1の情報処理装置は、前記第1の照合処理において、前記第2の情報処理装置から受信した前記特徴情報と、前記第2の情報処理装置で前記選択された抽出処理に応じた前記人物情報の特徴情報とを、比較して類似度を取得することを特徴とする請求項1または2に記載の情報処理システム。 The first collation processing in the first information processing apparatus includes matching feature information extracted from the first face image by the second extraction processing and the second feature information included in the person information. It also includes processing to obtain similarity by comparing
The second information processing apparatus performs the first extraction process and the second extraction process on the first face image based on the result of a predetermined analysis process using a photographed face image of a person. selecting one of the processes, transmitting the feature information extracted by the selected extraction process to the first information processing device;
In the first matching process, the first information processing apparatus performs the feature information received from the second information processing apparatus and the extraction process selected by the second information processing apparatus. 3. The information processing system according to claim 1, wherein the similarity is obtained by comparing the feature information of the person information.
前記第2の情報処理装置は、前記数が所定の数閾値以上である場合には前記第1の抽出処理を選択することを特徴とする請求項4または5に記載の情報処理システム。 The predetermined analysis process is a process of obtaining the number of face images appearing in the photographed image,
6. The information processing system according to claim 4, wherein the second information processing device selects the first extraction process when the number is equal to or greater than a predetermined number threshold.
前記第2の情報処理装置は、前記顔の遮蔽の程度として、前記顔画像における顔の器官の尤度を取得し、前記尤度が尤度閾値以上である場合に前記第1の抽出処理を選択することを特徴とする請求項4または5に記載の情報処理システム。 The predetermined analysis process is a process of acquiring the degree of masking of the face in the photographed face image,
The second information processing apparatus acquires the likelihood of facial organs in the facial image as the degree of masking of the face, and executes the first extraction process when the likelihood is equal to or greater than a likelihood threshold. 6. The information processing system according to claim 4, wherein the selection is made.
前記第2の情報処理装置は、前記所定の遮蔽物の画像が検出された場合に前記第2の抽出処理を選択することを特徴とする請求項4または5に記載の情報処理システム。 The predetermined analysis process is a process of detecting an image of a predetermined shield from the photographed face image,
6. The information processing system according to claim 4, wherein the second information processing device selects the second extraction process when the image of the predetermined shielding object is detected.
前記第2の情報処理装置は、前記顔の向きが正対する向きでない場合に前記第2の抽出処理を選択することを特徴とする請求項4または5に記載の情報処理システム。 The predetermined analysis process is a process of detecting the orientation of the face in the photographed face image,
6. The information processing system according to claim 4, wherein the second information processing device selects the second extraction process when the face orientation is not the facing orientation.
前記第2の情報処理装置は、前記顔のサイズが所定のサイズ閾値未満である場合に前記第1の抽出処理を選択することを特徴とする請求項4または5に記載の情報処理システム。 The predetermined analysis process is a process of acquiring the size of the face in the photographed face image,
6. The information processing system according to claim 4, wherein the second information processing device selects the first extraction process when the size of the face is less than a predetermined size threshold.
人物を撮影した第1の顔画像から前記第1の抽出処理によって抽出した第3の特徴情報と、前記人物情報に含まれる前記第1の特徴情報とを比較して、類似度を取得する処理手段と、
前記人物情報から前記類似度に応じて抽出した前記第1の特徴情報および前記第2の特徴情報と、前記類似度とを含むリストを作成して管理する管理手段と、
人物を撮影した第2の顔画像から前記第2の抽出処理によって抽出した第4の特徴情報と、前記リストの前記類似度が高い順の第2の特徴情報とを比較して、前記第2の顔画像の人物を、前記人物情報の中から特定する特定手段と、
を有することを特徴とする情報処理装置。 First feature information extracted by a first extraction process, and second feature information extracted by a second extraction process with a larger amount of processing than the first extraction process, from face images of a plurality of persons. and an information acquisition means for acquiring personal information including
A process of comparing third feature information extracted by the first extraction process from a first facial image of a person photographed with the first feature information included in the person information to acquire a degree of similarity. means and
management means for creating and managing a list including the first feature information and the second feature information extracted from the person information according to the similarity and the similarity;
The fourth feature information extracted by the second extraction process from the second face image of a person is compared with the second feature information in the list in descending order of similarity to determine the second face image. identification means for identifying the person in the face image of from the person information;
An information processing device comprising:
前記第2の抽出処理は、前記第1の抽出処理よりも回路規模が大きいニューラルネットワークを用いた処理であることを特徴とする請求項14に記載の情報処理装置。 The first extraction process and the second extraction process are processes using neural networks having different circuit scales,
15. The information processing apparatus according to claim 14, wherein the second extraction process is a process using a neural network having a circuit scale larger than that of the first extraction process.
撮影された顔画像を用いた所定の解析処理の結果を基に、前記第1の顔画像に対する抽出処理を、前記第1の抽出処理と前記第2の抽出処理のいずれにするかを選択し、
前記選択した抽出処理によって前記第1の顔画像から抽出した特徴情報と、前記選択した抽出処理に応じた前記人物情報の特徴情報とを、比較して類似度を取得することを特徴とする請求項14または15に記載の情報処理装置。 The processing means
selecting either the first extraction process or the second extraction process as the extraction process for the first face image based on the result of a predetermined analysis process using the photographed face image; ,
The feature information extracted from the first face image by the selected extraction process and the feature information of the person information according to the selected extraction process are compared to obtain a degree of similarity. 16. The information processing device according to Item 14 or 15.
前記処理手段は、前記数が所定の数閾値以上である場合には前記第1の抽出処理を選択することを特徴とする請求項16または17に記載の情報処理装置。 The predetermined analysis process is a process of obtaining the number of face images appearing in the photographed image,
18. An information processing apparatus according to claim 16, wherein said processing means selects said first extraction process when said number is greater than or equal to a predetermined number threshold.
前記処理手段は、前記顔の遮蔽の程度として、前記顔画像における顔の器官の尤度を取得し、前記尤度が尤度閾値以上である場合に前記第1の抽出処理を選択することを特徴とする請求項16または17に記載の情報処理装置。 The predetermined analysis process is a process of acquiring the degree of masking of the face in the photographed face image,
The processing means acquires the likelihood of facial organs in the facial image as the degree of masking of the face, and selects the first extraction process when the likelihood is equal to or greater than a likelihood threshold. 18. The information processing apparatus according to claim 16 or 17.
前記処理手段は、前記所定の遮蔽物の画像が検出された場合に前記第2の抽出処理を選択することを特徴とする請求項16または17に記載の情報処理装置。 The predetermined analysis process is a process of detecting an image of a predetermined shield from the photographed face image,
18. The information processing apparatus according to claim 16, wherein the processing means selects the second extraction process when the image of the predetermined shielding object is detected.
前記処理手段は、前記顔の向きが正対する向きでない場合に前記第2の抽出処理を選択することを特徴とする請求項16または17に記載の情報処理装置。 The predetermined analysis process is a process of detecting the orientation of the face in the photographed face image,
18. The information processing apparatus according to claim 16, wherein said processing means selects said second extraction process when said face is not facing forward.
前記処理手段は、前記顔のサイズが所定のサイズ閾値未満である場合に前記第1の抽出処理を選択することを特徴とする請求項16または17に記載の情報処理装置。 The predetermined analysis process is a process of acquiring the size of the face in the photographed face image,
18. The information processing apparatus according to claim 16, wherein said processing means selects said first extraction process when the size of said face is less than a predetermined size threshold.
人物を撮影した第1の顔画像から前記第1の抽出処理によって抽出した第3の特徴情報と、前記人物情報に含まれる前記第1の特徴情報とを比較して、類似度を取得する処理工程と、
前記人物情報から前記類似度に応じて抽出した前記第1の特徴情報および前記第2の特徴情報と、前記類似度とを含むリストを作成して管理する管理工程と、
人物を撮影した第2の顔画像から前記第2の抽出処理によって抽出した第4の特徴情報と、前記リストの前記類似度が高い順の第2の特徴情報とを比較して、前記第2の顔画像の人物を、前記人物情報の中から特定する特定工程と、
を有することを特徴とする情報処理方法。 First feature information extracted by a first extraction process, and second feature information extracted by a second extraction process with a larger amount of processing than the first extraction process, from face images of a plurality of persons. and an information acquisition step of acquiring personal information including
A process of comparing third feature information extracted by the first extraction process from a first facial image of a person photographed with the first feature information included in the person information to acquire a degree of similarity. process and
a management step of creating and managing a list including the first feature information and the second feature information extracted from the person information according to the similarity and the similarity;
The fourth feature information extracted by the second extraction process from the second face image of a person is compared with the second feature information in the list in descending order of similarity to determine the second face image. an identifying step of identifying the person in the face image of from the person information;
An information processing method characterized by having
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021187864A JP2023074751A (en) | 2021-11-18 | 2021-11-18 | Information processing system, information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021187864A JP2023074751A (en) | 2021-11-18 | 2021-11-18 | Information processing system, information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023074751A true JP2023074751A (en) | 2023-05-30 |
Family
ID=86541382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021187864A Pending JP2023074751A (en) | 2021-11-18 | 2021-11-18 | Information processing system, information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023074751A (en) |
-
2021
- 2021-11-18 JP JP2021187864A patent/JP2023074751A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12062238B2 (en) | Information processing apparatus, information processing method, and program | |
US11562364B2 (en) | Information processing system, customer identification apparatus, and information processing method | |
CN113033271A (en) | Processing method for learning face identification by using artificial intelligence module | |
CN110717407A (en) | Human face recognition method, device and storage medium based on lip language password | |
KR101743169B1 (en) | System and Method for Searching Missing Family Using Facial Information and Storage Medium of Executing The Program | |
JP7120590B2 (en) | Information processing device, information processing method, and program | |
US20230237439A1 (en) | Systems and methods for machine learning-informed automated recording of time activities with an automated electronic time recording system or service | |
JP2023074751A (en) | Information processing system, information processing device, information processing method, and program | |
US20220172271A1 (en) | Method, device and system for recommending information, and storage medium | |
JP2024021399A (en) | Image processing system, image processing device, control method for image processing device, and program | |
WO2021241293A1 (en) | Action-subject specifying system | |
KR102695602B1 (en) | Method and system for verifying information received through an instant messaging application for providing a video call service | |
KR20210073720A (en) | Facial recognition POS system | |
JP7540500B2 (en) | GROUP IDENTIFICATION DEVICE, GROUP IDENTIFICATION METHOD, AND PROGRAM | |
JP6773144B2 (en) | Content selection device, content selection method, content selection system and program | |
JP6713153B1 (en) | Information processing apparatus, information processing method, program, and camera system | |
CN113743252B (en) | Target tracking method, device, equipment and readable storage medium | |
JP7369247B2 (en) | Information processing device, information processing method and program | |
JP2022073249A (en) | Information processing system, control method thereof, and program | |
JP2021083071A (en) | Information processing device | |
JP2024090999A (en) | Information processing device, information processing method, and computer program | |
Sabnis et al. | An Optimized Approach for Emotion Detection-Based Music Recommendation System | |
CN117693742A (en) | System and method for informed machine learning recording of temporal activity using an automated electronic temporal recording system | |
JP2023074752A (en) | Information processing device, information processing method, and program | |
JP2024100002A (en) | IMAGE RECOGNITION DEVICE, CONTROL METHOD AND PROGRAM FOR IMAGE RECOGNITION DEVICE |