JP2010033151A - Monitoring device and method, and program - Google Patents

Monitoring device and method, and program Download PDF

Info

Publication number
JP2010033151A
JP2010033151A JP2008192250A JP2008192250A JP2010033151A JP 2010033151 A JP2010033151 A JP 2010033151A JP 2008192250 A JP2008192250 A JP 2008192250A JP 2008192250 A JP2008192250 A JP 2008192250A JP 2010033151 A JP2010033151 A JP 2010033151A
Authority
JP
Japan
Prior art keywords
face image
feature
collation
predetermined number
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008192250A
Other languages
Japanese (ja)
Other versions
JP5338173B2 (en
Inventor
Tatsuya Adachi
達哉 足立
Takamitsu Ishikawa
孝光 石川
Michinori Sugiura
充典 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2008192250A priority Critical patent/JP5338173B2/en
Publication of JP2010033151A publication Critical patent/JP2010033151A/en
Application granted granted Critical
Publication of JP5338173B2 publication Critical patent/JP5338173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Pinball Game Machines (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a processing load in the collation processing of a face image. <P>SOLUTION: An image acquisition part 161 continuously acquires the face images of collation candidates. A face image detection processing part 162 extracts the acquired face images. A simple featured value extraction part 152 extracts featured values from the extracted face images. A dictionary featured value table 156 stores only the prescribed number of featured values of the continuously acquired face images as dictionary data. After the prescribed number of featured values of the face images are stored as the dictionary data by a dictionary featured value table 156, a collation featured value table 157 stores only the prescribed number of feature values of the continuously acquired face images as the collation data. When the prescribed number of featured values of the face images in the dictionary data are not similar with the prescribed number of featured values in the collation data, the face images acquired in the timing are supplied to the face image recognition device. This invention may be applied to a monitoring system. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、監視装置および方法、並びにプログラムに関し、特に、顧客の来店情報を容易に収集できるようにした監視装置および方法、並びにプログラムに関する。   The present invention relates to a monitoring apparatus, method, and program, and more particularly, to a monitoring apparatus, method, and program that can easily collect customer visit information.

遊技店は遊技人口の減少や機器入れ替えなどの環境により競合店との競争が激化する中、熾烈な遊技客獲得競争を繰り広げている。遊技場は固定遊技客を取り込むために、近隣の遊技店との差別化を図り、独自の経営戦略を展開している。   Amusement stores are intensifying competition to acquire players as competition with competing stores intensifies due to the decrease in gaming population and equipment replacement. In order to attract fixed players, the amusement arcade has developed a unique management strategy that differentiates it from neighboring amusement stores.

具体的には、来店した遊技客の動向を把握し、遊技客のニーズにあったサービスの提供をしようと、会員カードを発行し、来店時に専用の装置に挿入された会員カードを読み取ることにより、遊技機種や遊技時間などをデータベースとして蓄積し、データベースの解析により来店した遊技客の動向を把握し、遊技客のニーズを調査するというものである。   Specifically, by grasping the trend of the players who visit the store, issuing a membership card and reading the membership card inserted in a dedicated device when visiting the store, in order to provide services that meet the needs of the player The game model, game time, and the like are accumulated as a database, and the trend of players visiting the store is understood by analyzing the database, and the needs of the players are investigated.

ところが、実際には、会員カードを持参しないまたは持参しても専用の装置に挿入しないなどの実態により、本来、調査し得る遊技客の動向を十分に把握できていないのが現状である。この問題を解決するために顔認証装置が提案されている。   However, in reality, it is not possible to sufficiently grasp the trend of the player who can be originally investigated due to the fact that the membership card is not brought in or is not inserted into the dedicated device even if it is brought. In order to solve this problem, a face authentication device has been proposed.

近年、この顔認証装置は、性能が向上し、遊技客一人一人の特定が可能となっている。顔認証により遊技客を特定するためには、遊技客の顔を検出するためのカメラの設置位置が重要となる。   In recent years, performance of this face authentication device has improved, and each player can be identified. In order to identify a player by face authentication, the camera installation position for detecting the player's face is important.

また、この顔認証装置では、遊技客一人一人の顔画像と遊技情報を合わせて管理することにより、どのような人がどのくらいの遊技をしているのかという情報を定量化することが求められている。   In addition, in this face authentication device, it is required to quantify information about what kind of person is playing what kind of game by managing each player's face image and game information together. Yes.

上記の顔認証装置において遊技客の動向を知る上では、遊技客の遊技台への滞在時間を把握する必要がある。   In order to know the trend of the player in the face authentication device, it is necessary to grasp the staying time of the player on the game machine.

そこで、遊技中の遊技客顔画像を遊技台毎に取得して、顔画像を照合することで顧客管理を行う技術が提案されている(特許文献1参照)。   In view of this, a technique has been proposed in which customer face images during a game are acquired for each gaming machine and customer management is performed by collating face images (see Patent Document 1).

特開2007−159883号公報JP 2007-159883 A

しかしながら、顔認証処理においては、遊技客の顔の動きの変化(顔の向きの変化)などにより、取得した顔画像の顔向きが異なる顔画像を照合してしまい、本人を他人として認証してしまうことで、本人認識率が低下してしまうことがあった。   However, in face authentication processing, face images with different face orientations of the acquired face images are collated due to changes in the player's face movement (changes in face orientation), etc., and the person is authenticated as another person. As a result, the identity recognition rate may be reduced.

また、顔向きが異なる顔画像を他人の入れ替りと判断して、登録された顔画像を更新してしまうようなことがあり、このような場合、照合に適さない顔画像が照合対象として登録されてしまい、照合に適した顔画像を取得しても本人と認識することができないことがあった。   In addition, a face image with a different face orientation may be determined to be replaced by another person, and the registered face image may be updated. In such a case, a face image that is not suitable for collation is registered as a collation target. Therefore, even if a face image suitable for collation is acquired, it may not be recognized as the user.

本発明はこのような状況に鑑みてなされたものであり、顔画像による認証処理において、連続的に供給されてくる顔画像の比較により、人物の入替りの発生を正確に認識できるようにするものである。   The present invention has been made in view of such a situation, and in an authentication process using a face image, it is possible to accurately recognize occurrence of a person replacement by comparing face images supplied continuously. Is.

本発明の一側面の監視装置は、顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段と、連続的に照合対象者の顔画像を取得する取得手段と、前記取得手段により取得された顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段と、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段と、前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段と、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段とを含む。   The monitoring device according to one aspect of the present invention includes an accumulating unit that accumulates a face image as an accumulator's face image in an accumulator database, an acquisition unit that continuously acquires a face image of a person to be collated, and an acquisition unit that acquires the face image. A face image extracting unit that extracts the face image, a feature amount extracting unit that extracts a feature amount from the face image extracted by the face image extracting unit, and a feature amount of the face image acquired continuously, A dictionary data storage unit that stores a predetermined number of dictionary data as dictionary data, and a feature amount of the predetermined number of face images stored as the dictionary data by the dictionary data storage unit, and then the facial image acquired continuously A collation data storage unit that stores a predetermined number of feature quantities as collation data, a feature quantity of a predetermined number of face images in the dictionary data, and a feature quantity of a predetermined number of face images in the collation data If not, the similarity between the face image of the person to be collated acquired at that timing and the face image of the accumulator accumulated in the accumulating means is calculated and collated, and the collation result of the collating means Similarity degree determination means for determining whether or not the face image of the person to be collated is the face image of the accumulator person by comparing a certain degree of similarity with a predetermined threshold value.

前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似するか否かを判定する特徴量比較判定手段をさらに含ませるようにすることができ、前記照合手段には、前記特徴量比較判定手段により類似しないと判定された場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合させるようにすることができる。   A feature amount comparison / determination unit that determines whether or not the feature amount of the predetermined number of face images in the dictionary data is similar to the feature amount of the predetermined number of face images in the matching data may be further included. If it is determined by the feature amount comparison and determination unit that the similarity is not similar, the collation target person's face image acquired at that timing, and the accumulator's face image accumulated in the accumulation unit The similarity can be calculated and collated.

前記辞書データにおける所定数の顔画像の特徴量の平均を平均特徴量として計算する平均特徴量計算手段をさらに含ませるようにすることができ、前記特徴量比較判定手段には、前記照合データにおける所定数の顔画像の特徴量のそれぞれと、前記平均特徴量とを比較し、いずれも類似していない場合、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しないと判定させるようにすることができる。   An average feature amount calculation unit that calculates an average feature amount of a predetermined number of face images in the dictionary data as an average feature amount can be further included, and the feature amount comparison and determination unit includes: Each of the feature quantities of the predetermined number of face images is compared with the average feature quantity, and if both are not similar, the feature quantity of the predetermined number of face images in the dictionary data and the predetermined number of features in the matching data It can be determined that the feature amount of the face image is not similar.

前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで、前記辞書データ格納手段には、前記辞書データとして格納されている前記所定数の顔画像の特徴量を削除し、前記照合データ格納手段により、前記照合データとして格納されている前記所定数の顔画像の特徴量を、新たな辞書データとして格納させるようにすることができる。   When the feature quantity of the predetermined number of face images in the dictionary data and the feature quantity of the predetermined number of face images in the collation data are not similar, at that timing, the dictionary data storage means stores the feature data as the dictionary data. The feature quantity of the predetermined number of face images is deleted, and the feature quantity of the predetermined number of face images stored as the collation data is stored as new dictionary data by the collation data storage means. can do.

前記辞書データ格納手段には、連続的に取得される前記顔画像の特徴量と、前記辞書データとして格納されていて、かつ、優先順位の最も低い特徴量とが類似していないとき、辞書データとして格納されている、優先順位の最も低い特徴量を、前記取得された顔画像の特徴量により更新させるようにすることができる。   When the feature value of the facial image acquired continuously and the feature value stored in the dictionary data and having the lowest priority are not similar to the dictionary data storage means, the dictionary data The feature quantity with the lowest priority stored in the table can be updated with the feature quantity of the acquired face image.

前記照合データ格納手段には、連続的に取得される前記顔画像の特徴量と、前記照合データとして格納されていて、かつ、優先順位の最も低い特徴量とが類似していないとき、照合データとして格納されている、優先順位の最も低い特徴量を、前記取得された顔画像の特徴量により更新させるようにすることができる。   In the collation data storage means, when the feature quantity of the face image acquired continuously and the feature quantity stored as the collation data and having the lowest priority are not similar, the collation data The feature quantity with the lowest priority stored in the table can be updated with the feature quantity of the acquired face image.

本発明の一側面の監視方法は、顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段と、連続的に照合対象者の顔画像を取得する取得手段と、前記取得手段により取得された顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段と、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段と、前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段と、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段とを含む監視装置の監視方法であって、前記取得手段による、連続的に照合対象者の顔画像を取得する取得ステップと、前期顔画像抽出ステップによる、前記取得ステップの処理により取得された顔画像を抽出する顔画像抽出ステップと、前記特徴量抽出手段による、前記顔画像抽出ステップの処理で抽出された顔画像より特徴量を抽出する特徴量抽出ステップと、前記辞書データ格納手段による、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納ステップと、前記照合データ格納手段による、前記辞書データ格納ステップの処理により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納ステップと、前記照合手段による、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合ステップと、前記類似度判定手段による、前記照合ステップによる照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定ステップとを含む。   The monitoring method according to one aspect of the present invention includes an accumulating unit that accumulates a face image as an accumulator's face image in an accumulator database, an acquisition unit that continuously acquires a face image of a person to be collated, and an acquisition unit that acquires the face image. A face image extracting unit that extracts the face image, a feature amount extracting unit that extracts a feature amount from the face image extracted by the face image extracting unit, and a feature amount of the face image acquired continuously, A dictionary data storage unit that stores a predetermined number of dictionary data as dictionary data, and a feature amount of the predetermined number of face images stored as the dictionary data by the dictionary data storage unit, and then the facial image acquired continuously A collation data storage unit that stores a predetermined number of feature quantities as collation data, a feature quantity of a predetermined number of face images in the dictionary data, and a feature quantity of a predetermined number of face images in the collation data If not, the similarity between the face image of the person to be collated acquired at that timing and the face image of the accumulator accumulated in the accumulating means is calculated and collated, and the collation result of the collating means A monitoring method of a monitoring device including similarity determination means for determining whether or not the face image of the person to be collated is the face image of the accumulator by comparing a certain similarity with a predetermined threshold, An acquisition step of continuously acquiring the face image of the person to be collated by the acquisition means, a face image extraction step of extracting the face image acquired by the processing of the acquisition step by the previous face image extraction step, and the characteristics A feature amount extracting step for extracting a feature amount from the face image extracted by the processing of the face image extracting step by the amount extracting unit; and the face image continuously acquired by the dictionary data storing unit. The dictionary data storage step of storing a predetermined number of feature quantities as dictionary data and the dictionary data storage step by the collation data storage means store the feature quantities of the predetermined number of face images as the dictionary data. After that, a collation data storage step of storing a predetermined number of feature values of the face image continuously obtained as collation data, and a feature number of a predetermined number of face images in the dictionary data by the collation means, When the feature quantity of the predetermined number of face images in the matching data is not similar, the similarity between the face image of the person to be collated acquired at that timing and the face image of the person accumulated in the accumulation unit is calculated. Then, by comparing the collation step to be collated with the similarity that is the collation result of the collation step by the similarity determination unit and a predetermined threshold, A similarity determination step of determining whether or not the face image of the target person is the face image of the accumulator.

本発明の一側面のプログラムは、顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段と、連続的に照合対象者の顔画像を取得する取得手段と、前記取得手段により取得された顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段と、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段と、前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段と、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段とを含む監視装置を制御するコンピュータに、前記取得手段による、連続的に照合対象者の顔画像を取得する取得ステップと、前期顔画像抽出ステップによる、前記取得ステップの処理により取得された顔画像を抽出する顔画像抽出ステップと、前記特徴量抽出手段による、前記顔画像抽出ステップの処理で抽出された顔画像より特徴量を抽出する特徴量抽出ステップと、前記辞書データ格納手段による、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納ステップと、前記照合データ格納手段による、前記辞書データ格納ステップの処理により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納ステップと、前記照合手段による、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合ステップと、前記類似度判定手段による、前記照合ステップによる照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定ステップとを含む処理を実行させる。   A program according to an aspect of the present invention is acquired by an accumulation unit that accumulates a face image as an accumulator's face image in an accumulator database, an acquisition unit that continuously acquires a face image of a person to be collated, and the acquisition unit. A face image extracting unit for extracting a face image, a feature amount extracting unit for extracting a feature amount from the face image extracted by the face image extracting unit, and a feature amount of the face image acquired continuously The number of features of the face image acquired continuously after the feature amount of the predetermined number of face images is stored as the dictionary data by the dictionary data storing means for storing the number of dictionary data as the number of dictionary data. A collation data storage means for storing a predetermined amount of collation data as collation data, a feature amount of a predetermined number of face images in the dictionary data, and a feature amount of a predetermined number of face images in the collation data. If not similar, the collation means for calculating and collating the similarity between the face image of the person to be collated acquired at that timing and the face image of the accumulator accumulated in the accumulation means, and the collation result of the collation means A computer that controls a monitoring device including similarity determination means for determining whether or not the face image of the person to be collated is the face image of the accumulator by comparing the similarity with a predetermined threshold; An acquisition step of continuously acquiring the face image of the person to be collated by the acquisition means, a face image extraction step of extracting the face image acquired by the processing of the acquisition step by the previous face image extraction step, and the characteristics A feature amount extracting step for extracting a feature amount from the face image extracted in the face image extracting step by the amount extracting unit; and a continuous acquisition by the dictionary data storing unit. A dictionary data storage step of storing a predetermined number of feature values of the face image as dictionary data, and a process of the dictionary data storage step by the collation data storage means, whereby the feature amount of the predetermined number of face images as the dictionary data A collation data storing step of storing a predetermined number of feature quantities of the face image continuously acquired as collation data after the data is stored, and a feature of the predetermined number of face images in the dictionary data by the collation means If the amount and the feature quantity of the predetermined number of face images in the matching data are not similar, the similarity between the face image of the person to be collated acquired at that timing and the face image of the person accumulated in the accumulation unit A collation step for calculating and collating the degree of similarity, and a comparison between the similarity that is the collation result of the collation step and a predetermined threshold by the similarity determination unit And a similarity determination step for determining whether or not the face image of the person to be collated is the face image of the accumulator.

本発明の一側面においては、顔画像が蓄積者の顔画像として蓄積者データベースに蓄積され、連続的に照合対象者の顔画像が取得され、取得された顔画像が抽出され、抽出された顔画像より特徴量が抽出され、連続的に取得される前記顔画像の特徴量が、所定数だけ辞書データとして格納され、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量が、所定数だけ照合データとして格納され、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、蓄積された蓄積者の顔画像との類似度が計算されて、照合され、照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かが判定される。   In one aspect of the present invention, a face image is accumulated in the accumulator database as an accumulator face image, the face image of the person to be collated is continuously acquired, the acquired face image is extracted, and the extracted face After the feature amount is extracted from the image, the feature amount of the face image obtained continuously is stored as a predetermined number of dictionary data, and the feature amount of the predetermined number of face images is stored as the dictionary data, A predetermined number of feature values of the face image acquired continuously are stored as collation data, and a predetermined number of face image feature amounts in the dictionary data and a predetermined number of face image feature amounts in the collation data Are not similar, the similarity between the face image of the person to be collated acquired at that timing and the accumulated face image of the accumulator is calculated and collated, and the similarity that is the collation result and a predetermined threshold value By comparison The verification subject's face image whether the face image of the storage user is determined.

本発明の一側面の監視装置における、顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段とは、例えば、顔画像データベースであり、連続的に照合対象者の顔画像を取得する取得手段とは、例えば、画像取得部であり、前記取得手段により取得された顔画像を抽出する顔画像抽出手段とは、例えば、顔画像検出処理部であり、前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段とは、例えば、簡易特徴量抽出部であり、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段とは、例えば、辞書特徴量テーブルであり、前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段とは、例えば、照合特徴量テーブルであり、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段とは、例えば、類似度計算部であり、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段とは、例えば、類似度判定部である。   In the monitoring apparatus according to one aspect of the present invention, the accumulation unit that accumulates the face image as the accumulator face image in the accumulator database is, for example, a face image database, and continuously acquires the face image of the person to be collated. The acquisition unit is, for example, an image acquisition unit, and the face image extraction unit that extracts the face image acquired by the acquisition unit is, for example, a face image detection processing unit, and is extracted by the face image extraction unit. The feature amount extraction means for extracting feature amounts from the face image is, for example, a simple feature amount extraction unit, and dictionary data that stores a predetermined number of feature amounts of the face image acquired continuously as dictionary data. The storage means is, for example, a dictionary feature quantity table, and after the feature quantities of the predetermined number of face images are stored as the dictionary data by the dictionary data storage means, before being continuously acquired. The collation data storage means for storing a predetermined number of face image feature amounts as collation data is, for example, a collation feature amount table, and a predetermined number of face image feature amounts in the dictionary data and a predetermined amount in the collation data. When the feature amounts of the number of face images are not similar, collation is performed by calculating the degree of similarity between the face image of the person to be collated acquired at that timing and the face image of the person accumulated in the accumulation unit The means is, for example, a similarity calculation unit, and whether or not the face image of the person to be collated is the face image of the accumulator by comparing the similarity that is the collation result of the collation means with a predetermined threshold value. The similarity determination unit that determines whether or not is, for example, a similarity determination unit.

すなわち、連続的にカメラにより撮像される画像より顔画像を抽出し、さらに顔画像より特徴量を抽出して、所定数の顔画像分について、辞書データとして辞書特徴量テーブルに記憶させる。また、辞書特徴量テーブルが満たされると、それ以降の所定数の顔画像について、特徴量を照合データとして照合特徴量テーブルに記憶させ、所定数を超えた分については、類似度の高いものを選択的に照合特徴量テーブルに記憶させる。そして、辞書特徴量テーブルに記憶されている特徴量と、照合特徴量テーブルに記憶されている特徴量とが比較されることにより、一致しない場合、すなわち、供給されてくる顔画像が変化し、新たな人物の顔画像が供給されてきた場合、そのタイミングにおける顔画像について照合処理を実行する。   That is, a face image is extracted from images continuously captured by the camera, and feature quantities are further extracted from the face images, and a predetermined number of face images are stored in the dictionary feature quantity table as dictionary data. Further, when the dictionary feature quantity table is satisfied, the feature quantity is stored in the collation feature quantity table as collation data for a predetermined number of face images thereafter, and those having a high degree of similarity are stored for the amount exceeding the predetermined number. Selectively stored in the matching feature table. Then, the feature amount stored in the dictionary feature amount table and the feature amount stored in the collation feature amount table are compared, and if they do not match, that is, the supplied face image changes, When a face image of a new person has been supplied, collation processing is executed for the face image at that timing.

結果として、同一の人物の顔画像が供給されてきていると判定されている限り、照合処理が実行されないので、顔画像の照合処理における処理負荷を低減させることが可能となる。   As a result, as long as it is determined that face images of the same person have been supplied, the matching process is not executed, so that the processing load in the face image matching process can be reduced.

本発明によれば、顔画像の照合処理における処理負荷を低減させることが可能となる。   According to the present invention, it is possible to reduce the processing load in face image matching processing.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

すなわち、本発明の一側面の監視装置は、顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段(例えば、図9の顔画像データベース22)と、連続的に照合対象者の顔画像を取得する取得手段(例えば、図8の画像取得部161)と、前記取得手段により取得された顔画像を抽出する顔画像抽出手段(例えば、図8の顔画像検出処理部162)と、前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段(例えば、図8の簡易特徴量抽出部152)と、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段(例えば、図8の辞書特徴量テーブル156)と、前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段(例えば、図8の照合特徴量テーブル157)と、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段(例えば、図9の類似時計算部232)と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段(例えば、図9の類似度判定部233)とを含む。   That is, the monitoring device according to one aspect of the present invention includes a storage unit (for example, the face image database 22 in FIG. 9) that stores face images in the store database as face images of store users, and a face of the person to be collated continuously. An acquisition unit (for example, the image acquisition unit 161 in FIG. 8) for acquiring an image, a face image extraction unit (for example, the face image detection processing unit 162 in FIG. 8) for extracting the face image acquired by the acquisition unit, A feature amount extraction unit (for example, the simple feature amount extraction unit 152 in FIG. 8) that extracts a feature amount from the face image extracted by the face image extraction unit, and a feature amount of the face image that is continuously acquired, The dictionary data storage means (for example, the dictionary feature value table 156 in FIG. 8) that stores a predetermined number of dictionary data as the dictionary data and the dictionary data storage means store the feature values of the predetermined number of face images as the dictionary data. After that, collation data storage means (for example, a collation feature quantity table 157 in FIG. 8) that stores a predetermined number of feature quantities of the face image continuously acquired as collation data, and a predetermined number in the dictionary data If the feature amount of the face image is not similar to the feature amount of the predetermined number of face images in the collation data, the face image of the person to be collated acquired at that timing and the accumulator stored in the storage means The collation target (for example, the similarity calculation unit 232 in FIG. 9) for calculating and collating the similarity with the face image, and comparing the similarity as a collation result of the collation unit with a predetermined threshold value Similarity determination means (for example, similarity determination unit 233 in FIG. 9) for determining whether or not a person's face image is the accumulator's face image.

前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似するか否かを判定する特徴量比較判定手段(例えば、図8の3対3照合部154)をさらに含ませるようにすることができ、前記照合手段には、前記特徴量比較判定手段により類似しないと判定された場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合させるようにすることができる。   Feature amount comparison / determination means for determining whether or not the feature amount of the predetermined number of face images in the dictionary data is similar to the feature amount of the predetermined number of face images in the collation data (for example, 3 to 3 in FIG. 8) A collation unit 154) can be further included, and if the collation unit determines that the feature amount comparison determination unit does not resemble the face image of the person to be collated acquired at that timing, The similarity with the accumulator face image accumulated in the accumulation means can be calculated and collated.

前記辞書データにおける所定数の顔画像の特徴量の平均を平均特徴量として計算する平均特徴量計算手段(例えば、図8の平均化部174)をさらに含ませるようにすることができ、前記特徴量比較判定手段には、前記照合データにおける所定数の顔画像の特徴量のそれぞれと、前記平均特徴量とを比較し、いずれも類似していない場合、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しないと判定させるようにすることができる。   An average feature amount calculating means (for example, the averaging unit 174 in FIG. 8) for calculating an average of feature amounts of a predetermined number of face images in the dictionary data as an average feature amount can be further included. The amount comparison / determination unit compares each of the feature amounts of the predetermined number of face images in the collation data with the average feature amount. It can be determined that the feature amount and the feature amount of a predetermined number of face images in the collation data are not similar.

前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで、前記辞書データ格納手段(例えば、図8の辞書特徴量テーブル156)には、前記辞書データとして格納されている前記所定数の顔画像の特徴量を削除し、前記照合データ格納手段により、前記照合データとして格納されている前記所定数の顔画像の特徴量を、新たな辞書データとして格納させるようにすることができる。   If the feature quantity of the predetermined number of face images in the dictionary data and the feature quantity of the predetermined number of face images in the collation data are not similar, the dictionary data storage means (for example, the dictionary feature quantity of FIG. In the table 156), the feature amounts of the predetermined number of face images stored as the dictionary data are deleted, and the characteristics of the predetermined number of face images stored as the verification data are stored by the verification data storage unit. The quantity can be stored as new dictionary data.

前記辞書データ格納手段(例えば、図8の辞書特徴量テーブル156)には、連続的に取得される前記顔画像の特徴量と、前記辞書データとして格納されていて、かつ、優先順位の最も低い特徴量とが類似していないとき、辞書データとして格納されている、優先順位の最も低い特徴量を、前記取得された顔画像の特徴量により更新させるようにすることができる。   The dictionary data storage means (for example, the dictionary feature value table 156 in FIG. 8) stores the feature values of the face image continuously obtained and the dictionary data, and has the lowest priority. When the feature quantity is not similar, the feature quantity with the lowest priority stored as dictionary data can be updated with the feature quantity of the acquired face image.

前記照合データ格納手段(例えば、図8の照合特徴量テーブル157)には、連続的に取得される前記顔画像の特徴量と、前記照合データとして格納されていて、かつ、優先順位の最も低い特徴量とが類似していないとき、照合データとして格納されている、優先順位の最も低い特徴量を、前記取得された顔画像の特徴量により更新させるようにすることができる。   In the matching data storage means (for example, the matching feature value table 157 in FIG. 8), the feature values of the face image acquired continuously and the matching data are stored and have the lowest priority. When the feature amount is not similar, the feature amount with the lowest priority stored as the collation data can be updated with the feature amount of the acquired face image.

本発明の一側面の監視方法は、顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段と、連続的に照合対象者の顔画像を取得する取得手段と、前記取得手段により取得された顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段と、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段と、前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段と、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段とを含む監視装置の監視方法であって、前記取得手段による、連続的に照合対象者の顔画像を取得する取得ステップ(例えば、図11のステップS1)と、前期顔画像抽出ステップによる、前記取得ステップの処理により取得された顔画像を抽出する顔画像抽出ステップ(例えば、図11のステップS2)と、前記特徴量抽出手段による、前記顔画像抽出ステップの処理で抽出された顔画像より特徴量を抽出する特徴量抽出ステップ(例えば、図11のステップS5)と、前記辞書データ格納手段による、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納ステップ(例えば、図12のステップS52,S54,S60)と、前記照合データ格納手段による、前記辞書データ格納ステップの処理により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納ステップ(例えば、図13のステップS82,S84,S90)と、前記照合手段による、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合ステップ(例えば、図14のステップS103)と、前記照合ステップによる照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定ステップ(例えば、図11のステップS25)とを含む。   The monitoring method according to one aspect of the present invention includes an accumulating unit that accumulates a face image as an accumulator's face image in an accumulator database, an acquisition unit that continuously acquires a face image of a person to be collated, and an acquisition unit that acquires the face image. A face image extracting unit that extracts the face image, a feature amount extracting unit that extracts a feature amount from the face image extracted by the face image extracting unit, and a feature amount of the face image acquired continuously, A dictionary data storage unit that stores a predetermined number of dictionary data as dictionary data, and a feature amount of the predetermined number of face images stored as the dictionary data by the dictionary data storage unit, and then the facial image acquired continuously A collation data storage unit that stores a predetermined number of feature quantities as collation data, a feature quantity of a predetermined number of face images in the dictionary data, and a feature quantity of a predetermined number of face images in the collation data If not, the similarity between the face image of the person to be collated acquired at that timing and the face image of the accumulator accumulated in the accumulating means is calculated and collated, and the collation result of the collating means A monitoring method of a monitoring device including similarity determination means for determining whether or not the face image of the person to be collated is the face image of the accumulator by comparing a certain similarity with a predetermined threshold, The acquisition step (for example, step S1 in FIG. 11) for continuously acquiring the face image of the person to be collated by the acquisition unit, and the face image acquired by the processing of the acquisition step by the previous face image extraction step are extracted. A feature image extraction step (for example, step S2 in FIG. 11) and a feature value extraction step for extracting feature values from the face image extracted by the feature value extraction means in the process of the face image extraction step. (For example, step S5 in FIG. 11) and a dictionary data storage step (for example, in FIG. 12) that stores a predetermined number of feature values of the facial image acquired continuously by the dictionary data storage means as dictionary data. In step S52, S54, S60) and the dictionary data storage step by the collation data storage means, the feature quantity of the predetermined number of face images is stored as the dictionary data, and then continuously acquired. A collation data storing step (for example, steps S82, S84, S90 in FIG. 13) for storing a predetermined number of feature quantities of the face image as collation data, and a predetermined number of face images in the dictionary data by the collation means. If the feature amount and the feature amount of the predetermined number of face images in the matching data are not similar, the person to be collated acquired at that timing A collation step (for example, step S103 in FIG. 14) for calculating and collating the similarity between the face image of the accumulator and the accumulator face image accumulated in the accumulating means, and the similarity as a collation result by the collation step And a predetermined threshold value to determine whether or not the face image of the person to be collated is the face image of the accumulator (for example, step S25 in FIG. 11).

図1は、本発明に係る遊技店の監視システムの一実施の形態の構成を示す図である。   FIG. 1 is a diagram showing a configuration of an embodiment of a game shop monitoring system according to the present invention.

遊技店1−1乃至1−nは、いわゆるパチンコ店、パチスロ店、または、カジノ店である。また、これらの遊技店1−1乃至1−nは、系列店舗または顔画像管理センタや第3者遊技店管理センタの加盟店であって、複数の店舗を統括的に管理する必要のある店舗である。各遊技店1−1乃至1−nは、顔画像管理バス6および第3者遊技店管理バス7により接続されており、それらのバスおよびインターネット等に代表される公衆通信回線網8,9を介して、相互にそれぞれ顔画像情報、および第3者遊技店管理情報を授受している。尚、以降において、遊技店1−1乃至1−nのそれぞれについて、特に区別する必要がない場合、単に、遊技店1と称するものとし、その他の構成についても同様に称するものとする。   The game stores 1-1 to 1-n are so-called pachinko stores, pachislot stores, or casino stores. These amusement stores 1-1 to 1-n are affiliated stores or affiliated stores of the face image management center or the third party amusement store management center, and stores that need to manage a plurality of stores in an integrated manner. It is. Each of the game stores 1-1 to 1-n is connected by a face image management bus 6 and a third party game store management bus 7. The public communication line networks 8 and 9 represented by these buses and the Internet are used. Via each other, face image information and third-party amusement store management information are exchanged. In the following description, when there is no particular need to distinguish each of the game stores 1-1 to 1-n, the game store 1 is simply referred to, and the other configurations are also referred to in the same manner.

顔画像管理バス6は、主に各遊技店1の顔画像認識装置21により管理される顔画像情報を流通させるための伝送路として機能する。また、第3者遊技店管理バス7は、主に各遊技店1の媒体貸出管理装置27により管理される媒体貸出管理情報を流通させるための伝送路として機能する。   The face image management bus 6 mainly functions as a transmission path for distributing face image information managed by the face image recognition device 21 of each game store 1. The third-party game store management bus 7 functions as a transmission path for distributing medium lending management information managed mainly by the medium lending management device 27 of each amusement store 1.

顔画像管理センタ2は、顔画像管理センタを管理運営する事業者により使用されるサーバであり、顔画像管理データベース(以降、DBとも称するものとする)3で管理されている登録遊技者DBを各遊技店1により生成される未登録遊技者DBに基づいて更新すると供に、更新した最新の登録遊技者DBを各遊技店1の顔画像認識装置21に対して配信する。   The face image management center 2 is a server used by a business operator who manages and manages the face image management center. The face image management center 2 manages the registered player DB managed by the face image management database (hereinafter also referred to as DB) 3. In addition to updating based on the unregistered player DB generated by each gaming store 1, the updated updated registered player DB is distributed to the face image recognition device 21 of each gaming store 1.

第3者遊技店管理センタ4は、第3者遊技店管理センタを管理運営する事業者により使用されるサーバであり、第3者遊技店管理データベース(DB)5で管理されている媒体貸出管理情報からなるDBを各遊技店1より供給されてくる情報に基づいて更新すると供に、更新した最新の媒体貸出管理情報を各遊技店1の媒体貸出管理装置27に対して配信する。   The third-party amusement store management center 4 is a server used by a business operator that manages and operates the third-party amusement store management center, and the medium lending management managed by the third-party amusement store management database (DB) 5 In addition to updating the information DB based on the information supplied from each game store 1, the updated latest medium lending management information is distributed to the medium lending management device 27 of each game store 1.

顔画像認識装置21は、カメラ38−1乃至38−mにより撮像された画像より画像処理ユニット39−1乃至39−mにより抽出されて、顔画像情報バス31を介して供給されてくる顔画像の情報に基づいて、顔画像情報データベース22に予め登録されている顔画像と照合し、一致する場合、登録遊技者の来店を携帯端末20に通知したり、有機EL(Electronic Luminescence)またはLCD(Liquid Crystal Display)などからなる表示部23に表示する。また、顔画像情報データベース22に予め登録されている顔画像と照合し、一致しない場合、顔画像認識装置21は、顔画像管理データベース3にアクセスし、未登録者として未登録遊技者DBに登録する。   The face image recognition device 21 is extracted by the image processing units 39-1 to 39-m from the images captured by the cameras 38-1 to 38-m and supplied via the face image information bus 31. Based on this information, the face image registered in the face image information database 22 is collated and if it matches, the registered player's visit to the portable terminal 20 is notified, or an organic EL (Electronic Luminescence) or LCD ( The image is displayed on the display unit 23 including a liquid crystal display. If the face images registered in the face image information database 22 are collated and do not match, the face image recognition device 21 accesses the face image management database 3 and registers as an unregistered player in the unregistered player DB. To do.

遊技店管理装置24は、いわゆるホールコンピュータと呼ばれるものであり、遊技店管理情報バス30を介して遊技台36−1乃至36−mの動作を監視している。遊技店管理装置24は、遊技台36の出玉もしくはメダルの払い出しの情報、各遊技台36−1乃至36−mの遊技者の呼び出し情報、またはエラーの発生などの監視状況に応じて、所定の処理を実行し、実行結果を有機ELやLCDなどからなる表示部25に表示する。遊技店管理装置24は、計数機35、遊技台36−1乃至36−m、および遊技台周辺端末37−1乃至37−mのそれぞれより供給されてくる情報を、それぞれを識別する識別情報(例えば、遊技台番号)とを対応付けて遊技台管理データベース26により管理する。   The game store management device 24 is a so-called hall computer, and monitors the operations of the game machines 36-1 to 36-m via the game store management information bus 30. The game store management device 24 determines a predetermined amount according to the monitoring status such as information on the payout of the game table 36 or the payout of medals, the call information of the players on the game tables 36-1 to 36-m, or the occurrence of an error. The above process is executed, and the execution result is displayed on the display unit 25 including an organic EL or LCD. The game store management device 24 identifies information supplied from the counter 35, the game machines 36-1 to 36-m, and the game machine peripheral terminals 37-1 to 37-m, respectively. For example, it is managed by the gaming machine management database 26 in association with the gaming machine number.

媒体貸出管理装置27は、精算販売機33、および貸出機34からの情報に基づいて、貸し出される遊技媒体の媒体貸出管理情報を媒体貸出管理データベース29を用いて管理すると供に、媒体貸出管理データベース29に登録されている媒体貸出管理情報を更新する際、その更新情報を、第3者遊技店管理バス7および公衆通信回線網9を介して第3者遊技店管理センタ4に送る。さらに、媒体貸出管理装置27は、第3者遊技店管理バス7および公衆通信回線網9を介して第3者遊技店管理センタ4により供給されてくる媒体貸出管理情報を取得し、媒体貸出管理データベース29に蓄積させる。   The medium lending management device 27 manages the medium lending management information of the rented game media using the medium lending management database 29 based on the information from the payment machine 33 and the lending machine 34, and also the medium lending management database. When the medium lending management information registered in 29 is updated, the updated information is sent to the third party amusement store management center 4 via the third party amusement store management bus 7 and the public communication line network 9. Further, the medium lending management device 27 acquires the medium lending management information supplied by the third party amusement store management center 4 via the third party amusement store management bus 7 and the public communication line network 9, and manages the medium lending management. Store in the database 29.

貸出機34は、遊技者が遊技台36で遊技する際、現金やプリペイドカードなどにより所定の金額を受け付けると、金額に応じた個数の遊技媒体を貸し出す。この際、貸出機34は、受け付けた現金やプリペイドカードの残数などの情報と供に、貸し出した遊技媒体の個数の情報を媒体貸出管理装置27に供給する。これにより、媒体貸出管理装置27は、受け付けた現金やプリペイドカードの残数などの情報と供に、貸し出した遊技媒体の個数の情報を媒体貸出管理情報データベース29に登録する。   The lending machine 34 lends a number of game media according to the amount when the player accepts a predetermined amount by cash or a prepaid card when playing on the gaming table 36. At this time, the lending machine 34 supplies information on the number of lent gaming media to the medium lending management device 27 together with information such as the accepted cash and the remaining number of prepaid cards. Thereby, the medium lending management device 27 registers information on the number of lent gaming media in the medium lending management information database 29 together with information such as the received cash and the remaining number of prepaid cards.

精算販売機33は、貸球を借りるための度数をつけてプリペイドカードを販売する。このとき、精算販売機33は、販売したプリペイドカードの度数と払いうけた金額とを媒体貸出管理装置27に供給する。また、精算販売機33は、プリペイドカードなどの度数として貸し出した遊技媒体の残数に基づいて現金を精算して払い出す。このとき、精算販売機33は、プリペイドカードの残数と払い戻した現金の金額を媒体貸出管理装置27に供給する。   The checkout machine 33 sells prepaid cards with a frequency for borrowing a ball. At this time, the checkout machine 33 supplies the frequency of the prepaid card sold and the amount paid to the medium lending management device 27. Further, the settlement vending machine 33 settles and pays out cash based on the remaining number of game media lent as a frequency such as a prepaid card. At this time, the checkout machine 33 supplies the remaining number of prepaid cards and the amount of cash refunded to the medium lending management device 27.

計数機35は、遊技者が遊技台36により遊技することにより獲得した遊技媒体の数を、計数し、計数結果を磁気カードやレシートなどとして出力する。   The counter 35 counts the number of game media acquired by the player playing on the game table 36, and outputs the counting result as a magnetic card or a receipt.

遊技台36−1乃至36−mは、遊技者により所定の操作がなされることにより、遊技を実行し、いわゆる小当たりや大当たりに応じて、遊技球、または、メダルを払い出す。   The game machines 36-1 to 36-m execute a game when a predetermined operation is performed by the player, and pay out a game ball or a medal according to a so-called small hit or big hit.

遊技台周辺端末37−1乃至37−mは、各遊技台36−1乃至36−mに対応して設けられている、いわゆる台間機であり、台間球貸機(原理的には、貸出機34と同様のもの)などが設けられている。また、遊技台周辺端末37は、遊技台36を遊技する遊技者の顔画像などの顔画像情報を取得し、遊技台識別情報(遊技台番号)と共に顔画像認識装置21に送信する。尚、図1においては、顔画像情報を取得する機能として、遊技者の顔画像を取得するカメラ38−1乃至38−mが設けられている例が示されている。   The game console peripheral terminals 37-1 to 37-m are so-called pedestrian machines provided corresponding to the respective game machines 36-1 to 36-m. The same as the lending machine 34) is provided. Further, the gaming machine peripheral terminal 37 acquires facial image information such as a facial image of a player who plays the gaming machine 36 and transmits it to the facial image recognition device 21 together with the gaming machine identification information (gaming machine number). FIG. 1 shows an example in which cameras 38-1 to 38-m for acquiring a player's face image are provided as a function for acquiring the face image information.

カメラ38−1乃至38−mは、例えば、図2で示されるように、各遊技台36−1乃至36−4のそれぞれの上部に設けられた台表示ランプ61−1乃至61−4の下部に図3で示されるように、読取範囲δ内に遊技者が撮像できるように設け、顔画像を撮像するようにしてもよく、このようにすることにより、各カメラIDは、同時に遊技台IDとして使用することが可能となる。   For example, as shown in FIG. 2, the cameras 38-1 to 38-m are arranged below the table display lamps 61-1 to 61-4 provided on the respective upper sides of the game tables 36-1 to 36-4. As shown in FIG. 3, a face image may be taken so that the player can take an image within the reading range δ. Can be used.

また、カメラ38−1乃至38−mは、例えば、図4で示されるように、遊技台周辺端末37−1乃至37−4に凸部71−1乃至71−4を設け、図5で示されるように読取範囲θ内に遊技者の顔画像が撮像できるように設けるようにしてもよい。   Further, as shown in FIG. 4, the cameras 38-1 to 38-m are provided with convex portions 71-1 to 71-4 on the gaming machine peripheral terminals 37-1 to 37-4, as shown in FIG. As described above, it may be provided so that a player's face image can be captured within the reading range θ.

さらに、カメラ38−1乃至38−mは、例えば、図6で示されるように、遊技台36の中央部(遊技台36の盤面上)に設けるようにして、撮像するようにしてもよい。すなわち、図6の設置部81にカメラ38が設置されることにより、図7で示されるように、読取範囲φ内に遊技者を撮像する。   Further, for example, as shown in FIG. 6, the cameras 38-1 to 38-m may be provided at the center of the game table 36 (on the board surface of the game table 36) to take an image. That is, by installing the camera 38 in the installation unit 81 of FIG. 6, the player is imaged within the reading range φ as shown in FIG.

次に、図8を参照して、画像処理ユニット39の構成例について説明する。   Next, a configuration example of the image processing unit 39 will be described with reference to FIG.

画像処理ユニット39は、顔検出部151、簡易特徴量抽出部152、テーブル管理部153、3対3照合部154、出力部155、辞書特徴量テーブル156、および照合特徴量テーブル157より構成される。   The image processing unit 39 includes a face detection unit 151, a simple feature value extraction unit 152, a table management unit 153, a 3 to 3 matching unit 154, an output unit 155, a dictionary feature value table 156, and a matching feature value table 157. .

顔検出部151は、カメラ38により撮像された画像より顔画像を抽出して、簡易特徴量抽出部152、および出力部155に供給する。簡易特徴量抽出部152は、顔検出部151より供給されてくる顔画像より特徴量を抽出する。尚、簡易特徴量抽出部152における「簡易」としているのは、後述する顔画像認識装置21における照合部222の特徴量抽出部231に対して区別するためである。すなわち、顔画像認識装置21における照合部222の特徴量抽出部231は、顔画像の照合に使用するため、種類やパターンなどについても非常に多くのものを使用するが、簡易特徴量抽出部152は、顔画像認証処理に対して適正な顔画像であるか否かを判断するためだけの特徴量を抽出するものであるので、抽出される特徴量については、その種類も少なく、簡易なものである。   The face detection unit 151 extracts a face image from the image captured by the camera 38 and supplies the face image to the simple feature amount extraction unit 152 and the output unit 155. The simple feature amount extraction unit 152 extracts a feature amount from the face image supplied from the face detection unit 151. Note that “simple” in the simple feature quantity extraction unit 152 is for distinguishing from the feature quantity extraction unit 231 of the matching unit 222 in the face image recognition device 21 described later. That is, the feature quantity extraction unit 231 of the matching unit 222 in the face image recognition device 21 is used for matching face images, and therefore uses a great number of types and patterns. Extracts feature values only for determining whether or not a face image is appropriate for the face image authentication process. Therefore, the types of extracted feature values are small and simple. It is.

テーブル管理部153は、新たな特徴量が供給されてくると、その特徴量に基づいて、基準となる3枚の顔画像の特徴量を記憶する辞書特徴量テーブル156と、順次供給されてくる照合対象となる人物の3枚の顔画像の特徴量を記憶する照合特徴量テーブル157を管理する。   When a new feature amount is supplied, the table management unit 153 sequentially supplies a dictionary feature amount table 156 that stores the feature amounts of three reference face images based on the feature amount. A collation feature quantity table 157 that stores the feature quantities of the three face images of the person to be collated is managed.

3対3照合部154は、辞書特徴量テーブル156に記憶されている基準となる3枚の顔画像の平均顔画像特徴量と、照合特徴量テーブル157に記憶されている照合対象となる人物の3枚の顔画像とをそれぞれ照合し、照合結果を出力部155、およびテーブル管理部153に供給する。   The three-to-three matching unit 154 includes the average face image feature value of the three face images serving as the reference stored in the dictionary feature value table 156 and the person to be matched stored in the matching feature value table 157. The three face images are collated, and the collation result is supplied to the output unit 155 and the table management unit 153.

テーブル管理部153は、新たな特徴量が供給されてくると、その特徴量に基づいて、基準となる3枚の顔画像の特徴量を記憶する辞書特徴量テーブル156と、順次供給されてくる照合対象となる人物の3枚の顔画像の特徴量を記憶する照合特徴量テーブル157を管理する。   When a new feature amount is supplied, the table management unit 153 sequentially supplies a dictionary feature amount table 156 that stores the feature amounts of three reference face images based on the feature amount. A collation feature quantity table 157 that stores the feature quantities of the three face images of the person to be collated is managed.

3対3照合部154は、辞書特徴量テーブル156に記憶されている基準となる3枚の顔画像の平均顔画像特徴量と、照合特徴量テーブル157に記憶されている照合対象となる人物の3枚の顔画像とをそれぞれ照合し、照合結果を出力部155、およびテーブル管理部153に供給する。   The three-to-three matching unit 154 includes the average face image feature value of the three face images serving as the reference stored in the dictionary feature value table 156 and the person to be matched stored in the matching feature value table 157. The three face images are collated, and the collation result is supplied to the output unit 155 and the table management unit 153.

出力部155は、3対3照合部154の照合結果が一致していない場合、顔検出部151より供給されてきた顔画像を顔画像認識装置21に出力させる。   The output unit 155 causes the face image recognition device 21 to output the face image supplied from the face detection unit 151 when the collation results of the 3 to 3 collation unit 154 do not match.

辞書特徴量テーブル156は、簡易特徴量抽出部152より連続して供給されてくる顔画像の特徴量を順次辞書上位特徴量バッファ171、辞書中位特徴量バッファ172、および辞書下位特徴量バッファ173に記憶させていく。この際、辞書上位特徴量バッファ171に特徴量がバッファリングされている場合、辞書中位特徴量バッファ172に特徴量がバッファリングされていなければ、供給されてきた特徴量が辞書中位特徴量バッファ172にバッファリングされる。ここで、辞書上位特徴量バッファ171にバッファリングされている特徴量と、辞書中位特徴量バッファ172にバッファリングされた特徴量との比較がなされ、差異があるとき、すなわち、相互の類似度が低いとき、辞書中位特徴量バッファ172にバッファリングされた特徴量が、辞書上位特徴量バッファ171に上書きされてバッファリングされると共に、辞書中位特徴量バッファ172にバッファリングされていた特徴量が削除される。   The dictionary feature quantity table 156 sequentially stores the feature quantities of the face image continuously supplied from the simple feature quantity extraction unit 152, the dictionary upper feature quantity buffer 171, the dictionary middle feature quantity buffer 172, and the dictionary lower feature quantity buffer 173. Let me remember. At this time, if the feature value is buffered in the dictionary upper feature amount buffer 171, if the feature amount is not buffered in the dictionary middle feature amount buffer 172, the supplied feature amount is the dictionary middle feature amount. Buffered in the buffer 172. Here, the feature amount buffered in the dictionary upper feature amount buffer 171 and the feature amount buffered in the dictionary middle feature amount buffer 172 are compared, and when there is a difference, that is, the degree of similarity between them. Is low, the feature value buffered in the dictionary middle feature amount buffer 172 is overwritten and buffered in the dictionary upper feature amount buffer 171 and is also buffered in the dictionary middle feature amount buffer 172. The amount is deleted.

同様に、辞書中位特徴量バッファ172に特徴量がバッファリングされている場合、辞書下位特徴量バッファ173に特徴量がバッファリングされていなければ、供給されてきた特徴量が辞書下位特徴量バッファ173にバッファリングされる。ここで、辞書上位特徴量バッファ171にバッファリングされている特徴量と、辞書下位特徴量バッファ173にバッファリングされている特徴量との比較がなされ、差異があるとき、すなわち、相互の類似度が低いとき、辞書下位特徴量バッファ173にバッファリングされた特徴量が、辞書上位特徴量バッファ171に上書きされてバッファリングされると共に、辞書中位特徴量バッファ172および辞書下位特徴量バッファ173にバッファリングされていた特徴量が削除される。   Similarly, when the feature value is buffered in the dictionary middle feature value buffer 172, if the feature value is not buffered in the dictionary lower feature value buffer 173, the supplied feature value is changed to the dictionary lower feature value buffer. Buffered at 173. Here, the feature quantity buffered in the dictionary upper feature quantity buffer 171 and the feature quantity buffered in the dictionary lower feature quantity buffer 173 are compared, and when there is a difference, that is, the degree of similarity between them. Is low, the feature quantity buffered in the dictionary low-order feature quantity buffer 173 is overwritten and buffered in the dictionary high-order feature quantity buffer 171 and is also stored in the dictionary middle-order feature quantity buffer 172 and the dictionary low-order feature quantity buffer 173. The buffered feature is deleted.

そして、辞書特徴量テーブル156は、辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173に3個の特徴量の情報がバッファリングされると、3回連続して類似した特徴量が供給されてきたものとみなし、これを基準の顔画像の特徴量、すなわち、辞書として記憶すべき特徴量として記憶する。また、辞書特徴量テーブル156は、必要に応じて、テーブル管理部153により、後述する照合特徴量テーブル157の照合上位特徴量バッファ181乃至照合下位特徴量バッファ183にバッファリングされている特徴量により、辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173が上書きされて更新される。   The dictionary feature quantity table 156 is supplied with similar feature quantities three times in succession when information of three feature quantities is buffered in the dictionary upper feature quantity buffer 171 to the dictionary lower feature quantity buffer 173. This is stored as a feature value of the reference face image, that is, a feature value to be stored as a dictionary. Further, the dictionary feature quantity table 156 is stored in accordance with the feature quantities buffered in the collation upper feature quantity buffer 181 to the collation lower feature quantity buffer 183 of the collation feature quantity table 157 described later by the table management unit 153 as necessary. The dictionary upper feature buffer 171 to the dictionary lower feature buffer 173 are overwritten and updated.

平均化部174は、上位辞書特徴量バッファ171乃至下位辞書特徴量バッファ173に記憶されている特徴量の平均を求めて、平均顔画像特徴量として求め、平均顔画像特徴量バッファ175にバッファリングさせる。   The averaging unit 174 obtains an average of the feature values stored in the upper dictionary feature value buffer 171 to the lower dictionary feature value buffer 173 to obtain an average face image feature value, and buffers it in the average face image feature value buffer 175. Let

照合特徴量テーブル157は、簡易特徴量抽出部152より供給されてくる連続して供給されてくる顔画像の特徴量のうち、辞書特徴量テーブル156の辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173の全てに特徴量が記憶されている場合に限り、順次照合上位特徴量バッファ181、照合中位特徴量バッファ182、および照合下位特徴量バッファ183に記憶させていく。   The collation feature value table 157 includes the dictionary upper feature value buffer 171 to the dictionary lower feature value of the dictionary feature value table 156 among the feature values of the face image continuously supplied from the simple feature value extracting unit 152. Only when the feature values are stored in all of the buffers 173, the matching upper feature value buffer 181, the matching middle feature value buffer 182, and the matching lower feature value buffer 183 are sequentially stored.

この際、照合上位特徴量バッファ181に特徴量がバッファリングされている場合、照合中位特徴量バッファ182に特徴量がバッファリングされていなければ、照合中位特徴量バッファ182に供給されてきた特徴量がバッファリングされる。ここで、照合上位特徴量バッファ181にバッファリングされている特徴量と、照合中位特徴量バッファ182にバッファリングされている特徴量との比較がなされ、差異があるとき、すなわち、相互の類似度が低いとき、照合中位特徴量バッファ182にバッファリングされた特徴量が、照合上位特徴量バッファ181に上書きされてバッファリングされると共に、照合中位特徴量バッファ182にバッファリングされていた特徴量が削除される。   At this time, if the feature amount is buffered in the matching upper feature amount buffer 181, if the feature amount is not buffered in the matching middle feature amount buffer 182, the feature amount buffer 182 has been supplied to the matching middle feature amount buffer 182. Features are buffered. Here, the feature quantity buffered in the matching upper feature quantity buffer 181 is compared with the feature quantity buffered in the matching middle feature quantity buffer 182, and when there is a difference, that is, mutual similarity. When the degree is low, the feature value buffered in the matching middle feature amount buffer 182 is overwritten and buffered in the matching upper feature amount buffer 181 and is also buffered in the matching middle feature amount buffer 182. The feature amount is deleted.

同様に、照合中位特徴量バッファ182に特徴量がバッファリングされている場合、照合下位特徴量バッファ183に特徴量がバッファリングされていなければ、供給されてきた特徴量が照合下位特徴量バッファ183にバッファリングされる。ここで、照合上位特徴量バッファ181にバッファリングされている特徴量と、照合下位特徴量バッファ183にバッファリングされている特徴量との比較がなされ、差異があるとき、すなわち、相互の類似度が低いとき、照合下位特徴量バッファ183にバッファリングされた特徴量が、照合上位特徴量バッファ181に上書きされてバッファリングされると共に、照合中位特徴量バッファ182および照合下位特徴量バッファ183にバッファリングされていた特徴量が削除される。   Similarly, when the feature value is buffered in the matching middle feature value buffer 182, if the feature value is not buffered in the matching lower feature value buffer 183, the supplied feature value is the matching lower feature value buffer. Buffered at 183. Here, the feature quantity buffered in the matching upper feature quantity buffer 181 and the feature quantity buffered in the matching lower feature quantity buffer 183 are compared, and when there is a difference, that is, the degree of similarity between them. Is low, the feature value buffered in the matching lower feature value buffer 183 is overwritten and buffered in the matching upper feature value buffer 181, and is also stored in the matching middle feature value buffer 182 and the matching lower feature value buffer 183. The buffered feature is deleted.

そして、照合特徴量テーブル157は、照合上位特徴量バッファ171乃至照合下位特徴量バッファ173に3個の特徴量の情報がバッファリングされると、3回連続して類似した特徴量が供給されてきたものとみなし、これを照合対象者の顔画像の特徴量として記憶する。   The matching feature value table 157 is supplied with similar feature values three times in succession when information on three feature values is buffered in the matching upper feature value buffer 171 to the matching lower feature value buffer 173. This is stored as a feature amount of the face image of the person to be collated.

次に、図9を参照して、顔画像認識装置21の構成例について説明する。   Next, a configuration example of the face image recognition device 21 will be described with reference to FIG.

顔画像取得部221は、画像処理ユニット39より供給される顔画像を取得し、照合部222に供給する。照合部222は、顔画像取得部221により取得された顔画像と、顔画像情報DB22に予め登録されている登録遊技者の顔画像とを照合し、類似度の高い候補となる顔画像があれば、第3候補までの顔画像を照合結果として表示部23に表示させる。また、照合部222は、類似度の高い候補となる顔画像が存在しない場合、供給されてきた顔画像を未登録遊技者データベース登録部223に供給する。   The face image acquisition unit 221 acquires the face image supplied from the image processing unit 39 and supplies it to the collation unit 222. The collation unit 222 collates the face image acquired by the face image acquisition unit 221 with the registered player's face image registered in advance in the face image information DB 22, and finds a face image that is a candidate with high similarity. For example, the face images up to the third candidate are displayed on the display unit 23 as a matching result. Further, the collation unit 222 supplies the supplied face image to the unregistered player database registration unit 223 when there is no face image that is a candidate with high similarity.

より詳細には、照合部222の特徴量抽出部231は、顔画像を識別するための特徴量を抽出して、顔画像と共に類似度計算部232に供給する。類似度計算部232は、顔画像情報DB22に登録されている登録遊技者の顔画像の特徴量を抽出すると供に、特徴量抽出部231より供給されてくる特徴量とを用いて、顔画像情報DB22に登録されている全ての登録遊技者の顔画像との類似度を求め、顔画像取得部221より供給されてきた顔画像、および、類似度が上位3位までの顔画像を類似度判定部233に供給する。より具体的には、類似度計算部232は、例えば、目と目の間隔、あごから額までの長さと、あごから鼻までの長さの比率などの各種の顔の特徴量に基づいて、それぞれの差分和、平均比率、または比率和などを類似度として求める。   More specifically, the feature amount extraction unit 231 of the matching unit 222 extracts a feature amount for identifying a face image, and supplies the feature amount together with the face image to the similarity calculation unit 232. The similarity calculation unit 232 extracts the feature amount of the registered player's face image registered in the face image information DB 22 and uses the feature amount supplied from the feature amount extraction unit 231 to obtain the face image. The degree of similarity with the face images of all registered players registered in the information DB 22 is obtained, and the face images supplied from the face image acquisition unit 221 and the face images having the highest degree of similarity are the similarity degrees. It supplies to the determination part 233. More specifically, the similarity calculation unit 232, for example, based on various facial feature amounts such as the ratio between the distance between the eyes, the distance from the chin to the forehead, and the length from the chin to the nose, Each difference sum, average ratio, or ratio sum is obtained as the similarity.

類似度判定部233は、類似度計算部232より供給されてくる類似度を順次バッファ233aに蓄積し、上位3位となる顔画像のそれぞれの類似度のうち、1位となる顔画像との類似度と、所定の閾値とを比較し、比較結果に基づいて、1位となる登録顔画像が、顔画像取得部221より供給されてきた顔画像に対して類似している場合(類似度が高い程類似していることを示す類似度の場合、所定の閾値よりも高いとき、また、類似度が低い程類似していることを示す類似度の場合、所定の閾値よりも低いとき)、上位3位となる顔画像と類似度の情報を表示部23に供給して、表示させると供に、通信部224に供給する。また、類似度判定部233は、1位となる顔画像との類似度と、所定の閾値とを比較し、比較結果に基づいて、1位となる登録顔画像が、顔画像取得部221より供給されてきた顔画像に対して類似していない場合、顔画像取得部221より供給されてきた顔画像を未登録遊技者データベース登録部223に供給する。   The similarity determination unit 233 sequentially accumulates the similarities supplied from the similarity calculation unit 232 in the buffer 233a, and with respect to each of the similarities of the top three face images, When the similarity is compared with a predetermined threshold, and the registered face image that is ranked first is similar to the face image supplied from the face image acquisition unit 221 based on the comparison result (similarity When the similarity is higher than the predetermined threshold in the case of similarity indicating that the similarity is higher, or when the similarity is lower than the predetermined threshold in the case of similarity indicating that the similarity is lower as the similarity is lower. Information on the similarity between the face image and the top three is supplied to the display unit 23, and is supplied to the communication unit 224 when displayed. In addition, the similarity determination unit 233 compares the similarity between the face image ranked first and a predetermined threshold value, and the registered face image ranked first is compared with the face image acquisition unit 221 based on the comparison result. When the face image supplied is not similar, the face image supplied from the face image acquisition unit 221 is supplied to the unregistered player database registration unit 223.

未登録遊技者データベース登録部223は、照合部222より未登録であるとみなされて供給されてきた、顔画像を顔画像管理データベース3の未登録遊技者DBに登録する。   The unregistered player database registration unit 223 registers the face image that has been supplied as being unregistered by the matching unit 222 in the unregistered player DB of the face image management database 3.

操作部225は、ボタン、マウス、または、キーボードなどから構成され、上述した類似度が上位3位となる、表示部23に表示された顔画像のいずれかが選択されるとき操作され、操作結果を通信部224に供給する。通信部224は、モデムなどから構成され、操作部225からの操作信号に基づいて、選択された顔画像を携帯端末20に配信する。   The operation unit 225 includes buttons, a mouse, a keyboard, and the like. The operation unit 225 is operated when any one of the face images displayed on the display unit 23 with the above-mentioned similarity ranked in the top three is selected. Is supplied to the communication unit 224. The communication unit 224 includes a modem or the like, and distributes the selected face image to the mobile terminal 20 based on an operation signal from the operation unit 225.

尚、ここでは、類似度は、例えば、比率和で示されるような登録遊技者として登録されている顔画像に近いほど高い値を示すものであるとし、類似度が所定の閾値よりも高い値であるとき、その類似度に対応する登録遊技者の顔画像であるものとして判定する例について説明する。しかしながら、例えば、類似度が撮像された顔画像と登録遊技者として登録されている顔画像とのそれぞれの特徴量における差分和として表現されている場合、類似度判定部233は、類似度が閾値よりも小さければ、撮像された顔画像が登録遊技者の顔画像であるとみなすことになり、または、平均比率などの場合、0乃至1の範囲で所定の値以上であって、1に近い値であれば、同一の人物であるとみなすことができる。   Here, for example, the similarity indicates a higher value as it is closer to the face image registered as a registered player as indicated by the ratio sum, and the similarity is a value higher than a predetermined threshold value. In this case, an example will be described in which it is determined that the face image of the registered player corresponding to the similarity is. However, for example, when the similarity is expressed as a difference sum in each feature amount between the captured face image and the face image registered as the registered player, the similarity determination unit 233 determines that the similarity is a threshold value. If it is smaller than that, the captured face image is regarded as a registered player's face image, or in the case of an average ratio or the like, it is greater than or equal to a predetermined value in the range of 0 to 1 and close to 1. If it is a value, it can be considered that they are the same person.

データベース管理部226は、顔画像管理センタ2より新たな登録遊技者データベースが配信されてくると、新たな登録遊技者データベースに基づいて、顔画像情報DB22を更新する。   When a new registered player database is distributed from the face image management center 2, the database management unit 226 updates the face image information DB 22 based on the new registered player database.

次に、図10を参照して、携帯端末20の構成例について説明する。   Next, a configuration example of the mobile terminal 20 will be described with reference to FIG.

通信部271は、モデムなどで構成されており、遊技店1内の無線通信網を介して顔画像認識装置21との間でデータを授受する。また、通信部271は、顔画像認識装置21より配信されてくる、画像処理ユニット39より供給された顔画像と類似する顔画像の遊技者が来店したことを示す情報を取得し、画像処理部272に供給する。   The communication unit 271 is configured by a modem or the like, and exchanges data with the face image recognition device 21 via a wireless communication network in the game store 1. In addition, the communication unit 271 acquires information indicating that a player with a facial image similar to the facial image supplied from the image processing unit 39 and distributed from the facial image recognition device 21 has visited the store, and the image processing unit 272.

画像処理部272は、通信部271より供給されてくる画像処理ユニット39より供給された顔画像と類似する顔画像の遊技者が来店したことを示す情報に基づいて、LCDなどにより構成される表示部273に表示する画像を生成すると供に、表示部273に表示させる。   The image processing unit 272 is a display constituted by an LCD or the like based on information indicating that a player with a face image similar to the face image supplied from the image processing unit 39 supplied from the communication unit 271 has visited the store. In addition to generating an image to be displayed on the unit 273, the image is displayed on the display unit 273.

次に、図11のフローチャートを参照して、登録遊技者来店監視処理について説明する。   Next, the registered player visit monitoring process will be described with reference to the flowchart of FIG.

ステップS1において、カメラ38は、設置されている位置から所定の範囲の画像を撮像し、画像処理ユニット39に供給する。顔検出部151の画像取得部161は、カメラ38より供給されてきた画像を顔画像検出処理部162に供給する。   In step S <b> 1, the camera 38 captures an image within a predetermined range from the installed position and supplies the image to the image processing unit 39. The image acquisition unit 161 of the face detection unit 151 supplies the image supplied from the camera 38 to the face image detection processing unit 162.

ステップS2において、顔画像検出処理部162は、供給された画像より遊技者の顔画像を抽出し、顔画像取得部163に供給する。より具体的には、顔画像検出処理162は、例えば、撮像された画像の色などから肌が露出した部分であって、目や鼻といった特徴的な部位の配置などから顔画像を抽出して、顔画像取得部163に供給する。   In step S <b> 2, the face image detection processing unit 162 extracts the player's face image from the supplied image, and supplies it to the face image acquisition unit 163. More specifically, the face image detection process 162 extracts a face image from, for example, the arrangement of characteristic parts such as eyes and nose, where the skin is exposed from the color of the captured image. And supplied to the face image acquisition unit 163.

ステップS3において、顔画像取得部163は、顔画像検出処理部162より顔画像が供給されてきたか否かに基づいて、顔画像が抽出できたか否かを判定する。ステップS3において、顔画像が供給されることがない場合、顔画像が抽出されていないとみなし、処理は、ステップS1に戻る。すなわち、顔画像が検出されるまで、ステップS1乃至S3の処理が繰り返されることになる。   In step S <b> 3, the face image acquisition unit 163 determines whether the face image has been extracted based on whether the face image has been supplied from the face image detection processing unit 162. If no face image is supplied in step S3, it is considered that no face image has been extracted, and the process returns to step S1. That is, the processes in steps S1 to S3 are repeated until a face image is detected.

一方、ステップS3において、顔画像が抽出されたと判定された場合、ステップS4において、顔画像取得部163は、供給されてきた顔画像を取得すると共に、顔画像切り出し部164に供給する。顔画像切り出し部164は、顔画像取得部163より供給されてきた顔画像を簡易特徴量抽出部152、および出力部155に供給する。   On the other hand, when it is determined in step S3 that a face image has been extracted, in step S4, the face image acquisition unit 163 acquires the supplied face image and supplies it to the face image cutout unit 164. The face image cutout unit 164 supplies the face image supplied from the face image acquisition unit 163 to the simple feature amount extraction unit 152 and the output unit 155.

ステップS5において、簡易特徴量抽出部152は、供給されてきた顔画像より、簡易的な特徴量を抽出し、テーブル管理部153、辞書特徴量テーブル156、および照合特徴量テーブル157に供給する。   In step S <b> 5, the simple feature amount extraction unit 152 extracts a simple feature amount from the supplied face image and supplies the extracted feature amount to the table management unit 153, the dictionary feature amount table 156, and the matching feature amount table 157.

ステップS6において、テーブル管理部153、および3対3照合部154により入替り判定処理が実行され、供給されてくる顔画像に基づいて、カメラ38の撮像範囲に存在する人物に入替りが発生したか否かが判定される。   In step S6, a replacement determination process is executed by the table management unit 153 and the 3-to-3 verification unit 154, and a replacement has occurred in a person existing in the imaging range of the camera 38 based on the supplied face image. It is determined whether or not.

ここで、図12のフローチャートを参照して、入替り判定処理について説明する。   Here, the replacement determination process will be described with reference to the flowchart of FIG.

ステップS51において、テーブル管理部153の1対1照合部191は、辞書特徴量テーブル156の辞書上位特徴量バッファ171に、今現在供給されてきた特徴量以外に特徴量が予めバッファリングされているか否かを判定する。ステップS51において、例えば、最初の処理であって、辞書上位特徴量バッファ171に特徴量がバッファリングされていない場合、ステップS52において、1対1照合部191は、登録部191aを制御して、辞書上位特徴量バッファ171に、供給されてきた特徴量をバッファリングさせ、処理は、ステップS66に進む。尚、この際、その他のバッファは、新たに特徴量が供給されてくる前の状態が維持されるように制御される。   In step S51, the one-to-one matching unit 191 of the table management unit 153 has pre-buffered feature quantities in addition to the currently supplied feature quantities in the dictionary upper feature quantity buffer 171 of the dictionary feature quantity table 156. Determine whether or not. In step S51, for example, in the first process, when the feature quantity is not buffered in the dictionary upper feature quantity buffer 171, in step S52, the one-to-one matching unit 191 controls the registration unit 191a, The dictionary upper feature amount buffer 171 buffers the supplied feature amount, and the process proceeds to step S66. At this time, the other buffers are controlled so that the state before the new feature amount is supplied is maintained.

一方、ステップS51において、既に、辞書上位特徴量バッファ171に特徴量がバッファリングされている場合、ステップS53において、1対1照合部191は、辞書中位特徴量バッファ172に、今現在供給されてきた特徴量以外に特徴量が予めバッファリングされているか否かを判定する。ステップS53において、例えば、辞書中位特徴量バッファ172に特徴量がバッファリングされていない場合、ステップS54において、1対1照合部191は、登録部191aを制御して、辞書中位特徴量バッファ172に、供給されてきた特徴量をバッファリングさせる。尚、この際、その他のバッファは、新たに特徴量が供給されてくる前の状態が維持されるように制御される。   On the other hand, if the feature amount is already buffered in the dictionary upper feature amount buffer 171 in step S51, the one-to-one matching unit 191 is currently supplied to the dictionary middle feature amount buffer 172 in step S53. It is determined whether or not feature quantities other than the received feature quantities are buffered in advance. In step S53, for example, when no feature value is buffered in the dictionary intermediate feature value buffer 172, in step S54, the one-to-one matching unit 191 controls the registration unit 191a to control the dictionary intermediate feature value buffer. In 172, the supplied feature value is buffered. At this time, the other buffers are controlled so that the state before the new feature amount is supplied is maintained.

ステップS55において、1対1照合部191は、辞書中位特徴量バッファ172にバッファリングされている特徴量と、辞書上位特徴量バッファ171にバッファリングされている特徴量との類似度を計算する。   In step S <b> 55, the one-to-one matching unit 191 calculates the similarity between the feature value buffered in the dictionary middle feature value buffer 172 and the feature value buffered in the dictionary higher feature value buffer 171. .

ステップS56において、1対1照合部191は、計算された類似度が所定の閾値よりも大きい値であるか否かを判定する。尚、ここでは、類似度は、双方の特徴量が類似しているほど高い値をとるものとする。ステップS56において、類似度が所定の特徴量よりも高くない、すなわち、相互の特徴量が異なる人物の顔画像である可能性が高いとみなされた場合、処理は、ステップS57に進む。   In step S56, the one-to-one matching unit 191 determines whether or not the calculated similarity is a value greater than a predetermined threshold. Here, it is assumed that the similarity is higher as the two feature quantities are similar. If it is determined in step S56 that the degree of similarity is not higher than the predetermined feature amount, that is, it is highly likely that the face image is a person having different feature amounts, the process proceeds to step S57.

ステップS57において、1対1照合部191は、登録部191aを制御して、辞書中位特徴量バッファ172にバッファリングされている特徴量で、辞書上位特徴量バッファ171にバッファリングされている特徴量を上書きして更新させる。   In step S57, the one-to-one matching unit 191 controls the registration unit 191a to use the feature value buffered in the dictionary middle feature amount buffer 172 and the feature buffered in the dictionary upper feature amount buffer 171. Update by overwriting the amount.

ステップS58において、1対1照合部191は、辞書中位特徴量バッファ172に記憶されている特徴量を削除し、処理は、ステップS66に進む。   In step S58, the one-to-one matching unit 191 deletes the feature amount stored in the dictionary middle feature amount buffer 172, and the process proceeds to step S66.

また、ステップS56において、類似度が所定値よりも高い場合、ステップS57,S58の処理は、スキップされる。   If the similarity is higher than the predetermined value in step S56, the processes in steps S57 and S58 are skipped.

一方、ステップS53において、既に、辞書中位特徴量バッファ172に特徴量がバッファリングされている場合、ステップS59において、1対1照合部191は、辞書下位特徴量バッファ173に、今現在供給されてきた特徴量以外に特徴量が予めバッファリングされているか否かを判定する。ステップS59において、例えば、辞書下位特徴量バッファ173に特徴量がバッファリングされていない場合、ステップS60において、1対1照合部191は、登録部191aを制御して、辞書下位特徴量バッファ173に、供給されてきた特徴量をバッファリングさせる。尚、この際、その他のバッファは、新たに特徴量が供給されてくる前の状態が維持されるように制御される。   On the other hand, if the feature amount is already buffered in the dictionary middle feature amount buffer 172 in step S53, the one-to-one matching unit 191 is currently supplied to the dictionary lower feature amount buffer 173 in step S59. It is determined whether or not feature quantities other than the received feature quantities are buffered in advance. In step S59, for example, when the feature quantity is not buffered in the dictionary lower feature quantity buffer 173, in step S60, the one-to-one matching unit 191 controls the registration unit 191a to store the feature quantity in the dictionary lower feature quantity buffer 173. The supplied feature value is buffered. At this time, the other buffers are controlled so that the state before the new feature amount is supplied is maintained.

ステップS61において、1対1照合部191は、辞書下位特徴量バッファ173にバッファリングされている特徴量と、辞書上位特徴量バッファ171にバッファリングされている特徴量との類似度を計算する。   In step S <b> 61, the one-to-one matching unit 191 calculates the similarity between the feature quantity buffered in the dictionary lower feature quantity buffer 173 and the feature quantity buffered in the dictionary upper feature quantity buffer 171.

ステップS62において、1対1照合部191は、計算された類似度が所定の閾値よりも大きい値であるか否かを判定する。ステップS62において、類似度が所定の特徴量よりも高くない、すなわち、相互の特徴量が異なる人物の顔画像である可能性が高いとみなされた場合、処理は、ステップS63に進む。   In step S62, the one-to-one matching unit 191 determines whether the calculated similarity is a value greater than a predetermined threshold value. If it is determined in step S62 that the degree of similarity is not higher than the predetermined feature amount, that is, it is highly likely that the face images of the persons have different feature amounts, the process proceeds to step S63.

ステップS63において、1対1照合部191は、登録部191aを制御して、辞書下位特徴量バッファ173にバッファリングされている特徴量で、辞書上位特徴量バッファ171にバッファリングされている特徴量を上書きして更新させる。   In step S <b> 63, the one-to-one matching unit 191 controls the registration unit 191 a so that the feature value buffered in the dictionary upper feature amount buffer 171 is the feature amount buffered in the dictionary lower feature amount buffer 173. Overwrite and update.

ステップS64において、1対1照合部191は、辞書中位特徴量バッファ172および辞書下位特徴量バッファ173に記憶されている特徴量を削除し、処理は、ステップS66に進む。   In step S64, the one-to-one matching unit 191 deletes the feature values stored in the dictionary middle feature value buffer 172 and the dictionary lower feature value buffer 173, and the process proceeds to step S66.

また、ステップS62において、類似度が所定値よりも高い場合、ステップS63,S64の処理は、スキップされる。   If the similarity is higher than the predetermined value in step S62, the processes in steps S63 and S64 are skipped.

すなわち、以上の処理により、辞書特徴量テーブル156の辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173には、特徴量の類似度が所定値より高い、すなわち、同一の人物と考えられる顔画像の特徴量が、連続して3回供給されてきたとき、3種類の顔画像の特徴量が辞書としてバッファリングされる。   That is, by the above processing, the dictionary upper feature amount buffer 171 to the dictionary lower feature amount buffer 173 of the dictionary feature amount table 156 have a feature amount similarity higher than a predetermined value, that is, face images considered to be the same person. Are supplied three times in succession, the feature amounts of the three types of face images are buffered as a dictionary.

また、ステップS59において、既に、辞書下位特徴量バッファ173に特徴量がバッファリングされている場合、すなわち、辞書特徴量テーブル156の辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173に辞書として3種類の特徴量がバッファリングされている場合、処理は、ステップS65に進み、照合入替り判定処理が実行される。   In step S59, if the feature amount is already buffered in the dictionary lower feature amount buffer 173, that is, the dictionary upper feature amount buffer 171 to the dictionary lower feature amount buffer 173 of the dictionary feature amount table 156 have 3 as a dictionary. If the type of feature quantity is buffered, the process proceeds to step S65, and the collation replacement determination process is executed.

ここで、図13のフローチャートを参照して、照合入替り判定処理について説明する。   Here, the collation replacement determination process will be described with reference to the flowchart of FIG.

ステップS81において、テーブル管理部153の1対1照合部191は、照合特徴量テーブル157の照合上位特徴量バッファ181に、今現在供給されてきた特徴量以外に特徴量が予めバッファリングされているか否かを判定する。ステップS81において、例えば、照合上位特徴量バッファ181に特徴量がバッファリングされていない場合、ステップS82において、1対1照合部191は、登録部191aを制御して、照合上位特徴量バッファ181に、供給されてきた特徴量をバッファリングさせ、処理は、ステップS66(図12)に進む。尚、この際、その他のバッファは、新たに特徴量が供給されてくる前の状態が維持されるように制御される。   In step S81, the one-to-one matching unit 191 of the table management unit 153 has pre-buffered feature quantities in addition to the currently supplied feature quantities in the matching upper feature quantity buffer 181 of the matching feature quantity table 157. Determine whether or not. In step S81, for example, if the feature quantity is not buffered in the collation upper feature amount buffer 181, in step S82, the one-to-one collation unit 191 controls the registration unit 191a to store in the collation upper feature amount buffer 181. The supplied feature value is buffered, and the process proceeds to step S66 (FIG. 12). At this time, the other buffers are controlled so that the state before the new feature amount is supplied is maintained.

一方、ステップS81において、既に、照合上位特徴量バッファ181に特徴量がバッファリングされている場合、ステップS83において、1対1照合部191は、照合中位特徴量バッファ182に、今現在供給されてきた特徴量以外に特徴量が予めバッファリングされているか否かを判定する。ステップS83において、例えば、照合中位特徴量バッファ182に特徴量がバッファリングされていない場合、ステップS84において、1対1照合部191は、登録部191aを制御して、照合中位特徴量バッファ182を制御して、供給されてきた特徴量をバッファリングさせる。尚、この際、その他のバッファは、新たに特徴量が供給されてくる前の状態が維持されるように制御される。   On the other hand, if the feature value is already buffered in the matching upper feature value buffer 181 in step S81, the one-to-one matching unit 191 is currently supplied to the matching middle feature value buffer 182 in step S83. It is determined whether or not feature quantities other than the received feature quantities are buffered in advance. In step S83, for example, if the feature quantity is not buffered in the matching intermediate feature quantity buffer 182, in step S84, the one-to-one matching section 191 controls the registration section 191a to check the matching middle feature quantity buffer. By controlling 182, the supplied feature value is buffered. At this time, the other buffers are controlled so that the state before the new feature amount is supplied is maintained.

ステップS85において、1対1照合部191は、照合中位特徴量バッファ182にバッファリングされている特徴量と、照合上位特徴量バッファ181にバッファリングされている特徴量との類似度を計算する。   In step S <b> 85, the one-to-one matching unit 191 calculates the similarity between the feature value buffered in the matching middle feature value buffer 182 and the feature value buffered in the matching higher feature value buffer 181. .

ステップS86において、1対1照合部191は、計算された類似度が所定の閾値よりも大きい値であるか否かを判定する。尚、ここでも、類似度は、双方の特徴量が類似しているほど高い値をとるものとする。ステップS86において、類似度が所定の特徴量よりも高くない、すなわち、相互の特徴量が異なる人物の顔画像である可能性が高いとみなされた場合、処理は、ステップS87に進む。   In step S86, the one-to-one matching unit 191 determines whether the calculated similarity is a value greater than a predetermined threshold. In this case as well, the similarity is assumed to take a higher value as the two feature quantities are similar. If it is determined in step S86 that the degree of similarity is not higher than the predetermined feature amount, that is, it is highly likely that the face images are of different persons, the process proceeds to step S87.

ステップS87において、1対1照合部191は、登録部191aを制御して、照合中位特徴量バッファ182にバッファリングされている特徴量で、照合上位特徴量バッファ181にバッファリングされている特徴量を上書きして更新させる。   In step S <b> 87, the one-to-one matching unit 191 controls the registration unit 191 a, and features that are buffered in the matching upper feature value buffer 181 with the feature values buffered in the matching middle feature value buffer 182. Update by overwriting the amount.

ステップS88において、1対1照合部191は、照合中位特徴量バッファ182に記憶されている特徴量を削除し、処理は、ステップS66(図12)に進む。   In step S88, the one-to-one matching unit 191 deletes the feature amount stored in the matching middle feature amount buffer 182, and the process proceeds to step S66 (FIG. 12).

また、ステップS86において、類似度が所定値よりも高い場合、ステップS87,S88の処理は、スキップされる。   If the similarity is higher than the predetermined value in step S86, the processes in steps S87 and S88 are skipped.

一方、ステップS83において、既に、照合中位特徴量バッファ182に特徴量がバッファリングされている場合、ステップS89において、1対1照合部191は、照合下位特徴量バッファ183に、今現在供給されてきた特徴量以外に特徴量が予めバッファリングされているか否かを判定する。ステップS89において、例えば、照合下位特徴量バッファ183に特徴量がバッファリングされていない場合、ステップS90において、1対1照合部191は、登録部191aを制御して、照合下位特徴量バッファ183に、供給されてきた特徴量をバッファリングさせる。尚、この際、その他のバッファは、新たに特徴量が供給されてくる前の状態が維持されるように制御される。   On the other hand, if the feature value is already buffered in the matching middle feature value buffer 182 in step S83, the one-to-one matching unit 191 is currently supplied to the matching lower feature value buffer 183 in step S89. It is determined whether or not feature quantities other than the received feature quantities are buffered in advance. In step S89, for example, when the feature quantity is not buffered in the collation lower feature amount buffer 183, in step S90, the one-to-one collation unit 191 controls the registration unit 191a to store in the collation lower feature amount buffer 183. The supplied feature value is buffered. At this time, the other buffers are controlled so that the state before the new feature amount is supplied is maintained.

ステップS91において、1対1照合部191は、照合中位特徴量バッファ182にバッファリングされている特徴量と、照合中位特徴量バッファ182にバッファリングされている特徴量との類似度を計算する。   In step S <b> 91, the one-to-one matching unit 191 calculates the similarity between the feature value buffered in the matching middle feature value buffer 182 and the feature value buffered in the matching middle feature value buffer 182. To do.

ステップS92において、1対1照合部191は、計算された類似度が所定の閾値よりも大きい値であるか否かを判定する。ステップS92において、類似度が所定の特徴量よりも高くない、すなわち、相互の特徴量が異なる人物の顔画像である可能性が高いとみなされた場合、処理は、ステップS93に進む。   In step S92, the one-to-one matching unit 191 determines whether the calculated similarity is a value greater than a predetermined threshold value. If it is determined in step S92 that the degree of similarity is not higher than the predetermined feature amount, that is, it is highly likely that the face image is a person having a different feature amount, the process proceeds to step S93.

ステップS93において、1対1照合部191は、登録部191aを制御して、照合下位特徴量バッファ183にバッファリングされている特徴量で、照合上位特徴量バッファ181にバッファリングされている特徴量を上書きして更新させる。   In step S <b> 93, the one-to-one matching unit 191 controls the registration unit 191 a to use the feature values buffered in the matching lower feature value buffer 183 and the feature values buffered in the matching higher feature value buffer 181. Overwrite and update.

ステップS94において、1対1照合部191は、照合中位特徴量バッファ182および照合下位特徴量バッファ183に記憶されている特徴量を削除し、処理は、ステップS95に進む。   In step S94, the one-to-one matching unit 191 deletes the feature values stored in the matching middle feature value buffer 182 and the matching lower feature value buffer 183, and the process proceeds to step S95.

また、ステップS92において、類似度が所定値よりも高い場合、ステップS93,S94の処理は、スキップされる。   If the similarity is higher than the predetermined value in step S92, the processes in steps S93 and S94 are skipped.

すなわち、以上の処理により、照合特徴量テーブル157の照合上位特徴量バッファ181乃至照合下位特徴量バッファ183には、特徴量の類似度が所定値より高い、すなわち、同一の人物と考えられる顔画像の特徴量が、連続して3回供給されてきたとき、3種類の照合対象者の顔画像の特徴量がバッファリングされる。   That is, by the above processing, the matching upper feature amount buffer 181 to the matching lower feature amount buffer 183 of the matching feature value table 157 have a feature value similarity higher than a predetermined value, that is, face images considered to be the same person. Are supplied three times in succession, the feature values of the three types of face images of the person to be collated are buffered.

また、ステップS89において、既に、照合下位特徴量バッファ183に特徴量がバッファリングされている場合、すなわち、照合特徴量テーブル157の照合上位特徴量バッファ181乃至照合下位特徴量バッファ183に辞書として3種類の特徴量がバッファリングされている場合、処理は、ステップS66(図12)に進む。   In step S89, if the feature value is already buffered in the collation lower feature amount buffer 183, that is, 3 as a dictionary in the collation upper feature amount buffer 181 to the collation lower feature amount buffer 183 of the collation feature amount table 157. If the type of feature quantity is buffered, the process proceeds to step S66 (FIG. 12).

ここで、図12のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS66において、テーブル更新部192は、辞書特徴量テーブル156、および照合特徴量テーブル157にアクセスし、辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173、および照合上位特徴量バッファ181乃至照合下位特徴量バッファ183の全てに特徴量がバッファリングされているか否かを判定する。ステップS66において、例えば、辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173、および照合上位特徴量バッファ181乃至照合下位特徴量バッファ183の全てに特徴量がバッファリングされていると判定された場合、テーブル更新部192は、その旨を3対3照合部154、および平均化部174に通知し、処理は、ステップS67に進む。   In step S66, the table updating unit 192 accesses the dictionary feature quantity table 156 and the collation feature quantity table 157, and the dictionary upper feature quantity buffer 171 to the dictionary lower feature quantity buffer 173 and the collation upper feature quantity buffer 181 to the collation lower order. It is determined whether or not feature quantities are buffered in all feature quantity buffers 183. In step S66, for example, when it is determined that the feature quantity is buffered in all of the dictionary upper feature quantity buffer 171 to the dictionary lower feature quantity buffer 173 and the collation upper feature quantity buffer 181 to the collation lower feature quantity buffer 183. The table updating unit 192 notifies the 3-to-3 matching unit 154 and the averaging unit 174 to that effect, and the process proceeds to step S67.

ステップS67において、平均化部174は、辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173にバッファリングされている特徴量を平均化し、平均顔画像特徴量バッファ175にバッファリングさせる。   In step S67, the averaging unit 174 averages the feature values buffered in the dictionary upper feature value buffer 171 to the dictionary lower feature value buffer 173, and causes the average face image feature value buffer 175 to buffer the feature values.

ステップS68において、3対3照合部154は、平均顔画像特徴量バッファ175より平均顔画像特徴量を読み出し、照合上位特徴量バッファ181乃至照合下位特徴量バッファ183にバッファリングされている特徴量とを、それぞれ照合する。すなわち、3対3照合部154は、平均顔画像特徴量と、照合上位特徴量バッファ181乃至照合下位特徴量バッファ183にバッファリングされている特徴量について、それぞれ3種類の類似度を求める。   In step S68, the 3-to-3 matching unit 154 reads the average face image feature value from the average face image feature value buffer 175, and the feature values buffered in the matching upper feature value buffer 181 to the matching lower feature value buffer 183 Are collated respectively. That is, the 3-to-3 matching unit 154 calculates three types of similarity for the average face image feature value and the feature values buffered in the matching upper feature value buffer 181 to the matching lower feature value buffer 183, respectively.

ステップS69において、3対3照合部154は、3種類の特徴量の全てが所定値よりも大きいか否か、すなわち、辞書特徴量テーブル156にバッファリングされている顔画像の3種類の特徴量の平均値と、照合特徴量テーブル157の照合上位特徴量バッファ181乃至照合下位特徴量バッファ183にバッファリングされている特徴量とが類似しており、辞書として登録されている特徴量の人物と、照合特徴量テーブル157にバッファリングされている特徴量の照合対象者とが同一であるか否かが判定される。   In step S69, the 3 to 3 matching unit 154 determines whether or not all of the three types of feature amounts are larger than a predetermined value, that is, the three types of feature amounts of the face image buffered in the dictionary feature amount table 156. Are similar to the feature quantities buffered in the matching upper feature quantity buffer 181 to the matching lower feature quantity buffer 183 of the matching feature quantity table 157, and the person of the feature quantity registered as a dictionary Then, it is determined whether or not the matching target person of the feature quantity buffered in the matching feature quantity table 157 is the same.

ステップS69において、例えば、同一の人物であるとみなされた場合、ステップS70において、3対3照合部154は、カメラ38で撮像される撮像範囲内に存在する人物に入替りが発生していないことを出力部155、およびテーブル更新部192に通知する。   In step S69, for example, when it is determined that they are the same person, in step S70, the 3-to-3 collation unit 154 has not switched to a person existing within the imaging range captured by the camera 38. This is notified to the output unit 155 and the table update unit 192.

一方、ステップS69において、例えば、同一の人物ではないとみなされた場合、ステップS71において、3対3照合部154は、カメラ38で撮像される撮像範囲内に存在する人物に入替りが発生していることを出力部155、およびテーブル更新部192に通知する。   On the other hand, in step S69, for example, when it is determined that they are not the same person, in step S71, the 3-to-3 collation unit 154 switches to a person existing within the imaging range captured by the camera 38. To the output unit 155 and the table update unit 192.

ここで、図11のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS7において、出力部154、および、テーブル更新部192は、3対3照合部154からの通知内容に応じて、入替りが発生したか否かを判定する。   In step S <b> 7, the output unit 154 and the table update unit 192 determine whether or not a replacement has occurred according to the notification content from the 3-to-3 verification unit 154.

ステップS7において、例えば、ステップS70の処理により、入替りが発生していないと判定された場合、ステップS8において、テーブル更新部192は、照合特徴量テーブル157の照合上位特徴量バッファ181乃至照合下位特徴量バッファ183にバッファリングされている特徴量を削除する。すなわち、照合対象者の特徴量を新たに3種類受け付ける状態とする。尚、このとき、カメラ38により撮像される顔画像の人物に変化はないため、出力部154は、顔検出部151の顔画像切り出し部164より供給されてきた顔画像を破棄し、顔画像認識装置21に供給しない。   In step S7, for example, if it is determined by the processing in step S70 that no replacement has occurred, in step S8, the table update unit 192 causes the collation upper feature amount buffer 181 to the collation lower order in the collation feature amount table 157. The feature quantity buffered in the feature quantity buffer 183 is deleted. That is, it is in a state of newly accepting three types of feature amounts of the person to be verified. At this time, since there is no change in the person of the face image captured by the camera 38, the output unit 154 discards the face image supplied from the face image cutout unit 164 of the face detection unit 151 and recognizes the face image. It is not supplied to the device 21.

一方、ステップS7において、例えば、ステップS71の処理により、入替りが発生したと判定された場合、ステップS9において、出力部155は、顔検出部151の顔画像切り出し部164より供給されてきた顔画像を、顔画像認識装置21に供給する。すなわち、入替りが発生したということは、これまでに、同一の人物の顔画像が顔画像認証処理されていないことになるので、新たな顔画像として顔画像認識装置21に供給する。尚、最初の顔画像については、無条件に顔画像認識装置21に供給するものとする。   On the other hand, if it is determined in step S7 that, for example, a change has occurred by the processing in step S71, the output unit 155 outputs the face supplied from the face image cutout unit 164 of the face detection unit 151 in step S9. The image is supplied to the face image recognition device 21. That is, the occurrence of replacement means that the face image of the same person has not been subjected to the face image authentication processing so far, and is supplied to the face image recognition device 21 as a new face image. Note that the first face image is unconditionally supplied to the face image recognition device 21.

ステップS10において、テーブル更新部192は、照合特徴量テーブル157の照合上位特徴量バッファ181乃至照合下位特徴量バッファ183にバッファリングされている特徴量で、辞書特徴量テーブル156の辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173により更新し、さらに、その後、照合特徴量テーブル157の照合上位特徴量バッファ181乃至照合下位特徴量バッファ183にバッファリングされている特徴量を削除し、処理は、ステップS1に戻る。この処理により、新たな人物の顔画像の特徴量として、照合特徴量テーブル157の照合上位特徴量バッファ181乃至照合下位特徴量バッファ183にバッファリングされている特徴量が、基準となる人物の顔画像の特徴量として辞書特徴量テーブル156の辞書上位特徴量バッファ171乃至辞書下位特徴量バッファ173にバッファリングされ、それ以降の処理が繰り返される。   In step S10, the table updating unit 192 uses the feature values buffered in the collation upper feature amount buffer 181 to the collation lower feature amount buffer 183 of the collation feature amount table 157, and the dictionary upper feature amount buffer of the dictionary feature amount table 156. 171 thru | or the dictionary low-order feature-value buffer 173, and also deletes the feature-value buffered by the collation high-order feature-value buffer 181 thru | or the collation low-order feature-value buffer 183 of the collation feature-value table 157 after that, Return to step S1. As a result of this processing, the feature quantities buffered in the collation upper feature quantity buffer 181 to the collation lower feature quantity buffer 183 of the collation feature quantity table 157 as the feature quantity of the new person face image are used as the reference person face. The image features are buffered in the dictionary upper feature buffer 171 through the dictionary lower feature buffer 173 of the dictionary feature table 156, and the subsequent processing is repeated.

すなわち、以上の処理により、顔画像が新たに入替ったと判定されたときにのみ、画像処理ユニット39からは顔画像が、顔画像認識装置21に供給されることになる。このため、顔画像認識装置21に対しては、後述する顔画像を用いた認証処理の処理回数を低減させることが可能となる。   In other words, the face image is supplied from the image processing unit 39 to the face image recognition device 21 only when it is determined that the face image is newly replaced by the above processing. For this reason, it is possible to reduce the number of times of authentication processing using a face image, which will be described later, for the face image recognition device 21.

ステップS21において、顔画像認識装置21の顔画像取得部221は、ステップS10の処理により供給されてきた顔画像を取得する。ステップS22において、顔画像取得部221は、供給された顔画像のうち、いずれか未処理の1つを抽出し、特徴量抽出部231に供給する。   In step S21, the face image acquisition unit 221 of the face image recognition device 21 acquires the face image supplied by the process in step S10. In step S <b> 22, the face image acquisition unit 221 extracts any unprocessed one of the supplied face images and supplies the extracted unprocessed one to the feature amount extraction unit 231.

ステップS23において、照合部222の特徴量抽出部231は、供給されてきた顔画像より特徴量を抽出して、顔画像と供に類似度計算部232に供給する。   In step S23, the feature amount extraction unit 231 of the collation unit 222 extracts the feature amount from the supplied face image, and supplies the feature amount together with the face image to the similarity calculation unit 232.

ステップS24において、類似度計算部232は、類似度計算処理を実行する。   In step S24, the similarity calculation unit 232 executes similarity calculation processing.

ここで、図14のフローチャートを参照して、類似度計算処理について説明する。   Here, the similarity calculation processing will be described with reference to the flowchart of FIG.

ステップS101において、類似度計算部232は、顔画像情報DB22の登録遊技者DBに登録されている顔画像のうち、未処理の1つの登録遊技者の顔画像を抽出し、処理対象に設定する。   In step S101, the similarity calculation unit 232 extracts a face image of one unprocessed registered player from the face images registered in the registered player DB of the face image information DB 22, and sets it as a processing target. .

ステップS102において、類似度計算部232は、処理対象として設定した登録遊技者DBに登録されている顔画像より、前記特徴量抽出部231より供給されてきた特徴量と同様の特徴量を抽出する。   In step S102, the similarity calculation unit 232 extracts a feature amount similar to the feature amount supplied from the feature amount extraction unit 231 from the face image registered in the registered player DB set as the processing target. .

ステップS103において、類似度計算部232は、特徴量抽出部231より供給された顔画像についての、目と目の間隔、あごから額までの長さと、あごから鼻のまでの長さの比率などの各種の顔の特徴量と、顔画像情報DB22に登録されている登録遊技者DBに登録されている顔画像における同様の特徴量とを用いて、それぞれの差分和、平均比率、または比率和などを類似度として計算し、ステップS104において、計算結果である登録遊技者DBに登録されている顔画像との類似度を類似度判定部233に供給し、バッファ233aに登録させる。   In step S <b> 103, the similarity calculation unit 232, for the face image supplied from the feature amount extraction unit 231, the ratio of the eye-to-eye spacing, the length from the chin to the forehead, and the length from the chin to the nose, etc. Using the various feature values of the various faces and the similar feature values in the face image registered in the registered player DB registered in the face image information DB 22, the difference sum, the average ratio, or the ratio sum of each. In step S104, the similarity with the face image registered in the registered player DB, which is the calculation result, is supplied to the similarity determination unit 233 and registered in the buffer 233a.

ステップS105において、類似度計算部232は、顔画像情報DB22の登録遊技者DBに未処理の登録遊技者の顔画像が存在するか否かを判定し、未処理の登録遊技者の顔画像が存在する場合、処理は、ステップS101に戻る。すなわち、登録遊技者DBの全ての登録遊技者の顔画像との類似度が計算されるまで、ステップS101乃至S105の処理が繰り返される。そして、ステップS105において、登録遊技者DBに未処理の登録遊技者の顔画像が存在しないと判定された場合、類似度計算処理は終了する。   In step S105, the similarity calculation unit 232 determines whether or not an unprocessed registered player's face image exists in the registered player DB of the face image information DB 22, and the unprocessed registered player's face image is determined. If it exists, the process returns to step S101. That is, the processes of steps S101 to S105 are repeated until the similarity with the face images of all registered players in the registered player DB is calculated. In step S105, when it is determined that there is no unprocessed registered player face image in the registered player DB, the similarity calculation processing ends.

ここで、図11のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS25において、類似度判定部233は、バッファ233aに登録されている類似度の計算結果に基づいて順位を求め、登録遊技者DBに登録されている顔画像のうちの上位3位までの顔画像と類似度の情報を抽出する。そして、類似度判定部233は、上位3位までの顔画像と類似度の情報に基づいて、最上位の類似度が所定の閾値よりも大きいか否かを判定する。すなわち、類似度判定部233は、最も類似している登録遊技者(顔画像情報DB22に登録されている顔画像のうち、顔画像取得部221により取得された顔画像と最も類似している登録遊技者:ここでは、類似度の最も高い登録遊技者)の類似度を所定の閾値と比較する。   In step S25, the similarity determination unit 233 obtains a rank based on the calculation result of the similarity registered in the buffer 233a, and faces up to the top three of the face images registered in the registered player DB. Extract information about image and similarity. Then, the similarity determination unit 233 determines whether or not the highest similarity is greater than a predetermined threshold based on the top three face images and similarity information. That is, the similarity determination unit 233 registers the most similar registered player (of the face images registered in the face image information DB 22 and most similar to the face image acquired by the face image acquisition unit 221). Player: Here, the similarity of the registered player having the highest similarity is compared with a predetermined threshold.

尚、上述のように、類似度の定義により、撮像された顔画像と最も類似している登録遊技者の顔画像との類似度は、その値そのものが最も高いとは限らないため、類似度と閾値との大小関係はこの例の場合とは異なることがある。   Note that, as described above, the similarity between the face image of the registered player who is most similar to the captured face image is not necessarily the highest because of the definition of the similarity. And the threshold value may differ from those in this example.

ステップS25において、最上位の類似度が所定の閾値よりも大きいと判定された場合、ステップS26において、類似度判定部233は、類似度計算部232より供給されてきた上位3位の顔画像が登録遊技者の顔画像の候補であることを示す報知画面301を表示部23を制御して表示させる。   If it is determined in step S25 that the highest similarity is greater than a predetermined threshold, in step S26, the similarity determination unit 233 determines that the top third facial image supplied from the similarity calculation unit 232 is the top three. A notification screen 301 indicating that it is a candidate for a registered player's face image is displayed by controlling the display unit 23.

このとき、例えば、図15で示されるような報知画面301が、表示部23に表示される。   At this time, for example, a notification screen 301 as shown in FIG. 15 is displayed on the display unit 23.

図15の報知画面301においては、カメラ画像表示欄311が、左中段に設けられており、画像処理ユニット39より供給されてきた顔画像が表示される。また、その右側には、類似度の高い順に第1候補乃至第3候補までの類似度の上位3位の登録遊技者の顔画像表示欄312−1乃至312−3が設けられている。さらに、各登録遊技者の顔画像表示欄312−1乃至312−3の下には、類似度レベル表示欄313−1乃至313−3が設けられており、類似度のレベルが表示されている。図15において、黒で示される領域の横方向の長さが類似度の大きさを示している。   In the notification screen 301 of FIG. 15, the camera image display field 311 is provided in the middle left, and the face image supplied from the image processing unit 39 is displayed. Also, on the right side, face image display fields 312-1 to 312-3 of registered players of the top three in the similarity from the first candidate to the third candidate are provided in descending order of similarity. Further, similarity level display fields 313-1 to 313-3 are provided below the face image display fields 312-1 to 312-3 of each registered player, and the level of similarity is displayed. . In FIG. 15, the horizontal length of the area shown in black indicates the magnitude of the similarity.

また、類似度レベル表示欄313−1乃至313−3の下には、対応する位置に、ID表示欄314−1乃至314−3が設けられており、各顔画像の顔画像情報DB22における顔画像を識別するIDが表示されており、図15において、左から「00051」、「00018」および「00022」と表示されている。   Further, ID display fields 314-1 to 314-3 are provided at corresponding positions below the similarity level display fields 313-1 to 313-3, and the face in the face image information DB 22 of each face image is provided. IDs for identifying images are displayed. In FIG. 15, “00051”, “00018”, and “00022” are displayed from the left.

さらに、ID表示欄314−1乃至314−3の下には、それぞれ対応する位置に、それぞれの候補を選択されるときに操作部225により操作される確定ボタン318−1乃至318−3が設けられている。   Furthermore, below the ID display fields 314-1 to 314-3, confirmation buttons 318-1 to 318-3 operated by the operation unit 225 when each candidate is selected are provided at the corresponding positions. It has been.

また、カメラ画像表示欄311の下には、その顔画像を撮像したカメラを識別するカメラID表示欄315が設けられており、図15においては、カメラ38、入口カメラ40、および店内カメラ41を識別するためのカメラIDとして「カメラ02」が表示されている。さらに、カメラID表示欄315の下には、時刻表示欄316が設けられており、入口カメラ40により撮像された時刻が表示されており、図15においては、「18:23:32」と表示されており、カメラ画像表示欄311の顔画像が18時23分32秒に撮像されていることが示されている。   A camera ID display field 315 for identifying the camera that captured the face image is provided under the camera image display field 311. In FIG. 15, the camera 38, the entrance camera 40, and the in-store camera 41 are displayed. “Camera 02” is displayed as a camera ID for identification. Further, a time display field 316 is provided below the camera ID display field 315, and the time taken by the entrance camera 40 is displayed. In FIG. 15, “18:23:32” is displayed. It is shown that the face image in the camera image display field 311 is captured at 18:23:32.

さらに、時刻表示欄316の下には、別人ボタン317が設けられており、カメラ画像の顔画像が、第1候補乃至第3候補となる登録遊技者の顔画像表示欄312−1乃至312−3のいずれにも似ていないとみなされたとき、操作部225により操作される。   Furthermore, another person button 317 is provided below the time display field 316, and the face image display fields 312-1 to 312- of the registered player whose face images of the camera image are the first to third candidates. 3 is operated by the operation unit 225 when it is regarded as not similar to any of 3.

ステップS27において、通信部224は、操作部225が操作されて、候補となる顔画像の何れかが選択されたか否か、すなわち、例えば、図15で示される報知画面301が表示部23に表示されていた場合、確定ボタン318−1乃至318−3のいずれかが操作部225により操作されたか否かを判定する。   In step S27, the communication unit 224 displays on the display unit 23 whether or not any of the candidate face images has been selected by operating the operation unit 225, for example, the notification screen 301 shown in FIG. If it has been determined, it is determined whether any of the confirmation buttons 318-1 to 318-3 has been operated by the operation unit 225.

ステップS27において、例えば、確定ボタン318−1が操作された場合、第1候補となる顔画像が選択されたとみなされ、ステップS28において、通信部224は、選択された第1候補となる顔画像および入口カメラ40により撮像されたカメラ画像を携帯端末20に送信し、該当する登録遊技者が来店したことを通知する。   In step S27, for example, when the confirm button 318-1 is operated, it is considered that the face image to be the first candidate has been selected, and in step S28, the communication unit 224 has the selected face image to be the first candidate. And the camera image imaged with the entrance camera 40 is transmitted to the portable terminal 20, and it notifies that the corresponding registered player came to the store.

ステップS41において、通信部271は、登録遊技者の来店が通知されてきたか否かを判定し、通知されてくるまで、その処理を繰り返す。例えば、ステップS41において、ステップS28の処理により、登録遊技者の来店が通知されてきた場合、ステップS42において、通信部271は、顔画像認識装置21より送信されてきた登録遊技者の来店の通知を受信すると供に、その通知に併せて送信されてくる登録遊技者の顔画像および入口カメラ40により撮像されたカメラ画像を画像処理部272に供給する。画像処理部272は、選択された顔画像および入口カメラ40により撮像されたカメラ画像の情報を、表示部273に表示可能な形式の情報に加工して、ステップS43において、表示部273に表示させる。   In step S41, the communication unit 271 determines whether or not the registered player has been notified of the store visit, and repeats the process until the notification is received. For example, when a registered player's visit is notified in step S41 by the process of step S28, the communication unit 271 notifies the registered player's visit sent from the face image recognition device 21 in step S42. , The face image of the registered player and the camera image captured by the entrance camera 40 transmitted together with the notification are supplied to the image processing unit 272. The image processing unit 272 processes information on the selected face image and the camera image captured by the entrance camera 40 into information in a format that can be displayed on the display unit 273, and displays the information on the display unit 273 in step S43. .

以上の処理により、遊技店1内の係員は、携帯端末20を所持していると、登録遊技者の来店を認識することが可能となる。   By the above processing, the staff in the game store 1 can recognize the registered player's visit if the portable terminal 20 is possessed.

また、ステップS29において、顔画像取得部221は、供給された顔画像の全てについて処理を行なったか否かを判定し、未処理の顔画像がある場合、処理は、ステップS22に戻る。すなわち、全ての顔画像について処理が行なわれるまで、ステップS22乃至S30の処理が繰り返される。そして、全ての顔画像について処理が終了したと判定された場合、処理は、ステップS21に戻る。   In step S29, the face image acquisition unit 221 determines whether or not all of the supplied face images have been processed. If there is an unprocessed face image, the process returns to step S22. That is, the processes in steps S22 to S30 are repeated until the process is performed on all face images. If it is determined that the process has been completed for all face images, the process returns to step S21.

一方、ステップS27において、いずれの候補となる顔画像も選択されず、例えば、図15の報知画面301における別人ボタン317が押下された場合、または、ステップS25において、類似度計算部232より供給されてくる上位3位までの顔画像と類似度の情報に基づいて、最上位の類似度が所定の閾値よりも大きくない場合、すなわち、最も類似している登録遊技者の顔画像であっても類似度が、所定の閾値未満である場合、ステップS30において、類似度判定部233は、画像処理ユニット39より供給されてきた顔画像を未登録遊技者データベース登録部223に供給する。未登録遊技者データベース登録部223は、供給されてきた顔画像を生体管理情報バス6及び公衆通信回線網8を介して顔画像管理データベース3にアクセスし、未登録遊技者DBに登録する。   On the other hand, no candidate face image is selected in step S27. For example, when the other person button 317 on the notification screen 301 in FIG. 15 is pressed, or in step S25, the similarity calculation unit 232 supplies the face image. Based on the information of the top three face images and the similarity, the highest similarity is not greater than a predetermined threshold, that is, even the face image of the most similar registered player If the similarity is less than the predetermined threshold, the similarity determination unit 233 supplies the face image supplied from the image processing unit 39 to the unregistered player database registration unit 223 in step S30. The unregistered player database registration unit 223 accesses the face image management database 3 through the biometric management information bus 6 and the public communication network 8 to register the supplied face image in the unregistered player DB.

このような処理により、顔画像認識装置21により画像処理ユニット39より供給されてきた顔画像が、顔画像情報DB22に登録されていないとみなされると、顔画像管理センタ2により管理されている顔画像管理DB3内の未登録遊技者DBに未登録遊技者の顔画像として登録される。   As a result of such processing, if the face image supplied from the image processing unit 39 by the face image recognition device 21 is not registered in the face image information DB 22, the face managed by the face image management center 2 is used. The face image of the unregistered player is registered in the unregistered player DB in the image management DB 3.

以上の処理により、連続して供給されてくる顔画像の特徴量のうち、顔画像を供給した後に最初に連続する類似した3種類の特徴量を辞書情報とし、その後、連続して供給される類似した3種類の特徴量を照合対象者の情報と比較することにより、カメラ38により撮像される範囲内における人物の入替えの有無を検出することが可能となる。結果として、画像処理ユニット39は、カメラ38により撮像される画像から抽出される顔画像のうち、入替が発生したタイミングで供給される顔画像のみを顔画像認証装置21に供給することになるので、顔画像認証装置21における顔画像認証処理の負荷を低減させることが可能となる。   With the above processing, among the feature values of the face image that are continuously supplied, three similar feature values that are first continuous after supplying the face image are used as dictionary information, and then supplied continuously. By comparing three types of similar feature quantities with the information of the person to be collated, it is possible to detect whether or not a person is replaced within the range imaged by the camera 38. As a result, the image processing unit 39 supplies only the face image supplied from the face image extracted from the image captured by the camera 38 to the face image authentication device 21 at the timing when the replacement occurs. Thus, it is possible to reduce the load of the face image authentication process in the face image authentication device 21.

ところで、上述した一連の監視処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   Incidentally, the series of monitoring processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

図16は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。   FIG. 16 shows a configuration example of a general-purpose personal computer. This personal computer incorporates a CPU (Central Processing Unit) 1001. An input / output interface 1005 is connected to the CPU 1001 via the bus 1004. A ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.

入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。   The input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of a processing result to a display device, a program and various data. A storage unit 1008 including a hard disk drive for storing data, a LAN (Local Area Network) adapter, and the like, and a communication unit 1009 for performing communication processing via a network represented by the Internet are connected. Also, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk (including an MD (Mini Disc)), or a semiconductor A drive 1010 for reading / writing data from / to a removable medium 1011 such as a memory is connected.

CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。   The CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Various processes are executed according to the program. The RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.

尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。   In this specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series in the order described, but of course, it is not necessarily performed in time series. Or the process performed separately is included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明を適用した監視システムの一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the monitoring system to which this invention is applied. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1の画像処理ユニットの構成例を説明する図である。It is a figure explaining the structural example of the image processing unit of FIG. 図1の顔画像情報認識装置の構成例を説明する図である。It is a figure explaining the structural example of the face image information recognition apparatus of FIG. 図1の携帯端末の構成例を説明する図である。It is a figure explaining the structural example of the portable terminal of FIG. 登録遊技者来店監視処理を説明するフローチャートである。It is a flowchart explaining a registered player visit monitoring process. 入替え判定処理を説明するフローチャートである。It is a flowchart explaining a replacement determination process. 照合入替え判定処理を説明するフローチャートである。It is a flowchart explaining a collation replacement determination process. 類似度計算処理を説明するフローチャートである。It is a flowchart explaining a similarity calculation process. 報知画像の表示例を説明する図である。It is a figure explaining the example of a display of an alerting | reporting image. パーソナルコンピュータの構成例を説明する図である。And FIG. 11 is a diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

1,1−1乃至1−n 遊技店
2 顔画像管理センタ
3 顔画像管理データベース
4 第3者遊技店管理センタ
5 第3者遊技店管理データベース
6 顔画像管理バス
7 第3者遊技店管理バス
8,9 公衆通信回線網
21 顔画像情報認識装置
22 顔画像情報データベース
24 遊技店管理装置
26 遊技台管理データベース
27 媒体貸出管理装置
29 媒体貸出管理データベース
30 遊技店管理情報バス
31 顔画像情報バス
33 精算機
34 貸出機
35 計数機
36,36−1乃至36−m 遊技台
37,37−1乃至37−m 遊技台周辺端末
38,38−1乃至38−m カメラ
39,39−1乃至39−m 画像処理ユニット
1, 1-1 to 1-n amusement store 2 face image management center 3 face image management database 4 third party amusement store management center 5 third party amusement store management database 6 face image management bus 7 third party amusement store management bus 8, 9 Public communication line network 21 Facial image information recognition device 22 Facial image information database 24 Amusement store management device 26 Amusement table management database 27 Media rental management device 29 Media rental management database 30 Amusement store management information bus 31 Facial image information bus 33 Settlement machine 34 Lending machine 35 Counter 36, 36-1 to 36-m Game stand 37, 37-1 to 37-m Game stand peripheral terminal 38, 38-1 to 38-m Camera 39, 39-1 to 39- m Image processing unit

Claims (8)

顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段と、
連続的に照合対象者の顔画像を取得する取得手段と、
前記取得手段により取得された顔画像を抽出する顔画像抽出手段と、
前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段と、
連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段と、
前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段と、
前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段と、
前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段と
を含む監視装置。
Accumulation means for accumulating a face image as an accumulator face image in an accumulator database;
Acquisition means for continuously acquiring the face image of the person to be verified;
Face image extracting means for extracting the face image acquired by the acquiring means;
Feature amount extraction means for extracting feature amounts from the face image extracted by the face image extraction means;
Dictionary data storage means for storing a predetermined number of feature values of the face image acquired continuously as dictionary data;
Collation data for storing, as the collation data, a predetermined number of feature values of the face image continuously acquired after the feature data of the predetermined number of face images are stored as the dictionary data by the dictionary data storage means. Storage means;
When the feature quantity of the predetermined number of face images in the dictionary data and the feature quantity of the predetermined number of face images in the collation data are not similar, the face image of the person to be collated acquired at that timing, and the storage means A collation means for calculating and collating the similarity with the accumulated face image of the accumulator;
And a similarity determination unit that determines whether or not the face image of the person to be collated is the face image of the accumulator by comparing the similarity that is the collation result of the collation unit with a predetermined threshold value. .
前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似するか否かを判定する特徴量比較判定手段をさらに含み、
前記照合手段は、前記特徴量比較判定手段により類似しないと判定された場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する
請求項1に記載の監視装置。
A feature amount comparison / determination unit that determines whether or not the feature amount of the predetermined number of face images in the dictionary data is similar to the feature amount of the predetermined number of face images in the matching data;
When it is determined that the feature amount comparison and determination unit does not resemble the collation unit, the similarity between the face image of the person to be collated acquired at that timing and the face image of the accumulator stored in the storage unit The monitoring device according to claim 1, wherein the monitoring device calculates and collates.
前記辞書データにおける所定数の顔画像の特徴量の平均を平均特徴量として計算する平均特徴量計算手段をさらに含み、
前記特徴量比較判定手段は、前記照合データにおける所定数の顔画像の特徴量のそれぞれと、前記平均特徴量とを比較し、いずれも類似していない場合、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しないと判定する
請求項2に記載の監視装置。
An average feature amount calculating means for calculating an average feature amount of a predetermined number of face images in the dictionary data as an average feature amount;
The feature amount comparison / determination unit compares the feature amount of each of the predetermined number of face images in the collation data with the average feature amount, and if none of them is similar, the predetermined number of face images in the dictionary data The monitoring device according to claim 2, wherein it is determined that the feature amount of the image and the feature amount of the predetermined number of face images in the matching data are not similar.
前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで、前記辞書データ格納手段は、前記辞書データとして格納されている前記所定数の顔画像の特徴量を削除し、前記照合データ格納手段により、前記照合データとして格納されている前記所定数の顔画像の特徴量を、新たな辞書データとして格納する
請求項1に記載の監視装置。
When the feature quantity of the predetermined number of face images in the dictionary data and the feature quantity of the predetermined number of face images in the collation data are not similar, at that timing, the dictionary data storage means is stored as the dictionary data. The feature quantity of the predetermined number of face images is deleted, and the feature quantity of the predetermined number of face images stored as the collation data is stored as new dictionary data by the collation data storage means. The monitoring device described in 1.
前記辞書データ格納手段は、連続的に取得される前記顔画像の特徴量と、前記辞書データとして格納されていて、かつ、優先順位の最も低い特徴量とが類似していないとき、辞書データとして格納されている、優先順位の最も低い特徴量を、前記取得された顔画像の特徴量により更新する
請求項1に記載の監視装置。
The dictionary data storage means, when the feature quantity of the face image acquired continuously and the feature quantity stored as the dictionary data and having the lowest priority are not similar as dictionary data The monitoring apparatus according to claim 1, wherein the stored feature quantity with the lowest priority is updated with the feature quantity of the acquired face image.
前記照合データ格納手段は、連続的に取得される前記顔画像の特徴量と、前記照合データとして格納されていて、かつ、優先順位の最も低い特徴量とが類似していないとき、照合データとして格納されている、優先順位の最も低い特徴量を、前記取得された顔画像の特徴量により更新する
請求項1に記載の監視装置。
The collation data storage means, as the collation data, when the feature quantity of the face image acquired continuously and the feature quantity stored as the collation data and having the lowest priority are not similar The monitoring apparatus according to claim 1, wherein the stored feature quantity with the lowest priority is updated with the feature quantity of the acquired face image.
顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段と、
連続的に照合対象者の顔画像を取得する取得手段と、
前記取得手段により取得された顔画像を抽出する顔画像抽出手段と、
前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段と、
連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段と、
前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段と、
前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段と、
前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段と
を含む監視装置の監視方法において、
前記取得手段による、連続的に照合対象者の顔画像を取得する取得ステップと、
前期顔画像抽出ステップによる、前記取得ステップの処理により取得された顔画像を抽出する顔画像抽出ステップと、
前記特徴量抽出手段による、前記顔画像抽出ステップの処理で抽出された顔画像より特徴量を抽出する特徴量抽出ステップと、
前記辞書データ格納手段による、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納ステップと、
前記照合データ格納手段による、前記辞書データ格納ステップの処理により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納ステップと、
前記照合手段による、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合ステップと、
前記類似度判定手段による、前記照合ステップによる照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定ステップと
を含む監視方法。
Accumulation means for accumulating a face image as an accumulator face image in an accumulator database;
Acquisition means for continuously acquiring the face image of the person to be verified;
Face image extracting means for extracting the face image acquired by the acquiring means;
Feature amount extraction means for extracting feature amounts from the face image extracted by the face image extraction means;
Dictionary data storage means for storing a predetermined number of feature values of the face image acquired continuously as dictionary data;
Collation data for storing, as the collation data, a predetermined number of feature values of the face image continuously acquired after the feature data of the predetermined number of face images are stored as the dictionary data by the dictionary data storage means. Storage means;
When the feature quantity of the predetermined number of face images in the dictionary data and the feature quantity of the predetermined number of face images in the collation data are not similar, the face image of the person to be collated acquired at that timing, and the storage means A collation means for calculating and collating the similarity with the accumulated face image of the accumulator;
And a similarity determination unit that determines whether or not the face image of the person to be collated is the face image of the accumulator by comparing the similarity that is the collation result of the collation unit with a predetermined threshold value. In the monitoring method of
An acquisition step of continuously acquiring the face image of the person to be verified by the acquisition means;
A face image extraction step of extracting the face image acquired by the process of the acquisition step by the previous face image extraction step;
A feature amount extraction step for extracting a feature amount from the face image extracted by the processing of the face image extraction step by the feature amount extraction means;
A dictionary data storage step of storing a predetermined number of feature quantities of the face image continuously acquired by the dictionary data storage means as dictionary data;
After the feature data of the predetermined number of face images are stored as the dictionary data by the processing of the dictionary data storage step by the collation data storage means, A collation data storage step for storing as many pieces of collation data;
When the feature quantity of the predetermined number of face images in the dictionary data and the feature quantity of the predetermined number of face images in the match data are not similar by the matching means, the face image of the person to be matched acquired at that timing A collation step of calculating and collating the similarity with the face image of the accumulator accumulated in the accumulation means;
Similarity that determines whether or not the face image of the person to be collated is the face image of the accumulator by comparing the similarity that is the collation result in the collation step with a predetermined threshold by the similarity degree determination unit A monitoring method including a determination step.
顔画像を蓄積者の顔画像として蓄積者データベースに蓄積する蓄積手段と、
連続的に照合対象者の顔画像を取得する取得手段と、
前記取得手段により取得された顔画像を抽出する顔画像抽出手段と、
前記顔画像抽出手段により抽出された顔画像より特徴量を抽出する特徴量抽出手段と、
連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納手段と、
前記辞書データ格納手段により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納手段と、
前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合手段と、
前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定手段と
を含む監視装置を制御するコンピュータに、
前記取得手段による、連続的に照合対象者の顔画像を取得する取得ステップと、
前期顔画像抽出ステップによる、前記取得ステップの処理により取得された顔画像を抽出する顔画像抽出ステップと、
前記特徴量抽出手段による、前記顔画像抽出ステップの処理で抽出された顔画像より特徴量を抽出する特徴量抽出ステップと、
前記辞書データ格納手段による、連続的に取得される前記顔画像の特徴量を、所定数だけ辞書データとして格納する辞書データ格納ステップと、
前記照合データ格納手段による、前記辞書データ格納ステップの処理により、前記辞書データとして前記所定数の顔画像の特徴量が格納された後、連続的に取得される前記顔画像の特徴量を、所定数だけ照合データとして格納する照合データ格納ステップと、
前記照合手段による、前記辞書データにおける所定数の顔画像の特徴量と、前記照合データにおける所定数の顔画像の特徴量とが類似しない場合、そのタイミングで取得された照合対象者の顔画像と、前記蓄積手段に蓄積された蓄積者の顔画像との類似度を計算し、照合する照合ステップと、
前記類似度判定手段による、前記照合ステップによる照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が前記蓄積者の顔画像であるか否かを判定する類似度判定ステップと
を含む処理を実行させるプログラム。
Accumulation means for accumulating a face image as an accumulator face image in an accumulator database;
Acquisition means for continuously acquiring the face image of the person to be verified;
Face image extracting means for extracting the face image acquired by the acquiring means;
Feature amount extraction means for extracting feature amounts from the face image extracted by the face image extraction means;
Dictionary data storage means for storing a predetermined number of feature values of the face image acquired continuously as dictionary data;
Collation data for storing, as the collation data, a predetermined number of feature values of the face image continuously acquired after the feature data of the predetermined number of face images are stored as the dictionary data by the dictionary data storage means. Storage means;
When the feature quantity of the predetermined number of face images in the dictionary data and the feature quantity of the predetermined number of face images in the collation data are not similar, the face image of the person to be collated acquired at that timing, and the storage means A collation means for calculating and collating the similarity with the accumulated face image of the accumulator;
And a similarity determination unit that determines whether or not the face image of the person to be collated is the face image of the accumulator by comparing the similarity that is the collation result of the collation unit with a predetermined threshold value. To control the computer,
An acquisition step of continuously acquiring the face image of the person to be verified by the acquisition means;
A face image extraction step of extracting the face image acquired by the process of the acquisition step by the previous face image extraction step;
A feature amount extraction step for extracting a feature amount from the face image extracted by the processing of the face image extraction step by the feature amount extraction means;
A dictionary data storage step of storing a predetermined number of feature quantities of the face image continuously acquired by the dictionary data storage means as dictionary data;
After the feature data of the predetermined number of face images are stored as the dictionary data by the processing of the dictionary data storage step by the collation data storage means, A collation data storage step for storing as many pieces of collation data;
When the feature quantity of the predetermined number of face images in the dictionary data and the feature quantity of the predetermined number of face images in the match data are not similar by the matching means, the face image of the person to be matched acquired at that timing A collation step of calculating and collating the similarity with the face image of the accumulator accumulated in the accumulation means;
Similarity that determines whether or not the face image of the person to be collated is the face image of the accumulator by comparing the similarity that is the collation result in the collation step with a predetermined threshold by the similarity degree determination unit A program that executes a process including a judgment step.
JP2008192250A 2008-07-25 2008-07-25 Monitoring device and method, and program Active JP5338173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008192250A JP5338173B2 (en) 2008-07-25 2008-07-25 Monitoring device and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008192250A JP5338173B2 (en) 2008-07-25 2008-07-25 Monitoring device and method, and program

Publications (2)

Publication Number Publication Date
JP2010033151A true JP2010033151A (en) 2010-02-12
JP5338173B2 JP5338173B2 (en) 2013-11-13

Family

ID=41737587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008192250A Active JP5338173B2 (en) 2008-07-25 2008-07-25 Monitoring device and method, and program

Country Status (1)

Country Link
JP (1) JP5338173B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016823A (en) * 2012-07-09 2014-01-30 Canon Inc Image processor, image processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234355A (en) * 2003-01-30 2004-08-19 Toshiba Corp Human body recognition device, human body recognition method and passing controller
JP2006026427A (en) * 2005-08-25 2006-02-02 Hitachi Ltd Personal identification device
JP2006132195A (en) * 2004-11-05 2006-05-25 Toshiba Corp Entry control system
JP2007004321A (en) * 2005-06-22 2007-01-11 Mitsubishi Electric Corp Image processing device and entry/exit control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234355A (en) * 2003-01-30 2004-08-19 Toshiba Corp Human body recognition device, human body recognition method and passing controller
JP2006132195A (en) * 2004-11-05 2006-05-25 Toshiba Corp Entry control system
JP2007004321A (en) * 2005-06-22 2007-01-11 Mitsubishi Electric Corp Image processing device and entry/exit control system
JP2006026427A (en) * 2005-08-25 2006-02-02 Hitachi Ltd Personal identification device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016823A (en) * 2012-07-09 2014-01-30 Canon Inc Image processor, image processing method, and program
US9558212B2 (en) 2012-07-09 2017-01-31 Canon Kabushiki Kaisha Apparatus, image processing method and computer-readable storage medium for object identification based on dictionary information
US10055640B2 (en) 2012-07-09 2018-08-21 Canon Kabushiki Kaisha Classification of feature information into groups based upon similarity, and apparatus, image processing method, and computer-readable storage medium thereof

Also Published As

Publication number Publication date
JP5338173B2 (en) 2013-11-13

Similar Documents

Publication Publication Date Title
JP4941124B2 (en) Monitoring system and method, information processing apparatus, and program
JP5824806B2 (en) Facial image management device, facial image management method, and program
JP5617627B2 (en) Monitoring device and method, and program
JP4924883B2 (en) Monitoring device and method, and program
JP2007328590A (en) Information processor, information processing method, monitoring system and program
JP2007272604A (en) Information processor and information processing method, and program
JP2009000367A (en) Monitor, method and program
JP5013172B2 (en) Information processing apparatus and method, and program
JP5560976B2 (en) Information processing apparatus and method, and program
JP5577729B2 (en) Monitoring device and method, and program
JP2009000324A (en) Monitoring device, method, and program
JP2008085584A (en) Monitoring device and method, monitoring system, and program
JP2012014568A (en) Monitoring apparatus and method, and program
JP5338178B2 (en) Monitoring device and method, and program
JP2008040829A (en) Device and method for processing information, information processing system, and program
JP2008083944A (en) Monitor device and method, and program
JP4760717B2 (en) Monitoring device and method, and program
JP5338173B2 (en) Monitoring device and method, and program
JP5294020B2 (en) Image processing apparatus and method, and program
JP4807267B2 (en) Monitoring device and method, and program
JP5168564B2 (en) Monitoring device and method, and program
JP2007295548A (en) Monitoring device and method, and program
JP5292982B2 (en) Human body detection device and method, monitoring device and method, and program
JP5589421B2 (en) Image processing apparatus, image processing method, and program
JP5549418B2 (en) Information processing apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130722

R150 Certificate of patent or registration of utility model

Ref document number: 5338173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150