JP5013172B2 - Information processing apparatus and method, and program - Google Patents

Information processing apparatus and method, and program Download PDF

Info

Publication number
JP5013172B2
JP5013172B2 JP2006304097A JP2006304097A JP5013172B2 JP 5013172 B2 JP5013172 B2 JP 5013172B2 JP 2006304097 A JP2006304097 A JP 2006304097A JP 2006304097 A JP2006304097 A JP 2006304097A JP 5013172 B2 JP5013172 B2 JP 5013172B2
Authority
JP
Japan
Prior art keywords
face image
unit
image
attribute
registrant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006304097A
Other languages
Japanese (ja)
Other versions
JP2008123100A (en
Inventor
孝光 石川
真吾 川本
えりな 瀧川
直輝 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2006304097A priority Critical patent/JP5013172B2/en
Publication of JP2008123100A publication Critical patent/JP2008123100A/en
Application granted granted Critical
Publication of JP5013172B2 publication Critical patent/JP5013172B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、顧客の来店情報の管理または分析をより高い精度で高速に実現できるようにした情報処理装置および方法、並びにプログラムに関する。   The present invention relates to an information processing apparatus, method, and program, and more particularly, to an information processing apparatus, method, and program that can realize management and analysis of customer visit information at higher speed with higher accuracy.

マスコミなどで取り上げられる検索者などの情報は、性別、年代、身長、服装などを手がかりとすることが多い。このことから、人物を照合する方法として、顔の特徴点を元に、本人の照合を実施し、合わせて性別や年代の属性要素を付加することが多い。   Information such as searchers taken up in the media is often based on gender, age, height, and clothing. For this reason, as a method of matching a person, the person is often matched based on the facial feature points, and attribute elements of gender and age are often added.

しかしながら、照合と属性要素は独立しており、照合の際に属性を参考にすることがなく、顔の特徴点から照合結果だけ抽出することで、明らかに属性の異なる人物が抽出されることがあり、見た目に信頼感を損ねることがあった。   However, matching and attribute elements are independent, and it is possible to extract persons with clearly different attributes by extracting only matching results from facial feature points without referring to attributes during matching. Yes, it seemed to impair trust.

そこで、性別や年代などを個別の画像から照合に付加する要素として取り込むことが可能であるが、手がかりに含まれていることが多い身長については推定する手段が確立されておらず、各種の手法が提案されている。   Therefore, it is possible to capture gender, age, etc. from individual images as elements to be added to the collation, but there is no established method for estimating the height that is often included in the clues, and various methods Has been proposed.

例えば、身長を推定するためには、カメラ(撮像手段)を複数設置して、複数の撮像結果に基づいて、身長を推定したりするものが提案されている(特許文献1参照)。また、カメラ(撮像手段)を制御して撮像する範囲を変えて身長を推定するものが提案されている(特許文献2参照)。   For example, in order to estimate the height, there has been proposed one in which a plurality of cameras (imaging means) are installed and the height is estimated based on a plurality of imaging results (see Patent Document 1). In addition, there has been proposed one that estimates a height by changing a range of imaging by controlling a camera (imaging means) (see Patent Document 2).

特開2002-183734号公報JP 2002-183734 A

特開2002-278940号公報JP 2002-278940 A

しかしながら、以上の例においてはカメラの設置個数が増えることによりコストが増大したり、カメラを制御して撮像範囲を変化させるための処理時間が必要となるため、低コストで高速に身長を推定することができなかった。   However, in the above example, the cost increases due to the increase in the number of installed cameras, and the processing time required to change the imaging range by controlling the camera is required, so the height is estimated at low cost at high speed. I couldn't.

本発明はこのような状況に鑑みてなされたものであり、低コストで高速に身長を推定できるようにし、高い精度で高速に顧客の来店情報を管理できるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to estimate the height at high speed at low cost, and to manage customer visit information at high speed with high accuracy.

本発明の一側面の情報処理装置は、遊技店の出入口における所定の範囲の画像を撮像する撮像手段と、前記撮像手段により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出手段と、前記撮像手段により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定手段と、予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積手段と、前記蓄積手段に前記属性コードに対応付けて蓄積されている登録者のうち、前記推定手段により推定された属性コードを備えた登録者を抽出する登録者抽出手段と、前記登録者抽出手段により抽出された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定手段と、前記照合判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段とを含む。 An information processing apparatus according to an aspect of the present invention extracts an image capturing unit that captures an image of a predetermined range at an entrance of a game store, and a feature amount of a face image of a person to be collated on the image captured by the image capturing unit. And an attribute code set by a table made of any one of a plurality of attribute information or a combination of them on the image captured by the imaging unit. Among the estimation means, the accumulation means for accumulating face images of registrants registered in advance in association with the attribute codes, and the estimation among the registrants accumulated in the accumulation means in association with the attribute codes. a registrant extraction means and the face image of the registrant has been extracted by the extraction means registrants for extracting registrants having the attribute code estimated by means, the collation object person Collation with a face image based on the feature quantity of the face image, collation determination means for determining whether or not the person to be collated is the registrant, and the person to be collated is registered by the collation determination means Notification means for notifying that the person to be collated is the registrant.

前記複数の属性情報は、身長、年代、および性別を含ませるようにすることができる。 Wherein the plurality of attribute information, height, age, and gender can be Rukoto as to include.

前記属性推定手段には、前記撮像手段により撮像された画像上における、照合対象者の所定の大きさの顔画像の位置を取得する位置取得手段を含ませるようにすることができ、前記位置取得手段により取得された前記画像上における、前記照合対象者の所定の大きさの顔画像の位置に基づいて、前記顔画像の人物の前記身長を推定させるようにすることができる。   The attribute estimation unit may include a position acquisition unit that acquires a position of a face image of a predetermined size of the person to be collated on the image captured by the imaging unit. The height of the person of the face image can be estimated based on the position of the face image of a predetermined size of the person to be collated on the image acquired by the means.

前記属性推定手段には、前記特徴量抽出手段により抽出された特徴量に基づいて、前記年代を推定させるようにすることができる。   The attribute estimation unit can estimate the age based on the feature amount extracted by the feature amount extraction unit.

前記属性推定手段には、前記特徴量抽出手段により抽出された特徴量に基づいて、前記性別を推定させるようにすることができる。   The attribute estimation unit can estimate the sex based on the feature amount extracted by the feature amount extraction unit.

前記蓄積手段に蓄積された顔画像より所定の検索条件を満たす顔画像を取得する取得手段と、前記取得手段により取得された顔画像のうち、基準顔画像および非基準顔画像を抽出する顔画像抽出手段と、前記基準顔画像の特徴量を抽出する基準顔画像特徴量抽出手段と、前記非基準顔画像の属性コードを推定する非基準顔画像属性推定手段と、前記非基準顔画像のうち、前記非基準顔画像属性推定手段により推定された属性コードを備えた非基準顔画像のみを抽出する該当属性非基準顔画像抽出手段と、前記該当属性非基準顔画像抽出手段により抽出された非基準顔画像と、前記基準顔画像とを、前記顔画像の特徴量に基づいて照合し、前記非基準顔画像が前記基準顔画像に類似しているか否かを判定する類似度判定手段と、前記類似度判定手段により前記非基準顔画像が前記基準顔画像に類似していると判定された場合、前記非基準顔画像を前記基準顔画像のグループとして登録するグループ登録手段とをさらに含ませるようにすることができる。 An acquisition means for acquiring a face image satisfying a predetermined search condition from the face image stored in the storage means, and a face image for extracting a reference face image and a non-reference face image from the face images acquired by the acquisition means Of the non-reference face image, an extraction means, a reference face image feature quantity extraction means for extracting a feature quantity of the reference face image , a non-reference face image attribute estimation means for estimating an attribute code of the non -reference face image, Corresponding attribute non-reference face image extraction means for extracting only the non-reference face image having the attribute code estimated by the non-reference face image attribute estimation means, and the non-reference face image extraction means extracted by the corresponding attribute non-reference face image extraction means. Similarity determination means for comparing a reference face image with the reference face image based on a feature amount of the face image and determining whether the non-reference face image is similar to the reference face image; Similarity determination If the step determines that the non-reference face image is similar to the reference face image, group registration means for registering the non-reference face image as a group of the reference face images is further included. Can do.

本発明の一側面の情報処理方法は、遊技店の出入口における所定の範囲の画像を撮像する撮像ステップと、前記撮像ステップの処理により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出ステップと、前記撮像ステップの処理により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定ステップと、予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積ステップと、前記蓄積ステップの処理で前記属性コードに対応付けて蓄積されている登録者のうち、前記推定ステップの処理により推定された属性コードを備えた登録者を抽出する登録者抽出ステップと、前記登録者抽出ステップの処理により抽出された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定ステップと、前記蓄積ステップの処理により蓄積されている予め登録された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量および前記属性推定ステップの処理により推定された属性に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定ステップと、前記照合判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップとを含む。 An information processing method according to one aspect of the present invention includes an imaging step of capturing an image of a predetermined range at an entrance of a game store, and a feature amount of a face image of a person to be collated on the image captured by the processing of the imaging step And an attribute set by a table made of any one of a plurality of attribute information or a combination of them on the image captured by the process of the imaging step an attribute estimation step of estimating a code in advance the face image of the registered subscribers and storing step of storing in association with the attribute code, registered accumulated in association with the attribute code in the processing of the storage step of's and registrant extracting a registrant with an attribute code estimated by the processing of said estimating step, said Noboru The face image of the registrant extracted by the process of the person extracting step and the face image of the person to be collated are collated based on the feature amount of the face image, and whether or not the person to be collated is the registrant. A matching determination step for determining whether or not the facial image of the registrant registered in advance by the processing of the storage step, and the facial image of the verification target person, the feature amount of the facial image and the attribute estimation Collation based on the attribute estimated by the processing of the step, collation determination step for determining whether or not the verification target person is the registrant, and the verification target person is the registrant by the processing of the verification determination step A notification step for notifying that the person to be collated is the registrant.

本発明の一側面のプログラムは、遊技店の出入口における所定の範囲の画像を撮像する撮像ステップと、前記撮像ステップの処理により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出ステップと、前記撮像ステップの処理により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定ステップと、予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積ステップと、前記蓄積ステップの処理で前記属性コードに対応付けて蓄積されている登録者のうち、前記推定ステップの処理により推定された属性コードを備えた登録者を抽出する登録者抽出ステップと、前記登録者抽出ステップの処理により抽出された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定ステップと、前記照合判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップとを含む処理をコンピュータに実行させる。 The program according to one aspect of the present invention extracts an image capturing step of capturing an image of a predetermined range at an entrance of a game store, and a feature amount of the face image of the person to be collated on the image captured by the processing of the image capturing step. And an attribute code set by a table made of any of a plurality of attribute information of the verification target person or a combination thereof on the image captured by the processing of the feature extraction step and the imaging step An attribute estimation step to be estimated, a storage step of storing a pre-registered registrant's face image in association with the attribute code, and a process of the storage step of the registrant stored in association with the attribute code among the registrant extracting a registrant with an attribute code estimated by the processing of said estimating step, the registration The face image of the registrant extracted by the processing of the extraction step and the face image of the person to be collated are collated based on the feature amount of the face image, and whether or not the person to be collated is the registrant. And a notifying step for notifying that the verification target person is the registrant when the verification target person is determined to be the registrant by the processing of the verification determination step. Have the computer execute the process.

本発明の一側面の情報処理装置は、所定の範囲の画像が撮像され、撮像された画像上における、照合対象者の顔画像の特徴量が抽出され、撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードが推定され、予め登録された登録者の顔画像が前記属性コードに対応付けて蓄積され、前記属性コードに対応付けて蓄積されている登録者のうち、推定された属性コードを備えた登録者が抽出され、抽出された登録者の顔画像と、前記照合対象者の顔画像とが、前記顔画像の特徴量に基づいて照合され、前記照合対象者が前記登録者であるか否かが判定され、前記照合対象者が前記登録者であるか否かが判定され、前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることが通知される。 An information processing apparatus according to an aspect of the present invention captures an image in a predetermined range, extracts a feature amount of a face image of a person to be collated on the captured image, and performs the collation on the captured image. A target person's attribute code set by any one of a plurality of attribute information or a combination thereof is estimated, and a pre-registered registrant's face image is stored in association with the attribute code , Among the registrants stored in association with the attribute code , the registrant with the estimated attribute code is extracted, and the extracted registrant face image and the face image of the collation target person are: Based on the feature amount of the face image, it is determined whether or not the verification target person is the registrant, whether or not the verification target person is the registrant, and the verification target person Is the registrant If it is determined that that, said collation object person is the registrant is notified.

本発明の一側面の情報処理装置における、遊技店の出入口における所定の範囲の画像を撮像する撮像手段は、例えば、入口カメラであり、前記撮像手段により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出手段は、例えば、特徴量抽出部であり、前記撮像手段により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定手段身長推定部または属性推定部であり、予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積手段は、例えば、生体情報DBであり、前記蓄積手段に前記属性コードに対応付けて蓄積されている登録者のうち、前記推定手段により推定された属性コードを備えた登録者を抽出する登録者抽出手段は、例えば、抽出部であり、前記登録者抽出手段により抽出された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定手段は、例えば、類似度判定部であり、前記照合判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段は、例えば、通信部である。 In the information processing apparatus according to one aspect of the present invention, the imaging unit that captures an image of a predetermined range at the entrance of a game shop is, for example, an entrance camera, and the verification target person on the image captured by the imaging unit The feature quantity extraction means for extracting the feature quantity of the face image is, for example, a feature quantity extraction unit, and one of a plurality of attribute information of the person to be collated on the image captured by the imaging means , or Attribute estimation means for estimating an attribute code set by a table composed of a combination thereof Height estimation section or attribute estimation section, and storage means for storing a pre-registered registrant's face image in association with the attribute code genus, for example, a biological information DB, which among the registrants are stored in association with the attribute code in the storage means, estimated by the estimating means Registrant extraction means for extracting a registrant with the code, for example, an extraction unit, and the registrant's face image extracted by the registrant extracting means and facial image of the collation object person, the face The collation determination unit that collates based on the feature amount of the image and determines whether or not the collation target person is the registrant is, for example, a similarity determination unit. When it is determined that the person is the registrant, the notification unit that notifies that the person to be collated is the registrant is, for example, a communication unit.

すなわち、類似度判定部が、生体情報DBに蓄積されている登録者の顔画像と、前記照合対象者の顔画像とを、顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する前に、抽出部が、生体情報DBに蓄積されている登録者のうち、身長推定部により推定された属性、すなわち、身長の条件を備えた登録者を抽出するので、予め身長の条件を備えた属性を有する登録者のみと照合者との特徴量に基づいて照合対象者が前記登録者であるか否かが判定されることになるので、不要な判定処理が省略されることになり、照合処理を高速にすることが可能になると共に、照合精度も向上させることが可能となる。 That is, the similarity determination unit collates the face image of the registrant stored in the biometric information DB with the face image of the person to be collated based on the feature amount of the face image, and the person to be collated Before determining whether or not the user is a registrant, the extraction unit selects a registrant with the attribute estimated by the height estimation unit, that is, the height condition, among the registrants stored in the biological information DB. Since extraction is performed, it is determined whether or not the person to be collated is the registrant based on the feature amount of only the registrant who has the attribute having the height condition in advance and the collator. will be determination process is omitted, both the verification process makes it possible to speed, it becomes possible to improve collation accuracy.

結果として、低コストで高速に身長を推定することが可能になると共に、高い精度で高速に顧客の来店情報を管理することが可能となる。 As a result, both becomes possible to estimate the height at a high speed at low cost, it is possible to manage customer visit information at high speed with high accuracy.

本発明によれば、低コストで高速に身長を推定することが可能になると共に、高い精度で高速に顧客の来店情報を管理することが可能となる。 According to the present invention, both becomes possible to estimate the height at a high speed at low cost, it is possible to manage customer visit information at high speed with high accuracy.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

すなわち、本発明の一側面の情報処理装置は、遊技店の出入口における所定の範囲の画像を撮像する撮像手段(例えば、図11の入口カメラ42)と、前記撮像手段により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出手段(例えば、図11の特徴量抽出部231)と、前記撮像手段により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定手段(例えば、図10の身長推定部212bまたは図11の属性推定部232)と、予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積手段(例えば、図11の生体情報DB22)と、前記蓄積手段に前記属性コードに対応付けて蓄積されている登録者のうち、前記推定手段により推定された属性コードを備えた登録者を抽出する登録者抽出手段(例えば、図11の抽出部233)と、前記登録者抽出手段により抽出された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定手段(例えば、図11の類似度判定部235)と、前記照合判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段(例えば、図11の通信部224)とを含む。 That is, an information processing apparatus according to an aspect of the present invention includes an imaging unit that captures an image in a predetermined range at an entrance of a game store (for example, the entrance camera 42 in FIG. 11) and an image captured by the imaging unit. A feature amount extraction unit (for example, the feature amount extraction unit 231 in FIG. 11) that extracts a feature amount of the face image of the person to be collated, and a plurality of the person to be collated on the image captured by the image capturing unit. Attribute estimation means (for example, the height estimation unit 212b in FIG. 10 or the attribute estimation unit 232 in FIG. 11) for estimating an attribute code set by a table comprising any one of these attribute information or a combination thereof, and registered in advance has been storing means the registrant's face image storing in association with the attribute code (e.g., biological information DB22 in FIG. 11) and the attribute code in association with registrant stored in the storage means Chi, the registrant extraction means for extracting a registrant with an attribute code estimated by the estimation means (e.g., the extraction unit 233 of FIG. 11), a face image of the registrant extracted by the registrant extracting means Collation determination means for collating the face image of the person to be collated based on the feature amount of the face image and determining whether or not the person to be collated is the registrant (for example, the similarity in FIG. 11) And a notification unit (for example, the communication in FIG. 11) that notifies that the verification target person is the registrant when the verification target unit determines that the verification target person is the registrant. Part 224).

前記属性推定手段(例えば、図10の身長推定部212b)には、前記撮像手段により撮像された画像上における、照合対象者の所定の大きさの顔画像の位置を取得する位置取得手段(例えば、図10の顔画像位置検出部212a)を含ませるようにすることができ、前記位置取得手段により取得された前記画像上における、前記照合対象者の所定の大きさの顔画像の位置に基づいて、前記顔画像の人物の前記身長を推定させるようにすることができる。   The attribute estimation unit (for example, the height estimation unit 212b in FIG. 10) includes a position acquisition unit (for example, a position of a face image of a predetermined size of the person to be collated on the image captured by the imaging unit (for example, , Based on the position of a face image of a predetermined size of the person to be collated on the image acquired by the position acquisition means. Thus, the height of the person of the face image can be estimated.

前記属性推定手段(例えば、図11の属性推定部232の年代推定部232a)には、前記特徴量抽出手段により抽出された特徴量に基づいて、前記年代を推定させるようにすることができる。   The attribute estimation unit (for example, the age estimation unit 232a of the attribute estimation unit 232 in FIG. 11) may be configured to estimate the age based on the feature amount extracted by the feature amount extraction unit.

前記属性推定手段(例えば、図11の属性推定部232の性別推定部232b)には、前記特徴量抽出手段により抽出された特徴量に基づいて、前記性別を推定させるようにすることができる。   The attribute estimation unit (for example, the gender estimation unit 232b of the attribute estimation unit 232 in FIG. 11) may be configured to estimate the gender based on the feature amount extracted by the feature amount extraction unit.

前記蓄積手段(例えば、図21の生体情報DB22)に蓄積された顔画像より所定の検索条件を満たす顔画像を取得する取得手段(例えば、図21の顔画像取得部331)と、前記取得手段により取得された顔画像のうち、基準顔画像および非基準顔画像を抽出する顔画像抽出手段(例えば、図21の特徴量抽出部333)と、前記基準顔画像の特徴量を抽出する基準顔画像特徴量抽出手段(例えば、図21の特徴量抽出部333)と、前記非基準顔画像の属性コードを推定する非基準顔画像属性推定手段(例えば、図21の年代推定部334または性別推定部335)と、前記非基準顔画像のうち、前記非基準顔画像属性推定手段により推定された属性コードを備えた非基準顔画像のみを抽出する該当属性非基準顔画像抽出手段(例えば、図21の抽出部336)と、前記該当属性非基準顔画像抽出手段により抽出された非基準顔画像と、前記基準顔画像とを、前記顔画像の特徴量に基づいて照合し、前記非基準顔画像が前記基準顔画像に類似しているか否かを判定する類似度判定手段(例えば、図21の類似度判定部339)と、前記類似度判定手段により前記非基準顔画像が前記基準顔画像に類似していると判定された場合、前記非基準顔画像を前記基準顔画像のグループとして登録するグループ登録手段(例えば、図21のグループ管理DB登録部340)とをさらに含ませるようにすることができる。 An acquisition unit (for example, the face image acquisition unit 331 in FIG. 21) that acquires a face image satisfying a predetermined search condition from the face image stored in the storage unit (for example, the biometric information DB 22 in FIG. 21), and the acquisition unit of the obtained face image, the face image extracting means for extracting the reference face image and a non-reference face image (for example, the feature extraction unit 333 of FIG. 21), a reference face for extracting a feature value of the reference face image Image feature quantity extraction means (for example, feature quantity extraction section 333 in FIG. 21) and non-reference face image attribute estimation means (for example, age estimation section 334 in FIG. 21 or gender estimation) that estimates the attribute code of the non-reference face image Unit 335) and corresponding attribute non-reference face image extraction means (for example, FIG. 5) for extracting only non-reference face images having the attribute code estimated by the non-reference face image attribute estimation means from among the non-reference face images . 21 extraction units 336) and the corresponding attribute non-reference face The non-reference face image extracted by the image extraction means and the reference face image are collated based on the feature amount of the face image, and it is determined whether or not the non-reference face image is similar to the reference face image. When the similarity determination unit (for example, the similarity determination unit 339 in FIG. 21) and the similarity determination unit determine that the non-reference face image is similar to the reference face image, the non-reference Group registration means for registering a face image as a group of the reference face images (for example, a group management DB registration unit 340 in FIG. 21) may be further included.

本発明の一側面の情報処理方法およびプログラムは、遊技店の出入口における所定の範囲の画像を撮像する撮像ステップ(例えば、図14のステップS2)と、前記撮像ステップの処理により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出ステップ(例えば、図14のステップS23)と、前記撮像ステップの処理により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定ステップ(例えば、図14のステップS24またはS5)と、予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積ステップ(例えば、図20のステップS64)と、前記蓄積ステップの処理により前記属性コードに対応付けて蓄積されている予め登録された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量および前記属性推定ステップの処理により推定された属性コードに基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定ステップ(例えば、図14のステップS28)と、前記照合判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップ(例えば、図14のステップS43)とを含む。 An information processing method and program according to one aspect of the present invention include an imaging step (for example, step S2 in FIG. 14) for capturing an image of a predetermined range at an entrance of a game store, and an image captured by the processing of the imaging step. A feature amount extracting step (for example, step S23 in FIG. 14) for extracting a feature amount of the face image of the person to be collated, and a plurality of the person to be collated on the image captured by the processing of the image capturing step. Attribute estimation step (for example, step S24 or S5 in FIG. 14) for estimating an attribute code set by a table comprising any one of these attribute information or a combination thereof, and a pre-registered registrant face image storage step of storing in association with the attribute code (e.g., step S64 of FIG. 20) and, paired with the attribute code by the processing of the storage step Advance and registered registrant's face image are accumulated with the a collation object person of the face image, based on the feature quantities and attributes code estimated by the processing of the attribute estimation step of the face image matching The collation determination step (for example, step S28 in FIG. 14) for determining whether or not the collation target person is the registrant and the collation target person is the registrant by the processing of the collation determination step. If determined, a notification step (for example, step S43 in FIG. 14) for notifying that the verification target person is the registrant is included.

図1は、本発明に係る遊技店の監視システムの一実施の形態の構成を示す図である。   FIG. 1 is a diagram showing a configuration of an embodiment of a game shop monitoring system according to the present invention.

遊技店1-1乃至1-nは、いわゆるパチンコ店、または、パチスロ店である。また、これらの遊技店1-1乃至1-nは、系列店舗または生体情報管理センタや第3者遊技店管理センタの加盟店であって、複数の店舗を統括的に管理する必要のある店舗である。各遊技店1-1乃至1-nは、生体情報管理バス6および第3者遊技店管理バス7により接続されており、それらのバスおよびインターネット等に代表される公衆通信回線網8,9を介して、相互にそれぞれ生体情報、および第3者遊技店管理情報を授受している。尚、以降において、遊技店1-1乃至1-nのそれぞれについて、特に区別する必要がない場合、単に、遊技店1と称するものとし、その他の構成についても同様に称するものとする。   The amusement stores 1-1 to 1-n are so-called pachinko stores or pachislot stores. These amusement stores 1-1 to 1-n are affiliated stores or member stores of the biometric information management center or third party amusement store management center, and stores that need to manage a plurality of stores in an integrated manner. It is. Each game store 1-1 to 1-n is connected by a biological information management bus 6 and a third party game store management bus 7, and the public communication line networks 8 and 9 represented by these buses and the Internet are used. Via each other, biological information and third-party amusement store management information are exchanged. In the following description, when it is not necessary to distinguish each of the game stores 1-1 to 1-n, the game store 1 will be simply referred to, and the other configurations will be similarly referred to.

生体情報管理バス6は、主に各遊技店1の生体情報認識装置21により管理される生体情報を流通させるための伝送路として機能する。また、第3者遊技店管理バス7は、主に各遊技店1の媒体貸出管理装置27により管理される媒体貸出管理情報を流通させるための伝送路として機能する。   The biometric information management bus 6 mainly functions as a transmission path for distributing biometric information managed by the biometric information recognition device 21 of each game store 1. The third-party game store management bus 7 functions as a transmission path for distributing medium lending management information mainly managed by the medium lending management device 27 of each amusement store 1.

生体情報管理センタ2は、生体情報管理センタを管理運営する事業者により使用されるサーバであり、生体情報管理データベース(以降、DBとも称する)3で管理されている登録遊技者DB252(図12)を各遊技店1により生成される未登録遊技者DB251(図12)に基づいて更新すると共に、更新した最新の登録遊技者DB252を各遊技店1の生体情報認識装置21に対して配信する。 The biometric information management center 2 is a server used by a business operator who manages and manages the biometric information management center, and is a registered player DB 252 (FIG. 12) managed by a biometric information management database (hereinafter also referred to as DB) 3. the updating based on unregistered player DB 251 (FIG. 12) generated by each amusement shop 1 together, the latest registered player DB252 the updated distributes the biometric information recognition device 21 of the gaming facility 1.

第3者遊技店管理センタ4は、第3者遊技店管理センタを管理運営する事業者により使用されるサーバであり、第3者遊技店管理データベース(DB)5で管理されている媒体貸出管理情報からなるDBを各遊技店1より供給されてくる情報に基づいて更新すると共に、更新した最新の媒体貸出管理情報を各遊技店1の媒体貸出管理装置27に対して配信する。 The third-party amusement store management center 4 is a server used by a business operator that manages and operates the third-party amusement store management center, and is managed by the third-party amusement store management database (DB) 5. both the the DB consisting of information updated based on the information supplied from the amusement shop 1, the latest media lending management information updated for delivering to the medium lending management device 27 of the gaming facility 1.

保安センタ10は、公安機関、または、警備会社により管理されるサーバであり、特定の遊技店1に対して生体情報DB22により管理されている登録遊技者の中から性別、年代、および身長といった属性情報に基づいて、犯罪者や行方不明者などを検索する。   The security center 10 is a server managed by a public security organization or a security company, and attributes such as sex, age, and height among registered players managed by the biometric information DB 22 for a specific gaming store 1 Search for criminals and missing persons based on information.

生体情報認識装置21は、カメラ38-1乃至38-m、店内カメラ40-1乃至40-p、および入口カメラ42-1乃至42-qにより撮像された画像より画像処理ユニット39-1乃至39-(m+p)および入口画像処理ユニット41-1乃至41-qにより抽出されて、生体情報バス31を介して供給されてくる顔画像の情報に基づいて、生体情報データベース22に予め登録されている顔画像と照合し、一致する場合、登録遊技者の来店を携帯端末20に通知したり、CRT(Cathode Ray Tube )またはLCD(Liquid Crystal Display)などからなる表示部23に表示する。また、生体情報データベース22に予め登録されている顔画像と照合し、一致しない場合、生体情報認識装置21は、生体情報管理データベース3にアクセスし、未登録者として未登録遊技者DB251に登録する。   The biological information recognition apparatus 21 includes image processing units 39-1 to 39 based on images taken by the cameras 38-1 to 38-m, the in-store cameras 40-1 to 40-p, and the entrance cameras 42-1 to 42-q. -(m + p) and entrance image processing units 41-1 to 41-q extracted in advance and registered in advance in the biological information database 22 based on the facial image information supplied via the biological information bus 31 When the face image matches, the registered player is notified of the visit to the mobile terminal 20 or displayed on the display unit 23 such as a CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display). When the face image registered in the biometric information database 22 is collated and does not match, the biometric information recognition device 21 accesses the biometric information management database 3 and registers it as an unregistered player in the unregistered player DB 251. .

遊技店管理装置24は、いわゆるホールコンピュータと呼ばれるものであり、遊技店管理情報バス30を介して遊技台36-1乃至36-mの動作を監視している。遊技店管理装置24は、遊技台36の出玉もしくはメダルの払い出しの情報、各遊技台36-1乃至36-mの遊技者の呼び出し情報、またはエラーの発生などの監視状況に応じて、所定の処理を実行し、実行結果をCRTやLCDなどからなる表示部25に表示する。遊技店管理装置24は、精算販売機33、貸出機34、計数機35、遊技台36-1乃至36-m、および遊技台周辺端末37遊技台周辺端末37-1乃至37-mのそれぞれより供給されてくる情報を、それぞれを識別する識別情報(例えば、遊技台番号)とを対応付けて遊技台管理データベース26により管理する。   The game store management device 24 is a so-called hall computer, and monitors the operations of the game machines 36-1 to 36-m via the game store management information bus 30. The gaming store management device 24 determines whether or not the game balls 36 are played or the medals are paid out, the call information of the players of the gaming tables 36-1 to 36-m, or the monitoring status such as the occurrence of an error. The above process is executed, and the execution result is displayed on the display unit 25 such as a CRT or LCD. The game store management device 24 includes a settlement machine 33, a lending machine 34, a counter 35, a game machine 36-1 to 36-m, and a game machine peripheral terminal 37, a game machine peripheral terminal 37-1 to 37-m, respectively. The supplied information is managed by the gaming machine management database 26 in association with identification information (for example, gaming machine number) for identifying each of the supplied information.

媒体貸出管理装置27は、精算販売機33、貸出機34、および計数機35からの情報に基づいて、貸し出される遊技媒体の媒体貸出管理情報を媒体貸出管理データベース29を用いて管理すると共に、媒体貸出管理データベース29に登録されている媒体貸出管理情報を更新する際、その更新情報を、第3者遊技店管理バス7および公衆通信回線網9を介して第3者遊技店管理センタ4に送る。さらに、媒体貸出管理装置27は、第3者遊技店管理バス7および公衆通信回線網9を介して第3者遊技店管理センタ4により供給されてくる媒体貸出管理情報を取得し、媒体貸出管理データベース29に蓄積させる。 Both media lending management device 27, settlement vending machine 33, lending machine 34, and based on information from the counting machine 35, when managed using medium lending management database 29 the medium lending management information of game media to be lent, medium When the medium lending management information registered in the lending management database 29 is updated, the updated information is sent to the third party amusement store management center 4 via the third party amusement store management bus 7 and the public communication line network 9. . Further, the medium lending management device 27 acquires the medium lending management information supplied by the third party amusement store management center 4 via the third party amusement store management bus 7 and the public communication network 9, and the medium lending management is performed. Accumulate in database 29.

貸出機34は、遊技者が遊技台36で遊技する際、現金やプリペイドカードなどにより所定の金額を受け付けると、金額に応じた個数の遊技媒体を貸し出す。この際、貸出機34は、受け付けた現金やプリペイドカードの残数などの情報と共に、貸し出した遊技媒体の個数の情報を媒体貸出管理装置27に供給する。これにより、媒体貸出管理装置27は、受け付けた現金やプリペイドカードの残数などの情報と共に、貸し出した遊技媒体の個数の情報を媒体貸出管理データベース29に登録する。 The lending machine 34 lends a number of game media according to the amount when the player accepts a predetermined amount by cash, a prepaid card or the like when playing the game on the gaming table 36. At this time, lending machine 34, information such as the remaining number of the accepted money and prepaid card are both supplies information of the number of lending game media to media lending management device 27. Thus, the medium lending management device 27, information such as the remaining number of the accepted money and prepaid card are both registers information of the number of lending game media to media lending management database 29.

精算販売機33は、貸球を借りるための度数をつけてプリペイドカードを販売する。このとき、精算販売機33は、販売したプリペイドカードの度数を払いうけた金額を媒体貸出管理装置27に供給する。また、精算販売機33は、プリペイドカードなどの度数として貸し出した遊技媒体の残数に基づいて現金を精算して払い出す。このとき、精算販売機33は、プリペイドカードの残数と払い戻した現金の金額を媒体貸出管理装置27に供給する。   The checkout machine 33 sells prepaid cards with a frequency for borrowing a ball. At this time, the checkout machine 33 supplies the medium lending management device 27 with the amount paid for the frequency of the prepaid card sold. Further, the settlement machine 33 settles and pays out the cash based on the remaining number of game media lent as a frequency such as a prepaid card. At this time, the checkout vending machine 33 supplies the remaining amount of the prepaid card and the amount of cash refunded to the medium lending management device 27.

計数機35は、遊技者が遊技台36により遊技することにより獲得した遊技媒体の数を、計数し、計数結果を磁気カードやレシートなどとして出力する。   The counter 35 counts the number of game media acquired by the player playing on the game table 36, and outputs the counting result as a magnetic card, a receipt, or the like.

遊技台36-1乃至36-mは、遊技者により所定の操作がなされることにより、遊技を実行し、いわゆる小当たりや大当たりに応じて、遊技球、または、メダルを払い出す。   The game machines 36-1 to 36-m execute a game when a predetermined operation is performed by the player, and pay out a game ball or a medal according to a so-called small hit or big hit.

遊技台周辺端末37-1乃至37-mは、各遊技台36-1乃至36-mに対応して設けられている、いわゆる台間機であり、台間球貸機(原理的には、貸出機34と同様のもの)などが設けられている。また、遊技台周辺端末37は、遊技台36を遊技する遊技者の顔画像などの生体情報を取得し、遊技台識別情報(遊技台番号)と共に遊技台管理装置24に送信する。尚、図1においては、生体情報を取得する機能として、遊技者の顔画像を取得するカメラ38-1乃至38-mが設けられている例が示されている。   The game stand peripheral terminals 37-1 to 37-m are so-called stand machines provided corresponding to the respective game stands 36-1 to 36-m. The same as the lending machine 34). Further, the gaming machine peripheral terminal 37 acquires biological information such as a face image of the player who plays the gaming machine 36, and transmits it to the gaming machine management device 24 together with the gaming machine identification information (game machine number). FIG. 1 shows an example in which cameras 38-1 to 38-m that acquire a player's face image are provided as functions for acquiring biometric information.

カメラ38-1乃至38-mは、例えば、図2で示されるように、各遊技台36-1乃至36-4のそれぞれの上部に設けられた台表示ランプ61-1乃至61-4の下部に図3で示されるように、読取範囲δ内に遊技者が撮像できるように設け、顔画像を撮像するようにしてもよく、このようにすることにより、各カメラIDは、同時に遊技台IDとして使用することが可能となる。   For example, as shown in FIG. 2, the cameras 38-1 to 38-m are provided at the lower parts of the table display lamps 61-1 to 61-4 provided on the upper parts of the game machines 36-1 to 36-4. As shown in FIG. 3, it may be provided so that the player can take an image within the reading range δ, and a face image may be taken. Can be used.

また、カメラ38-1乃至38-mは、例えば、図4で示されるように、遊技台周辺端末37-1乃至37-4に凸部71-1乃至71-4を設け、図5で示されるように読取範囲θ内に遊技者の顔画像が撮像できるように設けるようにしてもよい。   Further, as shown in FIG. 4, for example, the cameras 38-1 to 38-m are provided with convex portions 71-1 to 71-4 on the game stand peripheral terminals 37-1 to 37-4, as shown in FIG. As described above, it may be provided so that a player's face image can be captured within the reading range θ.

さらに、カメラ38-1乃至38-4は、例えば、図6で示されるように、遊技台36の中央部(遊技台36の盤面上)に設けるようにして、撮像するようにしてもよい。すなわち、図6の設置部81にカメラ36が設置されることにより、図7で示されるように、読取範囲φ内に遊技者を撮像する。   Furthermore, for example, as shown in FIG. 6, the cameras 38-1 to 38-4 may be provided at the center of the game table 36 (on the board surface of the game table 36) to take an image. That is, as the camera 36 is installed in the installation unit 81 of FIG. 6, as shown in FIG. 7, the player is imaged within the reading range φ.

入口カメラ42-1乃至42-qおよび店内カメラ40-1乃至40-pは、遊技店1の店内における出入口および所定の場所に設置され、撮像した画像をそれぞれ入口画像処理ユニット41-1乃至41-qおよび画像処理ユニット39-(m+1)乃至39-(m+p)に供給する。   The entrance cameras 42-1 to 42-q and the in-store cameras 40-1 to 40-p are installed at entrances and predetermined places in the store of the amusement store 1, and the captured images are respectively input to the entrance image processing units 41-1 to 41-41. -q and the image processing units 39- (m + 1) to 39- (m + p).

入口カメラ42-1乃至42-qおよび店内カメラ40-1乃至40-pは、例えば、図8で示されるように設定される。図8は、遊技店1内の入口カメラ42-1乃至42-qおよび店内カメラ40-1乃至40-pの設置例を示している。   The entrance cameras 42-1 to 42-q and the in-store cameras 40-1 to 40-p are set as shown in FIG. 8, for example. FIG. 8 shows an installation example of the entrance cameras 42-1 to 42-q and the in-store cameras 40-1 to 40-p in the game store 1.

すなわち、図8においては、出入口112-1乃至112-3が設けられており、入口カメラ42-1乃至42-3は、それぞれの出入口112より入店してくる遊技者を撮像する。また、店内カメラ40-1乃至40-10は、島設備111-1乃至111-5のそれぞれ両面をそれぞれ一列に渡って撮像できる位置に設定されている。島設備111は、両面に遊技台36が設置されており、すなわち、図中の島設備111を上下方向に挟むように設置されている。カメラ38、入口カメラ42および店内カメラ40は、いずれにおいてもパンチルトズーム機能を備えているため、図8で示されるように、店内カメラ40-1乃至40-10が配置されることにより、遊技台36で遊技する全遊技者が、店内カメラ40-1乃至40-10のいずれかで撮像できる。   That is, in FIG. 8, the entrances 112-1 to 112-3 are provided, and the entrance cameras 42-1 to 42-3 take images of the players who enter the store from each entrance 112. Further, the in-store cameras 40-1 to 40-10 are set at positions where each side of the island facilities 111-1 to 111-5 can be imaged in a row. The island facilities 111 are provided with game machines 36 on both sides, that is, are disposed so as to sandwich the island facilities 111 in the vertical direction in the figure. Since the camera 38, the entrance camera 42, and the in-store camera 40 all have a pan / tilt / zoom function, as shown in FIG. 8, the in-store cameras 40-1 to 40-10 are arranged so that the game table All players who play at 36 can take images with any of the in-store cameras 40-1 to 40-10.

さらに、店内カメラ40-aは、貸出機34の前に設けられており、店内カメラ40-bは、精算販売機33の前に設けられており、店内カメラ40-cは、計数機35の前に設けられており、それぞれ、貸出機34、精算販売機33、および計数機35を利用する遊技者を撮像することができる。   Further, the in-store camera 40-a is provided in front of the lending machine 34, the in-store camera 40-b is provided in front of the checkout machine 33, and the in-store camera 40-c is provided in the counter 35. It is provided in front, and it is possible to take an image of a player who uses the lending machine 34, the checkout machine 33, and the counter 35, respectively.

すなわち、図8で示されるように、遊技店1においては、来店する遊技者、遊技台36で遊技する遊技者、並びに、貸出機34、精算販売機33、および計数機35を利用する遊技者といった、遊技店1において遊技者が取るであろうことが想定される行動のほぼ全てを監視できるように、カメラ38、入口カメラ42、および店内カメラ40が設置されている。   That is, as shown in FIG. 8, at the game store 1, the player who visits the store, the player who plays at the game stand 36, and the player who uses the lending machine 34, the checkout machine 33, and the counter 35 The camera 38, the entrance camera 42, and the in-store camera 40 are installed so that almost all of the actions that the player is supposed to take in the gaming store 1 can be monitored.

次に、図9を参照して、画像処理ユニット39の構成例について説明する。   Next, a configuration example of the image processing unit 39 will be described with reference to FIG.

画像取得部201は、カメラ38(または、店内カメラ40)により撮像された画像を取得し、顔画像抽出部202に供給する。顔画像抽出部202は、画像取得部201より供給されてきた画像内に、顔を構成する部位の配置などのパターンにより顔画像からなる矩形画像を抽出して送信部203に供給する。送信部203は、顔画像を生体情報認識装置21に送信する。また、送信部203には、カメラIDを記憶するメモリ203aおよび時刻情報を発生するRTC(Real Time Clock)203bが内蔵されており、送信部203は、顔画像を生体情報認識装置21に送信する際、画像を供給してきたカメラ38(または、店内カメラ40)を個別に識別するカメラIDと共に、RTC203bより現在日時を読み出し、顔画像に付して生体情報認識装置21に送信する。尚、以降の説明においては、画像処理ユニット39より供給される顔画像には、このカメラIDおよび現在日時の情報が含まれているものとする。 The image acquisition unit 201 acquires an image captured by the camera 38 (or the in-store camera 40) and supplies it to the face image extraction unit 202. The face image extraction unit 202 extracts a rectangular image made up of a face image from the image supplied from the image acquisition unit 201 using a pattern such as the arrangement of parts constituting the face, and supplies the extracted rectangular image to the transmission unit 203. The transmission unit 203 transmits the face image to the biometric information recognition device 21. The transmission unit 203 includes a memory 203a that stores a camera ID and an RTC (Real Time Clock) 203b that generates time information. The transmission unit 203 transmits a face image to the biological information recognition device 21. when the camera 38 has supplied the image (or store cameras 40) together with a camera ID identifying individually reads the current date from RTC203b, transmits subjected to the face image to the biological information recognition device 21. In the following description, it is assumed that the face image supplied from the image processing unit 39 includes information about the camera ID and the current date and time.

次に、図10を参照して、入口画像処理ユニット41の構成例について説明する。尚、図10における画像取得部211および送信部213は、図9における画像取得部201および送信部203と同様の構成であるので、その説明は、適宜省略するものとする。   Next, a configuration example of the entrance image processing unit 41 will be described with reference to FIG. Note that the image acquisition unit 211 and the transmission unit 213 in FIG. 10 have the same configuration as the image acquisition unit 201 and the transmission unit 203 in FIG. 9, and therefore description thereof will be omitted as appropriate.

顔画像抽出部212は、画像取得部211より供給されてきた画像内に、顔を構成する部位の配置などのパターンにより顔画像からなる矩形画像を抽出して送信部213に供給する。その際、顔画像位置検出部212aは、抽出される顔画像からなる矩形画像のサイズが所定のサイズであるとき、画像上の顔画像が抽出される位置を検出し、検出結果を身長推定部212bに供給する。身長推定部212bは、所定のサイズの顔画像が抽出される位置に対応付けて設定されている身長の情報が記録されている身長テーブル214と照合し、顔画像の人物の身長を推定する。顔画像抽出部212は、顔画像からなる矩形画像が所定のサイズである場合、推定される身長の情報を付して送信部213に供給する。   The face image extraction unit 212 extracts a rectangular image composed of a face image from the image supplied from the image acquisition unit 211 using a pattern such as the arrangement of the parts constituting the face, and supplies the extracted rectangular image to the transmission unit 213. At that time, the face image position detection unit 212a detects the position where the face image on the image is extracted when the size of the rectangular image composed of the extracted face images is a predetermined size, and the detection result is used as the height estimation unit. Supply to 212b. The height estimation unit 212b collates with a height table 214 in which height information set in association with a position where a face image of a predetermined size is extracted, and estimates the height of a person in the face image. When the rectangular image composed of the face images has a predetermined size, the face image extraction unit 212 adds the estimated height information and supplies the information to the transmission unit 213.

したがって、送信部213は、顔画像を生体情報認識装置21に送信する際、画像を供給してきた入口カメラ42を個別に識別するカメラID、RTC203bより読み出される現在日時、並びに推定される属性情報としての身長の情報を、顔画像に付して生体情報認識装置21に送信する。尚、以降の説明においては、入口画像処理ユニット41により供給される顔画像は、このカメラID、現在日時の情報、および推定される属性情報としての身長の情報が含まれているものとする。   Therefore, when transmitting the face image to the biometric information recognition device 21, the transmission unit 213 uses the camera ID that individually identifies the entrance camera 42 that has supplied the image, the current date and time read from the RTC 203b, and the estimated attribute information. The height information is attached to the face image and transmitted to the biological information recognition apparatus 21. In the following description, it is assumed that the face image supplied by the entrance image processing unit 41 includes the camera ID, current date information, and height information as estimated attribute information.

次に、図11を参照して、生体情報認識装置21の構成例について説明する。   Next, a configuration example of the biological information recognition device 21 will be described with reference to FIG.

顔画像取得部221は、入口画像処理ユニット41(または画像処理ユニット39)より供給される顔画像を取得し、照合部222に供給する。照合部222は、顔画像取得部221により取得された顔画像と、生体情報DB22に予め登録されている登録遊技者の顔画像とを照合し、類似度の高い候補となる顔画像があれば、第3候補までの顔画像を照合結果として表示部23に表示させる。また、照合部222は、類似度の高い候補となる顔画像が存在しない場合、供給されてきた顔画像を未登録遊技者データベース登録部223に供給する。   The face image acquisition unit 221 acquires the face image supplied from the entrance image processing unit 41 (or the image processing unit 39) and supplies it to the collation unit 222. The collation unit 222 collates the face image acquired by the face image acquisition unit 221 with the registered player's face image registered in advance in the biometric information DB 22, and if there is a face image that is a candidate with a high degree of similarity. The face images up to the third candidate are displayed on the display unit 23 as a matching result. Further, the collation unit 222 supplies the supplied face image to the unregistered player database registration unit 223 when there is no candidate face image with a high similarity.

より詳細には、照合部222の特徴量抽出部231は、顔画像を識別するための特徴量を抽出して、顔画像と共に属性推定部232および抽出部233に供給する。属性推定部232は、年代推定部232aおよび性別推定部232bを備えており、それぞれを制御して、特徴量に基づいて顔画像の人物の属性として年代および性別を推定して、それぞれの推定結果である年代および性別の情報を抽出部233に供給する。   More specifically, the feature amount extraction unit 231 of the matching unit 222 extracts a feature amount for identifying a face image, and supplies the feature amount together with the face image to the attribute estimation unit 232 and the extraction unit 233. The attribute estimation unit 232 includes an age estimation unit 232a and a gender estimation unit 232b, controls each of them, estimates the age and gender as the attributes of the person of the face image based on the feature amount, and each estimation result The information of age and gender is supplied to the extraction unit 233.

抽出部233は、属性として属性推定部232より供給されてくる年代、および性別に加えて、顔画像に付加されている身長により分類される属性情報に基づいて、属性コード付加部223aを制御して、対応する属性コードを付加させると共に、同一の属性コードを備えた顔画像を生体情報DB22より抽出して類似度計算部234に供給する。類似度計算部234は、抽出部233より生体情報DB22より抽出された属性コードにより絞り込まれた登録されている登録遊技者の顔画像の特徴量を抽出すると共に、特徴量抽出部231より供給されてくる特徴量とを用いて、生体情報DB22に登録されている登録遊技者のうち、属性コードにより絞り込まれた顔画像との類似度を求め、顔画像取得部221より供給されてきた顔画像、および、類似度が上位3位までの顔画像を類似度判定部235に供給する。より具体的には、類似度計算部234は、例えば、目と目の間隔、あごから額までの長さと、あごから鼻までの長さの比率などの各種の顔の特徴量に基づいて、それぞれの差分和、平均比率、または比率和などを類似度として求める。 The extracting unit 233 controls the attribute code adding unit 223a based on the attribute information classified by the height added to the face image in addition to the age and gender supplied from the attribute estimating unit 232 as attributes. Then, a corresponding attribute code is added, and a face image having the same attribute code is extracted from the biological information DB 22 and supplied to the similarity calculation unit 234. Similarity calculation unit 234, both when extracting the feature quantity of the registered player's face image registered narrowed by the attribute code extracted from the biometric information DB22 from extractor 233 is supplied from the feature value extracting unit 231 The facial image supplied from the facial image acquisition unit 221 is obtained by using the feature amount to obtain the similarity with the facial image narrowed down by the attribute code among the registered players registered in the biometric information DB 22. , And face images with the top three most similarities are supplied to the similarity determination unit 235. More specifically, the similarity calculation unit 234, for example, based on various facial feature amounts such as the ratio of the distance between the eyes, the distance from the chin to the forehead, and the length from the chin to the nose, Each difference sum, average ratio, or ratio sum is obtained as the similarity.

類似度判定部235は、類似度計算部234より供給されてくる類似度が上位3位となる顔画像のそれぞれの類似度のうち、1位となる顔画像との類似度と、所定の閾値とを比較し、比較結果に基づいて、1位となる登録顔画像が、顔画像取得部221より供給されてきた顔画像に対して類似している場合(類似度が高い程類似していることを示す類似度の場合、所定の閾値よりも高いとき、また、類似度が低い程類似していることを示す類似度の場合、所定の閾値よりも低いとき)、上位3位となる顔画像と類似度の情報を表示部23に供給して、表示させると共に、通信部224に供給する。また、類似度判定部235は、1位となる顔画像との類似度と、所定の閾値とを比較し、比較結果に基づいて、1位となる登録顔画像が、顔画像取得部221より供給されてきた顔画像に対して類似していない場合、顔画像取得部221より供給されてきた顔画像を未登録遊技者データベース登録部223に供給する。 The similarity determination unit 235 includes a similarity between the similarity of the face image with the highest similarity and the face image with the highest similarity, supplied from the similarity calculation unit 234, and a predetermined threshold value. If the registered face image that is ranked first is similar to the face image supplied from the face image acquisition unit 221 based on the comparison result (the similarity is higher as the degree of similarity is higher). If the similarity is higher than a predetermined threshold, or if the similarity is lower, the similarity is lower than the predetermined threshold) and supplies the information of the image and the similarity on the display unit 23, when the display together, and supplies to the communication unit 224. In addition, the similarity determination unit 235 compares the similarity with the first-ranked face image and a predetermined threshold, and based on the comparison result, the first-registered face image is received from the face-image acquiring unit 221. When the supplied face image is not similar, the face image supplied from the face image acquisition unit 221 is supplied to the unregistered player database registration unit 223.

未登録遊技者データベース登録部223は、照合部222より未登録であるとみなされて供給されてきた、顔画像を生体情報管理データベース3の未登録遊技者DB251に登録する。   The unregistered player database registration unit 223 registers the face image, which has been supplied as being unregistered by the verification unit 222, in the unregistered player DB 251 of the biometric information management database 3.

操作部225は、ボタン、マウス、または、キーボードなどから構成され、上述した類似度が上位3位となる、表示部23に表示された顔画像のいずれかが選択されるとき操作され、操作結果を通信部224に供給する。通信部224は、モデムなどから構成され、操作部225からの操作信号に基づいて、選択された顔画像を携帯端末20に配信する。   The operation unit 225 includes buttons, a mouse, a keyboard, and the like. The operation unit 225 is operated when any of the face images displayed on the display unit 23 with the above-mentioned similarity ranked in the top three is selected, and the operation result Is supplied to the communication unit 224. The communication unit 224 includes a modem or the like, and distributes the selected face image to the mobile terminal 20 based on an operation signal from the operation unit 225.

尚、ここでは、類似度は、例えば、比率和で示されるような登録遊技者として登録されている顔画像に近いほど高い値を示すものであるとし、類似度が所定の閾値よりも高い値であるとき、その類似度に対応する登録遊技者の顔画像であるものとして判定する例について説明する。しかしながら、例えば、類似度が撮像された顔画像と登録遊技者として登録されている顔画像とのそれぞれの特徴量における差分和として表現されている場合、類似度判定部235は、類似度が閾値よりも小さければ、撮像された顔画像が登録遊技者の顔画像であるとみなすことになり、または、平均比率などの場合、0乃至1の範囲で所定の値以上であって、1に近い値であれば、同一の人物であるとみなすことができる。   Here, for example, the similarity indicates a higher value as it is closer to the face image registered as a registered player as indicated by the ratio sum, and the similarity is a value higher than a predetermined threshold value. In this case, an example will be described in which it is determined that the face image of the registered player corresponding to the similarity is. However, for example, when the similarity is expressed as a difference sum in the respective feature amounts between the captured face image and the face image registered as the registered player, the similarity determination unit 235 determines that the similarity is a threshold value. If it is smaller than that, the captured face image is regarded as a registered player's face image, or in the case of an average ratio or the like, it is greater than or equal to a predetermined value in the range of 0 to 1 and close to 1. If it is a value, it can be considered that they are the same person.

データベース管理部226は、生体情報管理センタ2より新たな登録遊技者DB252(図11)が配信されてくると、新たな登録遊技者DB252に基づいて、生体情報DB22を更新する。   When a new registered player DB 252 (FIG. 11) is distributed from the biometric information management center 2, the database management unit 226 updates the biometric information DB 22 based on the new registered player DB 252.

検索部227は、生体情報DB22に蓄積されている登録遊技者の顔画像のうち、同一人物の顔画像を集めてグループ化することにより、顧客登録する。また、検索部227は、操作部225が操作されることにより供給されてくる検索条件に基づいて生体情報DB22に蓄積されている登録遊技者の情報を検索して抽出し、表示部23に表示する。尚、検索部227の詳細な構成については、図20を参照して後述する。   The search unit 227 performs customer registration by collecting and grouping face images of the same person among registered player's face images stored in the biometric information DB 22. In addition, the search unit 227 searches and extracts the registered player information stored in the biometric information DB 22 based on the search conditions supplied when the operation unit 225 is operated, and displays the information on the display unit 23. To do. The detailed configuration of the search unit 227 will be described later with reference to FIG.

次に、図12を参照して、生体情報管理センタ2の構成例について説明する。   Next, a configuration example of the biological information management center 2 will be described with reference to FIG.

生体情報管理センタ2は、DB配信部241、DB更新部242、およびDB更新判定部243から構成されており、生体情報管理DB3に格納されている登録遊技者DB252を、未登録遊技者DB251に基づいて、更新する。より具体的には、DB更新判定部243は、時刻情報を発生するRTC(Real Time Clock)243aを内蔵しており、その内蔵されているRTC243aに基づいて、所定時間が経過すると、生体情報管理DB3にアクセスし、未登録遊技者DB251に新たな未登録遊技者が登録されたか否かを判定する。   The biometric information management center 2 includes a DB distribution unit 241, a DB update unit 242 and a DB update determination unit 243. The registered player DB252 stored in the biometric information management DB3 is transferred to the unregistered player DB251. Update based on. More specifically, the DB update determination unit 243 has a built-in RTC (Real Time Clock) 243a that generates time information. When a predetermined time elapses based on the built-in RTC 243a, the biological information management DB3 is accessed to determine whether or not a new unregistered player has been registered in the unregistered player DB251.

DB更新判定部243は、未登録遊技者DB251に新たに未登録者が登録されていた場合、その旨をDB更新部242に通知する。DB更新部242は、未登録遊技者DB251にアクセスし、登録されている未登録遊技者のうち、所定回数以上登録されている未登録遊技者が存在するか否かを判定し、所定回数以上未登録遊技者として登録されている未登録遊技者が存在する場合、登録遊技者DB252を読み出して、所定回数以上登録されている未登録遊技者を登録遊技者DB252に登録して、更新する。さらに、DB更新部242は、登録遊技者DB252を更新すると、更新したことをDB配信部241に通知する。   When a new unregistered person is registered in the unregistered player DB 251, the DB update determination unit 243 notifies the DB update unit 242 to that effect. The DB update unit 242 accesses the unregistered player DB 251 to determine whether or not there is an unregistered player that has been registered a predetermined number of times among registered unregistered players. When there is an unregistered player registered as an unregistered player, the registered player DB 252 is read, and an unregistered player registered for a predetermined number of times or more is registered in the registered player DB 252 and updated. Further, when the registered player DB 252 is updated, the DB update unit 242 notifies the DB distribution unit 241 of the update.

DB配信部241は、DB更新部242より登録遊技者DB252が更新されたことを通知されると、生体情報管理DB3にアクセスし、登録遊技者DB252を読み出して、各遊技店1の生体情報認識装置21に配信する。   When notified by the DB update unit 242 that the registered player DB 252 has been updated, the DB distribution unit 241 accesses the biometric information management DB 3 and reads the registered player DB 252 to recognize the biometric information of each gaming store 1. Delivered to the device 21.

次に、図13を参照して、携帯端末20の構成例について説明する。   Next, a configuration example of the mobile terminal 20 will be described with reference to FIG.

通信部271は、モデムなどで構成されており、遊技店1内の無線通信網を介して生体情報認識装置21との間でデータを授受する。また、通信部271は、生体情報認識装置21より配信されてくる、画像処理ユニット39および入口画像処理ユニット41より供給された顔画像と類似する顔画像の遊技者が来店したことを示す情報を取得し、画像処理部272に供給する。   The communication unit 271 is configured by a modem or the like, and exchanges data with the biometric information recognition device 21 via a wireless communication network in the game store 1. In addition, the communication unit 271 displays information indicating that a player with a face image similar to the face image supplied from the image processing unit 39 and the entrance image processing unit 41 is delivered from the biological information recognition device 21. Acquired and supplied to the image processing unit 272.

画像処理部272は、通信部271より供給されてくる画像処理ユニット39および入口画像処理ユニット41より供給された顔画像と類似する顔画像の遊技者が来店したことを示す情報に基づいて、LCDなどにより構成される表示部273に表示する画像を生成すると共に、表示部273に表示させる。 The image processing unit 272 is based on information indicating that a player with a face image similar to the face image supplied from the image processing unit 39 and the entrance image processing unit 41 supplied from the communication unit 271 has visited the LCD. both when generating an image to be displayed on the display unit 273 constituted by such on the display unit 273.

次に、図14のフローチャートを参照して、登録遊技者来店監視処理について説明する。   Next, the registered player visit monitoring process will be described with reference to the flowchart of FIG.

ステップS1において、入口カメラ42は、撮像している画像の情報、または、出入口の扉からの信号に基づいて、出入口の扉が開いたか否かを判定し、所定の時間が経過するまで、その処理を繰り返す。   In step S1, the entrance camera 42 determines whether or not the door of the entrance is opened based on the information of the image being captured or the signal from the door of the entrance and exit until the predetermined time elapses. Repeat the process.

ステップS1において、扉が開いたと判定された場合、ステップS2において、入口カメラ42は、設置されている範囲の画像を撮像し、撮像した画像を入口画像処理ユニット41に供給する。入口画像処理ユニット41の画像取得部211は、供給された画像を取得し、顔画像抽出部212に供給する。   If it is determined in step S1 that the door is opened, in step S2, the entrance camera 42 captures an image of the installed range and supplies the captured image to the entrance image processing unit 41. The image acquisition unit 211 of the entrance image processing unit 41 acquires the supplied image and supplies it to the face image extraction unit 212.

ステップS3において、顔画像抽出部212は、供給された画像より遊技者の顔画像を抽出する。より詳細には、顔画像抽出部212は、例えば、撮像された画像の色などから肌が露出した部分であって、目や鼻といった特徴的な部位の配置などから顔画像を抽出する。   In step S3, the face image extraction unit 212 extracts a player's face image from the supplied image. More specifically, the face image extraction unit 212 extracts a face image from, for example, an arrangement of a characteristic part such as an eye or a nose, where the skin is exposed from the color of the captured image.

ステップS4において、顔画像位置検出部212aは、抽出された遊技者の顔画像のうち、所定のサイズの顔画像について、画像中の位置を検出し、検出された顔画像の位置の情報を身長推定部212bに供給する。   In step S4, the face image position detection unit 212a detects the position in the image of the face image of a predetermined size among the extracted player face images, and obtains information on the position of the detected face image as a height. It supplies to the estimation part 212b.

より詳細には、顔画像位置検出部212aは、抽出された顔画像が、例えば、図15で示されるような画像中の領域Z1乃至Z4のいずれに属するかを判断して、属する領域の情報を身長推定部212bに供給する。図15においては、水平方向がXピクセルであり、垂直方向がYピクセルの入口カメラ42により撮像された画像を示しており、顔画像の領域における重心位置が領域Z1乃至Z4のいずれかに属するかにより、顔画像位置検出部212aは、顔画像の存在する領域を顔画像の位置情報として検出する。   More specifically, the face image position detection unit 212a determines which of the regions Z1 to Z4 in the image the extracted face image belongs to, for example, as shown in FIG. Is supplied to the height estimation unit 212b. FIG. 15 shows an image captured by the entrance camera 42 in which the horizontal direction is X pixels and the vertical direction is Y pixels, and whether the barycentric position in the face image area belongs to any of the areas Z1 to Z4 Thus, the face image position detection unit 212a detects a region where the face image exists as position information of the face image.

ステップS5において、身長推定部212bは、顔画像位置検出部212aより供給されてくる顔画像の位置情報を、身長テーブル214と照合し、身長を顔画像の属性として推定し、推定した身長の情報を顔画像に付して送信部213に供給する。   In step S5, the height estimation unit 212b collates the position information of the face image supplied from the face image position detection unit 212a with the height table 214, estimates the height as an attribute of the face image, and estimates the estimated height information. Is attached to the face image and supplied to the transmission unit 213.

すなわち、図15の画像の領域Z1乃至Z4のいずれに属するかに対応する身長の情報が身長テーブル214にテーブルとして記録されている。身長推定部212bは、顔画像位置検出部212aより供給されてくる顔画像の検出位置の領域について、身長テーブル214を参照して、対応する身長の情報に基づいて、顔画像の人物の身長を推定する。例えば、図15においては、所定サイズの顔画像が領域Z1に属する場合、身長は、140乃至160cmとして推定され、所定サイズの顔画像が領域Z2に属する場合、身長は、160乃至180cmとして推定され、所定サイズの顔画像が領域Z3に属する場合、身長は、180乃至200cmとして推定され、所定サイズの顔画像が領域Z4に属する場合、身長は、200cm以上として推定されることが身長テーブル214に記録されている。   That is, height information corresponding to which of the areas Z1 to Z4 of the image in FIG. 15 belongs is recorded in the height table 214 as a table. The height estimation unit 212b refers to the height table 214 for the region of the detection position of the face image supplied from the face image position detection unit 212a, and determines the height of the person in the face image based on the corresponding height information. presume. For example, in FIG. 15, when a face image of a predetermined size belongs to the area Z1, the height is estimated as 140 to 160 cm, and when a face image of the predetermined size belongs to the area Z2, the height is estimated as 160 to 180 cm. In the height table 214, when the face image of a predetermined size belongs to the area Z3, the height is estimated as 180 to 200 cm, and when the face image of the predetermined size belongs to the area Z4, the height is estimated as 200 cm or more. It is recorded.

このように身長テーブル214が定義されるのは、入口カメラ42が所定の方向を撮像することにより得られる画像内において、入口カメラ42から所定の距離に存在する顔画像の垂直方向の位置は、身長に依存することになるので、その顔画像の垂直方向の位置に基づいて身長を推定することが可能なためである。しかしながら、入口カメラ42により撮像される画像内の顔画像のうち、身長の推定に用いられるのは、入口カメラ42から所定の距離に存在する顔画像のみとなるが、顔画像までの距離そのものを測定する術が無いため、所定の距離で平均的な大きさの顔を撮像したときの顔画像の平均的なサイズを所定のサイズL1として設定し、そのサイズL1の顔画像を所定の距離の顔画像として扱うことにより顔画像の推定に用いるようにしている。   The height table 214 is defined in this way because the vertical position of the face image existing at a predetermined distance from the entrance camera 42 in the image obtained by the entrance camera 42 capturing a predetermined direction is This is because the height depends on the height, and the height can be estimated based on the position of the face image in the vertical direction. However, among the face images in the image captured by the entrance camera 42, only the face image existing at a predetermined distance from the entrance camera 42 is used for estimating the height, but the distance to the face image itself is used. Since there is no way to measure, set the average size of the face image when capturing a face of average size at a predetermined distance as the predetermined size L1, and the face image of that size L1 of the predetermined distance By treating it as a face image, it is used for estimation of the face image.

例えば、図16の左部で示されるように、出入口112を通過した人物H1の顔画像が、身長を測定する位置P1であって、図16の右部で示されるような画像として入口カメラ42で撮像された場合、所定のサイズとして垂直方向にL1ピクセルの顔画像が領域Z3に属しているとき、身長推定部212bは、身長テーブル214に対して顔画像位置検出部212aより供給されてきた領域Z3を照合し、対応する身長の情報が180乃至200cmとして推定される情報を読み出すことにより、顔画像の人物の身長を推定する。   For example, as shown in the left part of FIG. 16, the face image of the person H1 that has passed through the entrance 112 is the position P1 at which the height is measured, and the entrance camera 42 is an image as shown in the right part of FIG. When a face image of L1 pixels in the vertical direction as a predetermined size belongs to the region Z3, the height estimation unit 212b has been supplied from the face image position detection unit 212a to the height table 214. The height of the person in the face image is estimated by collating the region Z3 and reading out the information estimated that the corresponding height information is 180 to 200 cm.

また、例えば、図17の左部で示されるように、出入口112を通過した人物H2の顔画像が、身長を測定する位置P1であって、図17の右部で示されるような画像として入口カメラ42で撮像された場合、所定のサイズとして垂直方向にL1ピクセルの顔画像が領域Z2に属しているとき、身長推定部212bは、身長テーブル214に対して顔画像位置検出部212aより供給されてきた領域Z2を照合し、対応する身長の情報が160乃至180cmとして推定される情報を読み出すことにより、顔画像の人物の身長を推定する。   Further, for example, as shown in the left part of FIG. 17, the face image of the person H2 that has passed through the entrance 112 is the position P1 at which the height is measured, and the entrance as an image as shown in the right part of FIG. When captured by the camera 42, when a face image of L1 pixels in the vertical direction as a predetermined size belongs to the region Z2, the height estimation unit 212b is supplied from the face image position detection unit 212a to the height table 214 The height of the person in the face image is estimated by collating the area Z2 and reading out information that the corresponding height information is estimated as 160 to 180 cm.

尚、図17においては、人物H1の顔画像も撮像されているが、顔画像の垂直方向のサイズが、所定のサイズではないL1'(>L1)ピクセルであるため、身長を測定すべき位置P1に存在しないとみなされて、身長の推定がなされない。   In FIG. 17, the face image of the person H1 is also captured. However, since the vertical size of the face image is L1 ′ (> L1) pixels that are not a predetermined size, the height should be measured. It is considered not to exist in P1, and the height is not estimated.

また、顔画像の所定のサイズL1については、図18で示されるように、入口カメラ42の撮像距離と顔角度(顔が水平方向に向いている角度を0度とした仰角)との関係により決定される。図18においては、水平方向×垂直方向に640×480ピクセルの画像に対する顔画像の所定のサイズと、撮像距離および顔角度との関係が示されており、ひし形のポイントが顔画像の所定サイズであり、正方形のポイントが顔角度を示している。図18で示されるように、撮像距離が近ければ顔画像の所定サイズは大きいので顔画像の認識精度が高いことが予想されるが、顔角度が大きい顔画像でなければ認識精度が低下する。一方、距離が遠ければ顔画像の所定サイズは小さくなるが、顔角度が小さい通常状態の人物の顔画像による認識精度が向上する。このため、使用できる顔画像の所定サイズとのバランスにより入口カメラ42の撮像範囲を設定する必要がある。この条件においては、撮像距離を、例えば、5乃至10m程度とすることが望ましいといえる。   As for the predetermined size L1 of the face image, as shown in FIG. 18, it depends on the relationship between the imaging distance of the entrance camera 42 and the face angle (the elevation angle where the angle at which the face is oriented in the horizontal direction is 0 degree). It is determined. FIG. 18 shows the relationship between the predetermined size of the face image with respect to the image of 640 × 480 pixels in the horizontal direction × vertical direction, the imaging distance, and the face angle, and the diamond point is the predetermined size of the face image. Yes, square points indicate the face angle. As shown in FIG. 18, if the imaging distance is short, the predetermined size of the face image is large, so that the recognition accuracy of the face image is expected to be high. However, if the face angle is not large, the recognition accuracy decreases. On the other hand, if the distance is long, the predetermined size of the face image becomes small, but the recognition accuracy of the face image of a normal person with a small face angle improves. For this reason, it is necessary to set the imaging range of the entrance camera 42 in accordance with a balance with a predetermined size of a usable face image. Under this condition, it can be said that the imaging distance is preferably about 5 to 10 m, for example.

ステップS6において、送信部213は、顔画像抽出部212より供給されてきた顔画像を生体情報認識装置21に送信する。この際、送信部213は、カメラ38、店内カメラ40、または入口カメラ42のそれぞれを識別するカメラIDをメモリ213aより読み出すと共に、顔画像を送信する日時情報をRTC213bより読み出し、顔画像に付加して生体情報認識装置21に送信する。 In step S 6, the transmission unit 213 transmits the face image supplied from the face image extraction unit 212 to the biological information recognition device 21. In this case, transmission unit 213, a camera 38, both when the camera ID identifying each store camera 40 or entrance camera 42, read from the memory 213a, adds date and time information to send the face image read from RTC213b, in the face image And transmitted to the biometric information recognition device 21.

ステップS21において、生体情報認識装置21の顔画像取得部221は、顔画像を取得する。ステップS22において、顔画像取得部221は、供給された顔画像のうち、いずれか未処理の1つを抽出し、特徴量抽出部231に供給する。   In step S21, the face image acquisition unit 221 of the biological information recognition apparatus 21 acquires a face image. In step S22, the face image acquisition unit 221 extracts one of the unprocessed face images from the supplied face images and supplies the extracted unprocessed one to the feature amount extraction unit 231.

ステップS23において、照合部222の特徴量抽出部231は、供給されてきた顔画像より特徴量を抽出して、顔画像と共に属性推定部232および抽出部233に供給する。 In step S23, the feature extraction unit 231 of the verification unit 222 extracts the feature value from a face image supplied, supplies both the attribute estimating unit 232 and the extraction unit 233 and the face image.

ステップS24において、属性推定部232は、年代推定部232aおよび性別推定部232bをそれぞれ制御して、供給されてきた顔画像の特徴量に基づいて、顔画像の人物の年代(年齢層)および性別を推定し、推定結果を抽出部233に供給する。より具体的には、年代推定部232aは、顔画像の特徴量より、各種の加齢によって発生するしわや、しみの有無などにより年代を推定する。また、性別推定部232bは、顔画像の特徴量より、鬚の有無や、喉仏の有無などにより性別を推定する。   In step S24, the attribute estimation unit 232 controls the age estimation unit 232a and the sex estimation unit 232b, respectively, and based on the supplied facial image feature quantity, the age (age group) and sex of the person in the face image And the estimation result is supplied to the extraction unit 233. More specifically, the age estimation unit 232a estimates the age based on the wrinkles generated by various aging, the presence or absence of spots, and the like based on the feature amount of the face image. In addition, the gender estimation unit 232b estimates gender based on the feature amount of the face image based on the presence or absence of wrinkles or the presence or absence of a throat buddha.

ステップS25において、抽出部233は、属性コード付加部223aを制御して、性別、年代、および身長からなる属性情報に基づいて設定される属性情報より、属性コードを設定する。すなわち、属性コードとは、例えば、図19で示されるようなテーブルで設定されるものであり、属性情報である性別、年代、および身長の情報に基づいて設定されるコードである。   In step S25, the extraction unit 233 controls the attribute code adding unit 223a to set the attribute code based on the attribute information set based on the attribute information including gender, age, and height. That is, the attribute code is set in a table as shown in FIG. 19, for example, and is a code set based on the attribute information such as sex, age, and height.

図19においては、性別により上下段により分けられており、さらに、上段下段におけるそれぞれが、身長により7段階(136cm以上146cm未満、146cm以上156cm未満、156cm以上166cm未満、166cm以上176cm未満、176cm以上186cm未満、186cm以上196cm未満、196cm以上)に区分されている。また、水平方向は、年代により4段階に区分されている(20歳未満、20以上40歳未満、40以上60歳未満、60歳以上)。したがって、属性コードは、A乃至BDまでの56通りのコードから構成されており、例えば、属性情報として、年代が20以上乃至40歳未満であり、性別が女性であり、身長が156cm以上166cm未満であると推定されていた場合、属性コードは、「AL」に設定されることになり、また、属性情報として、年代が40以上乃至60歳未満であり、性別が男性であり、身長が176cm以上186cm未満であると推定されていた場合、属性コードは、「S」に設定されることになる。   In FIG. 19, the upper and lower tiers are divided according to gender, and each of the upper and lower tiers is divided into seven stages according to height (136 cm to 146 cm, 146 cm to 156 cm, 156 cm to 166 cm, 166 cm to 176 cm, 176 cm or more Less than 186cm, more than 186cm and less than 196cm, more than 196cm). In addition, the horizontal direction is divided into four stages according to the age (under 20 years old, 20 to 40 years old, 40 to 60 years old, 60 years old and over). Therefore, the attribute code is composed of 56 codes from A to BD. For example, as attribute information, the age is 20 to 40 years old, the gender is female, and the height is 156 to 166 cm The attribute code is set to “AL”, and as attribute information, the age is between 40 and 60 years old, the gender is male, and the height is 176 cm. If it is estimated that the distance is less than 186 cm, the attribute code is set to “S”.

ステップS26において、抽出部233は、属性コードにより生体情報DB22より類似度を計算する対象となる同一の属性コードが付された登録者の顔画像を抽出し、類似度計算部234に供給する。すなわち、生体情報DB22に登録されている顔画像には、上述したように、それぞれ性別、年代、および身長からなる属性情報に基づいて属性コードが設定されているので、属性推定部232より供給されてきた年代および性別の属性情報に加えて、顔画像に付されている属性情報である身長の情報により設定される属性コードと、同一の属性コードが設定された顔画像が、抽出される。   In step S26, the extraction unit 233 extracts the face image of the registrant to which the same attribute code is calculated from the biometric information DB 22 using the attribute code, and supplies the extracted facial image to the similarity calculation unit 234. That is, the face image registered in the biometric information DB 22 is supplied from the attribute estimation unit 232 because the attribute code is set based on the attribute information including the sex, the age, and the height as described above. In addition to the age and gender attribute information, a face image having the same attribute code set as the attribute code set by the height information as the attribute information attached to the face image is extracted.

このように属性コードに基づいて、生体情報DB22より該当する顔画像の情報のみが抽出されることにより、処理時間に影響する類似度の計算量を抑制することが可能となるので、生体情報DB22に登録されている登録遊技者の顔画像の検索速度を向上させることが可能となる。   Since only the information of the corresponding face image is extracted from the biological information DB 22 based on the attribute code in this way, it is possible to suppress the calculation amount of the similarity that affects the processing time, and thus the biological information DB 22 This makes it possible to improve the search speed of the registered player's face image registered in.

ステップS27において、類似度計算部234は、抽出部233より属性コードに基づいて抽出された顔画像について、目と目の間隔、あごから額までの長さと、あごから鼻のまでの長さの比率などの各種の顔の特徴量を求めて、それぞれの差分和、平均比率、または比率和などを類似度として計算し、計算結果である類似度の順位を求め、上位3位までの顔画像と類似度の情報を、特徴量抽出部231より供給されてきた顔画像と共に類似度判定部235に供給する。 In step S27, the similarity calculation unit 234 calculates the distance between the eyes, the distance from the chin to the forehead, and the length from the chin to the nose for the face image extracted from the extraction unit 233 based on the attribute code. Obtain various facial feature quantities such as ratios, calculate the difference sum, average ratio, or ratio sum of each as the similarity, calculate the ranking of the similarity as the calculation result, and face images up to the top three supplies information of the similarity, both the similarity determination unit 235 and the face image supplied from the feature value extracting unit 231 and.

ステップS28において、類似度判定部235は、類似度計算部234より供給されてくる上位3位までの顔画像と類似度の情報に基づいて、最上位の類似度が所定の閾値よりも大きいか否かを判定する。すなわち、類似度判定部235は、最も類似している登録遊技者(生体情報DB22に登録されている顔画像のうち、顔画像取得部221により取得された顔画像と最も類似している登録遊技者:ここでは、類似度の最も高い登録遊技者)の類似度を所定の閾値と比較する。   In step S28, the similarity determination unit 235 determines whether the highest similarity is greater than a predetermined threshold based on the top three face images and similarity information supplied from the similarity calculation unit 234. Determine whether or not. That is, the similarity determination unit 235 is a registered player who is most similar (a registered game that is most similar to the facial image acquired by the facial image acquisition unit 221 among facial images registered in the biometric information DB 22). In this case, the similarity of the registered player having the highest similarity is compared with a predetermined threshold.

尚、上述のように、類似度の定義により、撮像された顔画像と最も類似している登録遊技者の顔画像との類似度は、その値そのものが最も高いとは限らないため、類似度と閾値との大小関係はこの例の場合とは異なることがある。   Note that, as described above, the similarity between the face image of the registered player who is most similar to the captured face image is not necessarily the highest because of the definition of the similarity. And the threshold value may differ from those in this example.

ステップS29において、類似度判定部235は、類似度計算部234より供給されてきた上位3位の顔画像が登録遊技者の顔画像の候補であることを示す報知画面を、表示部23を制御して表示させる。   In step S29, the similarity determination unit 235 controls the display unit 23 with a notification screen indicating that the top three face images supplied from the similarity calculation unit 234 are candidates for the registered player's face image. To display.

ステップS30において、通信部224は、操作部225が操作されて、候補となる顔画像の何れかが選択されたか否か、すなわち、例えば、報知画面が表示部23に表示されていた場合、操作部225により候補となる顔画像の何れかが選択される操作がなされたか否かを判定する。   In step S30, the communication unit 224 determines whether any of the candidate face images has been selected by operating the operation unit 225, that is, for example, if a notification screen is displayed on the display unit 23, The unit 225 determines whether an operation for selecting any of the candidate face images has been performed.

ステップS30において、例えば、第1候補となる顔画像が選択されたような場合、ステップS31において、通信部224は、選択された第1候補となる顔画像および入口カメラ42により撮像されたカメラ画像を携帯端末20に送信し、該当する登録遊技者が来店したことを通知する。   In step S30, for example, when a face image that is the first candidate is selected, in step S31, the communication unit 224 selects the face image that is the first candidate and the camera image captured by the entrance camera 42. Is transmitted to the mobile terminal 20 to notify that the corresponding registered player has visited the store.

ステップS41において、通信部271は、登録遊技者の来店が通知されてきたか否かを判定し、通知されてくるまで、その処理を繰り返す。例えば、ステップS41において、例えば、ステップS31の処理により、登録遊技者の来店が通知されてきた場合、ステップS42において、通信部271は、生体情報認識装置21より送信されてきた登録遊技者の来店の通知を受信すると共に、その通知に併せて送信されてくる登録遊技者の顔画像および入口カメラ42により撮像されたカメラ画像を画像処理部272に供給する。画像処理部272は、選択された顔画像および入口カメラ42により撮像されたカメラ画像の情報を、表示部273に表示可能な形式の情報に加工して、ステップS43において、表示部273に表示させる。 In step S41, the communication unit 271 determines whether or not the registered player has been notified of the store visit, and repeats the processing until the notification is received. For example, in step S41, for example, when the registered player's visit is notified by the process of step S31, the communication unit 271 sends the registered player's visit transmitted from the biometric information recognition device 21 in step S42. Upon receiving the notification together supplies camera image captured by the face image and the entrance camera 42 registered player sent in conjunction with the notification to the image processing unit 272. The image processing unit 272 processes the information of the selected face image and the camera image captured by the entrance camera 42 into information in a format that can be displayed on the display unit 273, and displays the information on the display unit 273 in step S43. .

以上の処理により、遊技店1内の係員は、携帯端末20を所持していると、登録遊技者の来店を認識することが可能となる。   With the above processing, the staff in the game store 1 can recognize the visit of the registered player if the portable terminal 20 is possessed.

また、ステップS32において、顔画像取得部221は、抽出部233より抽出された顔画像の全てについて処理を行なったか否かを判定し、未処理の顔画像がある場合、処理は、ステップS22に戻る。すなわち、抽出部233より抽出された全ての顔画像について処理が行なわれるまで、ステップS22乃至S33の処理が繰り返される。そして、全ての顔画像について処理が終了したと判定された場合、処理は、ステップS21に戻る。   In step S32, the face image acquisition unit 221 determines whether or not all the face images extracted by the extraction unit 233 have been processed. If there is an unprocessed face image, the process proceeds to step S22. Return. That is, the processes in steps S22 to S33 are repeated until the process is performed on all face images extracted by the extraction unit 233. If it is determined that the process has been completed for all face images, the process returns to step S21.

一方、ステップS30において、いずれの候補となる顔画像も選択されない場合、または、ステップS28において、類似度計算部234より供給されてくる上位3位までの顔画像と類似度の情報に基づいて、最上位の類似度が所定の閾値よりも大きくない場合、すなわち、最も類似している登録遊技者の顔画像であっても類似度が、所定の閾値未満である場合、ステップS33において、類似度判定部235は、入口画像処理ユニット41より供給されてきた顔画像を属性コードと共に未登録遊技者データベース登録部223に供給する。未登録遊技者データベース登録部223は、供給されてきた顔画像を生体管理情報バス6及び公衆通信回線網8を介して生体情報管理データベース3にアクセスし、未登録遊技者DB251に登録する。   On the other hand, if no candidate face image is selected in step S30, or based on the top three face images and similarity information supplied from the similarity calculation unit 234 in step S28, If the highest similarity is not greater than the predetermined threshold, that is, if the similarity is less than the predetermined threshold even in the face image of the most similar registered player, the similarity is determined in step S33. The determination unit 235 supplies the face image supplied from the entrance image processing unit 41 to the unregistered player database registration unit 223 together with the attribute code. The unregistered player database registration unit 223 accesses the biometric information management database 3 through the biometric management information bus 6 and the public communication line network 8 to register the supplied face image in the unregistered player DB 251.

以上の処理により、生体情報認識装置21により入口画像処理ユニット41より供給されてきた顔画像が、生体情報DB22に登録されていないとみなされると、生体情報管理センタ2により管理されている生体情報管理DB3内の未登録遊技者DB251に未登録遊技者の顔画像として登録される。   If the face image supplied from the entrance image processing unit 41 by the biometric information recognition device 21 is not registered in the biometric information DB 22 by the above processing, the biometric information managed by the biometric information management center 2 The face image of the unregistered player is registered in the unregistered player DB 251 in the management DB 3.

次に、図20のフローチャートを参照して、登録遊技者DB252の更新処理について説明する。   Next, the update process of the registered player DB 252 will be described with reference to the flowchart of FIG.

ステップS61において、生体情報管理センタ2のDB更新判定部243は、RTC243aに問合せて、所定の時間が経過したか否かを判定し、所定の時間が経過するまで、その処理を繰り返す。例えば、ステップS61において、所定の時間が経過したと判定された場合、ステップS62において、DB更新判定部243は、生体情報管理DB3の未登録遊技者DB251にアクセスし、未登録遊技者が新たに登録されているか否かを判定し、新たな未登録遊技者が登録されていると判定されるまで、ステップS61,S62の処理を繰り返す。   In step S61, the DB update determination unit 243 of the biometric information management center 2 makes an inquiry to the RTC 243a, determines whether a predetermined time has elapsed, and repeats the process until the predetermined time has elapsed. For example, if it is determined in step S61 that the predetermined time has elapsed, in step S62, the DB update determination unit 243 accesses the unregistered player DB 251 of the biological information management DB 3, and an unregistered player newly It is determined whether or not it is registered, and the processes of steps S61 and S62 are repeated until it is determined that a new unregistered player is registered.

ステップS62において、例えば、ステップS32の処理により、新たに未登録遊技者が登録されていた場合、ステップS63において、DB更新判定部243は、未登録遊技者DB251に新たに登録された未登録遊技者のいずれかが所定回数以上登録されているか否かを判定し、所定回数以上ではない場合、その処理は、ステップS61に戻る。   In step S62, for example, if an unregistered player is newly registered by the process of step S32, the DB update determination unit 243 determines that the unregistered game newly registered in the unregistered player DB 251 in step S63. It is determined whether or not one of the users has been registered a predetermined number of times or more. If not, the process returns to step S61.

一方、ステップS63において、例えば、所定回数以上未登録遊技者DB251に登録されている未登録遊技者が存在すると判定された場合、ステップS64において、DB更新判定部243は、DB更新部242に対して、登録遊技者DB252の更新をするべき状態になったことを通知する。これに応じて、DB更新部242は、未登録遊技者DB251にアクセスし、所定回数以上登録されている未登録遊技者の顔画像の情報を全て読み出すと共に、登録遊技者DB252にアクセスし、読み出した所定回数以上登録されていた未登録遊技者の顔画像の情報に、顔画像を識別するIDを付して、登録遊技者DB252に追加登録して、更新する。さらに、DB更新部242は、登録遊技者DB252が更新されたことをDB配信部241に通知する。尚、登録遊技者DB252の更新が終了した時点で、所定回数以上登録されていた未登録遊技者は、未登録遊技者DB251より削除される。 On the other hand, in step S63, for example, when it is determined that there is an unregistered player registered in the unregistered player DB 251 a predetermined number of times or more, the DB update determination unit 243 determines in step S64 that the DB update unit 242 The registered player DB 252 is notified that it should be updated. In response to this, DB updating unit 242 accesses the unregistered player DB 251, both when read all the information of unregistered player's face image registered predetermined number of times or more, to access the registered player DB 252, An ID for identifying the face image is attached to the information of the face image of the unregistered player who has been registered a predetermined number of times or more, and is additionally registered in the registered player DB 252 and updated. Further, the DB update unit 242 notifies the DB distribution unit 241 that the registered player DB 252 has been updated. Note that, when the update of the registered player DB 252 is completed, unregistered players that have been registered a predetermined number of times or more are deleted from the unregistered player DB 251.

ステップS65において、DB配信部241は、生体情報管理DB3の新たに更新された登録遊技者DB252にアクセスし、読み出すと共に、生体情報認識装置21のデータベース管理部226に読み出した登録遊技者DB252を配信する。 In step S65, DB distribution unit 241 accesses the registered player DB252 newly updated biological information management DB3, when read together, the registered player DB252 read the database management unit 226 of the biological information recognizer 21 To deliver.

ステップS81において、データベース管理部226は、生体情報管理センタ2より更新された新たな登録遊技者DB252が配信されてきたか否かを判定し、配信されてくるまで、その処理を繰り返す。   In step S81, the database management unit 226 determines whether or not a new registered player DB 252 updated from the biometric information management center 2 has been distributed, and repeats the processing until it is distributed.

ステップS81において、例えば、ステップS65の処理により、生体情報管理センタ2のDB配信部241より新たに更新された登録遊技者DB252が配信されてくると、ステップS82において、データベース管理部226は、配信されてくる登録遊技者DB252を取得すると共に、登録遊技者DB252の情報に基づいて、生体情報DB22を更新する。より詳細には、データベース管理部226は、生体情報DB22に、新たに配信されてきた登録遊技者DB252の情報をコピーして上書きする。 In step S81, for example, when the newly updated registered player DB 252 is distributed from the DB distribution unit 241 of the biological information management center 2 by the process of step S65, the database management unit 226 distributes in step S82. both acquires the registered player DB 252 coming is, based on the information of the registered player DB 252, and updates the biometric information DB 22. More specifically, the database management unit 226 copies and overwrites the newly distributed information of the registered player DB 252 in the biometric information DB 22.

以上の処理により、遊技店1-1乃至1-nのいずれかで、未登録遊技者として所定回数以上未登録遊技者DB251に登録されると、登録遊技者DB252に追加登録されることにより、遊技店1-1乃至1-nのいずれの生体情報認識装置21の生体情報DB22にデータベース化して登録されることになるので、複数の遊技店1においても、入口カメラ42により撮像されると、登録遊技者として来店が報知されることになる。また、登録遊技者DB252は、各遊技店1-1乃至1-nからの情報に基づいて更新されていくので、複数の店舗における顧客来店記録を生成することが可能となり、顧客来店記録を統合的に管理することが可能となる。   As a result of the above processing, when registered in the unregistered player DB 251 as an unregistered player at a predetermined number of times in any of the game stores 1-1 to 1-n, by additionally registering in the registered player DB 252, Since it will be registered as a database in the biological information DB 22 of any biological information recognition device 21 of any of the gaming stores 1-1 to 1-n, when captured by the entrance camera 42 in a plurality of gaming stores 1, The visit to the store will be notified as a registered player. In addition, since the registered player DB 252 is updated based on information from each of the game stores 1-1 to 1-n, it becomes possible to generate customer store records at a plurality of stores and to integrate customer store records. Management is possible.

以上においては、図14のフローチャートにおけるステップS1の処理で示されるように、出入口の扉が開くタイミングで撮像される画像における顔画像と、登録遊技者DB252と同一のデータベースである生体情報DB22の顔画像とが照合されて来店したか否かを判定すると共に、登録遊技者ではない場合、未登録遊技者として未登録遊技者DB251に登録され、所定回数未登録遊技者として登録されると、登録遊技者DB252に登録される例について説明してきたが、画像が撮像されるタイミングは、これに限るものではなく、例えば、遊技台周辺端末37において紙幣が詰まったことが検出されたり、遊技台36において、球詰まりやメダル詰まりが検出されるといった異常動作が検出されるタイミングでカメラ38や店内カメラ41で撮像するようにしてもよく、このように異常動作時に特定の遊技者が登録されるようにすることで、例えば、異常動作を利用して不正行為が行われているような場合、これを摘発することが可能となる。 In the above, as shown in the process of step S1 in the flowchart of FIG. 14, the face image in the image captured at the opening timing of the doorway and the face of the biometric information DB22, which is the same database as the registered player DB252 both the image to determine whether the visit are collated, if not a registered player is registered in the unregistered player DB251 as an unregistered player, and registered as a predetermined number of times unregistered player, registration Although the example registered in the player DB 252 has been described, the timing at which an image is captured is not limited to this. For example, it is detected that a banknote is jammed in the gaming machine peripheral terminal 37, or the gaming machine 36 In this case, the camera 38 or the in-store camera 41 may be used to capture an image when an abnormal operation such as a ball jam or a medal jam is detected. In this way, by registering a specific player at the time of an abnormal operation, for example, when an illegal act is performed using the abnormal operation, it is possible to detect this.

また、以上においては、図14のフローチャートにおけるステップS1の処理で示されるように、扉が開くというタイミングで顔画像を抽出する例について説明してきたが、特別に撮像のタイミングを決めることなく、撮像し続ける中で、顔画像が抽出されたら、照合するようにしてもよい。   Further, in the above, as shown in the process of step S1 in the flowchart of FIG. 14, the example of extracting the face image at the timing when the door is opened has been described, but the imaging is not performed without deciding the timing of imaging specially. If a face image is extracted while continuing, it may be collated.

以上によれば、各店舗における顧客来店情報のみならず複数の店舗における顧客来店記録の収集と、統合的な管理を実現することが可能となる。   According to the above, it is possible to realize not only customer visit information at each store but also collection of customer visit records at a plurality of stores and integrated management.

ところで、以上の処理により、順次遊技店に来店する顔画像が蓄積されていくことになるが、蓄積されていく顔画像は、増大の一途を辿ることになり、管理が困難になっていくことが予想される。また、常連客などの場合、同一の遊技者の顔画像を大量に重複して記録することになるため、顧客毎にまとめるなどの処理により同一の人物の顔画像については、同一のファイルにまとめられるようにして管理上の効率を向上できるようにすることが要求されることが予想される。   By the way, with the above processing, the face images that come to the amusement store are accumulated sequentially, but the accumulated face images will continue to increase and become difficult to manage. Is expected. In addition, in the case of regular customers, since the same player's face images are recorded in large numbers, the same person's face images are collected in the same file by processing such as grouping for each customer. It is expected that it will be required to be able to improve administrative efficiency in the same way.

そこで、検索部227は、操作部225が操作されることにより要求される条件に応じて、生体情報DB22に蓄積されている顔画像を検索し、検索された複数の顔画像のうち、同一の人物の顔画像と思われる顔画像を同一の顧客の顔画像としてグループ化することにより顧客登録すると共に、表示部23に表示させることで、顔画像の管理上の効率を向上させると共に、個別の顧客の来店情報を分析できるようにしている。 Therefore, the search unit 227 searches for a face image stored in the biological information DB 22 according to a condition requested by operating the operation unit 225, and the same among the searched face images. both the customer registration by grouping face images appear to a person's face image as the same customer face images, by displaying on the display unit 23, when improving the efficiency administrative facial image together, individually It is possible to analyze store visit information of customers.

図21は、検索部227および保安センタ10の詳細な構成例を示すブロック図である。   FIG. 21 is a block diagram showing a detailed configuration example of the search unit 227 and the security center 10. As shown in FIG.

顔画像取得部331は、条件受付部342により供給されてくる検索条件に基づいて、生体情報DB22から顔画像を抽出して、バッファ332に蓄積させる。このとき、顔画像取得部331は、生体情報DB22におけるID、カメラID、および日時情報も併せてバッファ332に蓄積させる。   The face image acquisition unit 331 extracts a face image from the biometric information DB 22 based on the search condition supplied from the condition reception unit 342 and stores the face image in the buffer 332. At this time, the face image acquisition unit 331 also stores the ID, camera ID, and date / time information in the biometric information DB 22 in the buffer 332 together.

特徴量抽出部333は、基本的に、照合部222における特徴量抽出部231と同様のものであり、バッファ332に蓄積された顔画像より顔画像の特徴量を抽出し、順次年代推定部334、性別推定部335、および抽出部336に供給する。年代推定部334、および性別推定部335は、上述した年代推定部232aおよび性別推定部232bと同様の機能を備えており、推定した属性情報を抽出部336に供給する。   The feature amount extraction unit 333 is basically the same as the feature amount extraction unit 231 in the collation unit 222, extracts the feature amount of the face image from the face image stored in the buffer 332, and sequentially determines the age estimation unit 334. To the sex estimation unit 335 and the extraction unit 336. The age estimating unit 334 and the gender estimating unit 335 have the same functions as the age estimating unit 232a and the gender estimating unit 232b described above, and supply the estimated attribute information to the extracting unit 336.

抽出部336は、基準顔画像の特徴量および属性情報を特徴量バッファ337に一時的に記憶させると共に、非基準顔画像の属性情報を特徴量バッファ337に記憶されている属性情報と比較し、一致した顔画像についての特徴量を類似度計算部338に供給する。   The extraction unit 336 temporarily stores the feature amount and attribute information of the reference face image in the feature amount buffer 337 and compares the attribute information of the non-reference face image with the attribute information stored in the feature amount buffer 337. The feature amount of the matched face image is supplied to the similarity calculation unit 338.

類似度計算部338は、基本的に、類似度計算部234と同様のものであり、特徴量抽出部333より順次供給されてくる非基準顔画像の特徴量と、特徴量バッファ337に蓄積されている基準顔画像の特徴量とを用いて類似度を計算し、計算結果である類似度と類似度を求めた非基準顔画像および基準顔画像のそれぞれのIDを類似度判定部339に供給する。   The similarity calculation unit 338 is basically the same as the similarity calculation unit 234, and is stored in the feature amount buffer 337 and the feature amount of the non-reference face image sequentially supplied from the feature amount extraction unit 333. The similarity is calculated using the feature amount of the reference face image, and the ID of each of the non-reference face image and the reference face image obtained as the calculation result is supplied to the similarity determination unit 339. To do.

類似度判定部339は、非基準顔画像および基準顔画像の類似度と、所定の閾値とを比較し、非基準顔画像および基準顔画像とが類似していると判定されるとき、非基準顔画像および基準顔画像をグループ管理DB登録部340に供給する。   The similarity determination unit 339 compares the similarity between the non-reference face image and the reference face image with a predetermined threshold, and determines that the non-reference face image and the reference face image are similar. The face image and the reference face image are supplied to the group management DB registration unit 340.

グループ管理DB登録部340は、基準顔画像に対応して新たに顧客IDを設定し、顧客IDに対応付けて、類似度判定部339より供給されてくる非基準顔画像のIDを、グループ管理DB341に顧客登録する。   The group management DB registration unit 340 sets a new customer ID corresponding to the reference face image, and associates the ID of the non-reference face image supplied from the similarity determination unit 339 with the customer ID. Register customers in DB341.

表示画像生成部343は、条件受付部342より供給されてくる条件に基づいて、抽出部343aを制御してグループ管理DB341を検索し、検索された顧客IDに対応する生体情報DB22上のIDに対応する顔画像を、バッファ332より抽出させると共に、表示画像を生成して、表示部23に表示する。さらに、表示画像生成部343は、特定の顧客IDに対して検索するように指示があった場合、確認部343bを制御して、その顧客IDが存在するか否かを確認させ、存在するときにのみ、処理を実行する。 The display image generation unit 343 controls the extraction unit 343a based on the condition supplied from the condition reception unit 342 to search the group management DB 341, and sets the ID on the biological information DB 22 corresponding to the searched customer ID. the corresponding face image, both when the extracted from the buffer 332, generates display image on the display unit 23. Further, when there is an instruction to search for a specific customer ID, the display image generation unit 343 controls the confirmation unit 343b to check whether or not the customer ID exists. Only perform the process.

調査処理部344は、保安センタ10からの依頼に応じて、年代、性別、および身長といった属性に基づいて、調査対象となる遊技者を検索し、検索結果を保安センタ10に送信する。   In response to a request from the security center 10, the survey processing unit 344 searches for a player to be surveyed based on attributes such as age, gender, and height, and transmits the search result to the security center 10.

通信部344aは、モデムなどからなり保安センタ10との情報を授受する。属性コード生成部344bは、保安センタ10より調査依頼のある人物の年代、性別、および身長から、検索対象となる遊技者を特定するための属性コードを生成する。属性コードは、例えば、図19を参照して説明した条件で生成される。調査遊技者検索部344cは、属性コード生成部344bで生成された属性コードに基づいて、生体情報DB22に登録された遊技者を検索し、検索できた場合、通信部344aを制御して検索された遊技者の情報を保安センタ10に送信させる。   The communication unit 344a includes a modem and exchanges information with the security center 10. The attribute code generation unit 344b generates an attribute code for identifying a player to be searched from the age, sex, and height of a person who has requested a survey from the security center 10. The attribute code is generated, for example, under the conditions described with reference to FIG. The survey player search unit 344c searches for a player registered in the biometric information DB 22 based on the attribute code generated by the attribute code generation unit 344b. The information of the player who has been sent is transmitted to the security center 10.

保安センタ10の操作部10aは、例えば、キーボードやボタンなどから構成されており、各遊技店1に対して特定の遊技者の調査依頼をするとき操作され、調査対象となる遊技者の年代、性別、および身長などの情報を入力するとき操作される。通信部10bは、例えば、モデムのようなものであり、遊技店1に対して調査依頼を送信するとき、または、調査依頼に対する調査結果を受信するとき使用される。表示部10cは、CRTやLCDなどから構成されており、操作部10aの操作内容や、通信部10bにより受信される調査結果などを表示する。   The operation unit 10a of the security center 10 is composed of, for example, a keyboard, a button, and the like. The operation unit 10a is operated when a specific player is requested to be inspected for each game store 1, and the age of the player to be investigated is Operated when inputting information such as gender and height. The communication unit 10b is, for example, a modem, and is used when a survey request is transmitted to the game store 1 or when a survey result for the survey request is received. The display unit 10c includes a CRT, an LCD, and the like, and displays the operation content of the operation unit 10a, the investigation result received by the communication unit 10b, and the like.

次に、図22のフローチャートを参照して、図21の検索部227による顧客登録処理について説明する。   Next, customer registration processing by the search unit 227 of FIG. 21 will be described with reference to the flowchart of FIG.

ステップS101において、条件受付部342は、操作部225が操作されて顧客登録処理が指示されたか否かを判定し、指示されるまでその処理を繰り返す。ステップS101において、例えば、顧客登録処理が指示された場合、ステップS102において、条件受付部342は、顧客登録処理が指示されたことを表示画像生成部343に通知する。表示画像生成部343は、この通知に応じて、検索条件の入力を促す顔画像検索振分画面を表示部23に表示させる。   In step S101, the condition receiving unit 342 determines whether or not the customer registration process is instructed by operating the operation unit 225, and repeats the process until instructed. In step S101, for example, when a customer registration process is instructed, in step S102, the condition reception unit 342 notifies the display image generation unit 343 that the customer registration process is instructed. In response to this notification, the display image generation unit 343 causes the display unit 23 to display a face image search distribution screen that prompts input of search conditions.

ステップS103において、条件受付部342は、操作部225が操作されて検索条件が入力されたか否かを判定し、入力されたと判定されるまでその処理を繰り返す。例えば、ステップS103において、検索条件が入力されると、処理は、ステップS104に進む。   In step S103, the condition receiving unit 342 determines whether or not the search unit is input by operating the operation unit 225, and the process is repeated until it is determined that the input is performed. For example, when a search condition is input in step S103, the process proceeds to step S104.

ステップS104において、条件受付部342は、操作部225が操作されることにより入力された検索条件の情報を顔画像取得部331に供給する。顔画像取得部331は、未処理の顔画像を生体情報DB22より抽出する。ステップS105において、顔画像取得部331は、抽出した顔画像が、条件受付部342より供給されてきた検索条件と一致するか否かを判定する。ステップS105において、例えば、抽出した顔画像が検索条件に一致する場合、ステップS106において、顔画像取得部331は、抽出した顔画像をバッファ332に蓄積させる。また、ステップS105において、抽出した顔画像が、検索条件と一致しない場合、ステップS106の処理はスキップされる。   In step S104, the condition receiving unit 342 supplies the search condition information input by operating the operation unit 225 to the face image acquiring unit 331. The face image acquisition unit 331 extracts an unprocessed face image from the biometric information DB 22. In step S105, the face image acquisition unit 331 determines whether or not the extracted face image matches the search condition supplied from the condition reception unit 342. In step S105, for example, when the extracted face image matches the search condition, the face image acquisition unit 331 stores the extracted face image in the buffer 332 in step S106. If the extracted face image does not match the search condition in step S105, the process in step S106 is skipped.

ステップS107において、顔画像取得部331は、未処理の顔画像が生体情報DB22に存在するか否かを判定し、未処理の顔画像があると判定された場合、処理は、ステップS104に戻る。すなわち、未処理の顔画像がなくなるまで、ステップS104乃至S107の処理が繰り返され、検索条件と一致する顔画像だけがバッファ332に蓄積されていく。   In step S107, the face image acquisition unit 331 determines whether or not an unprocessed face image exists in the biometric information DB 22. If it is determined that there is an unprocessed face image, the process returns to step S104. . In other words, the processing of steps S104 to S107 is repeated until there are no unprocessed face images, and only the face images that match the search condition are stored in the buffer 332.

ステップS107において、未処理の顔画像がないと判定された場合、処理は、ステップS108に進む。   If it is determined in step S107 that there is no unprocessed face image, the process proceeds to step S108.

ステップS108において、バッファ332に蓄積された顔画像のうち、同一の顔画像について顧客IDを設定し、グルーピングするグルーピング処理が実行される。   In step S108, a grouping process for setting and grouping customer IDs for the same face image among the face images stored in the buffer 332 is executed.

ここで、図23のフローチャートを参照して、グルーピング処理について説明する。   Here, the grouping process will be described with reference to the flowchart of FIG.

ステップS121において、特徴量抽出部333は、バッファ332に蓄積された顔画像の情報より、未処理の基準顔画像を抽出する。すなわち、特徴量抽出部333は、グルーピングにあたり、規準となる顔画像をバッファ332に蓄積された顔画像より抽出する。   In step S121, the feature amount extraction unit 333 extracts an unprocessed reference face image from the face image information stored in the buffer 332. That is, the feature amount extraction unit 333 extracts a reference face image from the face images stored in the buffer 332 for grouping.

ステップS122において、特徴量抽出部333は、基準顔画像の特徴量を抽出し、年代推定部334、性別推定部335、および抽出部336に供給する。   In step S122, the feature amount extraction unit 333 extracts the feature amount of the reference face image and supplies the feature amount to the age estimation unit 334, the gender estimation unit 335, and the extraction unit 336.

ステップS123において、年代推定部334、および性別推定部335は、それぞれ基準顔画像の特徴量に基づいて、年代および性別を推定して抽出部336に供給する。抽出部336は、基準顔画像の推定された年代および性別の属性情報に加えて、顔画像に含まれている身長の属性情報を、特徴量と併せて特徴量バッファ337に記憶させる。   In step S123, the age estimation unit 334 and the gender estimation unit 335 estimate the age and gender based on the feature amount of the reference face image, respectively, and supply them to the extraction unit 336. In addition to the estimated age and gender attribute information of the reference face image, the extraction unit 336 stores the height attribute information included in the face image in the feature amount buffer 337 together with the feature amount.

ステップS124において、特徴量抽出部333は、未処理の非基準顔画像をバッファ332より抽出し、ステップS125において、非基準顔画像の特徴量を抽出して年代推定部334、性別推定部335、および抽出部336に供給する。このとき、基準顔画像および非基準顔画像に付されている生体情報DB22におけるIDの情報も併せて抽出部336に供給する。   In step S124, the feature amount extraction unit 333 extracts an unprocessed non-reference face image from the buffer 332, and in step S125, extracts a feature amount of the non-reference face image to obtain an age estimation unit 334, a gender estimation unit 335, And supplied to the extraction unit 336. At this time, ID information in the biological information DB 22 attached to the reference face image and the non-reference face image is also supplied to the extraction unit 336.

ステップS126において、年代推定部334、および性別推定部335は、それぞれ基準顔画像の特徴量に基づいて、年代および性別を推定して抽出部336に供給する。抽出部336は、非基準顔画像の推定された年代および性別の属性情報に加えて、顔画像に含まれている身長の属性情報を生成する。   In step S126, the age estimation unit 334 and the sex estimation unit 335 estimate the age and sex based on the feature amounts of the reference face image, respectively, and supply the estimation unit 336 with the age and sex. In addition to the estimated age and gender attribute information of the non-reference face image, the extraction unit 336 generates height attribute information included in the face image.

ステップS127において、抽出部336は、特徴量メモリ337にアクセスし基準顔画像の属性情報を読み出し、非基準顔画像の属性情報と比較し一致するか否かを判定する。   In step S127, the extraction unit 336 accesses the feature amount memory 337, reads the attribute information of the reference face image, compares it with the attribute information of the non-reference face image, and determines whether or not they match.

ステップS127において、基準顔画像の属性情報と、非基準顔画像の属性情報とが一致すると判定された場合、S128において、抽出部336は、類似度計算部338に非基準顔画像の特徴量の情報を供給する。これに応じて、類似度計算部338は、抽出部336より供給されてくる非基準顔画像の特徴量と、特徴量バッファ337に記憶されている基準顔画像の特徴量とを用いて基準顔画像と非基準顔画像との類似度を計算し、基準顔画像および非基準顔画像の生体情報DB22におけるIDと共に類似度判定部339に供給する。 If it is determined in step S127 that the attribute information of the reference face image matches the attribute information of the non-reference face image, in S128, the extraction unit 336 sends the feature amount of the non-reference face image to the similarity calculation unit 338. Supply information. In response to this, the similarity calculation unit 338 uses the feature amount of the non-reference face image supplied from the extraction unit 336 and the feature amount of the reference face image stored in the feature amount buffer 337, to thereby generate a reference face. It calculates a similarity between the image and the non-reference face image, and supplies both the similarity determination unit 339 and the ID in the biological information DB22 reference face images and non-reference face image.

ステップS129において、類似度判定部339は、基準顔画像と非基準顔画像とが類似しているか否か、すなわち、類似度が所定の閾値よりも大きいか否か(類似している程、類似度が高い場合、類似度が所定の閾値よりも大きいか否か)を判定する。   In step S129, the similarity determination unit 339 determines whether or not the reference face image and the non-reference face image are similar, that is, whether or not the similarity is greater than a predetermined threshold (the more similar the similar, If the degree is high, it is determined whether or not the degree of similarity is greater than a predetermined threshold.

ステップS129において、例えば、類似度が所定の閾値よりも大きく、双方が類似していると判定された場合、ステップS130において、類似度判定部339は、基準顔画像および非基準顔画像の生体情報DB22におけるIDをグループ管理DB登録部340に供給する。グループ管理DB登録部340は、供給されてきた基準顔画像および非基準顔画像の生体情報DB22におけるIDをグループ管理DB341に登録する。   In step S129, for example, when it is determined that the similarity is greater than a predetermined threshold and both are similar, in step S130, the similarity determination unit 339 determines the biometric information of the reference face image and the non-reference face image. The ID in the DB 22 is supplied to the group management DB registration unit 340. The group management DB registration unit 340 registers the IDs of the supplied reference face image and non-reference face image in the biological information DB 22 in the group management DB 341.

より詳細には、グループ管理DB341は、例えば、図24で示されるように、顧客ID毎に、基準顔画像の生体情報DB22におけるIDが割り振られ、類似度の高い非基準顔画像の生体情報DB22におけるID(生体情報DB-ID)が蓄積されていく。そこで、ステップS130において、グループ管理DB登録部340は、類似度が高いと判定された結果供給されてくる基準顔画像の生体情報DB22におけるIDに基づいて、グループ管理DB341内の顧客IDを検索する。このとき、グループ管理DB登録部340は、検索できなければ、新たな顧客IDを設定し、対応する基準顔画像の生体情報DB22におけるIDを登録する。さらに、グループ管理DB341は、検索された顧客IDまたは新たに設定された顧客IDに対応する生体情報DB-IDとして、非基準顔画像の生体情報DB22におけるIDを登録する。   More specifically, for example, as shown in FIG. 24, the group management DB 341 is assigned the ID in the biometric information DB22 of the reference face image for each customer ID, and the biometric information DB22 of the non-reference face image having a high degree of similarity. ID (biological information DB-ID) is accumulated. Therefore, in step S130, the group management DB registration unit 340 searches for the customer ID in the group management DB 341 based on the ID in the biological information DB 22 of the reference face image supplied as a result of determining that the similarity is high. . At this time, if the search cannot be performed, the group management DB registration unit 340 sets a new customer ID and registers the ID in the biometric information DB 22 of the corresponding reference face image. Furthermore, the group management DB 341 registers the ID in the biological information DB 22 of the non-reference face image as the biological information DB-ID corresponding to the searched customer ID or the newly set customer ID.

尚、図24において、左から顧客ID、基準顔画像ID、および生体情報DB-IDが記録されており、顧客IDが上から001,002,003・・・と設定され、対応する基準顔画像の生体情報DB22におけるIDとして00001,00003,00008と登録されている。さらに、各顧客IDに設定されている基準顔画像との類似度が高いと認められた非基準顔画像の生体情報DB22におけるIDとして、顧客ID=顧客001に対応して00002,00015,・・・、顧客ID=顧客002に対応して00004,00021,・・・、および、顧客ID=顧客003に対応して00010,00040,・・・がそれぞれ登録されており、顧客ID=顧客001に登録されている基準顔画像のID=00001の顔画像に生体情報DB22のIDとして00002,00015,・・・の顔画像が、顧客ID=顧客002に登録されている基準顔画像のID=00003の顔画像に生体情報DB22のIDとして00004,00021,・・・の顔画像が、顧客ID=顧客003に登録されている基準顔画像のID=00008の顔画像に生体情報DB22のIDとして00010,00040,・・・の顔画像が、それぞれ登録されていることが示されている。   In FIG. 24, the customer ID, the reference face image ID, and the biometric information DB-ID are recorded from the left, and the customer ID is set as 001, 002, 003... From the top, and the corresponding reference face image. Are registered as IDs 00001, 00003, and 00008 in the biometric information DB22. Further, as the ID in the biological information DB 22 of the non-reference face image that is recognized as having a high degree of similarity to the reference face image set for each customer ID, 00002,00015,... Corresponding to the customer ID = customer 001. .., 00004,00021,... Corresponding to the customer ID = customer 002 and 00001,040,... Corresponding to the customer ID = customer 003 are registered, and the customer ID = customer 001. The face image with ID = 00001 of the registered reference face image has a face image of 00002,00015,... As the ID of the biometric information DB22, and the ID of the reference face image registered with customer ID = customer 002 = 00003. The face image of 00004,00021,... As the ID of the biometric information DB22 in the face image of the user ID = the ID of the reference face image registered in the customer 003 = 00008 To 00010,00040, ... of the face image is shown to have been registered respectively.

ステップS131において、特徴量抽出部333は、バッファ332に蓄積された顔画像のうち、未処理の非基準顔画像が存在するか否かを判定し、未処理の非基準顔画像が存在している場合、処理は、ステップS124に戻る。すなわち、全ての顔画像が非基準顔画像として処理されたと判定されるまで、ステップS124乃至S131の処理が繰り返される。   In step S131, the feature amount extraction unit 333 determines whether there is an unprocessed non-reference face image among the face images stored in the buffer 332, and there is an unprocessed non-reference face image. If yes, the process returns to step S124. That is, the processes in steps S124 to S131 are repeated until it is determined that all face images have been processed as non-reference face images.

ステップS127において、属性情報が一致しない、または、ステップS129において、類似度が所定の閾値よりも大きくない、すなわち、類似していないと判定された場合、処理は、ステップS131に進む。   If it is determined in step S127 that the attribute information does not match or the similarity is not greater than a predetermined threshold value in step S129, that is, it is determined that they are not similar, the process proceeds to step S131.

すなわち、ステップS127において、属性情報が一致しないと判定される場合、類似度の計算がなされる前に、類似していないことが見極められることになるので、処理負荷の大きな類似度の計算を省略することが可能となり、処理効率を向上させることが可能になると共に、類似度の判定精度も向上させることが可能となる。   That is, if it is determined in step S127 that the attribute information does not match, it is determined that the attributes are not similar before the similarity is calculated, so the calculation of the similarity with a large processing load is omitted. As a result, it is possible to improve the processing efficiency and also improve the accuracy of similarity determination.

ステップS131において、未処理の非基準顔画像が存在しないと判定された場合、ステップS132において、特徴量抽出部333は、バッファ332に蓄積された顔画像のうち基準顔画像とされていない顔画像が存在するか否かを判定し、基準顔画像とされていない顔画像が存在する場合、処理は、ステップS121に戻る。すなわち、バッファ332に登録された顔画像の全てが基準顔画像に設定されるまで、ステップS121乃至S132の処理が繰り返される。そして、ステップS132において、全ての顔画像が基準顔画像にされたと判定された場合、処理は終了する。   If it is determined in step S131 that there is no unprocessed non-reference face image, in step S132, the feature amount extraction unit 333 is a face image that is not set as a reference face image among the face images stored in the buffer 332. If there is a face image that is not a reference face image, the process returns to step S121. That is, the processes in steps S121 to S132 are repeated until all of the face images registered in the buffer 332 are set as reference face images. If it is determined in step S132 that all face images have been set as reference face images, the process ends.

すなわち、以上の処理により、生体情報DB22に蓄積されている顔画像のうち、検索条件と一致する顔画像ごとに類似する顔画像の生体情報DB22におけるIDがグループ化されて、グループ管理DB341に登録される。   That is, by the above processing, among the face images stored in the biometric information DB22, IDs in the biometric information DB22 of similar face images for each face image that matches the search condition are grouped and registered in the group management DB341. Is done.

ただし、以上の処理においては、検索条件と一致する全ての顔画像について、類似する顔画像のIDがグループ化されて登録されることになるため、同一のIDから構成されるグループが重複して登録されることが予想される。以上の処理における目的は、顔画像をいくつかのグループに振り分けることであるため、同一のグループが発生するのは望ましい状態とはいえない。   However, in the above processing, similar face image IDs are grouped and registered for all face images that match the search condition, so that groups composed of the same ID overlap. It is expected to be registered. Since the purpose in the above processing is to distribute the face images into several groups, it is not desirable that the same group occurs.

そこで、グルーピング処理においては、いずれかの顔画像に類似していると判定され、いずれかの顔画像のグループに所属した顔画像については、基準顔画像としても非基準顔画像としても抽出しないようにしてもよい。   Therefore, in the grouping process, it is determined that the face image is similar to any one of the face images, and a face image belonging to any one of the face image groups is not extracted as a reference face image or a non-reference face image. It may be.

図25は、いずれかの顔画像に類似していると判定され、いずれかの顔画像のグループに所属した顔画像については、基準顔画像としても非基準顔画像としても抽出しないようにしたグルーピング処理を説明するフローチャートである。尚、図25のフローチャートにおけるステップS141,S143乃至S145,S147乃至S154の処理については、図23のフローチャートにおけるステップS121乃至S132の処理と同様であるので、その説明は省略する。   FIG. 25 is a grouping that is determined to be similar to any one of the face images, and that the face images belonging to any one of the face image groups are not extracted as the reference face image or the non-reference face image. It is a flowchart explaining a process. Note that the processing of steps S141, S143 to S145, and S147 to S154 in the flowchart of FIG. 25 is the same as the processing of steps S121 to S132 in the flowchart of FIG.

すなわち、ステップS142,S146において、特徴量抽出部333は、グループ管理DB341の情報を読み出して、ステップS141において抽出された基準顔画像のID、または、ステップS145において抽出された非基準顔画像のIDが、顧客IDが設定されたいずれかの顔画像に類似している顔画像のグループとして登録されているか否かを判定する。そして、ステップS142,S146において、何れかのグループに登録されていると判定された場合、処理はステップS141,S146にそれぞれ戻る。   That is, in steps S142 and S146, the feature amount extraction unit 333 reads the information of the group management DB 341, and the ID of the reference face image extracted in step S141 or the ID of the non-reference face image extracted in step S145 However, it is determined whether or not it is registered as a group of face images similar to any one of the face images set with the customer ID. If it is determined in steps S142 and S146 that the user is registered in any group, the process returns to steps S141 and S146, respectively.

以上の処理の結果、抽出された基準顔画像、または、非基準顔画像が、いずれかの顔画像に類似していると判定され、いずれかの顧客IDが付された顔画像に対応してグループ管理DB341に登録されているIDに対応する顔画像については、振り分けられる顔画像の対象とならないため、基本的に顧客IDで振り分けられる各グループには、同一の顔画像が重複して登録されないことになり、重複したグループの生成を抑制することが可能になって、効率的に無駄のない顔画像の振分を実現することができる。ただし、図25のフローチャートのグルーピング処理の場合においては、生体情報DB22より抽出される未処理の基準顔画像が抽出される順番により、グルーピングされる顔画像のIDが変化することが予想されるため、基準顔画像が抽出される順番により、グループ管理DB341に登録される情報が変化することが予想される。   As a result of the above processing, it is determined that the extracted reference face image or non-reference face image is similar to any one of the face images, and corresponds to the face image assigned with any customer ID. The face image corresponding to the ID registered in the group management DB 341 is not the target of the face image to be distributed, so basically the same face image is not redundantly registered in each group distributed by the customer ID. In other words, it becomes possible to suppress the generation of overlapping groups, and it is possible to efficiently realize the distribution of face images without waste. However, in the case of the grouping process in the flowchart of FIG. 25, the IDs of the face images to be grouped are expected to change depending on the order in which the unprocessed reference face images extracted from the biometric information DB 22 are extracted. The information registered in the group management DB 341 is expected to change depending on the order in which the reference face images are extracted.

そこで、グルーピング処理については、図23のフローチャートに対応する処理と、図25のフローチャートに対応する処理とを動作モードにより切替えて、いずれでも実現できるようにしてもよい。   Therefore, the grouping process may be realized by switching the process corresponding to the flowchart of FIG. 23 and the process corresponding to the flowchart of FIG. 25 according to the operation mode.

ここで、図22のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS109において、表示画像生成部343は、ステップS108グルーピング処理により登録されたグループ管理DB341の情報を表示する表示画面を生成し、表示部23に表示する。すなわち、表示画像生成部343は、抽出部343aを制御して、バッファ332に蓄積されている顔画像を抽出すると共に、例えば、検索条件で検索された全ての顔画像を検索結果として表示する。また、表示画像生成部343は、グループ管理DB341にアクセスし、抽出された顔画像を顧客IDに対応付けてグルーピングされている生体情報DB22におけるIDごとに纏めて表示する。 In step S109, the display image generation unit 343 generates a display screen that displays information of the group management DB 341 registered by the grouping process in step S108, and displays the display screen on the display unit 23. That is, the display image generating unit 343 controls the extraction unit 343a, both when extracting a face image stored in the buffer 332, for example, be displayed as search results all the face images retrieved by the retrieval condition. Further, the display image generation unit 343 accesses the group management DB 341 and collectively displays the extracted face images for each ID in the biological information DB 22 grouped in association with the customer ID.

尚、以上の処理においては、生体情報DB22に顔画像と共に登録されている属性コードを用いるようにすれば、上述した、ステップS123,S126、または、ステップS144,S148の処理は、不要となり、ステップS127,S149の処理は、いずれも属性コードを比較するだけでよいことになる。また、同様にして、検索部227より年代推定部334および性別推定部335を省くようにすることも可能となる。ただし、検索部227に年代推定部334および性別推定部335を設けるようにすることで、グルーピング処理において、来店監視処理とは、異なる属性コードを設定することも可能となる。   In the above processing, if the attribute code registered together with the face image in the biometric information DB 22 is used, the above-described processing in steps S123 and S126 or steps S144 and S148 becomes unnecessary. In the processes of S127 and S149, both need only compare the attribute codes. Similarly, the age estimation unit 334 and the gender estimation unit 335 can be omitted from the search unit 227. However, by providing the search unit 227 with the age estimation unit 334 and the sex estimation unit 335, it is possible to set an attribute code different from the store visit monitoring process in the grouping process.

次に、図26のフローチャートを参照して、照会画面表示処理について説明する。   Next, the inquiry screen display process will be described with reference to the flowchart of FIG.

ステップS171において、条件受付部342は、操作部225より照会画面の表示が指示されたか否かを判定し、照会画面の表示が指示されるまでその処理を繰り返す。例えば、ステップS171において、照会画面の表示が指示されたと判定された場合、ステップS172において、条件受付部342は、照会画面の表示が指示されたことを表示画像生成部343に通知する。表示画像生成部343は、この通知に応じて、照会表示形式を選択させる表示選択画面を表示部23に表示させる。   In step S171, the condition receiving unit 342 determines whether or not the operation unit 225 has instructed display of the inquiry screen, and repeats the process until the display of the inquiry screen is instructed. For example, if it is determined in step S171 that display of the inquiry screen has been instructed, in step S172, the condition receiving unit 342 notifies the display image generation unit 343 that display of the inquiry screen has been instructed. In response to this notification, the display image generation unit 343 causes the display unit 23 to display a display selection screen for selecting an inquiry display format.

ステップS173において、条件受付部342は、操作部225が操作されて、人照会画面が選択されたか否かを判定する。例えば、操作部225が操作されて、人照会画面の表示が指示された場合、処理は、ステップS174に進む。   In step S173, the condition receiving unit 342 determines whether the operation unit 225 is operated and the person inquiry screen is selected. For example, when the operation unit 225 is operated and a display of a person inquiry screen is instructed, the process proceeds to step S174.

ステップS174において、条件受付部342は、人照会画面の表示が指示されたことを表示画像生成部343に供給する。表示画像生成部343は、照会すべき人物を特定する顧客IDの入力を要求する画面を表示する。   In step S174, the condition receiving unit 342 supplies the display image generating unit 343 with an instruction to display the person inquiry screen. The display image generation unit 343 displays a screen requesting input of a customer ID that specifies a person to be referred to.

ステップS175において、表示画像生成部343は、条件受付部342を介して操作部225が操作されて、照会すべき人物を特定する顧客IDが入力されたか否かを判定し、顧客IDが入力されるまでその処理を繰り返す。ステップS175において、操作部225が操作されて、顧客IDが入力されると、条件受付部342は、入力された顧客IDの情報を表示画像生成部343に供給する。   In step S175, the display image generation unit 343 determines whether or not the operation unit 225 is operated via the condition reception unit 342 to input a customer ID for specifying a person to be inquired, and the customer ID is input. Repeat the process until In step S175, when the operation unit 225 is operated and a customer ID is input, the condition reception unit 342 supplies the input customer ID information to the display image generation unit 343.

ステップS176において、表示画像生成部343は、確認部343bを制御して供給されてきた顧客IDが実在するものであるか否かを判定する。より詳細には、表示画像生成部343は、確認部343bを制御して、グループ管理DB341にアクセスさせ、条件受付部342より供給されてきた顧客IDが、存在するか否かを確認させる。   In step S176, the display image generation unit 343 controls the confirmation unit 343b to determine whether or not the supplied customer ID actually exists. More specifically, the display image generation unit 343 controls the confirmation unit 343b to access the group management DB 341 and confirm whether the customer ID supplied from the condition reception unit 342 exists.

ステップS176において、例えば、人照会画面として表示すべき人物を特定する顧客IDが実在する場合、ステップS178において、表示画像生成部343は、グループ管理DB341にアクセスし、その顧客IDにグルーピングされている生体情報DB22における顔画像のIDを読み出すと共に、抽出部343aを制御して、読み出したIDに対応する顔画像をバッファ332より抽出させる。さらに、表示画像生成部343は、抽出された顔画像を日付ごとに表示する人照会画面を生成して表示部23に表示させる。 In step S176, for example, when there is a customer ID that identifies a person to be displayed as a person inquiry screen, in step S178, the display image generation unit 343 accesses the group management DB 341 and is grouped by the customer ID. both reading the ID of the face image in the biological information DB 22, and controls the extraction unit 343a, causes the face image corresponding to the read ID is extracted from the buffer 332. Further, the display image generation unit 343 generates a person inquiry screen that displays the extracted face image for each date and causes the display unit 23 to display the screen.

一方、ステップS176において、入力された顧客IDが実在しない場合、処理は、ステップS174に戻り、再び、照会すべき人物を特定する顧客IDの入力を要求する。   On the other hand, if the input customer ID does not actually exist in step S176, the process returns to step S174, and again requests input of the customer ID for specifying the person to be referred.

また、ステップS173において、人照会画面の表示が指示されていない場合、来店情報照会画面の表示が指示されていることになるので、処理は、ステップS179に進む。   If the display of the person inquiry screen is not instructed in step S173, the display of the store visit information inquiry screen is instructed, and the process proceeds to step S179.

ステップS179において、表示画像生成部343は、グループ管理DB341にアクセスし、全ての顧客IDに対応する生体情報DB22における顔画像のIDを読み出し、抽出部343aを制御して、顔画像をバッファ332より抽出させる。   In step S179, the display image generation unit 343 accesses the group management DB 341, reads the face image IDs in the biological information DB 22 corresponding to all customer IDs, controls the extraction unit 343a, and stores the face images from the buffer 332. Let it be extracted.

ステップS180において、表示画像生成部343は、グループ管理DB341の情報に基づいて、例えば、顧客IDに対応付けて日付ごとに来店情報からなる来店情報照会画面を生成して、表示部23に表示させる。   In step S180, the display image generation unit 343 generates a store visit information inquiry screen including store visit information for each date in association with the customer ID based on the information in the group management DB 341, and causes the display unit 23 to display it. .

以上の処理により、上述した検索条件で検索された顔画像について、顧客ID単位で、または、全顧客IDに対して、それぞれ日付単位での来店情報を表示させることが可能となる。結果として、膨大な顔画像を効率良く管理することが可能になると共に、個別の遊技者の来店情報を容易に分析することが可能となる。 With the above processing, it is possible to display store visit information in units of date for each customer ID or for all customer IDs for the face image searched under the search conditions described above. As a result, both becomes possible to efficiently manage the huge face image, it is possible to easily analyze the visit information for individual player.

次に、図27のフローチャートを参照して、検索部227と保安センタ10による登録遊技者DB調査処理について説明する。   Next, the registered player DB investigation process by the search unit 227 and the security center 10 will be described with reference to the flowchart of FIG.

ステップS201において、保安センタ10は、操作部10aを制御して、性別、年代、および身長からなる調査対象となる遊技者の属性情報が入力されたか否かを判定し、入力されたと判定されるまで、同様の処理を繰り返す。例えば、調査対象となる遊技者の属性情報が入力された場合、ステップS202において、保安センタ10は、操作部10aが操作されて、検索店舗を特定する店舗IDが入力されたか否かを判定し、入力されたと判定されない場合、処理は、ステップS201に戻る。   In step S201, the security center 10 controls the operation unit 10a to determine whether or not the attribute information of the player to be surveyed including gender, age, and height has been input, and is determined to have been input. Until the same process is repeated. For example, when the attribute information of the player to be investigated is input, in step S202, the security center 10 determines whether the operation unit 10a is operated and the store ID for specifying the search store is input. If it is not determined that the input has been made, the process returns to step S201.

ステップS202において、例えば、検索店舗を特定する店舗IDが入力された場合、ステップS203において、保安センタ10は、通信部10bを制御して、店舗IDに対応する遊技店1に対して、調査対象となる遊技者の属性情報を配信する。   In step S202, for example, when a store ID that specifies a search store is input, in step S203, the security center 10 controls the communication unit 10b to investigate the game store 1 corresponding to the store ID. Distribute the player's attribute information.

ステップS211において、調査処理部344は、通信部344aを制御して、保安センタ10より調査対象となる遊技者の属性情報が配信されてきたか否かを判定し、配信されてくるまで、同様の処理を繰り返す。   In step S211, the investigation processing unit 344 controls the communication unit 344a to determine whether or not the attribute information of the player to be investigated has been distributed from the security center 10, and the same until the distribution is performed. Repeat the process.

ステップS211において、例えば、ステップS203の処理により、属性情報が配信されてきた場合、ステップS212において、調査処理部344は、通信部344aを制御して配信されてきた属性情報を受信させると共に、属性コード生成部344bに供給させ、属性情報に基づいて、属性コードを生成させる。   In step S211, for example, when attribute information has been distributed by the process of step S203, in step S212, the investigation processing unit 344 controls the communication unit 344a to receive the distributed attribute information and The code generation unit 344b is supplied to generate an attribute code based on the attribute information.

ステップS213において、調査処理部344は、調査遊技者検索部344cを制御して、生成された属性コードに基づいて、調査遊技者を生体情報DB22で検索させる。   In step S213, the survey processing unit 344 controls the survey player search unit 344c to search the biometric information DB 22 for the survey player based on the generated attribute code.

ステップS214において、調査処理部344は、調査遊技者検索部344cを制御して、属性コードに該当する調査遊技者が存在するか否かを判定し、存在した場合、すなわち、属性コードに該当する調査遊技者が、生体情報DB22に登録されていた場合、ステップS215において、調査遊技者検索部344cを制御して、生体情報DB22に登録されている情報を読み出させ、通信部344aを制御して調査結果として保安センタ10に送信させる。   In step S214, the survey processing unit 344 controls the survey player search unit 344c to determine whether there is a survey player corresponding to the attribute code, and if it exists, that is, it corresponds to the attribute code. If the survey player is registered in the biometric information DB 22, in step S215, the survey player search unit 344c is controlled to read the information registered in the biometric information DB 22, and the communication unit 344a is controlled. And sent to the security center 10 as the survey result.

一方、ステップS214において、属性コードに該当する調査遊技者が存在しない場合、すなわち、属性コードに該当する調査遊技者が、生体情報DB22に登録されていない場合、通信部344aを制御して該当者が存在しないことを調査結果として保安センタ10に送信させる。   On the other hand, if there is no survey player corresponding to the attribute code in step S214, that is, if the survey player corresponding to the attribute code is not registered in the biometric information DB 22, the corresponding person is controlled by controlling the communication unit 344a. Is transmitted to the security center 10 as an investigation result.

ステップS204において、保安センタ10は、通信部10bを制御して、遊技店1より調査依頼に対する調査結果を受信し、表示部10cに表示結果を表示する。すなわち、ステップS215に基づいた調査結果であった場合、送信されてきた調査遊技者の情報を表示し、ステップS216に基づいた調査結果であった場合、すなわち、該当者が存在しなかった場合、その旨を表示する。   In step S204, the security center 10 controls the communication unit 10b, receives the survey result for the survey request from the game store 1, and displays the display result on the display unit 10c. That is, if it is a survey result based on step S215, information of the survey player that has been sent is displayed, if it is a survey result based on step S216, that is, if the corresponding person does not exist, A message to that effect is displayed.

以上の処理により、属性情報に基づいて特定の遊技店1の生体情報DB22に登録されている遊技者を迅速に調査することが可能となる。また、以上においては、属性情報に基づいて属性コードを生成し、属性コードに基づいて検索を行なうので、効率よく調査遊技者を検索することが可能となる。さらに、当然のことながら、調査遊技者の検索にあたり、属性情報をそのまま検索条件として使用するようにしてもよい。   Through the above processing, it becomes possible to quickly investigate the players registered in the biological information DB 22 of a specific gaming store 1 based on the attribute information. Also, in the above, an attribute code is generated based on the attribute information and a search is performed based on the attribute code, so that it is possible to search for a survey player efficiently. Further, as a matter of course, the attribute information may be directly used as a search condition when searching for the survey player.

ところで、上述した一連の監視処理、顧客登録処理、および照会画面表示処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   Incidentally, the series of monitoring processing, customer registration processing, and inquiry screen display processing described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

図28は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。   FIG. 28 shows a configuration example of a general-purpose personal computer. This personal computer incorporates a CPU (Central Processing Unit) 1001. An input / output interface 1005 is connected to the CPU 1001 via the bus 1004. A ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.

入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。   The input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of the processing result to a display device, a program and various data. A storage unit 1008 including a hard disk drive for storing data, a LAN (Local Area Network) adapter, and the like, and a communication unit 1009 for performing communication processing via a network represented by the Internet are connected. Also, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk (including an MD (Mini Disc)), or a semiconductor A drive 1010 for reading / writing data from / to a removable medium 1011 such as a memory is connected.

CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。   The CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Various processes are executed according to the program. The RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.

尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。   In this specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series in the order described, but of course, it is not necessarily performed in time series. Or the process performed separately is included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明を適用した監視システムの一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the monitoring system to which this invention is applied. 図1のカメラの設置例を示す図である。FIG. 2 is a diagram illustrating an installation example of the camera of FIG. 図1のカメラの設置例を示す図である。FIG. 2 is a diagram illustrating an installation example of the camera of FIG. 図1のカメラの設置例を示す図である。FIG. 2 is a diagram illustrating an installation example of the camera of FIG. 図1のカメラの設置例を示す図である。FIG. 2 is a diagram illustrating an installation example of the camera of FIG. 図1のカメラの設置例を示す図である。FIG. 2 is a diagram illustrating an installation example of the camera of FIG. 図1のカメラの設置例を示す図である。FIG. 2 is a diagram illustrating an installation example of the camera of FIG. 図1の入口カメラおよび店内カメラの設置例を示す図である。FIG. 2 is a diagram showing an installation example of the entrance camera and the in-store camera of FIG. 図1の画像処理ユニットの構成例を説明する図である。FIG. 2 is a diagram illustrating a configuration example of an image processing unit in FIG. 図1の入口画像処理ユニットの構成例を説明する図である。FIG. 2 is a diagram illustrating a configuration example of an entrance image processing unit in FIG. 図1の生体情報認識装置の構成例を説明する図である。FIG. 2 is a diagram illustrating a configuration example of the biological information recognition device in FIG. 図1の生体情報管理センタおよび生体情報管理DBの構成例を説明する図である。FIG. 2 is a diagram for explaining a configuration example of a biological information management center and a biological information management DB in FIG. 図1の携帯端末の構成例を説明する図である。FIG. 2 is a diagram illustrating a configuration example of a mobile terminal in FIG. 登録遊技者来店監視処理を説明するフローチャートである。It is a flowchart explaining a registered player visit monitoring process. 身長を推定する処理を説明する図である。It is a figure explaining the process which estimates height. 身長を推定する処理を説明する図である。It is a figure explaining the process which estimates height. 身長を推定する処理を説明する図である。It is a figure explaining the process which estimates height. 身長を推定する処理を説明する図である。It is a figure explaining the process which estimates height. 属性コードを説明する図である。It is a figure explaining an attribute code. 登録遊技者DB更新処理を説明するフローチャートである。It is a flowchart explaining a registration player DB update process. 検索部および保安センタの詳細な構成例を説明する図である。It is a figure explaining the detailed structural example of a search part and a security center. 顧客登録処理を説明するフローチャートである。It is a flowchart explaining a customer registration process. グルーピング処理を説明するフローチャートである。It is a flowchart explaining a grouping process. グループ管理DBを説明する図である。It is a figure explaining group management DB. その他のグルーピング処理を説明するフローチャートである。It is a flowchart explaining the other grouping process. 照会画面表示処理を説明するフローチャートである。It is a flowchart explaining an inquiry screen display process. 登録遊技者DB調査処理を説明するフローチャートである。It is a flowchart explaining a registration player DB investigation process. 媒体を説明する図である。It is a figure explaining a medium.

符号の説明Explanation of symbols

1,1-1乃至1-n 遊技店
2 生体情報管理センタ
3 生体情報管理データベース
4 第3者遊技店管理センタ
5 第3者遊技店管理データベース
6 生体情報管理バス
7 第3者遊技店管理バス
8,9 公衆通信回線網
10 保安センタ
21 生体情報認識装置
22 生体情報データベース
24 遊技店管理装置
26 遊技台管理データベース
27 媒体貸出管理装置
29 媒体貸出管理データベース
30 遊技店管理情報バス
31 生体情報バス
33 精算機
34 貸出機
35 計数機
36,36-1乃至36-m 遊技台
37,37-1乃至37-m 遊技台周辺端末
38,38-1乃至38-m カメラ
39,39-1乃至39-(m+p) 画像処理ユニット
40,40-1乃至40-p 店内カメラ
41,41-1乃至41-q 入口画像処理ユニット
42,42-1乃至42-q 入口カメラ
222 照合部
223 未登録者データベース登録部
227 検索部
232 類似度計算部
233 類似度判定部
241 DB配信部
242 DB更新部
243 DB更新判定部
251 未登録遊技者DB
252 登録遊技者DB
333 特徴量抽出部
335 類似度計算部
336 類似度判定部
337 グループ管理DB登録部
338 グループ管理DB
1,1-1 to 1-n amusement store
2 Biometric Information Management Center
3 Biological information management database
4 Third-party amusement center management center
5 Third-party amusement store management database
6 Biological information management bus
7 Third-party amusement store management bus
8,9 Public communication network
10 Security Center
21 Biological information recognition device
22 Biological information database
24 Amusement store management equipment
26 Amusement table management database
27 Media lending management device
29 Media lending management database
30 Amusement store management information bus
31 Biological information bus
33 Checkout machine
34 Lending machine
35 counter
36,36-1 to 36-m game machines
37,37-1 to 37-m game console peripheral terminal
38,38-1 to 38-m camera
39,39-1 to 39- (m + p) Image processing unit
40,40-1 to 40-p In-store camera
41,41-1 to 41-q Entrance image processing unit
42,42-1 to 42-q Entrance camera
222 Verification unit
223 Unregistered Person Database Registration Department
227 Search part
232 Similarity calculator
233 Similarity determination unit
241 DB Distribution Department
242 DB update section
243 DB update judgment part
251 Unregistered Player DB
252 Registered Player DB
333 feature extraction unit
335 Similarity calculator
336 Similarity determination unit
337 Group Management Database Registration Department
338 Group management database

Claims (8)

遊技店の出入口における所定の範囲の画像を撮像する撮像手段と、
前記撮像手段により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出手段と、
前記撮像手段により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定手段と、
予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積手段と、
前記蓄積手段に前記属性コードに対応付けて蓄積されている登録者のうち、前記推定手段により推定された属性コードを備えた登録者を抽出する登録者抽出手段と、
前記登録者抽出手段により抽出された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定手段と、
前記照合判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段と
を含む情報処理装置。
Imaging means for capturing an image of a predetermined range at the entrance of the amusement store ;
Feature quantity extraction means for extracting the feature quantity of the face image of the person to be collated on the image captured by the imaging means;
Attribute estimation means for estimating an attribute code set by a table consisting of any one of a plurality of attribute information of the person to be collated , or a combination thereof, on the image captured by the imaging means;
Storage means for storing a face image of a registrant registered in advance in association with the attribute code ;
Among the registrants stored in association with the attribute code in the storage means, a registrant extraction means for extracting a registrant with the attribute code estimated by the estimation means;
The face image of the registrant extracted by the registrant extraction means and the face image of the person to be collated are collated based on the feature amount of the face image, and whether or not the person to be collated is the registrant. Collation determination means for determining whether or not
An information processing apparatus comprising: notification means for notifying that the verification target person is the registrant when the verification target means determines that the verification target person is the registrant.
前記複数の属性情報は、身長、年代、および性別を含む
請求項1に記載の情報処理装置。
Wherein the plurality of attribute information, height, age, and an information processing apparatus according to claim 1, including gender.
前記属性推定手段は、
前記撮像手段により撮像された画像上における、照合対象者の所定の大きさの顔画像の位置を取得する位置取得手段を含み、
前記位置取得手段により取得された前記画像上における、前記照合対象者の所定の大きさの顔画像の位置に基づいて、前記顔画像の人物の前記身長を推定する
請求項2に記載の情報処理装置。
The attribute estimating means includes
Position acquisition means for acquiring the position of a face image of a predetermined size of the person to be collated on the image imaged by the imaging means;
The information processing according to claim 2, wherein the height of the person of the face image is estimated based on a position of the face image of a predetermined size of the person to be collated on the image acquired by the position acquisition unit. apparatus.
前記属性推定手段は、
前記特徴量抽出手段により抽出された特徴量に基づいて、前記年代を推定する
請求項2に記載の情報処理装置。
The attribute estimating means includes
The information processing apparatus according to claim 2, wherein the age is estimated based on the feature amount extracted by the feature amount extraction unit.
前記属性推定手段は、
前記特徴量抽出手段により抽出された特徴量に基づいて、前記性別を推定する
請求項2に記載の情報処理装置。
The attribute estimating means includes
The information processing apparatus according to claim 2, wherein the sex is estimated based on the feature amount extracted by the feature amount extraction unit.
前記蓄積手段に蓄積された顔画像より所定の検索条件を満たす顔画像を取得する取得手段と、
前記取得手段により取得された顔画像のうち、基準顔画像および非基準顔画像を抽出する顔画像抽出手段と、
前記基準顔画像の特徴量を抽出する基準顔画像特徴量抽出手段と、
前記非基準顔画像の属性コードを推定する非基準顔画像属性推定手段と、
前記非基準顔画像のうち、前記非基準顔画像属性推定手段により推定された属性コードを備えた非基準顔画像のみを抽出する該当属性非基準顔画像抽出手段と、
前記該当属性非基準顔画像抽出手段により抽出された非基準顔画像と、前記基準顔画像とを、前記顔画像の特徴量に基づいて照合し、前記非基準顔画像が前記基準顔画像に類似しているか否かを判定する類似度判定手段と、
前記類似度判定手段により前記非基準顔画像が前記基準顔画像に類似していると判定された場合、前記非基準顔画像を前記基準顔画像のグループとして登録するグループ登録手段とをさらに含む
請求項1に記載の情報処理装置。
Acquisition means for acquiring a face image satisfying a predetermined search condition from the face images stored in the storage means;
A face image extracting means for extracting a reference face image and a non-reference face image among the face images acquired by the acquiring means;
Reference face image feature amount extraction means for extracting feature amounts of the reference face image ;
Non -reference face image attribute estimation means for estimating an attribute code of the non-reference face image ;
Among the non-reference face images, corresponding attribute non-reference face image extraction means for extracting only the non-reference face image having the attribute code estimated by the non-reference face image attribute estimation means;
The non-reference face image extracted by the corresponding attribute non-reference face image extraction means and the reference face image are collated based on the feature amount of the face image, and the non-reference face image is similar to the reference face image. Similarity determination means for determining whether or not
And a group registration unit for registering the non-reference face image as a group of the reference face images when the similarity determination unit determines that the non-reference face image is similar to the reference face image. Item 4. The information processing apparatus according to Item 1.
遊技店の出入口における所定の範囲の画像を撮像する撮像ステップと、
前記撮像ステップの処理により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出ステップと、
前記撮像ステップの処理により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定ステップと、
予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積ステップと、
前記蓄積ステップの処理で前記属性コードに対応付けて蓄積されている登録者のうち、前記推定ステップの処理により推定された属性コードを備えた登録者を抽出する登録者抽出ステップと、
前記登録者抽出ステップの処理により抽出された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定ステップと、
前記照合判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップと
を含む情報処理方法。
An imaging step of capturing an image of a predetermined range at the entrance of the amusement store ;
A feature amount extraction step for extracting a feature amount of the face image of the person to be collated on the image captured by the processing of the imaging step;
An attribute estimation step for estimating an attribute code set by a table consisting of any one of a plurality of attribute information of the verification target person or a combination thereof on the image captured by the processing of the imaging step;
An accumulation step of accumulating a face image of a registrant registered in advance in association with the attribute code ;
A registrant extraction step of extracting a registrant having an attribute code estimated by the process of the estimation step among registrants stored in association with the attribute code in the process of the accumulation step;
The face image of the registrant extracted by the processing of the registrant extraction step and the face image of the person to be collated are collated based on the feature amount of the face image, and the person to be collated is the registrant. A collation determination step for determining whether or not,
An information processing method comprising: a notification step of notifying that the verification target person is the registrant when the verification target person is determined to be the registrant by the process of the verification determination step.
遊技店の出入口における所定の範囲の画像を撮像する撮像ステップと、
前記撮像ステップの処理により撮像された画像上における、照合対象者の顔画像の特徴量を抽出する特徴量抽出ステップと、
前記撮像ステップの処理により撮像された前記画像上における、前記照合対象者の、複数の属性情報のいずれか、または、それらの組み合わせからなるテーブルにより設定される属性コードを推定する属性推定ステップと、
予め登録された登録者の顔画像を前記属性コードに対応付けて蓄積する蓄積ステップと、
前記蓄積ステップの処理で前記属性コードに対応付けて蓄積されている登録者のうち、前記推定ステップの処理により推定された属性コードを備えた登録者を抽出する登録者抽出ステップと、
前記登録者抽出ステップの処理により抽出された登録者の顔画像と、前記照合対象者の顔画像とを、前記顔画像の特徴量に基づいて照合し、前記照合対象者が前記登録者であるか否かを判定する照合判定ステップと、
前記照合判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップと
を含む処理をコンピュータに実行させるプログラム。
An imaging step of capturing an image of a predetermined range at the entrance of the amusement store ;
A feature amount extraction step for extracting a feature amount of the face image of the person to be collated on the image captured by the processing of the imaging step;
An attribute estimation step for estimating an attribute code set by a table consisting of any one of a plurality of attribute information of the verification target person or a combination thereof on the image captured by the processing of the imaging step;
An accumulation step of accumulating a face image of a registrant registered in advance in association with the attribute code ;
A registrant extraction step of extracting a registrant having an attribute code estimated by the process of the estimation step among registrants stored in association with the attribute code in the process of the accumulation step;
The face image of the registrant extracted by the processing of the registrant extraction step and the face image of the person to be collated are collated based on the feature amount of the face image, and the person to be collated is the registrant. A collation determination step for determining whether or not,
A program for causing a computer to execute a process including a notification step of notifying that the person to be collated is the registrant when the person to be collated is determined to be the registrant by the process of the collation determining step.
JP2006304097A 2006-11-09 2006-11-09 Information processing apparatus and method, and program Expired - Fee Related JP5013172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006304097A JP5013172B2 (en) 2006-11-09 2006-11-09 Information processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006304097A JP5013172B2 (en) 2006-11-09 2006-11-09 Information processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2008123100A JP2008123100A (en) 2008-05-29
JP5013172B2 true JP5013172B2 (en) 2012-08-29

Family

ID=39507815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006304097A Expired - Fee Related JP5013172B2 (en) 2006-11-09 2006-11-09 Information processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5013172B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5292982B2 (en) * 2008-08-07 2013-09-18 オムロン株式会社 Human body detection device and method, monitoring device and method, and program
JP2011150497A (en) * 2010-01-21 2011-08-04 Mitsubishi Electric Corp Person identification device, person identification method, and software program thereof
JP5869805B2 (en) * 2011-08-25 2016-02-24 キヤノン株式会社 Information processing apparatus, imaging apparatus, control method therefor, program, and storage medium
JP6336709B2 (en) * 2013-03-29 2018-06-06 綜合警備保障株式会社 Security device, security method and program
JP2018110023A (en) * 2018-03-02 2018-07-12 株式会社東芝 Target detection method
JP2020008929A (en) * 2018-07-03 2020-01-16 富士ゼロックス株式会社 Height calculation system, information processing apparatus, and program
WO2023181110A1 (en) * 2022-03-22 2023-09-28 日本電気株式会社 Information processing device, information processing method, and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090264A (en) * 1998-09-11 2000-03-31 Omron Corp Method and device for collating living body
JP2001056859A (en) * 1999-08-19 2001-02-27 Toshiba Corp Face image recognition device and passage controller
JP3809823B2 (en) * 2003-02-24 2006-08-16 日本電気株式会社 Person information management system and person information management apparatus
JP2005165447A (en) * 2003-11-28 2005-06-23 Toshiba Corp Age/sex discrimination device, age/sex discrimination method and person recognition device
JP2006202049A (en) * 2005-01-20 2006-08-03 Omron Corp Face recognition apparatus

Also Published As

Publication number Publication date
JP2008123100A (en) 2008-05-29

Similar Documents

Publication Publication Date Title
JP4941124B2 (en) Monitoring system and method, information processing apparatus, and program
JP5824806B2 (en) Facial image management device, facial image management method, and program
JP5013172B2 (en) Information processing apparatus and method, and program
JP5617627B2 (en) Monitoring device and method, and program
JP2007272604A (en) Information processor and information processing method, and program
JP4924883B2 (en) Monitoring device and method, and program
JP2007328590A (en) Information processor, information processing method, monitoring system and program
JP2009000367A (en) Monitor, method and program
JP5409027B2 (en) Game medium saving system and game medium saving method
JP4919057B2 (en) Monitoring device and method, and program
JP5560976B2 (en) Information processing apparatus and method, and program
JP2008036352A (en) Cigarette smoke separation apparatus, method and program
JP2008040829A (en) Device and method for processing information, information processing system, and program
JP2008085584A (en) Monitoring device and method, monitoring system, and program
JP5577729B2 (en) Monitoring device and method, and program
JP2012014568A (en) Monitoring apparatus and method, and program
JP4877005B2 (en) Monitoring device and method, and program
JP4760717B2 (en) Monitoring device and method, and program
JP2007293741A (en) Monitoring device and method, registrant collation device, attribute estimation device and method, and program
JP5338178B2 (en) Monitoring device and method, and program
JP4821428B2 (en) Monitoring device and method, and program
JP4807267B2 (en) Monitoring device and method, and program
JP4807291B2 (en) Monitoring device and method, monitoring system, and program
JP5338173B2 (en) Monitoring device and method, and program
JP5168564B2 (en) Monitoring device and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120510

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees