JP2007293741A - Monitoring device and method, registrant collation device, attribute estimation device and method, and program - Google Patents

Monitoring device and method, registrant collation device, attribute estimation device and method, and program Download PDF

Info

Publication number
JP2007293741A
JP2007293741A JP2006122972A JP2006122972A JP2007293741A JP 2007293741 A JP2007293741 A JP 2007293741A JP 2006122972 A JP2006122972 A JP 2006122972A JP 2006122972 A JP2006122972 A JP 2006122972A JP 2007293741 A JP2007293741 A JP 2007293741A
Authority
JP
Japan
Prior art keywords
person
image
face image
collated
predetermined area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006122972A
Other languages
Japanese (ja)
Inventor
Ryosuke Kono
良輔 河野
Masataka Kimura
雅孝 木村
Shingo Kawamoto
真吾 川本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2006122972A priority Critical patent/JP2007293741A/en
Publication of JP2007293741A publication Critical patent/JP2007293741A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a processing load, and to improve a processing speed. <P>SOLUTION: In this monitor, an image acquisition part 201 acquires an image imaged by an entrance camera 43, and supplies it to a face detection frame setting part 231. The face detection frame setting part 231 adjusts the image so that only an area including the face image of a player remains passing through an entrance registered in entrance passenger position information supplied from a position recognition server 42, and is supplied to a face image extraction part 202. A face detection part 211 of the face image extraction part 202 detects a portion wherein the face image exists from the images supplied from the face detection frame setting part 231, and supplies a detection result thereof to a face image cutout part 212. The face image cutout part 212 extracts the rectangular face image from the portion wherein the face image exists, and supplies it to a transmission part 203. The face image cutout part 212 extracts the rectangular face image from the portion wherein the face image exists, and supplies it to the transmission part 203. The transmission part 203 transmits the cut-out face image to a bioinformation recognition device 21. The monitor can be applied to a monitoring system. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、監視装置および監視方法、登録者照合装置、属性推定装置および方法、並びにプログラムに関し、特に、顔照合処理の負荷を低減させ、顔照合処理の処理速度を向上できるようにした監視装置および方法、登録者照合装置、属性推定装置および方法、並びにプログラムに関する。   The present invention relates to a monitoring device and a monitoring method, a registrant verification device, an attribute estimation device and method, and a program, and more particularly, a monitoring device that can reduce the load of face matching processing and improve the processing speed of face matching processing. And a method, a registrant verification device, an attribute estimation device and method, and a program.

現在、多くの店舗や公共施設では係員が目視にて来店客または来場者の情報を収集している。   Currently, in many stores and public facilities, staff members collect information on customers or visitors by visual inspection.

しかしながら、以上のような手法では、人手がかかる上、正確な情報を入手するのが困難であった。そこで、入口付近に設置されたカメラにて照合対象者を撮像し、顔画像を抽出して顔画像により、登録者の顔画像と、照合対象者の顔画像を照合するものが提案されている(特許文献1参照)。より詳細には、店内に設置されたカメラが、入口から入ってくる、もしくは出口から出て行く照合対象者の顔画像を撮像し、撮像された顔画像と、予め登録された顔画像とを比較照合することにより、照合対象者が登録者本人であるか否かを判定するものである。   However, the above-described method is labor intensive and it is difficult to obtain accurate information. Therefore, there has been proposed a method in which a person to be collated is captured by a camera installed near the entrance, a face image is extracted, and the face image of the registrant and the face image of the person to be collated are collated with the face image. (See Patent Document 1). More specifically, a camera installed in the store captures the face image of the person to be collated entering from the entrance or exiting from the exit, and the captured face image and a pre-registered face image are displayed. By comparing and collating, it is determined whether or not the person to be collated is the registrant.

特開2002−279540号公報JP 2002-279540 A

ところで、上記の手法では、入口から入ってくる照合対象者の顔向きがカメラの撮像方向に対して斜め、または下向きであるなどすることにより、照合に不向きな状態で撮像されることがあり、照合対象画像をより多く取得することで、照合精度を向上させる必要があった。すなわち、広い領域を撮像領域とすることで照合対象者の顔画像をより多く取得する必要があった。   By the way, in the above method, the face of the person to be collated entering from the entrance may be imaged in a state unsuitable for collation, for example, by being oblique or downward with respect to the imaging direction of the camera. It was necessary to improve collation accuracy by acquiring more collation target images. That is, it is necessary to acquire more face images of the person to be collated by setting a wide area as an imaging area.

しかしながら、撮像領域を広げた場合、照合対象者の有無にかかわらず撮像領域内に存在する照合する必要の無い人物、すなわち、例えば、徘徊者(照合済み照合対象者)、または店員等の照合を必要としない人物の顔画像をも照合処理することになる。この結果、顔画像の照合処理に必要以上の負荷がかかることがあった。また、顔画像を用いて照合対象者の年齢または性別に基づいて、照合対象者の入場者数などを集計する、いわゆる属性推定処理を行う場合、照合済み照合対象者を新規の照合対象者と誤認識してしまうため正確な入場者数をカウントすることができないことがあった。   However, when the imaging area is widened, a person who does not need to be collated in the imaging area regardless of the presence or absence of the person to be collated, that is, for example, collation of a deaf person (verified collation target person) or a clerk A face image of a person who is not required is also collated. As a result, a load more than necessary may be applied to the face image matching process. In addition, when performing so-called attribute estimation processing that uses face images to count the number of visitors of the verification target person based on the age or sex of the verification target person, the verified verification target person is regarded as a new verification target person. In some cases, the number of visitors could not be counted correctly due to misrecognition.

本発明はこのような状況に鑑みてなされたものであり、不必要な顔画像の照合処理を排除して顔照合処理の負荷を低減させるとともに、顔照合処理の処理速度を向上させるようにするものである。   The present invention has been made in view of such circumstances, and eliminates unnecessary face image matching processing to reduce the load of face matching processing and improve the processing speed of face matching processing. Is.

本発明の第1の側面の監視装置は、予め登録された登録者の顔画像を蓄積する蓄積手段と、画像を取得する画像取得手段と、前記画像における照合対象者の位置を取得する位置取得手段と、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段と、前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段と、前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との類似度を計算し、照合する照合手段と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定手段と、前記類似度判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段とを含む。   The monitoring device according to the first aspect of the present invention includes an accumulating unit that accumulates a pre-registered registrant's face image, an image obtaining unit that obtains an image, and a position acquisition that obtains the position of the person to be verified in the image. And the person to be collated acquired by the position acquisition means pass through a predetermined area, or pass through the predetermined area continuously after passing through the predetermined area. If the determination unit determines whether or not the verification target person is a person who has passed through the predetermined area based on the determination result of the determination unit, An image adjusting unit that adjusts an image so that only the determined person to be collated remains, and a face image of the person to be collated determined as the person who has passed through the predetermined area is extracted from the image adjusted by the image adjusting unit. An image extraction unit; a collation unit that calculates and collates the similarity between the face image of the person to be collated extracted by the face image extraction unit and the face image of the registrant accumulated in the accumulation unit; and the collation A similarity determination unit that determines whether or not the face image of the person to be verified is a face image of a registrant by comparing the similarity that is a comparison result of the unit with a predetermined threshold value, and the similarity determination unit Notification means for notifying that the verification target person is the registrant when it is determined that the verification target person is the registrant.

前記所定領域通過者として判定された前記照合対象者の顔画像より特徴量を抽出する特徴量抽出手段とをさらに含ませるようにさせることができ、前記照合手段には、前記顔画像抽出手段により抽出される、前記所定領域通過者として判定された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との特徴量を用いて類似度を計算させ、前記取得手段により取得された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像とを照合させるようにすることができる。   It is possible to further include a feature amount extraction unit that extracts a feature amount from the face image of the person to be collated determined as the person who has passed the predetermined region, and the collation unit includes the face image extraction unit. The degree of similarity is calculated using the extracted feature amount of the face image of the person to be collated determined as a person who passes the predetermined area and the face image of the registrant stored in the storage unit, and the acquisition unit The acquired face image of the person to be collated can be collated with the face image of the registrant stored in the storage means.

前記位置取得手段には、ステレオ画像センサにより前記画像における照合対象者の位置を取得させるようにすることができる。   The position acquisition means can acquire the position of the person to be verified in the image by a stereo image sensor.

前記位置取得手段により取得された前記画像における照合対象者の位置に基づいて、人物位置情報を生成する人物位置情報生成手段をさらに含ませるようにすることができ、前記判定手段には、前記人物位置情報に基づいて、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定させるようにすることができる。   A person position information generating means for generating person position information based on the position of the person to be collated in the image acquired by the position acquiring means can be further included. Based on the position information, the person to be collated acquired by the position acquisition means passes through a predetermined area, or after passing through the predetermined area, the predetermined person that is continuously present in the image as it is It can be determined whether or not the person has passed through the area.

前記類似度判定手段により前記照合対象者が前記登録者ではないと判定された場合、前記照合対象者の顔画像を未登録者として登録する未登録者登録手段とをさらに含ませるようにすることができる。   When the similarity determination unit determines that the collation target person is not the registrant, it further includes an unregistered person registration unit that registers the face image of the collation target person as an unregistered person. Can do.

前記蓄積手段には、予め登録された登録者の顔画像をデータベースとして蓄積させるようにすることができ、前記データベースには、前記未登録者登録手段により所定回数以上登録された未登録者の顔画像が、前記登録者の顔画像として登録されるようにすることができる。   The accumulating means can accumulate a face image of a registrant registered in advance as a database. The face of an unregistered person registered more than a predetermined number of times by the unregistered person registering means is stored in the database. An image can be registered as the face image of the registrant.

本発明の第1の側面の監視方法は、画像を取得する画像取得ステップと、前記画像における照合対象者の位置を取得する位置取得ステップと、前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップと、前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップと、前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップと、前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像と、蓄積された登録者の顔画像との類似度を計算し、照合する照合ステップと、前記照合ステップの処理での照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定ステップと、前記類似度判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップとを含む。   The monitoring method according to the first aspect of the present invention includes an image acquisition step for acquiring an image, a position acquisition step for acquiring a position of a verification target person in the image, and the verification target acquired by the processing of the position acquisition step. A determination step of determining whether or not a person is passing a predetermined area or is a person who has passed through the predetermined area and continuously exists in the image as it is, and the determination If it is determined that the person to be verified is a person who has passed the predetermined area based on the determination result in the processing of the step, only the person to be verified that is determined to be a person who has passed the predetermined area in the image is left. An image adjustment step for adjusting the image to the face, and a face for extracting the face image of the person to be collated determined as a person who has passed the predetermined region from the image adjusted by the processing of the image adjustment step An image extraction step, a collation step of calculating and collating the similarity between the face image of the person to be collated extracted by the processing of the face image extraction step and the accumulated face image of the registrant, and A similarity determination step for determining whether or not the face image of the person to be collated is a face image of the registrant by comparing the similarity that is the collation result in the process with a predetermined threshold, and the similarity determination step A notification step of notifying that the verification target person is the registrant when it is determined that the verification target person is the registrant.

本発明の第1の側面のプログラムは、画像を取得する画像取得ステップと、前記画像における照合対象者の位置を取得する位置取得ステップと、前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップと、前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップと、前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップと、前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像と、蓄積された登録者の顔画像との類似度を計算し、照合する照合ステップと、前記照合ステップの処理での照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定ステップと、前記類似度判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップとを含む処理をコンピュータに実行させる。   The program according to the first aspect of the present invention includes an image acquisition step of acquiring an image, a position acquisition step of acquiring a position of a verification target person in the image, and the verification target person acquired by the processing of the position acquisition step. A determination step for determining whether or not a user passes through a predetermined region, or after passing through the predetermined region, a user who has passed through the predetermined region continuously in the image, and the determination step When it is determined that the person to be collated is a person who has passed the predetermined area based on the result of the determination in the above process, only the person to be collated that has been determined to be a person who has passed the predetermined area in the image is left. An image adjustment step for adjusting an image, and a face image of the person to be collated determined as a person who has passed the predetermined region is extracted from the image adjusted by the processing of the image adjustment step. An image extraction step; a collation step for calculating and collating the similarity between the face image of the person to be collated extracted by the processing of the face image extraction step and the accumulated face image of the registrant; A similarity determination step for determining whether or not the face image of the person to be collated is a face image of the registrant by comparing the similarity that is the collation result in the process with a predetermined threshold, and the similarity determination step When it is determined that the person to be collated is the registrant by the process, the computer is caused to execute a process including a notification step of notifying that the person to be collated is the registrant.

本発明の第2の側面の登録者照合装置は、予め登録された登録者の顔画像を蓄積する蓄積手段と、画像を取得する画像取得手段と、前記画像における照合対象者の位置を取得する位置取得手段と、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段と、前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段と、前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との類似度を計算し、照合する照合手段と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定手段と、前記類似度判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段とを含む。   The registrant verification device according to the second aspect of the present invention acquires an accumulating means for accumulating a pre-registered registrant's face image, an image acquiring means for acquiring an image, and a position of a verification target person in the image. The predetermined area that is present in the image as it is after the position acquisition means and the person to be acquired acquired by the position acquisition means pass through the predetermined area or after passing through the predetermined area When it is determined that the person to be verified is a person who has passed the predetermined area based on a determination unit that determines whether or not the person is a passer, and a determination result of the determination unit, An image adjustment unit that adjusts an image so as to leave only the person to be collated determined to be present, and a face image of the person to be collated determined as a person who has passed through the predetermined region from an image adjusted by the image adjustment unit Extraction A face image extracting means, a matching means for calculating and comparing the similarity between the face image of the person to be collated extracted by the face image extracting means and the face image of the registrant accumulated in the accumulating means, Similarity determination means for determining whether or not the face image of the person to be collated is a face image of the registrant by comparing the similarity as the collation result of the collation means with a predetermined threshold, and the similarity determination And means for notifying that the verification target person is the registrant when the verification target person is determined to be the registrant.

本発明の第3の側面の属性推定装置は、画像を取得する画像取得手段と、前記画像における照合対象者の位置を取得する位置取得手段と、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段と、前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段と、前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定手段とを含む。   The attribute estimation apparatus according to the third aspect of the present invention includes an image acquisition unit that acquires an image, a position acquisition unit that acquires a position of a verification target person in the image, and the verification target person acquired by the position acquisition unit. Determining means for determining whether or not a person has passed through a predetermined area, or has passed through the predetermined area, and is a person who has passed through the predetermined area continuously in the image, and If it is determined that the person to be collated is a person who has passed the predetermined area, the image is adjusted so that only the person to be collated determined to be a person who has passed the predetermined area is left among the images. An image adjusting means for extracting, a face image extracting means for extracting a face image of the person to be collated determined as a person who has passed through the predetermined area from an image adjusted by the image adjusting means, and extraction by the face image extracting means Based on the collation object's face image, including an estimation unit that estimates the attributes of the collation object person.

前記所定領域通過者として判定された前記照合対象者の顔画像より特徴量を抽出する特徴量抽出手段とをさらに含ませるようにすることができ、前記属性推定手段には、前記顔画像抽出手段により抽出される、前記所定領域通過者として判定された照合対象者の顔画像の特徴量を用いて、前記取得手段により取得された照合対象者の属性を推定させるようにすることができる。   It is possible to further include a feature amount extraction unit that extracts a feature amount from the face image of the person to be collated determined as the person who has passed the predetermined region, and the attribute estimation unit includes the face image extraction unit. The attribute of the collation target person acquired by the acquisition unit can be estimated using the feature amount of the face image of the collation target person determined as the person who passed the predetermined area.

前記属性推定手段には、前記照合対象者の属性として性別、または、年齢を推定させるようにすることができる。   The attribute estimation means can estimate gender or age as the attribute of the person to be collated.

本発明の第3の側面の属性推定方法は、画像を取得する画像取得ステップと、前記画像における照合対象者の位置を取得する位置取得ステップと、前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップと、前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップと、前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップと、前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定ステップとを含む。   The attribute estimation method according to the third aspect of the present invention includes an image acquisition step of acquiring an image, a position acquisition step of acquiring a position of a person to be verified in the image, and the verification acquired by the processing of the position acquisition step. A determination step of determining whether the target person is passing through a predetermined area, or after passing through the predetermined area, whether or not the person is a predetermined area passing person continuously present in the image; When it is determined that the person to be verified is a person who has passed the predetermined area based on the determination result in the process of the determination step, only the person to be verified who has been determined to be a person who has passed the predetermined area in the image is left. An image adjustment step for adjusting the image as described above, and extracting the face image of the person to be collated determined as a person who has passed the predetermined region from the image adjusted by the processing of the image adjustment step A face image extraction step, on the basis of the collation object person of the face image extracted by the processing of the facial image extraction step includes an estimation step of estimating an attribute of the collation object person.

本発明の第3の側面のプログラムは、画像を取得する画像取得ステップと、前記画像における照合対象者の位置を取得する位置取得ステップと、前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップと、前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップと、前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップと、前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定ステップとを含む処理をコンピュータに実行させる。   The program according to the third aspect of the present invention includes an image acquisition step of acquiring an image, a position acquisition step of acquiring a position of the verification target person in the image, and the verification target person acquired by the processing of the position acquisition step. A determination step for determining whether or not a user passes through a predetermined region, or after passing through the predetermined region, a user who has passed through the predetermined region continuously in the image, and the determination step When it is determined that the person to be collated is a person who has passed the predetermined area based on the result of the determination in the above process, only the person to be collated that has been determined to be a person who has passed the predetermined area in the image is left. An image adjustment step for adjusting an image, and a face image of the person to be collated determined as a person who has passed the predetermined region is extracted from the image adjusted by the processing of the image adjustment step. An image extraction step, the face image extraction based on the step of the collation object's face image extracted by the processing to execute the processing including an estimation step of estimating an attribute of the collation object person to the computer.

本発明の第1の側面の監視装置および方法、並びにプログラムにおいては、予め登録された登録者の顔画像が蓄積され、画像が取得され、前記画像における照合対象者の位置が取得され、取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かが判定され、判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみが残されるように画像が調整され、調整された画像より前記所定領域通過者として判定された照合対象者の顔画像が抽出され、抽出された照合対象者の顔画像と、蓄積された登録者の顔画像との類似度が計算されて、照合され、照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かが判定され、前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることが通知される。   In the monitoring apparatus, method, and program according to the first aspect of the present invention, pre-registered registrant face images are accumulated, images are acquired, and the position of the person to be verified in the images is acquired and acquired. In addition, it is determined whether or not the person to be collated has passed through a predetermined area, or is a person who has passed through the predetermined area and continuously passes through the predetermined area as it is in the image. As a result, when it is determined that the person to be collated is a person who has passed the predetermined area, the image is adjusted so that only the person to be collated determined to be a person who has passed the predetermined area is left among the images. Then, the face image of the person to be collated determined as a person who has passed through the predetermined area is extracted from the adjusted image, and the similarity between the extracted face image of the person to be collated and the accumulated face image of the registrant is calculated. Being Then, it is determined whether or not the collation target person's face image is a registrant's face image by comparing the similarity as a collation result with a predetermined threshold, and the collation target person is the registrant. If determined, it is notified that the person to be collated is the registrant.

本発明の第2の側面の登録者照合装置においては、予め登録された登録者の顔画像が蓄積され、画像が取得され、前記画像における照合対象者の位置が取得され、取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かが判定され、判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみが残されるように画像が調整され、調整された画像より前記所定領域通過者として判定された照合対象者の顔画像が抽出され、抽出された照合対象者の顔画像と、蓄積された登録者の顔画像との類似度が計算されて、照合され、照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かが判定され、前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることが通知される。   In the registrant verification device according to the second aspect of the present invention, pre-registered registrant face images are accumulated, an image is acquired, the position of the verification target person in the image is acquired, and the acquired verification It is determined whether or not the target person is passing through a predetermined area, or after passing through the predetermined area, is a person who has passed through the predetermined area continuously in the image. When it is determined that the verification target person is a person who has passed the predetermined area, the image is adjusted and adjusted so that only the verification target person who is determined to be the predetermined area passer is left among the images. The face image of the person to be collated determined as a person who passed the predetermined area is extracted from the obtained image, and the similarity between the extracted face image of the person to be collated and the registered registrant face image is calculated, Matched and is the matching result By comparing the similarity with a predetermined threshold value, it is determined whether or not the face image of the person to be collated is a face image of the registrant, and when it is determined that the person to be collated is the registrant, It is notified that the person to be verified is the registrant.

本発明の第3の側面の属性推定装置および方法、並びにプログラムにおいては、画像が取得され、前記画像における照合対象者の位置が取得され、取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かが判定され、判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像が調整され、調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像が抽出され、抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性が推定される。   In the attribute estimation apparatus, method, and program according to the third aspect of the present invention, an image is acquired, the position of the person to be verified in the image is acquired, and the acquired person to be verified passes through a predetermined region. Or after passing through the predetermined area, it is determined whether or not the person who has passed through the predetermined area is continuously present in the image. When it is determined that the person is a person who has passed the predetermined area, the image is adjusted so that only the person to be verified who has been determined to be a person who has passed the predetermined area is left. The face image of the person to be collated is extracted, and the attribute of the person to be collated is estimated based on the extracted face image of the person to be collated.

本発明の第1の側面の監視装置、および、第2の側面の登録者照合装置における、予め登録された登録者の顔画像を前記登録者データベースとして蓄積する蓄積手段とは、例えば、登録遊技者データベースであり、画像を取得する画像取得手段とは、例えば、入口カメラであり、前記画像における照合対象者の位置を取得する位置取得手段とは、例えば、入口ステレオ画像センサであり、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段とは、例えば、入口通過者位置情報生成部であり、前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段とは、例えば、顔検出フレーム設定部であり、前記画像調整手段により調整された画像より前記所定領域通過者として判定された照合対象者の顔画像を取得する顔画像抽出手段とは、例えば、顔画像抽出部であり、前記顔画像抽出手段により抽出された照合対象者の顔画像と、前記蓄積手段に前記登録者データベースとして蓄積された登録者の顔画像との類似度を計算し、照合する照合手段とは、例えば、照合部であり、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定手段とは、例えば、類似度判定部であり、前記類似度判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段とは、通信部である。   In the monitoring device according to the first aspect of the present invention and the registrant verification device according to the second aspect, the storage means for storing the face image of the registrant registered in advance as the registrant database is, for example, a registration game The image acquisition means for acquiring an image is, for example, an entrance camera, and the position acquisition means for acquiring the position of the person to be verified in the image is, for example, an entrance stereo image sensor, and the position Whether or not the person to be collated acquired by the acquisition means passes through a predetermined area, or is a person who has passed through the predetermined area continuously after passing through the predetermined area For example, the determination means for determining whether the person to be collated is a person who has passed the predetermined area is determined by the determination result of the determination means. The image adjustment means for adjusting the image so that only the person to be collated determined to be a person who has passed the predetermined area in the image is, for example, a face detection frame setting unit, and the image adjustment means The face image extraction unit that acquires the face image of the person to be collated determined as the person who has passed the predetermined region from the adjusted image is, for example, a face image extraction unit, and the collation target extracted by the face image extraction unit The collating means for calculating and collating the similarity between the person's face image and the registrant's face image stored as the registrant database in the accumulating means is, for example, a collating unit, and collating by the collating means The similarity determination means for determining whether or not the face image of the person to be collated is a face image of the registrant by comparing the similarity as a result with a predetermined threshold is, for example, a similarity determination unit , Similar to the above If the collation object person is determined to be the registered person by the determination means, and notification means for notifying that the collation object person is the registrant is a communication unit.

すなわち、入口カメラで撮像された照合対象者の顔画像のうち、入口ステレオ画像センサにより取得される照合対象者の位置情報に基づいて、入口通過者位置情報生成部により生成される入口通過者位置情報に含まれる照合対象者のみを画像に残した状態で、照合対象者の顔画像を抽出し、類似度判定部が、入口通過者位置情報に含まれる照合対象者の顔画像のみを、登録遊技者データベースとして蓄積された登録者の顔画像との類似度が所定の閾値との比較により、同一人物であるか否かを判定し、前記照合対象者が前記登録者であると判定した場合、通信部は、前記照合対象者が前記登録者であることを通知する。   That is, the entrance passer position information generated by the entrance passer position information generation unit based on the position information of the check target person acquired by the entrance stereo image sensor among the face images of the check target person captured by the entrance camera The face image of the person to be collated is extracted in a state where only the person to be collated included in the information is left in the image, and the similarity determination unit registers only the face image of the person to be collated included in the passer position information. A case where it is determined whether the similarity with the face image of the registrant stored as the player database is the same person by comparing with a predetermined threshold, and it is determined that the person to be collated is the registrant The communication unit notifies that the verification target person is the registrant.

また、本発明の第3の側面の属性推定装置における、画像を取得する画像取得手段とは、例えば、入口カメラであり、前記画像における照合対象者の位置を取得する位置取得手段とは、例えば、入口ステレオ画像センサであり、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段とは、例えば、入口通過者位置情報生成部であり、前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段とは、例えば、顔検出フレーム設定部であり、前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段とは、例えば、顔画像抽出部であり、前記顔画像抽出手段により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定手段とは、例えば、属性推定部である。   In the attribute estimation apparatus according to the third aspect of the present invention, the image acquisition means for acquiring an image is, for example, an entrance camera, and the position acquisition means for acquiring the position of the person to be verified in the image is, for example, The entrance stereo image sensor, and the person to be collated acquired by the position acquisition means passes through a predetermined area or continuously exists in the image as it passes through the predetermined area. The determination means for determining whether or not a predetermined area passing person is, for example, an entrance passer position information generation unit, and the verification target person is the predetermined area passing person based on a determination result of the determination means. The image adjustment means for adjusting the image so as to leave only the person to be collated determined to be a person who has passed through the predetermined area in the image, for example, a face detection frame setting unit The face image extracting means for extracting the face image of the person to be collated determined as a person who has passed through the predetermined area from the image adjusted by the image adjusting means is, for example, a face image extracting unit, and the face image Based on the face image of the person to be collated extracted by the extracting means, the estimating means for estimating the attribute of the person to be collated is, for example, an attribute estimation unit.

すなわち、入口カメラで撮像された照合対象者の顔画像のうち、入口ステレオ画像センサにより取得される照合対象者の位置情報に基づいて、入口通過者位置情報生成部により生成される入口通過者位置情報に含まれる照合対象者のみを画像に残した状態で、照合対象者の顔画像を抽出し、属性推定部が、顔画像に基づいて、性別や年齢といった照合対象者の属性を推定する。   That is, the entrance passer position information generated by the entrance passer position information generation unit based on the position information of the check target person acquired by the entrance stereo image sensor among the face images of the check target person captured by the entrance camera The face image of the person to be collated is extracted while only the person to be collated included in the information is left in the image, and the attribute estimation unit estimates the attributes of the person to be collated such as gender and age based on the face image.

いずれにおいても結果として、入口を通過してきた人物であるか、または、入口を通過してからそのまま画像内に存在する入口通過者として認識された照合対象者の顔画像のみが登録者と比較される、または、属性が推定されることになるので、入口通過者ではない、例えば、既に照合済みの人物の顔画像を照合対象者として認識せず、顔画像の照合を行わないようにすることで、顔画像の照合処理や属性推定処理に掛かる負荷を低減させる事が可能となると供に、不要な処理がなくなることにより顔画像の照合にかかる処理速度を向上させることが可能となる。   As a result, only the face image of the person to be verified who has passed through the entrance or has been recognized as an entrance passer in the image after passing through the entrance is compared with the registrant. Or the attribute is estimated, so that the face image of a person who is not an entrance passer, for example, a person who has already been verified, is not recognized as a person to be verified, and the face image is not verified. As a result, it is possible to reduce the load on the face image collation process and the attribute estimation process, and it is possible to improve the processing speed for face image collation by eliminating unnecessary processes.

本発明によれば、顔画像を用いた処理に掛かる負荷を低減させる事が可能となると供に、顔画像の照合にかかる処理速度を向上させることが可能となる。
According to the present invention, it is possible to reduce the load on processing using a face image, and to improve the processing speed for collating face images.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

すなわち、本発明の一側面の監視装置は、予め登録された登録者の顔画像を蓄積する蓄積手段(例えば、図13の生体情報DB22)と、画像を取得する画像取得手段(例えば、図10の入口カメラ43)と、前記画像における照合対象者の位置を取得する位置取得手段(例えば、図12の入口ステレオ画像センサ41)と、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段(例えば、図12の入口通過者位置情報生成部273)と、前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段(例えば、図10の顔検出フレーム設定部231)と、前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段(例えば、図10の顔画像抽出部202)と、前記顔画像抽出手段により取得された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との類似度を計算し、照合する照合手段(例えば、図13の類似度計算部322)と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定手段(例えば、図13の類似度判定部323)と、前記類似度判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段(例えば、図13の通信部304)とを含む。   In other words, the monitoring apparatus according to one aspect of the present invention includes a storage unit (for example, the biometric information DB 22 in FIG. 13) that stores a pre-registered registrant's face image, and an image acquisition unit (for example, FIG. 10) that acquires an image. The entrance camera 43), position acquisition means for acquiring the position of the person to be verified in the image (for example, the entrance stereo image sensor 41 in FIG. 12), and the person to be verified acquired by the position acquisition means Determination means (for example, passing the entrance in FIG. 12) that determines whether or not the user has passed through the predetermined area, or has passed through the predetermined area, and continuously passes through the predetermined area. When the person to be collated is determined to be a person who has passed through the predetermined area based on the determination result of the person position information generation unit 273) and the determination unit, the person is determined to be a person who has passed through the predetermined area in the image. The image adjustment means for adjusting the image so as to leave only the person to be collated (for example, the face detection frame setting unit 231 in FIG. 10) and the image adjusted by the image adjustment means are determined as those who have passed the predetermined area. In addition, the face image extracting means (for example, the face image extracting unit 202 in FIG. 10) for extracting the face image of the person to be collated, the face image of the person to be collated acquired by the face image extracting means, and the storage means A collation unit (for example, the similarity calculation unit 322 in FIG. 13) that calculates and collates the similarity with the accumulated face image of the registrant, and a similarity that is a collation result of the collation unit and a predetermined threshold value. Similarity determination means (for example, the similarity determination unit 323 in FIG. 13) that determines whether the face image of the person to be collated is a face image of the registrant by comparison, and the collation by the similarity determination means. The target person In the case where it is determined that the person is a recorder, notification means (for example, the communication unit 304 in FIG. 13) for notifying that the person to be verified is the registrant is included.

前記所定領域通過者として判定された前記照合対象者の顔画像より特徴量を抽出する特徴量抽出手段(例えば、図13の特徴量抽出部321)とをさらに含ませるようにさせることができ、前記照合手段(例えば、図13の類似度計算部322)には、前記取得手段により取得された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との特徴量を用いて類似度を計算させ、前記取得手段により取得された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像とを照合させるようにすることができる。   A feature amount extraction unit (for example, a feature amount extraction unit 321 in FIG. 13) that extracts a feature amount from the face image of the person to be collated determined as the person who has passed the predetermined region can be included. In the collation means (for example, the similarity calculation unit 322 in FIG. 13), feature amounts of the face image of the person to be collated acquired by the acquisition means and the face image of the registrant accumulated in the accumulation means are stored. It is possible to calculate the degree of similarity and to collate the face image of the person to be collated acquired by the obtaining unit with the face image of the registrant accumulated in the accumulating unit.

前記位置取得手段(例えば、図12の入口ステレオ画像センサ41)には、ステレオ画像センサにより前記画像における照合対象者の位置を取得させるようにすることができる。   The position acquisition means (for example, the entrance stereo image sensor 41 in FIG. 12) can acquire the position of the person to be verified in the image by the stereo image sensor.

前記位置取得手段により取得された前記画像における照合対象者の位置に基づいて、人物位置情報を生成する人物位置情報生成手段(例えば、図12の人物位置情報生成部272)をさらに含ませるようにすることができ、前記判定手段(例えば、図12の入口通過者位置情報生成部273)には、前記所定領域通過者情報に基づいて、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定させるようにすることができる。   A person position information generating unit (for example, a person position information generating unit 272 in FIG. 12) that generates person position information based on the position of the person to be collated in the image acquired by the position acquiring unit is further included. In the determination means (for example, the entrance passer position information generation unit 273 in FIG. 12), based on the predetermined area passer information, the verification target person acquired by the position acquisition means It is possible to determine whether or not the user has passed through a predetermined area, or has passed through the predetermined area, and continues to pass through the predetermined area as it is in the image.

前記類似度判定手段により前記照合対象者が前記登録者ではないと判定された場合、前記照合対象者の顔画像を未登録者として登録する未登録者登録手段(例えば、図13の未登録遊技者データベース登録部303)とをさらに含ませるようにすることができる。   When the similarity determination means determines that the person to be verified is not the registrant, unregistered person registration means (for example, the unregistered game in FIG. 13) registers the face image of the person to be verified as an unregistered person. A user database registration unit 303).

本発明の一側面の監視方法およびプログラムは、画像を取得する画像取得ステップ(例えば、図20のステップS141)と、前記画像における照合対象者の位置を取得する位置取得ステップ(例えば、図20のステップS122)と、前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップ(例えば、図21のステップS214)と、前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップ(例えば、図20のステップS144)と、前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップ(例えば、図20のステップS145)と、前記顔画像抽出ステップの処理により取得された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との類似度を計算し、照合する照合ステップ(例えば、図20のステップS164)と、前記照合ステップの処理での照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定ステップ(例えば、図20のステップS165)と、前記類似度判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップ(例えば、図20のステップS168)とを含む。   The monitoring method and program according to an aspect of the present invention include an image acquisition step (for example, step S141 in FIG. 20) for acquiring an image, and a position acquisition step (for example, in FIG. 20) for acquiring the position of the person to be verified in the image. Step S122) and the person to be collated acquired by the processing of the position acquisition step passes through a predetermined area, or continuously exists in the image as it is after passing through the predetermined area. A determination step (for example, step S214 in FIG. 21) for determining whether or not the person has passed the predetermined area and a determination result in the process of the determination step determine that the person to be collated is the person who has passed the predetermined area. If so, an image adjustment step for adjusting the image so as to leave only the person to be collated determined to be a person who has passed the predetermined area in the image ( For example, step S144 in FIG. 20 and a face image extraction step (for example, FIG. 20) that extracts the face image of the person to be collated determined as a person who has passed the predetermined area from the image adjusted by the process of the image adjustment step. Step S145), and a collation step of calculating and comparing the similarity between the face image of the person to be collated acquired by the processing of the face image extraction step and the face image of the registrant stored in the accumulating means ( For example, whether or not the face image of the person to be collated is a face image of the registrant based on a comparison between the similarity that is the collation result in the process of the collation step and a predetermined threshold value in step S164) of FIG. It is determined that the person to be collated is the registrant by the similarity determination step (for example, step S165 in FIG. 20) and the processing of the similarity determination step. If, and a notification step of the collation object person is notified that the said registered person (e.g., step S168 in FIG. 20).

本発明の第2の側面の登録者照合装置は、予め登録された登録者の顔画像を蓄積する蓄積手段(例えば、図13の生体情報DB22)と、画像を取得する画像取得手段(例えば、図10の入口カメラ43)と、前記画像における照合対象者の位置を取得する位置取得手段(例えば、図12の入口ステレオ画像センサ41)と、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段(例えば、図12の入口通過者位置情報生成部273)と、前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段(例えば、図10の顔検出フレーム設定部231)と、前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段(例えば、図10の顔画像抽出部202)と、前記取得手段により取得された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との類似度を計算し、照合する照合手段(例えば、図13の類似度計算部322)と、前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定手段(例えば、図13の類似度判定部323)と、前記類似度判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段(例えば、図13の通信部304)とを含む。   The registrant verification device according to the second aspect of the present invention includes a storage unit (for example, the biometric information DB 22 in FIG. 13) that stores a pre-registered registrant's face image, and an image acquisition unit (for example, an image acquisition unit). The entrance camera 43 in FIG. 10), position acquisition means (for example, the entrance stereo image sensor 41 in FIG. 12) for acquiring the position of the person to be verified in the image, and the person to be verified acquired by the position acquisition means Determination means for determining whether or not the user has passed through a predetermined area, or has passed through the predetermined area, and continuously passes through the predetermined area in the image (for example, FIG. 12 When it is determined by the determination result of the entrance passer position information generation unit 273) and the determination means that the verification target person is the predetermined area passer, it is determined that the predetermined area passer is included in the image. The The image adjustment means for adjusting the image so as to leave only the person to be collated (for example, the face detection frame setting unit 231 in FIG. 10) and the image adjusted by the image adjustment means are determined as those who have passed the predetermined area. The face image extraction means (for example, the face image extraction unit 202 in FIG. 10) that extracts the face image of the person to be collated, the face image of the person to be collated acquired by the acquisition means, and the storage means. By comparing the degree of similarity with the registrant's face image and collating it (for example, the similarity calculating unit 322 in FIG. 13), and comparing the similarity as a result of the collation with the predetermined threshold. Similarity determination means (for example, similarity determination unit 323 in FIG. 13) for determining whether or not the face image of the person to be collated is the face image of the registrant, and the person to be collated by the similarity degree determination means Is the registrant In the case where it is determined that there is, a notification means (for example, the communication unit 304 in FIG. 13) for notifying that the person to be collated is the registrant is included.

本発明の第3の側面の属性推定装置は、画像を取得する画像取得手段(例えば、図10の入口カメラ43)と、前記画像における照合対象者の位置を取得する位置取得手段(例えば、図12の入口ステレオ画像センサ41)と、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段(例えば、図12の入口通過者位置情報生成部273)と、前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段(例えば、図10の顔検出フレーム設定部231)と、前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段(例えば、図10の顔画像取得部202)と、前記顔画像抽出手段により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定手段(例えば、図13の属性推定部307)とを含む。   The attribute estimation apparatus according to the third aspect of the present invention includes an image acquisition unit (for example, the entrance camera 43 in FIG. 10) that acquires an image, and a position acquisition unit (for example, FIG. 10) that acquires the position of the person to be verified in the image. 12 entrance stereo image sensors 41) and the person to be collated acquired by the position acquisition means pass through a predetermined area, or after passing through the predetermined area, Based on the determination result (for example, the entrance passer position information generation unit 273 in FIG. 12) and the determination result of the determination means, the person to be verified is determined to be the predetermined area. When it is determined that the person has passed, image adjustment means for adjusting the image so that only the verification target person who has been determined to pass the predetermined area is left among the images (for example, the face detection frame of FIG. 10). Face setting unit 231) and face image extracting means for extracting the face image of the person to be collated determined as a person who has passed the predetermined area from the image adjusted by the image adjusting means (for example, face image acquisition in FIG. 10) Unit 202) and estimation means (for example, attribute estimation unit 307 in FIG. 13) for estimating the attribute of the verification target person based on the face image of the verification target person extracted by the face image extraction means.

前記所定領域通過者として判定された前記照合対象者の顔画像より特徴量を抽出する特徴量抽出手段(例えば、図13の特徴量抽出部321)とをさらに含ませるようにすることができ、前記属性推定手段(例えば、図13の属性推定部307)には、前記顔画像抽出手段により抽出される、前記所定領域通過者として判定された照合対象者の顔画像の特徴量を用いて、前記取得手段により取得された照合対象者の属性を推定させるようにすることができる。   A feature amount extraction unit (for example, a feature amount extraction unit 321 in FIG. 13) that extracts a feature amount from the face image of the person to be collated determined as the person who has passed the predetermined region can be further included. The attribute estimation unit (for example, the attribute estimation unit 307 in FIG. 13) uses the feature amount of the face image of the person to be collated determined by the predetermined area extracted by the face image extraction unit, The attribute of the person to be collated acquired by the acquisition unit can be estimated.

前記属性推定手段(例えば、図13の属性推定部307)には、前記照合対象者の属性として性別、または、年齢を推定させるようにすることができる。   The attribute estimation means (for example, the attribute estimation unit 307 in FIG. 13) can be made to estimate gender or age as the attribute of the person to be collated.

本発明の第3の側面の属性推定方法は、画像を取得する画像取得ステップ(例えば、図20のステップS141)と、前記画像における照合対象者の位置を取得する位置取得ステップ(例えば、図20のステップS122)と、前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップ(例えば、図21のステップS214)と、前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップ(例えば、図20のステップS144)と、前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップ(例えば、図20のステップS145)と、前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定ステップ(例えば、図19のステップS116乃至S118)とを含む。   The attribute estimation method according to the third aspect of the present invention includes an image acquisition step (for example, step S141 in FIG. 20) for acquiring an image and a position acquisition step (for example, FIG. 20) for acquiring the position of the person to be verified in the image. Step S122) and the person to be collated acquired by the processing of the position acquisition step passes through the predetermined area, or continuously exists in the image as it passes through the predetermined area. A determination step (for example, step S214 in FIG. 21) for determining whether or not the person who has passed the predetermined area is determined, and the result of determination in the process of the determination step indicates that the person to be collated is the person who has passed the predetermined area If determined, an image adjustment step for adjusting the image so as to leave only the verification target person determined to be a person who has passed the predetermined area in the image (for example, 20 step S144) and a face image extraction step (for example, step S145 of FIG. 20) for extracting the face image of the person to be collated determined as a person who has passed the predetermined area from the image adjusted by the processing of the image adjustment step. ) And an estimation step (for example, steps S116 to S118 in FIG. 19) for estimating the attribute of the collation target person based on the face image of the collation target person extracted by the processing of the face image extraction step.

図1は、本発明に係る遊技店の監視システムの一実施の形態の構成を示す図である。   FIG. 1 is a diagram showing a configuration of an embodiment of a game shop monitoring system according to the present invention.

遊技店1−1乃至1−nは、いわゆるパチンコ店、または、パチスロ店である。また、これらの遊技店1−1乃至1−nは、系列店舗または生体情報管理センタや第3者遊技店管理センタの加盟店であって、複数の店舗を統括的に管理する必要のある店舗である。各遊技店1−1乃至1−nは、生体情報管理バス6および第3者遊技店管理バス7により接続されており、それらのバスおよびインターネット等に代表される公衆通信回線網8,9を介して、相互にそれぞれ生体情報、および第3者遊技店管理情報を授受している。尚、以降において、遊技店1−1乃至1−nのそれぞれについて、特に区別する必要がない場合、単に、遊技店1と称するものとし、その他の構成についても同様に称するものとする。   The game stores 1-1 to 1-n are so-called pachinko stores or pachislot stores. These amusement stores 1-1 to 1-n are affiliated stores or member stores of the biometric information management center or the third party amusement store management center, and stores that need to manage a plurality of stores in an integrated manner. It is. The game stores 1-1 to 1-n are connected by a biological information management bus 6 and a third-party game store management bus 7, and the public communication line networks 8 and 9 represented by the bus and the Internet are used. Via each other, biological information and third-party amusement store management information are exchanged. In the following description, when there is no particular need to distinguish each of the game stores 1-1 to 1-n, the game store 1 is simply referred to, and the other configurations are also referred to in the same manner.

生体情報管理バス6は、主に各遊技店1の生体情報認識装置21により管理される生体情報を流通させるための伝送路として機能する。また、第3者遊技店管理バス7は、主に各遊技店1の媒体貸出装置管理装置27により管理される媒体貸出管理情報を流通させるための伝送路として機能する。   The biometric information management bus 6 mainly functions as a transmission path for distributing biometric information managed by the biometric information recognition device 21 of each game store 1. The third-party amusement store management bus 7 functions as a transmission path for distributing medium lending management information mainly managed by the medium lending device management device 27 of each amusement store 1.

生体情報管理センタ2は、生体情報管理センタを管理運営する事業者により使用されるサーバであり、生体情報管理データベース(以降、DBとも称するものとする)3で管理されている登録遊技者DB352(図14)を各遊技店1により生成される未登録遊技者者DB351(図14)に基づいて更新すると供に、更新した最新の登録遊技者DB352(図14)を各遊技店1の生体情報認識装置21に対して配信する。   The biometric information management center 2 is a server used by a business operator who manages and operates the biometric information management center, and is a registered player DB 352 (hereinafter referred to as DB) 3 managed by a biometric information management database (hereinafter also referred to as DB). 14) is updated based on the unregistered player DB 351 (FIG. 14) generated by each game store 1, and the updated latest registered player DB 352 (FIG. 14) is updated with the biometric information of each game store 1. Delivered to the recognition device 21.

第3者遊技店管理センタ4は、第3者遊技店管理センタを管理運営する事業者により使用されるサーバであり、第3者遊技店管理データベース(DB)5で管理されている媒体貸出管理情報からなるDBを各遊技店1より供給されてくる情報に基づいて更新すると供に、更新した最新の媒体貸出管理情報を各遊技店1の媒体貸出管理装置27に対して配信する。   The third-party amusement store management center 4 is a server used by a business operator that manages and operates the third-party amusement store management center, and the medium lending management managed by the third-party amusement store management database (DB) 5 In addition to updating the information DB based on the information supplied from each game store 1, the updated latest medium lending management information is distributed to the medium lending management device 27 of each game store 1.

生体情報認識装置21は、カメラ38−1乃至38−m、および店内カメラ40−1乃至40−pにより撮像された画像より画像処理ユニット39−1乃至39−(m+p)により抽出されて、生体情報バス31を介して供給されてくる顔画像の情報に基づいて、生体情報データベース22に予め登録されている顔画像と照合し、一致する場合、登録遊技者の来店を携帯端末45に通知したり、CRT(Cathode Tube Ray)またはLCD(Liquid Crystal Display)などからなる表示部23に表示する。また、生体情報データベース22に予め登録されている顔画像と照合し、一致しない場合、生体情報認識装置21は、生体情報管理データベース3にアクセスし、未登録者として未登録遊技者DB351(図14)に登録する。   The biological information recognition device 21 is extracted by the image processing units 39-1 to 39- (m + p) from the images captured by the cameras 38-1 to 38-m and the in-store cameras 40-1 to 40-p, and the biological information recognition device 21 Based on the face image information supplied via the information bus 31, the face image registered in advance in the biometric information database 22 is checked, and if they match, the registered player's visit is notified to the portable terminal 45. Or displayed on the display unit 23 such as CRT (Cathode Tube Ray) or LCD (Liquid Crystal Display). Further, when the face image registered in the biometric information database 22 is collated and does not match, the biometric information recognition device 21 accesses the biometric information management database 3 and unregistered player DB 351 (FIG. 14) as an unregistered person. ).

遊技店管理装置24は、いわゆるホールコンピュータと呼ばれるものであり、遊技店管理情報バス30を介して遊技台36−1乃至36−mの動作を監視している。遊技店管理装置24は、遊技台36の出玉もしくはメダルの払い出しの情報、各遊技台36−1乃至36−mの遊技者の呼び出し情報、またはエラーの発生などの監視状況に応じて、所定の処理を実行し、実行結果をCRTやLCDなどからなる表示部25に表示する。遊技店管理装置24は、精算販売機33、貸出機34、計数機35、遊技台36−1乃至36−m、および遊技台周辺端末37−1乃至37−mのぞれぞれより供給されてくる情報を、それぞれを識別する識別情報(例えば、遊技台番号)とを対応付けて遊技台管理データベース26により管理する。   The game store management device 24 is a so-called hall computer, and monitors the operations of the game machines 36-1 to 36-m via the game store management information bus 30. The game store management device 24 determines a predetermined amount according to the monitoring status such as information on the payout of the game table 36 or the payout of medals, the call information of the players on the game tables 36-1 to 36-m, or the occurrence of an error. The execution result is executed, and the execution result is displayed on the display unit 25 such as a CRT or LCD. The game store management device 24 is supplied from each of the checkout vending machine 33, the lending machine 34, the counter 35, the game machines 36-1 to 36-m, and the game machine peripheral terminals 37-1 to 37-m. The incoming information is managed by the gaming machine management database 26 in association with identification information (for example, gaming machine number) for identifying each information.

媒体貸出管理装置27は、精算販売機33、貸出機34、および計数機35からの情報に基づいて、貸し出される遊技媒体の媒体貸出管理情報を、媒体貸出管理データベース29を用いて管理すると供に、媒体貸出管理データベース29に登録されている媒体貸出管理情報を更新する際、その更新情報を、第3者遊技店管理バス7および公衆通信回線網9を介して第3者遊技店管理センタ4に送る。さらに、媒体貸出管理装置27は、第3者遊技店管理バス7および公衆通信回線網9を介して第3者遊技店管理センタ4により供給されてくる媒体貸出管理情報を取得し、媒体貸出管理データベース29に蓄積させる。   The medium lending management device 27 manages the medium lending management information of the rented game media using the medium lending management database 29 based on the information from the payment machine 33, the lending machine 34, and the counter 35. When the medium lending management information registered in the medium lending management database 29 is updated, the updated information is sent to the third party amusement store management center 4 via the third party amusement store management bus 7 and the public communication line network 9. Send to. Further, the medium lending management device 27 acquires the medium lending management information supplied by the third party amusement store management center 4 via the third party amusement store management bus 7 and the public communication line network 9, and manages the medium lending management. Store in the database 29.

貸出機34は、遊技者が遊技台36で遊技する際、現金やプリペイドカードなどにより所定の金額を受け付けると、金額に応じた個数の遊技媒体を貸し出す。この際、貸出機34は、受け付けた現金やプリペイドカードの残数などの情報と供に、貸し出した遊技媒体の個数の情報を媒体貸出管理装置27に供給する。これにより、媒体貸出管理装置27は、受け付けた現金やプリペイドカードの残数などの情報と供に、貸し出した遊技媒体の個数の情報を媒体貸出管理情報データベース29に登録する。   The lending machine 34 lends a number of game media according to the amount when the player accepts a predetermined amount by cash or a prepaid card when playing on the gaming table 36. At this time, the lending machine 34 supplies information on the number of lent gaming media to the medium lending management device 27 together with information such as the accepted cash and the remaining number of prepaid cards. Thereby, the medium lending management device 27 registers information on the number of lent gaming media in the medium lending management information database 29 together with information such as the received cash and the remaining number of prepaid cards.

精算販売機33は、貸球を借りるための度数をつけてプリペイドカードを販売する。このとき、精算販売機33は、販売したプリペイドカードの度数と払いうけた金額とを媒体貸出管理装置27に供給する。また、精算販売機33は、プリペイドカードなどの度数として貸し出した遊技媒体の残数に基づいて現金を精算して払い出す。このとき、精算販売機33は、プリペイドカードの残数と払い戻した現金の金額の情報を媒体貸出管理装置27に供給する。   The checkout machine 33 sells prepaid cards with a frequency for borrowing a ball. At this time, the checkout machine 33 supplies the frequency of the prepaid card sold and the amount paid to the medium lending management device 27. Further, the settlement vending machine 33 settles and pays out cash based on the remaining number of game media lent as a frequency such as a prepaid card. At this time, the checkout vending machine 33 supplies the information on the remaining number of prepaid cards and the amount of cash refunded to the medium lending management device 27.

計数機35は、遊技者が遊技台36により遊技することにより獲得した遊技媒体の数を、計数し、計数結果を磁気カードやレシートなどとして出力する。   The counter 35 counts the number of game media acquired by the player playing on the game table 36, and outputs the counting result as a magnetic card or a receipt.

遊技台36−1乃至36−mは、遊技者により所定の操作がなされることにより、遊技を実行し、いわゆる小当たりや大当たりに応じて、遊技球、または、メダルを払い出す。   The game machines 36-1 to 36-m execute a game when a predetermined operation is performed by the player, and pay out a game ball or a medal according to a so-called small hit or big hit.

遊技台周辺端末37−1乃至37−mは、各遊技台36−1乃至36−mに対応して設けられている、いわゆる台間機であり、台間球貸機(原理的には、貸出機34と同様のもの)などが設けられている。また、遊技台周辺端末37は、遊技台36を遊技する遊技者の顔画像などの生体情報を取得し、遊技台識別情報(遊技台番号)と共に遊技台管理装置24に送信する。尚、図1においては、生体情報を取得する機能として、遊技者の顔画像を取得するカメラ38−1乃至38−mが設けられている例が示されている。   The game console peripheral terminals 37-1 to 37-m are so-called pedestrian machines provided corresponding to the respective game machines 36-1 to 36-m. The same as the lending machine 34) is provided. Further, the gaming machine peripheral terminal 37 acquires biological information such as a face image of a player who plays the gaming machine 36 and transmits it to the gaming machine management device 24 together with the gaming machine identification information (game machine number). FIG. 1 shows an example in which cameras 38-1 to 38-m that acquire a player's face image are provided as a function of acquiring biometric information.

カメラ38−1乃至38−mは、例えば、図2で示されるように、各遊技台36−1乃至36−4のそれぞれの上部に設けられた台表示ランプ61−1乃至61−4の下部に図3で示されるように、読取範囲δ内に遊技者が撮像できるように設け、顔画像を撮像するようにしてもよく、このようにすることにより、各カメラIDは、同時に遊技台IDとして使用することが可能となる。   For example, as shown in FIG. 2, the cameras 38-1 to 38-m are arranged below the table display lamps 61-1 to 61-4 provided on the respective upper sides of the game tables 36-1 to 36-4. As shown in FIG. 3, a face image may be taken so that the player can take an image within the reading range δ. Can be used.

また、カメラ38−1乃至38−mは、例えば、図4で示されるように、遊技台周辺端末37−1乃至37−4に凸部71−1乃至71−4を設け、図5で示されるように読取範囲θ内に遊技者の顔画像が撮像できるように設けるようにしてもよい。   Further, as shown in FIG. 4, the cameras 38-1 to 38-m are provided with convex portions 71-1 to 71-4 on the gaming machine peripheral terminals 37-1 to 37-4, as shown in FIG. As described above, it may be provided so that a player's face image can be captured within the reading range θ.

さらに、カメラ38−1乃至38−mは、例えば、図6で示されるように、遊技台36の中央部(遊技台36の盤面上)に設けるようにして、撮像するようにしてもよい。すなわち、図6の設置部81にカメラ36が設置されることにより、図7で示されるように、読取範囲φ内に遊技者を撮像する。   Further, for example, as shown in FIG. 6, the cameras 38-1 to 38-m may be provided at the center of the game table 36 (on the board surface of the game table 36) to take an image. That is, by installing the camera 36 in the installation unit 81 of FIG. 6, the player is imaged within the reading range φ as shown in FIG.

店内カメラ40−1乃至40−pは、遊技店1の店内における所定の場所に設置され、撮像した画像をそれぞれ画像処理ユニット39−(m+1)乃至39−(m+p)に供給する。   The in-store cameras 40-1 to 40-p are installed at predetermined locations in the store of the game store 1, and supply captured images to the image processing units 39- (m + 1) to 39- (m + p), respectively.

入口カメラ43−1乃至43−qは、遊技店1の店内における出入口112を撮像することができる位置に設置され、撮像した画像をそれぞれ入口画像処理ユニット44−1乃至44−qに供給する。   The entrance cameras 43-1 to 43-q are installed at positions where the entrance / exit 112 in the store of the game store 1 can be imaged, and supply the captured images to the entrance image processing units 44-1 to 44-q, respectively.

入口ステレオ画像センサ41−1乃至41−qは、入口カメラ43−1乃至43−qのそれぞれに対応する位置に設けられており、入口カメラ43−1乃至43−qで撮像される画像とほぼ同一の画像を撮像し、画像内の人物の空間的な位置情報を位置認識サーバ42−1乃至42−qに供給する。位置認識サーバ42−1乃至42−qは、入口ステレオ画像センサ41−1乃至41−qよりそれぞれ供給されてくる画像内の位置情報に基づいて、出入口112を通過している人物の位置情報に基づいて入口通過者位置情報を生成し、入口画像処理ユニット44−1乃至44−qにそれぞれ供給する。   The entrance stereo image sensors 41-1 to 41-q are provided at positions corresponding to the entrance cameras 43-1 to 43-q, respectively, and are almost the same as images captured by the entrance cameras 43-1 to 43-q. The same image is taken and the spatial position information of the person in the image is supplied to the position recognition servers 42-1 to 42-q. The position recognition servers 42-1 to 42-q use the position information in the images supplied from the entrance stereo image sensors 41-1 to 41-q, respectively, as the position information of the person passing through the entrance / exit 112. Based on the information, the entrance passer position information is generated and supplied to the entrance image processing units 44-1 to 44-q.

画像処理ユニット39−1乃至39−(m+p)は、カメラ38−1乃至38−mおよび店内カメラ40−1乃至40−pより供給されてくる画像より顔画像を抽出して生体情報認識装置21に供給する。   The image processing units 39-1 through 39- (m + p) extract face images from the images supplied from the cameras 38-1 through 38-m and the in-store cameras 40-1 through 40-p to extract the biometric information recognition device 21. To supply.

入口画像処理ユニット44−1乃至44−qは、基本的な機能は、画像処理ユニット39と同様のものであるが、入口カメラ43−1乃至43−qより供給されてくる画像のうち、位置認識サーバ42−1乃至42−qより出入口112−1乃至112−3を通過する遊技者の顔画像のみを抽出して生体情報認識装置21に供給する。   The basic functions of the entrance image processing units 44-1 to 44-q are the same as those of the image processing unit 39, but the positions of the images supplied from the entrance cameras 43-1 to 43-q are the same. Only the face images of the players passing through the entrances 112-1 to 112-3 are extracted from the recognition servers 42-1 to 42-q and supplied to the biological information recognition apparatus 21.

店内カメラ40−1乃至40−p、入口カメラ43−1乃至43−p、および、入口ステレオ画像センサ41−1乃至41−qは、例えば、図8で示されるように設定される。図8は、遊技店1内の店内カメラ40−1乃至40−p、入口カメラ43−1乃至43−q、および、入口ステレオ画像センサ41−1乃至41−qの設置例を示している。   The in-store cameras 40-1 to 40-p, the entrance cameras 43-1 to 43-p, and the entrance stereo image sensors 41-1 to 41-q are set as shown in FIG. 8, for example. FIG. 8 shows an installation example of the in-store cameras 40-1 to 40-p, the entrance cameras 43-1 to 43-q, and the entrance stereo image sensors 41-1 to 41-q in the game store 1.

すなわち、図8においては、一般の遊技者が出入する出入口112−1乃至112−3が設けられており、入口カメラ43−1乃至43−3は、それぞれの出入口112−1乃至112−3より入店してくる遊技者を撮像する。また、入口ステレオ画像センサ41−1乃至41−qは、入口カメラ43−1乃至43−3により撮像可能な領域を含むか、または、ほぼ同一の領域を、複数のカメラにより撮像し、三角法による測定方法と同様の原理により、画像中の遊技者の位置を計測し、計測結果である画像内の遊技者の位置情報を位置認識サーバ42−1乃至42−qに供給する。   That is, in FIG. 8, entrances 112-1 to 112-3 through which general players enter and exit are provided, and the entrance cameras 43-1 to 43-3 are provided by the respective entrances 112-1 to 112-3. The player who enters the store is imaged. In addition, the entrance stereo image sensors 41-1 to 41-q include areas that can be imaged by the entrance cameras 43-1 to 43-3, or images substantially the same area using a plurality of cameras, and triangulation is performed. The position of the player in the image is measured based on the same principle as the measurement method according to, and the position information of the player in the image as the measurement result is supplied to the position recognition servers 42-1 to 42-q.

また、店内カメラ40−1乃至40−10は、島設備111−1乃至111−5のそれぞれ両面をそれぞれ一列に渡って撮像できる位置に設定されている。島設備111は、両面に遊技台36が設置されており、すなわち、図中の島設備111を上下方向に挟むように設置されている。カメラ38、店内カメラ40および入口カメラ43は、いずれにおいてもパンチルトズーム機能を備えているため、図8で示されるように、店内カメラ40−1乃至40−10が配置されることにより、遊技台36で遊技する全遊技者が、店内カメラ40−1乃至40−10のいずれかで撮像できる。   Further, the in-store cameras 40-1 to 40-10 are set at positions where each side of the island facilities 111-1 to 111-5 can be imaged in a row. The island facilities 111 are provided with game machines 36 on both sides, that is, so as to sandwich the island facilities 111 in the vertical direction in the figure. Since the camera 38, the in-store camera 40, and the entrance camera 43 all have a pan / tilt / zoom function, as shown in FIG. 8, the in-store cameras 40-1 to 40-10 are arranged so that the game table All players who play at 36 can take images with any of the in-store cameras 40-1 to 40-10.

さらに、店内カメラ40−aは、貸出機34の前に設けられており、店内カメラ40−bは、精算販売機33の前に設けられており、店内カメラ40−cは、計数機35の前に設けられており、それぞれ、精算販売機33、貸出機34、および計数機35を利用する遊技者を撮像することができる。   Further, the in-store camera 40-a is provided in front of the lending machine 34, the in-store camera 40-b is provided in front of the checkout machine 33, and the in-store camera 40-c is the counter of the counter 35. It is provided in front, and it is possible to take an image of a player who uses the checkout machine 33, the lending machine 34, and the counter 35, respectively.

すなわち、図8で示されるように、遊技店1においては、来店する遊技者、遊技台36で遊技する遊技者、並びに、精算販売機33、貸出機34、および計数機35を利用する遊技者といった、遊技店1において遊技者が取るであろうことが想定される行動のほぼ全てを監視できるように、カメラ38、店内カメラ40、および入口カメラ43が設置されている。また、従業員専用出入口113が設けられており、遊技店の従業員は、従業員専用出入口113により遊技店1に入店または出店することになる。結果として、従業員専用出入口113には、遊技店の関係者しか出入しないことになるため、登録者を検出するための入口カメラ43が設けられる必要がない。従って、入口カメラ43により撮像された画像内の遊技者には、遊技店の関係者は存在しないことになる。結果として、入口カメラ43により撮像される画像には、処理の不要な遊技店の従業員を含む、その関係者の顔画像が含まれないことになり、後述する顔画像の類似判定処理などをする必要がないため、処理負荷を低減させる事が可能となっている。   That is, as shown in FIG. 8, in the game store 1, a player who visits the store, a player who plays on the game stand 36, and a player who uses the checkout vending machine 33, the lending machine 34, and the counter 35. The camera 38, the in-store camera 40, and the entrance camera 43 are installed so that almost all of the actions that the player is supposed to take in the gaming store 1 can be monitored. In addition, an employee entry / exit 113 is provided, and an employee of the amusement shop enters or exits the amusement shop 1 through the employee entry / exit 113. As a result, since only the persons involved in the amusement store can enter and leave the employee entrance / exit 113, there is no need to provide the entrance camera 43 for detecting the registrant. Therefore, there is no person related to the game store among the players in the image captured by the entrance camera 43. As a result, the image captured by the entrance camera 43 does not include the face images of the persons concerned including the employees of the game shop that do not need to be processed. Therefore, it is possible to reduce the processing load.

次に、図9の機能ブロック図を参照して、画像処理ユニット39の構成例について説明する。   Next, a configuration example of the image processing unit 39 will be described with reference to the functional block diagram of FIG.

画像取得部201は、カメラ38(または、店内カメラ40)により撮像された画像を取得し、顔画像抽出部202に供給する。顔画像抽出部202は、顔検出部211および顔画像切り出し部212により構成されている。顔検出部211は、画像取得部201より供給されてきた画像内に、顔を構成する部位の配置などのパターンにより顔画像を含む部位を検出し、検出結果を顔画像切り出し部212に供給する。顔画像切り出し部212は、撮像された画像より検出された顔画像を含む部位の情報に基づいて、顔画像のみの矩形画像を切り出すことにより抽出して送信部203に供給する。送信部203は、顔画像を生体情報認識装置21に送信する。   The image acquisition unit 201 acquires an image captured by the camera 38 (or the in-store camera 40) and supplies it to the face image extraction unit 202. The face image extraction unit 202 includes a face detection unit 211 and a face image cutout unit 212. The face detection unit 211 detects a part including a face image in the image supplied from the image acquisition unit 201 based on a pattern such as the arrangement of the parts constituting the face, and supplies the detection result to the face image clipping unit 212. . The face image cutout unit 212 extracts a rectangular image including only the face image based on information on a part including the face image detected from the captured image, and supplies the extracted image to the transmission unit 203. The transmission unit 203 transmits the face image to the biometric information recognition device 21.

次に、図10の機能ブロック図を参照して、入口画像処理ユニット44の構成例について説明する。尚、図10において、図9を参照して説明した画像処理ユニット39と同様の構成については、同一の符号を付しており、その説明は適宜省略するものとし、その他の構成についても同様に扱うものとする。   Next, a configuration example of the entrance image processing unit 44 will be described with reference to the functional block diagram of FIG. In FIG. 10, the same components as those of the image processing unit 39 described with reference to FIG. 9 are denoted by the same reference numerals, the description thereof will be omitted as appropriate, and the other components will be similarly described. Shall be handled.

図10の入口画像処理ユニット44において、図9の画像処理ユニット39と異なるのは、顔画像取得部201および顔画像抽出部202の間に顔検出フレーム設定部231が設けられている点である。   The entrance image processing unit 44 in FIG. 10 differs from the image processing unit 39 in FIG. 9 in that a face detection frame setting unit 231 is provided between the face image acquisition unit 201 and the face image extraction unit 202. .

顔検出フレーム設定部231は、位置認識サーバ42より供給されてくる入口通過者位置情報に基づいて、画像取得部201より供給されてくる画像のうち、出入口112を通過していない遊技者、すなわち、入口通過者情報に含まれていない遊技者の画像を削除することにより入口通過者の顔画像のみが抽出できるようにフレームを設定(調整)して顔画像抽出部202に供給する。この結果、入口画像処理ユニット44においては、顔画像抽出部202は、出入口112を通過した遊技者の顔画像のみを抽出することになる。   The face detection frame setting unit 231 is a player who has not passed through the entrance / exit 112 out of images supplied from the image acquisition unit 201 based on the entrance passer position information supplied from the position recognition server 42. The frame is set (adjusted) and supplied to the face image extraction unit 202 so that only the face image of the entrance passer can be extracted by deleting the player image not included in the entrance passer information. As a result, in the entrance image processing unit 44, the face image extraction unit 202 extracts only the face image of the player who has passed through the entrance 112.

次に、図11の機能ブロック図を参照して、入口ステレオ画像センサ41の構成例について説明する。   Next, a configuration example of the entrance stereo image sensor 41 will be described with reference to the functional block diagram of FIG.

入口ステレオ画像センサ41は、図11で示されるように、カメラ251−1,251−2により構成され、それぞれが同一の領域を異なる角度から撮像し、演算処理部252に出力する。演算処理部252は、カメラ251−1,251−2より供給されたアングルの異なる画像を、視差を利用して演算処理することにより(いわゆる、三角法を用いた演算処理により)、撮像された画像内の被写体の空間的な位置を3次元の座標として求め、被写体となる遊技者一人一人に対して、位置認識サーバ42に供給する。   As shown in FIG. 11, the entrance stereo image sensor 41 includes cameras 251-1 and 251-2, each of which captures the same region from different angles and outputs it to the arithmetic processing unit 252. The arithmetic processing unit 252 is imaged by performing arithmetic processing using parallax on images with different angles supplied from the cameras 251-1 and 251-2 (so-called arithmetic processing using trigonometry). The spatial position of the subject in the image is obtained as three-dimensional coordinates and supplied to the position recognition server 42 for each player who becomes the subject.

次に、図12の機能ブロック図を参照して、位置認識サーバ42の構成例について説明する。   Next, a configuration example of the position recognition server 42 will be described with reference to the functional block diagram of FIG.

人検出部271は、入口ステレオ画像センサ41より供給されてくる遊技者の空間的な3次元の位置情報を取得すると供に、個々の位置情報に対して人物IDを付して人物位置情報生成部272に供給する。   The person detection unit 271 acquires the player's spatial three-dimensional position information supplied from the entrance stereo image sensor 41, and adds a person ID to each piece of position information to generate person position information. To the unit 272.

人物位置情報生成部272は、座標変換部272aおよび入口検出判定部272bを備えており、座標変換部272aを制御して、人物IDと供に供給されてくる3次元の位置情報を、入口カメラ43により撮像される画像内の2次元座標に変換すると供に、入口検出判定部272bを制御して、画像中の位置情報から、人物ID毎に、その人物が出入口112に存在するか否かの入口検出Flagを設定することにより、人物位置情報を生成してメモリ274に記憶させ、人物位置情報をメモリ274に生成したことを入口通過者位置情報生成部273に供給する。   The person position information generation unit 272 includes a coordinate conversion unit 272a and an entrance detection determination unit 272b. The person position information generation unit 272 controls the coordinate conversion unit 272a to convert the 3D position information supplied together with the person ID into the entrance camera. In addition to the conversion to the two-dimensional coordinates in the image captured by 43, the entrance detection determination unit 272b is controlled to determine whether the person exists at the entrance 112 for each person ID from the position information in the image. The person position information is generated and stored in the memory 274, and the fact that the person position information is generated in the memory 274 is supplied to the entrance passer position information generating unit 273.

入口通過者位置情報生成部273は、入口通過者判定部273aを備えており、メモリ274に記憶されている人物位置情報を更新したことが通知されると、メモリ274に記憶されている人物位置情報274を読み出して、入口通過者判定部273aを制御して、人物位置情報274に記憶されている人物IDの情報のうち、出入口112を通過した遊技者の人物IDと位置情報のみからなる入口通過者位置情報を生成して入口画像処理ユニット44に供給する。   The entrance passer position information generation unit 273 includes an entrance passer determination unit 273a, and when notified that the person location information stored in the memory 274 has been updated, the person location stored in the memory 274 is stored. The information 274 is read out, the entrance passer determination unit 273a is controlled, and the entrance consisting only of the person ID and the location information of the player who has passed through the entrance 112 out of the information of the person ID stored in the person location information 274. Passer position information is generated and supplied to the entrance image processing unit 44.

次に、図13の機能ブロック図を参照して、生体情報認識装置21の構成例について説明する。   Next, a configuration example of the biological information recognition device 21 will be described with reference to the functional block diagram of FIG.

顔画像取得部301は、画像処理ユニット39または入口画像処理ユニット44より供給される顔画像を取得し、照合部302に供給する。照合部302は、顔画像取得部301により取得された顔画像と、生体情報DB22に予め登録されている登録遊技者の顔画像とを照合し、類似度の高い候補となる顔画像があれば、第3候補までの顔画像を照合結果として表示部23に表示させる。また、照合部302は、類似度の高い候補となる顔画像が存在しない場合、供給されてきた顔画像を未登録遊技者データベース登録部303に供給する。   The face image acquisition unit 301 acquires the face image supplied from the image processing unit 39 or the entrance image processing unit 44 and supplies it to the collation unit 302. The collation unit 302 collates the face image acquired by the face image acquisition unit 301 with the registered player's face image registered in advance in the biometric information DB 22, and if there is a face image that is a candidate with a high degree of similarity. The face images up to the third candidate are displayed on the display unit 23 as the matching result. The collation unit 302 supplies the supplied face image to the unregistered player database registration unit 303 when there is no face image that is a candidate with a high degree of similarity.

より詳細には、照合部302の特徴量抽出部321は、顔画像を識別するための特徴量を抽出して、顔画像と共に類似度計算部322および属性推定部307に供給する。類似度計算部322は、生体情報DB22に登録されている登録遊技者の顔画像の特徴量を抽出すると供に、特徴量抽出部321より供給されてくる特徴量とを用いて、生体情報DB22に登録されている全ての登録遊技者の顔画像との類似度を求め、顔画像取得部301より供給されてきた顔画像、および、類似度が上位3位までの顔画像を類似度判定部323に供給する。より具体的には、類似度計算部322は、例えば、目と目の間隔、あごから額までの長さと、あごから鼻までの長さの比率などの各種の顔の特徴量に基づいて、それぞれの差分和、平均比率、または比率和などを類似度として求める。   More specifically, the feature amount extraction unit 321 of the matching unit 302 extracts a feature amount for identifying a face image, and supplies the feature amount together with the face image to the similarity calculation unit 322 and the attribute estimation unit 307. The similarity calculation unit 322 extracts the feature amount of the registered player's face image registered in the biometric information DB 22 and uses the feature amount supplied from the feature amount extraction unit 321 to use the biometric information DB 22. The degree of similarity with the face images of all registered players registered in the face image is obtained, and the face images supplied from the face image acquisition unit 301 and the face images with the highest degree of similarity are ranked in the similarity degree determination unit. 323. More specifically, the similarity calculation unit 322, for example, based on various facial feature amounts such as the ratio between the distance between the eyes, the distance from the chin to the forehead, and the length from the chin to the nose, Each difference sum, average ratio, or ratio sum is obtained as the similarity.

類似度判定部323は、類似度計算部322より供給されてくる類似度が上位3位となる顔画像のそれぞれの類似度のうち、1位となる顔画像との類似度と、所定の閾値とを比較し、比較結果に基づいて、1位となる登録顔画像が、顔画像取得部301より供給されてきた顔画像に対して類似している場合(類似度が高い程類似していることを示す類似度の場合、所定の閾値よりも高いとき、また、類似度が低い程類似していることを示す類似度の場合、所定の閾値よりも低いとき)、上位3位となる顔画像と類似度の情報を表示部23に供給して、表示させると供に、通信部304に供給する。また、類似度判定部323は、1位となる顔画像との類似度と、所定の閾値とを比較し、比較結果に基づいて、1位となる登録顔画像が、顔画像取得部301より供給されてきた顔画像に対して類似していない場合、顔画像取得部301より供給されてきた顔画像を未登録遊技者データベース登録部303に供給する。   The similarity determination unit 323 includes a similarity with the face image that is ranked first among the similarities of the face images with the highest degree of similarity supplied from the similarity calculation unit 322, and a predetermined threshold value. And the first registered face image is similar to the face image supplied from the face image acquisition unit 301 based on the comparison result (the higher the degree of similarity, the more similar the face image is) If the similarity is higher than a predetermined threshold, or if the similarity is lower, the similarity is lower than the predetermined threshold) Information on the degree of similarity with the image is supplied to the display unit 23 and is displayed to the communication unit 304 as it is displayed. In addition, the similarity determination unit 323 compares the similarity with the first-ranked face image and a predetermined threshold, and the registered face image that is first-ranked from the face image acquisition unit 301 based on the comparison result. When the supplied face image is not similar, the face image supplied from the face image acquisition unit 301 is supplied to the unregistered player database registration unit 303.

未登録遊技者データベース登録部303は、照合部302より未登録であるとみなされて供給されてきた、顔画像を生体情報管理データベース3の未登録遊技者DB351に登録する。   The unregistered player database registration unit 303 registers the face image that has been supplied as being unregistered by the verification unit 302 in the unregistered player DB 351 of the biometric information management database 3.

操作部305は、ボタン、マウス、または、キーボードなどから構成され、上述した類似度が上位3位となる、表示部23に表示された顔画像のいずれかが選択されるとき操作され、操作結果を通信部304に供給する。通信部304は、モデムなどから構成され、操作部305からの操作信号に基づいて、選択された顔画像を携帯端末45に配信する。   The operation unit 305 includes buttons, a mouse, a keyboard, and the like. The operation unit 305 is operated when any one of the face images displayed on the display unit 23 with the above-mentioned similarity ranked in the top three is selected. Is supplied to the communication unit 304. The communication unit 304 includes a modem or the like, and distributes the selected face image to the mobile terminal 45 based on an operation signal from the operation unit 305.

尚、ここでは、類似度は、例えば、比率和で示されるような登録遊技者として登録されている顔画像に近いほど高い値を示すものであるとし、類似度が所定の閾値よりも高い値であるとき、その類似度に対応する登録遊技者の顔画像であるものとして判定する例について説明する。しかしながら、例えば、類似度が撮像された顔画像と登録遊技者として登録されている顔画像とのそれぞれの特徴量における差分和として表現されている場合、類似度判定部323は、類似度が閾値よりも小さければ、撮像された顔画像が登録遊技者の顔画像であるとみなすことになり、または、平均比率などの場合、0乃至1の範囲で所定の値以上であって、1に近い値であれば、同一の人物であるとみなすことができる。   Here, for example, the similarity indicates a higher value as it is closer to the face image registered as a registered player as indicated by the ratio sum, and the similarity is a value higher than a predetermined threshold value. In this case, an example will be described in which it is determined that the face image of the registered player corresponding to the similarity is. However, for example, when the similarity is expressed as a difference sum in the respective feature amounts of the face image captured as a registered player and the face image registered as a registered player, the similarity determination unit 323 determines that the similarity is a threshold value. If it is smaller than that, the captured face image is regarded as a registered player's face image, or in the case of an average ratio or the like, it is greater than or equal to a predetermined value in the range of 0 to 1 and close to 1. If it is a value, it can be considered that they are the same person.

データベース管理部306は、生体情報管理センタ2より新たな登録遊技者データベース352(図14)が配信されてくると、新たな登録遊技者データベース352に基づいて、生体情報DB22を更新する。   When a new registered player database 352 (FIG. 14) is distributed from the biometric information management center 2, the database management unit 306 updates the biometric information DB 22 based on the new registered player database 352.

属性推定部307は、性別推定部307aおよび年齢推定部307bより構成される。性別推定部307aおよび年齢推定部307bは、それぞれ照合部302の特徴量抽出部321より供給されてくる特徴量に基づいて、顔画像の遊技者の性別および年齢を推定し推定結果を表示部23に表示する。   The attribute estimation unit 307 includes a gender estimation unit 307a and an age estimation unit 307b. The gender estimation unit 307a and the age estimation unit 307b estimate the gender and age of the player of the face image based on the feature amount supplied from the feature amount extraction unit 321 of the collation unit 302, and display the estimation result 23 To display.

次に、図14の機能ブロック図を参照して、生体情報管理センタ2の構成例について説明する。   Next, a configuration example of the biological information management center 2 will be described with reference to the functional block diagram of FIG.

生体情報管理センタ2は、DB配信部341、DB更新部342、およびDB更新判定部343から構成されており、生体情報管理DB3に格納されている登録遊技者DB352を、未登録遊技者DB351に基づいて、更新する。より具体的には、DB更新判定部343は、時刻情報を発生するRTC(Real Time Clock)343aを内蔵しており、その内蔵されているRTC343aに基づいて、所定時間が経過すると、生体情報管理DB3にアクセスし、未登録遊技者DB351に新たな未登録遊技者が登録されたか否かを判定する。   The biometric information management center 2 includes a DB distribution unit 341, a DB update unit 342, and a DB update determination unit 343. The registered player DB 352 stored in the biometric information management DB 3 is transferred to the unregistered player DB 351. Update based on. More specifically, the DB update determination unit 343 has a built-in RTC (Real Time Clock) 343a that generates time information. When a predetermined time elapses based on the built-in RTC 343a, the biological information management DB3 is accessed, and it is determined whether or not a new unregistered player is registered in the unregistered player DB 351.

DB更新判定部343は、未登録遊技者DB351に新たに未登録者が登録されていた場合、その旨をDB更新部342に通知する。DB更新部342は、未登録遊技者DB351にアクセスし、登録されている未登録遊技者のうち、所定回数以上登録されている未登録遊技者が存在するか否かを判定し、所定回数以上未登録遊技者として登録されている未登録遊技者が存在する場合、登録遊技者DB352を読み出して、所定回数以上登録されている未登録遊技者を登録遊技者DB352に登録して、更新する。さらに、DB更新部342は、登録遊技者DB352を更新すると、更新したことをDB配信部341に通知する。   When a new unregistered person is registered in the unregistered player DB 351, the DB update determination unit 343 notifies the DB update unit 342 to that effect. The DB update unit 342 accesses the unregistered player DB 351, determines whether there is an unregistered player that has been registered a predetermined number of times or more among registered unregistered players, and the predetermined number of times or more. When there is an unregistered player registered as an unregistered player, the registered player DB 352 is read, and an unregistered player registered for a predetermined number of times or more is registered in the registered player DB 352 and updated. Further, when the registered player DB 352 is updated, the DB update unit 342 notifies the DB distribution unit 341 of the update.

DB配信部341は、DB更新部342より登録遊技者DB352が更新されたことを通知されると、生体情報管理DB3にアクセスし、登録遊技者DB352を読み出して、各遊技店1の生体情報認識装置21に配信する。   When notified by the DB update unit 342 that the registered player DB 352 has been updated, the DB distribution unit 341 accesses the biometric information management DB 3 and reads the registered player DB 352 to recognize the biometric information of each gaming store 1. Delivered to the device 21.

次に、図15を参照して、携帯端末45の構成例について説明する。   Next, a configuration example of the mobile terminal 45 will be described with reference to FIG.

通信部371は、モデムなどで構成されており、遊技店1内の無線通信網を介して生体情報認識装置21との間でデータを授受する。また、通信部371は、生体情報認識装置21より配信されてくる、画像処理ユニット39または入口画像処理ユニット44より供給された顔画像と類似する顔画像の遊技者が来店したことを示す情報を取得し、画像処理部372に供給する。   The communication unit 371 is configured by a modem or the like, and exchanges data with the biological information recognition device 21 via a wireless communication network in the game store 1. In addition, the communication unit 371 receives information indicating that a player with a facial image similar to the facial image supplied from the image processing unit 39 or the entrance image processing unit 44 is delivered from the biological information recognition apparatus 21. Obtained and supplied to the image processing unit 372.

画像処理部372は、通信部371より供給されてくる画像処理ユニット39または入口画像処理ユニット44より供給された顔画像と類似する顔画像の遊技者が来店したことを示す情報に基づいて、LCDなどにより構成される表示部373に表示する画像を生成すると供に、表示部373に表示させる。   Based on the information indicating that the player of the face image similar to the face image supplied from the image processing unit 39 or the entrance image processing unit 44 supplied from the communication unit 371 has come to the store, the image processing unit 372 In addition to generating an image to be displayed on the display unit 373 configured by the above, the display unit 373 displays the image.

次に、図16のフローチャートを参照して、カメラ38(または店内カメラ40)を利用した場合の登録遊技者来店監視処理について説明する。   Next, a registered player visit monitoring process when the camera 38 (or in-store camera 40) is used will be described with reference to the flowchart of FIG.

ステップS1において、カメラ38は、遊技台36からの信号に基づいて、遊技台36により遊技が開始されたか否かを判定し、遊技が開始されたと判定されるまで、その処理を繰り返す。   In step S <b> 1, the camera 38 determines whether or not a game is started by the game table 36 based on a signal from the game table 36, and repeats the process until it is determined that the game is started.

ステップS1において、遊技が開始されたと判定された場合、ステップS2において、カメラ38は、設置されている範囲の画像を撮像し、撮像した画像を画像処理ユニット39に供給する。画像処理ユニット39の画像取得部201は、供給された画像を取得し、顔画像抽出部202に供給する。   If it is determined in step S <b> 1 that the game has started, in step S <b> 2, the camera 38 captures an image of the installed range and supplies the captured image to the image processing unit 39. The image acquisition unit 201 of the image processing unit 39 acquires the supplied image and supplies it to the face image extraction unit 202.

ステップS3において、顔画像抽出部202の顔検出部211は、供給された画像より遊技者の顔画像の存在する部位を検出し、検出結果を顔画像切り出し部212に供給する。顔画像切り出し部212は、検出された顔画像の存在する部位の位置示す情報に基づいて、画像より矩形状の顔画像を、切り出すことにより顔画像を抽出し、送信部203に供給する。より具体的には、顔画像抽出部202の顔検出部211は、例えば、撮像された画像の色などから肌が露出した部分であって、目や鼻といった特徴的な部位の配色などから顔画像の存在する画像中の部位を検出し、顔画像切り出し部212が、その検出結果である顔画像の存在する部位の情報に基づいて画像より矩形状の顔画像を切り出すことにより抽出して、送信部203に供給する。   In step S <b> 3, the face detection unit 211 of the face image extraction unit 202 detects a part where the player's face image exists from the supplied image, and supplies the detection result to the face image cutout unit 212. The face image cutout unit 212 extracts a face image by cutting out a rectangular face image from the image based on the information indicating the position of the part where the detected face image exists, and supplies the face image to the transmission unit 203. More specifically, the face detection unit 211 of the face image extraction unit 202 is, for example, a part where the skin is exposed from the color of the captured image, and the face is determined based on the color scheme of characteristic parts such as eyes and nose. A part in the image where the image exists is detected, and the face image cutout unit 212 extracts the rectangular image from the image based on the information on the part where the face image exists as a detection result, The data is supplied to the transmission unit 203.

ステップS4において、送信部203は、顔画像抽出部202より供給されてきた顔画像を生体情報認識装置21に送信する。この際、送信部203は、カメラ38、または店内カメラ40のそれぞれを識別するカメラIDや、送信時刻の情報などの情報を顔画像に付加して生体情報認識装置21に送信する。   In step S <b> 4, the transmission unit 203 transmits the face image supplied from the face image extraction unit 202 to the biological information recognition device 21. At this time, the transmission unit 203 adds information such as a camera ID for identifying each of the camera 38 and the in-store camera 40 and information on transmission time to the face image and transmits the information to the biometric information recognition apparatus 21.

ステップS21において、生体情報認識装置21の顔画像取得部301は、顔画像を取得する。ステップS22において、顔画像取得部301は、供給された顔画像のうち、いずれか未処理の1つを抽出し、特徴量抽出部321に供給する。   In step S21, the face image acquisition unit 301 of the biological information recognition device 21 acquires a face image. In step S <b> 22, the face image acquisition unit 301 extracts one unprocessed one of the supplied face images and supplies the extracted unprocessed one to the feature amount extraction unit 321.

ステップS23において、照合部302の特徴量抽出部321は、供給されてきた顔画像より特徴量を抽出して、顔画像と供に類似度計算部322に供給する。   In step S23, the feature amount extraction unit 321 of the collation unit 302 extracts the feature amount from the supplied face image and supplies it to the similarity calculation unit 322 together with the face image.

ステップ24において、類似度計算部322は、特徴量抽出部321より供給された顔画像について、目と目の間隔、あごから額までの長さと、あごから鼻のまでの長さの比率などの各種の顔の特徴量を求めて、それぞれの差分和、平均比率、または比率和などを類似度として計算し、計算結果である類似度の順位を求め、上位3位までの顔画像と類似度の情報を、特徴量抽出部321より供給されてきた顔画像と供に類似度判定部323に供給する。   In step 24, the similarity calculation unit 322 determines, for the face image supplied from the feature amount extraction unit 321, the ratio of the distance between eyes, the length from the chin to the forehead, and the length from the chin to the nose. Obtain various facial feature quantities, calculate the difference sum, average ratio, or ratio sum of each as the similarity, calculate the ranking of the similarity as the calculation result, and the top three face images and similarities Is supplied to the similarity determination unit 323 together with the face image supplied from the feature amount extraction unit 321.

ステップS25において、類似度判定部323は、類似度計算部322より供給されてくる上位3位までの顔画像と類似度の情報に基づいて、最上位の類似度が所定の閾値よりも大きいか否かを判定する。すなわち、類似度判定部323は、最も類似している登録遊技者(生体情報DB22に登録されている顔画像のうち、顔画像取得部301により取得された顔画像と最も類似している登録遊技者:ここでは、類似度の最も高い登録遊技者)の類似度を所定の閾値と比較する。   In step S25, the similarity determination unit 323 determines whether the highest similarity is larger than a predetermined threshold based on the top three face images and similarity information supplied from the similarity calculation unit 322. Determine whether or not. That is, the similarity determination unit 323 is the most similar registered player (the registered game most similar to the face image acquired by the face image acquisition unit 301 among the face images registered in the biometric information DB 22). In this case, the similarity of the registered player having the highest similarity is compared with a predetermined threshold.

尚、上述のように、類似度の定義により、撮像された顔画像と最も類似している登録遊技者の顔画像との類似度は、その値そのものが最も高いとは限らないため、類似度と閾値との大小関係はこの例の場合とは異なることがある。   Note that, as described above, the similarity between the face image of the registered player who is most similar to the captured face image is not necessarily the highest because of the definition of the similarity. And the threshold value may differ from those in this example.

ステップS26において、類似度判定部323は、類似度計算部322より供給されてきた上位3位の顔画像が登録遊技者の顔画像の候補であることを示す報知画面401を、表示部23を制御して表示させる。   In step S <b> 26, the similarity determination unit 323 displays a notification screen 401 indicating that the top three face images supplied from the similarity calculation unit 322 are candidates for registered player's face images, and displays the display unit 23. Control and display.

このとき、例えば、図17で示されるような報知画面401が、表示部23に表示される。   At this time, for example, a notification screen 401 as shown in FIG. 17 is displayed on the display unit 23.

図17の報知画面401においては、カメラ画像表示欄411が、左中段に設けられており、画像処理ユニット39より供給されてきた顔画像が表示される。また、その右側には、類似度の高い順に第1候補乃至第3候補までの類似度の上位3位の登録遊技者の顔画像表示欄412−1乃至412−3が設けられている。さらに、各登録遊技者の顔画像表示欄412−1乃至412−3の下には、類類似度レベル表示欄413−1乃至413−3が設けられており、類似度のレベルが表示されている。図17において、黒で示される領域の横方向の長さが類似度の大きさを示している。   In the notification screen 401 of FIG. 17, the camera image display field 411 is provided in the middle left, and the face image supplied from the image processing unit 39 is displayed. Also, on the right side, face image display fields 412-1 to 412-3 of registered players in the top three ranks of similarity from the first candidate to the third candidate are provided in descending order of similarity. Further, similarity level display fields 413-1 to 413-3 are provided below the face image display fields 412-1 to 412-3 of each registered player, and the level of similarity is displayed. Yes. In FIG. 17, the horizontal length of the area shown in black indicates the degree of similarity.

また、類似度レベル表示欄413−1乃至413−3の下には、対応する位置に、ID表示欄414−1乃至414−3が設けられており、各顔画像の生体情報DB22における顔画像を識別するIDが表示されており、図17において、左から「00051」、「00018」および「00022」と表示されている。   Further, ID display fields 414-1 to 414-3 are provided at corresponding positions below the similarity level display fields 413-1 to 413-3, and the face images in the biological information DB 22 of each face image. In FIG. 17, “00051”, “00018”, and “00022” are displayed from the left in FIG.

さらに、ID表示欄414−1乃至414−3の下には、それぞれ対応する位置に、それぞれの候補を選択されるときに操作部305により操作される確定ボタン418−1乃至418−3確定ボタン418−1乃至418−3が設けられている。   Furthermore, below the ID display fields 414-1 to 414-3, the confirmation buttons 418-1 to 418-3 confirmation buttons operated by the operation unit 305 when the respective candidates are selected at the corresponding positions. 418-1 to 418-3 are provided.

また、カメラ画像表示欄411の下には、その顔画像を撮像したカメラを識別するカメラID表示欄415が設けられており、図17においては、カメラ38、および店内カメラ40を識別するためのカメラIDとして「カメラ02」が表示されている。さらに、カメラID表示欄415の下には、時刻表示欄416が設けられており、カメラIDとして「カメラ02」で設定されるカメラ38により撮像された時刻が表示されており、図17においては、「18:23:32」と表示されており、カメラ画像表示欄411の顔画像が18時23分32秒に撮像されていることが示されている。   A camera ID display field 415 for identifying the camera that captured the face image is provided under the camera image display field 411. In FIG. 17, the camera 38 and the in-store camera 40 are identified. “Camera 02” is displayed as the camera ID. Further, a time display field 416 is provided below the camera ID display field 415, and the time taken by the camera 38 set as “camera 02” as the camera ID is displayed. In FIG. , “18:23:32” is displayed, indicating that the face image in the camera image display field 411 is captured at 18:23:32.

さらに、時刻表示欄416の下には、別人ボタン417が設けられており、カメラ画像の顔画像が、第1候補乃至第3候補となる登録遊技者の顔画像表示欄412−1乃至412−3のいずれにも似ていないとみなされたとき、操作部305により操作される。   Further, another person button 417 is provided below the time display field 416, and the face image of the registered player, whose face image of the camera image is the first to third candidates, is displayed. 3 is operated by the operation unit 305.

ステップS27において、通信部304は、操作部305が操作されて、候補となる顔画像の何れかが選択されたか否か、すなわち、例えば、図17で示される報知画面401が表示部23に表示されていた場合、確定ボタン418−1乃至418−3のいずれかが操作部305により操作されたか否かを判定する。   In step S27, the communication unit 304 displays on the display unit 23 whether or not any of the candidate face images has been selected by operating the operation unit 305, that is, for example, the notification screen 401 illustrated in FIG. If it has been determined, it is determined whether any of the confirmation buttons 418-1 to 418-3 has been operated by the operation unit 305.

ステップS27において、例えば、確定ボタン418−1が操作された場合、第1候補となる顔画像が選択されたとみなされ、ステップS28において、通信部304は、選択された第1候補となる顔画像およびカメラ38により撮像されたカメラ画像を携帯端末45に送信し、該当する登録遊技者が来店したことを通知する。   In step S27, for example, when the confirm button 418-1 is operated, it is considered that the face image to be the first candidate has been selected, and in step S28, the communication unit 304 selects the face image to be the first candidate selected. And the camera image imaged with the camera 38 is transmitted to the portable terminal 45, and it notifies that the corresponding registered player came to the store.

ステップS41において、通信部371は、登録遊技者の来店が通知されてきたか否かを判定し、通知されてくるまで、その処理を繰り返す。例えば、ステップS41において、ステップS28の処理により、登録遊技者の来店が通知されてきた場合、ステップS42において、通信部371は、生体情報認識装置21より送信されてきた登録遊技者の来店の通知を受信すると供に、その通知に併せて送信されてくる登録遊技者の顔画像およびカメラ38により撮像されたカメラ画像を画像処理部372に供給する。画像処理部372は、選択された顔画像およびカメラ38により撮像されたカメラ画像の情報を、表示部373に表示可能な形式の情報に加工して、ステップS43において、表示部373に表示させる。   In step S41, the communication unit 371 determines whether or not the registered player has been notified of the store visit, and repeats the processing until the notification is received. For example, in step S41, when the registered player's visit is notified by the process of step S28, in step S42, the communication unit 371 notifies the registered player's visit sent from the biometric information recognition device 21. , The face image of the registered player and the camera image captured by the camera 38 transmitted together with the notification are supplied to the image processing unit 372. The image processing unit 372 processes information on the selected face image and the camera image captured by the camera 38 into information in a format that can be displayed on the display unit 373, and displays the information on the display unit 373 in step S43.

以上の処理により、遊技店1内の係員は、携帯端末45を所持していると、登録遊技者の来店を認識することが可能となる。   By the above processing, the staff in the game store 1 can recognize the visit of the registered player if the portable terminal 45 is possessed.

また、ステップS29において、顔画像取得部301は、供給された顔画像の全てについて処理を行ったか否かを判定し、未処理の顔画像がある場合、処理は、ステップS22に戻る。すなわち、全ての顔画像について処理が行なわれるまで、ステップS22乃至S30の処理が繰り返される。そして、全ての顔画像について処理が終了したと判定された場合、処理は、ステップS21に戻る。   In step S29, the face image acquisition unit 301 determines whether or not all of the supplied face images have been processed. If there is an unprocessed face image, the process returns to step S22. That is, the processes in steps S22 to S30 are repeated until the process is performed on all face images. If it is determined that the process has been completed for all face images, the process returns to step S21.

一方、ステップS27において、いずれの候補となる顔画像も選択されず、例えば、図17の報知画面401における別人ボタン417が押下された場合、または、ステップS25において、類似度計算部322より供給されてくる上位3位までの顔画像と類似度の情報に基づいて、最上位の類似度が所定の閾値よりも大きくない場合、すなわち、最も類似している登録遊技者の顔画像であっても類似度が、所定の閾値未満である場合、ステップS30において、類似度判定部323は、画像処理ユニット39より供給されてきた顔画像を未登録遊技者データベース登録部303に供給する。未登録遊技者データベース登録部303は、供給されてきた顔画像を生体管理情報バス6及び公衆通信回線網8を介して生体情報管理データベース3にアクセスし、未登録遊技者DB351に登録する。   On the other hand, no candidate face image is selected in step S27. For example, when a different person button 417 on the notification screen 401 in FIG. 17 is pressed, or in step S25, the similarity calculation unit 322 supplies the face image. Based on the information of the top three face images and the similarity, the highest similarity is not greater than a predetermined threshold, that is, even the face image of the most similar registered player If the similarity is less than the predetermined threshold, the similarity determination unit 323 supplies the face image supplied from the image processing unit 39 to the unregistered player database registration unit 303 in step S30. The unregistered player database registration unit 303 accesses the biometric information management database 3 through the biometric management information bus 6 and the public communication line network 8 to register the supplied face image in the unregistered player DB 351.

以上の処理により、生体情報認識装置21により画像処理ユニット39より供給されてきた顔画像が、生体情報DB22に登録されていないとみなされると、生体情報管理センタ2により管理されている生体情報管理DB3内の未登録遊技者DB351に未登録遊技者の顔画像として登録される。   If the face image supplied from the image processing unit 39 by the biometric information recognition device 21 is not registered in the biometric information DB 22 by the above processing, the biometric information management managed by the biometric information management center 2 is performed. The face image of the unregistered player is registered in the unregistered player DB 351 in DB3.

次に、図18のフローチャートを参照して、登録遊技者DB352の更新処理について説明する。   Next, update processing of the registered player DB 352 will be described with reference to the flowchart of FIG.

ステップS61において、生体情報管理センタ2のDB更新判定部343は、RTC343aに問合せて、所定の時間が経過したか否かを判定し、所定の時間が経過するまで、その処理を繰り返す。例えば、ステップS61において、所定の時間が経過したと判定された場合、ステップS62において、DB更新判定部343は、生体情報管理DB3の未登録遊技者DB351にアクセスし、未登録遊技者が新たに登録されているか否かを判定し、新たな未登録遊技者が登録されていると判定されるまで、ステップS61,S62の処理を繰り返す。   In step S61, the DB update determination unit 343 of the biometric information management center 2 makes an inquiry to the RTC 343a, determines whether or not a predetermined time has elapsed, and repeats the process until the predetermined time has elapsed. For example, if it is determined in step S61 that the predetermined time has elapsed, in step S62, the DB update determination unit 343 accesses the unregistered player DB 351 of the biometric information management DB 3, and an unregistered player is newly added. It is determined whether or not it is registered, and the processes of steps S61 and S62 are repeated until it is determined that a new unregistered player is registered.

ステップS62において、例えば、ステップS30の処理により、新たに未登録遊技者が登録されていた場合、ステップS63において、DB更新判定部343は、未登録遊技者DB351に新たに登録された未登録遊技者のいずれかが所定回数以上登録されているか否かを判定し、所定回数以上ではない場合、その処理は、ステップS61に戻る。   In step S62, for example, when an unregistered player is newly registered by the process of step S30, the DB update determination unit 343 in step S63, the unregistered game newly registered in the unregistered player DB 351. It is determined whether or not one of the users has been registered a predetermined number of times or more. If not, the process returns to step S61.

一方、ステップS63において、例えば、所定回数以上未登録遊技者DB351に登録されている未登録遊技者が存在すると判定された場合、ステップS64において、DB更新判定部343は、DB更新部342に対して、登録遊技者DB352の更新をするべき状態になったことを通知する。これに応じて、DB更新部342は、未登録遊技者DB351にアクセスし、所定回数以上登録されている未登録遊技者の顔画像の情報を全て読み出すと供に、登録遊技者DB352にアクセスし、読み出した所定回数以上登録されていた未登録遊技者の顔画像の情報に、顔画像を識別するIDを付して、登録遊技者DB352に追加登録して、更新する。さらに、DB更新部342は、登録遊技者DB352が更新されたことをDB配信部341に通知する。尚、登録遊技者DB352の更新が終了した時点で、所定回数以上登録されていた未登録遊技者は、未登録遊技者DB351より削除される。   On the other hand, in step S63, for example, when it is determined that there is an unregistered player registered in the unregistered player DB 351 a predetermined number of times or more, the DB update determination unit 343 determines in step S64 that the DB update unit 342 Then, the registered player DB 352 is notified that it should be updated. In response to this, the DB update unit 342 accesses the unregistered player DB 351, reads all the face image information of unregistered players that have been registered a predetermined number of times, and accesses the registered player DB 352. Then, an ID for identifying the face image is added to the information of the face image of the unregistered player who has been registered a predetermined number of times or more, and the information is additionally registered in the registered player DB 352 and updated. Furthermore, the DB update unit 342 notifies the DB distribution unit 341 that the registered player DB 352 has been updated. When the update of the registered player DB 352 is completed, unregistered players that have been registered a predetermined number of times or more are deleted from the unregistered player DB 351.

ステップS65において、DB配信部341は、生体情報管理DB3の新たに更新された登録遊技者DB352にアクセスし、読み出すと供に、生体情報認識装置21のデータベース管理部306に読み出した登録遊技者DB352を配信する。   In step S65, the DB distribution unit 341 accesses and reads the newly updated registered player DB 352 of the biometric information management DB 3, and reads the registered player DB 352 read to the database management unit 306 of the biometric information recognition device 21. To deliver.

ステップS81において、データベース管理部306は、生体情報管理センタ2より更新された新たな登録遊技者DB352が配信されてきたか否かを判定し、配信されてくるまで、その処理を繰り返す。   In step S81, the database management unit 306 determines whether or not a new registered player DB 352 updated from the biometric information management center 2 has been distributed, and repeats the processing until it is distributed.

ステップS81において、例えば、ステップS65の処理により、生体情報管理センタ2のDB配信部341より新たに更新された登録遊技者DB352が配信されてくると、ステップS82において、データベース管理部306は、配信されてくる登録遊技者DB352を取得すると供に、登録遊技者DB352の情報に基づいて、生体情報DB22を更新する。より詳細には、データベース管理部306は、生体情報DB22に、新たに配信されてきた登録遊技者DB352の情報をコピーして上書きする。   In step S81, for example, when the newly updated registered player DB 352 is distributed from the DB distribution unit 341 of the biometric information management center 2 by the processing in step S65, the database management unit 306 distributes in step S82. In addition to acquiring the registered player DB 352, the biometric information DB 22 is updated based on the information of the registered player DB 352. More specifically, the database management unit 306 copies and overwrites the newly distributed information of the registered player DB 352 in the biometric information DB 22.

以上の処理により、遊技店1−1乃至1−nのいずれかで、未登録遊技者として所定回数以上未登録遊技者DB351に登録されると、登録遊技者DB352に追加登録されることにより、遊技店1−1乃至1−nのいずれの生体情報認識装置21の生体情報DB22にデータベース化して登録されることになるので、複数の遊技店1においても、カメラ38により撮像されると、登録遊技者として来店が報知されることになる。また、登録遊技者DB352は、各遊技店1−1乃至1−nからの情報に基づいて更新されていくので、複数の店舗における顧客来店記録を生成することが可能となり、顧客来店記録を統合的に管理することが可能となる。   As a result of the above processing, when one of the game stores 1-1 to 1-n is registered in the unregistered player DB 351 as a non-registered player more than a predetermined number of times, by being additionally registered in the registered player DB 352, Since the database is registered in the biometric information DB 22 of any of the biometric information recognition devices 21 of the game stores 1-1 to 1-n, registration is performed when images are captured by the camera 38 in a plurality of game stores 1 as well. The visit to the store will be notified as a player. In addition, since the registered player DB 352 is updated based on information from each of the game stores 1-1 to 1-n, it is possible to generate customer store records at a plurality of stores, and integrate customer store records. Management is possible.

以上においては、図16のフローチャートにおけるステップS1の処理で示されるように、遊技台36において遊技が開始されるタイミングで撮像される画像における顔画像と、登録遊技者DB352と同一のデータベースである生体情報DB22の顔画像とが照合されて来店したか否かを判定すると供に、登録遊技者ではない場合、未登録遊技者として未登録遊技者DB351に登録され、所定回数未登録遊技者として登録されると、登録遊技者DB352に登録される例について説明してきたが、画像が撮像されるタイミングは、これに限るものではなく、例えば、遊技台周辺端末37において紙幣が詰まったことが検出されたり、遊技台36において、球詰まりやメダル詰まりが検出されるといった異常動作が検出されるタイミングでカメラ38や店内カメラ41で撮像するようにしてもよく、このように異常動作時に特定の遊技者が登録されるようにすることで、例えば、異常動作を利用して不正行為が行われているような場合、これを摘発することが可能となる。   In the above, as shown in the process of step S1 in the flowchart of FIG. 16, the face image in the image captured at the timing when the game is started on the game table 36, and the living body that is the same database as the registered player DB 352 When it is determined whether or not the customer has visited the store by comparing the face image in the information DB 22, if it is not a registered player, it is registered in the unregistered player DB 351 as an unregistered player and registered as an unregistered player a predetermined number of times. In this case, the example registered in the registered player DB 352 has been described. However, the timing at which an image is captured is not limited to this. For example, it is detected that a banknote is jammed in the game stand peripheral terminal 37. In the game table 36, the camera 38 is detected at a timing when an abnormal operation such as a ball jam or a medal jam is detected. The in-store camera 41 may be used to capture an image. Thus, for example, when a specific player is registered during an abnormal operation, for example, when an illegal action is performed using the abnormal operation. It becomes possible to detect this.

また、以上においては、図16のフローチャートにおけるステップS1の処理で示されるように、遊技が開始されるタイミングで顔画像を抽出する例について説明してきたが、特別に撮像のタイミングを決めることなく、撮像し続ける中で、顔画像が抽出されたら、照合するようにしてもよい。   Further, in the above, as shown in the process of step S1 in the flowchart of FIG. 16, the example of extracting the face image at the timing when the game is started has been described, but without specially determining the timing of imaging, If a face image is extracted while continuing to image, it may be collated.

以上によれば、各店舗における顧客来店情報のみならず複数の店舗における顧客来店記録の収集と、統合的な管理を実現することが可能となる。   According to the above, it is possible to realize not only customer visit information at each store but also collection of customer visit records at a plurality of stores and integrated management.

次に、図19のフローチャートを参照して、推定処理について説明する。尚、図19のフローチャートにおけるステップS101乃至S104の処理、および、ステップS111乃至S113,S120の処理は、図16のフローチャートにおけるステップS1乃至S4の処理、および、ステップS21乃至S23,S29の処理と同様であるので、その説明は省略するものとする。   Next, the estimation process will be described with reference to the flowchart of FIG. The processes in steps S101 to S104 and the processes in steps S111 to S113 and S120 in the flowchart of FIG. 19 are the same as the processes in steps S1 to S4 and the processes in steps S21 to S23 and S29 in the flowchart of FIG. Therefore, the description thereof will be omitted.

すなわち、ステップS113により特徴量が抽出されると、ステップS114において、属性推定部307の性別推定部307aは、男性顔または女性顔の性別特徴パターンと、特徴量抽出部321より供給されてきた特徴量とを比較し、性別特徴パターンとの類似度を点数化する。より具体的には、性別推定部307aは、額については、鼻と目のすぐ上に突き出し、それから後方に傾斜しているというパターンとの類似度を、口については、顔の横幅に対しての大きさの程度を、頬については髭のはえる部位の濃度などの各項目を点数化して、男性顔特徴パターンとの比較結果を求め、額については、面積の大きさの程度を、口については、色の濃さや下唇に対する上唇の薄さの程度を、頬については頬骨の突き出かたや面積の広さなどの各項目を点数化して、女性顔特徴パターンとの比較結果を求める。   That is, when the feature amount is extracted in step S113, the gender estimation unit 307a of the attribute estimation unit 307 in step S114 includes the gender feature pattern of the male face or the female face and the feature supplied from the feature amount extraction unit 321. The amount is compared, and the similarity with the gender feature pattern is scored. More specifically, the gender estimation unit 307a determines the similarity between the nose and the pattern that protrudes immediately above the eyes and then tilts backward for the forehead, and the width of the face for the mouth. Each item, such as the density of the area where the cheeks grow on the cheeks, is scored to obtain a comparison result with the male face feature pattern.For the forehead, the size of the area As for the color depth and the degree of thinness of the upper lip with respect to the lower lip, and for the cheek, each item such as how the cheekbone protrudes and the size of the area is scored to obtain a comparison result with the female face feature pattern.

ステップS115において、性別推定部307aは、男性顔特徴パターンおよび女性顔特徴パターンによりそれぞれ求められた点数の比較により、特徴量抽出部321より供給されてきた特徴量の顔画像が男性であるか否かを判定し、例えば、女性顔特徴パターンにより求められた点数の方が高い場合、ステップS116において、性別は男性ではなく、女性であると判定する。一方、ステップS115において、男性顔特徴パターンにより求められた点数の方が高い場合、ステップS117において、性別推定部307aは、性別が男性であると判定する。   In step S115, the gender estimation unit 307a determines whether or not the face image of the feature amount supplied from the feature amount extraction unit 321 is a male by comparing the scores obtained from the male face feature pattern and the female face feature pattern, respectively. For example, if the score obtained from the female face feature pattern is higher, it is determined in step S116 that the gender is not male but female. On the other hand, if the score obtained from the male face feature pattern is higher in step S115, the gender estimation unit 307a determines that the gender is male in step S117.

ステップS118において、年齢特徴推定部307bは、顔画像の特徴から年齢を推定する。より具体的には、年齢特徴推定部307bは、例えば、額については、しわ、くすみ、または表情しわが、目については、しわ、瞼のくぼみ、または目尻のたるみが、肌については、しわ、毛穴、たるみ、またはくすみが、顎については、たるみ、または面積が、それぞれについて、少なければ少ないほど低年齢であり、多ければ多いほど高齢であるものとして、それらの推定結果の例えば平均値などを推定年齢とする。   In step S118, the age feature estimation unit 307b estimates the age from the feature of the face image. More specifically, the age feature estimation unit 307b has, for example, wrinkles, dullness, or facial expression wrinkles for the forehead, wrinkles, wrinkles in the eyelids, or sagging of the corners of the eyes, and wrinkles for the skin. Assuming that pores, sagging, or dullness, sagging, or area of the jaw, the smaller the age, the younger the age, and the greater the age, the older the age, for example, Estimated age.

ステップS119において、属性推定部307は、性別推定部307aおよび年齢推定部307bにより推定された、特徴量抽出部321より供給されてきた特徴量の顔画像の推定結果を表示部23に供給して表示させる。   In step S119, the attribute estimation unit 307 supplies the estimation result of the face image of the feature amount supplied from the feature amount extraction unit 321 estimated by the gender estimation unit 307a and the age estimation unit 307b to the display unit 23. Display.

以上の処理により、遊技者に会員IDを発行したり、遊技者が会員IDが記録されたカードなどを挿入したり、さらには、係員の目視に頼ることなく、顔画像を用いることで、顔画像により推定される性別、および推定年齢などにより遊技店に来店する客層の情報を取得することが可能となり、これまで係員の目視に頼るしかなかった客層の分析が可能となる。   Through the above process, the face ID is issued to the player, the player inserts a card etc. on which the member ID is recorded, and the face image is used without relying on the visual inspection of the staff. It is possible to acquire information on customers who come to the amusement store based on the gender estimated by the image, the estimated age, and the like, and it is possible to analyze the customer segment that has so far only depended on the visual observation of the staff.

以上においては、図16のフローチャートを参照して、カメラ38または店内カメラ40を利用した場合の登録遊技者来店監視処理について説明してきたが、入口カメラ43を利用して登録遊技者来店監視処理を実行することも可能である。ただし、その場合、画像処理ユニット39に代えて入口画像認識サーバ44が利用されると共に、さらに、位置認識サーバ42の処理が加えられることになる。   In the above, the registered player visit monitoring process when the camera 38 or the in-store camera 40 is used has been described with reference to the flowchart of FIG. 16, but the registered player visit monitoring process is performed using the entrance camera 43. It is also possible to execute. However, in that case, the entrance image recognition server 44 is used in place of the image processing unit 39, and the processing of the position recognition server 42 is further added.

そこで、次に、図20のフローチャートを参照して、入口カメラ43を利用した場合の登録遊技者来店監視処理について説明する。尚、図20のフローチャートにおけるステップS161乃至S170の処理、および、ステップS191乃至S193の処理については、図16のフローチャートにおけるステップS21乃至S30、およびステップS41乃至S43の処理と同様であるので、その説明は省略するものとする。   Then, with reference to the flowchart of FIG. 20, the registration player visit monitoring process at the time of using the entrance camera 43 is demonstrated. The processes in steps S161 through S170 and the processes in steps S191 through S193 in the flowchart of FIG. 20 are the same as the processes in steps S21 through S30 and steps S41 through S43 in the flowchart of FIG. Shall be omitted.

ステップS121において、入口ステレオ画像センサ41の演算処理部252は、カメラ251−1,251−2により1フレーム分の画像が撮像されているか否かを判定し、1フレーム分の画像が撮像されたと判定されるまでその処理を繰り返す。例えば、ステップS121において、カメラ251−1,251−2により1フレーム分の画像が撮像されて、演算処理部252に供給されてきた場合、処理は、ステップS122に進む。   In step S121, the arithmetic processing unit 252 of the entrance stereo image sensor 41 determines whether or not an image for one frame is captured by the cameras 251-1 and 251-2, and an image for one frame is captured. The process is repeated until it is determined. For example, in step S121, when an image for one frame is captured by the cameras 251-1 and 251-2 and supplied to the arithmetic processing unit 252, the process proceeds to step S122.

ステップS122において、演算処理部252は、カメラ251−1,251−2よりそれぞれ供給されてくる2枚の画像に基づいて、三角法により画像内における被写体の3次元空間の位置情報を計算し、2枚の画像と共に位置認識サーバ42に供給する。   In step S122, the arithmetic processing unit 252 calculates the position information of the subject in the three-dimensional space in the image by trigonometry based on the two images respectively supplied from the cameras 251-1 and 251-2, The two images are supplied to the position recognition server 42.

ステップS123において、位置認識サーバ42の人検出部271は、入口ステレオ画像センサ41より供給されてきた画像に基づいて、人物が撮像されているか否かを判定する。より具体的には、人検出部271は、供給されてきた画像における人物の顔画像を構成する、目、鼻、口、耳、あごなどの配色により判別可能な要素を含む領域の有無を判定する。   In step S <b> 123, the person detection unit 271 of the position recognition server 42 determines whether a person is captured based on the image supplied from the entrance stereo image sensor 41. More specifically, the human detection unit 271 determines the presence or absence of an area that includes elements that can be distinguished by color schemes such as eyes, nose, mouth, ears, chin, etc., constituting a human face image in the supplied image. To do.

ステップS123において、人物の顔画像を構成する要素を含む領域がないと判定された場合、処理は、ステップS121に戻る。一方、ステップS123において、人物の顔画像を構成する要素を含む領域があると判定された場合、ステップS124において、人検出部271は、人物の顔画像を構成する要素を含む個々の領域に対して人物IDを付加し、画像中の人物の顔画像の存在する領域を示す情報と共に人物位置情報生成部272に供給する。   If it is determined in step S123 that there is no region including the elements constituting the human face image, the process returns to step S121. On the other hand, if it is determined in step S123 that there is a region including an element constituting the person's face image, in step S124, the person detection unit 271 performs the individual region including the element constituting the person's face image. The person ID is added to the person position information generation unit 272 together with information indicating a region where the face image of the person exists in the image.

ステップS125において、人物位置情報生成部272は、人物位置情報生成処理を実行し、人物位置情報を生成する。   In step S125, the person position information generation unit 272 executes a person position information generation process to generate person position information.

ここで、図21のフローチャートを参照して、人物位置情報生成処理について説明する。   Here, the person position information generation processing will be described with reference to the flowchart of FIG.

ステップS211において、人物位置情報生成部272は、人検出部271より供給されてきた、人物IDが付加された人物の顔画像を構成する要素を含む個々の領域を示す情報のうち、未処理の人物IDを抽出し、メモリ274に人物位置情報として記録する。   In step S <b> 211, the person position information generation unit 272 is an unprocessed piece of information that is supplied from the person detection unit 271 and that indicates individual areas including elements constituting the face image of the person to which the person ID is added. The person ID is extracted and recorded as person position information in the memory 274.

ステップS212において、人物位置情報生成部272は、座標変換部272aを制御し、抽出した人物IDに対応する3次元の位置情報を、その位置情報を生成した入口ステレオ画像センサ41に対応する位置に設定されている入口カメラ43により撮像される画像上の2次元位置情報に変換して、ステップS213において、メモリ274に記録した人物IDに対応する領域に人物位置情報として記録する。   In step S212, the person position information generation unit 272 controls the coordinate conversion unit 272a to set the three-dimensional position information corresponding to the extracted person ID to the position corresponding to the entrance stereo image sensor 41 that generated the position information. The information is converted into two-dimensional position information on the image picked up by the entrance camera 43 that has been set, and recorded as person position information in an area corresponding to the person ID recorded in the memory 274 in step S213.

より詳細には、入口ステレオ画像センサ41により、例えば、図22で示されるような画像が供給されてきた場合、人物位置情報生成部272は、座標変換部272aを制御して、図22の番号1で示される領域についての3次元の座標(X1,Y1,Z1)、番号2で示される領域の座標(X2,Y2,Z2)、番号3で示される領域の座標(X3,Y3,Z3)のそれぞれを、入口ステレオ画像センサ41のカメラ251−1または251−2で撮像される画像とほぼ同一の画像を撮像する入口カメラ43で撮像される、例えば、図23で示される画像上の2次元座標に変換する。従って、人物位置情報生成部272は、入口カメラ43で撮像されるであろう画像内における遊技者A,B,Cの顔画像の画像上の位置座標を求めることになる。   More specifically, for example, when an image as shown in FIG. 22 is supplied from the entrance stereo image sensor 41, the person position information generation unit 272 controls the coordinate conversion unit 272a, and the number shown in FIG. Three-dimensional coordinates (X1, Y1, Z1) for the area indicated by 1, coordinates of the area indicated by number 2 (X2, Y2, Z2), coordinates of the area indicated by number 3 (X3, Y3, Z3) Are captured by an entrance camera 43 that captures substantially the same image as the image captured by the camera 251-1 or 251-2 of the entrance stereo image sensor 41, for example, 2 on the image shown in FIG. Convert to dimensional coordinates. Therefore, the person position information generation unit 272 obtains position coordinates on the images of the face images of the players A, B, and C in the image that will be captured by the entrance camera 43.

すなわち、入口カメラ43により撮像される画像は、入口ステレオ画像センサ41のカメラ251−1,251−2により撮像される画像であるため、入口カメラ43のアングルから撮像される空間内における2次元の位置情報と、入口ステレオ画像センサ41により検出される3次元の位置情報とが一致するように顔画像と、人物IDが付された位置情報とを対応付けることにより、例えば、図24で示されるように、番号1の位置には、顔画像Bの遊技者が、番号2の位置には、顔画像Aの遊技者が、番号3の位置には、顔画像Cの遊技者がそれぞれ対応付けられる。このとき、座標変換部272aは、番号1乃至3の3次元の座標(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3)をそれぞれ入口カメラ43で撮像される画像上の座標(x1,y1),(x2,y2),(x3,y3)に変換する。人物位置情報生成部272は、その変換結果に基づいて、図25で示されるように、人物IDに対応する遊技者の画像上の2次元の座標位置を、人物位置情報として記録する。尚、座標は、各領域を示す中心位置であるものとして説明するが、領域を特定する別の位置の座標であっても良い。   That is, since the image captured by the entrance camera 43 is an image captured by the cameras 251-1 and 251-2 of the entrance stereo image sensor 41, it is a two-dimensional image in the space captured from the angle of the entrance camera 43. By associating the face image with the position information with the person ID so that the position information matches the three-dimensional position information detected by the entrance stereo image sensor 41, for example, as shown in FIG. In addition, the player of face image B is associated with the position of number 1, the player of face image A is associated with the position of number 2, and the player of face image C is associated with the position of number 3. . At this time, the coordinate conversion unit 272a captures the three-dimensional coordinates (X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3) of numbers 1 to 3 by the entrance camera 43, respectively. The coordinates on the image are converted to (x1, y1), (x2, y2), (x3, y3). Based on the conversion result, the person position information generation unit 272 records the two-dimensional coordinate position on the player image corresponding to the person ID as person position information, as shown in FIG. The coordinates are described as being the center position indicating each area, but may be coordinates of another position specifying the area.

図25においては、第1フレーム乃至第3フレームまで(Flame No.1乃至3)のフレーム毎に、右から人物ID欄、検出位置欄、および入口検出Flag欄がそれぞれ設けられており、特に、第3フレームにおいては、人物IDとして上から0001,0002・・・と記録されている。また、検出位置として、上から(x1,y1),(x2,y2)・・・と記録されている。さらに、入口検出Flagとして上から「Yes」、「No」と記録されている。従って、図25の場合、人物ID=0001の顔画像は、入口カメラ43上で撮像される画像上の2次元座標(x1,y1)上に存在し、入口検出Flagが「Yes」であることが示されている。また、人物ID=0002の顔画像は、入口カメラ43上で撮像される画像上の2次元座標(x2,y2)上に存在し、入口検出Flagが「No」であることが示されている。尚、入口検出Flagについては、詳細を後述する。   In FIG. 25, for each frame from the first frame to the third frame (Flame No. 1 to 3), a person ID column, a detection position column, and an entrance detection Flag column are provided from the right. In the third frame, 0001, 0002,... Are recorded as person IDs from the top. Further, (x1, y1), (x2, y2),... Are recorded as detection positions from the top. Furthermore, “Yes” and “No” are recorded from the top as the entrance detection flag. Therefore, in the case of FIG. 25, the face image of the person ID = 0001 exists on the two-dimensional coordinates (x1, y1) on the image captured by the entrance camera 43, and the entrance detection flag is “Yes”. It is shown. In addition, it is indicated that the face image with the person ID = 0002 exists on the two-dimensional coordinates (x2, y2) on the image captured by the entrance camera 43, and the entrance detection flag is “No”. . Details of the inlet detection flag will be described later.

ステップS214において、人物位置情報生成部272は、入口検出判定部272bを制御して、2次元の位置情報に基づいて、出入口112における領域で検出した顔画像であるか否かを判定する。すなわち、ここで扱う2次元の座標は、入口ステレオ画像センサ41により計測される3次元空間における顔画像の位置から、入口カメラ43により撮像される画像上の2次元空間の座標に変換されたものであるため、同様の手法により、出入口112の3次元空間における座標が2次元空間における座標に変換されたものと比較することにより、出入口112における顔画像であるか否かを検出することが可能である。そこで、人物位置情報生成部272は、入口検出判定部272bを制御して、2次元空間における顔画像の位置情報に基づいて、その顔画像が出入口112で検出されたか否かを判定する。   In step S214, the person position information generation unit 272 controls the entrance detection determination unit 272b to determine whether the face image is detected in the area at the entrance 112 based on the two-dimensional position information. That is, the two-dimensional coordinates handled here are converted from the position of the face image in the three-dimensional space measured by the entrance stereo image sensor 41 to the coordinates of the two-dimensional space on the image captured by the entrance camera 43. Therefore, it is possible to detect whether or not it is a face image at the entrance / exit 112 by comparing the coordinates in the three-dimensional space of the entrance / exit 112 with those converted into coordinates in the two-dimensional space by the same method. It is. Therefore, the person position information generation unit 272 controls the entrance detection determination unit 272b to determine whether the face image is detected at the entrance 112 based on the position information of the face image in the two-dimensional space.

そして、ステップS214において、例えば、出入口112で検出されていると判定された場合、ステップS215において、人物位置情報生成部272は、入口検出FlagをYesに設定する。また、ステップS214において、出入口112で顔画像が検出されていない場合、ステップS216において、人物位置情報生成部272は、入口検出FlagをNoに設定する。   In step S214, for example, when it is determined that the detection is performed at the entrance 112, the person position information generation unit 272 sets the entrance detection flag to Yes in step S215. In step S214, if no face image is detected at the entrance 112, the person position information generation unit 272 sets the entrance detection flag to No in step S216.

ステップS217において、人物位置情報生成部272は、未処理の人物IDが存在するか否かを判定し、未処理の人物IDが存在する場合、処理は、ステップS211に戻る。すなわち、全ての人物IDが処理されたと判定されるまで、人物IDが設定されている顔画像について、個別にステップS211乃至S217の処理が繰り返され、人物位置情報に登録される。   In step S217, the person position information generation unit 272 determines whether or not an unprocessed person ID exists. If there is an unprocessed person ID, the process returns to step S211. That is, until it is determined that all the person IDs have been processed, the processes in steps S211 to S217 are individually repeated for the face image in which the person ID is set, and registered in the person position information.

そして、ステップS217において、全ての人物IDが設定された顔画像について、人物位置情報に登録されると、人物位置情報生成部272は、人物位置情報の生成処理が終了したことを入口通過者位置情報生成部273に通知すると供に、処理が終了する。   In step S217, when the face images for which all the person IDs are set are registered in the person position information, the person position information generation unit 272 indicates that the person position information generation process has been completed, The process ends when the information generation unit 273 is notified.

以上の処理により、入口ステレオ画像センサ41により検出される人物、すなわち、入口カメラ43により撮像される画像内の人物について、入口カメラ43により撮像される画像内の座標により位置情報が登録されて、人物位置情報が生成される。   With the above processing, the position information is registered by the coordinates in the image captured by the entrance camera 43 for the person detected by the entrance stereo image sensor 41, that is, the person in the image captured by the entrance camera 43. Person position information is generated.

ここで、図20のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS125において、人物位置情報が生成されると、ステップS126において、入口通過者位置情報生成部273は、入口通過者位置情報生成処理を実行し、入口通過者位置情報を生成する。   When the person position information is generated in step S125, in step S126, the entrance passer position information generation unit 273 executes entrance passer position information generation processing to generate entrance passer position information.

ここで、図26のフローチャートを参照して、入口通過者位置情報生成処理について説明する。   Here, the entrance passer position information generation processing will be described with reference to the flowchart of FIG.

ステップS231において、入口通過者位置情報生成部273は、人物位置情報生成部272より人物位置情報処理で人物位置情報がメモリ274に生成されたことを示す通知を受けると、メモリ274にアクセスし、人物位置情報に登録された情報のうち未処理の人物IDの情報を抽出する。   In step S231, when the entrance passer position information generation unit 273 receives a notification from the person position information generation unit 272 indicating that the person position information has been generated in the memory 274 by the person position information processing, it accesses the memory 274, Unprocessed person ID information is extracted from the information registered in the person position information.

ステップS232において、入口通過者位置情報生成部273は、通過判定部273aを制御して、抽出した人物IDが直前のフレームの人物位置情報に登録されているか否かを判定させ、初検出の人物IDであるか否かを判定させる。例えば、ステップS232において、初検出である、すなわち、直前のフレームにおける人物位置情報に登録されていないと判定された場合、ステップS236において、入口通過者位置情報生成部273は、通過者判定部273aを制御して、今現在のフレームにおける人物位置情報において、入口で検出されたか否か、すなわち、入口検出FlagがYesであるか否かを判定する。例えば、抽出された人物IDの今現在におけるフレームの人物位置情報における入口検出FlagがYesである場合、入口通過者であるものとみなされ、処理は、ステップS234に進み、抽出された人物IDの情報が入口通過者として入口通過者位置情報に登録される。   In step S232, the entrance passer position information generation unit 273 controls the passage determination unit 273a to determine whether or not the extracted person ID is registered in the person position information of the immediately preceding frame. Determine if it is an ID. For example, if it is determined in step S232 that it is the first detection, that is, it is not registered in the person position information in the immediately preceding frame, in step S236, the entrance passer position information generation unit 273 determines the passer determination unit 273a. To determine whether the person position information in the current frame has been detected at the entrance, that is, whether the entrance detection Flag is Yes. For example, if the entrance detection flag in the person position information of the current frame of the extracted person ID is Yes, it is considered that the person has passed the entrance, and the process proceeds to step S234, where the extracted person ID Information is registered in the entrance passer position information as an entrance passer.

一方、ステップS236において、入口通過者でない、すなわち、初検出であって、今現在のフレームにおける人物位置情報の入口検出FlagがYesではない場合、入口通過者ではないとみなされ、処理は、ステップS235に進む。   On the other hand, in step S236, if it is not an entrance passer, that is, it is the first detection and the entrance detection flag of the person position information in the current frame is not Yes, it is regarded as not an entrance passer, and the process The process proceeds to S235.

ステップS236において、例えば、抽出された人物IDが0001の場合、入口検出FlagがYesであるので、入口通過者であると判定され、ステップS234において、入口通過者位置情報生成部273は、例えば、図27で示されるように、抽出した人物IDと検出位置の情報を入口通過者位置情報として登録する。すなわち、今の場合、人物IDが0001であったので、第3フレーム(Flame No.3)の通過者位置情報として、人物位置情報より読み出された検出位置として(x1,y1)が登録される。一方、ステップS236において、入口通過者でないと判定された場合、ステップS234の処理がスキップされ、抽出された人物IDの情報は、入口通過者位置情報に登録されない。   In step S236, for example, when the extracted person ID is 0001, the entrance detection Flag is Yes, so it is determined that the person has passed the entrance. In step S234, the entrance passer position information generation unit 273, for example, As shown in FIG. 27, the extracted person ID and detection position information are registered as entrance passer position information. That is, in this case, since the person ID is 0001, (x1, y1) is registered as the detected position read from the person position information as the passer position information of the third frame (Flame No. 3). The On the other hand, if it is determined in step S236 that the person is not an entrance passer, the process of step S234 is skipped, and the extracted person ID information is not registered in the entrance passer position information.

ステップS235において、入口通過者位置情報生成部273は、未処理の人物IDが人物位置情報に存在するか否かを判定し、未処理の人物IDがある場合、処理は、ステップS231に戻り、人物位置情報に未処理の人物IDがなく、全ての人物IDについて処理が終了した場合、処理は終了する。   In step S235, the entrance passer position information generation unit 273 determines whether or not an unprocessed person ID exists in the person position information. If there is an unprocessed person ID, the process returns to step S231. If there is no unprocessed person ID in the person position information and the process is completed for all person IDs, the process ends.

一方、ステップS232において、例えば、直前のフレームの人物位置情報に存在した、すなわち、初検出の人物IDではないと判定された場合、ステップS233において、入口通過者位置情報生成部273は、通過判定部273aを制御して、抽出した人物IDの人物が、直前の数フレームで入口通過者位置情報が作成されていたか否かを判定させ、入口通過者であるか否かを判定させる。すなわち、ある人物IDに対して入口通過者位置情報が新規に登録されるのは、ステップS233において、入口で検出された人物と判定された場合であり、入口通過者位置情報が存在する人物は、入口通過者として判定される。   On the other hand, if it is determined in step S232 that, for example, the person position information of the previous frame exists, that is, it is not the first detected person ID, the entrance passer position information generation unit 273 determines whether or not the passage determination is made in step S233. The unit 273a is controlled to determine whether or not the person having the extracted person ID has created the entrance passer position information in the last few frames, and determine whether or not the entrance passer position information has been created. That is, the entrance passer position information is newly registered for a certain person ID when it is determined in step S233 that the person has been detected at the entrance. It is determined as an entrance passer.

以上の処理により出入口112を通過したとみなされる人物の位置情報のみが、入口通過者位置情報に登録されることになる。すなわち、例えば、図28の左部で示すように、入口ステレオ画像センサ41により撮像される画像内に出入口112を通過しているとみなされる3次元の座標位置が領域Z1で設定されるものとし、対応する入口カメラ43により撮像される画像を図28の右部で示すように表現するものとする。   Only the position information of the person deemed to have passed through the entrance / exit 112 is registered in the entrance passer position information. That is, for example, as shown in the left part of FIG. 28, a three-dimensional coordinate position considered to pass through the entrance 112 in the image captured by the entrance stereo image sensor 41 is set in the region Z1. The image captured by the corresponding entrance camera 43 is expressed as shown in the right part of FIG.

例えば、図29の左部最上段で示されるように、人物H1が領域Z1内に存在するものとして入口ステレオ画像センサ41のカメラ251−1,251−2に撮像されると、入口ステレオ画像センサ41においては、出入口112に人物H1が存在するものとみなされることになるため、人物位置情報に登録される際、入口検出FlagがYesの状態で登録されることになる。このとき、入口カメラ43には、図29の右部最上段で示されるように画像が撮像される。尚、図29においては、図28と同様に、左部に入口ステレオ画像センサ41により撮像される画像が、右部に入口カメラ43により撮像された画像が夫々示されており、最上段、中段、および最下段の順に1フレームずつ連続した画像が表示されている。   For example, as shown in the upper left part of FIG. 29, when the person H1 is captured by the cameras 251-1 and 251-2 of the entrance stereo image sensor 41 as being present in the area Z1, the entrance stereo image sensor 41, since the person H1 is considered to exist at the entrance 112, the entrance detection flag is registered in the state of Yes when registered in the person position information. At this time, the entrance camera 43 captures an image as shown in the uppermost right part of FIG. In FIG. 29, as in FIG. 28, an image captured by the entrance stereo image sensor 41 is shown on the left, and an image captured by the entrance camera 43 is shown on the right, respectively. , And the image that is continuous one frame at a time in the lowest order is displayed.

この場合、入口通過者位置情報処理においては、初検出となるため、ステップS232において初検出であるとみなされることになるが、今現在のフレームにおいて出入口112に存在するため、人物位置情報においては入口検出FlagがYesで登録されることになるため、入口通過者であるとみなされて、ステップS234の処理において、入口通過者位置情報に登録されることになる。   In this case, since it is the first detection in the entrance passer position information processing, it is regarded as the first detection in step S232, but since it exists at the entrance 112 in the current frame, Since the entrance detection flag is registered as Yes, it is regarded as an entrance passer and is registered in the entrance passer position information in the process of step S234.

また、図29の左部中段および最下段で示される人物H2,H3のような場合、入口ステレオ画像センサ41は、最上段の処理において入口通過者位置情報が作成されているため、ステップS233において、入口通過者であるものとみなされ、図29の右部中段および最下段で示されるような画像が入口カメラ43で撮像されるような場合においても、ステップS234において、入口通過者位置情報生成部273は、入口通過者としてみなし、入口通過者位置情報に登録する。すなわち、図29の右部で示されるように、出入口112を通過して、連続的に撮像されつづけている人物H1乃至H3は、いずれも入口通過者位置情報が作成される。   In addition, in the case of the persons H2 and H3 shown in the middle left part and the lowermost part of FIG. 29, the entrance stereo image sensor 41 has created the entrance passer position information in the uppermost process, so in step S233. 29, even when the entrance camera 43 captures images such as those shown in the middle right and bottom of FIG. 29, the entrance passer position information is generated in step S234. The unit 273 is regarded as an entrance passer and registers in the entrance passer position information. That is, as shown in the right part of FIG. 29, entrance passer position information is created for all of the persons H1 to H3 that have passed through the entrance 112 and are continuously being imaged.

一方、図30の左部および右部で示されるように、出入口112を通過した後、すなわち、入店後、再び人物H11が、出入口112を通過することなく、入口ステレオ画像センサ41および入口カメラ43の撮像領域を通過するような場合、ステップS232において、初検出であるものとして判定されるが、ステップS236において、人物位置情報の入口検出FlagがYesに設定されていないため、入口通過者ではないと判定され、入口通過者位置情報には登録されない。   On the other hand, as shown in the left part and the right part of FIG. 30, after passing through the entrance / exit 112, that is, after entering the store, the person H11 does not pass through the entrance / exit 112 again, and the entrance stereo image sensor 41 and the entrance camera. In the case of passing through the 43 imaging areas, it is determined in step S232 that the detection is the first detection. However, in step S236, the entrance detection flag of the person position information is not set to Yes. It is determined that there is no entry and is not registered in the entrance passer position information.

結果として、以上の処理により、遊技者が出入口112を通過して来店した場合にのみ、入口通過者位置情報に登録されることになる。   As a result, according to the above processing, only when the player visits the store through the entrance 112, it is registered in the entrance passer position information.

ここで、図20のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS126において、入口通過者位置情報生成処理が実行され、入口通過者位置情報が生成されると、ステップS127において、入口通過者位置情報生成部273は、生成した入口通過者位置情報を入口画像処理ユニット44に供給する。   When the entrance passer position information generation process is executed in step S126 and the entrance passer position information is generated, in step S127, the entrance passer position information generation unit 273 converts the generated entrance passer position information into the entrance image. Supply to the processing unit 44.

ステップS141において、入口カメラ43は、出入口112周辺の画像を撮像し、撮像した画像を入口画像処理ユニット44に供給する。入口画像処理ユニット44の画像取得部201は、供給された画像を取得し、顔検出フレーム設定部231に供給する。尚、ここで、入口カメラ43により撮像される画像は、直前のステップS121において、入口ステレオ画像センサ41により撮像された画像と同一のタイミングで撮像された画像である。   In step S <b> 141, the entrance camera 43 captures an image around the entrance 112 and supplies the captured image to the entrance image processing unit 44. The image acquisition unit 201 of the entrance image processing unit 44 acquires the supplied image and supplies it to the face detection frame setting unit 231. Here, the image captured by the entrance camera 43 is an image captured at the same timing as the image captured by the entrance stereo image sensor 41 in the immediately preceding step S121.

ステップS142において、顔検出フレーム設定部231は、ステップS127の処理により位置認識サーバ42より供給されてくる入口通過者位置情報を取得する。   In step S142, the face detection frame setting unit 231 acquires entrance passer position information supplied from the position recognition server 42 by the process of step S127.

ステップS143において、顔検出フレーム設定部231は、入口通過者位置情報に基づいて、入口通過者が登録されているか否かを判定し、存在しない場合、処理は、ステップS141に戻る。また、ステップS143において、入口通過者が存在した場合、ステップS144において、入口通過者位置情報に基づいて、供給されてきた画像を調整する。すなわち、入口通過者位置情報に基づいて、顔検出フレーム設定部231は、例えば、図29の右部で示されるように、入口通過者位置情報に含まれる検出位置に従ってフレームF1乃至F3で示されるような顔画像を含む領域を残すようにフレームの画像を調整して、顔画像抽出部202に供給する。   In step S143, the face detection frame setting unit 231 determines whether or not an entrance passer is registered based on the entrance passer position information, and if not, the process returns to step S141. If there is an entrance passer in step S143, the supplied image is adjusted based on the entrance passer position information in step S144. That is, based on the entrance passer position information, the face detection frame setting unit 231 is indicated by frames F1 to F3 according to the detection positions included in the entrance passer position information, for example, as shown in the right part of FIG. The frame image is adjusted so as to leave a region including such a face image, and is supplied to the face image extraction unit 202.

ステップS145において、顔画像抽出部202の顔検出部211は、供給された画像より遊技者の顔画像を検出し、検出結果を顔画像切り出し部212に供給する。顔画像切り出し部212は、検出された顔画像を画像より切り出すことにより抽出し、送信部203に供給する。   In step S145, the face detection unit 211 of the face image extraction unit 202 detects the player's face image from the supplied image, and supplies the detection result to the face image cutout unit 212. The face image clipping unit 212 extracts the detected face image by clipping it from the image, and supplies the extracted face image to the transmission unit 203.

ステップS146において、送信部203は、顔画像抽出部202より顔画像が抽出されたか否かを判定し、顔画像が抽出されていない場合、処理は、ステップS141に戻る。一方、ステップS146において、顔画像が抽出されたと判定された場合、ステップS147において、送信部203は、顔画像抽出部202より供給されてきた顔画像を生体情報認識装置21に送信する。この際、送信部203は、入口カメラ43のそれぞれを識別するカメラIDや、送信時刻の情報などの情報を顔画像に付加して生体情報認識装置21に送信する。   In step S146, the transmission unit 203 determines whether or not a face image has been extracted from the face image extraction unit 202. If no face image has been extracted, the process returns to step S141. On the other hand, when it is determined in step S146 that a face image has been extracted, in step S147, the transmission unit 203 transmits the face image supplied from the face image extraction unit 202 to the biological information recognition apparatus 21. At this time, the transmission unit 203 adds information such as a camera ID for identifying each of the entrance cameras 43 and information on transmission time to the face image and transmits the information to the biometric information recognition apparatus 21.

以上の処理により、入口ステレオ画像センサ41および位置認識サーバ42により入口カメラ43で撮像される顔画像のうち、出入口112を通過して入店してきた遊技者の位置情報が入口通過者位置情報として登録されることになるので、入口画像処理ユニット44は、入口通過者位置情報として登録された人物の顔画像のみを生体情報認識装置21に送信することになる。   Of the face images captured by the entrance camera 43 by the entrance stereo image sensor 41 and the position recognition server 42 by the above processing, the location information of the player who has entered the store through the entrance 112 is used as entrance passer location information. Since it is registered, the entrance image processing unit 44 transmits only the face image of the person registered as entrance passer position information to the biometric information recognition device 21.

このため、出入口112を通過して来店する顔画像のみが生体情報認識装置21において顔画像の認識処理にかけられることになる。   For this reason, only the face image that passes through the entrance 112 and comes to the store is subjected to the face image recognition processing in the biometric information recognition device 21.

また、上述した推定処理における場合においても、入口カメラ43において撮像される顔画像のうち、出入口112を通過した人物の顔画像のみを処理させるようにすることが可能となる。   Even in the above-described estimation process, it is possible to process only the face image of the person who has passed through the entrance / exit 112 among the face images captured by the entrance camera 43.

尚、入口カメラ43を用いた推定処理については、図20におけるステップS147の処理の後、図19のステップS111乃至S120の処理が実行されることになるが、個々の処理については、図19,図20のフローチャートを参照して説明したものと同様であるので、その説明は省略するものとする。   In addition, about the estimation process using the entrance camera 43, the process of FIG.19 S111 thru | or S120 is performed after the process of FIG.19 S147, About each process, FIG. Since it is the same as that described with reference to the flowchart of FIG. 20, the description thereof will be omitted.

結果として、生体情報認識装置21における処理負荷を低減させる事が可能になると供に、不要な処理が省略されることにより、処理速度を向上させることが可能となる。   As a result, it becomes possible to reduce the processing load in the biometric information recognition device 21 and, at the same time, it is possible to improve the processing speed by omitting unnecessary processing.

ところで、上述した一連の監視処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   Incidentally, the series of monitoring processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

図31は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)501を内蔵している。CPU501にはバス504を介して、入出力インタフェース505が接続されている。バス504には、ROM(Read Only Memory)502およびRAM(Random Access Memory)503が接続されている。   FIG. 31 shows a configuration example of a general-purpose personal computer. This personal computer includes a CPU (Central Processing Unit) 501. An input / output interface 505 is connected to the CPU 501 via the bus 504. A ROM (Read Only Memory) 502 and a RAM (Random Access Memory) 503 are connected to the bus 504.

入出力インタフェース505には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部506、処理操作画面や処理結果の画像を表示デバイスに出力する出力部507、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部508、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部509が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア511に対してデータを読み書きするドライブ510が接続されている。   The input / output interface 505 includes an input unit 506 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 507 for outputting a processing operation screen and an image of the processing result to a display device, a program and various data. A storage unit 508 including a hard disk drive to be stored, a LAN (Local Area Network) adapter, and the like are connected to a communication unit 509 that executes communication processing via a network represented by the Internet. Also, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (compact disc-read only memory), a DVD (digital versatile disc)), a magneto-optical disk (including an MD (mini disc)), or a semiconductor A drive 510 for reading / writing data from / to a removable medium 511 such as a memory is connected.

CPU501は、ROM502に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア511から読み出されて記憶部508にインストールされ、記憶部508からRAM503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなども適宜記憶される。   The CPU 501 is read from a program stored in the ROM 502 or a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 508, and loaded from the storage unit 508 to the RAM 503. Various processes are executed according to the program. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。   In this specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series in the order described, but of course, it is not necessarily performed in time series. Or the process performed separately is included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明を適用した監視システムの一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the monitoring system to which this invention is applied. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1のカメラの設置例を示す図である。It is a figure which shows the example of installation of the camera of FIG. 図1の入口カメラ店内カメラ、および入口ステレオ画像センサの設置例を示す図である。It is a figure which shows the example of installation of the entrance camera store camera of FIG. 1, and an entrance stereo image sensor. 図1の画像処理ユニットの構成例を説明する図である。It is a figure explaining the structural example of the image processing unit of FIG. 図1の入口画像処理ユニットの構成例を説明する図である。It is a figure explaining the structural example of the entrance image processing unit of FIG. 図1の入口ステレオ画像センサの構成例を説明する図である。It is a figure explaining the structural example of the entrance stereo image sensor of FIG. 図1の位置認識サーバの構成例を説明する図である。It is a figure explaining the structural example of the position recognition server of FIG. 図1の生体情報認識装置の構成例を説明する図である。It is a figure explaining the structural example of the biometric information recognition apparatus of FIG. 図1の生体情報管理センタおよび生体情報管理DBの構成例を説明する図である。It is a figure explaining the structural example of the biometric information management center and biometric information management DB of FIG. 図1の携帯端末の構成例を説明する図である。It is a figure explaining the structural example of the portable terminal of FIG. 図1のカメラまたは店内カメラを用いた登録遊技者来店監視処理を説明するフローチャートである。It is a flowchart explaining the registration player visit monitoring process using the camera of FIG. 報知画像の表示例を説明する図である。It is a figure explaining the example of a display of an alerting | reporting image. 登録遊技者DB更新処理を説明するフローチャートである。It is a flowchart explaining a registration player DB update process. 推定処理を説明するフローチャートである。It is a flowchart explaining an estimation process. 図1の入口カメラおよび入口ステレオ画像センサを用いた登録遊技者来店監視処理を説明するフローチャートである。It is a flowchart explaining the registration player visit monitoring process using the entrance camera and entrance stereo image sensor of FIG. 人物位置情報生成処理を説明するフローチャートである。It is a flowchart explaining a person position information generation process. 人物位置情報生成処理を説明する図である。It is a figure explaining person position information generation processing. 人物位置情報生成処理を説明する図である。It is a figure explaining person position information generation processing. 人物位置情報生成処理を説明する図である。It is a figure explaining person position information generation processing. 人物位置情報を説明する図である。It is a figure explaining person position information. 入口通過者位置情報生成処理を説明するフローチャートである。It is a flowchart explaining entrance passing person position information generation processing. 入口通過者位置情報を説明する図である。It is a figure explaining entrance passage person position information. 入口通過者位置情報生成処理を説明する図である。It is a figure explaining entrance passing person position information generation processing. 入口通過者位置情報生成処理を説明する図である。It is a figure explaining entrance passing person position information generation processing. 入口通過者位置情報生成処理を説明する図である。It is a figure explaining entrance passing person position information generation processing. 媒体を説明する図である。It is a figure explaining a medium.

符号の説明Explanation of symbols

1,1−1乃至1−n 遊技店
2 生体情報管理センタ
3 生体情報管理データベース
4 第3者遊技店管理センタ
5 第3者遊技店管理データベース
6 生体情報管理バス
7 第3者遊技店管理バス
8,9 公衆通信回線網
21 生体情報認識装置
22 生体情報データベース
24 遊技店管理装置
26 遊技台管理データベース
27 媒体貸出管理装置
29 媒体貸出管理データベース
30 遊技店管理情報バス
31 生体情報バス
33 精算機
34 貸出機
35 計数機
36,36−1乃至36−m 遊技台
37,37−1乃至37−m 遊技台周辺端末
38,38−1乃至38−m カメラ
39,39−1乃至39−(m+p) 画像処理ユニット
40,40−1乃至40−p 店内カメラ
41,41−1乃至41−q 入口ステレオ画像センサ
42,42−1乃至42−q 位置認識サーバ
43,43−1乃至43−q 入口カメラ
44,44−1乃至44−q 入口画像処理ユニット
1, 1-1 to 1-n amusement store 2 biometric information management center 3 biometric information management database 4 third party amusement store management center 5 third party amusement store management database 6 biometric information management bus 7 third party amusement store management bus 8, 9 Public communication network 21 Biometric information recognition device 22 Biometric information database 24 Game store management device 26 Game table management database 27 Medium lending management device 29 Medium lending management database 30 Amusement store management information bus 31 Biometric information bus 33 Settling machine 34 Lending machine 35 Counter 36,36-1 thru 36-m Game stand 37,37-1 thru 37-m Game stand peripheral terminal 38,38-1 thru 38-m Camera 39,39-1 thru 39- (m + p) Image processing unit 40, 40-1 to 40-p In-store camera 41, 41-1 to 41-q Entrance stereo image sensor 42 42-1 to 42-q position recognition server 43,43-1 to 43-q entrance camera 44,44-1 to 44-q inlet image processing unit

Claims (14)

予め登録された登録者の顔画像を蓄積する蓄積手段と、
画像を取得する画像取得手段と、
前記画像における照合対象者の位置を取得する位置取得手段と、
前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段と、
前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段と、
前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段と、
前記顔画像抽出手段により抽出された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との類似度を計算し、照合する照合手段と、
前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定手段と、
前記類似度判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段と
を含む監視装置。
Accumulating means for accumulating pre-registered registrant face images;
Image acquisition means for acquiring images;
Position acquisition means for acquiring the position of the person to be verified in the image;
Whether the person to be collated acquired by the position acquisition means has passed through a predetermined area, or is a person who has passed through the predetermined area continuously after passing through the predetermined area Determining means for determining whether or not;
When it is determined by the determination result of the determination means that the verification target person is a person who has passed the predetermined area, only the verification target person determined to be the predetermined area passer of the image is left. Image adjusting means for adjusting the image;
Face image extraction means for extracting the face image of the person to be collated determined as a person who has passed through the predetermined area from the image adjusted by the image adjustment means;
Collation means for calculating and collating the similarity between the face image of the person to be collated extracted by the face image extraction means and the face image of the registrant accumulated in the accumulation means;
A similarity determination unit that determines whether or not the face image of the person to be collated is a face image of the registrant by comparing the similarity that is the collation result of the collation unit and a predetermined threshold;
And a notifying means for notifying that the verification target person is the registrant when the similarity determination means determines that the verification target person is the registrant.
前記所定領域通過者として判定された前記照合対象者の顔画像より特徴量を抽出する特徴量抽出手段とをさらに含み、
前記照合手段は、前記顔画像抽出手段により抽出される、前記所定領域通過者として判定された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との特徴量を用いて類似度を計算し、前記取得手段により取得された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像とを照合する
請求項1に記載の監視装置。
A feature amount extraction means for extracting a feature amount from the face image of the person to be collated determined as the person who has passed the predetermined region,
The collation means uses feature amounts of the face image of the person to be collated determined as a person who has passed through the predetermined area, extracted by the face image extraction means, and the face image of the registrant accumulated in the accumulation means. The monitoring apparatus according to claim 1, wherein the similarity is calculated and the face image of the person to be collated acquired by the acquisition unit is collated with the face image of the registrant accumulated in the accumulation unit.
前記位置取得手段は、ステレオ画像センサにより前記画像における照合対象者の位置を取得する
請求項1に記載の監視装置。
The monitoring apparatus according to claim 1, wherein the position acquisition unit acquires a position of a person to be verified in the image by a stereo image sensor.
前記位置取得手段により取得された前記画像における照合対象者の位置に基づいて、人物位置情報を生成する人物位置情報生成手段をさらに含み、
前記判定手段は、前記人物位置情報に基づいて、前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する
請求項1に記載の監視装置。
Further including person position information generating means for generating person position information based on the position of the person to be collated in the image acquired by the position acquiring means;
The determination means is based on the person position information, and the person to be collated acquired by the position acquisition means passes through a predetermined area or continuously after passing through the predetermined area. The monitoring apparatus according to claim 1, wherein it is determined whether or not the person has passed through a predetermined area existing in the image.
前記類似度判定手段により前記照合対象者が前記登録者ではないと判定された場合、前記照合対象者の顔画像を未登録者として登録する未登録者登録手段とをさらに含む
請求項1に記載の監視装置。
The unregistered person registration means for registering the face image of the verification target person as an unregistered person when the similarity determination means determines that the verification target person is not the registrant. Monitoring device.
前記蓄積手段は、予め登録された登録者の顔画像をデータベースとして蓄積し、
前記データベースには、前記未登録者登録手段により所定回数以上登録された未登録者の顔画像が、前記登録者の顔画像として登録される
請求項5に記載の監視装置。
The storage means stores a registered registrant's face image as a database,
The monitoring apparatus according to claim 5, wherein a face image of an unregistered person who has been registered a predetermined number of times or more by the unregistered person registration unit is registered in the database as the face image of the registrant.
画像を取得する画像取得ステップと、
前記画像における照合対象者の位置を取得する位置取得ステップと、
前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップと、
前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップと、
前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップと、
前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像と、蓄積された登録者の顔画像との類似度を計算し、照合する照合ステップと、
前記照合ステップの処理での照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定ステップと、
前記類似度判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップと
を含む監視方法。
An image acquisition step of acquiring an image;
A position acquisition step of acquiring the position of the person to be verified in the image;
The person to be collated acquired by the processing of the position acquisition step is a person who has passed through a predetermined area, or has passed through the predetermined area, and has continuously passed through the predetermined area as it is in the image. A determination step of determining whether or not there is;
When it is determined by the determination result in the process of the determination step that the person to be collated is a person who has passed the predetermined area, only the person to be collated that has been determined to be a person who has passed the predetermined area in the image. An image adjustment step for adjusting the image to leave,
A face image extraction step of extracting a face image of the person to be collated determined as a person who has passed through the predetermined area from an image adjusted by the process of the image adjustment step;
A collation step of calculating and collating the similarity between the face image of the person to be collated extracted by the processing of the face image extraction step and the accumulated face image of the registrant;
A similarity determination step of determining whether or not the face image of the person to be verified is a registrant's face image by comparing the similarity that is the result of the verification in the process of the verification step with a predetermined threshold;
And a notification step of notifying that the person to be collated is the registrant when the person to be collated is determined to be the registrant by the processing of the similarity determination step.
画像を取得する画像取得ステップと、
前記画像における照合対象者の位置を取得する位置取得ステップと、
前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップと、
前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップと、
前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップと、
前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像と、蓄積された登録者の顔画像との類似度を計算し、照合する照合ステップと、
前記照合ステップの処理での照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定ステップと、
前記類似度判定ステップの処理により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知ステップと
を含む処理をコンピュータに実行させるプログラム。
An image acquisition step of acquiring an image;
A position acquisition step of acquiring the position of the person to be verified in the image;
The person to be collated acquired by the processing of the position acquisition step is a person who has passed through a predetermined area, or has passed through the predetermined area, and has continuously passed through the predetermined area as it is in the image. A determination step of determining whether or not there is;
When it is determined by the determination result in the process of the determination step that the person to be collated is a person who has passed the predetermined area, only the person to be collated that has been determined to be a person who has passed the predetermined area in the image. An image adjustment step for adjusting the image to leave,
A face image extraction step of extracting a face image of the person to be collated determined as a person who has passed through the predetermined area from an image adjusted by the process of the image adjustment step;
A collation step of calculating and collating the similarity between the face image of the person to be collated extracted by the processing of the face image extraction step and the accumulated face image of the registrant;
A similarity determination step of determining whether or not the face image of the person to be verified is a registrant's face image by comparing the similarity that is the result of the verification in the process of the verification step with a predetermined threshold;
A program for causing a computer to execute a process including a notification step of notifying that the person to be collated is the registrant when the person to be collated is determined to be the registrant by the process of the similarity determination step. .
予め登録された登録者の顔画像を蓄積する蓄積手段と、
画像を取得する画像取得手段と、
前記画像における照合対象者の位置を取得する位置取得手段と、
前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段と、
前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段と、
前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段と、
前記顔画像抽出手段により抽出された照合対象者の顔画像と、前記蓄積手段に蓄積された登録者の顔画像との類似度を計算し、照合する照合手段と、
前記照合手段の照合結果である類似度と所定の閾値との比較により、前記照合対象者の顔画像が登録者の顔画像であるか否かを判定する類似度判定手段と、
前記類似度判定手段により前記照合対象者が前記登録者であると判定された場合、前記照合対象者が前記登録者であることを通知する通知手段と
を含む登録者照合装置。
Accumulating means for accumulating pre-registered registrant face images;
Image acquisition means for acquiring images;
Position acquisition means for acquiring the position of the person to be verified in the image;
Whether the person to be collated acquired by the position acquisition means has passed through a predetermined area, or is a person who has passed through the predetermined area continuously after passing through the predetermined area Determining means for determining whether or not;
When it is determined by the determination result of the determination means that the verification target person is a person who has passed the predetermined area, only the verification target person determined to be the predetermined area passer of the image is left. Image adjusting means for adjusting the image;
Face image extraction means for extracting the face image of the person to be collated determined as a person who has passed through the predetermined area from the image adjusted by the image adjustment means;
Collation means for calculating and collating the similarity between the face image of the person to be collated extracted by the face image extraction means and the face image of the registrant accumulated in the accumulation means;
A similarity determination unit that determines whether or not the face image of the person to be collated is a face image of the registrant by comparing the similarity that is the collation result of the collation unit and a predetermined threshold;
A registrant verification device comprising: notification means for notifying that the verification target person is the registrant when the similarity determination unit determines that the verification target person is the registrant.
画像を取得する画像取得手段と、
前記画像における照合対象者の位置を取得する位置取得手段と、
前記位置取得手段により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定手段と、
前記判定手段の判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整手段と、
前記画像調整手段により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出手段と、
前記顔画像抽出手段により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定手段と
を含む属性推定装置。
Image acquisition means for acquiring images;
Position acquisition means for acquiring the position of the person to be verified in the image;
Whether the person to be collated acquired by the position acquisition means has passed through a predetermined area, or is a person who has passed through the predetermined area continuously after passing through the predetermined area Determining means for determining whether or not;
When it is determined by the determination result of the determination means that the verification target person is a person who has passed the predetermined area, only the verification target person determined to be the predetermined area passer of the image is left. Image adjusting means for adjusting the image;
Face image extraction means for extracting the face image of the person to be collated determined as a person who has passed through the predetermined area from the image adjusted by the image adjustment means;
An attribute estimation apparatus comprising: an estimation unit configured to estimate an attribute of the collation target person based on the face image of the collation target person extracted by the face image extraction unit.
前記所定領域通過者として判定された前記照合対象者の顔画像より特徴量を抽出する特徴量抽出手段とをさらに含み、
前記属性推定手段は、前記顔画像抽出手段により抽出される、前記所定領域通過者として判定された照合対象者の顔画像の特徴量を用いて、前記取得手段により取得された照合対象者の属性を推定する
請求項10に記載の属性推定装置。
A feature amount extraction means for extracting a feature amount from the face image of the person to be collated determined as the person who has passed the predetermined region,
The attribute estimation unit uses the feature amount of the face image of the person to be collated determined as the person who has passed the predetermined area, which is extracted by the face image extraction unit, and the attribute of the person to be collated acquired by the acquisition unit The attribute estimation device according to claim 10.
前記属性推定手段は、前記照合対象者の属性として性別、または、年齢を推定する
請求項10または11に記載の属性推定装置。
The attribute estimation device according to claim 10, wherein the attribute estimation unit estimates gender or age as the attribute of the person to be collated.
画像を取得する画像取得ステップと、
前記画像における照合対象者の位置を取得する位置取得ステップと、
前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップと、
前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップと、
前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップと、
前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定ステップと
を含む属性推定方法。
An image acquisition step of acquiring an image;
A position acquisition step of acquiring the position of the person to be verified in the image;
The person to be collated acquired by the processing of the position acquisition step is a person who has passed through a predetermined area, or has passed through the predetermined area, and has continuously passed through the predetermined area as it is in the image. A determination step of determining whether or not there is;
When it is determined by the determination result in the process of the determination step that the person to be collated is a person who has passed the predetermined area, only the person to be collated that has been determined to be a person who has passed the predetermined area in the image. An image adjustment step for adjusting the image to leave,
A face image extraction step of extracting a face image of the person to be collated determined as a person who has passed through the predetermined area from an image adjusted by the process of the image adjustment step;
An attribute estimation method comprising: an estimation step of estimating an attribute of the collation target person based on the face image of the collation target person extracted by the processing of the face image extraction step.
画像を取得する画像取得ステップと、
前記画像における照合対象者の位置を取得する位置取得ステップと、
前記位置取得ステップの処理により取得された前記照合対象者が、所定の領域を通過している、または、前記所定の領域を通過した後、そのまま連続的に画像内に存在する所定領域通過者であるか否かを判定する判定ステップと、
前記判定ステップの処理での判定結果により、前記照合対象者が前記所定領域通過者であると判定された場合、前記画像のうち前記所定領域通過者であると判定された前記照合対象者のみを残すように画像を調整する画像調整ステップと、
前記画像調整ステップの処理により調整された画像より前記所定領域通過者として判定された前記照合対象者の顔画像を抽出する顔画像抽出ステップと、
前記顔画像抽出ステップの処理により抽出された照合対象者の顔画像に基づいて、前記照合対象者の属性を推定する推定ステップと
を含む処理をコンピュータに実行させるプログラム。
An image acquisition step of acquiring an image;
A position acquisition step of acquiring the position of the person to be verified in the image;
The person to be collated acquired by the processing of the position acquisition step is a person who has passed through a predetermined area, or has passed through the predetermined area, and has continuously passed through the predetermined area as it is in the image. A determination step of determining whether or not there is;
When it is determined by the determination result in the process of the determination step that the person to be collated is a person who has passed the predetermined area, only the person to be collated that has been determined to be a person who has passed the predetermined area in the image. An image adjustment step for adjusting the image to leave,
A face image extraction step of extracting a face image of the person to be collated determined as a person who has passed through the predetermined area from an image adjusted by the process of the image adjustment step;
A program that causes a computer to execute a process including an estimation step of estimating an attribute of the person to be collated based on the face image of the person to be collated extracted by the process of the face image extracting step.
JP2006122972A 2006-04-27 2006-04-27 Monitoring device and method, registrant collation device, attribute estimation device and method, and program Withdrawn JP2007293741A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006122972A JP2007293741A (en) 2006-04-27 2006-04-27 Monitoring device and method, registrant collation device, attribute estimation device and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006122972A JP2007293741A (en) 2006-04-27 2006-04-27 Monitoring device and method, registrant collation device, attribute estimation device and method, and program

Publications (1)

Publication Number Publication Date
JP2007293741A true JP2007293741A (en) 2007-11-08

Family

ID=38764297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006122972A Withdrawn JP2007293741A (en) 2006-04-27 2006-04-27 Monitoring device and method, registrant collation device, attribute estimation device and method, and program

Country Status (1)

Country Link
JP (1) JP2007293741A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010022601A (en) * 2008-07-18 2010-02-04 Omron Corp Monitoring device, method, and program
JP2011242873A (en) * 2010-05-14 2011-12-01 Honda Motor Co Ltd Registration device, registration method and computer program
JP2011248754A (en) * 2010-05-28 2011-12-08 Ntt Comware Corp System and method for automatically collecting person information, and program thereof
WO2022137720A1 (en) * 2020-12-21 2022-06-30 パナソニックIpマネジメント株式会社 Presence information management system and presence information management method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010022601A (en) * 2008-07-18 2010-02-04 Omron Corp Monitoring device, method, and program
JP2011242873A (en) * 2010-05-14 2011-12-01 Honda Motor Co Ltd Registration device, registration method and computer program
JP2011248754A (en) * 2010-05-28 2011-12-08 Ntt Comware Corp System and method for automatically collecting person information, and program thereof
WO2022137720A1 (en) * 2020-12-21 2022-06-30 パナソニックIpマネジメント株式会社 Presence information management system and presence information management method

Similar Documents

Publication Publication Date Title
JP4941124B2 (en) Monitoring system and method, information processing apparatus, and program
JP4924883B2 (en) Monitoring device and method, and program
JP4797517B2 (en) Monitoring device and method, and program
JP2007328590A (en) Information processor, information processing method, monitoring system and program
JP2012141773A (en) Monitoring device and method, and program
JP5186756B2 (en) Information processing apparatus and method, and program
JP2007272604A (en) Information processor and information processing method, and program
US9317806B2 (en) Information processing device and method, attention level-calculating device, and computer readable medium
JP5013172B2 (en) Information processing apparatus and method, and program
JP2007293741A (en) Monitoring device and method, registrant collation device, attribute estimation device and method, and program
JP2008036352A (en) Cigarette smoke separation apparatus, method and program
JP4919057B2 (en) Monitoring device and method, and program
JP5577729B2 (en) Monitoring device and method, and program
JP2012014568A (en) Monitoring apparatus and method, and program
JP2008040829A (en) Device and method for processing information, information processing system, and program
JP2008085584A (en) Monitoring device and method, monitoring system, and program
JP2008083944A (en) Monitor device and method, and program
JP4873216B2 (en) Surveillance system and method, unauthorized player recognition server and method, and program
JP5627811B1 (en) Amusement center management system
JP5338178B2 (en) Monitoring device and method, and program
JP4877005B2 (en) Monitoring device and method, and program
JP4760717B2 (en) Monitoring device and method, and program
JP4807267B2 (en) Monitoring device and method, and program
JP6753223B2 (en) Face matching system, player management system, face matching method, and program
JP5168564B2 (en) Monitoring device and method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090707