JP2013020366A - Game system, program, and information storage medium - Google Patents

Game system, program, and information storage medium Download PDF

Info

Publication number
JP2013020366A
JP2013020366A JP2011152034A JP2011152034A JP2013020366A JP 2013020366 A JP2013020366 A JP 2013020366A JP 2011152034 A JP2011152034 A JP 2011152034A JP 2011152034 A JP2011152034 A JP 2011152034A JP 2013020366 A JP2013020366 A JP 2013020366A
Authority
JP
Japan
Prior art keywords
unit
game
person
player
customer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011152034A
Other languages
Japanese (ja)
Other versions
JP2013020366A5 (en
JP5940772B2 (en
Inventor
Tokuhide Nakajima
徳秀 中島
Tatsuhisa Yabushita
達久 藪下
Wakako Fukami
和佳子 深見
Ryuichi Osada
隆一 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2011152034A priority Critical patent/JP5940772B2/en
Publication of JP2013020366A publication Critical patent/JP2013020366A/en
Publication of JP2013020366A5 publication Critical patent/JP2013020366A5/en
Application granted granted Critical
Publication of JP5940772B2 publication Critical patent/JP5940772B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize a novel usage form of a player's image.SOLUTION: Setting data for performance content having game appeal increased for each estimated customer stratum is prepared in advance. (In the case of a music game, for example, a recommended musical piece list for each customer stratum in which musical pieces for automatic play are collected is prepared.) A commercial game device 1300 obtains a device front image with an image sensor module 1326 and calculates a facial feature value of a person in the device front image. The device then determines the customer stratum of the person on the basis of the facial feature value and controls an attraction mode in accordance with the setting data for performance content for the determined customer stratum. In the case of a music game, for example, the device takes the statistics of customer strata determined by date and time condition and selects musical pieces from the recommended musical piece list for a main customer stratum to perform automatic play.

Description

本発明は、所与のビデオゲームを実行するためのゲームシステム等に関する。   The present invention relates to a game system or the like for executing a given video game.

従来、ビデオカメラで撮影したプレーヤの画像をビデオゲームに利用することでゲームを盛り上げる工夫がなされてきた。   Conventionally, a device has been devised to excite a game by using a player image taken by a video camera for a video game.

例えば、プレーヤを撮影できるビデオカメラを対戦ゲーム用の業務用ゲーム装置に設け、各プレーヤの位置を示すためのアイコンとして、プレーヤの顔画像を利用することにより、対戦プレイする者同士、誰がどの位置にいるか認識し易くしてゲームを盛り上げるものが知られている(例えば、特許文献1)。
更には、プレーヤが操作するキャラクタ(プレーヤキャラクタ)がダメージを負った場合に、プレーヤの顔画像に疑似的にクラックが発生するように見せたり、顔色が悪くなるように顔画像の色を変更するダメージ演出に利用するものもある(例えば、特許文献2)。
For example, a video camera capable of shooting a player is provided in an arcade game device for a battle game, and the player's face image is used as an icon for indicating the position of each player, so that who plays and who is in which position There is a known game that makes it easy to recognize whether or not the game is lively (for example, Patent Document 1).
Furthermore, when a character (player character) operated by the player is damaged, the face image of the player is shown to be artificially cracked, or the color of the face image is changed so that the face color is deteriorated. Some are used for damage production (for example, Patent Document 2).

特開平11−244531号公報Japanese Patent Laid-Open No. 11-244531 特開2000−61145号公報JP 2000-611145 A

本発明は、上述した利用形態とはひと味違った、プレーヤの撮影画像の新たな利用形態を実現することを目的とする。また、より望ましくは集客力を高めることを第2の目的とする。   An object of the present invention is to realize a new usage form of a photographed image of a player, which is different from the usage form described above. It is a second object to increase the ability to attract customers more desirably.

以上の課題を解決するための第1の形態は、少なくともプレイポジションにいる人物を撮影範囲に含むように撮影方向を装置前方に向けて配置された撮影部(例えば、図1のイメージセンサモジュール1326、図10の撮影部102)と、
前記撮影部により撮影された撮影画像に含まれる人物画像を認識する認識部(例えば、図1の制御ユニット1350、顔認識チップ1356、図10の処理部200、図11のゲーム制御部202、顔表情認識部204)と、
前記認識部の認識結果を用いて当該撮影画像に写っている人物の性別及び年齢層を少なくとも含む客層を判定する客層判定部(例えば、図1の制御ユニット1350、図10の処理部200、図11のゲーム制御部202、客層判定部206)と、
前記客層判定部による判定結果を用いて、アトラクションモードの演出内容を制御するアトラクションモード制御部(例えば、図1の制御ユニット1350、図10の処理部200、図11のゲーム制御部202、アトラクションモード制御部210)と、
を備えたゲームシステムである。
In a first mode for solving the above-described problems, a photographing unit (for example, the image sensor module 1326 in FIG. 1) arranged with the photographing direction facing the front of the apparatus so as to include at least a person in the play position in the photographing range. , The photographing unit 102) of FIG.
A recognition unit for recognizing a human image included in a photographed image photographed by the photographing unit (for example, the control unit 1350 in FIG. 1, the face recognition chip 1356, the processing unit 200 in FIG. 10, the game control unit 202 in FIG. 11, the face Facial expression recognition unit 204);
A customer demographic determination unit (for example, the control unit 1350 in FIG. 1, the processing unit 200 in FIG. 10, FIG. 11 game control unit 202, customer segment determination unit 206),
An attraction mode control unit (for example, control unit 1350 in FIG. 1, processing unit 200 in FIG. 10, game control unit 202 in FIG. Control unit 210);
It is a game system equipped with.

ここで言う「プレイポジション」とは、プレーヤが標準的にゲームプレイする際にいる範囲である。また「アトラクションモード」とは、新たなプレーヤの出現を待っているいわゆる客待ち状態に実行される制御モードである。
第1の形態によれば、プレイポジションを含む装置周囲にいる人物を撮影し、その人物の客層を判定して客層に適したアトラクションモードの演出内容を実現することができるので、より集客効果を高めることができる。
The “play position” here refers to a range in which the player is normally playing a game. The “attraction mode” is a control mode executed in a so-called customer waiting state waiting for the appearance of a new player.
According to the first aspect, it is possible to capture the person around the device including the play position, determine the customer base of the person, and realize the effect contents of the attraction mode suitable for the customer base. Can be increased.

第2の形態は、前記認識部が、前記撮影画像に写っている人物の顔表情を認識する顔表情認識部(例えば、図1の制御ユニット1350、顔認識チップ1356、図10の処理部200、図11のゲーム制御部202、顔表情認識部204)を有し、
前記顔表情認識部の認識結果に基づいて、当該ゲームシステムへの興味を持つ人物が前記撮影画像に写ったことを検出する好感反応者検出部(例えば、図1の制御ユニット1350、図11のゲーム制御部202、好反応者検出部216)と、
前記アトラクションモードの演出内容に係るデータ(例えば、図12及び図14のアトラクションモードデータ512、図12及び図15の楽曲ライブラリ520)を、当該演出内容の分類情報と対応付けて記憶するアトラクションモードデータ記憶部(例えば、図1の制御ユニット1350、ICメモリ1352,図10の記憶部500)と、を備え、
前記アトラクションモード制御部が、前記好感反応者検出部による検出が有った場合に、分類情報が現在実行中のアトラクションモードの演出内容と所定の関連条件を満たす演出内容に係るデータを前記アトラクションモード記憶部から選択し、所与のタイミングで演出内容を切り替える好感反応者検出時制御手段(例えば、図1の制御ユニット1350、顔認識チップ1356、図10の処理部200、図11のゲーム制御部202、好感反応者検出時制御部217)を有する、第1の形態のゲームシステムである。
In a second form, the recognition unit recognizes a facial expression of a person shown in the captured image (for example, a control unit 1350, a face recognition chip 1356 in FIG. 1, and a processing unit 200 in FIG. 10). 11 has a game control unit 202 and a facial expression recognition unit 204) in FIG.
Based on the recognition result of the facial expression recognition unit, a favorable reaction person detection unit (for example, the control unit 1350 in FIG. 1 or FIG. 11) that detects that a person interested in the game system appears in the captured image. A game control unit 202, a responder detection unit 216),
Attraction mode data for storing data relating to the contents of the effect in the attraction mode (for example, the attraction mode data 512 in FIGS. 12 and 14 and the music library 520 in FIGS. 12 and 15) in association with the category information of the contents of the effect. A storage unit (for example, the control unit 1350 in FIG. 1, the IC memory 1352, the storage unit 500 in FIG. 10), and
When the attraction mode control unit detects the sensation responder detection unit, the attraction mode includes data related to the content of the attraction that the classification information is currently being executed and the content of the attraction satisfying a predetermined related condition. Control unit for detecting a favorable reaction person who selects from the storage unit and switches the contents of the presentation at a given timing (for example, control unit 1350 in FIG. 1, face recognition chip 1356, processing unit 200 in FIG. 10, game control unit in FIG. 11) 202, a game system according to the first embodiment, which includes a control unit 217) during detection of a favorable reaction person.

第2の形態によれば、第1の形態と同様の効果が得られるとともに、装置周囲にいる人物の顔表情を認識できるとともに、顔表情の変化からゲームシステムへの興味を持つ人物つまり好感反応者を検出できる。そして、好感反応者が検出された場合に、現在実行中の演出内容に関連する他の演出内容を選択して実行することができる。つまり、興味を示した内容と関連性のある他の内容を更に提示することによって更なる興味を喚起させ集客効果をより一層高めることができる。   According to the second embodiment, the same effect as the first embodiment can be obtained, the facial expression of the person around the device can be recognized, and the person who is interested in the game system from the change of the facial expression, that is, the favorable response Can be detected. And when a favorable reaction person is detected, other production contents related to the production contents currently being executed can be selected and executed. In other words, by further presenting other contents related to the contents showing interest, further interest can be raised and the effect of attracting customers can be further enhanced.

第3の形態は、前記認識部が、前記撮影画像に複数の人物が写っている場合に当該複数の人物それぞれの人物画像を認識し、前記客層判定部が、前記認識部の認識結果を用いて前記撮影画像に写っている人物それぞれの客層を判定し、前記アトラクションモード制御部が、前記客層判定部により判定された前記撮影画像に写っている人物それぞれの客層と、所定の客層優先順とに基づき、当該人物の中からアトラクションモードの演出内容を決定する基準とする人物を選択する優先客層人物選択手段(例えば、図1の制御ユニット1350、図10の処理部200、図11のゲーム制御部202、優先客層人物選択部213、図23のステップS78〜S88)を有する、第1又は第2の形態のゲームシステムである。   According to a third aspect, the recognition unit recognizes a person image of each of the plurality of persons when the photographed image includes a plurality of persons, and the customer segment determination unit uses the recognition result of the recognition unit. And determining the customer base of each person shown in the photographed image, and the attraction mode control unit has a customer base of each person shown in the photographed image determined by the customer base determination part, and a predetermined customer base priority order. Based on the priority customer layer person selecting means (for example, the control unit 1350 in FIG. 1, the processing unit 200 in FIG. 10, the game control in FIG. 11). The game system according to the first or second mode includes a section 202, a priority customer layer person selection section 213, and steps S78 to S88 in FIG.

第3の形態によれば、第1又は第2の形態と同様の効果が得られるとともに、撮影画像に複数の人物が写っている場合に、それら複数の人物の客層の優先順位に基づいて演出内容を最適化する対象人物つまり優先客層人物を選択することができる。そして、優先客層人物の客層にマッチした演出内容を実行できる。
つまり、複数人に対して最大公約数的に集客のためのアピールをするよりも、特定の人物に的を絞り込んでアピールすることで集客効果をより高めるといったことができる。複数人がもし知人同士であればその内の一人にゲームに興味を持って貰えれば、必然的にその他の人物もゲームに興味を持って貰える可能性が高まるので効果的である。
According to the third aspect, the same effect as in the first or second aspect can be obtained, and when a plurality of persons are reflected in the photographed image, the effect is based on the priority order of the customer base of the plurality of persons. A target person whose contents are to be optimized, that is, a priority customer group person can be selected. Then, it is possible to execute the production contents matching the customer segment of the priority customer segment.
In other words, it is possible to increase the effect of attracting customers by appealing to a specific person rather than appealing to multiple people with the greatest common factor for attracting customers. If multiple people are acquaintances, if one of them is interested in the game, the possibility of other people interested in the game is inevitably increased, which is effective.

ここで、複数人が知人同士であることに着目すれば、特定の人物向けに演出内容を最適化する構成に限らず、第4の形態として、前記認識部が、前記撮影画像に複数の人物が写っている場合に当該複数の人物それぞれの人物画像を認識し、前記客層判定部が、前記認識部の認識結果を用いて前記撮影画像に写っている人物それぞれの客層を判定し、前記アトラクションモード制御部が、前記客層判定部により判定された客層の組み合わせを用いて、アトラクションモードの演出内容を制御する客層組合せ別制御手段(例えば、図1の制御ユニット1350、図10の処理部200、図11のゲーム制御部202、優先客層人物選択部213、図21のステップS130〜S134)を有する、第1又は第2の形態のゲームシステムを構成することができる。   Here, focusing on the fact that a plurality of people are acquaintances, the recognition unit is not limited to a configuration that optimizes the content of the performance for a specific person. The customer image of each of the plurality of persons is recognized, and the customer segment determination unit determines the customer segment of each person in the captured image using the recognition result of the recognition unit, and the attraction The mode control unit uses the customer segment combination determined by the customer segment determination unit to control the effect contents of the attraction mode (for example, the control unit 1350 in FIG. 1, the processing unit 200 in FIG. 10, A game system according to the first or second embodiment having the game control unit 202 of FIG. 11, the priority customer layer person selection unit 213, and steps S130 to S134 of FIG. 21 is configured. Door can be.

第4の形態によれば、第1又は第2の形態と同様の効果が得られるとともに、複数人の客層の組合せに応じて演出内容を最適化することができる。客層の組合せとは、同姓の友人、異性の友人や恋人、夫婦、親子などが考えられるが、それぞれにゲームをやってみようと思わせるアピールの仕方を最適化した演出内容でアトラクションモードを制御できるので、より集客効果が高まる。   According to the 4th form, the effect similar to the 1st or 2nd form is acquired, and the content of production can be optimized according to the combination of a plurality of customer bases. A combination of customers may be a friend of the same name, a friend of the opposite sex, a lover, a couple, or a parent and child. Therefore, the effect of attracting customers is increased.

第5の形態は、前記認識部の認識結果に基づき認証可能な特徴データを登録プレーヤ毎に記憶する登録プレーヤデータ記憶部(例えば、図1の制御ユニット1350、ICメモリ1352、図10の記憶部500、図12及び図16のプレーヤ登録データ530、図30のサーバシステム1100)の記憶データを参照して、前記認識部の認識結果に基づいて、前記撮影画像に登録プレーヤが写っていることを検出する登録プレーヤ検出部(例えば、図1の制御ユニット1350、図10の処理部200、図11のゲーム制御部202、登録プレーヤ検出部208、図23のステップS70)を備え、
前記アトラクションモード制御部が、前記登録プレーヤ検出部による検出が有った場合に、登録プレーヤ毎の個人情報を記憶する登録プレーヤ情報記憶部(例えば、図1の制御ユニット1350、ICメモリ1352、図10の記憶部500、図12及び図16のプレーヤ登録データ530、図30のサーバシステム1100)の記憶データを参照して、当該検出された登録プレーヤの個人情報に基づいて、アトラクションモードの演出内容を切り替える登録プレーヤ優先制御手段(例えば、図1の制御ユニット1350、図10の処理部200、図11のゲーム制御部202、登録プレーヤ優先制御部214、図21のステップS30、図23のステップS98〜S100)を有する第1〜第4の何れかの形態のゲームシステムである。
In the fifth embodiment, a registered player data storage unit (for example, the control unit 1350 in FIG. 1, the IC memory 1352, and the storage unit in FIG. 10) stores feature data that can be authenticated based on the recognition result of the recognition unit for each registered player. 500, the player registration data 530 in FIG. 12 and FIG. 16 and the stored data in the server system 1100 in FIG. 30, based on the recognition result of the recognition unit, that the registered player is reflected in the photographed image. A registered player detection unit (for example, a control unit 1350 in FIG. 1, a processing unit 200 in FIG. 10, a game control unit 202 in FIG. 11, a registered player detection unit 208, and step S70 in FIG. 23);
When the attraction mode control unit detects by the registered player detection unit, a registered player information storage unit that stores personal information for each registered player (for example, the control unit 1350, the IC memory 1352, FIG. 10 storage unit 500, player registration data 530 in FIGS. 12 and 16, and server system 1100 in FIG. 30), and the contents of the attraction mode based on the detected personal information of the registered player Registered player priority control means (for example, control unit 1350 in FIG. 1, processing unit 200 in FIG. 10, game control unit 202 in FIG. 11, registered player priority control unit 214, step S30 in FIG. 21, step S98 in FIG. 23) To S100), the game system according to any one of the first to fourth aspects.

「個人情報」としては、例えば年齢や性別、住所、職業、家族構成、収入、趣味、興味のある事柄、好きな音楽ジャンル、購入した物品の履歴、過去に見た映画のタイトルなど適宜設定可能である。   "Personal information" can be set as appropriate, such as age, gender, address, occupation, family structure, income, hobbies, interests, favorite music genre, history of purchased items, movie titles seen in the past, etc. It is.

第5の形態によれば、第1〜第4の何れかの形態と同様の効果が得られるとともに、撮影画像内に登録プレーヤ、つまり少なくとも一度は過去にゲームをプレイしたことのある人物がいることを検出し、その登録プレーヤの個人情報に基づいて演出内容を変更できる。つまり、登録プレーヤの嗜好にマッチした演出内容を実現し、集客効果をより高めることができる。   According to the fifth aspect, the same effect as any of the first to fourth aspects can be obtained, and a registered player, that is, a person who has played the game at least once in the past is included in the photographed image. And the contents of the effect can be changed based on the personal information of the registered player. In other words, it is possible to realize the production contents that match the preference of the registered player, and to further enhance the effect of attracting customers.

第6の形態は、前記プレイポジションに人物がいることを検出する人物所在検出部(例えば、図1のイメージセンサモジュール1326、距離センサ1328、制御ユニット1350、図10の処理部200、図11のゲーム制御部202、プレーヤ/ギャラリー識別部205、図21のステップS24〜S26)を備え、
前記登録プレーヤ検出部が、前記人物所在検出部による検出が有った場合に、前記撮影画像に登録プレーヤが写っているか否かの判定を行う、第5の形態のゲームシステムである。
The sixth form is a person location detection unit (for example, the image sensor module 1326, the distance sensor 1328, the control unit 1350 in FIG. 1, the processing unit 200 in FIG. A game control unit 202, a player / gallery identification unit 205, and steps S24 to S26 in FIG.
The game system according to a fifth aspect, in which the registered player detection unit determines whether or not the registered player is reflected in the captured image when the person location detection unit detects.

第6の形態によれば、第5の形態と同様の効果が得られるとともに、登録プレーヤの検出を行う機会を適切にすることで処理負荷を軽減することができる。   According to the sixth embodiment, the same effect as that of the fifth embodiment can be obtained, and the processing load can be reduced by making an opportunity to detect the registered player appropriate.

第7の形態は、前記客層判定部による判定結果を用いて、曜日別及び/又は時間帯別の来客客層データベースを作成する来客客層データベース作成部(例えば、図1の制御ユニット1350、ICメモリ1352、図10の処理部200、記憶部500、図11の来客客層データベース作成部211、図12の来客客層データベース551、図22のステップS40〜S42)を備え、
前記アトラクションモード制御部が、前記来客客層データベースを参照してアトラクションモードの演出内容を制御する日時基準制御手段(例えば、図1の制御ユニット1350、ICメモリ1352、図10の処理部200、記憶部500、図11の日時基準制御部212、図22のステップS44〜S50)を有する、第1〜第6の何れかの形態のゲームシステムである。
In the seventh embodiment, a customer segment database creation unit (for example, the control unit 1350, IC memory 1352 in FIG. 1) that creates a customer segment database by day of the week and / or by time of day using the determination result by the customer segment determination unit. , A processing unit 200 in FIG. 10, a storage unit 500, a customer segment database creation unit 211 in FIG. 11, a customer segment database 551 in FIG. 12, and steps S40 to S42 in FIG.
The attraction mode control unit refers to the customer base database and controls date and time reference control means (for example, the control unit 1350 in FIG. 1, the IC memory 1352, the processing unit 200 in FIG. 10, the storage unit). 500, the date / time reference control unit 212 of FIG. 11, and the steps S44 to S50 of FIG. 22).

第7の形態によれば、第1〜第6の何れかの形態と同様の効果が得られるとともに、ゲームシステムが設置されている環境において、日時条件別にアピール対象となり得る人物の客層の変化に応じてアピールする内容を変更できる。例えば、学生が多い時間帯では学生向けの演出内容、成人女性が多い時間帯では女性客向けの演出内容に変更すると言った具合に、設置環境別の、その時々の客層の構成条件に最適化した制御が可能となり、より集客効果を高めることができる。   According to the seventh aspect, the same effect as any of the first to sixth aspects can be obtained, and in the environment where the game system is installed, the change in the customer base of the person who can be appealed according to the date and time conditions The content to appeal can be changed accordingly. For example, it is optimized for the composition conditions of the current customer base according to the installation environment, such as changing to the production content for students in the time zone with many students, and the production content for female customers in the time zone with many adult women. Control is possible, and the effect of attracting customers can be further enhanced.

第8の形態は、少なくともプレイポジションにいる人物を撮影範囲に含むように撮影方向を装置前方に向けて配置された撮影部を備え、所定のゲームを実行可能に構成されたコンピュータシステムを、前記撮影部により撮影された撮影画像に含まれる人物画像を認識する認識部、前記認識部の認識結果を用いて当該撮影画像に写っている人物の性別及び年齢層を少なくとも含む客層を判定する客層判定部、前記客層判定部による判定結果を用いて、アトラクションモードの演出内容を制御するアトラクションモード制御部、として機能させるためのプログラムである。   According to an eighth aspect of the present invention, there is provided a computer system that includes a photographing unit arranged with a photographing direction facing the front of the apparatus so as to include at least a person in a play position in a photographing range, and configured to execute a predetermined game. A recognition unit for recognizing a person image included in a photographed image photographed by the photographing unit, and a customer segment determination that uses the recognition result of the recognition unit to determine a customer segment including at least a sex and an age group of the person photographed in the photographed image The program for functioning as an attraction mode control unit that controls the contents of the effect in the attraction mode using the determination result by the customer segment determination unit.

第8の形態によれば、コンピュータシステムに第1の形態と同様の効果を発揮させることができる。   According to the eighth aspect, it is possible to cause the computer system to exhibit the same effect as in the first aspect.

第9の形態は、第8の形態のプログラムを記憶したコンピュータ読取可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。第9の発明によれば、第8の形態のプログラムをコンピュータに読み取らせて実行させることによって、コンピュータシステムに第1の形態と同様の効果を発揮させることができる。   The ninth form is a computer-readable information storage medium storing the program of the eighth form. The “information storage medium” mentioned here includes, for example, a magnetic disk, an optical disk, an IC memory, and the like. According to the ninth aspect, by causing the computer to read and execute the program of the eighth form, it is possible to cause the computer system to exhibit the same effect as that of the first form.

本発明を適用した業務用ゲーム装置の構成例を示す斜視外観図。The perspective appearance figure showing the example of composition of the arcade game device to which the present invention is applied. ゲーム画面例を示す図。The figure which shows the example of a game screen. アトラクションモードにおける日時基準制御に係る内容を説明するための概念図。The conceptual diagram for demonstrating the content which concerns on the date standard control in attraction mode. アトラクションモードにおける近接者基準制御に係る内容を説明するための概念図。The conceptual diagram for demonstrating the content which concerns on the neighbor reference | standard control in attraction mode. アトラクションモードにおける好感反応者検出時制御に係る内容を説明するための概念図。The conceptual diagram for demonstrating the content which concerns on the control at the time of likable reaction person detection in attraction mode. プレイモードにおけるギャラリー数基準制御に係る内容を説明するための概念図。The conceptual diagram for demonstrating the content which concerns on the gallery number reference | standard control in play mode. プレイモードにおける出現顔表情基準制御に係る内容を説明するための概念図。The conceptual diagram for demonstrating the content which concerns on the appearance facial expression reference | standard control in play mode. プレイモードにおける指定顔表情適否基準進行制御、特定タイミング顔表情基準制御、及び顔表情変化基準制御に係る内容を説明するための概念図。The conceptual diagram for demonstrating the content which concerns on the designation | designated facial expression appropriateness reference progress control in play mode, specific timing facial expression reference | standard control, and facial expression change reference | standard control. 顔表情の認識結果を用いたマーケティング用のサンプル調査データの収集に関する制御内容を説明するための概念図。The conceptual diagram for demonstrating the control content regarding collection of the sample investigation data for marketing using the recognition result of the facial expression. 業務用ゲーム装置の機能構成例を示す機能ブロック図。The functional block diagram which shows the function structural example of a game device for business use. ゲーム制御部の機能構成例を示す部分機能ブロック図。The partial functional block diagram which shows the function structural example of a game control part. 記憶部に記憶されるデータ等の構成例を示す部分機能ブロック図。The partial functional block diagram which shows the structural example of the data etc. which are memorize | stored in a memory | storage part. 客層設定データのデータ構成の一例を示す図。The figure which shows an example of a data structure of customer segment setting data. アトラクションモードデータのデータ構成の一例を示す図。The figure which shows an example of a data structure of attraction mode data. 楽曲ライブラリのデータ構成の一例を示す図。The figure which shows an example of a data structure of a music library. プレーヤ登録データのデータ構成の一例を示す図。The figure which shows an example of a data structure of player registration data. 表情お題設定データのデータ構成の一例を示す図。The figure which shows an example of a data structure of facial expression theme setting data. プレイモード演出内容設定データのデータ構成の一例を示す図。The figure which shows an example of the data structure of play mode effect content setting data. プレイデータのデータ構成の一例を示す図。The figure which shows an example of the data structure of play data. 主たる処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the main processes. アトラクションモード制御処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of an attraction mode control process. 日時条件基準制御処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a date-time condition reference | standard control process. 近接者基準制御処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a neighbor reference | standard control process. 好感反応者基準制御処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a favorable reaction person reference | standard control process. プレイモード制御処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a play mode control process. プレイ曲選択処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a play music selection process. 演出変更処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of an effect change process. 景品払出処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a prize payout process. 途中退席処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a leaving process on the way. 本発明を適用したゲームシステムの構成例を示すシステム構成図。The system block diagram which shows the structural example of the game system to which this invention is applied.

〔第1実施形態〕
本発明を適用した第1実施形態として、音楽ゲームを実行する業務用ゲーム装置を例に挙げて説明する。尚、本発明を適用することのできるゲームの種類は音楽ゲームに限らずジャンルを問わず同様に適用できる。また、本実施形態では、業務用ゲーム装置において専用のゲームプログラムを実行することによりビデオゲームを実現する構成を例に挙げて説明するが、専用のゲームプログラムに代えてウェブブラウザプログラムやスクリプト制御等によって実現しても良い。つまり、インターネット等の通信回線を通じてゲームに必要な情報を取得してブラウザ上でインタラクティブな表示を実現する、いわゆるブラウザゲームとしてビデオゲームを実現する構成としても良い。
[First Embodiment]
As a first embodiment to which the present invention is applied, an arcade game device that executes a music game will be described as an example. Note that the types of games to which the present invention can be applied are not limited to music games and can be applied to any genre. In the present embodiment, a configuration in which a video game is realized by executing a dedicated game program in the arcade game apparatus will be described as an example. However, a web browser program, script control, or the like is used instead of the dedicated game program. It may be realized by. In other words, the video game may be realized as a so-called browser game in which information necessary for the game is acquired through a communication line such as the Internet and interactive display on the browser is realized.

[業務用ゲーム装置の構成]
図1は、本発明を適用したゲームシステム(コンピュータシステム)である業務用ゲーム装置1300の構成例を示す斜視外観図である。業務用ゲーム装置1300は、ゲーム装置本体1301の前方に突設された操作台1304に、プレーヤが各種操作入力をするための打楽器を模した操作入力装置1306を備える。
[Configuration of arcade game device]
FIG. 1 is a perspective external view showing a configuration example of an arcade game apparatus 1300 that is a game system (computer system) to which the present invention is applied. The arcade game apparatus 1300 is provided with an operation input device 1306 that imitates a percussion instrument for a player to input various operations on an operation table 1304 that protrudes in front of the game apparatus main body 1301.

本実施形態の操作入力装置1306は、和太鼓を模した外形を有しており、各所に感圧センサや振動センサを内蔵している。プレーヤ2が、専用の操作棒1308を持って和太鼓を叩く要領で操作入力装置1306を叩くと、叩かれた場所のセンサから操作入力信号が制御ユニット1350へ出力される。本実施形態では、複数プレーヤが同時にゲームプレイできるように2つの操作入力装置1306を備える構成となっているが、その数は適宜設定することができる。   The operation input device 1306 according to the present embodiment has an outer shape imitating a Japanese drum and incorporates pressure-sensitive sensors and vibration sensors in various places. When the player 2 hits the operation input device 1306 in the manner of hitting a Japanese drum with a dedicated operation rod 1308, an operation input signal is output to the control unit 1350 from the sensor at the hit location. In the present embodiment, two operation input devices 1306 are provided so that a plurality of players can play a game at the same time, but the number can be set as appropriate.

また、ゲーム装置本体1301の上部には、ゲーム画像を表示させるためのフラットパネルディスプレイやCRT等で実現されるビデオモニタ1322と、ゲーム音や効果音を放音するスピーカ1324と、イメージセンサモジュール1326と、距離センサ1328とを備える。   Further, on the upper part of the game apparatus main body 1301, a video monitor 1322 realized by a flat panel display for displaying a game image, a CRT, or the like, a speaker 1324 for emitting game sound or sound effect, and an image sensor module 1326 are displayed. And a distance sensor 1328.

イメージセンサモジュール1326は、装置前方の様子を撮影する装置(撮影部)であって、その撮影範囲にはプレーヤがゲームプレイ用の位置(いわゆるプレイポジション)にいる状態で、少なくともプレーヤの頭部、望ましくは胸部より上が写るように撮影画角や撮影方向などが設定されて配置されている。イメージセンサモジュール1326による撮影は、制御ユニット1350により制御され、撮影された画像データは制御ユニット1350へ出力される。尚、本実施形態におけるイメージセンサモジュール1326の搭載数は一台としているが、複数台搭載することとしてもよい。例えば、プレイポジションそれぞれを撮影対象とするイメージセンサモジュールを配置設定するとしても良い。   The image sensor module 1326 is a device (photographing unit) that captures the state of the front of the device, and in the shooting range, the player is at a game play position (so-called play position), and at least the player's head, Desirably, the field angle of view and the direction of photographing are set and arranged so that the upper part of the chest can be seen. Imaging by the image sensor module 1326 is controlled by the control unit 1350, and the captured image data is output to the control unit 1350. Although the number of image sensor modules 1326 in this embodiment is one, a plurality of image sensor modules 1326 may be mounted. For example, an image sensor module for shooting each play position may be set.

距離センサ1328は、赤外線や超音波等を照射するとともにその反射波を検出し、検出信号を制御ユニット1350へ出力する。制御ユニット1350は、距離センサ1328からの検出信号を演算処理することにより、装置前方にある物体(例えば、プレーヤや、プレーヤの後方で見ているギャラリーなど)までの距離を算出することができる。尚、こうした距離センサ1328の構成及びその検出信号からの距離算出については、公知技術を適宜利用することで実現できる。   The distance sensor 1328 irradiates infrared rays, ultrasonic waves, and the like, detects the reflected wave, and outputs a detection signal to the control unit 1350. The control unit 1350 can calculate a distance to an object in front of the apparatus (for example, a player or a gallery viewed behind the player) by calculating a detection signal from the distance sensor 1328. The configuration of the distance sensor 1328 and the distance calculation from the detection signal can be realized by appropriately using known techniques.

そして、ゲーム装置本体1301の下部及び内部には、携行可能なカード型の情報記憶媒体であるICカード1332からのデータ読み出しやデータの書き込みをするICカードリーダライター1330と、硬貨投入装置1340と、景品払出装置1342と、制御ユニット1350と、図示されない電源装置とを備える。   At the bottom and inside of the game apparatus main body 1301, an IC card reader / writer 1330 for reading data from and writing data to an IC card 1332 that is a portable card-type information storage medium, a coin insertion device 1340, A prize dispensing device 1342, a control unit 1350, and a power supply device (not shown) are provided.

ICカードリーダライター1330は、ICカード1332の発行機としての機能を兼ねており、ゲーム開始前或いはゲーム終了後に、所定の手続きを経てプレーヤ登録をすることでICカード1332が発行される。ICカードリーダライター1330にICカード1332を差し込んでからゲームを開始すると、ICカード1332に記憶されたIDと紐付けされた情報(例えば、過去のプレイ履歴などの情報)を利用することが可能となる。尚、本実施形態では、業務用ゲーム装置1300によって、ICカード1332の発行と、登録情報の管理を行う構成としているが、公知のオンラインマルチプレイゲームと同様に別途専用の登録装置とカード発行装置を用意したり、外部のサーバ装置で登録情報を管理する構成としても良いのは勿論である。   The IC card reader / writer 1330 also functions as an issuer of the IC card 1332, and the IC card 1332 is issued by registering the player through a predetermined procedure before or after the game starts. When the game is started after the IC card 1332 is inserted into the IC card reader / writer 1330, information associated with the ID stored in the IC card 1332 (for example, information such as past play history) can be used. Become. In the present embodiment, the arcade game device 1300 is used to issue the IC card 1332 and manage the registration information. However, a dedicated registration device and a card issuing device are separately provided as in the known online multiplayer game. It goes without saying that it is possible to prepare or manage the registration information with an external server device.

制御ユニット1350は、CPU(Central Processing Unit)1351やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリ1352などの電気電子機器を備えたいわゆるコンピュータ基板、制御基板を構成する。また、制御ユニット1350は通信装置1353を備え、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1と有線又は無線接続し、外部装置との間でデータ通信できる。
そして、制御ユニット1350は、搭載されているICメモリ1352やハードディスクなどの情報記憶媒体からシステムプログラムやゲームプログラムを読み出して演算処理し、業務用ゲーム装置1300の各部を制御する。
The control unit 1350 includes various microprocessors such as a CPU (Central Processing Unit) 1351, a GPU (Graphics Processing Unit) and a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), and an electric and electronic device such as an IC memory 1352. This constitutes a so-called computer board and control board. The control unit 1350 includes a communication device 1353, and can be connected to a communication line 1 such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network) by wire or wirelessly to perform data communication with an external device.
The control unit 1350 reads out a system program and a game program from an information storage medium such as an IC memory 1352 and a hard disk mounted thereon, performs arithmetic processing, and controls each unit of the arcade game apparatus 1300.

また、本実施形態の制御ユニット1350は、顔認識チップ1356を搭載する。
顔認識チップ1356は、イメージセンサモジュール1326で撮影された画像に写っている人物の顔表情を認識するための各種機能を実現する公知の集積回路などにより実現される。
顔認識チップ1356によって、イメージセンサモジュール1326で撮影された撮影画像から人間が写っている部分(人物画像部分)を認識・抽出し、更にそこから顔が写っている部分(顔画像部分)を認識・抽出できる。そして、顔画像を用いた個人認証や顔表情認識に必要な「顔特徴値(例えば、眼、眉、鼻、口、顔の輪郭など顔の各部位の大きさ、角度、比率、相対位置などの数値)」を取得することができる。そして、顔特徴値から、年齢・性別・顔表情認識結果などのデータを得ることができる。
In addition, the control unit 1350 of this embodiment is equipped with a face recognition chip 1356.
The face recognition chip 1356 is realized by a known integrated circuit that realizes various functions for recognizing a facial expression of a person shown in an image taken by the image sensor module 1326.
The face recognition chip 1356 recognizes and extracts a part (person image part) in which a person is photographed from a photographed image photographed by the image sensor module 1326, and further recognizes a part in which a face is photographed (face image part). -Can be extracted. And “face feature values (eg, eye, eyebrows, nose, mouth, face contour, etc. size, angle, ratio, relative position, etc.) required for personal authentication and facial expression recognition using face images Numerical value) ”. Then, data such as age / sex / facial expression recognition result can be obtained from the face feature value.

さて、業務用ゲーム装置1300は、電源が入れられると、制御ユニット1350がゲームプログラムを読み出して実行し、業務用ゲーム装置1300は本発明を実現するゲーム装置として機能する。
硬貨投入装置1340で所定の硬貨投入を検出されるまでは、業務用ゲーム装置1300は、プレーヤを勧誘するためのアトラクションモード(客待ちモードの意)で制御される。アトラクションモードでは、通行人にゲーム概要やプレイのスタイルを解説する画面や自動プレイなどの様々な演出が実行され通行人に対してゲームをアピールする。そして、硬貨投入装置1340で所定の硬貨投入を検出すると、業務用ゲーム装置1300は、アトラクションモードから切り替えてゲームプレイモードでの制御を開始し、音楽ゲームが実行される。
When the business game device 1300 is turned on, the control unit 1350 reads and executes the game program, and the business game device 1300 functions as a game device that implements the present invention.
Until the predetermined coin insertion is detected by the coin insertion device 1340, the arcade game device 1300 is controlled in the attraction mode (meaning customer waiting mode) for soliciting players. In the attraction mode, various effects such as a screen that explains the game outline and play style to the passerby and automatic play are executed to appeal the game to the passerby. When the coin insertion device 1340 detects a predetermined coin insertion, the arcade game device 1300 switches from the attraction mode and starts control in the game play mode, and the music game is executed.

音楽ゲームの実行に伴い生成されたゲーム画面はビデオモニタ1322で表示され、生成されたゲーム音はスピーカ1324で放音される。プレーヤはビデオモニタ1322に映し出されるゲーム画面を見つつ、スピーカ1324から放音されるゲーム音を聞きつつゲームをプレイする。   A game screen generated along with the execution of the music game is displayed on the video monitor 1322, and the generated game sound is emitted from the speaker 1324. The player plays the game while listening to the game sound emitted from the speaker 1324 while watching the game screen displayed on the video monitor 1322.

図2は、本実施形態におけるゲーム画面例を示す図であって、1人プレイ状態のゲーム画面のレイアウトに相当する。尚、複数プレーヤが同時にゲームをプレイする場合には、ゲーム画面を上下或いは左右に分割して、プレーヤ別にこうしたゲーム画面が複数並列表示されるものとする。   FIG. 2 is a diagram illustrating an example of a game screen in the present embodiment, and corresponds to a layout of a game screen in a single-player state. When a plurality of players play a game at the same time, the game screen is divided into top and bottom or left and right, and a plurality of such game screens are displayed in parallel for each player.

ゲーム画面W2の上部には、タイミングガイド40が表示される。タイミングガイド40では、画面右から左へ向けてタイミングマーカ42,44が流れ表示される。タイミングマーカ42,44は、当該音楽ゲームにおける入力種類にそれぞれ対応づけられている。タイミングガイド40の左方には、ベストタイミング表示体46が固定表示されている。プレイする楽曲の再生とともに流れ表示されているタイミングマーカ42,44がこのベストタイミング表示体46と重なる時に、当該マーカに対応づけられている正しい種類の入力を行うとスコアが加算される。すなわち、タイミングマーカ42,44が、ベストタイミング表示体46に重なるタイミングが、BGMのリズムやテンポに相応するタイミングとして設定されている。尚、タイミングガイド40の表示制御及びその為に必要なデータ構成については、公知の音楽ゲームの技術を適宜流用することにより実現できるので詳細な説明は省略する。   A timing guide 40 is displayed at the top of the game screen W2. In the timing guide 40, the timing markers 42 and 44 are flow-displayed from the right to the left of the screen. The timing markers 42 and 44 are associated with input types in the music game, respectively. A best timing display 46 is fixedly displayed on the left side of the timing guide 40. When the timing markers 42 and 44 that are displayed while playing the music to be played overlap the best timing display 46, the score is added when the correct type of input associated with the marker is performed. That is, the timing at which the timing markers 42 and 44 overlap the best timing display 46 is set as a timing corresponding to the rhythm and tempo of BGM. It should be noted that the display control of the timing guide 40 and the data structure necessary for the display can be realized by appropriately using a known music game technique, and thus detailed description thereof is omitted.

一方、ゲーム画面W2の下部には演出表示部47が設定されている。同表示部では、ゲームを盛り上げるための各種演出が表示される。図の例では、ウサギのキャラクタ48(48a,48b,・・・)が画面端から登場し、断続的に曲に合わせてポンポンを振って踊る演出が示されている。   On the other hand, an effect display unit 47 is set at the lower part of the game screen W2. In the same display section, various effects for exciting the game are displayed. In the example shown in the figure, an effect is shown in which a rabbit character 48 (48a, 48b,...) Appears from the end of the screen and dances by swinging a pom pom intermittently according to the music.

そして、本実施形態の業務用ゲーム装置1300は、1曲分プレイ終了した時点のスコアが所定の景品払出抽選発動基準値に達している場合に、制御ユニット1350で演算処理による抽選を実行し、当該抽選で当選すると景品払出装置1342で景品を払い出してプレーヤを称賛することができる。尚、景品払出装置1342及びそれにかかる景品払出抽選は適宜省略することもできる。   Then, the arcade game device 1300 according to the present embodiment executes a lottery by arithmetic processing in the control unit 1350 when the score at the time of completion of playing one song has reached a predetermined prize payout lottery activation reference value, When a prize is won in the lottery, a prize can be paid out by the prize payout device 1342 to praise the player. The prize payout device 1342 and the prize payout lottery can be omitted as appropriate.

[顔認識の利用について]
次に、本実施形態の業務用ゲーム装置1300における顔認識の利用について説明する。業務用ゲーム装置1300では、イメージセンサモジュール1326で撮影した画像を顔認識チップ1356で処理することにより、装置前方にいる人物の顔特徴値を求め、顔表情を認識することができる。そこで、本実施形態の業務用ゲーム装置1300は、顔特徴値や顔表情の認識結果をゲーム制御に用いることとし、アトラクションモードの制御においてはより勧誘性を向上し、プレイモードの制御においては新しいゲーム体験を実現する。
[Use of face recognition]
Next, the use of face recognition in the arcade game apparatus 1300 of this embodiment will be described. In the arcade game apparatus 1300, by processing an image captured by the image sensor module 1326 with the face recognition chip 1356, a facial feature value of a person in front of the apparatus can be obtained and a facial expression can be recognized. Therefore, the arcade game device 1300 according to the present embodiment uses the recognition result of the facial feature value or facial expression for game control, improves the solicitation in the attraction mode control, and is new in the play mode control. Realize gaming experience.

[1・アトラクションモードの制御における顔認識の利用]
図3〜図5は、顔特徴値や顔表情の認識結果を用いたアトラクションモードの制御内容を説明するための図である。
[1. Use of face recognition in attraction mode control]
3 to 5 are diagrams for explaining the control content of the attraction mode using the recognition result of the face feature value and the facial expression.

先ず図3に示すように、本実施形態の業務用ゲーム装置1300は、アトラクションモードの制御において制御内容を主要客層向けに最適化する「日時基準制御」を行うことができる。「日時基準制御」により、業務用ゲーム装置1300は、アトラクションモードで制御されている間、装置前方の通行人をイメージセンサモジュール1326で周期的に撮影し、撮影された画像内の人物の顔特徴から当該画面内の人物の性別や年齢などを判定し、これをもって当該人物の客層を判定する。そして、業務用ゲーム装置1300が設置されている環境における主要客層へのアピール度の高い内容でアトラクションモードの制御を行うことができる。   First, as shown in FIG. 3, the arcade game apparatus 1300 of the present embodiment can perform “date-and-time reference control” that optimizes the control content for the main customer layer in the control in the attraction mode. With the “date and time reference control”, the arcade game apparatus 1300 periodically photographs a passerby in front of the apparatus with the image sensor module 1326 while being controlled in the attraction mode, and the facial features of the person in the photographed image From this, the gender, age, etc. of the person in the screen are determined, and with this, the customer base of the person is determined. Then, it is possible to control the attraction mode with a content that is highly appealing to the main customer base in the environment where the arcade game device 1300 is installed.

より具体的には、例えば、イメージセンサモジュール1326によって時刻t=1,2,3,・・・においてそれぞれ撮影された装置前方画像G1〜G3が得られたとする。顔認識チップ1356は、これら装置前方画像G1〜G3毎に顔が写っている部分すなわち顔画像を抽出し、そして抽出した顔画像から顔特徴値を算出する。尚、図中では、顔の写っている部分を識別し易いように破線で囲っている。   More specifically, for example, it is assumed that device front images G1 to G3 photographed at time t = 1, 2, 3,... By the image sensor module 1326 are obtained. The face recognition chip 1356 extracts a part in which the face appears in each of the device front images G1 to G3, that is, a face image, and calculates a face feature value from the extracted face image. In the figure, the portion where the face is shown is surrounded by a broken line so that it can be easily identified.

公知のように、顔特徴値には性別や年齢により傾向が見られるので、これらから性別や年齢を判定できる。本実施形態でも同様にして性別や年齢を求め、所定の基準値と比較照合することにより装置前方画像G1〜G3に写っていた人物の客層を判定する(厳密には「推定」する)。   As is well known, since there is a tendency for facial feature values depending on gender and age, gender and age can be determined from these. In this embodiment as well, gender and age are obtained in the same manner, and the customer segment of the person shown in the apparatus front images G1 to G3 is determined by comparing with a predetermined reference value (strictly “estimating”).

客層の設定は任意である。例えば、10代未満、10代、・・・、60代、60代以上の8段階に区分し、それぞれについて男女の性別に分けた合計16の客層に設定することができる。そして、顔特徴に基づく客層判定結果を、所定の曜日・時間帯・特定期間(例えば、夏休み、正月休み、クリスマス期間など)等のパラメータの組み合わせで定義できる日時条件毎に統計処理する。すなわち、日時条件毎に来客客層の統計を出して来客客層データベースを作成する。図3の例では、「日曜日」「午前中」の日時条件においては、左から3つめの客層に該当する通行人が多い事を示している。   The customer base setting is arbitrary. For example, it can be divided into 8 stages of less than teens, 10s,..., 60s and over 60s, and each can be set to a total of 16 customer segments divided by gender. The customer segment determination result based on the facial features is statistically processed for each date and time condition that can be defined by a combination of parameters such as a predetermined day of the week, time zone, and specific period (for example, summer vacation, New Year holidays, Christmas period, etc.). That is, a customer demographic is generated for each date and time condition and a customer demographic database is created. In the example of FIG. 3, the date and time conditions of “Sunday” and “Morning” indicate that there are many passersby corresponding to the third customer segment from the left.

そして、業務用ゲーム装置1300は、現在日時に適合する日時条件の来客客層の統計結果に基づいてアトラクションモードの演出内容を制御する。
具体的には、本実施形態では音楽ゲームを実行するので、アトラクションモードでの演出要素の一つである自動プレイする曲を、現在日時が適合する日時条件における主要な客層に対応する「客層別推薦曲リスト」の中から選曲する。「客層別推薦曲リスト」は、予め制御ユニット1350のICメモリ1352やハードディスク等の情報記憶媒体に記憶されていたり、通信回線1を介して定期的に外部装置から配信される。当該リストには、対応する客層にて人気のある曲で自動プレイするための情報が複数曲分含まれている。なお、日時条件は時刻(時間帯)のみの条件としても良いし、曜日のみの条件としてもよい。勿論、その組み合わせでもよい。
Then, the arcade game device 1300 controls the contents of the attraction mode based on the statistical result of the customer segment with the date and time conditions matching the current date and time.
Specifically, since a music game is executed in the present embodiment, a song to be played automatically, which is one of the effect elements in the attraction mode, is assigned to the “customer segmentation” corresponding to the main customer segment in the date and time conditions that match the current date and time. Select a song from the “Recommended Song List”. The “customer stratified recommended music list” is stored in advance in an information storage medium such as an IC memory 1352 or a hard disk of the control unit 1350, or is periodically distributed from an external device via the communication line 1. The list includes a plurality of pieces of information for automatically playing a song popular with the corresponding customer segment. Note that the date and time condition may be a condition for only time (time zone) or a condition for only day of the week. Of course, the combination may be used.

主要客層に対応する客層別推薦曲リストの中から自動プレイする曲を選択することにより、当該業務用ゲーム装置1300が配置されたロケーションで、その時々の日時条件において最も効果的なアピールが可能となる。尚、図中では「主要な客層」が一つであるように示しているが、複数選択するとしても良いのは勿論である。   By selecting a song to be automatically played from the customer segment recommended song list corresponding to the main customer segment, it is possible to make the most effective appeal at the location where the arcade game device 1300 is located at the time and date conditions at that time Become. Although the figure shows that there is only one “major customer segment”, it goes without saying that a plurality of customers may be selected.

次いで図4に示すように、本実施形態の業務用ゲーム装置1300は、アトラクションモードの制御において制御内容を更に近接者向けに最適化する「近接者基準制御」を実行することができる。「近接者基準制御」により、業務用ゲーム装置1300は、装置に対してある程度以上近づいた人に向けて内容を更に最適化してより効果的なアピールを実現することができる。
そして、近接者基準制御に関連して、業務用ゲーム装置1300は、イメージセンサモジュール1326で撮影した撮影画像を元にした顔認識の結果に基づき、撮影画像に登録プレーヤ(ユーザ登録されている人物)が写っていることを検出する「登録プレーヤ検出機能」を有し、検出された登録プレーヤの個人情報に基づいてアトラクションモードの制御内容を更に当該検出された登録プレーヤ向けに最適化する「登録プレーヤ優先制御」を実行することができる。
Next, as shown in FIG. 4, the arcade game apparatus 1300 of the present embodiment can execute “proximity reference control” that further optimizes the control content for the proximity person in the control in the attraction mode. By the “proximity reference control”, the arcade game device 1300 can further optimize the content for a person who has approached the device more than a certain amount to realize a more effective appeal.
Then, in connection with the proximity reference control, the arcade game device 1300 uses a registered player (a person registered as a user) in the captured image based on the result of face recognition based on the captured image captured by the image sensor module 1326. “Registered player detection function” for detecting that the image is captured, and the “registration player detection function” further optimizes the control contents of the attraction mode for the detected registered player based on the detected personal information of the registered player. Player priority control "can be executed.

具体的には、時刻t=4において撮影された装置前方画像G4から抽出された顔画像((図4の装置前方画像G4中、破線で囲まれた範囲)のサイズが画面サイズに対して所定の近接判定基準比を上回っている場合、或いは距離センサ1328の検出信号から得られる通行人までの距離が所定の近接判定基準距離に達している場合に、装置前方画像G4に写っている人物はアピール対象としてより好適と判断する。そして、近接した人物の顔特徴値から客層を判定し、判定された客層に対応する客層別推薦曲リストから選曲する。つまり、装置に近づいた人物に最適化したアピールを行うことができる。   Specifically, the size of the face image extracted from the device front image G4 taken at time t = 4 (the range surrounded by the broken line in the device front image G4 in FIG. 4) is predetermined with respect to the screen size. In the apparatus front image G4 when the distance to the passerby obtained from the detection signal of the distance sensor 1328 reaches a predetermined proximity determination reference distance. It is determined that it is more suitable as an appeal target, and the customer segment is determined from the facial feature values of the nearby people, and the song is selected from the customer segment recommended song list corresponding to the determined customer segment, that is, optimized for the person approaching the device Appeal can be made.

加えて、もし装置に近づいた人物が複数の場合には、近接者基準制御の対象、すなわちアトラクションモードの演出内容を決定する基準とする人物を、所定の客層優先順とに基づき選択する「優先客層人物選択」をすることができる。具体的には、装置に近接した人物が複数検出された場合、顔特徴値からそれぞれの客層を判定し、その中から予め設定した優先順位に基づいて優先上位の客層を選択し、優先上位の客層となった人物(優先客層人物)について最適化したアピールを行う。   In addition, if there are a plurality of persons approaching the device, a person to be used as a reference for determining the proximity reference control target, that is, the effect content in the attraction mode, is selected based on a predetermined customer priority order. “Customer selection”. Specifically, when a plurality of persons close to the device are detected, each customer segment is determined from the face feature value, and a higher priority customer segment is selected based on a preset priority order, Appeal that is optimized for the customer segment (priority customer segment).

より具体的には、設定される客層それぞれには、ゲーム装置の制作者がターゲットとして想定する度合の高い順に優先順位が設定されている。図4の例では、装置前方画像G4に写っていた2人の顔特徴値からそれぞれ左の人物については「20代女性」、右の人物については「20代男性」の結果が得られている。一方で、客層の優先順設定からは、前者の方が上位と判断されるので、「20代女性」と判断された人物に最適化したアピールが行われることとなる。尚、客層別の優先順位の設定は、適宜設定することができるが、本実施形態では、年齢については低年齢が上位に設定され、性別では男性よりも女性が上位となるように設定することとする。   More specifically, priorities are set for each of the set customer segments in descending order of the level assumed by the game device creator. In the example of FIG. 4, the result of “20s female” for the left person and “male 20s male” for the right person is obtained from the face feature values of the two persons shown in the apparatus front image G4. . On the other hand, from the priority order setting of the customer base, the former is determined to be higher, so that an appeal optimized for a person determined to be a “20s female” will be performed. In addition, although the setting of the priority order for each customer group can be set as appropriate, in this embodiment, the lower age is set higher than the age, and the female is set higher than the male in the gender. And

更に、装置前方画像G4に写っている人物毎に顔特徴値を求め、プレーヤ登録に伴い既に取得済の個人顔特徴値と照合して、当該人物が登録済の人物であるかを判定することができる。もし、時刻t=4において撮影された装置前方画像G4に写っている人物が登録プレーヤであるならば(図中、左側の女性がそれに該当)、プレーヤ登録データに紐付けされている過去のプレイ履歴情報などから当該人物の好みのジャンルの情報を取得し、そのジャンルに属する曲の中からアトラクションモードにて自動プレイする曲を選択する。つまり、登録プレーヤが近づいたならば当該人物の興味を惹きやすいアピールを行うことができる。   Further, a face feature value is obtained for each person shown in the device front image G4, and is compared with the personal face feature value already acquired with the player registration to determine whether the person is a registered person. Can do. If the person shown in the device front image G4 photographed at time t = 4 is a registered player (the woman on the left corresponds to that in the figure), the past play linked to the player registration data is performed. Information on a favorite genre of the person is acquired from history information or the like, and a song to be automatically played in the attraction mode is selected from songs belonging to the genre. That is, if the registered player approaches, it is possible to make an appeal that easily attracts the interest of the person.

登録プレーヤは既にこのゲームに一度は興味を持ったことが有る人物であるから、高い勧誘効果が期待できる。よって、近接した人物が複数である場合には、客層に基づく優先客層人物を選択し、優先客層人物について登録プレーヤで有るかの照合を行い、登録プレーヤであれば関連する登録情報に基づいてアトラクションモードの演出内容を切り替えると効果的である。勿論、近接した人物が複数である場合で、且つ登録プレーヤが含まれる場合には、プレーヤ登録されていない人物同士で各々の客層を比較して優先客層人物を選択するよりも優先して登録プレーヤの登録情報に基づいてアトラクションモードの演出内容を切り替える制御を優先する構成としても良い。   Since the registered player is a person who has already been interested in the game once, a high solicitation effect can be expected. Therefore, when there are a plurality of persons in the vicinity, a priority customer group person based on the customer group is selected, whether the priority customer group person is a registered player is checked, and if it is a registered player, the attraction is based on related registration information. It is effective to switch the mode contents. Of course, when there are a plurality of persons in the vicinity and a registered player is included, the registered player is given priority over selecting a priority customer group person by comparing each customer group with the non-player-registered persons. It is good also as a structure which gives priority to the control which switches the production content of the attraction mode based on the registration information.

また更に、本実施形態の業務用ゲーム装置1300は、アトラクションモードの制御において制御内容を複数の人物の客層の組み合わせに最適化した「客層組合せ別制御」を実行することができる。本実施形態では、近接した人物が複数である場合にその客層の組み合わせに応じて、予め客層組み合わせ別に用意されている演出表示のパターンデータを選択し、選択されたデータに基づいてゲーム画面の演出表示部47の表示内容を切り替え制御する。   Furthermore, the arcade game apparatus 1300 of this embodiment can execute “customer group combination-specific control” in which the control content is optimized for a combination of customer groups of a plurality of people in the control of the attraction mode. In the present embodiment, when there are a plurality of persons in the vicinity, according to the combination of the customer segments, the presentation display pattern data prepared for each customer segment combination is selected in advance, and the game screen rendering is performed based on the selected data. The display content of the display unit 47 is switched and controlled.

客層の組み合わせの種類及びその組み合わせに向けた演出パターンの設定は適宜設定できる。図4の例では、第1客層「20代女性」と第2客層「20代男性」の組み合わせから、若い恋人向けの演出表示内容が選択されているがこれに限らない。第1客層「60代女性」と第2客層「60代男性」の組み合わせに対しては、年配夫婦向けの演出表示内容(落ち着きのある色彩、ゆっくりとしたモーションなどで構成された内容等)が用意されると好ましい。また、第1客層を「10歳未満の男性」又は「10歳未満の女性」とし、第2客層を20代以上の男性又は女性、すなわち保護者相当とすれば「親子連れ」と見なせるので子供の情操教育に適した演出表示内容をすると好適であろう。   The kind of combination of customer segments and the setting of the production pattern for the combination can be set as appropriate. In the example of FIG. 4, the effect display content for the young lover is selected from the combination of the first customer group “20s female” and the second customer group “20s male”, but this is not restrictive. For the combination of the first customer group “60s female” and the second customer group “60s male”, there are production display contents for elderly couples (contents with calm colors, slow motion, etc.) It is preferable if prepared. In addition, if the first customer group is “male under 10 years old” or “female under 10 years old” and the second customer group is male or female in their twenties or more, that is, a parent or child, it can be regarded as “with parents and children”. It would be preferable if the content displayed was suitable for emotional education.

次いで図5に示すように、本実施形態の業務用ゲーム装置1300は、アトラクションモードの制御において制御内容を更にゲームシステムへの興味を持つ人物向けに最適化した「好感反応者検出時制御」を実行することができる。好感反応者検出時制御によって、装置前方画像G4を撮影したタイミング(t=4)と、次の撮影のタイミング(t=5)における同一人物の顔表情を比較して好意的な顔表情変化を検出した場合に、当該人物が「興味を持った」と見なし、制御内容を当該人物向けに最適化して更なるアピール度を高めることができる。   Next, as shown in FIG. 5, the arcade game apparatus 1300 according to the present embodiment performs “favorable reaction person detection control” by optimizing the control contents for a person interested in the game system in the control of the attraction mode. Can be executed. By the control at the time of detection of a favorable reaction person, the facial expression of the same person is compared at the timing when the device front image G4 is captured (t = 4) and the timing at which the next imaging is performed (t = 5). When detected, the person can be regarded as “interested” and the control content can be optimized for the person to further increase the appeal.

具体的には、装置前方画像G4に写っている2名の人物それぞれについて逐次顔表情認識処理を行っているものとする。第1のタイミング(t=4)では、アトラクションモードの演出として、左側の人物について登録プレーヤの照合を行って好みのジャンルから選曲あるいは客層識別の結果に応じた客層別推薦曲リストから選曲して自動プレイを行っている(図4に同様)。第2のタイミング(t=5)では、左側の人物が次の撮影タイミング(t=5)において顔表情が好意的な方向へ変化している、或いは、好意的な表情である旨が検出され、「興味を持った」と見なされる。そこで、現在実行されている自動プレイの曲を元にして、当該人物が好む曲を推測して自動プレイの次曲とする。   Specifically, it is assumed that the facial expression recognition process is sequentially performed for each of the two persons shown in the apparatus front image G4. At the first timing (t = 4), as an effect in the attraction mode, the registered player is collated with respect to the person on the left side to select a song from a favorite genre or from a list of recommended songs according to customer demographics according to the result of customer demographic identification. Automatic play is performed (similar to FIG. 4). At the second timing (t = 5), it is detected that the facial expression of the person on the left has changed in a favorable direction at the next shooting timing (t = 5) or is a favorable expression. , Considered "interested". Therefore, based on the currently played automatic play song, the music preferred by the person is estimated and set as the next automatic play song.

次曲の選択方法としては、予め曲毎に対応づけられている関連情報に基づいて行う。例えば、現在実行中の自動プレイの曲と同じジャンルの新曲の中から選択するとしても良いし、同じアーティスト(歌手など)の曲の中から選曲したり、類似するテンポの曲を選択したり、自動プレイ中の曲が他メディア(例えば、テレビ番組、ゲーム、映画など)の特定タイトルと関連づけられている場合(例えば、主題歌や挿入歌として使用されている場合)には、同じ特定タイトルに関連づけられている他の曲から選択する。
よって、ゲームシステムに興味を持った人物に対してさらなるアピールを行い、ゲームへ誘う更なる一押しが可能となる。
The next song selection method is based on related information associated with each song in advance. For example, you may select from new songs of the same genre as the currently playing auto-play song, select songs from the same artist (singer, etc.), select songs with similar tempo, If the song being auto-played is associated with a specific title of other media (eg, a TV program, a game, a movie, etc.) Select from other associated songs.
Therefore, it is possible to make a further appeal to a person who is interested in the game system and to make a further push to invite to the game.

[2・プレイモードの制御における顔認識の利用]
図6〜図8は、顔認識を用いたプレイモードの制御内容を説明するための図である。
図6に示すように、本実施形態の業務用ゲーム装置1300は、プレイモードの制御においてイメージセンサモジュール1326により撮影された撮影画像である装置前方画像G6から、プレーヤ2の顔が写っている部分(プレーヤの顔画像)と、ギャラリー4の顔が写っている部分(ギャラリーの顔画像)とを分けて抽出し、ギャラリー4の数に応じたゲーム進行制御をすることができる。すなわち、業務用ゲーム装置1300は、装置前方画像G6に含まれるプレーヤ以外の人物の数を判定する「ギャラリー数判定機能」を有し、ギャラリー数判定結果を用いてゲーム演出を制御する「ギャラリー数基準制御」を実行できる。
[2. Use of face recognition in play mode control]
6 to 8 are diagrams for explaining the control content of the play mode using face recognition.
As shown in FIG. 6, the arcade game device 1300 of the present embodiment is a portion in which the face of the player 2 is shown from the device front image G6 that is a photographed image photographed by the image sensor module 1326 in the control of the play mode. It is possible to separately extract (player's face image) and a portion (gallery face image) where the face of the gallery 4 is shown, and to control the game progress according to the number of the gallery 4. That is, the arcade game apparatus 1300 has a “gallery number determination function” for determining the number of persons other than the players included in the device front image G6, and controls the game effect using the gallery number determination result. "Reference control" can be executed.

具体的には、「ギャラリー数判定機能」に関しては、装置前方画像G6から抽出される顔が写っている部分(顔画像)の顔特徴値を、プレーヤ登録の際に取得した個人識別用の顔特徴値と比較してプレーヤ2の顔画像であるかを判定することができるので、プレーヤ2とギャラリー4とを分けることができる。   Specifically, regarding the “gallery number determination function”, the face feature value of the part (face image) where the face extracted from the device front image G6 is captured is the face for personal identification acquired at the time of player registration. Since it can be determined whether the face image of the player 2 is compared with the feature value, the player 2 and the gallery 4 can be separated.

また、登録プレーヤとして識別できない場合(例えばプレーヤ2が初めて本ゲームをプレイする場合で、プレーヤ登録はゲーム終了時に行うケース)では、装置前方画像G6から抽出される顔画像であって、次の条件(1)と条件(2)を満たすものをプレーヤ2の顔画像とみなす。
条件(1):ギャラリー4はプレーヤ2の背後にいるものと仮定して、装置前方画像G6全体の画面面積A0に対する抽出された顔画像の面積A1の比率が所定のプレーヤ顔判定比率に達している。
条件(2):プレーヤ2は所定のプレイポジションに立つものであるとの仮定に基づいて、装置前方画像G6内における抽出された顔の部分が、所定のプレーヤ顔ポジション予測範囲6内に存在する。
尚、これらの条件(1)及び条件(2)の代わりに、或いは更なる条件(3)として、抽出された顔の部分毎の距離センサ1328を用いた距離測定値が、所定のプレーヤ顔判定距離未満であることを加えることができる。
If the player cannot be identified as a registered player (for example, the player 2 plays the game for the first time and the player registration is performed at the end of the game), the face image is extracted from the device front image G6, and the following condition is satisfied. Those satisfying (1) and condition (2) are regarded as the face images of the player 2.
Condition (1): Assuming that the gallery 4 is behind the player 2, the ratio of the area A1 of the extracted face image to the screen area A0 of the entire device front image G6 reaches a predetermined player face determination ratio. Yes.
Condition (2): Based on the assumption that the player 2 stands at a predetermined play position, the extracted face portion in the device front image G6 exists within the predetermined player face position prediction range 6. .
Instead of these conditions (1) and (2), or as a further condition (3), the distance measurement value using the distance sensor 1328 for each part of the extracted face is a predetermined player face determination. It can be added that it is less than a distance.

そして、本実施形態の業務用ゲーム装置1300は、装置前方画像G6からプレーヤ2とギャラリー4の顔を分けることができることを利用して、ゲーム画面内の演出表示を変更することができる。具体的には、ゲーム画面の演出表示部47(図2参照)にて演出表示するための「標準演出」と、特別な「多ギャラリー用演出」との設定データを予め用意しておく。そして、ゲーム開始とともにゲーム画面の演出表示部47に標準演出を表示開始し、ゲーム進行中に判定されるギャラリー4の数が特別演出の発動開始基準値に達したならば、多ギャラリー用演出を追加実行してゲームを更に盛り上げる。   Then, the arcade game apparatus 1300 of the present embodiment can change the effect display in the game screen by using the fact that the faces of the player 2 and the gallery 4 can be separated from the apparatus front image G6. Specifically, setting data for “standard effect” and special “multi-gallery effect” for effect display on the game screen effect display unit 47 (see FIG. 2) are prepared in advance. Then, when the game is started, a standard effect is displayed on the effect display unit 47 of the game screen, and if the number of galleries 4 determined during the progress of the game has reached the reference value for starting the special effect, a multi-gallery effect is displayed. Perform additional games to make the game even more exciting.

尚、「多ギャラリー用演出」の種類及びその発動開始基準値は適宜設定できる。また、顔認識の結果に基づいて判定されるギャラリー数に応じて演出表示の内容を変更する構成として説明したが、それに代えて、又は併用してゲーム進行をギャラリー数に応じて制御するとしても良い。例えば、ギャラリー数が所定の特典付与基準値に達した場合に、プレーヤがゲームを有利に進められるアイテムを付与したり、1曲プレイした後に、ミニゲーム(例えば、テレビコマーシャルとタイアップしている曲を、コマーシャル版で1プレイできる、或いは全く違うゲームジャンルのシューティングゲームなど)を1プレイ可能にするなどの構成が可能である。   The type of “multi-gallery effect” and its activation start reference value can be set as appropriate. Moreover, although it demonstrated as a structure which changes the content of production | presentation display according to the number of galleries determined based on the result of face recognition, it may replace or use together and control game progress according to the number of galleries. good. For example, when the number of galleries reaches a predetermined privilege provision reference value, the player gives an item that can be used to advance the game, or plays a song and then ties up with a mini game (for example, a TV commercial). It is possible to configure such that a song can be played one time in a commercial version, or one shooter of a completely different game genre can be played.

また、シューティングゲームならばボスキャラの種類や移動するステージの種類をギャラリー4の数に応じて選択する構成としても良い。アクションゲームならば攻撃等の技のエフェクトの種類をギャラリー4の数に応じて選択する構成としても良い。何れにせよ、ギャラリー4の数が多い程、ゲームがより盛り上がる選択肢が選ばれるようにする。   In the case of a shooting game, the type of boss character or the type of stage to be moved may be selected according to the number of galleries 4. In the case of an action game, the type of effect such as an attack may be selected according to the number of galleries 4. In any case, the more the number of galleries 4 is, the more exciting options are selected.

次いで図7に示すように、本実施形態の業務用ゲーム装置1300は、プレイモードの制御において、ゲーム進行中に所与の出現頻度条件を満たしたプレーヤの顔表情(「優勢表情」と呼ぶ)を用いてゲーム演出を制御する「出現顔表情基準制御」を行うことができる。   Next, as shown in FIG. 7, the arcade game apparatus 1300 of the present embodiment has a facial expression (referred to as “dominant facial expression”) of a player that satisfies a given appearance frequency condition during the game in the play mode control. The “appearance facial expression reference control” for controlling the game effect using can be performed.

具体的には、業務用ゲーム装置1300は、ゲームプレイ中のプレーヤ2の顔特徴値から顔表情の認識処理を行い、顔表情の種類毎の統計をとることができる(顔表情別統計)。統計される顔表情の種類は適宜設定できる。一方で、統計処理される顔表情種類に対応して特別演出データが予め用意されている。そして、顔表情別統計処理の結果、所与の出現頻度条件を満たして出現頻度が高い顔表情(優勢顔表情)を判定し、判定された優勢顔表情に対応する特別演出データが実行される。図7の例では、ゲーム開始とともにゲーム画面の演出表示部47(図2参照)にて標準演出が表示される。そして、プレイ開始から十分な時間が経過した時点で優勢顔表情が判定される。その優勢顔表情に対応づけられている特別演出(図中の「喜び用特別演出」「呆然用特別演出」「不機嫌用特別演出」など)が選択されて、標準演出に追加するように実行される。   Specifically, the arcade game apparatus 1300 can perform facial expression recognition processing from the facial feature value of the player 2 during game play, and can collect statistics for each type of facial expression (statistics by facial expression). The types of facial expressions to be statistics can be set as appropriate. On the other hand, special effect data is prepared in advance corresponding to the facial expression type to be statistically processed. Then, as a result of the statistical processing for each facial expression, a facial expression (dominant facial expression) having a high appearance frequency that satisfies a given appearance frequency condition is determined, and special effect data corresponding to the determined dominant facial expression is executed. . In the example of FIG. 7, the standard effect is displayed on the effect display unit 47 (see FIG. 2) of the game screen when the game is started. The dominant facial expression is determined when a sufficient time has elapsed since the start of play. Special effects (such as “Special effects for pleasure”, “Special effects for stupidity”, “Special effects for mood”) in the figure are selected and executed to be added to the standard effects. The

特別演出の内容は適宜設定可能であるが、その内容はプレーヤのゲーム体験がより楽しく喜びが増すように設定すると好適である。例えば、「喜び用特別演出」であれば、更に楽しさが増すように、ウサギのキャラクタ48(図2参照)の背後で花びらが舞い散る演出内容としても良い。「呆然用特別演出」ならば、プレーヤのようにタイコを叩く動作をするサブキャラクタを登場させて安心感を持たせる演出内容としても良いし、「不機嫌用特別演出」ならば、色彩学的に心の安定を取り戻しやすいカラーを使ったデザインのサブキャラクタを登場させる演出などとしても良い。
こうした特別演出をプレーヤの顔表情から推測される心の状態に応じて選択・実行することにより、ゲームプレイを経てプレーヤの心の状態が改善し、より楽しい時間が過ごせるような一種のお手伝いをする。
The contents of the special effects can be set as appropriate, but the contents are preferably set so that the game experience of the player is more enjoyable and joyful. For example, in the case of “special effect for joy”, the effect may be the effect of petals flying behind the rabbit character 48 (see FIG. 2) so that the enjoyment is further increased. If it is a “special effect for stunning”, a sub-character that moves like a player can be added to give a sense of security. It can also be used to create a sub-character with a design that uses colors that make it easy to regain heart stability.
By selecting and executing these special effects according to the state of the mind estimated from the facial expression of the player, the state of the player's mind is improved through game play, and a kind of help is provided so that a more enjoyable time can be spent. .

尚、本実施形態は音楽ゲームを実行するので、優勢表情を用いてゲーム演出を制御するとしたが、それに代えて又は併用してゲーム進行を制御するとしても良い。例えば、ステージが連続するゲーム(シューティングなど)であれば、ゲーム開始から統計処理された結果を所定のステージ切り替えタイミングで参照し、優勢表情の種類に応じて次に向かうステージを切り替えるとしても良い。或いは、指定された表情が所定の出現頻度に達すると、アイテムやボーナススコアなどの特典を付与する構成とすることもできる。   In addition, since this embodiment executes a music game, the game effect is controlled using the dominant expression, but the game progress may be controlled instead or in combination. For example, in the case of a game in which stages are continuous (shooting or the like), the result of statistical processing from the start of the game may be referred to at a predetermined stage switching timing, and the next stage may be switched according to the type of dominant facial expression. Alternatively, when the designated facial expression reaches a predetermined appearance frequency, a privilege such as an item or a bonus score can be given.

次いで図8に示すように、本実施形態の業務用ゲーム装置1300は、プレーヤに指定顔表情を提示し、指定顔表情と、顔表情認識処理の認識結果との適否に応じてゲーム進行を制御する「指定顔表情適否基準進行制御」を実行することができる。つまり、プレーヤの顔表情をゲームルールの要素に加えることができる。
また、これに関連して、業務用ゲーム装置1300は、ゲーム進行に応じて定められた所与のタイミングにおけるプレーヤの顔表情を用いてプレイモードを制御する「特定タイミング顔表情基準制御」と、第1のタイミングにおけるプレーヤの顔表情と、当該第1のタイミングより後の第2のタイミングにおけるプレーヤの顔表情との差違を用いてプレイモードを制御する「顔表情変化基準制御」とを実行する。
Next, as shown in FIG. 8, the arcade game apparatus 1300 of the present embodiment presents the designated facial expression to the player, and controls the progress of the game according to the suitability of the designated facial expression and the recognition result of the facial expression recognition process. It is possible to execute “designated facial expression suitability reference progress control”. That is, the player's facial expression can be added to the elements of the game rule.
Further, in relation to this, the arcade game device 1300 includes a “specific timing facial expression reference control” for controlling the play mode using the facial expression of the player at a given timing determined according to the progress of the game, “Facial expression change reference control” is executed to control the play mode using the difference between the facial expression of the player at the first timing and the facial expression of the player at the second timing after the first timing. .

具体的には、業務用ゲーム装置1300は、プレイ曲が盛り上がる部分(一般に「サビ」と呼ばれる部分がこれに該当する)において、プレーヤの顔表情に注文を設定する。本実施形態ではこれを「顔表情お題」と称し、注文された顔表情を「指定顔表情」と呼ぶ。そして、プレイ曲が盛り上がる部分における顔表情認識の結果に応じてゲーム演出内容を変更するとともに、ゲーム進行を可変制御する。ゲーム進行制御としては、注文通りの顔表情でプレイできた場合に特典を付与する。   Specifically, the arcade game apparatus 1300 sets an order for the facial expression of the player in a portion where the play music is excited (a portion generally called “rust” corresponds to this). In the present embodiment, this is referred to as a “facial expression theme”, and the ordered facial expression is referred to as a “designated facial expression”. And while changing the game effect content according to the result of the facial expression recognition in the part where the play music swells, the game progress is variably controlled. As the game progress control, a privilege is given when the player can play with the facial expression as ordered.

より具体的には、業務用ゲーム装置1300はプレイ開始からのプレーヤ2の顔表情認識を続けており、顔表情の認識結果の履歴が残される一方、プレーヤに向けて曲の盛り上がり部分を「笑顔」でプレイするように「顔表情お題」が出される(=注文が出される)。そして、プレイ曲の盛り上がる部分をプレイしている最中に実行された顔表情認識の結果、次の条件(3)と条件(4)の両方が満たされると「顔表情お題」をクリア(成功)したと判定する。
条件(3):曲盛り上がり部分(特定タイミング)で一定時間(または一定回数)以上検出された顔表情の種類が「笑顔」。
条件(4):ゲーム開始時点(第1タイミング)の第1顔表情と、曲盛り上がり部分(第2タイミング)における第2顔表情とを比較して、より「笑顔」になった。
More specifically, the arcade game device 1300 continues to recognize the facial expression of the player 2 from the start of the play, and the history of the facial expression recognition result is left, while the swelled portion of the song is “smileed” toward the player. "Facial expression theme" is issued (= order is placed). Then, as a result of facial expression recognition executed while playing the exciting part of the play song, if both of the following conditions (3) and (4) are satisfied, the “Facial expression theme” is cleared ( Succeeded).
Condition (3): The type of facial expression detected for a certain time (or a certain number of times) in the climax part (specific timing) is “smile”.
Condition (4): The first facial expression at the start of the game (first timing) was compared with the second facial expression at the climax part (second timing), resulting in a more “smile”.

ここで「顔表情お題」のクリア(成功)又は失敗したと判定したならば、成功時専用の又は失敗時専用の演出表示が実行される。そして、前者の場合には更に特典が付与される。こうしたプレーヤの顔表情をファクタとしたゲームルールの実行は従来に無く、新しいゲーム体験を与えることができる。   If it is determined that the “face expression theme” has been cleared (successful) or has failed, an effect display dedicated to success or dedicated to failure is executed. And in the former case, a privilege is further given. There is no conventional game rule execution based on the facial expression of the player, and a new game experience can be provided.

尚、「顔表情お題」をクリア判定は、上記条件(3)及び条件(4)の何れか一方のみとしても良い。また、「顔表情お題」をクリアした場合に、演出表示又は特典付与の何れか一方のみを実行する構成も可能である。また、付与される特典については適宜設定可能である。例えば、ボーナスポイントの付与でも良いし、アイテムの付与、次のステージに進む権利、景品の抽選権などゲーム内容に応じて適宜設定すると良い。   Note that the “face expression theme” clear determination may be performed in any one of the conditions (3) and (4). In addition, when “the face expression theme” is cleared, it is possible to execute only one of the effect display and the privilege grant. Further, the privilege to be given can be set as appropriate. For example, bonus points may be given, or it may be set as appropriate according to the game content such as item grant, right to proceed to the next stage, prize lottery right.

[3・マーケティングにおける顔認識の利用]
図9は、顔表情の認識結果を用いたマーケティング用のサンプル調査データの収集に関する制御内容を説明するための図である。
本実施形態の業務用ゲーム装置1300は、プレーヤの様子を撮影し、その顔表情を認識できる機能を利用して、ゲームへのプレーヤの満足度合を推測するためのサンプル調査データを収集することができる。すなわち、マーケティングに関する情報を収集することができる。
[3. Use of face recognition in marketing]
FIG. 9 is a diagram for explaining the control contents regarding the collection of the sample survey data for marketing using the recognition result of the facial expression.
The arcade game apparatus 1300 of the present embodiment can collect sample survey data for estimating the degree of satisfaction of the player with the game by using a function that can capture the state of the player and recognize the facial expression. it can. That is, it is possible to collect information regarding marketing.

具体的には、装置前方画像G9からプレーヤ2(2a,2b)の顔が写っている部分を(顔画像)抽出し、それぞれについて顔特徴値を求める。顔特徴値から性別や年齢といった客層を定義するパラメータ値を判定し、各プレーヤの客層を判定する。
一方で、予めマーケティング対象客層を指定するデータを参照可能に用意しておく。そして、判定されたプレーヤの客層がマーケティング対象客層に該当する場合には、該当したプレーヤの顔表情認識結果(又は認識結果に基づく満足度などの数値等)が、客層の判定結果と対応づけてサンプル調査データとして蓄積される。
Specifically, a part (face image) in which the face of the player 2 (2a, 2b) is captured is extracted from the device front image G9, and a face feature value is obtained for each. A parameter value defining a customer segment such as gender and age is determined from the face feature value, and a customer segment of each player is determined.
On the other hand, data that designates a target customer for marketing is prepared in advance so that it can be referred to. Then, when the determined customer segment of the player corresponds to the target customer segment for marketing, the facial expression recognition result (or a numerical value such as satisfaction based on the recognition result) of the corresponding player is associated with the determination result of the customer segment. Accumulated as sample survey data.

図9の例では、装置前方画像G9の左方のプレーヤ2(2a)の客層は「20代女性」、右方のプレーヤ2(2b)の客層は「60代男性」と判断され、前者はマーケティング対象客層に該当し、後者は該当しないと判断されている。よって、ゲーム途中、ゲーム終了後、景品払出後など、調査したいと望むタイミングにおける左方のプレーヤ2(2a)の顔表情認識結果と客層判定結果とが対応づけてサンプル調査データに加えられる。   In the example of FIG. 9, it is determined that the customer group of the player 2 (2a) on the left side of the device front image G9 is “20s female” and the customer group of the player 2 (2b) on the right is “male 60s”. It falls under the target audience for marketing, and the latter is not considered. Therefore, the facial expression recognition result of the left player 2 (2a) and the customer segment determination result at the timing at which it is desired to investigate, such as during the game, after the game is over, or after the prize is paid out, are added to the sample survey data.

顔表情の認識は、ゲーム開始からゲーム終了後しばらくの間まで逐次実行され、認識結果の履歴が保存される。サンプル調査データに加えられる顔表情認識の結果は、ゲーム開始時、ゲーム進行中、ゲーム終了時、景品払出時など特定のタイミングにおける結果のうち、少なくとも一つのタイミングの結果を含む。本実施形態では、ゲームに対するプレーヤの期待と、実際にプレイした後の満足度とを推測できるように、ゲーム開始時とゲーム終了時との少なくとも2つのタイミングにおける結果を必須としている。   Facial expression recognition is performed sequentially from the start of the game to a short time after the game ends, and a history of recognition results is stored. The facial expression recognition result added to the sample survey data includes a result of at least one timing among results at a specific timing such as the start of the game, the progress of the game, the end of the game, and the payout of the prize. In the present embodiment, results at at least two timings at the start of the game and at the end of the game are indispensable so that the player's expectation for the game and the satisfaction after the game is actually played can be estimated.

尚、マルチプレイの場合には、一緒にプレイするプレーヤのうち何れか一人でもマーケティング対象客層に該当する場合には、その他のプレーヤがマーケティング対象客層に該当しなくとも全プレーヤの客層と顔表情認識結果を纏めてサンプル調査データに加える構成としても良い。この場合、サンプル調査データはマルチプレイ時調査データとしての意味も成す。   In addition, in the case of multiplayer, if any one of the players playing together falls under the target audience for marketing, the recognition result of the facial expressions and facial expressions of all players even if the other players do not fall under the target audience for marketing May be added to the sample survey data. In this case, the sample survey data also serves as survey data during multiplayer.

[機能ブロックの説明]
次に、機能構成について説明する。
図10は、本実施形態における業務用ゲーム装置1300の機能構成の一例を示す機能ブロック図である。同図に示すように本実施形態の業務用ゲーム装置1300は、操作入力部100と、撮影部102と、ICカード読取部104と、対価支払検出部106と、距離測定部108と、処理部200と、音出力部350と、画像表示部360と、通信部370と、景品払出部400と、記憶部500とを備える。
[Description of functional block]
Next, a functional configuration will be described.
FIG. 10 is a functional block diagram illustrating an example of a functional configuration of the arcade game apparatus 1300 according to the present embodiment. As shown in the figure, the arcade game apparatus 1300 of the present embodiment includes an operation input unit 100, a photographing unit 102, an IC card reading unit 104, a consideration payment detection unit 106, a distance measurement unit 108, and a processing unit. 200, a sound output unit 350, an image display unit 360, a communication unit 370, a premium payout unit 400, and a storage unit 500.

操作入力部100は、プレーヤによって為された各種の操作入力に応じて操作入力信号を処理部200に出力する。例えば、ボタンスイッチや、ジョイスティック、タッチパッド、トラックボールといった直接プレーヤが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサなど、運動や姿勢を検知する素子などによっても実現できる。本実施形態の業務用ゲーム装置1300は音楽ゲームを実行するので、図1の操作入力装置1306のように楽器型をしているが、ゲーム内容に応じて適宜設定可能である。例えば、ガンシューティングゲームを実行する場合には、銃型のコントローラとしても良い。   The operation input unit 100 outputs an operation input signal to the processing unit 200 in accordance with various operation inputs made by the player. For example, it can be realized not only by a button switch, a joystick, a touchpad, a trackball, etc., but also by an element that detects movement or posture, such as an acceleration sensor, angular velocity sensor, tilt sensor, geomagnetic sensor, etc. . Since the arcade game apparatus 1300 of the present embodiment executes a music game, it has a musical instrument type like the operation input apparatus 1306 of FIG. 1, but can be set as appropriate according to the game content. For example, when a gun shooting game is executed, a gun-type controller may be used.

撮影部102は、イメージセンサや、そのドライバ回路、画像データを記憶する記憶媒体(ICメモリなど)で実現され、プレーヤ(特にその顔面)を含む装置前方を撮影し、撮影した画像データを処理部200へ出力することができる。図1ではイメージセンサモジュール1326がこれに該当する。   The photographing unit 102 is realized by an image sensor, a driver circuit thereof, and a storage medium (such as an IC memory) for storing image data. The photographing unit 102 photographs the front of the apparatus including the player (particularly the face) and processes the photographed image data. 200 can be output. In FIG. 1, the image sensor module 1326 corresponds to this.

ICカード読取部104は、ICカードから情報を読み出し、また処理部200による制御に応じて情報を書き込むことができる。図1のICカードリーダライター1330がこれに該当する。尚、本実施形態ではICカード読取部104は、ICカード1332の発行機能を備える構成とする。また、ICカード1332に代えて、非接触ICカード技術に対応した腕時計や、携帯電話機、携帯型ゲーム装置、携帯情報端末装置などを用いる構成では、ICカード読取部104は非接触ICカード技術に対応した受信装置で実現できる。   The IC card reading unit 104 can read information from the IC card and write information according to control by the processing unit 200. The IC card reader / writer 1330 in FIG. 1 corresponds to this. In this embodiment, the IC card reading unit 104 is configured to have an IC card 1332 issue function. Further, in the configuration using a wristwatch, a mobile phone, a portable game device, a portable information terminal device, or the like that supports the non-contact IC card technology instead of the IC card 1332, the IC card reading unit 104 uses the non-contact IC card technology. This can be realized with a corresponding receiving device.

対価支払検出部106は、ゲームプレイの対価の支払いに係わる検出や情報の送受信を行う。例えば図1の硬貨投入装置1340がこれに該当する。その他、ICカード技術に対応した受信装置で構成し、ICカード技術に対応した腕時計や、携帯電話機、携帯型ゲーム装置、携帯情報端末装置などに記憶されている電子マネーによる支払いを受け付ける構成としても良い。その他、公知のクレジットカードの読取り装置としても良い。   The consideration payment detection unit 106 performs detection and information transmission / reception related to the payment of the consideration for the game play. For example, the coin insertion device 1340 shown in FIG. In addition, it is configured with a receiving device that supports IC card technology, and accepts payment by electronic money stored in a wristwatch, mobile phone, portable game device, portable information terminal device, etc. that supports IC card technology. good. In addition, a known credit card reader may be used.

距離測定部108は、装置前方の人物までの距離を人物別に測定し、測定値信号を処理部200へ出力する。例えば図1では距離センサ1328がこれに該当する。距離の測定は、公知技術を適宜応用することで実現できる。例えば、超音波を照射してその反射までの時間を計測したり、赤外線を照射して反射光の強度から距離を算出するとしても良い。或いは、撮影部102を左右2台のイメージセンサで構成するならば、ステレオ撮影の原理で距離を割り出すとしても良い。   The distance measuring unit 108 measures the distance to the person in front of the apparatus for each person, and outputs a measurement value signal to the processing unit 200. For example, the distance sensor 1328 corresponds to this in FIG. The distance measurement can be realized by appropriately applying known techniques. For example, it is possible to measure the time until reflection by irradiating ultrasonic waves, or to calculate the distance from the intensity of reflected light by irradiating infrared rays. Alternatively, if the photographing unit 102 is composed of two left and right image sensors, the distance may be determined by the principle of stereo photographing.

処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む装置の各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100からの操作入力信号等に基づいて各種の演算処理を実行して、業務用ゲーム装置1300の動作を制御する。図1では制御ユニット1350がこれに該当する。
そして、処理部200は、ゲーム制御部202と、音生成部250と、画像生成部260と、通信制御部270と、払出制御部280とを備える。
The processing unit 200 is realized by, for example, a microprocessor such as a CPU or GPU, or an electronic component such as an ASIC or IC memory, and inputs / outputs data to / from each function unit of the apparatus including the operation input unit 100 and the storage unit 500. Take control. Then, various arithmetic processes are executed based on a predetermined program and data, an operation input signal from the operation input unit 100, and the like, and the operation of the arcade game apparatus 1300 is controlled. In FIG. 1, the control unit 1350 corresponds to this.
The processing unit 200 includes a game control unit 202, a sound generation unit 250, an image generation unit 260, a communication control unit 270, and a payout control unit 280.

図11は、本実施形態におけるゲーム制御部202の機能構成例を示すブロック図である。ゲーム制御部202は、プレーヤの操作入力に従ってビデオゲームを実現するための各種制御を実行する。
例えば、本実施形態では音楽ゲームを実行するので、プレーヤにより選曲された曲の再生に合わせてゲーム画面を表示する処理や、システムクロック等を用いて曲の再生時間などを計時する処理、操作入力に応じて入力タイミングを評価しスコアを加算する処理、1曲分プレイが終了した時点のスコアが所定の景品払出発動基準値に達している場合に演算処理により抽選を行う処理などを行う。
ゲーム内容によっては、例えば、仮想3次元空間内に各種背景オブジェクトを配置してゲーム空間を形成し、プレーヤキャラクタやNPC(ノンプレーヤキャラクタ)のオブジェクトを配置する処理や、操作入力部100からの操作入力に応じてプレーヤキャラクタを動作制御したり、NPCをいわゆるAI制御する処理、オブジェクトのヒット判定処理、プレーヤキャラクタの様子を撮影する仮想カメラの位置や姿勢など撮影パラメータを自動制御する処理、などを適宜実行するものとする。
また、ゲーム進行に必要であれば外部装置から受信した情報のデコード、テクスチャの展開、ヒット判定、フラグ設定、などを実行できる。
FIG. 11 is a block diagram illustrating a functional configuration example of the game control unit 202 in the present embodiment. The game control unit 202 executes various controls for realizing a video game in accordance with player operation inputs.
For example, since a music game is executed in the present embodiment, a process for displaying a game screen in accordance with the reproduction of the music selected by the player, a process for measuring the reproduction time of the music using a system clock, etc., and an operation input A process for evaluating the input timing and adding a score according to the process is performed. When the score at the end of the play of one song has reached a predetermined premium payment starting movement reference value, a lottery process is performed by an arithmetic process.
Depending on the game content, for example, various background objects are arranged in a virtual three-dimensional space to form a game space, and a player character or NPC (non-player character) object is arranged, or an operation from the operation input unit 100 Processing to control the player character in response to input, so-called AI control processing of the NPC, object hit determination processing, processing to automatically control shooting parameters such as the position and orientation of the virtual camera for shooting the player character, etc. It shall be executed as appropriate.
If necessary for the progress of the game, decoding of information received from an external device, development of texture, hit determination, flag setting, etc. can be executed.

そして、本実施形態のゲーム制御部202は、顔表情認識部204と、プレーヤ/ギャラリー識別部205と、客層判定部206と、登録プレーヤ検出部208と、アトラクションモード制御部210と、プレイモード制御部220と、調査対象判定部246と、調査データ記憶制御部248と、プレーヤ登録管理部249と、を含む。   The game control unit 202 of the present embodiment includes a facial expression recognition unit 204, a player / gallery identification unit 205, a customer segment determination unit 206, a registered player detection unit 208, an attraction mode control unit 210, and a play mode control. Section 220, survey target determination section 246, survey data storage control section 248, and player registration management section 249.

顔表情認識部204は、
(1)撮影部102により撮影された撮影画像(図3の装置前方画像G1など参照)から人物が写っている部分(人物画像)を認識する処理、
(2)撮影画像から人物の顔が写っている部分(顔画像)を認識する処理、
(3)顔画像から顔特徴値を求める処理、
(4)顔特徴値に基づいて人物の年齢と性別とを判定する処理、
(5)顔特徴値に基づいて顔表情を認識する処理、
(6)顔表情認識の結果を時刻データとともに時系列に記憶部500に記憶する処理、
(7)顔表情認識結果の時系列データに基づいてプレイ中の顔表情の出現率などの統計処理、を実行することができる。
The facial expression recognition unit 204
(1) processing for recognizing a portion (person image) in which a person is shown from a photographed image photographed by the photographing unit 102 (see the apparatus front image G1 in FIG. 3);
(2) processing for recognizing a part (face image) in which a person's face is reflected from a photographed image;
(3) processing for obtaining a facial feature value from a facial image;
(4) A process for determining the age and sex of a person based on the face feature value;
(5) processing for recognizing facial expressions based on facial feature values;
(6) Processing for storing the facial expression recognition result in the storage unit 500 in time series together with time data;
(7) Based on the time series data of the facial expression recognition result, statistical processing such as the appearance rate of the facial expression being played can be executed.

尚、これらの処理及びそれにより実現される機能は、公知の顔認識技術、顔表情認識技術及びそれらの周辺技術により実現できる。本実施形態では、顔認識チップ1356(図1参照)によりこれらの機能を専用のハードウェアにより実現する構成としているが、公知の顔認識プログラムや顔表情認識プログラムをCPU1351で実行することで実現するとしても良い。或いは、通信回線1を介して外部装置に撮影部102により撮影された画像を送信し、当該外部装置から顔特徴値や、顔表情の認識結果を取得する構成としても良い。また、顔表情の認識結果については、本実施形態では、喜び、呆然、不機嫌など所定の心情種類毎のその度合として算出されることとするが、利用する公知技術によってはその他の形態でも構わない。   Note that these processes and the functions realized thereby can be realized by known face recognition techniques, facial expression recognition techniques, and their peripheral techniques. In this embodiment, the face recognition chip 1356 (see FIG. 1) implements these functions with dedicated hardware. However, the CPU 1351 executes a known face recognition program or facial expression recognition program. It is also good. Alternatively, a configuration may be adopted in which an image photographed by the photographing unit 102 is transmitted to an external device via the communication line 1 and a facial feature value and a facial expression recognition result are acquired from the external device. In addition, in the present embodiment, the recognition result of facial expression is calculated as the degree of each predetermined emotional type such as joy, stunning, displeasedness, but other forms may be used depending on the known technique used. .

プレーヤ/ギャラリー識別部205は、撮影部102で撮影された装置前方画像に写っている人物の中から、プレイポジションにいる人物すなわちプレーヤ(又はプレーヤ候補となるゲーム装置に近接した人物)を検出し、ギャラリーと識別する人物所在検出機能を実現する。当該機能は、装置前方画像に写っている顔画像の画面全体における配置位置や面積比などを所定の基準値と比較することや、顔画像別の距離測定部108による測距結果を用いることで実現できる(図6参照)。また、当該識別部は、プレーヤ相当人物の顔特徴値を一時登録して、以降、装置前方画像の顔画像からプレーヤ(又はプレーヤ候補となるゲーム装置に近接した人物)の顔画像を識別可能にする。   The player / gallery identifying unit 205 detects a person at the play position, that is, a player (or a person close to a game device that is a player candidate) from among the people in the front image captured by the photographing unit 102. Realize a person location detection function that identifies a gallery. This function compares the arrangement position and area ratio of the face image shown in the front image of the apparatus on the entire screen with a predetermined reference value, and uses the distance measurement result by the distance measurement unit 108 for each face image. This can be realized (see FIG. 6). In addition, the identification unit can temporarily register the face feature value of the player-equivalent person, and thereafter identify the face image of the player (or a person close to the game device as a player candidate) from the face image of the device front image. To do.

客層判定部206は、撮影部102で撮影された装置前方画像に写っている人物毎にその顔特徴値から年齢や性別などを判定し、所定の客層定義データと照合をして当該人物の客層を判定する。   The customer segment determination unit 206 determines the age, sex, and the like from the face feature value for each person shown in the device front image captured by the imaging unit 102, and collates with predetermined customer segment definition data to determine the customer segment of the person Determine.

登録プレーヤ検出部208は、顔表情認識部204の認識結果に基づき認証可能な特徴データを登録プレーヤ毎に記憶するプレーヤ登録データと照合して、撮影部102で撮影された撮影画像に登録プレーヤが写っていることを検出する。   The registered player detection unit 208 collates the feature data that can be authenticated based on the recognition result of the facial expression recognition unit 204 with player registration data stored for each registered player, and the registered player detects the captured image captured by the imaging unit 102. Detect that it is reflected.

アトラクションモード制御部210は、客待ち状態いわゆるアトラクションモードにおける業務用ゲーム装置1300の動作を制御する。例えば、タイトル画面を表示したり、自動プレイを実行するなど集客のための様々な演出表示や音楽再生を制御する。
本実施形態では、来客客層データベース作成部211と、日時条件基準制御部212と、優先客層人物選択部213と、登録プレーヤ優先制御部214と、客層組合せ別制御部215と、好感反応者検出部216と、好感反応検出時制御部217と、を含む。
The attraction mode control unit 210 controls the operation of the arcade game apparatus 1300 in the customer waiting state so-called attraction mode. For example, various effect displays and music playback for attracting customers are controlled, such as displaying a title screen and executing automatic play.
In this embodiment, the customer segment database creation unit 211, the date / time condition criterion control unit 212, the priority customer segment person selection unit 213, the registered player priority control unit 214, the customer segment combination-specific control unit 215, and the favorable reaction person detection unit 216 and a favorable response detection detection control unit 217.

来客客層データベース作成部211は、客層判定部206による判定結果を、曜日や時間帯別、特定の期間などで定義される日時条件毎に集計した来客客層データベースを作成する(図3参照)。   The customer segment database creation unit 211 creates a customer segment database in which the determination result by the customer segment determination unit 206 is tabulated for each date and time condition defined by day of the week, time zone, specific period, and the like (see FIG. 3).

日時条件基準制御部212は、来客客層データベース作成部211により作成された来客客層データベースをもとにしてアトラクションモードを制御する。具体的には、現在日時が適合する日時条件の客層集計結果から主要客層を判定し、判定した主要客層に対応するアトラクションモードの制御パターンデータを参照して制御を主要客層向けに最適化する(図3参照)。   The date / time condition reference control unit 212 controls the attraction mode based on the customer segment database created by the customer segment database creation unit 211. Specifically, the main customer group is determined from the customer group totaling result of the date and time conditions that the current date and time match, and the control is optimized for the main customer group with reference to the control pattern data of the attraction mode corresponding to the determined main customer group ( (See FIG. 3).

優先客層人物選択部213は、撮影部102による撮影画像に写っている人物が複数の場合に、人物毎の客層判定結果と所定の客層優先順とに基づいて、当該複数の人物の中からアトラクションモードの制御内容(例えば、ゲーム演出の内容やゲーム進行制御)を決定する基準とする人物を選択する。選択された人物が「優先客層人物」となり、制御内容最適化の対象となる(図4参照)。   The priority customer segment person selection unit 213, when there are a plurality of persons shown in the photographed image by the photographing unit 102, based on the customer segment determination result for each person and a predetermined customer segment priority order, A person is selected as a reference for determining the mode control contents (for example, the contents of the game effect and the game progress control). The selected person becomes the “priority customer group person” and is the object of optimization of the control content (see FIG. 4).

登録プレーヤ優先制御部214は、撮影部102による撮影画像に写っている人物で、登録プレーヤ検出部208により検出された人物(登録プレーヤ)を対象として、プレーヤ登録データ(個人情報)を参照して、検出された登録プレーヤ向けにアトラクションモードの制御内容を切り替えて最適化する(図4参照)。   The registered player priority control unit 214 refers to the player registration data (personal information) for the person (registered player) detected by the registered player detection unit 208 in the image captured by the imaging unit 102. Then, the control contents of the attraction mode are switched and optimized for the detected registered player (see FIG. 4).

客層組合せ別制御部215は、客層判定部206により判定された客層の組み合わせを用いて、アトラクションモードの演出内容を制御し、その客層の組み合わせにより効果的なアピールを実現する(図4参照)。   The control unit 215 for each customer group combination uses the combination of customer groups determined by the customer group determination unit 206 to control the effect contents of the attraction mode, and realizes an effective appeal by the combination of the customer groups (see FIG. 4).

好感反応者検出部216は、ゲームシステムへの興味を持つ人物が撮影画像に写ったことを推定的に検出する。具体的には、ゲーム装置に近接した人物の顔特徴値から顔表情を認識し、顔表情が「喜び」「楽しさ」「興味」などの度合が上がった、或いは当該度合が所定の閾値以上と認識される場合に、その人物を好感反応者として検出する(図5参照)。
尚、検出方法は撮影画像を利用する形態に限らない。例えば、距離測定部108で撮影画像に写った人物毎のゲーム装置からの距離を測定し、距離がプレイポジション付近まで近づくように変化した場合に「興味をもった」と判断して、当該人物を好感反応者として検出する構成としても良い。勿論、撮影画像を利用する形態との併用でも良い。
The likable reaction person detection unit 216 preferentially detects that a person who is interested in the game system appears in the captured image. Specifically, the facial expression is recognized from the facial feature value of a person in the vicinity of the game device, and the degree of the facial expression is “joy”, “fun”, “interest” or the like is greater than a predetermined threshold If it is recognized, the person is detected as a favorable reaction person (see FIG. 5).
Note that the detection method is not limited to a form using a captured image. For example, the distance measurement unit 108 measures the distance from the game device for each person shown in the photographed image, and determines that the person is interested when the distance changes to approach the play position. May be detected as a favorable reaction person. Of course, it may be used in combination with a form using a photographed image.

好感反応者検出時制御部217は、好感反応者が検出された場合に、現在実行中のアトラクションモードの演出内容と所定の関連条件を満たす他の演出内容を選択し、所与のタイミングで当該他の演出内容に切り替え制御して、アトラクションモードの内容を好感反応者向けに最適化する。   When a sensation responder is detected, the control unit 217 at the time of detecting a sensation responder selects the content of the attraction mode currently being executed and other content that satisfies a predetermined relation condition, and at the given timing, The content of the attraction mode is optimized for the likable responder by switching to other content.

プレイモード制御部220は、ゲームプレイ対価の支払いが検知された以降のゲームプレイを制御する。本実施形態では顔表情認識部204の認識結果に基づき、ゲーム進行に応じて定められた所与のタイミングにおけるプレーヤの顔表情を用いてゲーム演出を制御する幾つかの機能部を含む。具体的には、ギャラリー数基準制御部221と、出現表情基準制御部222と、顔表情お題制御部224と、景品払出抽選部234とを含む。   The play mode control unit 220 controls the game play after the payment of the game play consideration is detected. The present embodiment includes several functional units that control the game effect using the facial expression of the player at a given timing determined according to the progress of the game based on the recognition result of the facial expression recognition unit 204. Specifically, it includes a gallery number reference control unit 221, an appearance expression reference control unit 222, a facial expression theme control unit 224, and a prize payout lottery unit 234.

ギャラリー数基準制御部221は、プレーヤ/ギャラリー識別部205によって、顔表情認識部204の認識結果に基づいて識別されたギャラリー4(図6参照)の数を算出し、算出されたギャラリー数に応じてゲーム進行やゲーム演出を変更する。本実施形態では、ギャラリー数に応じた専用の演出表示を実行する構成としているが、それに代えて、又は併用してゲーム進行をギャラリー数に応じて制御するとしても良い。   The gallery number reference control unit 221 calculates the number of galleries 4 (see FIG. 6) identified by the player / gallery identifying unit 205 based on the recognition result of the facial expression recognition unit 204, and according to the calculated number of galleries. To change the game progress and game production. In the present embodiment, a dedicated effect display corresponding to the number of galleries is executed, but instead of or in combination, the game progress may be controlled according to the number of galleries.

出現表情基準制御部222は、ゲーム進行中に所与の出現頻度条件を満たしたプレーヤの顔表情を用いてゲーム演出を制御する(図7参照)。具体的には、ゲームプレイ中のプレーヤ2の顔表情認識結果の履歴を記憶部500に記憶させると共に、顔表情別の出現率の統計処理をする。そして、顔表情別統計処理の結果、所与の出現頻度条件を満たして出現頻度が高い顔表情(優勢顔表情)を判定し、判定された優勢顔表情に対応する特別演出を実行する。尚、本実施形態は音楽ゲームを実行するので、優勢表情を用いてゲーム演出を制御するとしたが、それに代えて又は併用してゲーム進行を制御するとしても良い。   The appearance facial expression reference control unit 222 controls the game effect using the facial expression of the player that satisfies a given appearance frequency condition during the game (see FIG. 7). Specifically, the history of the facial expression recognition result of the player 2 who is playing the game is stored in the storage unit 500, and the appearance rate for each facial expression is statistically processed. Then, as a result of the statistical processing for each facial expression, a facial expression (dominant facial expression) having a high appearance frequency that satisfies a given appearance frequency condition is determined, and a special effect corresponding to the determined dominant facial expression is executed. In addition, since this embodiment executes a music game, the game effect is controlled using the dominant expression, but the game progress may be controlled instead or in combination.

顔表情お題制御部224は、「顔表情お題」にかかる各種制御を行う。これに関連して、指定顔表情提示制御部226と、指定顔表情適否基準制御部228と、特定タイミング顔表情基準制御部230と、顔表情変化基準制御部232とを含む。   The facial expression theme control unit 224 performs various controls related to the “facial expression theme”. In relation to this, a designated facial expression presentation control unit 226, a designated facial expression suitability reference control unit 228, a specific timing facial expression reference control unit 230, and a facial expression change reference control unit 232 are included.

指定顔表情提示制御部226は、顔表情認識部204で認識できる顔表情の種類の中から指定顔表情をランダム抽選処理で選択し、プレーヤに提示するための制御をする。本実施形態では、画像表示部360で指定顔表情の種類を画像表示することで提示するが、音出力部350にて種類を指定する音声を放音させるとしても良い。   The designated facial expression presentation control unit 226 selects the designated facial expression from the types of facial expressions that can be recognized by the facial expression recognition unit 204 by random lottery processing, and performs control for presentation to the player. In the present embodiment, the type of the designated facial expression is presented by image display on the image display unit 360, but the sound for designating the type may be emitted by the sound output unit 350.

指定顔表情適否基準制御部228は、特定のタイミング(ここで言う「タイミング」は一瞬に限らず時間的幅を含む)における顔表情の認識結果と、指定顔表情提示制御部226により提示された指定顔表情との適否(顔表情お題のクリア/顔表情お題の失敗)を判定し、判定結果に応じてゲーム演出やゲームの進行を変更制御する(図8参照)。   The designated facial expression suitability criterion control unit 228 is presented by the facial expression recognition result and the designated facial expression presentation control unit 226 at a specific timing (here, “timing” includes not only a moment but also a time width). Appropriateness (clearance of facial expression theme / failure of facial expression theme) is determined with respect to the specified facial expression, and the game presentation and game progress are changed and controlled according to the determination result (see FIG. 8).

本実施形態では、指定顔表情の適否の判定を、ゲーム開始時(第1のタイミング)と、いわゆる「サビ」の部分をプレイしている間(第2のタイミング)のそれぞれの顔表情認識結果を用いる。具体的には、「顔表情お題」をクリア(成功)したと判定するには、「曲盛り上がり部分(特定タイミング)で一定時間(または一定回数)以上検出された顔表情の種類が指定顔表情である」且つ「ゲーム開始時点(第1タイミング)の第1顔表情と、曲盛り上がり部分(第2タイミング)における第2顔表情とを比較して、より指定顔表情の度合が高くなった」場合に「適判定」する。   In this embodiment, whether or not the designated facial expression is appropriate is determined for each facial expression recognition result at the start of the game (first timing) and while playing a so-called “rust” portion (second timing). Is used. Specifically, in order to determine that the “Facial Expression Theme” has been cleared (successful), the type of facial expression detected for a certain period of time (or a certain number of times) at the climax part (specific timing) is specified. Compared with the first facial expression at the beginning of the game (first timing) and the second facial expression at the climax part (second timing), the degree of the specified facial expression is higher. "Appropriate judgment".

よって、本実施形態の指定顔表情適否基準制御部228は、特定タイミング顔表情基準制御部230(ゲーム進行に応じて定められた所与のタイミングにおけるプレーヤの顔表情を用いてゲーム演出を制御する)と、顔表情変化基準制御部232(第1のタイミングにおけるプレーヤの顔表情と、当該第1のタイミングより後の第2のタイミングにおけるプレーヤの顔表情との差違を用いてゲーム演出を制御する)としても機能する。   Therefore, the designated facial expression suitability criterion control unit 228 of this embodiment controls the game performance using the specific timing facial expression criterion control unit 230 (a player's facial expression at a given timing determined according to the progress of the game. ) And the facial expression change reference control unit 232 (the game effect is controlled using the difference between the facial expression of the player at the first timing and the facial expression of the player at the second timing after the first timing). ).

景品払出抽選部234は、ゲーム結果が所定の景品払出発動条件を満たす場合に、演算処理による抽選処理を実行し、当選すると払出制御部280へ払出実行命令を出力し、払出制御部280に景品払出部400による景品の払い出しを実行させる。そして、本実施形態では景品払出に関する抽選処理に際して、プレーヤの顔表情の出現履歴、出現頻度の高い顔表情の種類に応じて当選確率を可変することができる。   The prize payout lottery unit 234 executes a lottery process by a calculation process when the game result satisfies a predetermined prize payout starting condition, and outputs a payout execution command to the payout control unit 280 when winning is made, and the prize control unit 280 receives the prize. The payout unit 400 executes payout of prizes. In the present embodiment, in the lottery process related to prize payout, the winning probability can be varied according to the appearance history of the facial expression of the player and the type of facial expression with a high appearance frequency.

調査対象判定部246は、プレーヤがマーケティング情報収集の調査対象に該当するかを判定する。具体的には、客層判定部206によってプレーヤ毎に判定された客層が、所定のマーケティング対象客層に合致する場合に、調査対象と見なす。   The survey target determination unit 246 determines whether the player falls under the survey target for marketing information collection. Specifically, when the customer segment determined for each player by the customer segment determining unit 206 matches a predetermined customer segment targeted for marketing, the customer segment is regarded as a survey target.

調査データ記憶制御部248は、調査対象判定部246で対象認定されたプレーヤについての客層判定結果と、顔表情認識結果とを対応づけてサンプル調査データとして記憶部500に蓄積・管理する。   The survey data storage control unit 248 accumulates and manages in the storage unit 500 as sample survey data by associating the customer segment determination result and the facial expression recognition result for the player whose target is identified by the survey target determination unit 246.

プレーヤ登録管理部249は、プレーヤの登録に関する処理を実行してプレーヤの個人情報を取得し、記憶部500にプレーヤ登録データを生成・管理する。いわゆるユーザ登録に相当する。個人情報には、撮影部102で撮影したプレーヤの画像から顔表情認識部204によって算出される顔特徴値を個人認証用顔特徴値が含まれる。また、その顔特徴値から顔表情認識部204により求められた年齢性別を含む。プレーヤ登録が完了すると、ICカード読取部104で新たなICカード1332を発行する。   The player registration management unit 249 executes processing related to player registration to acquire personal information of the player, and generates and manages player registration data in the storage unit 500. This corresponds to so-called user registration. The personal information includes a face feature value calculated by the facial expression recognizing unit 204 from the image of the player photographed by the photographing unit 102 and a face feature value for personal authentication. In addition, the age gender obtained by the facial expression recognition unit 204 from the facial feature value is included. When the player registration is completed, the IC card reading unit 104 issues a new IC card 1332.

音生成部250は、例えばデジタルシグナルプロセッサ(DSP)や、音声合成ICなどのプロセッサ、音声ファイル再生可能なオーディオコーデック等によって実現され、ゲーム制御部202による処理結果に基づいてゲームに係る効果音やBGM、各種操作音の音信号を生成し、音出力部350に出力する。   The sound generation unit 250 is realized by, for example, a digital signal processor (DSP), a processor such as a voice synthesis IC, an audio codec that can play back an audio file, and the like, based on the processing result by the game control unit 202, BGM and sound signals of various operation sounds are generated and output to the sound output unit 350.

音出力部350は、音生成部250から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。図1ではスピーカ1324がこれに該当する。   The sound output unit 350 is realized by a device that outputs sound effects, BGM, and the like based on the sound signal input from the sound generation unit 250. In FIG. 1, the speaker 1324 corresponds to this.

画像生成部260は、例えば、GPU(Graphics Processing Unit)、デジタルシグナルプロセッサ(DSP)などのプロセッサ、ビデオ信号IC、ビデオコーデックなどのプログラム、フレームバッファ等の描画フレーム用ICメモリ、テクスチャデータの展開用に使用されるICメモリ等によって実現される。画像生成部260は、ゲーム制御部202による処理結果に基づいて1フレーム時間(例えば1/60秒)で1枚のゲーム画面を生成し、生成したゲーム画面の画像信号を画像表示部360に出力する。   The image generating unit 260 is, for example, a processor such as a GPU (Graphics Processing Unit) or a digital signal processor (DSP), a program such as a video signal IC or a video codec, an IC memory for drawing frames such as a frame buffer, and for developing texture data. This is realized by an IC memory or the like used for the above. The image generation unit 260 generates one game screen in one frame time (for example, 1/60 seconds) based on the processing result by the game control unit 202, and outputs the generated image signal of the game screen to the image display unit 360. To do.

画像表示部360は、画像生成部260から入力される画像信号に基づいて各種ゲーム画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。本実施形態では、図1のビデオモニタ1322がこれに該当する。   The image display unit 360 displays various game images based on the image signal input from the image generation unit 260. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), a projector, or a head mounted display. In the present embodiment, this corresponds to the video monitor 1322 of FIG.

通信制御部270は、データ通信に係るデータ処理を実行し、通信部370を介して外部装置とのデータのやりとりを実現する。   The communication control unit 270 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 370.

通信部370は、通信回線1と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図1の通信装置1353がこれに該当する。   The communication unit 370 is connected to the communication line 1 to realize communication. For example, a wireless communication device, a modem, a TA (terminal adapter), a wired communication cable jack, a control circuit, and the like are realized, and the communication device 1353 in FIG. 1 corresponds to this.

記憶部500は、処理部200に業務用ゲーム装置1300を統合的に制御させるための諸機能を実現するためのシステムプログラムや、ゲームを実行させるために必要なゲームプログラム、各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。こうした機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。図1では制御ユニット1350が搭載するICメモリ1352がこれに該当する。   The storage unit 500 stores a system program for realizing various functions for causing the processing unit 200 to control the arcade game device 1300 in an integrated manner, a game program necessary for executing the game, various data, and the like. . Further, it is used as a work area of the processing unit 200, and temporarily stores calculation results executed by the processing unit 200 according to various programs, input data input from the operation input unit 100, and the like. Such a function is realized by, for example, an IC memory such as a RAM or a ROM, a magnetic disk such as a hard disk, or an optical disk such as a CD-ROM or DVD. In FIG. 1, the IC memory 1352 mounted on the control unit 1350 corresponds to this.

本実施形態の記憶部500は、図12に示すように、システムプログラム501と、ゲームプログラム502とを記憶している。
システムプログラム501は、業務用ゲーム装置1300のコンピュータとしての基本機能を実現するためのプログラムである。
ゲームプログラム502は、処理部200が読み出して実行することによってゲーム制御部202としての機能を実現させるためのアプリケーションソフトであるが、システムプログラム501の一部として組み込まれた構成であっても良い。
The storage unit 500 of this embodiment stores a system program 501 and a game program 502 as shown in FIG.
The system program 501 is a program for realizing the basic functions of the arcade game apparatus 1300 as a computer.
The game program 502 is application software for realizing the function as the game control unit 202 by being read and executed by the processing unit 200, but may be configured as a part of the system program 501.

尚、ビデオゲームを、特定のウェブサイトからゲーム画面表示やゲーム進行に必要なデータを受信してゲーム画面の表示やゲームを進行させ、操作入力部100に為された操作入力に応じてゲーム進行制御をしたり、更には操作入力に応じた要求をウェブサイトに返信し、更なるゲーム画面やゲーム進行に必要な情報の提供を受けるいわゆる「ウェブゲーム」「ブラウザゲーム」として実現することもできる。その場合には、ゲームプログラム502を専用のアプリケーションソフトとして構成するのではなく、ウェブブラウザプログラムや、スクリプト制御によりウェブブラウザ上でインタラクティブな表示を実現するためのプラグインなどで構成すると良い。   It is to be noted that a video game is received from a specific website to receive data necessary for game screen display and game progress, and the game screen display and game progress, and the game progress according to the operation input made on the operation input unit 100. It can also be realized as a so-called “web game” or “browser game” where control is performed or a request corresponding to an operation input is sent back to the website and information required for further game screens and game progress is provided. . In this case, the game program 502 is not configured as dedicated application software, but may be configured with a web browser program or a plug-in for realizing interactive display on the web browser by script control.

また、記憶部500には、予め用意されるデータとして、客層設定データ510と、アトラクションモードデータ512と、楽曲ライブラリ520と、顔表情お題設定データ544と、プレイモード演出内容設定データ546と、を記憶する。
また、随時生成や更新が行われるデータとして、プレーヤ登録データ530と、アトラクションモード制御データ550と、プレイデータ560と、サンプル調査データ580と、を記憶する。その他、各種処理を実行するにあたり必要となるデータ(例えば、圧縮解凍されたテクスチャデータ、経過時間、各種タイマー値、カウンタ、フラグ)なども適宜記憶されるものとする。
In addition, in the storage unit 500, as customer prepared data, customer segment setting data 510, attraction mode data 512, a music library 520, facial expression theme setting data 544, play mode effect content setting data 546, Remember.
In addition, player registration data 530, attraction mode control data 550, play data 560, and sample survey data 580 are stored as data to be generated and updated as needed. In addition, data necessary for executing various processes (for example, compressed / decompressed texture data, elapsed time, various timer values, counters, flags) and the like are also stored as appropriate.

客層設定データ510は、顔特徴値に基づいて客層を判定する基準を定めるとともに、マーケティング対象客層を定義するデータである。例えば図13に示すように、客層種別510aそれぞれについて、客層優先順510bと、調査対象識別値510cと、該当年齢510dと、該当性別510eと、該当顔特徴値510fとを対応づけて格納する。   The customer segment setting data 510 is data for defining a customer segment to be determined based on the face feature value and defining a marketing target customer segment. For example, as shown in FIG. 13, for each customer segment type 510a, a customer segment priority order 510b, a survey target identification value 510c, a corresponding age 510d, a corresponding sex 510e, and a corresponding face feature value 510f are stored in association with each other.

客層種別510aは、適宜設けることができる。
客層優先順510bは、優先客層人物選択部213などが複数のプレーヤの中から客層判定結果に基づいて優先順位付けをする際に参照される。
調査対象識別値510cは、マーケティング情報の収集対象を示すフラグである。図13の例では「0」が調査対象外を示し、「1」が調査対象を示している。
該当年齢510d及び該当性別510eは、顔表情認識部204により判定された年齢及び性別と照合することで客層を判定する際の基準である。
該当顔特徴値510fは、顔表情認識部204により算出される顔特徴値の範囲を定義するデータであって、顔特徴値から客層を判定する基準である。
The customer segment type 510a can be provided as appropriate.
The customer segment priority order 510b is referred to when the priority customer segment person selection unit 213 or the like prioritizes among a plurality of players based on the customer segment determination result.
The survey target identification value 510c is a flag indicating a marketing information collection target. In the example of FIG. 13, “0” indicates a non-survey target, and “1” indicates a survey target.
The corresponding age 510d and the corresponding gender 510e are criteria for determining the customer segment by collating with the age and gender determined by the facial expression recognition unit 204.
The corresponding face feature value 510f is data defining a range of face feature values calculated by the facial expression recognition unit 204, and is a reference for determining a customer segment from the face feature values.

アトラクションモードデータ512は、アトラクションモードでの制御パターンを定義するデータである。例えば図14に示すように、客層設定データ510で定義される客層種別毎に用意された複数の客層別パターンセット514を格納する。本実施形態では音楽ゲームを実行するので、一つの客層別パターンセット514には、対応する客層の好みに合うように練られたタイトル紹介や遊び方紹介、自動プレイのタイミング制御、自動プレイに伴う各種演出を実現するための情報を含んでいる。演出実現のための詳細なデータ構成はゲーム装置の構成によるが、例えば画面表示するためのデータや、電飾などの点灯パターン、音声の強弱や再生タイミングなどを適宜含めることができる。   The attraction mode data 512 is data that defines a control pattern in the attraction mode. For example, as shown in FIG. 14, a plurality of customer segment-specific pattern sets 514 prepared for each customer segment type defined in the customer segment setting data 510 are stored. In this embodiment, since a music game is executed, each customer segment pattern set 514 introduces titles and how to play that are tailored to the taste of the corresponding customer segment, automatic play timing control, and various types associated with automatic play. It contains information for realizing the production. Although the detailed data configuration for realizing the effect depends on the configuration of the game device, for example, data for displaying on the screen, lighting patterns such as lighting, voice strength and playback timing, and the like can be appropriately included.

また、本実施形態のアトラクションモードデータ512には、客層組合せ別パターンセット515と、省電力パターンセット516と、登録プレーヤ優先パターンセット518とが含まれている。   Further, the attraction mode data 512 of this embodiment includes a customer group combination-specific pattern set 515, a power saving pattern set 516, and a registered player priority pattern set 518.

客層組合せ別パターンセット515は、撮影部102による撮影画像(装置前方画像)に複数の人物が写っている場合に適用される演出内容を定義するデータである。客層判定部206により判定された客層の組み合わせ(図中の第1客層と第2客層)別に用意されており、既に選択実行されている客層別パターンセット514の演出内容に追加される演出内容を実行するための各種データを格納する。   The customer group combination-specific pattern set 515 is data defining the contents of effects applied when a plurality of persons are shown in a photographed image (device front image) by the photographing unit 102. Production contents that are prepared for each combination of customer segments determined by the customer segment determination unit 206 (first customer segment and second customer segment in the figure) and that are added to the production contents of the customer segment pattern set 514 that has already been selected and executed. Stores various data to be executed.

省電力パターンセット516は、通常のアトラクションモード制御時(客層別パターンセット514による制御時)よりも消費電力を抑制しつつ存在をアピールする制御を実行するためのデータを格納している。例えば、画面表示制御において演算処理が少なくなるような制御パターンが設定されている。   The power saving pattern set 516 stores data for executing control for appealing the presence while suppressing power consumption more than in normal attraction mode control (during control by the customer segment-specific pattern set 514). For example, a control pattern is set such that the calculation processing is reduced in the screen display control.

登録プレーヤ優先パターンセット518は、撮影部102による撮影画像(装置前方画像)内に写っている人物中に登録プレーヤが含まれる場合に適用される制御パターンを定義しており、お得意様への対応のように親近感をもってもらえるようなアピール内容となっている。例えば、登録プレーヤのアカウント名を含むようなお誘い文句を画像表示するとしても良い。   The registered player priority pattern set 518 defines a control pattern to be applied when a registered player is included in a person shown in a photographed image (device front image) taken by the photographing unit 102. It is appealing content that gives you a sense of familiarity. For example, an invitation phrase including the account name of the registered player may be displayed as an image.

楽曲ライブラリ520は、音楽ゲームでプレイ可能な曲に関する情報を格納する。本実施形態では、アトラクションモードにおいて自動プレイを行うので、アトラクションモードの演出内容に係るデータの一部を構成すると言える。例えば図15に示すように、楽曲ライブラリ520は、新曲リスト522と、ジャンル別サブライブラリ524と、客層別サブライブラリ526と、表情別サブライブラリ528とを含んで構成される。   The music library 520 stores information related to music that can be played in the music game. In this embodiment, since automatic play is performed in the attraction mode, it can be said that a part of the data relating to the contents of the effect in the attraction mode is configured. For example, as shown in FIG. 15, the music library 520 includes a new song list 522, a genre-specific sub-library 524, a customer demographic sub-library 526, and a facial expression-specific sub-library 528.

新曲リスト522は、新しく業務用ゲーム装置1300でプレイが可能になった曲のリストであって、曲名別に、ジャンル、アーティスト名、タイミングガイドデータ、サビ部分タイミング、曲データなどの情報を対応づけて格納する。   The new song list 522 is a list of songs that can be newly played on the arcade game device 1300, and associates information such as genre, artist name, timing guide data, chorus part timing, song data, etc. by song name. Store.

ジャンルやアーティスト名は、楽曲ライブラリ520をアトラクションモードの演出内容に係るデータと見なす場合には好感反応者検出時制御で利用する分類情報としての役を担う。
曲データは、音生成部250でデコードや再生処理可能な音楽データである。
タイミングガイドデータは、ゲーム画面にてタイミングガイド40を表示するためのデータである。
サビ部分タイミングは、曲が盛り上がるいわゆる「サビ」部分を判定するための情報であって、例えば再生時間の範囲として定義される。
The genre and the artist name serve as classification information used in the control at the time of detecting a favorable reaction person when the music library 520 is regarded as data related to the effect contents of the attraction mode.
The song data is music data that can be decoded and reproduced by the sound generator 250.
The timing guide data is data for displaying the timing guide 40 on the game screen.
The chorus part timing is information for determining a so-called “rust” part in which a song is excited, and is defined as a playback time range, for example.

ジャンル別サブライブラリ524は、楽曲のジャンル別に纏められた複数のリストを格納する。
客層別サブライブラリ526は、客層設定データ510で定義される客層毎にその客層の年代や性別において人気のある曲を集めたリストを格納する。
表情別サブライブラリ528は、顔表情別にその顔表情となる心的状態を改善してより楽しい気分になるような曲を集めたリストを格納する。当該サブライブラリに含まれるリストは、選曲時に解析されたプレーヤの顔表情に応じて参照される。
尚、これらのサブライブラリに格納される一つ一つのリストは、新曲リスト522と同様のデータ構成を有するものとする。
The genre sub-library 524 stores a plurality of lists organized by genre of music.
The customer segment sub-library 526 stores a list of popular songs for each customer segment defined by the customer segment setting data 510 in terms of age and gender of the customer segment.
The expression-specific sub-library 528 stores a list of songs that improve the mental state of the facial expression for each facial expression and make the mood more enjoyable. The list included in the sub-library is referred to according to the facial expression of the player analyzed at the time of music selection.
Each list stored in these sub-libraries has the same data structure as the new song list 522.

プレーヤ登録データ530は、ゲーム開始前、或いは初回ゲーム終了時に所定の手続きを経ることでユーザ登録された個人情報を格納する。一つのプレーヤ登録データ530は、例えば図16に示すように、ユニークに発行されるプレーヤID532と、年齢性別情報533と、個人認証用顔特徴値534と、プレイ履歴データ536と、嗜好解析データ538とを含む。勿論、その他の情報も適宜含めることができる。   The player registration data 530 stores personal information registered by a user through a predetermined procedure before starting the game or at the end of the first game. As shown in FIG. 16, for example, one player registration data 530 includes a uniquely issued player ID 532, age and gender information 533, personal authentication face feature value 534, play history data 536, and preference analysis data 538. Including. Of course, other information can be included as appropriate.

個人認証用顔特徴値534は、個人を特定するための顔特徴値を格納する。登録プレーヤ検出部208は、顔表情認識部204で得た顔特徴値を個人認証用顔特徴値534と照合することによって顔認識を用いた個人認証が可能となる。
プレイ履歴データ536は、プレイした日時、選択曲、スコアなどを格納する。格納されるデータの種類はゲーム内容に応じて適宜設定できる。
嗜好解析データ538は、プレイ履歴データ536で蓄積されたジャンルの統計処理から得られる曲のジャンル別の選択頻度を格納する。このデータを参照することで、プレーヤがどのジャンルの曲でゲームを楽しむのを好んでいるかを知ることができる。
尚、プレイ履歴データ536及び嗜好解析データ538は、プレーヤ登録データ530を管理するコンピュータによりゲーム終了後に最新のプレイ結果を判定させるように更新されるものとする。
The personal authentication face feature value 534 stores a face feature value for specifying an individual. The registered player detection unit 208 can perform personal authentication using face recognition by collating the facial feature value obtained by the facial expression recognition unit 204 with the facial feature value 534 for personal authentication.
The play history data 536 stores the date and time of play, the selected song, the score, and the like. The type of data to be stored can be set as appropriate according to the game content.
The preference analysis data 538 stores the selection frequency for each genre of music obtained from the statistical processing of the genre accumulated in the play history data 536. By referring to this data, it is possible to know which genre of music the player likes to enjoy the game.
It is assumed that the play history data 536 and the preference analysis data 538 are updated by the computer managing the player registration data 530 so that the latest play result is determined after the game ends.

顔表情お題設定データ544は、プレーヤの顔表情を利用したゲームルールの一つとして、プレーヤに指定顔表情を提示して、提示以降にプレーヤが指定表情を出せたかに応じてゲームを進行させる「顔表情お題」を実現するための情報を格納する(図8参照)。例えば図17に示すように、指定顔表情544a毎に「顔表情お題」を提示するためにゲーム画面に表示する提示テキストデータ544bと、お題をクリアしたときに付与される特典を定義する特典設定544cとを対応づけて格納する。特典設定544cの内容は、ゲーム内容に応じて適宜設定可能である。ステージクリア型のゲームであれば、移動先のステージやスペシャルステージのプレイ権なども設定内容に含めると好適である。   The facial expression theme setting data 544 presents the designated facial expression to the player as one of the game rules using the facial expression of the player, and advances the game depending on whether the player has given the designated facial expression after the presentation. Information for realizing the “facial expression theme” is stored (see FIG. 8). For example, as shown in FIG. 17, presentation text data 544 b displayed on the game screen to present a “face expression theme” for each designated face expression 544 a and a privilege granted when the theme is cleared are defined. The privilege setting 544c is stored in association with each other. The content of the privilege setting 544c can be appropriately set according to the game content. If it is a stage clear type game, it is preferable to include in the setting contents the stage to be moved and the right to play the special stage.

また、顔表情お題設定データ544は、「顔表情お題」をクリア・成功したと判定された場合に追加実行される演出内容を定義したお題成功演出データ544dと、失敗判定された場合に追加実行される演出内容を定義したお題失敗演出データ544eとを含む。   The facial expression theme setting data 544 includes the theme success effect data 544d that defines the effect content to be additionally executed when it is determined that the “face expression theme” is cleared / successful, and when the failure is determined. The theme failure effect data 544e defining the effect content to be additionally executed is included.

プレイモード演出内容設定データ546は、プレイモードでの演出内容を定義するデータであって、本実施形態ではゲームプレイ中にゲーム画面の演出表示部47(図2参照)に演出表示させるためのデータを格納する。例えば図18に示すように、標準演出データ547と、特別演出設定データライブラリ548と、多ギャラリー用特別演出データ549とを格納する。   The play mode effect content setting data 546 is data defining effect content in the play mode, and in this embodiment, data for effect display on the effect display unit 47 (see FIG. 2) of the game screen during game play. Is stored. For example, as shown in FIG. 18, standard effect data 547, special effect setting data library 548, and multi-gallery special effect data 549 are stored.

標準演出データ547は、どのプレーヤにも等しく適用される演出内容を実現するためのデータである。本実施形態では、ゲームプレイ開始当初から演出表示部47(図2参照)に表示される基本的な演出表示を実現する。   The standard effect data 547 is data for realizing effect contents that are equally applied to any player. In this embodiment, the basic effect display displayed on the effect display part 47 (refer FIG. 2) from the beginning of a game play is implement | achieved.

特別演出設定データライブラリ548は、顔表情認識部204で認識される顔表情の種類毎に対応づけられた演出設定データが含まれる。具体的には優勢顔表情種類548a別に特別演出設定データ548bを格納する。出現表情基準制御部222は、ゲームプレイ中に認識されたプレーヤの顔表情のうち所定の出現頻度に達した表情を優勢表情と判定し、判定した優勢表情の種類に対応する特別演出設定データ548bに従って標準演出に追加される特別演出表示を実現する(図7参照)。   Special effect setting data library 548 includes effect setting data associated with each type of facial expression recognized by facial expression recognition unit 204. Specifically, special effect setting data 548b is stored for each dominant facial expression type 548a. The appearance expression reference control unit 222 determines an expression that has reached a predetermined appearance frequency among the facial expressions of the player recognized during the game play as a dominant expression, and the special effect setting data 548b corresponding to the determined type of the dominant expression. The special effect display added to the standard effect is realized according to (see FIG. 7).

多ギャラリー用特別演出データ549は、ギャラリー数基準制御部221がギャラリーの数に応じて実行する追加演出を実現するためのデータである(図6参照)。   The multi-gallery special effect data 549 is data for realizing an additional effect that the gallery number reference control unit 221 executes according to the number of galleries (see FIG. 6).

アトラクションモード制御データ550は、アトラクションモードでの制御を実行するのに必要な各種パラメータ値を格納する。例えば図12に示すように、来客客層データベース551と、最適化対象者識別データ553と、最適化対象者顔表情554と、自動プレイ曲名履歴555とを含む。   The attraction mode control data 550 stores various parameter values necessary for executing control in the attraction mode. For example, as shown in FIG. 12, it includes a customer segment database 551, optimization target person identification data 553, optimization target person facial expression 554, and automatic play song name history 555.

来客客層データベース551には、曜日や時間帯、特定期間などの組み合わせで定義される複数の日時条件別に用意された日時条件別来客客層データ552が含まれる。一つの日時条件別来客客層データ552には、その日時条件において装置前方画像に写っていた人物毎に判定した客層を統計処理した統計データが含まれる。来客客層データベース551は、来客客層データベース作成部211により生成・更新される。   The customer segment database 551 includes date / time condition-specific customer segment data 552 prepared for a plurality of date / time conditions defined by combinations of days of the week, time zones, specific periods, and the like. One date-and-time condition visitor demographic data 552 includes statistical data obtained by statistically processing a customer demographic determined for each person that was reflected in the device front image under the date-time condition. The customer segment database 551 is generated and updated by the customer segment database creation unit 211.

最適化対象者識別データ553は、本実施形態では、撮影部102により撮影された撮影画像(装置前方画像)の中からアトラクションモードにおける演出内容を制御する基準とする対象人物を識別するためのデータを格納する。初期化状態は誰も設定されていないことを意味する「NULL」である。
本実施形態では、装置前方画像中に複数の人物が写っている場合に、優先客層人物選択部213がそれら複数の人物毎の客層に基づいて何れか一人を選択し、選択した人物の顔特徴値を格納する。但し、登録プレーヤ検出部208によって、装置前方画像に写っている複数の人物中に登録済のプレーヤがいるのが検出された場合には、当該登録プレーヤの顔特徴値が優先して格納される。更には、好感反応者検出部216が好感反応者を検出した場合には、該当人物の顔特徴値が優先して格納される。尚、顔特徴値と対応づけて、該当する人物の顔画像の代表点の画像座標系における座標も格納するとしても良い。
In this embodiment, the optimization target person identification data 553 is data for identifying a target person to be used as a reference for controlling the content of the effect in the attraction mode from among the captured images (device front images) captured by the capturing unit 102. Is stored. The initialization state is “NULL” which means that no one is set.
In the present embodiment, when a plurality of persons are captured in the apparatus front image, the priority customer layer person selection unit 213 selects one person based on the customer group for each of the plurality of persons, and the facial features of the selected person Stores a value. However, if the registered player detection unit 208 detects that there are registered players among a plurality of persons shown in the front image of the apparatus, the face feature value of the registered player is preferentially stored. . Furthermore, when the favorable reaction person detection unit 216 detects a positive reaction person, the facial feature value of the person is preferentially stored. Incidentally, the coordinates in the image coordinate system of the representative point of the face image of the corresponding person may be stored in association with the face feature value.

最適化対象者顔表情554には、最適化対象者識別データ553に格納される顔特徴値から得られる顔表情の認識結果が格納される。   The optimization target person facial expression 554 stores the facial expression recognition result obtained from the facial feature values stored in the optimization target person identification data 553.

自動プレイ曲名履歴555は、アトラクションモード制御部210により管理され、自動プレイを実行する都度、自動プレイした曲名が時系列に格納・更新される。   The auto-play song name history 555 is managed by the attraction mode control unit 210, and each time auto-play is executed, the auto-play song name is stored and updated in time series.

プレイデータ560は、プレイモードにおける制御に係る各種データを格納する。例えば図19に示すように、お勧め曲リスト561と、プレイ曲名562と、再生タイムカウンタ563と、ギャラリー人数564と、適用演出ID565と、途中退席者照合データ566と、退席復帰フラグ567と、プレーヤ毎に用意されるプレーヤ別データ570とを格納する。   The play data 560 stores various data related to control in the play mode. For example, as shown in FIG. 19, a recommended song list 561, a play song name 562, a reproduction time counter 563, a gallery number 564, an application effect ID 565, a midway leaver verification data 566, a leave return flag 567, Stores player-specific data 570 prepared for each player.

お勧め曲リスト561は、選曲処理の過程において生成される。本実施形態では、新曲リスト522(図15参照)をベースにして、プレーヤの客層や嗜好、顔表情などに応じた推薦曲リストの曲が加えられて構成される。
プレイ曲名562は、選曲処理の過程において最終的に選択された曲名でありプレイする曲名を示す。
再生タイムカウンタ563は、プレイする曲の再生開始からの経過時間を格納する。
適用演出ID565は、プレイモード演出内容設定データ546で定義される複数種類の演出のうち現在適用・実行されている演出設定データの識別情報、IDを格納する。
途中退席者照合データ566は、1曲プレイしたのちに途中退席操作をした場合に作成されてプレーヤの顔特徴値を一時的に格納し、途中退席復帰時の本人確認のために利用される。
退席復帰フラグ567は、途中退席したプレーヤが正しく戻ってきたら「1」が格納され、途中退席したプレーヤが制限時間内に戻ってこなかった場合及び初期状態では「0」が格納される。
The recommended music list 561 is generated in the course of the music selection process. In the present embodiment, based on the new song list 522 (see FIG. 15), songs in the recommended song list corresponding to the customer demographic, taste, facial expression, etc. of the player are added.
The play song name 562 is a song name finally selected in the course of the music selection process and indicates a song name to be played.
The reproduction time counter 563 stores the elapsed time from the start of reproduction of the music to be played.
The applied effect ID 565 stores identification information and ID of effect setting data currently applied / executed among a plurality of types of effects defined by the play mode effect content setting data 546.
The halfway leaver collation data 566 is created when a halfway withdrawal operation is performed after playing one song, temporarily stores the player's face feature value, and is used for identity verification when returning midway.
The leaving return flag 567 stores “1” when the player who has left the seat returns correctly, and stores “0” when the player who has left the seat does not return within the time limit and in the initial state.

プレーヤ別データ570は、例えば、プレーヤのプレイポジションの識別を示すプレイポジション571と、スコア572と、指定顔表情ポイント573と、指定顔表情種類574と、プレーヤ客層575と、顔表情認識履歴データ576とを含む。本実施形態では2人まで同時プレイ可能なので当該データを2つ図示しているが、同時プレイ可能な人数が2人以外の場合には、その人数に応じて作成される。   The player-specific data 570 includes, for example, a play position 571 indicating the player's play position, a score 572, a designated facial expression point 573, a designated facial expression type 574, a player customer layer 575, and facial expression recognition history data 576. Including. In the present embodiment, up to two players can be played simultaneously, so two such data are shown. However, when the number of players who can play simultaneously is other than two, it is created according to the number of players.

指定顔表情ポイント573は、「顔表情お題」の実行に伴ってゲームプレイ中に顔表情認識部204により指定顔表情と見なせる顔表情が検出された回数又は時間に応じて加算されたポイントである。1プレイ開始時点の初期値は「0」である。
指定顔表情種類574は、指定顔表情提示制御部226により選択・提示された指定顔表情の種類を格納する。初期値は何れの顔表情も設定されてない意味の「NULL」である。
プレーヤ客層575は、顔表情認識部204によってプレーヤの顔特徴値から判定された客層を示す。
The designated facial expression point 573 is a point added in accordance with the number of times or a time at which a facial expression that can be regarded as the designated facial expression is detected by the facial expression recognition unit 204 during the game play along with the execution of the “facial expression theme”. is there. The initial value at the start of one play is “0”.
The designated facial expression type 574 stores the designated facial expression type selected and presented by the designated facial expression presentation control unit 226. The initial value is “NULL” meaning that no facial expression is set.
The player customer layer 575 indicates a customer layer determined by the facial expression recognizing unit 204 from the face feature value of the player.

顔表情認識履歴データ576は、顔表情認識部204により認識された顔表情の履歴であって、顔表情認識部204により生成・更新される。例えば、顔表情認識時系列データ577にはプレイ対価の支払い検出からプレイ終了後所定時間までの顔表情認識結果をいつの時点かを対応づけて時系列に格納する。また、当該時系列データに記憶された顔表情を統計処理した結果が顔表情統計データ578に格納される。   The facial expression recognition history data 576 is a facial expression history recognized by the facial expression recognition unit 204, and is generated and updated by the facial expression recognition unit 204. For example, the facial expression recognition time-series data 577 stores the facial expression recognition results from the detection of payment of the play consideration until the predetermined time after the end of the play in association with the time point. Further, the result of statistical processing of the facial expression stored in the time series data is stored in the facial expression statistical data 578.

サンプル調査データ580は、装置前方画像に写っている人物の顔特徴値に基づいて判定された客層が予め定められたマーケティング対象客層に該当する場合に、該当した人物の客層判定結果と、顔表情認識結果と、日時とが対応づけて蓄積・格納される。データ構造は、当該調査データの利用形態に応じて適宜設定することができる。   The sample survey data 580 includes a customer segment determination result and a facial expression when the customer segment determined based on the facial feature value of the person shown in the device front image corresponds to a predetermined customer segment targeted for marketing. The recognition result and the date and time are stored and stored in association with each other. The data structure can be appropriately set according to the usage form of the survey data.

[処理の流れの説明]
次に、本実施形態における各種処理の流れについて説明する。
図20は、業務用ゲーム装置1300における主たる処理の流れを説明するためのフローチャートである。ここで説明する一連の処理の流れは、業務用ゲーム装置1300の処理部200が、システムプログラム501を読み込み実行した後に、ゲームプログラム502を読み出して実行することによって実現される。
[Description of process flow]
Next, the flow of various processes in this embodiment will be described.
FIG. 20 is a flowchart for explaining the main processing flow in the arcade game apparatus 1300. A series of processing flow described here is realized by the processing unit 200 of the arcade game machine 1300 reading and executing the system program 501 and then reading and executing the game program 502.

業務用ゲーム装置1300の処理部200は、硬貨投入が検知されるまで、アトラクションモード制御処理を実行する(ステップS2〜S4)。   The processing unit 200 of the arcade game device 1300 executes an attraction mode control process until coin insertion is detected (steps S2 to S4).

[アトラクションモードの処理の流れ]
図21は、アトラクションモード制御処理の流れを説明するためのフローチャートである。同処理によって、装置前方にいる人物に向けてアトラクションモードにおける制御パターンが様々に切り換えられ、消費者へより効果的にゲームをアピールできるようになる。
[Attraction Mode Processing Flow]
FIG. 21 is a flowchart for explaining the flow of the attraction mode control process. By this process, the control pattern in the attraction mode is switched variously toward the person in front of the apparatus, and the game can be more effectively appealed to the consumer.

具体的には、処理部200は、アトラクションモードの制御パターンが切り換え可能なタイミングであるかを判定する(ステップS10)。例えば、既に実行中の制御パターンが終了したタイミング、自動プレイ曲が終了したタイミングなどを適宜切り換え可能なタイミングに設定すると良い。   Specifically, the processing unit 200 determines whether or not the attraction mode control pattern can be switched (step S10). For example, it is preferable to set the timing at which the control pattern that is already being executed, the timing at which the auto-play music is ended, etc., can be appropriately switched.

そして、切り換え可能なタイミングであれば(ステップS10のYES)、処理部200は撮影部102により装置前方画像を撮影し(ステップS12)、撮影された画像内に人が写っている部分を抽出処理し、装置前に人がいるか否かを判定する(ステップS14)。   If the timing is switchable (YES in step S10), the processing unit 200 captures a front image of the apparatus by the image capturing unit 102 (step S12), and extracts a portion in which a person is captured in the captured image. It is then determined whether there is a person in front of the device (step S14).

ここで装置前方画像内に人が写っていないと判断される場合には(ステップS14のNO)、処理部200は、アトラクションモード制御データ550の最適化対象者識別データ553を初期化する(ステップS16;図12参照)。次いで、アトラクションモードデータ512(図14参照)から省電力パターンセット516を参照し、当該パターンセットに従って省電力向けのアトラクションモードの制御を開始する(ステップS18)。   If it is determined that no person is shown in the front image of the apparatus (NO in step S14), the processing unit 200 initializes the optimization target person identification data 553 of the attraction mode control data 550 (step S14). S16; see FIG. Next, referring to the power saving pattern set 516 from the attraction mode data 512 (see FIG. 14), control of the attraction mode for power saving is started according to the pattern set (step S18).

もし、装置前方画像内に人が写っていると判断された場合には(ステップS14のYES)、処理部200は最適化対象者識別データ553が初期化されたままであれば(ステップS22のYES)、処理部200は写っている人物毎にゲーム装置からの距離を判定する(ステップS24)。
そして、例えば、装置前方画像人物毎の顔画像のサイズが画面サイズに対して所定の近接判定基準比を上回っている場合や、距離センサ1328を用いる場合にはその検出信号から得られる当該人物までの距離が所定の近接判定基準距離に達している場合に、処理部200はプレイポジション付近まで人が接近している近接者有りと判定する。
If it is determined that there is a person in the front image of the apparatus (YES in step S14), the processing unit 200 will initialize the optimization target person identification data 553 (YES in step S22). ), The processing unit 200 determines the distance from the game device for each person in the image (step S24).
For example, when the size of the face image for each person in front of the apparatus exceeds a predetermined proximity determination reference ratio with respect to the screen size, or when the distance sensor 1328 is used, the person obtained from the detection signal When the distance reaches the predetermined proximity determination reference distance, the processing unit 200 determines that there is a close person approaching to the vicinity of the play position.

近接者無しと判定した場合(ステップS26のNO)、処理部200は日時条件基準制御処理を実行して、業務用ゲーム装置1300が設置されている場所とその時々の日時条件において主要とみなされる客層向けに最適な内容での制御を開始する(ステップS28;図3参照)。   When it is determined that there is no near person (NO in step S26), the processing unit 200 executes the date / time condition reference control process, and is regarded as the main in the place where the arcade game apparatus 1300 is installed and the date / time condition at that time. Control with the optimum content for the customer base is started (step S28; see FIG. 3).

また、接近者有りと判定される場合には(ステップS26のYES)、近接者基準制御処理を実行し、業務用ゲーム装置1300に近づいた人物向けに適当な内容での制御を開始する(ステップS30;図4参照)。   If it is determined that there is an approaching person (YES in step S26), the approaching person reference control process is executed to start control with appropriate contents for the person approaching the arcade game apparatus 1300 (step S26). S30; see FIG.

また、そもそも最適化対象者識別データ553に誰かの顔特徴値が設定されている場合には(ステップS22のNO)、処理部200は好感反応者基準制御処理を実行し、好感反応者向けに最適な内容での制御を開始する(ステップS32;図5参照)。   In the first place, when someone's face feature value is set in the optimization target person identification data 553 (NO in step S22), the processing unit 200 executes a favorable reaction person reference control process for the positive reaction person. Control with optimum contents is started (step S32; see FIG. 5).

ではここで、アトラクションモード制御処理内で実行される各制御処理について説明する。
図22は、日時条件基準制御処理の流れを説明するためのフローチャートである。
同処理では先ず、処理部200は装置前方画像に写っている人物毎の客層を判定する(ステップS40)。具体的には、顔が写っている部分(顔画像)を抽出して顔特徴値を算出し、顔特徴値から各々の性別及び年齢を求める。そして、客層設定データ510を参照して、求めた顔特徴値や性別、年齢に対応する客層を判定する。
Here, each control process executed in the attraction mode control process will be described.
FIG. 22 is a flowchart for explaining the flow of the date / time condition reference control process.
In this process, first, the processing unit 200 determines a customer segment for each person shown in the apparatus front image (step S40). Specifically, a face feature value (face image) is extracted to calculate a facial feature value, and each gender and age is obtained from the facial feature value. Then, with reference to the customer segment setting data 510, the customer segment corresponding to the obtained facial feature value, sex, and age is determined.

客層を判定したならば、処理部200は、現在日時が適合する日時条件別来客客層データ552を更新し(ステップS42;図12参照)、その結果から主要客層を判定する(ステップS44)。   If the customer segment is determined, the processing unit 200 updates the customer segment data 552 classified by date and time conditions that match the current date and time (step S42; see FIG. 12), and determines the main customer segment from the result (step S44).

次いで処理部200は、アトラクションモードデータ512から判定した主要客層の何れかに対応する客層別パターンセット514を選択し(ステップS46;図14参照)、更に楽曲ライブラリ520の客層別サブライブラリ526(図15参照)から主要客層の何れかに対応する推薦曲リストを参照し、当該リストの中から自動プレイする曲を選択する(ステップS48)。
そして、ステップS46で選択した客層別パターンセットに従い、ステップS48で選択した曲を自動プレイするようにアトラク2ションモードの制御を開始する(ステップS50)。
Next, the processing unit 200 selects a customer demographic pattern set 514 corresponding to any of the main customer demographics determined from the attraction mode data 512 (step S46; see FIG. 14), and further subclass 526 by customer demographic of the music library 520 (FIG. 15), a recommended song list corresponding to one of the main customer segments is referred to, and a song to be automatically played is selected from the list (step S48).
Then, the control of the attraction 2 mode is started so as to automatically play the music selected in step S48 in accordance with the customer group-specific pattern set selected in step S46 (step S50).

図23は、近接者基準制御処理の流れを説明するためのフローチャートである。
同処理において、処理部200は先ず、近接者と見なされる人物毎に顔特徴値を算出し、当該顔特徴値をプレーヤ登録データ530の個人認証用顔特徴値534(図16参照)と照合して当該人物が登録プレーヤであるかを判定する(ステップS70)。
FIG. 23 is a flowchart for explaining the flow of the neighbor reference control process.
In this process, the processing unit 200 first calculates a face feature value for each person regarded as a close person, and compares the face feature value with the personal authentication face feature value 534 (see FIG. 16) of the player registration data 530. It is then determined whether the person is a registered player (step S70).

その結果、近接者の誰もが登録プレーヤに該当しなければ(ステップS72のNO)、処理部200は近接者毎に客層を判定し(ステップS74)、現在の日時や曜日、時間に対応する時間枠が割り当てられた日時条件別来客客層データ552を更新する(ステップS76)。
次いで、客層設定データ510の客層優先順510bで示される客層別の優先順位に基づいて近接者の中から制御最適化の対象となる優先客層人物を選択し(ステップS78;図13参照)、最適化対象者識別データ553を優先客層人物とされた人物の顔特徴値に更新し(ステップS80;図12参照)、この顔特徴値に基づく顔表情の認識結果を最適化対象者顔表情554として記憶する(ステップS82)。
As a result, if none of the neighbors corresponds to the registered player (NO in step S72), the processing unit 200 determines the customer base for each neighbor (step S74), and corresponds to the current date, day of the week, and time. The customer base data 552 classified by date and time conditions to which the time frame is assigned is updated (step S76).
Next, a priority customer group subject to control optimization is selected from the neighbors based on the priority by customer segment indicated by the customer segment priority order 510b of the customer segment setting data 510 (step S78; see FIG. 13), and the optimum The target person identification data 553 is updated to the face feature value of the person designated as the priority customer layer person (step S80; see FIG. 12), and the facial expression recognition result based on this face feature value is used as the optimization target person face expression 554. Store (step S82).

次に、処理部200は、アトラクションモードデータ512から当該優先客層人物の客層に対応する客層別パターンセット514を選択し(ステップS84;図14参照)、更に楽曲ライブラリ520の客層別サブライブラリ526から優先客層人物の客層に対応する推薦曲リストを参照し、当該リストの中から自動プレイする曲を選択する(ステップS86;図15参照)
そして、処理部200はステップS82で選択した客層別パターンセットに従い、ステップS84で選択した曲を自動プレイするようにアトラクションモードの制御を開始する(ステップS88)。
Next, the processing unit 200 selects a customer segment pattern set 514 corresponding to the customer segment of the priority customer segment person from the attraction mode data 512 (step S84; see FIG. 14), and from the customer segment sub-library 526 of the music library 520. The recommended song list corresponding to the customer segment of the priority customer segment is referred to, and a song to be automatically played is selected from the list (step S86; see FIG. 15).
Then, the processing unit 200 starts controlling the attraction mode so as to automatically play the music selected in step S84 in accordance with the customer layer-specific pattern set selected in step S82 (step S88).

一方、近接者とされる人物内に登録プレーヤが有り(ステップS72のYES)、それが複数である場合には(ステップS90のYES)、処理部200はプレーヤ登録データ530(図16参照)の当該プレーヤに関する個人情報(例えば、年齢性別情報533)に基づいて、何れかの近接者を優先客層人物として選択する(ステップS92)。そして、最適化対象者識別データ553を優先客層人物の顔特徴値で更新するとともに(ステップS94)、この顔特徴値に基づく顔表情の認識結果を最適化対象者顔表情554として記憶する(ステップS96)。
尚、近接者に登録プレーヤが一人しかいない場合には、当該登録プレーヤを優先客層人物と見なす。優先客層人物選択に際しては、年齢は低い程優先順位が高く、同じ年齢ならば性別は男性より女性が優先順位が高くなるよう選択すると好適である。
On the other hand, if there are registered players among the persons who are close (YES in step S72), and there are a plurality of registered players (YES in step S90), the processing unit 200 stores the player registration data 530 (see FIG. 16). Based on the personal information about the player (for example, age and sex information 533), one of the neighbors is selected as a priority customer group person (step S92). Then, the optimization target person identification data 553 is updated with the facial feature value of the priority customer layer person (step S94), and the recognition result of the facial expression based on the facial feature value is stored as the optimization target person facial expression 554 (step S94). S96).
When there is only one registered player among the neighbors, the registered player is regarded as a priority customer group person. When selecting a priority customer group person, the lower the age, the higher the priority, and if the age is the same, it is preferable to select the sex so that the priority is higher for women than for men.

次いで、処理部200は、楽曲ライブラリ520のジャンル別サブライブラリ524を参照し、優先客層人物の好みのジャンルにあたるリストの中から自動プレイする曲を選択する(ステップS98)。尚、優先客層人物の好みのジャンルは、プレーヤ登録データ530の嗜好解析データ538を参照することで判定することができる。
そして、処理部200は登録プレーヤ優先パターンセット518(図14参照)に従い、ステップS96で選択した曲を自動プレイするようにアトラクションモードの制御を開始する(ステップS100)。
つまり、ステップS90からS100により制御内容を更に登録プレーヤ向けに最適化する「登録プレーヤ優先制御」が行われたことになる。
Next, the processing unit 200 refers to the genre sub-library 524 of the music library 520, and selects a song to be automatically played from a list corresponding to the favorite genre of the priority customer group person (step S98). The favorite genre of the priority customer group person can be determined by referring to the preference analysis data 538 of the player registration data 530.
Then, in accordance with the registered player priority pattern set 518 (see FIG. 14), the processing unit 200 starts controlling the attraction mode so as to automatically play the music selected in step S96 (step S100).
That is, “registered player priority control” for further optimizing the control content for the registered player is performed in steps S90 to S100.

図24は、好感反応者基準制御処理の流れを説明するためのフローチャートである。
同処理において、処理部200は先ず撮影部102により装置前方画像を撮影し(ステップS110)、撮影した画像に写っている人物毎に顔特徴値を算出する(ステップS112)。そして、写っている人物毎の顔特徴値を、最適化対象者識別データ553と比較・照合する(ステップS114)。
FIG. 24 is a flowchart for explaining the flow of the favorable responder reference control process.
In this process, the processing unit 200 first captures a front image of the apparatus by the image capturing unit 102 (step S110), and calculates a face feature value for each person shown in the captured image (step S112). Then, the facial feature value for each person in the image is compared and verified with the optimization target person identification data 553 (step S114).

もし照合の結果、撮影した画像内に最適化対象者と同一人物が写っていないと判断される場合には(ステップS116のNO)、処理部200は最適化対象者識別データ553と最適化対象者顔表情554とを初期化して(ステップS118)、好感反応者基準制御処理を終了する。   If it is determined as a result of the collation that the same person as the person to be optimized is not captured in the captured image (NO in step S116), the processing unit 200 determines the person to be optimized identification data 553 and the object to be optimized. The person facial expression 554 is initialized (step S118), and the favorable reaction person reference control process is terminated.

反対に、撮影した画像内に最適化対象者と同一人物が写っていると判断される場合には(ステップS116のYES)、処理部200はステップS112で得た顔特徴値と、最適化対象者顔表情554とを比較する(ステップS120)。その結果、当該同一人物の最新の顔表情の方がより楽しげであったり、喜び度合が増していたり、驚きに満ちていたり、好奇心を示していると判断できる場合には、好感反応を示したと見なす。   On the other hand, when it is determined that the same person as the person to be optimized is captured in the captured image (YES in step S116), the processing unit 200 determines the face feature value obtained in step S112 and the object to be optimized. The human facial expression 554 is compared (step S120). As a result, if it can be determined that the latest facial expression of the same person is more enjoyable, joyful, full of surprises, or curiosity, a positive response Considered to be shown.

そして、好感反応を示したと判定した場合(ステップS122のYES)、処理部200は、自動プレイ曲名履歴555及び楽曲ライブラリ520を参照して、直前に自動プレイされた曲、つまり好感反応を示した対象と考えられる曲と同属性の他曲を検索する(ステップS124)。ここで言う「属性」とは、演出内容の分類情報であって、本実施形態ではアーティスト名に相当することとする(図15参照)。勿論、属性に相当するのはアーティスト名に限らず、例えばゲームや映画、ビデオ作品のテーマソングや挿入歌、BGMとして使用されている曲に該当する場合には提携作品のタイトルなどの情報があればこれを属性としてもよい。プレーヤ登録データ530に、プレーヤが購入したゲームタイトルや、ビデオクリップの購入履歴が含まれる場合には提携作品タイトルを属性要素と見なすと、アピール度をより一層高めることができるのでより好適である。   And when it determines with having shown a favorable response (YES of step S122), the process part 200 showed the music autoplayed immediately before, ie, a favorable response, with reference to the auto play music title log | history 555 and the music library 520. A search is made for another song having the same attribute as the song considered to be the subject (step S124). The “attribute” referred to here is classification information of effect contents, and corresponds to an artist name in this embodiment (see FIG. 15). Of course, the attribute is not limited to the artist name. For example, if it falls under the theme song or insert song of a game, movie, video work, or song used as BGM, there should be information such as the title of the affiliated work. This may be an attribute. If the player registration data 530 includes a game title purchased by the player or a purchase history of a video clip, it is more preferable to consider the affiliated work title as an attribute element because the degree of appeal can be further increased.

さて、もし直前に自動プレイされた曲と同属性の他曲があれば(ステップS126のYES)、処理部200は実行中のアトラクションモードの制御パターンはそのままに、当該他曲の何れかを自動プレイする曲に設定する(ステップS128)。
よって、装置前方にいてアトラクションモードでの制御、特に自動プレイの様子をみて好感反応を示した人物に向けて更なるアピールを効果的に実施できる。
If there is another song with the same attribute as the song that was automatically played immediately before (YES in step S126), the processing unit 200 automatically selects one of the other songs without changing the control pattern of the current attraction mode. A song to be played is set (step S128).
Therefore, it is possible to effectively carry out further appeal toward a person who is in front of the apparatus and shows a favorable reaction by looking at the control in the attraction mode, particularly the state of automatic play.

図21に戻って、日時条件基準制御処理、近接者基準制御処理、好感反応者基準制御処理の何れかを実行したならば、処理部200は次いで装置前方に複数の人物がいる場合(ステップS130のYES)、それらの人物毎に客層を判定し(ステップS132)、判定した客層の組合せに適合する客層組合せ別パターンセット515を選択して、選択したパターンセットの内容に従った演出表示を開始し(ステップS134)、アトラクションモード制御処理を終了する。
尚、本実施形態では客層組合せ別パターンセット515は客層別パターンセット514より優先度が1ランク下の扱いであって追加的な演出内容を定義する位置づけであるが、客層別パターンセット514と同格の扱いとする場合には、ステップS130〜S134をステップS22の前に移動させる構成としても良い。
Returning to FIG. 21, if any one of the date / time condition reference control process, the neighbor reference control process, and the sensation responder reference control process is executed, the processing unit 200 then has a plurality of persons in front of the apparatus (step S130). YES), the customer base is determined for each person (step S132), the customer group combination-specific pattern set 515 that matches the determined customer base combination is selected, and the effect display according to the contents of the selected pattern set is started. In step S134, the attraction mode control process is terminated.
In the present embodiment, the customer group combination pattern set 515 is treated as one rank lower in priority than the customer demographic pattern set 514 and defines additional production contents, but is equivalent to the customer demographic pattern set 514. In the case of handling as described above, steps S130 to S134 may be moved before step S22.

[プレイモードの処理の流れ]
図20に戻って、アトラクションモード制御が実行されている間に、硬貨投入を検出すると(ステップS4のYES)、処理部200はアトラクションモードの制御を中断して、記憶部500に初期化されたプレイデータ560を生成し、プレイモード制御処理を実行する(ステップS140)。
[Play mode processing flow]
Returning to FIG. 20, when coin insertion is detected while the attraction mode control is being executed (YES in step S <b> 4), the processing unit 200 interrupts the attraction mode control and is initialized in the storage unit 500. Play data 560 is generated and a play mode control process is executed (step S140).

図25は、プレイモード制御処理の流れを説明するためのフローチャートである。同処理では先ず、処理部200はプレイ曲選択処理を実行する(ステップS142)。   FIG. 25 is a flowchart for explaining the flow of the play mode control process. In the process, first, the processing unit 200 executes a play music selection process (step S142).

図26は、プレイ曲選択処理の流れを説明するためのフローチャートである。同処理において、処理部200は先ず、お勧め曲リスト561をクリアし(ステップS150;図19参照)、ICカード1332がICカードリーダライター1330に挿入されているかを判定する(ステップS152)。   FIG. 26 is a flowchart for explaining the flow of the play song selection process. In this process, the processing unit 200 first clears the recommended song list 561 (step S150; see FIG. 19), and determines whether the IC card 1332 is inserted in the IC card reader / writer 1330 (step S152).

もし、ICカード1332が挿入されていなければ(ステップS152のNO)、処理部200は、撮影部102でプレーヤを撮影し(ステップS160)、プレーヤの顔特徴値を算出し、算出した顔特徴値に基づいて登録プレーヤとしての個人認証処理を実行する(ステップS162)。   If the IC card 1332 is not inserted (NO in step S152), the processing unit 200 images the player with the image capturing unit 102 (step S160), calculates the player's face feature value, and calculates the calculated face feature value. Based on the above, personal authentication processing as a registered player is executed (step S162).

ここで、何れのプレーヤについても個人認証できない場合、すなわち何れのプレーヤも登録プレーヤでは無かった場合には(ステップS164のNO)、処理部200は、ステップS162で求めた顔特徴値からプレーヤ毎に性別・年齢を求めて、求めたそれらの情報からプレーヤ毎の客層を判定する(ステップS166)。そして、プレーヤが複数であれば優先客層人物を選択し(ステップS168のYES→S170)、楽曲ライブラリ520の客層別サブライブラリ526(図15参照)から、優先客層人物と見なされたプレーヤの客層(又はプレーヤが単数の場合にはそのプレーヤ)に対応する客層別推薦曲リストを読み出してお勧め曲リスト561へ追加する(ステップS172)。   Here, if any player cannot be personally authenticated, that is, if any player is not a registered player (NO in step S164), the processing unit 200 determines for each player from the face feature value obtained in step S162. The gender and age are obtained, and the customer base for each player is determined from the obtained information (step S166). If there are a plurality of players, the priority customer group person is selected (YES in step S168 → S170), and the customer group of the player regarded as the priority customer group person (see FIG. 15) from the customer class sub-library 526 of the music library 520 (see FIG. 15). Or, when there is a single player, the recommended song list for each customer segment corresponding to that player is read and added to the recommended song list 561 (step S172).

もし、ステップS164にて、顔特徴値に基づいた個人認証処理の結果、登録プレーヤを認証できた場合には(ステップS164のYES)、処理部200は、当該認証できたプレーヤのプレーヤ登録データ530を参照する(ステップS180;図16参照)。尚、ステップS152においてICカード1332が挿入されているのが検知された場合には(ステップS152のYES)、処理部200は当該ICカードに記憶されている情報に紐付けされるプレーヤ登録データ530を参照する。   If it is determined in step S164 that the registered player has been authenticated as a result of the personal authentication process based on the face feature value (YES in step S164), the processing unit 200 determines the player registration data 530 for the authenticated player. (Step S180; see FIG. 16). If it is detected in step S152 that the IC card 1332 is inserted (YES in step S152), the processing unit 200 registers the player registration data 530 associated with the information stored in the IC card. Refer to

次いで、処理部200は、プレーヤ登録データ530の嗜好解析データ538からプレーヤの嗜好するジャンルを判定する。そして、楽曲ライブラリ520のジャンル別サブライブラリ524(図15参照)から、プレーヤが嗜好するジャンルに対応する推薦曲リストをお勧め曲リスト561に加える(ステップS182)。更に、処理部200は、新曲リスト522からプレーヤが嗜好するジャンルの新曲を検索し、該当する新曲をお勧め曲リスト561に加える(ステップS184)。   Next, the processing unit 200 determines a genre that the player likes from the preference analysis data 538 of the player registration data 530. Then, the recommended song list corresponding to the genre preferred by the player is added to the recommended song list 561 from the genre sub-library 524 (see FIG. 15) of the song library 520 (step S182). Further, the processing unit 200 searches the new song list 522 for a new song of a genre that the player likes, and adds the corresponding new song to the recommended song list 561 (step S184).

次に、処理部200は、プレーヤ画像を撮影し(ステップS190)、ゲーム開始前の状態のプレーヤの顔表情を認識する(ステップS192)。認識結果は、プレイデータ560のプレーヤ別データ570に含まれる顔表情認識履歴データ576の顔表情認識時系列データ577に追加する。更に、処理部200はこれに伴い顔表情別統計データ578を更新する(図19参照)。   Next, the processing unit 200 captures a player image (step S190) and recognizes the facial expression of the player in a state before the game is started (step S192). The recognition result is added to the facial expression recognition time series data 577 of the facial expression recognition history data 576 included in the player-specific data 570 of the play data 560. Further, the processing unit 200 updates the facial expression-specific statistical data 578 accordingly (see FIG. 19).

次いで、処理部200は、表情別サブライブラリ528からステップS192で認識した顔表情に対応する推薦曲リストを検索し、該当する推薦曲リストがあれば(ステップS194のYES)、該当する推薦曲リストをお勧め曲リスト561に加える(ステップS196)。   Next, the processing unit 200 searches the recommended song list corresponding to the facial expression recognized in step S192 from the facial expression sub-library 528, and if there is a corresponding recommended song list (YES in step S194), the corresponding recommended song list. Is added to the recommended song list 561 (step S196).

ここまでの処理の流れによって、プレーヤの客層や好み、顔表情から推測される現在の心的状況に適した「お勧め曲リスト」ができたことになるので、処理部200は「お勧め曲リスト」を選曲画面に表示して、プレーヤに今回プレイする曲を選択するように促す(ステップS220)。   The processing flow up to this point has created a “recommended song list” suitable for the current mental situation inferred from the customer demographics, preferences, and facial expressions of the player. The “list” is displayed on the music selection screen, and the player is prompted to select the music to be played this time (step S220).

選曲一覧が表示されている状態で、所定のジャンル変更操作を検出した場合には(ステップS222のYES)、処理部200は当該操作に応じて楽曲ライブラリ520から別のジャンル別サブライブラリ524の推薦曲リストであったり、新曲リスト522を選曲一覧表示する(ステップS224)。そして、所定の選曲決定操作を検出したならば(ステップS226のYES)、選曲一覧表示されているリスト中の選択操作対象の曲名をプレイデータ560のプレイ曲名562に格納し(ステップS228)、プレイ曲選択処理を終了する。   When a predetermined genre change operation is detected in a state where the music selection list is displayed (YES in step S222), the processing unit 200 recommends another genre-specific sub-library 524 from the music library 520 according to the operation. A song list or a new song list 522 is displayed as a song selection list (step S224). If a predetermined music selection determination operation is detected (YES in step S226), the music title to be selected in the list displayed in the music selection list is stored in the play music name 562 of the play data 560 (step S228). The song selection process ends.

図25のフローチャートに戻って、処理部200はゲームを開始させる(ステップS240)。すなわち、プレイ曲の再生を開始してスピーカ1324から放音させる。また、ビデオモニタ1322では、プレイ曲の再生に同期させてタイミングガイド40を表示するとともに、演出表示部47にて標準演出データ547(図18参照)に基づく演出を含むゲーム画面の表示を開始する。また、再生時間の計時もゲーム開始とともに開始され、プレイデータ560(図19参照)の再生タイムカウンタ563に格納されていく。この時、適用演出ID565には、標準演出データ547を示す情報が格納される。   Returning to the flowchart of FIG. 25, the processing unit 200 starts the game (step S240). That is, playback of the play song is started and sound is emitted from the speaker 1324. In addition, the video monitor 1322 displays the timing guide 40 in synchronization with the playback of the play song, and the display of the game screen including the effect based on the standard effect data 547 (see FIG. 18) is started in the effect display unit 47. . The reproduction time is also started with the start of the game and stored in the reproduction time counter 563 of the play data 560 (see FIG. 19). At this time, the application effect ID 565 stores information indicating the standard effect data 547.

ゲームが開始されたならば、処理部200は操作入力部100で検出される操作入力に応じてプレーヤ毎にスコアを更新する(ステップS242)。
そして、ゲーム開始から所定の顔表情認識周期(例えば、20秒毎など)が到来したならば(ステップS244のYES)、プレーヤの顔表情認識と認識結果の記憶とを行う(ステップS246)。具体的には、撮影部102で装置前方画像を撮影し、撮影した画像内から人物の顔が写っている部分を抽出する。次いで、抽出された顔が写っている部分毎に、画面内の位置や、当該部分の面積と画面面積との比率、プレーヤの顔かギャラリーの顔であるかを識別する。この際、距離センサ1328による抽出された顔画像が写っている部分毎の距離測定結果を取得することで識別に利用することとしてもよい。そして、プレーヤの顔が写っている部分(顔画像)別に顔特徴値を算出し、プレーヤ別データ570の顔表情認識履歴データ576を更新する。尚、プレーヤの顔が写っている部分(顔画像)が何れのプレイポジションにいるプレーヤのものであるかは、その顔画像の画面内の相対位置により判定できる。
If the game is started, the processing unit 200 updates the score for each player according to the operation input detected by the operation input unit 100 (step S242).
If a predetermined facial expression recognition cycle (for example, every 20 seconds) has arrived since the game started (YES in step S244), the player's facial expression recognition and recognition result storage are performed (step S246). Specifically, the imaging unit 102 captures a front image of the apparatus, and extracts a portion where a person's face is captured from the captured image. Next, for each portion where the extracted face is shown, the position in the screen, the ratio of the area of the portion to the screen area, and the face of the player or the gallery are identified. At this time, a distance measurement result for each portion in which the face image extracted by the distance sensor 1328 is captured may be used for identification. Then, the face feature value is calculated for each portion (face image) in which the player's face is shown, and the facial expression recognition history data 576 of the player-specific data 570 is updated. Note that it can be determined from the relative position of the face image in the screen where the player's face (face image) belongs to which player position.

更に、処理部200は、撮影した画像内からプレーヤの顔とギャラリーの顔とを識別したことを利用して、ギャラリー人数をカウントし、ギャラリー人数564を更新する(ステップS248)。そして、プレーヤの顔表情認識結果とギャラリー人数とをパラメータとしてゲーム進行を制御する。本実施形態は音楽ゲームなので、処理部200は演出変更処理を実行し、ゲーム画面の演出表示部47の表示を変更する(ステップS250)。   Further, the processing unit 200 counts the number of galleries and updates the number of galleries 564 using the fact that the player's face and the gallery's face are identified from the captured image (step S248). Then, the game progress is controlled using the facial expression recognition result of the player and the number of galleries as parameters. Since the present embodiment is a music game, the processing unit 200 executes an effect change process and changes the display of the effect display unit 47 on the game screen (step S250).

図27は、本実施形態における演出変更処理の流れを説明するためのフローチャートである。同処理において、処理部200は先ず、ゲーム開始時間から所定時間が経過しているかを判定する(ステップS260)。ここで言う所定時間は、ステップS224の顔表情認識周期が繰り返し訪れて認識結果が十分蓄積されているのに相当する時間を指す。   FIG. 27 is a flowchart for explaining the flow of the effect changing process in the present embodiment. In the process, the processing unit 200 first determines whether a predetermined time has elapsed from the game start time (step S260). The predetermined time mentioned here refers to a time corresponding to the fact that the facial expression recognition cycle in step S224 has been repeated and the recognition results are sufficiently accumulated.

もし、所定時間が経過していない場合には(ステップS260のNO)、処理部200は顔表情認識履歴データ576の顔表情認識時系列データ577を参照して、ゲーム開始前を特定タイミングと見なし、その時認識された顔表情を優勢顔表情と見なし(ステップS262)、演出表示部47で表示する演出はそのままにして演出変更処理を終了する。   If the predetermined time has not elapsed (NO in step S260), the processing unit 200 refers to the facial expression recognition time series data 577 of the facial expression recognition history data 576, and regards the pre-game start as a specific timing. Then, the facial expression recognized at that time is regarded as the dominant facial expression (step S262), and the effect displayed on the effect display unit 47 is left as it is, and the effect change process is terminated.

もし、所定時間が経過している場合には(ステップS260のYES)、処理部200は顔表情認識履歴データ576の顔表情別統計データ578を参照して、現在までの統計結果から最も出現率の高い顔表情を「優勢顔表情」とする(ステップS266)。
そして、優勢顔表情の頻度が所定の演出切換基準値に達した場合(ステップS268のYES)、処理部200は、所定の出現頻度条件を満たしたと判断し、特別演出設定データライブラリ548(図18参照)からステップS266で判定した優勢顔表情に対応する特別演出設定データを選択し、演出表示部47で表示する内容として現在適用中の標準演出に加える(ステップS270;図7参照)。つまり、演出表示部47では選択された特別演出設定データに従った演出要素が追加表示される。適用演出ID565には、標準演出データ547の識別情報に加えて、ステップS270で選択された特別演出設定データの識別情報が格納される。
If the predetermined time has elapsed (YES in step S260), the processing unit 200 refers to the facial expression-specific statistical data 578 of the facial expression recognition history data 576, and the most appearance rate from the statistical results up to now. A high facial expression is defined as “dominant facial expression” (step S266).
When the frequency of the dominant facial expression reaches a predetermined effect switching reference value (YES in step S268), the processing unit 200 determines that the predetermined appearance frequency condition is satisfied, and the special effect setting data library 548 (FIG. 18). The special effect setting data corresponding to the dominant facial expression determined in step S266 is selected and added to the currently applied standard effect as the content to be displayed on the effect display unit 47 (see step S270; see FIG. 7). That is, the effect display unit 47 additionally displays effect elements according to the selected special effect setting data. In the applied effect ID 565, in addition to the identification information of the standard effect data 547, the identification information of the special effect setting data selected in step S270 is stored.

更に、処理部200は、ギャラリー人数564が所定の基準値に達している場合には(ステップS272のYES)、多ギャラリー用特別演出データ549を参照して、演出表示部47で表示する内容として更に特別な演出を追加し(ステップS274;図6参照)、演出変更処理を終了する。
尚、多ギャラリー用特別演出データ549がギャラリー人数に応じて複数種類用意されている場合には、ステップS272でギャラリー人数に応じたデータを選択する構成とすると良い。
Furthermore, when the gallery number 564 has reached a predetermined reference value (YES in step S272), the processing unit 200 refers to the multi-gallery special effect data 549 as the content to be displayed on the effect display unit 47. Further, a special effect is added (step S274; see FIG. 6), and the effect change process is terminated.
If multiple types of multi-gallery special effect data 549 are prepared according to the number of galleries, it is preferable to select data according to the number of galleries in step S272.

図25に戻って、次に処理部200はプレイ曲が終了したかを判定する。
まだプレイが継続中で(ステップS300のNO)、且つ再生タイムカウンタ563からサビ部分の開始タイミング(楽曲ライブラリ520の該当曲のサビ部分タイミング(図15参照))より所定時間前に一致していると判断される場合には(ステップS302のYES)、処理部200は指定顔表情種類574を再設定する(ステップS304;図19参照)。
Returning to FIG. 25, the processing unit 200 next determines whether or not the play music has ended.
Play is still in progress (NO in step S300), and the playback time counter 563 matches the start time of the chorus part (the chorus part timing of the corresponding song in the music library 520 (see FIG. 15)) and matches the predetermined time. (YES in step S302), the processing unit 200 resets the designated facial expression type 574 (step S304; see FIG. 19).

具体的には、指定顔表情種類574を初期化して既存の設定をクリアした後、乱数発生を用いた抽選処理などを実行して新たな指定顔表情の種類を設定する。次いで、処理部200は、顔表情お題設定データ544(図17参照)からステップS304で新たに設定した指定顔表情の種類に対応する提示テキストデータ544bを参照して、ゲーム画面に「顔表情お題」の提示を開始する(ステップS306)。   Specifically, the designated facial expression type 574 is initialized to clear the existing setting, and then a lottery process using random number generation is executed to set a new designated facial expression type. Next, the processing unit 200 refers to the presentation text data 544b corresponding to the type of the designated facial expression newly set in step S304 from the facial expression theme setting data 544 (see FIG. 17), and displays “Facial expression” on the game screen. Presentation of “theme” is started (step S306).

顔表情お題の提示後、サビ部分のプレイにさしかかると(ステップS310のYES)、処理部200は、プレーヤを撮影してプレーヤの顔表情を認識し(ステップS312)、「顔表情お題」をクリアしたかを判定する。具体的には、ステップS312で認識した顔表情が指定顔表情に該当し、且つゲーム開始時点に認識された顔表情(顔表情顔表情認識時系列データ577から参照可)とステップS312で認識した顔表情とを比較して、前者よりも後者が指定顔表情の度合が高い場合に、「顔表情お題」をクリア・成功したと判定する(図8参照)。なお、度合を比較せずに、ステップS312で認識した顔表情の度合をもとに「顔表情お題」をクリアしたかを判定することとしてもよい。   After the presentation of the facial expression theme, when the climax part is played (YES in step S310), the processing unit 200 captures the player and recognizes the facial expression of the player (step S312). It is determined whether or not is cleared. Specifically, the facial expression recognized in step S312 corresponds to the designated facial expression, and the facial expression recognized at the start of the game (referable from facial expression facial expression recognition time series data 577) is recognized in step S312. Compared with the facial expression, if the latter has a higher degree of designated facial expression than the former, it is determined that the “facial expression theme” has been cleared and succeeded (see FIG. 8). Instead of comparing the degrees, it may be determined whether the “face expression theme” has been cleared based on the degree of the facial expression recognized in step S312.

そして、クリアしたと判定された場合には(ステップS318のYES)、処理部200は該当するプレーヤの指定顔表情ポイント573を所定値加算してゲームの進行に影響を与え(ステップS320;図19参照)、お題成功演出データ544dを参照して成功を称賛するような専用の演出表示を追加する(ステップS322)。反対に失敗したと判定された場合には(ステップS318のNO)、処理部200はお題失敗演出データ544eを参照して失敗時専用の演出表示を追加する(ステップS324)。そして、サビ部分が終了すると(ステップS326のYES)、「顔表情お題」の提示を終了する(ステップS328)。
尚、本実施形態ではステップS318〜S324は1曲プレイする中で一回のみ実行されるものとするが、お題成功演出データ544dやお題失敗演出データ544eの実行時間が短い場合(例えば、数秒程度の場合)には、サビ部分の終了まで複数回実行可能な構成としても良い。
If it is determined that the game has been cleared (YES in step S318), the processing unit 200 adds a predetermined value to the designated facial expression point 573 of the corresponding player and affects the progress of the game (step S320; FIG. 19). Reference), a special effect display that praises the success with reference to the theme success effect data 544d is added (step S322). On the other hand, when it is determined that the process has failed (NO in step S318), the processing unit 200 refers to the theme failure effect data 544e and adds an effect display dedicated to failure (step S324). When the chorus part is finished (YES in step S326), the presentation of “face expression theme” is finished (step S328).
In this embodiment, steps S318 to S324 are executed only once during one song play, but when the execution time of the theme success effect data 544d and the theme failure effect data 544e is short (for example, In the case of several seconds), it may be configured to be executed a plurality of times until the end of the chorus part.

ステップS300において、1曲分のプレイが終了したと判定される場合には(ステップS300のYES)、処理部200は指定顔表情ポイント573のポイント数に応じて所定関数でボーナスポイントを算出し(ステップS330)、ゲーム画面にて算出されたボーナスポイントがスコアにどんどん加算されてゆく演出表示を実行する(ステップS332)。加算は、プレーヤ別データ570のスコア572に対して、つまりプレーヤ別に行うとしても良いし、協力プレイの場合には同時にプレイしたプレーヤのスコア572の合算値にボーナスポイントを加算するようにしても良い。   If it is determined in step S300 that the play of one song has been completed (YES in step S300), the processing unit 200 calculates bonus points using a predetermined function according to the number of designated facial expression points 573 ( In step S330, an effect display in which bonus points calculated on the game screen are added to the score is executed (step S332). The addition may be performed on the score 572 of the player-specific data 570, that is, on a player-by-player basis, or in the case of cooperative play, bonus points may be added to the total value of the score 572 of players who have played at the same time. .

そして、ボーナスポイント加算後のプレーヤのスコア572の合計が、所定の景品払出抽選発動基準値にゲーム開始から初めて到達した場合(ステップS334のYES)、処理部200は景品払出処理を実行する(ステップS336)。   When the total score 572 of the players after the bonus points are added reaches the predetermined prize payout lottery activation reference value for the first time from the start of the game (YES in step S334), the processing unit 200 executes the prize payout process (step S336).

図28は、景品払出処理の流れを説明するためのフローチャートである。同処理において、処理部200は先ず、顔表情別統計データ578を参照して、所定の顔表情種類(例えば、喜び、楽しいなど)の頻度が基準値を上回っているかを判定する(ステップS340;図19参照)。プレーヤが複数の場合には、プレーヤ毎に客層を判定し、所定の客層優先順位にしたがって何れかのプレーヤを選択し、当該プレーヤの顔表情別統計データ578を参照するものとする。   FIG. 28 is a flowchart for explaining the flow of a prize payout process. In this process, the processing unit 200 first refers to the facial expression-specific statistical data 578 to determine whether the frequency of a predetermined facial expression type (for example, joy, fun, etc.) exceeds a reference value (step S340; (See FIG. 19). When there are a plurality of players, the customer base is determined for each player, one of the players is selected according to a predetermined customer base priority, and the facial expression-specific statistical data 578 of the player is referred to.

もし、基準値を上回っていなければ(ステップS340のNO)、今回の抽選に適用される当選確率を標準値に設定し(ステップS342)、基準値を上回っている場合には(ステップS340のYES)、当選確率を標準値よりも高くなるように、つまり当選し易くなるように設定する(ステップS344)。そして、処理部200は、適用される当選確率でもって抽選処理を実行し(ステップS346)、当選すれば(ステップS348のYES)、景品の払い出し制御を行う(ステップS350)。   If it does not exceed the reference value (NO in step S340), the winning probability applied to the current lottery is set to the standard value (step S342), and if it exceeds the reference value (YES in step S340) ), The winning probability is set to be higher than the standard value, that is, the winning probability is set to be easy (step S344). Then, the processing unit 200 executes a lottery process with the applied winning probability (step S346), and if a winning is made (YES in step S348), the prize payout control is performed (step S350).

次に、処理部200は、プレーヤの様子を撮影し(ステップS352)、プレーヤ毎の顔特徴値を算出し、客層設定データ510に照らして客層を判定する(ステップS354)。そして、判定したプレーヤの客層が、マーケティング対象客層に合致する場合には(ステップS356のYES)、払い出された景品を取り出した後のプレーヤの様子を撮影し(ステップS358)、撮影した画像から景品を手にしたプレーヤの顔表情を認識し(ステップS360)、プレーヤの客層と顔表情認識結果と日時とを対応づけてサンプル調査データ580に追加・更新する(ステップS362)。サンプル調査データ580に蓄積されたそれらの情報は、用意した景品に対する満足度調査に利用することができる。   Next, the processing unit 200 captures the state of the player (step S352), calculates a facial feature value for each player, and determines a customer segment in light of the customer segment setting data 510 (step S354). If the determined customer segment of the player matches the target customer segment for marketing (YES in step S356), the player is photographed after the paid out prize is taken out (step S358). The facial expression of the player who has received the prize is recognized (step S360), and the customer base of the player, the facial expression recognition result, and the date and time are associated with each other and added / updated to the sample survey data 580 (step S362). Those pieces of information accumulated in the sample survey data 580 can be used for the satisfaction survey for the prepared premium.

サンプル調査データ580を更新したならば、図25のフローチャートに戻ってプレイモード制御処理を終了する。   If the sample survey data 580 is updated, the process returns to the flowchart of FIG. 25 and the play mode control process is terminated.

図20に戻って、プレイモード制御処理を終了したならば、処理部200はプレイ継続条件を満たしているかを判定する(ステップS380)。例えば、スコアが所定の継続許可基準値を超えている場合にもう1曲プレイできるルールであれば、継続許可基準値を超えている場合に肯定判定する。また、硬貨投入額が複数回分の対価に相当する場合にも、肯定判定するとしても良く、その他適宜設定できる。   Returning to FIG. 20, when the play mode control process is completed, the processing unit 200 determines whether or not the play continuation condition is satisfied (step S380). For example, if the rule allows another song to be played when the score exceeds a predetermined continuation permission reference value, an affirmative determination is made when the continuation permission reference value is exceeded. Further, even when the coin input amount corresponds to a consideration for a plurality of times, an affirmative determination may be made and other appropriate settings may be made.

そして、プレイ継続条件を満たすと肯定判定した場合には(ステップS380のYES)、処理部200は退席するか否かをプレーヤに問いかける選択画面をビデオモニタ1322に表示させる(ステップS382)。ここで途中退席をする旨の選択操作を検出したならば(ステップS384のYES)、処理部200は更に途中退席処理を実行する(ステップS386)。   If it is determined that the play continuation condition is satisfied (YES in step S380), the processing unit 200 displays on the video monitor 1322 a selection screen that asks the player whether to leave the table (step S382). If a selection operation for leaving the seat is detected (YES in step S384), the processing unit 200 further performs a leave processing on the way (step S386).

図29は、途中退席処理の流れを説明するためのフローチャートである。
同処理において、処理部200は先ず、プレーヤを撮影してプレーヤの顔特徴値を算出し、その顔特徴値をプレイデータ560の途中退席者照合データ566に格納する(ステップS400;図19参照)。そして、操作入力をホールド状態にして、一時的な操作入力が不可能な状態とする(ステップS402)。ホールド状態においては、ビデオモニタ1322にその旨テキスト表示して周知すると良い。
FIG. 29 is a flowchart for explaining the flow of the withdrawal process on the way.
In this process, the processing unit 200 first shoots the player, calculates the player's facial feature value, and stores the facial feature value in the halfway away person collation data 566 of the play data 560 (step S400; see FIG. 19). . Then, the operation input is set to a hold state, and a temporary operation input is impossible (step S402). In the hold state, it should be well-known by displaying text on the video monitor 1322 to that effect.

ホールド状態を開始したならば、処理部200はホールド状態保持タイマのカウントダウンを開始する(ステップS404)。当該タイマは、処理部200のシステムクロックを用いた計時機能により実現され、例えば、3分程度を上限としてカウントダウンをする。   If the hold state is started, the processing unit 200 starts counting down the hold state holding timer (step S404). The timer is realized by a timekeeping function using the system clock of the processing unit 200, and counts down for about 3 minutes, for example.

もし、ホールド状態保持タイマが「0」に達していなければ(ステップS406のNO)、処理部200は、装置前方画像を撮影し(ステップS408)、撮影した画像でプレイポジションに人が写っているかを判定する(ステップS410)。そして、もしプレイポジションに人が写っていれば(ステップS410のYES)、処理部200は、当該プレイポジションにいると見なされた人の顔特徴値を算出し、途中退席者照合データ566と照合する(ステップS412)。照合の結果、プレイポジションにいると見なされた人が途中退席したプレーヤと同一人物と認められる場合には(ステップS414のYES)、退席復帰フラグ567(図19参照)を「1(正常復帰)」に設定して(ステップS416)、操作入力のホールド状態を解除し(ステップS420)、途中退席処理を終了する。   If the hold state holding timer has not reached “0” (NO in step S406), the processing unit 200 captures a front image of the apparatus (step S408), and whether a person is captured at the play position in the captured image. Is determined (step S410). If a person is shown in the play position (YES in step S410), the processing unit 200 calculates a facial feature value of the person considered to be in the play position, and collates with the halfway away person collation data 566. (Step S412). As a result of the collation, if it is recognized that the person who is considered to be in the play position is the same person as the player who left the seat (YES in step S414), the leave return flag 567 (see FIG. 19) is set to “1 (normal return)”. (Step S416), the hold state of the operation input is released (step S420), and the midway withdrawal process is terminated.

一方、ホールド状態保持タイマが「0」に達した場合には(ステップS406のYES)、処理部200は、退席復帰フラグ567を「0(復帰無し)」に設定して(ステップS418)、操作入力のホールド状態を解除し(ステップS420)、途中退席処理を終了する。   On the other hand, when the hold state holding timer has reached “0” (YES in step S406), the processing unit 200 sets the leaving return flag 567 to “0 (no return)” (step S418). The input hold state is released (step S420), and the midway leaving process is terminated.

図20のフローチャートに戻って、処理部200は、退席復帰フラグ567が「1」である場合には、途中退席したプレーヤが戻ってきたと見なして(ステップS440のYES)、お勧め曲リスト561に従って次にプレイする曲を選択するための選曲画面を表示する(ステップS442)。
そして、選曲画面が表示されている状態で、所定のジャンル変更操作を検出した場合には(ステップS446のYES)、処理部200は当該操作に応じて楽曲ライブラリ520から別のジャンル別サブライブラリ524の推薦曲リストであったり、新曲リスト522を選曲画面で表示する(ステップS448)。
そして、所定の選曲操作を検出したならば(ステップS450のYES)、選曲画面で表示されているリスト中の選択操作対象の曲名をプレイデータ560のプレイ曲名562に格納し(ステップS452)、プレイ曲選択処理を終了する。そして、ステップS140に移行する。
Referring back to the flowchart of FIG. 20, when the leaving return flag 567 is “1”, the processing unit 200 regards that the player who has left the way has returned (YES in step S440), and follows the recommended song list 561. Next, a music selection screen for selecting a song to be played is displayed (step S442).
When a predetermined genre change operation is detected in a state where the music selection screen is displayed (YES in step S446), the processing unit 200 selects another genre-specific sub-library 524 from the music library 520 according to the operation. Or a new song list 522 is displayed on the song selection screen (step S448).
If a predetermined music selection operation is detected (YES in step S450), the music title to be selected in the list displayed on the music selection screen is stored in the play music name 562 of the play data 560 (step S452). The song selection process ends. Then, the process proceeds to step S140.

もし、退席復帰フラグ567が「0」である場合には(ステップS440のNO)、処理部200は途中退席したプレーヤが戻ってこなかったと見なして、ステップS2に移行する。   If the leaving return flag 567 is “0” (NO in step S440), the processing unit 200 considers that the player who has left the seat does not return and proceeds to step S2.

ステップS380において、プレイ継続条件を満たさないと判定した場合には(ステップS380のNO)、処理部200は、プレーヤの様子を撮影し(ステップS470)、プレーヤ毎の顔特徴値を算出し、客層設定データ510に照らして客層を判定する(ステップS472;図13参照)。   If it is determined in step S380 that the play continuation condition is not satisfied (NO in step S380), the processing unit 200 captures the state of the player (step S470), calculates a facial feature value for each player, and The customer base is determined in light of the setting data 510 (step S472; see FIG. 13).

そして、判定したプレーヤの客層がマーケティング対象客層に合致する場合には(ステップS474のYES)、ゲーム終了直後の当該プレーヤの様子を撮影して(ステップS476)、プレイ終了時のプレーヤの顔表情を認識し(ステップS478)、マーケティング対象客層に合致するプレーヤの客層と、ゲーム開始前の顔表情と、ステップS478で認識した顔表情と、日時とを対応づけてサンプル調査データ580に追加・更新する(ステップS480)。サンプル調査データ580に蓄積されたこれらの情報は、ゲームに対する満足度調査に利用することができる。   If the determined customer segment matches the target customer segment for marketing (YES in step S474), the player is photographed immediately after the game ends (step S476), and the facial expression of the player at the end of the play is displayed. Recognize (step S478), and add / update to the sample survey data 580 by associating the customer segment of the player that matches the marketing target customer segment, the facial expression before the start of the game, the facial expression recognized in step S478, and the date and time. (Step S480). These pieces of information accumulated in the sample survey data 580 can be used for a satisfaction survey for the game.

尚、ステップS480でサンプル調査データ580に加えられる顔認識結果の情報は、ゲーム進行中の認識結果、具体的には顔表情認識時系列データ577を適宜含めることができる。また、ステップS474において、マルチプレイで一緒にプレイするプレーヤのうち何れか一人でもマーケティング対象客層に該当する場合には、肯定判定することとし、その他のプレーヤがマーケティング対象客層に該当しなくとも、ステップS480にて全プレーヤの客層と顔表情認識結果を纏めてサンプル調査データに加える構成としても良い。   Note that the information on the face recognition result added to the sample survey data 580 in step S480 can appropriately include the recognition result during the game, specifically, facial expression recognition time series data 577. In addition, in step S474, if any one of the players who play together in multi-play corresponds to the marketing target customer segment, an affirmative determination is made, and even if other players do not correspond to the marketing target customer segment, step S480 is determined. The customer base and facial expression recognition results of all players may be collected and added to the sample survey data.

次に、処理部200は今回プレイしたプレーヤについてマーケティング対象客層に合致するか否かに係わらず、プレーヤ登録されているかを判定する。そして、プレーヤ登録されていないプレーヤについては(ステップS482のNO)、所定のプレーヤ登録処理を行って新規にプレーヤ登録する(ステップS484)。   Next, the processing unit 200 determines whether or not the player who has played this time is registered as a player regardless of whether or not it matches the target customer group for marketing. Then, for a player that is not registered as a player (NO in step S482), a predetermined player registration process is performed and a new player is registered (step S484).

次いで、処理部200は今回のゲームプレイ結果を反映させるように各プレーヤのプレーヤ登録データ530を更新し(ステップS486)、ステップS2に移行する。   Next, the processing unit 200 updates the player registration data 530 of each player to reflect the current game play result (step S486), and proceeds to step S2.

[効果]
以上、本実施形態によれば、アトラクションモードの制御に関して次のような効果が得られる。すなわち、イメージセンサモジュール1326によりプレイポジションを含む装置前方にいる人物を撮影し、その人物の顔特徴値を求め、顔特徴値から当該人物の客層を判定することができる。そして、業務用ゲーム装置1300の前方にいる人物の客層向けにアピール度を高めたアトラクションモードの制御を実現することができるので、従来よりも集客効果を高めることができる。
[effect]
As described above, according to the present embodiment, the following effects can be obtained regarding the control of the attraction mode. That is, a person in front of the apparatus including the play position can be photographed by the image sensor module 1326, the face feature value of the person can be obtained, and the customer base of the person can be determined from the face feature value. And since the control of the attraction mode which raised the appeal degree for the customer layer of the person who is ahead of the arcade game apparatus 1300 can be realized, the effect of attracting customers can be enhanced as compared with the prior art.

より具体的には、業務用ゲーム装置1300が設定されている環境における日時条件毎の客層の傾向を把握し、主要な客層向けの演出内容に変更できるので集客効果を高めることができる。   More specifically, since the tendency of the customer base for each date and time condition in the environment where the arcade game apparatus 1300 is set can be grasped and changed to the contents for the main customer base, the effect of attracting customers can be enhanced.

また、業務用ゲーム装置1300に近接した人物を検出した場合には、当該近接した人物(近接者)向けの演出内容を実現できるので、集客効果をより一層高めることができる。しかも、近接者が複数の場合には近接者の顔特徴値から各々の客層を判定し、所定の客層優先順位に基づいて優先客層人物を選定し、この優先客層人物の興味を惹きやすいように演出内容を変更し、より効果的なアピールを実現できる。   In addition, when a person close to the arcade game device 1300 is detected, it is possible to realize the effect contents for the close person (proximity person), so that the effect of attracting customers can be further enhanced. In addition, when there are a plurality of neighbors, each customer segment is determined from the facial feature values of the neighbors, a priority customer segment person is selected based on a predetermined customer segment priority order, and the priority customer segment person's interest is easily attracted. The contents of the production can be changed to achieve a more effective appeal.

近接者については更に、顔特徴値から登録プレーヤであるかを認識し、もし登録プレーヤであればその個人情報に基づいて演出内容を当該人物が興味を惹きやすい内容とすることもできる。   Further, it is possible to recognize whether or not the person is a registered player from the facial feature value, and if the player is a registered player, the content of the presentation can be easily attracted by the person based on the personal information.

また、イメージセンサモジュール1326で撮影される範囲内の人物毎の顔表情を認識し、その変化からアトラクションモードの演出を見て好感する反応を示した人物を検出できる。そして、好感反応した人物が検出できた場合に、現在の演出内容に関連性がある他の演出を続けざまに実行することで、当該好感反応した人物へ更なるアピールを実現できる。   In addition, the facial expression of each person within the range photographed by the image sensor module 1326 can be recognized, and the person who shows a favorable reaction by seeing the effect in the attraction mode can be detected from the change. Then, when a person who has made a positive response can be detected, other appeals related to the current content can be executed in succession, thereby further appealing to the person who has made a positive reaction.

プレイモードの制御に関しては次のような効果が得られる。
すなわち、プレイポジションにいるプレーヤを撮影し、プレーヤの顔表情を認識し、その認識結果に応じてゲーム進行及び/又はゲーム演出を制御することができる。プレーヤの顔表情の認識結果をゲームの進行や演出の制御に反映させることで従来にない新しいゲームの面白さを加えることができる。
Regarding the play mode control, the following effects can be obtained.
That is, the player in the play position can be photographed, the facial expression of the player can be recognized, and the game progress and / or game effect can be controlled according to the recognition result. Reflecting the recognition result of the facial expression of the player in the progress of the game and the control of the performance, it is possible to add an interesting new game.

より具体的には、プレイ曲のサビ部分が演奏中のタイミングでプレーヤがどのような顔表情をしているかを「顔表情お題」というルールを用いてゲーム演出の制御に利用できる。こうした面白さは従来のゲームには無かった。   More specifically, it is possible to use the “face expression theme” rule to control what kind of facial expression the player is making at the timing when the climax part of the play piece is being played. Such fun was not found in conventional games.

更には、「顔表情お題」の成功/失敗の判定に関連しては、サビ前とサビ中の異なるタイミングで認識されたプレーヤの顔表情を比較し、どのように顔表情が変化したかに応じて判定処理することで、顔表情の変化を用いたゲーム演出の変更制御ができるようになった。勿論、顔表情の変化を利用する形態は「顔表情お題」に関して限定されるものではなく、例えばロールプレイングゲームや、アクションゲームなどでは特定のイベント開始前とイベント中或いはイベント終了後の顔表情の変化を利用する形態とすることもできる。   Furthermore, in relation to the success / failure determination of the “Facial Expression Theme”, the facial expressions of players recognized at different timings before and during rust are compared, and how the facial expressions change. By performing the determination process according to the game, change control of the game effect using the change of the facial expression can be performed. Of course, the form of using the facial expression change is not limited to the “facial expression theme”. For example, in a role playing game or an action game, the facial expression before the start of a specific event and during or after the event ends. It is also possible to adopt a form that utilizes the change of the above.

また、本実施形態によれば、出現頻度条件を満たした顔表情の種類に応じてゲーム演出の制御を行うことができる。よって、ゲームプレイを通じたプレーヤの主たる顔表情(往々にしてゲームに対するプレーヤの感情が現れる)に応じた演出を選択すると言った使い方ができる。その時選択される演出内容の設定によっては、不機嫌なプレーヤを和ませたり、といった事も可能になるであろう。   Further, according to the present embodiment, it is possible to control the game effect according to the type of facial expression that satisfies the appearance frequency condition. Therefore, it is possible to use such as selecting an effect according to the main facial expression of the player through game play (the player's emotions with respect to the game often appear). Depending on the setting of the content to be selected at that time, it may be possible to soften an unpleasant player.

また、プレーヤ以外の人物、いわゆるギャラリーの数を判定し、そのギャラリー数に応じてゲーム演出を変化させることができるので、ゲームをより一層盛り上げることができる。   Further, since the number of persons other than the player, that is, the number of so-called galleries can be determined and the game effect can be changed according to the number of galleries, the game can be further increased.

そして、マーケティングに関する情報収集に関しては次のような効果が得られる。
すなわち、プレーヤの様子を撮影して、撮影した画像からプレーヤの客層を判定するとともにプレーヤの顔表情を認識し、客層の判定結果と顔表情の認識結果とをサンプル調査データとして内部蓄積、又はサーバシステム等に送信して外部蓄積させることができる。蓄積されたサンプル調査データを適宜解析することにより、例えば客層別のゲームに対する顧客満足度の判定など様々なマーケティング調査が可能となる。
The following effects can be obtained with respect to marketing information collection.
That is, the state of the player is photographed, the customer segment of the player is determined from the photographed image, the facial expression of the player is recognized, and the determination result of the customer segment and the recognition result of the facial expression are stored internally as sample survey data or a server It can be sent to the system and stored externally. By appropriately analyzing the accumulated sample survey data, various marketing surveys such as determination of customer satisfaction with respect to games for each customer segment can be performed.

しかも、マーケティング調査対象としたい客層に該当するプレーヤの表情認識結果を選択的にサンプリングすることができる上に、蓄積される顔表情は、ゲーム開始前、ゲーム進行中およびゲーム終了時のうちの少なくとも何れか2つのタイミングにおけるプレーヤの顔表情を含むので、ゲームに対する満足度調査に適したサンプリングが可能となる。
但し、マルチプレイの場合には、プレーヤを別々に扱うのではなく纏めて調査対象として扱う構成も可能であり、その場合は単独プレイにおける調査データと、マルチプレイにおける調査データとを得られるようになる。
In addition, it is possible to selectively sample the facial expression recognition result of the player corresponding to the customer group to be targeted for marketing research, and the accumulated facial expressions are at least before the game starts, during the game, and at the end of the game. Since the facial expression of the player at any two timings is included, it is possible to perform sampling suitable for a game satisfaction survey.
However, in the case of multi-play, it is possible to adopt a configuration in which players are handled as a survey target instead of separately, and in that case, survey data in a single play and survey data in a multi-play can be obtained.

〔変形例〕
以上、本発明を適用した実施形態について説明したが、本発明の適用可能な実施形態が上述の実施形態に限定されるものではなく、適宜、構成要素の追加・省略・変更を施すことができる。
[Modification]
As described above, the embodiment to which the present invention is applied has been described. However, the applicable embodiment of the present invention is not limited to the above-described embodiment, and additions, omissions, and modifications of components can be appropriately made. .

例えば、上記実施形態ではスタンドアローンで機能する業務用ゲーム装置1300にて本発明を実現する形態を例示したがこれに限らない。
例えば、図30に示すように、複数の業務用ゲーム装置1300(1300a,1300b,・・・,1300n)が通信回線1を介してサーバシステム1100に接続しているゲームシステム1390として本発明を実現する構成としても良い。この場合、各業務用ゲーム装置1300には、ゲームプログラム502に代えて専用のクライアントソフトを実行させ、ゲーム画面の生成は業務用ゲーム装置1300で実行させる。その一方で、プレーヤ登録データ530やサンプル調査データ580をサーバシステム1100で管理する構成とし、登録プレーヤの検出やプレーヤの個人情報の取得、サンプル調査データ580の更新が必要な処理では適宜サーバシステム1100にアクセスして必要な情報をデータ通信する構成としても良い。
For example, in the above-described embodiment, an example in which the present invention is realized by the arcade game apparatus 1300 that functions stand-alone is illustrated, but the present invention is not limited thereto.
For example, as shown in FIG. 30, the present invention is realized as a game system 1390 in which a plurality of arcade game apparatuses 1300 (1300a, 1300b,..., 1300n) are connected to a server system 1100 via a communication line 1. It is good also as composition to do. In this case, each of the arcade game devices 1300 is caused to execute dedicated client software instead of the game program 502, and the arcade game device 1300 is caused to generate a game screen. On the other hand, the player registration data 530 and the sample survey data 580 are managed by the server system 1100, and the server system 1100 is appropriately used for processing that requires registration player detection, player personal information acquisition, and sample survey data 580 update. It is good also as a structure which accesses data and communicates required information.

またゲームシステム1390とした構成では、顔表情認識部204の機能を業務用ゲーム装置1300毎に専用のチップを搭載することで実現するのではなく、サーバシステム1100の利用により実現するとしても良い。例えば、業務用ゲーム装置1300には顔認証チップ1356は搭載せず、イメージセンサモジュール1326で撮影した装置前方画像やプレーヤ画像をサーバシステム1100に送信し、サーバシステム1100に搭載された顔認識チップや顔認識プログラムによって顔特徴値を算出したり顔表情を認識し、それらの結果をサーバシステム1100から受信して利用する形態としても良い。   In the configuration of the game system 1390, the function of the facial expression recognition unit 204 may be realized by using the server system 1100 rather than by mounting a dedicated chip for each arcade game device 1300. For example, the arcade game device 1300 does not include the face authentication chip 1356, but transmits the device front image and the player image captured by the image sensor module 1326 to the server system 1100, and the face recognition chip mounted on the server system 1100 It may be configured such that a face feature value is calculated or a facial expression is recognized by a face recognition program, and the results are received from the server system 1100 and used.

またゲーム装置そのものの形態としては、業務用を目的とした業務用ゲーム装置1300に限らない。例えば、据え置き型の家庭用ゲーム装置や、携帯型ゲーム装置として実現しても良い。更には“ゲーム装置”とされる電子機器(コンピュータ)に限らず、アプリケーションソフトが実行可能な携帯電話機(スマートフォン)や情報端末装置、コンパクトデジタルカメラ、音楽プレーヤ、パソコン、カーナビと言った電子機器も、プログラムを実行可能なコンピュータを内蔵している、或いはコンピュータそのものと言えるため、ゲーム装置とすることができる。   Further, the form of the game device itself is not limited to the business game device 1300 for business purposes. For example, it may be realized as a stationary home game device or a portable game device. Furthermore, not only electronic devices (computers) that are regarded as “game devices”, but also electronic devices such as mobile phones (smartphones) that can execute application software, information terminal devices, compact digital cameras, music players, personal computers, and car navigation systems. Since a computer that can execute the program is built in or can be said to be a computer itself, a game device can be obtained.

また、上記実施形態では音楽ゲームを実行する例を示したが、ゲームジャンルは音楽ゲームに限らず、シューティングゲームや格闘ゲーム、アクションゲームなどその他のジャンルでも構わない。更には、ビデオゲームに限るものでもなく、例えばメダルゲーム、パチンコなどその他のゲームにも利用することができる。   Moreover, although the example which performs a music game was shown in the said embodiment, not only a music game but a game genre may be other genres, such as a shooting game, a fighting game, and an action game. Furthermore, the present invention is not limited to video games, and can be used for other games such as medal games and pachinko games.

2…プレーヤ
4…ギャラリー
40…タイミングガイド
47…演出表示部
100…操作入力部
102…撮影部
104…ICカード読取部
106…対価支払検出部
108…距離測定部
200…処理部
202…ゲーム制御部
204…顔表情認識部
205…プレーヤ/ギャラリー識別部
206…客層判定部
208…登録プレーヤ検出部
210…アトラクションモード制御部
211…来客客層データベース作成部
212…日時条件基準制御部
213…優先客層人物選択部
214…登録プレーヤ優先制御部
215…客層組合せ別制御部
216…好感反応者検出部
217…好感反応者検出時制御部
220…プレイモード制御部
221…ギャラリー数基準制御部
222…出現表情基準制御部
224…顔表情お題題制御部
226…指定顔表情提示制御部
228…指定顔表情適否基準制御部
230…特定タイミング顔表情基準制御部
232…顔表情変化基準制御部
234…景品払出抽選部
246…調査対象判定部
248…調査データ記憶制御部
249…プレーヤ登録管理部
400…景品払出部
500…記憶部
501…システムプログラム
502…ゲームプログラム
510…客層設定データ
512…アトラクションモードデータ
514…客層別パターンセット
515…客層組合せ別パターンセット
516…省電力パターンセット
518…登録プレーヤ優先パターンセットセット
520…楽曲ライブラリ
526…客層別サブライブラリ
528…表情別サブライブラリ
530…プレーヤ登録データ
532…プレーヤID
533…年齢性別情報
534…個人認証用顔特徴値
536…プレイ履歴データ
538…嗜好解析データ
544…お題設定データ
546…プレイモード演出内容設定データ
547…標準演出データ
548…特別演出設定データライブラリ
549…多ギャラリー用特別演出データ
550…アトラクションモード制御データ
551…来客客層データベース
552…日時条件別来客客層データ
553…最適化対象者識別データ
554…最適化対象者顔表情
560…プレイデータ
561…お勧め曲リスト
565…適用演出ID
566…途中退席者照合データ
570…プレーヤ別データ
572…スコア
573…指定顔表情ポイント
574…指定顔表情種類
575…プレーヤ客層
576…顔表情認識履歴データ
577…顔表情認識時系列データ
578…顔表情統計データ
580…サンプル調査データ
1300…業務用ゲーム装置
1301…ゲーム装置本体
1304…操作台
1306…操作入力装置
1322…ビデオモニタ
1326…イメージセンサモジュール
1328…距離センサ
1342…景品払出装置
1350…制御ユニット
1351…CPU
1352…ICメモリ
1353…通信装置
1356…顔認識チップ
DESCRIPTION OF SYMBOLS 2 ... Player 4 ... Gallery 40 ... Timing guide 47 ... Effect display part 100 ... Operation input part 102 ... Image pick-up part 104 ... IC card reading part 106 ... Consideration payment detection part 108 ... Distance measurement part 200 ... Processing part 202 ... Game control part 204 ... Facial expression recognition unit 205 ... Player / gallery identification unit 206 ... Customer segment determination unit 208 ... Registered player detection unit 210 ... Attraction mode control unit 211 ... Customer segment database creation unit 212 ... Date condition criteria control unit 213 ... Priority customer segment person selection Reference numeral 214: Registered player priority control unit 215: Control according to customer group combination 216 ... Preferable reaction person detection unit 217 ... Preferable reaction person detection control unit 220: Play mode control unit 221: Gallery number reference control unit 222 ... Appearance expression reference control Part 224 ... Facial expression theme control part 226 ... Designated facial expression Indication control unit 228 ... Designated facial expression suitability criterion control unit 230 ... Specific timing facial expression reference control unit 232 ... Facial expression change reference control unit 234 ... Premiums payout lottery unit 246 ... Investigation target determination unit 248 ... Investigation data storage control unit 249 ... Player registration management unit 400... Prize giving unit 500... Storage unit 501. System program 502... Game program 510 .. customer segment setting data 512 .. attraction mode data 514 ... customer segment-specific pattern set 515 ... customer segment combination-specific pattern set 516. 518 ... Registered player priority pattern set set 520 ... Music library 526 ... Sub-library by customer segment 528 ... Sub library by facial expression 530 ... Player registration data 532 ... Player ID
533 ... Age-sex information 534 ... Face feature value for personal authentication 536 ... Play history data 538 ... Preference analysis data 544 ... Theme setting data 546 ... Play mode effect content setting data 547 ... Standard effect data 548 ... Special effect setting data library 549 ... Special production data for multiple galleries 550 ... Attraction mode control data 551 ... Customer demographic database 552 ... Customer demographic data by date and time conditions 553 ... Optimization subject identification data 554 ... Optimization subject facial expression 560 ... Play data 561 ... Recommended Song list 565 ... Application effect ID
566 ... Awayee collation data 570 ... Player-specific data 572 ... Score 573 ... Designated facial expression point 574 ... Designated facial expression type 575 ... Player customer recognition 576 ... Facial expression recognition history data 577 ... Facial expression recognition time series data 578 ... Facial expression Statistical data 580 ... Sample survey data 1300 ... Commercial game device 1301 ... Game device main body 1304 ... Operation table 1306 ... Operation input device 1322 ... Video monitor 1326 ... Image sensor module 1328 ... Distance sensor 1342 ... Gift dispensing device 1350 ... Control unit 1351 ... CPU
1352 ... IC memory 1353 ... Communication device 1356 ... Face recognition chip

Claims (9)

少なくともプレイポジションにいる人物を撮影範囲に含むように撮影方向を装置前方に向けて配置された撮影部と、
前記撮影部により撮影された撮影画像に含まれる人物画像を認識する認識部と、
前記認識部の認識結果を用いて当該撮影画像に写っている人物の性別及び年齢層を少なくとも含む客層を判定する客層判定部と、
前記客層判定部による判定結果を用いて、アトラクションモードの演出内容を制御するアトラクションモード制御部と、
を備えたゲームシステム。
A shooting unit arranged with the shooting direction facing the front of the apparatus so that at least a person in the play position is included in the shooting range;
A recognizing unit for recognizing a person image included in a photographed image photographed by the photographing unit;
A customer segment determination unit that determines a customer segment including at least the sex and age group of the person shown in the captured image using the recognition result of the recognition unit;
Using the determination result by the customer layer determination unit, an attraction mode control unit that controls the effect content of the attraction mode,
A game system with
前記認識部は、前記撮影画像に写っている人物の顔表情を認識する顔表情認識部を有し、
前記顔表情認識部の認識結果に基づいて、当該ゲームシステムへの興味を持つ人物が前記撮影画像に写ったことを検出(する好感反応者検出部と、
前記アトラクションモードの演出内容に係るデータを、当該演出内容の分類情報と対応付けて記憶するアトラクションモードデータ記憶部と、
を備え、
前記アトラクションモード制御部は、前記好感反応者検出部による検出が有った場合に、分類情報が現在実行中のアトラクションモードの演出内容と所定の関連条件を満たす演出内容に係るデータを前記アトラクションモード記憶部から選択し、所与のタイミングで演出内容を切り替える好感反応者検出時制御手段を有する、
請求項1に記載のゲームシステム。
The recognizing unit includes a facial expression recognizing unit for recognizing a facial expression of a person shown in the captured image;
Based on the recognition result of the facial expression recognition unit, it detects that a person interested in the game system appears in the photographed image (a favorable reaction person detection unit that performs)
An attraction mode data storage unit that stores data relating to the contents of the effect in the attraction mode in association with the classification information of the contents of the effect;
With
The attraction mode control unit, when there is a detection by the likable reaction person detection unit, the data related to the content of the attraction that the classification information is currently being executed and the content of the effect satisfying a predetermined relation condition. Select from the storage unit, having a favorable reaction person detection time control means for switching the production contents at a given timing,
The game system according to claim 1.
前記認識部は、前記撮影画像に複数の人物が写っている場合に当該複数の人物それぞれの人物画像を認識し、
前記客層判定部は、前記認識部の認識結果を用いて前記撮影画像に写っている人物それぞれの客層を判定し、
前記アトラクションモード制御部は、前記客層判定部により判定された前記撮影画像に写っている人物それぞれの客層と、所定の客層優先順とに基づき、当該人物の中からアトラクションモードの演出内容を決定する基準とする人物を選択する優先客層人物選択手段を有する、
請求項1又は2に記載のゲームシステム。
The recognizing unit recognizes a person image of each of the plurality of persons when a plurality of persons are reflected in the captured image;
The customer segment determination unit determines each customer segment in the photographed image using the recognition result of the recognition unit,
The attraction mode control unit determines the contents of the attraction mode from the person based on the customer layer of each person in the captured image determined by the customer group determination unit and a predetermined customer group priority order. Having a priority customer layer person selecting means for selecting a person as a reference;
The game system according to claim 1 or 2.
前記認識部は、前記撮影画像に複数の人物が写っている場合に当該複数の人物それぞれの人物画像を認識し、
前記客層判定部は、前記認識部の認識結果を用いて前記撮影画像に写っている人物それぞれの客層を判定し、
前記アトラクションモード制御部は、前記客層判定部により判定された客層の組み合わせを用いて、アトラクションモードの演出内容を制御する客層組合せ別制御手段を有する、
請求項1又は2に記載のゲームシステム。
The recognizing unit recognizes a person image of each of the plurality of persons when a plurality of persons are reflected in the captured image;
The customer segment determination unit determines each customer segment in the photographed image using the recognition result of the recognition unit,
The attraction mode control unit has a customer group combination-specific control means for controlling the effect content of the attraction mode using the combination of customer groups determined by the customer group determination unit.
The game system according to claim 1 or 2.
前記認識部の認識結果に基づき認証可能な特徴データを登録プレーヤ毎に記憶する登録プレーヤデータ記憶部の記憶データを参照して、前記認識部の認識結果に基づいて、前記撮影画像に登録プレーヤが写っていることを検出する登録プレーヤ検出部を備え、
前記アトラクションモード制御部は、前記登録プレーヤ検出部による検出が有った場合に、登録プレーヤ毎の個人情報を記憶する登録プレーヤ情報記憶部の記憶データを参照して、当該検出された登録プレーヤの個人情報に基づいて、アトラクションモードの演出内容を切り替える登録プレーヤ優先制御手段を有する、
請求項1〜4の何れか一項に記載のゲームシステム。
Based on the recognition result of the recognizing unit, the registered player refers to the stored data of the registered player data storage unit that stores, for each registered player, feature data that can be authenticated based on the recognition result of the recognizing unit. A registered player detection unit that detects that the image is captured;
The attraction mode control unit refers to the stored data of the registered player information storage unit that stores the personal information for each registered player when the registration player detection unit detects the attraction of the detected registered player. Having registered player priority control means for switching the contents of the attraction mode based on the personal information;
The game system as described in any one of Claims 1-4.
前記プレイポジションに人物がいることを検出する人物所在検出部を備え、
前記登録プレーヤ検出部は、前記人物所在検出部による検出が有った場合に、前記撮影画像に登録プレーヤが写っているか否かの判定を行う、
請求項5に記載のゲームシステム。
A person location detecting unit for detecting that a person is in the play position;
The registered player detection unit determines whether or not the registered player is included in the photographed image when the person location detection unit detects.
The game system according to claim 5.
前記客層判定部による判定結果を用いて、曜日別及び/又は時間帯別の来客客層データベースを作成する来客客層データベース作成部を備え、
前記アトラクションモード制御部は、前記来客客層データベースを参照してアトラクションモードの演出内容を制御する日時基準制御手段を有する、
請求項1〜6の何れか一項に記載のゲームシステム。
Using the determination result by the customer segment determination unit, comprising a customer segment database creation unit for creating a customer segment database by day of the week and / or by time of day,
The attraction mode control unit has a date / time reference control means for controlling the contents of the attraction mode with reference to the customer base database.
The game system as described in any one of Claims 1-6.
少なくともプレイポジションにいる人物を撮影範囲に含むように撮影方向を装置前方に向けて配置された撮影部を備え、所定のゲームを実行可能に構成されたコンピュータシステムを、
前記撮影部により撮影された撮影画像に含まれる人物画像を認識する認識部、
前記認識部の認識結果を用いて当該撮影画像に写っている人物の性別及び年齢層を少なくとも含む客層を判定する客層判定部、
前記客層判定部による判定結果を用いて、アトラクションモードの演出内容を制御するアトラクションモード制御部、
として機能させるためのプログラム。
A computer system that includes a photographing unit arranged so that a photographing direction is directed to the front of the apparatus so that at least a person in a play position is included in a photographing range, and configured to execute a predetermined game,
A recognizing unit for recognizing a human image included in a photographed image photographed by the photographing unit;
A customer segment determination unit that determines a customer segment including at least the gender and age group of the person shown in the captured image using the recognition result of the recognition unit;
An attraction mode control unit that controls the content of the attraction mode using the determination result by the customer layer determination unit,
Program to function as.
請求項8に記載のプログラムを記憶したコンピュータ読取可能な情報記憶媒体。   A computer-readable information storage medium storing the program according to claim 8.
JP2011152034A 2011-07-08 2011-07-08 Game system and program Active JP5940772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011152034A JP5940772B2 (en) 2011-07-08 2011-07-08 Game system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011152034A JP5940772B2 (en) 2011-07-08 2011-07-08 Game system and program

Publications (3)

Publication Number Publication Date
JP2013020366A true JP2013020366A (en) 2013-01-31
JP2013020366A5 JP2013020366A5 (en) 2014-08-21
JP5940772B2 JP5940772B2 (en) 2016-06-29

Family

ID=47691756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011152034A Active JP5940772B2 (en) 2011-07-08 2011-07-08 Game system and program

Country Status (1)

Country Link
JP (1) JP5940772B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183898A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Display device, program and display system
JP2014203223A (en) * 2013-04-04 2014-10-27 カシオ計算機株式会社 Display device, display system, and program
JP2015043832A (en) * 2013-08-27 2015-03-12 株式会社タイトー Game device
JP2017196374A (en) * 2016-04-27 2017-11-02 寶凱電子企業股▲分▼有限公司 Game machine including image data determination function
JP2019040162A (en) * 2017-08-29 2019-03-14 株式会社第一興商 Karaoke system
JP2021051125A (en) * 2019-09-24 2021-04-01 カシオ計算機株式会社 Server device, method, program, and information provision system
CN116543082A (en) * 2023-05-18 2023-08-04 无锡捷通数智科技有限公司 Digital person generation method and device and digital person generation system
CN117727122A (en) * 2024-01-25 2024-03-19 上海舜慕智能科技有限公司 Access control gate based on face recognition and identity recognition method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000225275A (en) * 1999-02-05 2000-08-15 Midway Amusement Games Llc Amuzement game including video display independent of game
JP2002073321A (en) * 2000-04-18 2002-03-12 Fuji Photo Film Co Ltd Image display method
JP2010067104A (en) * 2008-09-12 2010-03-25 Olympus Corp Digital photo-frame, information processing system, control method, program, and information storage medium
JP2010282590A (en) * 2009-06-08 2010-12-16 Jr East Mechatronics Co Ltd Information processing apparatus and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000225275A (en) * 1999-02-05 2000-08-15 Midway Amusement Games Llc Amuzement game including video display independent of game
JP2002073321A (en) * 2000-04-18 2002-03-12 Fuji Photo Film Co Ltd Image display method
JP2010067104A (en) * 2008-09-12 2010-03-25 Olympus Corp Digital photo-frame, information processing system, control method, program, and information storage medium
JP2010282590A (en) * 2009-06-08 2010-12-16 Jr East Mechatronics Co Ltd Information processing apparatus and information processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183898A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Display device, program and display system
JP2014203223A (en) * 2013-04-04 2014-10-27 カシオ計算機株式会社 Display device, display system, and program
JP2015043832A (en) * 2013-08-27 2015-03-12 株式会社タイトー Game device
JP2017196374A (en) * 2016-04-27 2017-11-02 寶凱電子企業股▲分▼有限公司 Game machine including image data determination function
JP2019040162A (en) * 2017-08-29 2019-03-14 株式会社第一興商 Karaoke system
JP2021051125A (en) * 2019-09-24 2021-04-01 カシオ計算機株式会社 Server device, method, program, and information provision system
JP7188337B2 (en) 2019-09-24 2022-12-13 カシオ計算機株式会社 Server device, performance support method, program, and information providing system
JP7424455B2 (en) 2019-09-24 2024-01-30 カシオ計算機株式会社 Recommendation device, recommendation method, and program
CN116543082A (en) * 2023-05-18 2023-08-04 无锡捷通数智科技有限公司 Digital person generation method and device and digital person generation system
CN117727122A (en) * 2024-01-25 2024-03-19 上海舜慕智能科技有限公司 Access control gate based on face recognition and identity recognition method
CN117727122B (en) * 2024-01-25 2024-06-11 上海舜慕智能科技有限公司 Access control gate based on face recognition and identity recognition method

Also Published As

Publication number Publication date
JP5940772B2 (en) 2016-06-29

Similar Documents

Publication Publication Date Title
WO2013008717A1 (en) Game system, program, and storage medium
JP2013017587A (en) Game system, program, and information storage medium
JP5940772B2 (en) Game system and program
JP6945312B2 (en) Operation control system, character screening system and program
US10257296B2 (en) Service providing system, service providing device, and data constructing method
US10434407B2 (en) Game system, and storage medium used in same
JP6832114B2 (en) Processing system and program
JP6896323B2 (en) Programs and computer systems
JP6809802B2 (en) Program and server system
JP6320674B2 (en) Game device and server system
JP2006109936A (en) Game machine and game system, its program, and recording medium
JP6721397B2 (en) Server system and program
JP6722503B2 (en) Computer system and program
JP5997325B1 (en) GAME DEVICE AND PROGRAM
JP6378305B2 (en) Computer system, game system, and game apparatus
JP7185305B2 (en) Game system, computer program used therefor, and control method
TW200842658A (en) Information processing device, method for controlling an information processing device, and information recording medium
JP2019000457A (en) Computer system and program
JP6722499B2 (en) Server system and program
US10434421B2 (en) Game system, and storage medium used in same
JP7051993B2 (en) Programs and electronic devices
JP7411437B2 (en) Computer systems, server systems and game systems
JP2012249961A (en) Game machine, game machine control method, and program
JP7093642B2 (en) Computer system, program and timing game execution control method
JP6945360B2 (en) Computer systems and programs

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160519

R150 Certificate of patent or registration of utility model

Ref document number: 5940772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250