JP5689103B2 - GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD - Google Patents
GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD Download PDFInfo
- Publication number
- JP5689103B2 JP5689103B2 JP2012245521A JP2012245521A JP5689103B2 JP 5689103 B2 JP5689103 B2 JP 5689103B2 JP 2012245521 A JP2012245521 A JP 2012245521A JP 2012245521 A JP2012245521 A JP 2012245521A JP 5689103 B2 JP5689103 B2 JP 5689103B2
- Authority
- JP
- Japan
- Prior art keywords
- game
- user
- image
- display
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 98
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000003384 imaging method Methods 0.000 claims description 72
- 238000012545 processing Methods 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 43
- 230000000694 effects Effects 0.000 claims description 35
- 230000008569 process Effects 0.000 description 80
- 238000003860 storage Methods 0.000 description 47
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 230000008921 facial expression Effects 0.000 description 17
- 230000014509 gene expression Effects 0.000 description 15
- 238000009877 rendering Methods 0.000 description 12
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 210000001747 pupil Anatomy 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 8
- 239000011521 glass Substances 0.000 description 8
- 241000255925 Diptera Species 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 230000001186 cumulative effect Effects 0.000 description 6
- 238000003780 insertion Methods 0.000 description 6
- 230000037431 insertion Effects 0.000 description 6
- 101000610551 Homo sapiens Prominin-1 Proteins 0.000 description 4
- 102100040120 Prominin-1 Human genes 0.000 description 4
- 101000717877 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) 40S ribosomal protein S11-A Proteins 0.000 description 4
- 101000717881 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) 40S ribosomal protein S11-B Proteins 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000007664 blowing Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000002250 progressing effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 101000955967 Deinagkistrodon acutus Thrombin-like enzyme acutin Proteins 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 101150014330 dfa2 gene Proteins 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Description
この発明は、ユーザを撮像して得られる画像データに基づいてゲームを進行可能なゲームプログラムおよびゲーム装置に関する。 The present invention relates to a game program and a game apparatus capable of progressing a game based on image data obtained by imaging a user.
従来から、ユーザの顔を撮像し、撮像して得られる画像データに基づいてゲームを進行させるゲームプログラムが知られている(例えば、非特許文献1参照)。このゲームプログラムでは、ゲーム開始から所定時間経過したタイミングでユーザを撮像しておき、この撮像したユーザの画像は、ゲームの終了時にゲーム結果とともに表示される。 2. Description of the Related Art Conventionally, a game program that captures a user's face and advances the game based on image data obtained by capturing the image is known (see, for example, Non-Patent Document 1). In this game program, a user is imaged at a timing when a predetermined time has elapsed from the start of the game, and the captured image of the user is displayed together with the game result at the end of the game.
上述の先行技術では、ゲーム開始から所定時間経過したタイミングでユーザを撮像し、そのタイミングにおけるユーザの表情をゲーム終了時に表示するのみであった。 In the above-described prior art, the user is imaged at a timing when a predetermined time has elapsed from the start of the game, and the user's facial expression at that timing is only displayed at the end of the game.
この発明は、ユーザを撮像して得られる画像データに基づいてゲームを進行するとともに、ゲームをプレイ中のユーザの表情などを表示する新規なゲームプログラムおよびゲーム装置を提供することである。 It is an object of the present invention to provide a novel game program and a game apparatus that display a facial expression of a user who is playing a game while progressing a game based on image data obtained by capturing an image of the user.
この発明の第1の局面に従えば、撮像手段(23:実施の形態で相当する参照符号。以下同じ。)および表示手段(12,22)を利用可能なゲーム装置(100)のコンピュータで実行されるゲームプログラムを提供する。ここで、撮像手段は、ユーザを撮像するように適合されている。ゲームプログラムは、コンピュータを、撮像手段により取得される画像データに含まれるユーザ画像に基づいてゲームを進行するゲーム進行手段(110,120,130,132)、少なくとも、ユーザ画像が予め定められた条件を満足した場合に撮像手段により取得される画像データに基づく画像を表示手段に表示させる表示制御手段(136)として機能させる。 According to the first aspect of the present invention, the image pickup means (23: reference numeral corresponding to the embodiment; the same applies hereinafter) and the display means (12, 22) are executed by the computer of the game apparatus (100) that can be used. Provide a game program to be played. Here, the imaging means is adapted to image the user. The game program includes a game progress means (110, 120, 130, 132) that advances a game based on a user image included in image data acquired by an imaging means, and at least a condition in which the user image is predetermined. When the condition is satisfied, the display unit is made to function as a display control unit (136) for causing the display unit to display an image based on image data acquired by the imaging unit.
この第1の局面によれば、本ゲームプログラムによって提供されるゲームをユーザがプレイしているあるタイミングにおける、当該ユーザの姿を写した画像データを取得することができる。すなわち、ユーザを撮像して得られる画像データに含まれるユーザ画像が予め定められた条件を満足したタイミングで、ゲームをプレイ中のユーザを撮像することができる。そして、ゲーム終了後などに、これらの画像データを表示することで、ゲームをプレイ中のユーザの意外なあるいは面白みのなる表情などを見て楽しむことができる。なお、ユーザ画像とは、少なくとも、撮像手段により取得された画像データのうち、ユーザが被写体として写っている領域を含む画像を意味する。 According to the first aspect, it is possible to acquire image data that shows the appearance of the user at a certain timing when the user is playing the game provided by the game program. That is, the user who is playing the game can be imaged at a timing when the user image included in the image data obtained by imaging the user satisfies a predetermined condition. Then, by displaying these image data after the game is over, it is possible to enjoy watching an unexpected or interesting expression of the user who is playing the game. The user image means an image including at least an area where the user is captured as a subject in the image data acquired by the imaging unit.
好ましい第2の局面によれば、表示制御手段は、ゲーム進行手段によるゲームが進行中でないときに、少なくとも、ユーザ画像が予め定められた条件を満足した場合に、撮像手段により取得される画像データに基づく画像を表示手段に表示させる。 According to a preferred second aspect, the display control means is the image data acquired by the imaging means when the game by the game progress means is not in progress and at least when the user image satisfies a predetermined condition. An image based on the is displayed on the display means.
この第2の局面によれば、ユーザがゲームをプレイしていない期間において、ゲームをプレイ中のユーザの意外なあるいは面白みのなる表情などを見て楽しむことができる。 According to the second aspect, in a period when the user is not playing the game, it is possible to enjoy watching the unexpected or interesting expression of the user who is playing the game.
好ましい第3の局面によれば、表示制御手段は、ゲームの終了後に、少なくとも、ユーザ画像が予め定められた条件を満足した場合に、撮像手段により取得される画像データに基づく画像を表示手段に表示させる。 According to a preferred third aspect, the display control means displays, on the display means, an image based on the image data acquired by the imaging means when the user image satisfies a predetermined condition at least after the game ends. Display.
この第3の局面によれば、ゲーム終了後に、ゲームをプレイ中のユーザの意外なあるいは面白みのなる表情などを見て楽しむことができる。 According to the third aspect, after the game is over, the user who is playing the game can enjoy watching the unexpected or interesting facial expression.
好ましい第4の局面によれば、ゲーム進行手段は、ユーザ画像に基づいて、ゲームが成功したか否かを判断し、表示制御手段は、少なくとも、ゲームが成功したと判断されたときに撮像手段により取得される画像データに基づく画像を表示手段に表示させる。 According to a preferred fourth aspect, the game progress means determines whether or not the game is successful based on the user image, and the display control means is imaging means when it is determined that at least the game is successful. An image based on the image data acquired by the above is displayed on the display means.
この第4の局面によれば、ゲームが成功したタイミング周辺におけるユーザの表情などを撮像することができる。そのため、ゲームが成功したときのユーザの表情などを表示することができる。 According to the fourth aspect, it is possible to take an image of the user's facial expression around the timing when the game is successful. Therefore, the user's facial expression when the game is successful can be displayed.
好ましい第5の局面によれば、ゲーム進行手段は、ユーザ画像の位置とゲーム演出に応じて表示されるオブジェクトの位置とに基づいて、ゲームが成功したか否かを判断する。 According to a preferred fifth aspect, the game advancing means determines whether or not the game is successful based on the position of the user image and the position of the object displayed in accordance with the game effect.
この第5の局面によれば、ゲームが成功したタイミング周辺におけるユーザの表情などを撮像することができる。そのため、ゲーム終了後には、ゲームが成功したときのユーザの表情などを表示することができる。 According to the fifth aspect, it is possible to capture the user's facial expression and the like around the timing when the game is successful. Therefore, after the game is over, the user's facial expression when the game is successful can be displayed.
また、この第5の局面によれば、ゲーム演出に応じて表示されるオブジェクトの位置に関連付けられた成功条件が満足された場合には、ユーザの顔や手などが当該成功条件に応じた位置にほぼ確実に存在すると考えられるので、いずれのユーザがゲームをプレイした場合であっても、ほぼ同様の構図の画像データを取得することができる。これにより、画像データに予め用意された画像のオブジェクトなどを重ねて表示した場合に、開発者が意図した内容をより確実に表現することができる。 Further, according to the fifth aspect, when the success condition associated with the position of the object displayed in accordance with the game effect is satisfied, the user's face or hand is positioned according to the success condition. Therefore, even if any user plays the game, it is possible to acquire image data having substantially the same composition. As a result, when an image object or the like prepared in advance is displayed on the image data, the contents intended by the developer can be expressed more reliably.
より好ましい第6の局面によれば、ゲームプログラムは、コンピュータを、ユーザ画像として、画像データ内のユーザの領域を示すユーザ領域を検出する検出手段(126)としてさらに機能させる。ゲーム進行手段は、ゲーム演出に応じて表示されるオブジェクトの位置と、検出手段により検出されるユーザ領域の位置とに基づいて、ゲームが成功したか否かを判断する。 According to a more preferable sixth aspect, the game program causes the computer to further function as detection means (126) for detecting a user area indicating a user area in the image data as a user image. The game progress means determines whether or not the game is successful based on the position of the object displayed in accordance with the game effect and the position of the user area detected by the detection means.
この第6の局面によれば、ユーザが写っている領域を的確に特定できるので、ユーザ以外の被写体による誤検出を防止することができる。 According to the sixth aspect, since the area in which the user is captured can be accurately specified, erroneous detection by a subject other than the user can be prevented.
より好ましい第7の局面によれば、ゲームプログラムは、コンピュータを、ユーザ画像として、画像データ内のユーザの領域を示すユーザ領域を検出する検出手段としてさらに機能させ、ゲーム進行手段は、ゲーム演出に応じて表示されるオブジェクトの位置と、検出手段により検出されるユーザ領域の位置とに基づいて、ゲームが成功したか否かを判断する。 According to a more preferred seventh aspect, the game program causes the computer to further function as a user image, as a detection means for detecting a user area indicating a user area in the image data. Whether or not the game is successful is determined based on the position of the displayed object and the position of the user area detected by the detecting means.
さらに好ましい第8の局面によれば、認識結果反映手段は、撮像手段により撮像される画像とは異なる態様でユーザ領域を表示させる。 According to a further preferred eighth aspect, the recognition result reflecting means displays the user area in a manner different from the image picked up by the image pickup means.
この第8の局面によれば、ユーザがゲームをプレイ中には、撮像手段により取得されるユーザの表情などが表示されないので、ユーザは撮像されていることを意識することなく、ゲームをプレイすることができる。その結果、ゲームをプレイ中のユーザの自然な表情を写した画像データを取得することができる。 According to the eighth aspect, since the user's facial expression acquired by the imaging means is not displayed while the user is playing the game, the user plays the game without being aware that the image is being captured. be able to. As a result, it is possible to acquire image data showing a natural expression of the user who is playing the game.
より好ましい第9の局面によれば、検出手段は、画像データ内の肌色領域を検出する肌色領域検出手段を含み、ゲーム進行手段は、ゲーム演出に応じて表示されるオブジェクトの位置と、肌色領域検出手段により検出される肌色領域の位置とに基づいて、ゲームが成功したか否かを判断する。 According to a more preferable ninth aspect, the detection means includes a skin color area detection means for detecting a skin color area in the image data, and the game progress means includes the position of the object displayed according to the game effect, and the skin color area. Based on the position of the skin color area detected by the detecting means, it is determined whether or not the game is successful.
この第9の局面によれば、撮像手段がユーザの肌を撮像していることをより確実に判断することができるので、ユーザ以外の被写体による誤検出を防止することができる。 According to the ninth aspect, it is possible to more reliably determine that the imaging unit is imaging the user's skin, so that erroneous detection by subjects other than the user can be prevented.
より好ましい第10の局面によれば、肌色領域検出手段は、撮像手段により所定周期で取得される画像データに対して肌色領域の検出を逐次行ない、ゲームプログラムは、コンピュータを、ゲーム進行中に肌色領域検出手段により検出された肌色領域を表示させる認識結果反映手段としてさらに機能させる。 According to a more preferable tenth aspect, the skin color area detecting means sequentially detects the skin color area with respect to the image data acquired by the imaging means in a predetermined cycle, and the game program causes the computer to perform the skin color while the game is in progress. It further functions as a recognition result reflecting means for displaying the skin color area detected by the area detecting means.
この第10の局面によれば、ユーザは、自身を撮像して得られる画像データに対して検出される肌色領域を確認しながらゲームをプレイすることができる。 According to the tenth aspect, the user can play the game while confirming the skin color area detected for the image data obtained by imaging the user.
より好ましい第11の局面によれば、認識結果反映手段は、撮像手段により撮像される画像とは異なる態様で肌色領域を表示させる。 According to a more preferred eleventh aspect, the recognition result reflecting means displays the skin color area in a manner different from the image picked up by the image pickup means.
この第11の局面によれば、ユーザがゲームをプレイ中には、撮像手段により取得されるユーザの表情などが表示されないので、ユーザは撮像されていることを意識することなく、ゲームをプレイすることができる。その結果、ゲームをプレイ中のユーザの自然な表情を写した画像データを取得することができる。 According to the eleventh aspect, while the user is playing the game, the user's facial expression or the like acquired by the imaging means is not displayed, so the user plays the game without being conscious of being imaged. be able to. As a result, it is possible to acquire image data showing a natural expression of the user who is playing the game.
好ましい第12の局面によれば、ゲームプログラムは、コンピュータを、さらに、ユーザ画像として、画像データ内の人間の顔領域を検出する顔領域検出手段(122)として機能させる。ゲーム進行手段は、ゲーム演出に応じて表示されるオブジェクトの位置と、顔領域検出手段により検出される人間の顔領域の位置とに基づいて、ゲームが成功したか否かを判断する。 According to a preferred twelfth aspect, the game program further causes the computer to function as a face area detecting means (122) for detecting a human face area in the image data as a user image. The game progress means determines whether or not the game is successful based on the position of the object displayed in accordance with the game effect and the position of the human face area detected by the face area detection means.
この第12の局面によれば、人間の顔領域を特定するので、撮像手段がユーザの顔を撮像していることをより確実に判断することができる。これにより、ユーザ以外の被写体による誤検出を防止することができる。 According to the twelfth aspect, since the human face area is specified, it can be more reliably determined that the imaging means is imaging the user's face. Thereby, erroneous detection by a subject other than the user can be prevented.
好ましい第13の局面によれば、ゲームプログラムは、コンピュータを、さらに、ユーザの存在を検出する存在検出手段として機能させ、ゲーム進行手段は、存在検出手段によりユーザの存在が検出されているときに、ゲームが成功したか否かを判断する。 According to a preferred thirteenth aspect, the game program further causes the computer to function as presence detection means for detecting the presence of the user, and the game progress means is configured to detect when the presence of the user is detected by the presence detection means. Determine if the game was successful.
この第13の局面によれば、ユーザがゲーム装置の前に存在しない場合に、誤判定によりゲームが進行することを回避することができる。 According to the thirteenth aspect, when the user does not exist in front of the game device, it is possible to avoid the game from proceeding due to an erroneous determination.
好ましい第14の局面によれば、表示制御手段は、ゲーム開始からゲーム終了までの間、当該ゲームが成功したと決定するための条件を含む複数の異なる条件が満足される毎に、画像データをそれぞれ記憶し、表示制御手段は、撮像手段により撮像された複数の画像データを所定の順序で切換えて表示させる。 According to a preferred fourteenth aspect, the display control means outputs the image data each time a plurality of different conditions are satisfied from the start of the game to the end of the game, including a condition for determining that the game is successful. Each of them is stored, and the display control means switches and displays the plurality of image data picked up by the image pickup means in a predetermined order.
この第14の局面によれば、ゲームが成功した周辺におけるユーザの表情などだけでなく、ゲームをプレイ中の一連のユーザの表情などを適宜撮像することができる。そのため、ゲーム終了後には、ゲームをプレイ中のユーザの一連の表情を動画像ライクに表示させることができ、ユーザの意外なあるいは面白みのなる表情などを見て楽しむことができる。 According to the fourteenth aspect, not only the facial expressions of the users in the vicinity where the game is successful, but also a series of facial expressions of the users who are playing the game can be appropriately imaged. For this reason, after the game is over, a series of facial expressions of the user who is playing the game can be displayed on the moving image-like, and the user can enjoy watching the unexpected or interesting facial expressions of the user.
好ましい第15の局面によれば、表示制御手段は、撮像手段により撮像された画像データに所定のオブジェクトを重ねて表示させる。 According to a preferred fifteenth aspect, the display control means causes a predetermined object to be displayed superimposed on the image data picked up by the image pickup means.
この第15の局面によれば、ゲーム終了後において、何らかの意味を持たせたオブジェクトを画像データに重ねて表示されるので、ゲームをプレイ中のユーザの表情そのものではなく、ユーザの表情を利用した各種の表現で楽しむことができる。 According to the fifteenth aspect, after the game is over, an object having some meaning is displayed superimposed on the image data, so the user's facial expression is used instead of the facial expression of the user who is playing the game. You can enjoy with various expressions.
より好ましい第16の局面によれば、表示制御手段は、画像データが記憶されたときのゲーム演出に対応するオブジェクトを当該画像データに重ねて表示させる。 According to a more preferable sixteenth aspect, the display control means causes an object corresponding to the game effect when the image data is stored to be superimposed on the image data.
この第16の局面によれば、ゲーム終了後に、画像データが記憶されたときのゲーム演出を再現した画像で楽しむことができる。 According to the sixteenth aspect, after the game is over, the user can enjoy an image that reproduces the game effect when the image data is stored.
あるいは、より好ましい第17の局面によれば、表示制御手段は、画像データが記憶されたときのゲーム演出とは独立したオブジェクトを当該画像データに重ねて表示させる。 Alternatively, according to a more preferred seventeenth aspect, the display control means causes an object independent of the game effect when the image data is stored to be superimposed on the image data.
この第17の局面によれば、ゲームをプレイ中のユーザの表情を利用して、全く別の意味を与えた表現を行なうことができる。 According to the seventeenth aspect, it is possible to perform an expression having a completely different meaning using the expression of the user who is playing the game.
より好ましい第18の局面によれば、ゲームプログラムは、コンピュータを、さらに、ゲームの進行中および撮像手段により撮像された画像データに基づく画像の表示中にオブジェクトを表示手段に表示させるオブジェクト表示手段として機能させ、オブジェクト表示手段は、ゲームの進行中に表示したオブジェクトの位置に当該オブジェクトを別のオブジェクトに入れ替えて、撮像手段により取得された画像データに基づく画像の表示中に表示させる。 According to a more preferable eighteenth aspect, the game program further comprises a computer as an object display unit that causes the display unit to display an object while the game is in progress and during the display of an image based on the image data captured by the imaging unit. The object display means replaces the object with another object at the position of the object displayed while the game is in progress, and displays it while displaying an image based on the image data acquired by the imaging means.
この第18の局面によれば、ゲーム中に表示されたオブジェクトとは異なるオブジェクトを、ゲーム中に取得された画像データと合わせて表示することで、ゲーム中に意味していたオブジェクトに与えられている意味とは異なる意味をもつ画像を表示することができる。 According to the eighteenth aspect, an object different from the object displayed during the game is displayed together with the image data acquired during the game, thereby giving the object meant during the game. An image having a different meaning from the existing meaning can be displayed.
より好ましい第19の局面によれば、ゲームプログラムは、コンピュータを、さらに、ゲームの進行中および撮像手段により撮像された画像データに基づく画像の表示中にオブジェクトを表示手段に表示させるオブジェクト表示手段として機能させ、オブジェクト表示手段は、ゲームの進行中に表示したオブジェクトとは関連しないオブジェクトを撮像手段により撮像された画像データに基づく画像の表示中に表示させる。 According to a more preferable nineteenth aspect, the game program further includes a computer as an object display unit that causes the display unit to display an object while the game is in progress and during the display of an image based on the image data captured by the imaging unit. The function display means causes the object display means to display an object not related to the object displayed during the game while the image based on the image data picked up by the image pickup means is being displayed.
この第19の局面によれば、ゲーム中に表示されたオブジェクトとは関連しないオブジェクトを、ゲーム中に取得された画像データと合わせて表示することで、ゲーム中に意味していたオブジェクトに与えられている意味とは関連しない、異なる意味をもつ画像を表示することができる。 According to the nineteenth aspect, an object that is not related to the object displayed during the game is displayed together with the image data acquired during the game, thereby giving the object that was meant during the game. It is possible to display an image having a different meaning that is not related to the existing meaning.
より好ましい第20の局面によれば、ゲーム進行手段は、予め定められた複数の段階において、各段階に対応付けられた成功条件に基づいてゲーム成功をそれぞれ判断することでゲームを進行し、ゲームプログラムは、コンピュータを、さらに、ゲームの進行に応じて、それぞれの段階に対応する成功条件に関連付けられたオブジェクトを切換えて表示手段に表示させるオブジェクト表示手段として機能させる。 According to a more preferable twentieth aspect, the game progress means advances the game by determining success of the game based on success conditions associated with each stage in a plurality of predetermined stages, The program causes the computer to further function as an object display unit that causes the display unit to switch objects associated with success conditions corresponding to the respective stages in accordance with the progress of the game.
この第20の局面によれば、ゲーム進行に応じて、様々な意味をもつ複数のオブジェクトを随時表示させることができる。 According to the twentieth aspect, a plurality of objects having various meanings can be displayed at any time as the game progresses.
より好ましい第21の局面によれば、ゲーム進行手段は、予め定められた複数の段階において、各段階に対応付けられた成功条件に基づいてゲーム成功をそれぞれ判断することでゲームを進行し、表示制御手段は、ゲーム進行中の複数の段階のそれぞれにおいて取得されて撮像手段に撮像された複数の画像データと、各画像データが取得された段階に対応付けられた成功条件に関連付けられたオブジェクトと、を合成した画像を表示させる。 According to a more preferable twenty-first aspect, the game progress means advances the game by determining success of the game based on success conditions associated with each stage in a plurality of predetermined stages, and displays the game. The control means includes a plurality of image data acquired at each of a plurality of stages in progress of the game and picked up by the image pickup means, an object associated with a success condition associated with the stage at which each image data is acquired, and , And the synthesized image is displayed.
この第21の局面によれば、一連のゲームのプレイ中に取得されたユーザの姿を写した複数の画像データを、それぞれの画像が取得されたシチュエーションに応じたオブジェクトを付加した表現を行なうことができる。 According to the twenty-first aspect, a plurality of pieces of image data representing a user's appearance acquired during a series of game play are added with an object corresponding to the situation in which each image is acquired. Can do.
より好ましい第22の局面によれば、ゲーム進行手段は、予め定められた複数の段階において、各段階に対応付けられた成功条件に基づいてゲーム成功をそれぞれ判断することでゲームを進行し、表示制御手段は、ゲーム進行中の複数の段階のそれぞれにおいて取得されて記憶手段に記憶された複数の画像データを連続的に表示させる。 According to a more preferred twenty-second aspect, the game progress means advances the game by determining success of the game based on success conditions associated with each stage at a plurality of predetermined stages, and displays the game. The control means continuously displays the plurality of image data acquired at each of the plurality of stages during the game and stored in the storage means.
この第22の局面によれば、一連のゲームのプレイ中に取得されたユーザの姿を写した複数の画像データを、動画像ライクに表示することができ、ユーザの意外なあるいは面白みのなる表情などを見て楽しむことができる。 According to the twenty-second aspect, a plurality of image data representing the user's appearance obtained during a series of game play can be displayed on the moving image like expression, and the user's unexpected or interesting expression You can enjoy watching.
この発明の第23の局面によれば、ユーザを撮像するように適合された撮像部(23)と、表示部(12,22)と、演算処理部(31)とを含むゲーム装置(100)を提供する。演算処理部は、撮像部により取得される画像データに含まれるユーザ画像に基づくゲームの進行と、少なくとも、ユーザ画像が予め定められた条件を満足した場合に、撮像部により取得される画像データに基づく画像の表示部での表示とを実行可能である。 According to a twenty-third aspect of the present invention, a game device (100) including an image pickup unit (23) adapted to pick up an image of a user, a display unit (12, 22), and an arithmetic processing unit (31). I will provide a. The arithmetic processing unit converts the image data acquired by the imaging unit when the game progresses based on the user image included in the image data acquired by the imaging unit and at least the user image satisfies a predetermined condition. It is possible to execute display on the display unit of the image based on it.
この第23の局面によれば、本ゲーム装置によって提供されるゲームをユーザがプレイしているあるタイミングにおける、当該ユーザの姿を写した画像データを取得することができる。すなわち、ユーザを撮像して得られる画像データに対して人体認識の結果が予め定められた条件を満足したタイミングで、ゲームをプレイ中のユーザを撮像することができる。そして、ゲーム終了後に、これらの画像データを表示することで、ゲームをプレイ中のユーザの意外なあるいは面白みのなる表情などを見て楽しむことができる。 According to the twenty-third aspect, it is possible to acquire image data showing the appearance of the user at a certain timing when the user is playing the game provided by the game device. That is, a user who is playing a game can be imaged at a timing when the result of human body recognition satisfies predetermined conditions for image data obtained by imaging the user. Then, by displaying these image data after the game is over, it is possible to enjoy watching an unexpected or interesting expression of the user who is playing the game.
上述の記載においては、本発明の理解を助けるために後述の実施形態との対応関係を示すための参照符号および補足説明等を付したが、これらは本発明を何ら限定するものではない。 In the above description, in order to help understanding of the present invention, reference numerals and supplementary explanations for indicating correspondence with the embodiments described later are given, but these do not limit the present invention.
この発明によれば、ユーザは、自身を撮像して得られる画像データに基づいてゲームを進行させて楽しむことができるとともに、ゲームをプレイ中の自身の表情などを見て楽しむこともできる。 According to the present invention, the user can enjoy the game while proceeding based on the image data obtained by imaging himself / herself, and can also enjoy watching his / her facial expression while playing the game.
この発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.
本発明に係るゲーム装置(コンピュータ)の代表例として、以下では、携帯型のゲーム装置100について説明する。ゲーム装置100は、撮像手段(もしくは、撮像部)および表示手段(もしくは、表示部)を利用可能である。また、本発明に係るゲームプログラムの一例として、コンピュータであるゲーム装置100で実行されるゲームプログラムについて説明する。なお、本発明に係るコンピュータは、ゲーム装置に限定されることはなく、各種アプリケーションを実行可能なパーソナルコンピュータとして実現してもよい。さらに、本発明に係るゲームプログラムは、パーソナルコンピュータ上で実行される各種アプリケーションの一部の機能として組み込まれてもよい。 As a representative example of the game apparatus (computer) according to the present invention, a portable game apparatus 100 will be described below. The game apparatus 100 can use an imaging unit (or an imaging unit) and a display unit (or a display unit). In addition, as an example of the game program according to the present invention, a game program that is executed by the game device 100 that is a computer will be described. The computer according to the present invention is not limited to a game device, and may be realized as a personal computer capable of executing various applications. Furthermore, the game program according to the present invention may be incorporated as a partial function of various applications executed on the personal computer.
<用語>
本明細書において「利用可能な」とは、撮像手段(もしくは、撮像部)および表示手段(もしくは、表示部)などのデバイスがコンピュータ(典型的には、ゲーム装置100)と有線または無線で接続されており、データ通信が可能であることを意味する。このとき、撮像手段(もしくは、撮像部)および表示手段(もしくは、表示部)などのデバイスは、ゲーム装置100と一体構成されてもよいし、別体であってもよい。
<Terminology>
In this specification, “available” means that a device such as an imaging unit (or imaging unit) and a display unit (or display unit) is connected to a computer (typically, the game apparatus 100) in a wired or wireless manner. It means that data communication is possible. At this time, devices such as an imaging unit (or imaging unit) and a display unit (or display unit) may be integrated with the game apparatus 100 or may be separate.
<外観>
図1および図2は、この発明の実施の形態に従うゲーム装置100の外観図である。
<Appearance>
1 and 2 are external views of game device 100 according to the embodiment of the present invention.
図1および図2を参照して、本実施の形態に従うゲーム装置100は、折り畳み型の携帯ゲーム装置である。図1は、開いた状態(開状態)のゲーム装置100を示し、図2は、閉じた状態(閉状態)のゲーム装置100を示す。ゲーム装置100は、開いた状態においてもユーザが両手または片手で把持することができるようなサイズで構成される。 Referring to FIGS. 1 and 2, game device 100 according to the present embodiment is a foldable portable game device. FIG. 1 shows the game apparatus 100 in an open state (open state), and FIG. 2 shows the game apparatus 100 in a closed state (closed state). The game apparatus 100 is configured in a size that allows the user to hold it with both hands or one hand even in an open state.
ゲーム装置100は、第1ハウジング11および第2ハウジング21を有する。第1ハウジング11と第2ハウジング21とは、開閉可能(折り畳み可能)に連結されている。図1に示す例では、第1ハウジング11および第2ハウジング21は、それぞれ長方形の板状に形成され、互いの長辺部分でヒンジによって回転可能に連結されている。 The game apparatus 100 includes a first housing 11 and a second housing 21. The first housing 11 and the second housing 21 are connected so as to be openable and closable (foldable). In the example shown in FIG. 1, the first housing 11 and the second housing 21 are each formed in a rectangular plate shape, and are connected to each other by a hinge at their long side portions.
通常、ユーザがゲーム装置100を使用する場合には、ゲーム装置100は開状態におかれる。一方、ユーザがゲーム装置100を使用しない場合には、ゲーム装置100は閉状態におかれる。ゲーム装置100では、第1ハウジング11と第2ハウジング21とのなす角度を、閉位置(略0度)と開位置(略180度)との間に必要に応じて維持することもできる。すなわち、第1ハウジング11を第2ハウジング21に対して任意の角度で静止させることができる。この際、第1ハウジング11と第2ハウジング21との連結部分に発生する摩擦力などを用いることができる。摩擦力に加えて、あるいは摩擦力に代えて、第1ハウジング11と第2ハウジング21との連結部にラッチ機構を採用してもよい。 Normally, when the user uses game device 100, game device 100 is in an open state. On the other hand, when the user does not use game device 100, game device 100 is placed in a closed state. In the game apparatus 100, the angle formed by the first housing 11 and the second housing 21 can be maintained between the closed position (approximately 0 degrees) and the open position (approximately 180 degrees) as necessary. That is, the first housing 11 can be stationary at an arbitrary angle with respect to the second housing 21. At this time, it is possible to use a frictional force or the like generated at a connection portion between the first housing 11 and the second housing 21. In addition to the friction force or instead of the friction force, a latch mechanism may be employed at the connecting portion between the first housing 11 and the second housing 21.
第1ハウジング11には、表示部(表示手段)として、第1LCD(Liquid Crystal Display:液晶表示装置)12が設けられる。第1LCD12は長方形状であり、その長辺方向が第1ハウジング11の長辺方向に一致するように配置される。なお、本実施の形態では、表示部(表示手段)としてLCDを採用した場合を示すが、たとえばEL(Electro Luminescence:電界発光)を利用した表示装置といった、他の適切な表示装置を採用してもよい。また、表示部(表示手段)の解像度は、実行されるアプリケーションなどに応じて適切に設計することができる。 The first housing 11 is provided with a first LCD (Liquid Crystal Display) 12 as a display unit (display means). The first LCD 12 has a rectangular shape and is arranged such that the long side direction thereof coincides with the long side direction of the first housing 11. In this embodiment, an LCD is used as the display unit (display unit). However, for example, another appropriate display device such as a display device using EL (Electro Luminescence) is adopted. Also good. Further, the resolution of the display unit (display unit) can be appropriately designed according to the application to be executed.
第1ハウジング11には、入力部(入力手段)として、ゲーム装置100に対する各種操作を行なうためのボタン14A〜14Kが設けられる。ボタン14A〜14Kのうち、方向入力ボタン14A、操作ボタン14B、操作ボタン14C、操作ボタン14D、操作ボタン14E、電源ボタン14F、スタートボタン14G、およびセレクトボタン14Hは、第1ハウジング11と第2ハウジング21とを折り畳んだときに内側となる、第1ハウジング11の内側主面上に設けられる。 The first housing 11 is provided with buttons 14 </ b> A to 14 </ b> K for performing various operations on the game apparatus 100 as an input unit (input unit). Among the buttons 14A to 14K, the direction input button 14A, the operation button 14B, the operation button 14C, the operation button 14D, the operation button 14E, the power button 14F, the start button 14G, and the select button 14H are the first housing 11 and the second housing. 21 is provided on the inner main surface of the first housing 11 which is the inner side when folded.
すなわち、図1に示す配置例では、方向入力ボタン14Aおよび電源ボタン14Fは、第1ハウジング11の内側主面中央付近に設けられる第1LCD12に対して、左右一方側(図1では紙面左側)の主面上に設けられる。ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、第1LCD12に対して左右他方側(図1では紙面右側)となる第1ハウジング11の内側主面上に設けられる。 That is, in the arrangement example shown in FIG. 1, the direction input button 14 </ b> A and the power button 14 </ b> F are on one side of the left and right sides (left side in FIG. 1) with respect to the first LCD 12 provided near the center of the inner main surface of the first housing 11. Provided on the main surface. The buttons 14 </ b> B to 14 </ b> E, the start button 14 </ b> G, and the select button 14 </ b> H are provided on the inner main surface of the first housing 11 that is the left and right other side (the right side in FIG. 1) with respect to the first LCD 12.
Lボタン14Iは、第1ハウジング11の紙面上側面の左端部に設けられ、Rボタン14Jは、第1ハウジング11の紙面上側面の右端部に設けられる。また、音量ボタン14Kは、第1ハウジング11の左側面に設けられる。 The L button 14 </ b> I is provided at the left end of the upper surface of the first housing 11, and the R button 14 </ b> J is provided at the right end of the upper surface of the first housing 11. The volume button 14 </ b> K is provided on the left side surface of the first housing 11.
方向入力ボタン14A、Lボタン14I、およびRボタン14Jは、たとえば選択操作等に用いられる。ボタン14B〜14Eは、たとえば決定操作やキャンセル操作等に用いられる。電源ボタン14Fは、ゲーム装置100の電源をオン/オフするために用いられる。音量ボタン14Kは、ゲーム装置100に搭載されるスピーカの音量を調整するために用いられる。 Direction input button 14A, L button 14I, and R button 14J are used, for example, for a selection operation. The buttons 14B to 14E are used, for example, for a determination operation or a cancel operation. The power button 14F is used to turn on / off the power of the game apparatus 100. The volume button 14K is used to adjust the volume of a speaker mounted on the game apparatus 100.
ゲーム装置100は、ボタン14A〜14Kとは別の入力部(入力手段)として、タッチパネル13をさらに有している。タッチパネル13は、第1LCD12の画面上を覆うように装着され、ユーザによる入力操作が行なわれた場合に、その座標を検出する。すなわち、タッチパネル13は、第1LCD12の表示面と対応付けて配置される。 The game apparatus 100 further includes a touch panel 13 as an input unit (input unit) different from the buttons 14A to 14K. The touch panel 13 is mounted so as to cover the screen of the first LCD 12, and detects the coordinates when an input operation is performed by the user. That is, the touch panel 13 is disposed in association with the display surface of the first LCD 12.
タッチパネル13としては、たとえば抵抗膜方式のタッチパネルを採用することができるが、抵抗膜方式に限らず、各種の押圧式のタッチパネルを採用することができる。また、タッチパネル13の解像度(検出精度)は、第1LCD12の解像度(表示精度)と同程度であることが好ましい。ただし、必ずしもタッチパネル13の解像度と第1LCD12の解像度とが一致している必要はない。 As the touch panel 13, for example, a resistive film type touch panel can be adopted, but not limited to the resistive film type, various press-type touch panels can be adopted. The resolution (detection accuracy) of the touch panel 13 is preferably approximately the same as the resolution (display accuracy) of the first LCD 12. However, the resolution of the touch panel 13 and the resolution of the first LCD 12 do not necessarily match.
第1ハウジング11の紙面右側の側面には、タッチペン27の挿入口(図1では、破線で示している)が設けられている。この挿入口には、タッチパネル13に対する入力操作を行なうために用いられるタッチペン27を収納することができる。なお、タッチパネル13に対する入力操作は、通常、タッチペン27を用いて行われるが、タッチペン27に代えて、ユーザの指などでタッチパネル13に対する入力操作を行なうことも可能である。 An insertion port (shown by a broken line in FIG. 1) of the touch pen 27 is provided on the right side surface of the first housing 11. A touch pen 27 used for performing an input operation on the touch panel 13 can be accommodated in the insertion opening. Note that the input operation on the touch panel 13 is normally performed using the touch pen 27, but it is also possible to perform the input operation on the touch panel 13 with a user's finger or the like instead of the touch pen 27.
第1ハウジング11の紙面右側の側面には、さらに、メモリカード28を収納するための挿入口(図1では、二点鎖線で示している)が設けられている。この挿入口の内側には、ゲーム装置100とメモリカード28とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード28は、このコネクタに着脱自在に装着される。メモリカード28は、他の情報処理装置やゲーム装置から取得されたゲームプログラムや画像データの読出し、ならびに、ゲーム装置100によって撮影および/または画像処理された画像データの記憶(保存)などに用いられる。メモリカード28は、たとえばSD(Secure
Digital)カードなどの不揮発性記憶媒体からなる。
An insertion slot (indicated by a two-dot chain line in FIG. 1) for accommodating the memory card 28 is further provided on the right side surface of the first housing 11. A connector (not shown) for electrically connecting the game apparatus 100 and the memory card 28 is provided inside the insertion slot. The memory card 28 is detachably attached to this connector. The memory card 28 is used for reading game programs and image data acquired from other information processing devices and game devices, and storing (saving) image data taken and / or processed by the game device 100. . The memory card 28 is, for example, SD (Secure
Digital) It consists of non-volatile storage media such as cards.
第1ハウジング11の紙面上側の側面には、メモリカード29を収納するための挿入口(図1では、一点鎖線で示している)が設けられている。この挿入口の内側には、ゲーム装置100とメモリカード29とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード29は、このコネクタに着脱自在に装着される。メモリカード29は、ゲームプログラムなどを記憶する。 An insertion slot (indicated by a one-dot chain line in FIG. 1) for storing the memory card 29 is provided on the upper side surface of the first housing 11. A connector (not shown) for electrically connecting the game apparatus 100 and the memory card 29 is provided inside the insertion slot. The memory card 29 is detachably attached to this connector. The memory card 29 stores a game program and the like.
第1ハウジング11と第2ハウジング21との連結部の紙面左側には、3つのLED15A〜15Cが取り付けられる。ゲーム装置100は、後述するように、他の機器との間で無線通信を行なうことが可能であり、第1LED15Aは、ゲーム装置100の電源がオンである場合に点灯する。第2LED15Bは、ゲーム装置100の電池の状態(充電中や残量低下など)に応じて点灯する。第3LED15Cは、無線通信の状態に応じて点灯する。したがって、3つのLED15A〜15Cによって、ゲーム装置100の電源のオン/オフ状況、電池状況、無線通信状況をユーザに通知することができる。 Three LEDs 15 </ b> A to 15 </ b> C are attached to the left side of the connection portion between the first housing 11 and the second housing 21. As will be described later, game device 100 can perform wireless communication with other devices, and first LED 15A is lit when power to game device 100 is on. The second LED 15B is lit according to the state of the battery of the game apparatus 100 (charging, low battery level, etc.). The third LED 15C lights up according to the state of wireless communication. Therefore, the three LEDs 15A to 15C can notify the user of the power on / off status of the game apparatus 100, the battery status, and the wireless communication status.
第2ハウジング21には、表示部(表示手段)として、第2LCD22が設けられる。第2LCD22は長方形状であり、その長辺方向が第2ハウジング21の長辺方向に一致するように配置される。なお、第1LCD12と同様、LCDに代えて、他の適切な表示装置を採用してもよい。ゲーム装置100では、入力手段(入力部)としてのタッチパネルが第1LCD12の画面上を覆うように装着されている構成を採用しているが、さらに別のタッチパネルを第2LCD22の画面上に装着してもよい。 The second housing 21 is provided with a second LCD 22 as a display unit (display means). The second LCD 22 has a rectangular shape and is arranged so that the long side direction thereof coincides with the long side direction of the second housing 21. Similar to the first LCD 12, other appropriate display devices may be employed instead of the LCD. The game apparatus 100 employs a configuration in which a touch panel as an input unit (input unit) is mounted so as to cover the screen of the first LCD 12. However, another touch panel is mounted on the screen of the second LCD 22. Also good.
第2ハウジング21には、さらに、撮像手段(撮像装置)として、2つのカメラ(内側カメラ23および外側カメラ25)が設けられる。図1に示されるように、内側カメラ23は、第2ハウジング21の連結部付近の内側主面に取り付けられる。一方、図2に示さるように、外側カメラ25は、内側カメラ23が取り付けられる内側主面とは反対側の面、すなわち第2ハウジング21の外側主面(ゲーム装置100が閉状態となった場合に外側となる面に相当する)に取り付けられる。なお、図1においては、外側カメラ25を破線で示している。 The second housing 21 is further provided with two cameras (an inner camera 23 and an outer camera 25) as imaging means (imaging device). As shown in FIG. 1, the inner camera 23 is attached to the inner main surface near the connecting portion of the second housing 21. On the other hand, as shown in FIG. 2, the outer camera 25 is a surface opposite to the inner main surface to which the inner camera 23 is attached, that is, the outer main surface of the second housing 21 (the game apparatus 100 is in a closed state). It corresponds to the outer surface in the case). In FIG. 1, the outer camera 25 is indicated by a broken line.
このような配置位置によって、内側カメラ23は、第2ハウジング21の内側主面が向く方向を撮像することが可能である。すなわち、内側カメラ23は、ゲーム装置100を把持してプレイするユーザ自身を撮像するように適合されている。一方、外側カメラ25は、内側カメラ23の撮像方向の逆方向、すなわち第2ハウジング21の外側主面が向く方向を撮像することが可能である。 With such an arrangement position, the inner camera 23 can image the direction in which the inner main surface of the second housing 21 faces. That is, the inner camera 23 is adapted to take an image of a user who holds and plays the game apparatus 100. On the other hand, the outer camera 25 can capture an image in the direction opposite to the imaging direction of the inner camera 23, that is, the direction in which the outer main surface of the second housing 21 faces.
ゲーム装置100の連結部の内部には、音声入力装置として、マイク(図3に示すマイク43)が収納されている。そして、ゲーム装置100の連結部付近の内側主面には、マイク43がゲーム装置100の周囲の音を検知するためのマイク用孔16が設けられる。なお、マイク43を収納する位置およびマイク用孔16の位置は、ゲーム装置100の連結部である必要はなく、たとえば、マイク43を第1ハウジング11内に収納し、マイク用孔16を第1ハウジング11上のマイク43の収納位置に対応する位置に設けてもよい。 A microphone (a microphone 43 shown in FIG. 3) is housed in the connecting portion of the game apparatus 100 as a voice input device. A microphone hole 16 for the microphone 43 to detect sounds around the game device 100 is provided on the inner main surface near the connecting portion of the game device 100. Note that the position where the microphone 43 is accommodated and the position of the microphone hole 16 do not need to be a connecting portion of the game apparatus 100. For example, the microphone 43 is accommodated in the first housing 11 and the microphone hole 16 is the first hole. You may provide in the position corresponding to the accommodation position of the microphone 43 on the housing 11. FIG.
第2ハウジング21の外側主面には、外側カメラ25と近接した位置に、第4LED26(図2)が設けられる。第4LED26は、外側カメラ25による撮像状態に応じて点灯する。すなわち、第4LED26は、ゲーム装置100により撮像が行われていることを被写界に存在する人やその周囲の人に通知する。より具体的には、第4LED26は、外側カメラ25によって撮像が行われている間点灯する。また、外側カメラ25によって動画が取得されている(撮像された画像データが連続的に記憶されている)間は、第4LED26を点滅させてもよい。なお、点灯によって発せられた光が撮像される画面に映り込むことを防ぐために、カメラによる撮影が指示された後、当該指示によってカメラによって取得された画像データのメモリなどへの記憶が完了するまでの間は、第4LED26を消灯状態にしてもよい。 A fourth LED 26 (FIG. 2) is provided on the outer main surface of the second housing 21 at a position close to the outer camera 25. The fourth LED 26 is turned on according to the imaging state of the outer camera 25. In other words, the fourth LED 26 notifies the person existing in the object scene and the surrounding people that the game apparatus 100 is imaging. More specifically, the fourth LED 26 is lit while the outer camera 25 is imaging. Further, the fourth LED 26 may blink while the moving image is acquired by the outer camera 25 (the captured image data is continuously stored). In order to prevent the light emitted by the lighting from being reflected on the screen to be imaged, until the shooting by the camera is instructed, until the storage of the image data acquired by the camera in the memory or the like by the instruction is completed During this time, the fourth LED 26 may be turned off.
第2ハウジング21の内側主面の中央付近に設けられる第2LCD22に対して、左右両側の主面に音抜き孔24がそれぞれ設けられる。音抜き孔24と連通する第2ハウジング21内部には、音声出力装置として、スピーカ(図3に示すスピーカ45)が収納されている。すなわち、音抜き孔24は、スピーカ45で発せられた音をゲーム装置100の外部へ導く。 With respect to the second LCD 22 provided in the vicinity of the center of the inner main surface of the second housing 21, sound release holes 24 are respectively provided on the left and right main surfaces. A speaker (speaker 45 shown in FIG. 3) is housed in the second housing 21 communicating with the sound release hole 24 as an audio output device. That is, the sound release hole 24 guides the sound emitted from the speaker 45 to the outside of the game apparatus 100.
以上に説明したように、第1ハウジング11には、ゲーム装置100に対する操作入力を行なうための入力部(タッチパネル13およびボタン14A〜14K)と、各種画像を表示するための表示手段である第1LCD12とが設けられる。また、第2ハウジング21には、画像データを取得するため内側カメラ23および外側カメラ25と、各種画像を表示するための表示手段である第2LCD22とが設けられる。 As described above, in the first housing 11, the input unit (touch panel 13 and buttons 14 </ b> A to 14 </ b> K) for performing operation input to the game apparatus 100 and the first LCD 12 which is a display unit for displaying various images. Are provided. The second housing 21 is provided with an inner camera 23 and an outer camera 25 for acquiring image data, and a second LCD 22 which is a display means for displaying various images.
<ゲーム装置の内部構成>
図3は、この発明の実施の形態に従うゲーム装置100の内部構成の一例を示すブロック図である。
<Internal configuration of game device>
FIG. 3 is a block diagram showing an example of the internal configuration of game device 100 according to the embodiment of the present invention.
図3を参照して、ゲーム装置100は、CPU31と、メインメモリ32と、メモリ制御回路33と、保存用データメモリ34と、プリセットデータ用メモリ35と、メモリカードインターフェース(メモリカードI/F)36および37と、無線通信モジュール38と、ローカル通信モジュール39と、リアルタイムクロック(RTC)40と、電源回路41と、インターフェース回路(I/F回路)42等との電子部品を有している。これらの電子部品は、電子回路基板上に実装されて、第1ハウジング11(あるいは、第2ハウジング21)内に収納される。 Referring to FIG. 3, game device 100 includes CPU 31, main memory 32, memory control circuit 33, storage data memory 34, preset data memory 35, and memory card interface (memory card I / F). 36, 37, a wireless communication module 38, a local communication module 39, a real time clock (RTC) 40, a power supply circuit 41, an interface circuit (I / F circuit) 42, and the like. These electronic components are mounted on an electronic circuit board and housed in the first housing 11 (or the second housing 21).
CPU31は、各種プログラムを実行する演算処理部である。CPU31は、ゲーム装置100内部のメモリ(典型的には、保存用データメモリ34)、メモリカード28、メモリカード29のいずれかに格納されているゲームプログラムをメインメモリ32に展開して実行する。CPU31のゲームプログラムの実行により、後述する本実施の形態に従う各種処理が提供される。後述するように、本実施の形態に従うゲームプログラムは、典型的に、ネットワーク接続された配信サーバ装置などから、有線または無線の通信回線を通じて、ゲーム装置100に供給される。このゲーム装置100に供給されたゲームプログラムは、保存用データメモリ34に格納される。 The CPU 31 is an arithmetic processing unit that executes various programs. The CPU 31 expands and executes a game program stored in any of the memory (typically, the storage data memory 34), the memory card 28, and the memory card 29 inside the game apparatus 100 in the main memory 32. Execution of the game program of the CPU 31 provides various processes according to the present embodiment to be described later. As will be described later, the game program according to the present embodiment is typically supplied to game device 100 through a wired or wireless communication line from a distribution server device connected to the network or the like. The game program supplied to the game apparatus 100 is stored in the storage data memory 34.
また、CPU31は、もっぱら第1LCD12および第2LCD22での表示を制御するための不図示のVRAM(Video Random Access Memory)を有する。このVRAMには、後述する各種画像を表示するための画像データなどが一時的に記憶される。なお、このVRAMには、メインメモリ32に記憶されているデータが転送され、もしくは保存用データメモリ34に格納されているファイル(データ)などが直接的に読出されて、その内容が書込まれる。 In addition, the CPU 31 has a VRAM (Video Random Access Memory) (not shown) for controlling display on the first LCD 12 and the second LCD 22 exclusively. This VRAM temporarily stores image data for displaying various images described later. The data stored in the main memory 32 is transferred to the VRAM, or the file (data) stored in the storage data memory 34 is directly read and the contents are written. .
図4は、この発明の実施の形態に従うゲーム装置100へのゲームプログラムの提供形態を示す図である。 FIG. 4 is a diagram showing a form in which a game program is provided to game device 100 according to the embodiment of the present invention.
図4を参照して、本実施の形態に従うゲームプログラムを配信する典型的なシステムは、インターネットなどのネットワークNWに接続された配信サーバ装置SRVと、ゲーム装置100のネットワークNWへの無線通信を仲介するアクセスポイントAPとを含む。配信サーバ装置SRVは、本実施の形態に従うゲームプログラムを含む複数のゲームプログラムをダウンロード可能な状態に保持しており、ゲーム装置100などからのアクセスに応じて、所定の手続きを経た後に、要求されたゲームプログラムの送信(ダウンロード)を開始する。 Referring to FIG. 4, a typical system for distributing a game program according to the present embodiment mediates wireless communication between distribution server device SRV connected to network NW such as the Internet and network NW of game device 100. Access point AP. Distribution server SRV holds a plurality of game programs including a game program according to the present embodiment in a downloadable state, and is requested after a predetermined procedure in response to access from game device 100 or the like. Start sending (downloading) the game program.
アクセスポイントAPは、ネットワークNWに有線接続されるとともに、無線通信モジュール38(図3)との間で無線接続を確立する。ゲーム装置100は、このアクセスポイントAPを介して、配信サーバ装置SRVへアクセスを行なう。そして、上述のように、配信サーバ装置SRVから配信されるゲームプログラムを受信すると、ゲーム装置100のCPU31は、その受信したゲームプログラムを保存用データメモリ34などに格納する。このゲーム装置100の保存用データメモリ34に一旦格納されたゲームプログラムは、原則として、ゲーム装置100の外部へ移動することが禁止される。そのため、ゲーム装置100内に一旦取り込まれたゲームプログラムは、当該ゲーム装置100においてのみ実行されることになるので、当該ゲーム装置100の持ち主の使用実績や使用形態に応じて、各種設定やパラメータなどを当該ゲーム装置100独自にカスタマイズもしくはアレンジするようなことも可能となる。 The access point AP is wired to the network NW and establishes a wireless connection with the wireless communication module 38 (FIG. 3). Game device 100 accesses distribution server device SRV via this access point AP. Then, as described above, when a game program distributed from distribution server device SRV is received, CPU 31 of game device 100 stores the received game program in storage data memory 34 or the like. The game program once stored in the storage data memory 34 of the game apparatus 100 is prohibited from moving outside the game apparatus 100 in principle. Therefore, since the game program once taken into the game apparatus 100 is executed only in the game apparatus 100, various settings, parameters, and the like are determined according to the use record and usage form of the owner of the game apparatus 100. Can be customized or arranged independently for the game apparatus 100.
なお、図4に示すようなネットワーク配信の構成に代えて、ゲームプログラムを格納したメモリカード28やメモリカード29を販売することで、ゲームプログラムを提供してもよい。この場合、本発明に係るゲームプログラムを格納する記憶媒体としては、メモリカード28やメモリカード29といった半導体記憶装置に限らず、CD−ROMやDVDなどの光学式記憶媒体でもよい。 Instead of the network distribution configuration as shown in FIG. 4, the game program may be provided by selling the memory card 28 or the memory card 29 storing the game program. In this case, the storage medium for storing the game program according to the present invention is not limited to the semiconductor storage device such as the memory card 28 or the memory card 29, but may be an optical storage medium such as a CD-ROM or DVD.
再度図3を参照して、CPU31には、メインメモリ32、メモリ制御回路33、およびプリセットデータ用メモリ35が接続される。また、メモリ制御回路33には、保存用データメモリ34が接続される。 Referring to FIG. 3 again, main memory 32, memory control circuit 33, and preset data memory 35 are connected to CPU 31. In addition, a storage data memory 34 is connected to the memory control circuit 33.
メインメモリ32は、CPU31のワーク領域やバッファ領域として用いられる記憶手段である。すなわち、メインメモリ32は、各種処理に用いられるデータを一時的に記憶したり、保存用データメモリ34、メモリカード28、メモリカード29などから読出したゲームプログラムを展開して一時的に記憶したりする。本実施の形態では、メインメモリ32として、たとえばPSRAM(Pseudo-SRAM)を用いる。 The main memory 32 is a storage means used as a work area or buffer area for the CPU 31. That is, the main memory 32 temporarily stores data used for various processes, or develops and temporarily stores game programs read from the storage data memory 34, the memory card 28, the memory card 29, and the like. To do. In the present embodiment, for example, PSRAM (Pseudo-SRAM) is used as the main memory 32.
保存用データメモリ34は、CPU31によって実行されるゲームプログラムや内側カメラ23および外側カメラ25によって撮像される画像データなどを記憶する記憶手段である。保存用データメモリ34は、たとえば、NAND型フラッシュメモリなどの不揮発性記憶媒体からなる。メモリ制御回路33は、CPU31から指示に従って、保存用データメモリ34からのデータ読出し、および保存用データメモリ34へのデータ書込みを制御する回路である。 The storage data memory 34 is a storage unit that stores a game program executed by the CPU 31, image data captured by the inner camera 23 and the outer camera 25, and the like. The storage data memory 34 is composed of a nonvolatile storage medium such as a NAND flash memory, for example. The memory control circuit 33 is a circuit that controls data reading from the storage data memory 34 and data writing to the storage data memory 34 in accordance with instructions from the CPU 31.
プリセットデータ用メモリ35は、ゲーム装置100において予め設定される各種パラメータ等のデータ(プリセットデータ)を記憶する記憶手段である。プリセットデータ用メモリ35としては、SPI(Serial Peripheral Interface)バスによってCPU31
と接続されるフラッシュメモリを採用することができる。
The preset data memory 35 is storage means for storing data (preset data) such as various parameters set in advance in the game apparatus 100. The preset data memory 35 is a CPU 31 via an SPI (Serial Peripheral Interface) bus.
A flash memory connected to can be employed.
メモリカードI/F36および37は、それぞれCPU31に接続される。メモリカードI/F36は、コネクタに装着されたメモリカード28に対するデータの読出しおよび書込みを、CPU31の指示に応じて行なう。また、メモリカードI/F37は、コネクタに装着されたメモリカード29に対するデータの読出しおよび書込みを、CPU31の指示に応じて行なう。 Memory card I / Fs 36 and 37 are each connected to CPU 31. The memory card I / F 36 reads and writes data to and from the memory card 28 attached to the connector in accordance with instructions from the CPU 31. The memory card I / F 37 reads and writes data from and to the memory card 29 attached to the connector according to instructions from the CPU 31.
本実施の形態では、内側カメラ23および外側カメラ25によって取得された画像データや他の装置から取得された画像データは、メモリカードI/F36を介してメモリカード28へ書込まれ、メモリカード28に記憶された画像データは、メモリカードI/F36を介してメモリカード28から読出されて保存用データメモリ34へファイルとして書込まれる。また、メモリカード29に格納された各種プログラムは、メモリカードI/F37を介してメモリカード29から読出されてメインメモリ32へ書込まれる。 In the present embodiment, image data acquired by the inner camera 23 and the outer camera 25 and image data acquired from other devices are written to the memory card 28 via the memory card I / F 36, and the memory card 28. Is read from the memory card 28 via the memory card I / F 36 and written as a file in the storage data memory 34. Various programs stored in the memory card 29 are read from the memory card 29 via the memory card I / F 37 and written to the main memory 32.
無線通信モジュール38は、たとえばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール39は、所定の通信方式により同種のゲーム装置との間で無線通信を行なう機能を有する。無線通信モジュール38およびローカル通信モジュール39は、CPU31に接続される。CPU31は、無線通信モジュール38を用いてインターネットなどのネットワーク回線を介して他の機器との間でデータを送受信したり、ローカル通信モジュール39を用いて同種の他のゲーム装置との間でデータを送受信したりすることができる。 The wireless communication module 38 is, for example, IEEE 802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard. The local communication module 39 has a function of performing wireless communication with the same type of game device by a predetermined communication method. The wireless communication module 38 and the local communication module 39 are connected to the CPU 31. The CPU 31 transmits / receives data to / from other devices via a network line such as the Internet using the wireless communication module 38, and transmits / receives data to / from other game devices of the same type using the local communication module 39. You can send and receive.
さらに、CPU31には、RTC40および電源回路41が接続される。RTC40は、時間をカウントしてCPU31に出力する。たとえば、CPU31は、RTC40によって計時された時間に基づいて、現在時刻(日付)等を計算することもできる。電源回路41は、ゲーム装置100が有する電源(典型的には電池であり、第1ハウジング11に収納される)から供給される電力を制御し、ゲーム装置100の各部品に電力を供給する。 Further, an RTC 40 and a power supply circuit 41 are connected to the CPU 31. The RTC 40 counts the time and outputs it to the CPU 31. For example, the CPU 31 can calculate the current time (date) based on the time counted by the RTC 40. The power supply circuit 41 controls power supplied from a power supply (typically a battery, which is stored in the first housing 11) of the game apparatus 100, and supplies power to each component of the game apparatus 100.
ゲーム装置100は、さらに、CPU31に接続されたI/F回路42を有している。I/F回路42には、マイク43、アンプ44、タッチパネル13が接続される。I/F回路42は、マイク43ならびにアンプ44(および、スピーカ45)の制御を行なう音声制御回路と、タッチパネル13の制御を行なうタッチパネル制御回路とを含む。 Game device 100 further includes an I / F circuit 42 connected to CPU 31. A microphone 43, amplifier 44, and touch panel 13 are connected to the I / F circuit 42. I / F circuit 42 includes a voice control circuit that controls microphone 43 and amplifier 44 (and speaker 45), and a touch panel control circuit that controls touch panel 13.
マイク43は、ゲーム装置100に向かって発声されたユーザの音声などを検知して、検知した音声を示す音声信号をI/F回路42に出力する。アンプ44は、I/F回路42からの音声信号を増幅してスピーカ45から出力させる。すなわち、I/F回路42に含まれる音声制御回路は、マイク43で検知された音声信号に対するA/D変換を行なって、その結果をCPU31へ出力するとともに、CPU31などで生成された信号に対するD/A変換を行なって、その結果をアンプ44へ出力する。さらに、音声制御回路は、音声信号を記憶に適した所定形式の音声データに変換する。 The microphone 43 detects a user's voice or the like uttered toward the game apparatus 100, and outputs a voice signal indicating the detected voice to the I / F circuit 42. The amplifier 44 amplifies the audio signal from the I / F circuit 42 and outputs it from the speaker 45. That is, the audio control circuit included in the I / F circuit 42 performs A / D conversion on the audio signal detected by the microphone 43, outputs the result to the CPU 31, and outputs D to the signal generated by the CPU 31 or the like. / A conversion is performed and the result is output to the amplifier 44. Furthermore, the audio control circuit converts the audio signal into audio data of a predetermined format suitable for storage.
また、I/F回路42に含まれるタッチパネル制御回路は、タッチパネル13からの検出信号に応じて、タッチ位置データを生成してCPU31に出力する。たとえば、タッチ位置データは、タッチパネル13の入力面に対して入力が行われた位置を示す座標値(以下、「入力座標」とも称する。)を含む。なお、タッチパネル制御回路は、タッチパネル13からの信号の読出し、および、タッチ位置データの生成を所定周期でサイクリックに実行する。CPU31は、I/F回路42(タッチパネル制御回路)を介して、タッチ位置データを取得することにより、ユーザによるタッチパネル13に対する入力操作が行われた入力座標を検出することができる。 Further, the touch panel control circuit included in the I / F circuit 42 generates touch position data according to the detection signal from the touch panel 13 and outputs the touch position data to the CPU 31. For example, the touch position data includes a coordinate value (hereinafter also referred to as “input coordinates”) indicating a position where an input is performed on the input surface of the touch panel 13. The touch panel control circuit cyclically executes reading of signals from the touch panel 13 and generation of touch position data at a predetermined cycle. The CPU 31 can detect input coordinates where an input operation is performed on the touch panel 13 by the user by acquiring touch position data via the I / F circuit 42 (touch panel control circuit).
ボタン14は、上述のボタン14A〜14Kを総称的に示すものであり、CPU31に接続される。ボタン14からCPU31へは、ボタン14A〜14Kについての入力状態(押下されたか否か)を示す操作データがそれぞれ出力される。CPU31は、ボタン14から操作データを取得することによって、ボタン14に対するユーザ操作に応じた処理を実行する。 The button 14 generically indicates the above-described buttons 14 </ b> A to 14 </ b> K and is connected to the CPU 31. Operation data indicating an input state (whether or not the button 14A to 14K is pressed) is output from the button 14 to the CPU 31. The CPU 31 acquires the operation data from the button 14 to execute processing corresponding to the user operation on the button 14.
内側カメラ23および外側カメラ25は、それぞれCPU31に接続される。内側カメラ23および外側カメラ25は、CPU31の指示に応じて撮像を行ない、撮像によって取得した画像データをCPU31に出力する。内側カメラ23および外側カメラ25の各々は、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)といった撮像素子と、撮像素子で取得された画像データを読出すための周辺回路とを含む。たとえば、CPU31は、内側カメラ23および外側カメラ25のいずれか一方に対して撮像を指示し、当該撮像の指示を受けたカメラが取得した画像データをCPU31に出力する。 The inner camera 23 and the outer camera 25 are each connected to the CPU 31. The inner camera 23 and the outer camera 25 perform imaging in accordance with an instruction from the CPU 31 and output image data acquired by the imaging to the CPU 31. Each of the inner camera 23 and the outer camera 25 includes an image sensor such as a charge coupled device (CCD) or a CMOS image sensor (CIS) and a peripheral circuit for reading image data acquired by the image sensor. For example, the CPU 31 instructs the inner camera 23 or the outer camera 25 to take an image, and outputs image data acquired by the camera that has received the imaging instruction to the CPU 31.
また、第1LCD12および第2LCD22は、いずれもCPU31に接続される。第1LCD12および第2LCD22は、CPU31からの指示に従ってそれぞれ画像を表示する。ある形態として、CPU31は、第1LCD12および第2LCD22の一方に、内側カメラ23または外側カメラ25で取得された画像を表示するとともに、第1LCD12および第2LCD22の他方に、ユーザからの操作の受付けおよび/またはユーザに対する操作説明のための画面(画像)を表示させる。 Further, both the first LCD 12 and the second LCD 22 are connected to the CPU 31. First LCD 12 and second LCD 22 each display an image in accordance with an instruction from CPU 31. As a form, the CPU 31 displays an image acquired by the inner camera 23 or the outer camera 25 on one of the first LCD 12 and the second LCD 22, and accepts an operation from the user on the other of the first LCD 12 and the second LCD 22. Alternatively, a screen (image) for explaining the operation to the user is displayed.
<アプリケーションの概要>
本実施の形態に従うゲームプログラムを実行することで提供されるアプリケーションの概要について説明する。本実施の形態に従うゲーム装置100では、ゲーム処理およびゲーム終了後の表示処理を含むアプリケーションが提供される。ゲーム処理としては、撮像部(典型的には、内側カメラ23)を用いて主としてユーザの顔や手などを撮像し、この撮像によって得られた画像データに含まれるユーザ画像に基づいてゲームが進行される。ここで、ユーザ画像とは、少なくとも、撮像部により取得された画像データのうち、ユーザが被写体として写っている領域を含む画像を意味する。より具体的には、ユーザ画像を特定するために、取得された撮像データに対して人体認識処理(典型的には、後述する肌色領域検出処理および/または顔認識処理)が実行される。そして、この認識結果(ユーザ画像)に基づいて、ゲーム進行に応じた所定の条件が満足されるか否かが順次判断され、この判断結果に基づいてゲームをどのように進行するかが決定される。また、後述するように、撮像部により取得された画像データに含まれるユーザ画像に加えて、マイク43により収集されるユーザの音声データに基づいて、ゲームを進行する場合もある。なお、本明細書において「ゲーム」とは、所定のシナリオに沿った一連のゲームである場合、および複数のミニゲームの集合体である場合を含む。
<Overview of application>
An overview of an application provided by executing a game program according to the present embodiment will be described. In game device 100 according to the present embodiment, an application including game processing and display processing after the game ends is provided. As the game processing, the user's face or hand is mainly imaged using an imaging unit (typically, the inner camera 23), and the game progresses based on the user image included in the image data obtained by this imaging. Is done. Here, the user image means an image including at least an area in which the user appears as a subject in the image data acquired by the imaging unit. More specifically, in order to specify a user image, a human body recognition process (typically a skin color area detection process and / or a face recognition process to be described later) is performed on the acquired imaging data. Then, based on the recognition result (user image), it is sequentially determined whether or not a predetermined condition corresponding to the progress of the game is satisfied, and it is determined how to proceed with the game based on the determination result. The Further, as will be described later, the game may be progressed based on the user's voice data collected by the microphone 43 in addition to the user image included in the image data acquired by the imaging unit. In the present specification, the “game” includes a case of a series of games according to a predetermined scenario and a case of a collection of a plurality of mini games.
本実施の形態に従うゲーム装置100では、このような一連のゲームの進行中に、ゲームを進行するための条件判定結果に関連して、あるいはそれとは独立して、撮像部によってユーザがプレイしている姿が適宜撮像される。このような撮像によって得られた画像データに基づく画像が、ゲームが進行中ではないとき(典型的には、一連のゲームが終了した後)に、表示部(典型的には、第2LCD22)に表示される。ユーザおよびその周囲にいる人は、この表示されるユーザのプレイ中の表情などを見て楽しむことができる。 In game device 100 according to the present embodiment, during the progress of such a series of games, the image is played by the user in association with or independently of the condition determination result for progressing the game. Appearance is captured as appropriate. An image based on the image data obtained by such imaging is displayed on the display unit (typically, the second LCD 22) when the game is not in progress (typically after a series of games is completed). Is displayed. The user and those around him can enjoy watching the displayed facial expressions of the user during play.
図5は、この発明の実施の形態に従うゲーム装置100をプレイ中のユーザの様子を示す模式図である。図5に示すように、典型的には、ゲーム装置100は机などの上に載置され、すなわち内側カメラ23の撮像範囲を固定した上で、ユーザ自身がその頭部、胴体部、手などをゲーム演出に応じて動かす。これにより、ゲーム装置100における認識結果(すなわち、取得される画像データに含まれるユーザ画像)が変化し、この変化する認識結果に基づいてゲーム進行の条件が満足されるか否かが逐次判断される。 FIG. 5 is a schematic diagram showing a state of the user who is playing game device 100 according to the embodiment of the present invention. As shown in FIG. 5, the game apparatus 100 is typically placed on a desk or the like, that is, the user himself / herself has its imaging area of the inner camera 23 fixed, and the user himself / herself has its head, trunk, hand, etc. Move according to the game production. Thereby, the recognition result in the game device 100 (that is, the user image included in the acquired image data) changes, and it is sequentially determined whether or not the game progress condition is satisfied based on the changed recognition result. The
図6は、この発明の実施の形態に従うゲーム装置100で実行される処理内容の一例を時間的に説明するための図である。図6を参照して、本実施の形態に従うゲーム装置100では、ゲーム進行が開始されると、撮像部(内側カメラ23)による画像データの取得、および取得された画像データに基づく人体認識処理の実行が所定周期で繰返し実行される。そして、この周期的に取得(更新)される認識結果に基づいて、ゲームが進行する。すなわち、認識結果が条件1,2,…を順次満足することで、順次ゲームが進行する。なお、所定時間内にすべての条件(あるいは、ゲームの成功条件)が満足されない場合には、当該ゲームは「失敗」という判断がなされる場合もある。なお、本明細書においては、ゲーム進行に関して予め用意されているすべての条件が満足された状態を、当該ゲームの「成功」と称することもある。 FIG. 6 is a diagram for temporally explaining an example of the processing content executed by game device 100 according to the embodiment of the present invention. Referring to FIG. 6, in game device 100 according to the present embodiment, when game progress is started, acquisition of image data by imaging unit (inside camera 23) and human body recognition processing based on the acquired image data are performed. Execution is repeatedly executed at a predetermined cycle. And a game progresses based on the recognition result acquired (updated) periodically. That is, the game progresses sequentially when the recognition result satisfies the conditions 1, 2,. If all the conditions (or the game success conditions) are not satisfied within a predetermined time, the game may be determined to be “failed”. In the present specification, a state where all the conditions prepared in advance for the game progress are satisfied may be referred to as “success” of the game.
このゲーム進行と並行して、撮像部によりユーザのプレイしている姿が撮像される。なお、人体認識処理を行なうために取得された画像データは、基本的には、保存されることなく破棄される。一方、ユーザのプレイしている姿を写した画像データについては、メインメモリ32などに保存される。そのため、その処理の差を明瞭化する観点から、ユーザのプレイしている姿を写した画像データを格納(保存)する処理については「キャプチャー」とも称する。 In parallel with this game progress, the image of the user playing is imaged by the imaging unit. Note that the image data acquired for performing the human body recognition processing is basically discarded without being saved. On the other hand, image data showing the appearance of the user playing is stored in the main memory 32 or the like. Therefore, from the viewpoint of clarifying the difference between the processes, the process of storing (storing) image data showing the appearance of the user playing is also referred to as “capture”.
なお、人体認識処理およびキャプチャーのいずれについても、撮像部により取得される画像データを共通に使用するが、それぞれの処理において画像データを使用するタイミングが異なる場合がある。すなわち、人体認識処理では、一定周期で画像データに対して処理がなされるのに対して、キャプチャーでは、予め定められた条件の成立といったイベント的なタイミングで画像データが格納される。 Note that, in both the human body recognition process and the capture, the image data acquired by the imaging unit is used in common, but the timing of using the image data in each process may be different. That is, in the human body recognition process, the image data is processed at a constant cycle, whereas in the capture, the image data is stored at an event timing such as establishment of a predetermined condition.
図6に示すように、典型的には、ゲーム進行中に認識結果が条件1,2,…をそれぞれ満足するタイミングで画像データがそれぞれキャプチャーされる。すなわち、撮像部(内側カメラ23)により取得された画像データに含まれるユーザ画像に基づいて、ゲームが成功したか否かが判断されるとともに、少なくとも、ゲームが成功したと判断されたときに撮像部により取得される画像データが保存される。なお、図6には、ゲーム進行に用いられる条件と、キャプチャーの実行タイミングを決定する条件とを同一とした場合を例示するが、両者を必ずしも一致させる必要はなく、ゲームのシナリオなどに応じて、互いに独立した条件を設定してもよい。 As shown in FIG. 6, typically, image data is captured at a timing when the recognition result satisfies the conditions 1, 2,. That is, it is determined whether or not the game is successful based on the user image included in the image data acquired by the imaging unit (inner camera 23), and at least when the game is determined to be successful. The image data acquired by the unit is stored. FIG. 6 illustrates the case where the conditions used for the game progress are the same as the conditions for determining the capture execution timing, but it is not always necessary to match the two, depending on the game scenario, etc. Independent conditions may be set.
その後、一連のゲームが終了すると、ゲームのプレイ中にキャプチャーされた画像データ1,2,…が表示(リプレイ)される。このゲーム終了後には、ゲームの内容に対応させて、種々の態様で画像データが表示される。 Thereafter, when the series of games is completed, the image data 1, 2,... Captured during the game play are displayed (replayed). After the game is over, image data is displayed in various manners corresponding to the content of the game.
本実施の形態に従うゲーム装置100では、典型的に、以下に示する3種類のゲームが提供される。以下、これらのゲームの内容およびゲーム終了後に表示される画像の表示態様の一例について説明する。なお、これらのゲームは、ユーザ指示に従って、その一部もしくは全部が選択的に実行される。また、表示されるタイミングとしては、ゲーム終了後でなくとも、ユーザが指定した任意のタイミングで画像データをリプレイできるようにしてもよい。 In game device 100 according to the present embodiment, typically, the following three types of games are provided. Hereinafter, an example of the content of these games and the display mode of the image displayed after the game ends will be described. Note that some or all of these games are selectively executed in accordance with user instructions. Further, the display timing may be such that the image data can be replayed at an arbitrary timing designated by the user, even after the game is not over.
<第1ゲーム>
まず、図7〜図10を参照して、本実施の形態に従うゲーム装置100で提供される第1ゲームおよび第1ゲーム終了後の画像の表示態様について説明する。この第1ゲームのプレイ中においては、ゲーム開始からゲーム終了までの間、第1ゲームが「成功」したと決定するための条件を含む複数の異なる条件が満足される毎に、ユーザがプレイしている姿がそれぞれキャプチャーされる。そして、第1ゲーム終了後に、これらのキャプチャーされた複数枚の画像データがキャプチャーされた時間順に沿って、あるいはランダムな順序で(連続的に)切換えて表示される。したがって、第1ゲーム終了後には、第1ゲームのプレイ中におけるユーザの姿が、動画像ライクな態様で表示される。すなわち、記憶された画像データに基づく画像表示として、第1ゲームでは、複数枚の画像データを所定時間で切換える動画像ライクな画像が表示される。なお、画像データの表示順序を本来の撮像順序とは異なるものに入れ替えることで、より楽しい画像表示を提供することができる。また、その表示速度(画像データの切換速度)を実際の撮像間隔より短くすることで、より動きのある画像表示を行なうことができる。
<First game>
First, with reference to FIGS. 7 to 10, display modes of the first game and the image after the first game provided in game device 100 according to the present embodiment will be described. During the play of the first game, the user plays each time a plurality of different conditions are satisfied from the start to the end of the game, including a condition for determining that the first game is “successful”. Each figure is captured. Then, after the first game is finished, these captured plural pieces of image data are displayed by switching them in the order of the captured time or in a random order (continuously). Therefore, after the first game is over, the appearance of the user during the play of the first game is displayed in a moving image-like manner. That is, as the image display based on the stored image data, in the first game, a moving image-like image that switches a plurality of pieces of image data in a predetermined time is displayed. Note that a more enjoyable image display can be provided by changing the display order of the image data to a different one from the original imaging order. Further, by making the display speed (switching speed of image data) shorter than the actual imaging interval, it is possible to display an image with more movement.
図7〜図9は、この発明の実施の形態に従う第1ゲームのシーンの一例を示す図である。図10は、この発明の実施の形態に従う第1ゲーム終了後の画像の表示例を示す図である。 7 to 9 are diagrams showing an example of the scene of the first game according to the embodiment of the present invention. FIG. 10 is a diagram showing a display example of an image after the first game according to the embodiment of the present invention.
本実施の形態に従う第1ゲームは、内側カメラ23によって取得された画像データに対する認識結果が予め定められた判定領域の大きさを超えるように、ユーザがゲーム装置100(内側カメラ23)に顔を近付けるゲームである。 In the first game according to the present embodiment, the user places a face on game device 100 (inner camera 23) so that the recognition result for the image data acquired by inner camera 23 exceeds the size of a predetermined determination area. It is a game that gets closer.
まず、第1ゲームの開始がユーザにより指示されると、図7に示すような画面が第1LCD12および第2LCD22に表示される。なお、図7〜図9には、説明の便宜上、第1LCD12および第2LCD22にそれぞれ表示される画像全体(スクリーンショット)を一体的に並べて描いている。以後の図においても同様である。 First, when the user instructs the start of the first game, a screen as shown in FIG. 7 is displayed on the first LCD 12 and the second LCD 22. 7 to 9, the entire images (screen shots) respectively displayed on the first LCD 12 and the second LCD 22 are drawn side by side for convenience of explanation. The same applies to the subsequent drawings.
より具体的には、図7に示すシーンにおいては、第1LCD12にユーザにどのような動きをすべきかを通知する通知画像INFが表示される。すなわち、図7に示す例では、ユーザに顔を近付けることを通知する「ちかよってみて!」とのメッセージを示す画像が第1LCD12に表示される。一方、第2LCD22には、ゲーム演出上の画像オブジェクト(図7に示す例では、人間の口元の画像)が表示されるとともに、内側カメラ23により取得された画像データに対する人体認識処理によって得られたユーザの顔の範囲を示す認識表示RECが反映される。この認識表示RECは、原則として、後述する肌色領域検出処理の処理周期毎に逐次更新される。 More specifically, in the scene shown in FIG. 7, a notification image INF is displayed on the first LCD 12 for notifying the user what kind of movement should be performed. That is, in the example shown in FIG. 7, an image indicating a message “Look at me!” That notifies the user that the face is approaching is displayed on the first LCD 12. On the other hand, the second LCD 22 displays an image object on the game effect (in the example shown in FIG. 7, an image of a human mouth) and is obtained by human body recognition processing on the image data acquired by the inner camera 23. A recognition display REC indicating the range of the user's face is reflected. In principle, the recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later.
図7には、内側カメラ23により取得された画像データにおいて、ユーザが相対的に下側の位置にのみ写っている状態を示している。そのため、撮像されたユーザの顔の位置に対応する認識表示RECが第2LCD22の下側にのみ反映されている。 FIG. 7 shows a state in which the user is shown only in a relatively lower position in the image data acquired by the inner camera 23. For this reason, the recognition display REC corresponding to the position of the face of the user who has been imaged is reflected only on the lower side of the second LCD 22.
その後、ユーザがゲーム装置100に顔を近付けて、内側カメラ23により取得される画像データ内におけるユーザの写っている範囲が拡大すると、図8に示すような画面に遷移する。この図8に示す状態では、図7に比較してより拡大した人間の口元の画像オブジェクトが表示されるとともに、より広い範囲の認識表示RECが反映される。 Thereafter, when the user brings his / her face close to the game apparatus 100 and the range in which the user is captured in the image data acquired by the inner camera 23 is enlarged, the screen is changed to a screen as shown in FIG. In the state shown in FIG. 8, an image object of the human mouth that is larger than that in FIG. 7 is displayed, and a wider range of recognition display REC is reflected.
さらに、ユーザがゲーム装置100に顔をさらに近付けて、内側カメラ23により取得される画像データ内におけるユーザの写っている範囲がさらに拡大すると、図9に示すような画面に遷移する。この図9には、第1ゲームが「成功」した状態を示す。この第1ゲームが「成功」した状態では、図8に比較してより拡大した人間の口元の画像オブジェクトが表示されるとともに、歯の間から小鳥が顔を出している状態の画像オブジェクトが表示される。 Further, when the user brings his / her face closer to the game apparatus 100 and the range in which the user is captured in the image data acquired by the inner camera 23 is further enlarged, the screen is changed to a screen as shown in FIG. FIG. 9 shows a state where the first game is “successful”. When the first game is “successful”, an image object of a human mouth that is larger than that in FIG. 8 is displayed, and an image object in a state where a bird appears from between the teeth is displayed. Is done.
以上のような、図7〜図9に示す一連のゲームにおいて、ユーザは、第2LCD22に表示されるゲーム演出および認識表示RECを参照しながら、ゲーム装置100との相対位置をゲーム進行に応じて変化させる。第1ゲームのプレイ中には、このようなユーザのゲーム中における姿が複数回にわたってキャプチャーされる。そして、第1ゲーム終了後、これらのキャプチャーされた複数の画像データが順次表示される。この画像データが表示される様子の一例を図10に示す。 In the series of games shown in FIGS. 7 to 9 as described above, the user refers to the game effect displayed on the second LCD 22 and the recognition display REC according to the progress of the game while referring to the relative position with the game device 100. Change. During the play of the first game, the appearance of such a user in the game is captured multiple times. Then, after the first game is finished, the plurality of captured image data are sequentially displayed. An example of how this image data is displayed is shown in FIG.
図10(a)には、第1ゲームをプレイしたユーザの顔が図10(b)に比較して、より小さく写っている。これは、上述の図8に示すような状態に対応するものであり、ユーザの顔がゲーム装置100に対して相対的に遠い位置にある場合を示す。一方、図10(b)には、図10(a)に比較して、ユーザの顔がより大きな範囲に映っている。これは、上述の図9に示すような状態に対応するものであり、ユーザの顔がゲーム装置100に対して相対的に近い位置にある場合を示す。 In FIG. 10A, the face of the user who played the first game is smaller than that in FIG. 10B. This corresponds to the state shown in FIG. 8 described above, and shows a case where the user's face is at a position relatively distant from the game apparatus 100. On the other hand, in FIG. 10 (b), the user's face is shown in a larger range compared to FIG. 10 (a). This corresponds to the state shown in FIG. 9 described above, and shows a case where the user's face is relatively close to the game apparatus 100.
このような画像を連続的に切換えて表示することで、ユーザが第1ゲームをプレイしている姿を動画像ライクに表示することができる。言い換えれば、ユーザが第1ゲームをプレイしている状態をリプレイ表示することができる。 By continuously switching and displaying such images, it is possible to display the appearance of the user playing the first game on the moving image-like screen. In other words, the state where the user is playing the first game can be replayed.
なお、図10には、典型的に2枚の画像データが順次切換えられる例について示すが、第1ゲーム中により多くの画像データを取得しておき、これらを順次切換えて表示するようにしてもよい。 Note that FIG. 10 shows an example in which two pieces of image data are typically switched sequentially, but more image data is acquired during the first game, and these are sequentially switched and displayed. Good.
<第2ゲーム>
次に、図11〜図13を参照して、本実施の形態に従うゲーム装置100で提供される第2ゲームおよび第2ゲーム終了後の画像の表示態様について説明する。この第2ゲームは、典型的に複数のミニゲームから構成され、各ミニゲームのプレイ中においては、所定の条件が満足されたタイミングでユーザがプレイしている姿が少なくとも1枚キャプチャーされる。そして、一連のミニゲームの終了、すなわち第2ゲーム終了後に、これらのキャプチャーされたそれぞれの画像データに対して、対応するミニゲームに関連するオブジェクト、あるいは対応するミニゲームとは異なる意味をもつオブジェクトを重ねて表示する。したがって、第2ゲーム終了後には、第2ゲームのプレイ中におけるあるタイミング(典型的には、当該ミニゲームが「成功」したタイミング周辺)におけるユーザの姿が、ゲーム演出に対応するオブジェクトとともに表現され、あるいは、ゲーム演出とは独立した(無関係な)オブジェクトとともに表現される。なお、複数のミニゲームにおいてそれぞれキャプチャーされた画像データは、所定時間毎に切換えて表示、すなわち、いわゆるスライドショーのように表示されることが好ましい。
<Second game>
Next, with reference to FIG. 11 to FIG. 13, the display mode of the second game provided by game device 100 according to the present embodiment and the image after the end of the second game will be described. This second game is typically composed of a plurality of mini-games, and during the play of each mini-game, at least one image of the user playing at a timing when a predetermined condition is satisfied is captured. Then, after the end of a series of mini-games, that is, after the end of the second game, for each of these captured image data, an object related to the corresponding mini-game or an object having a different meaning from the corresponding mini-game Are displayed in layers. Therefore, after the end of the second game, the appearance of the user at a certain timing during the play of the second game (typically around the timing when the mini-game is “successful”) is expressed together with the object corresponding to the game effect. Alternatively, it is expressed together with an object independent of (unrelated to) the game effect. In addition, it is preferable that the image data captured in each of the plurality of mini games is switched and displayed at predetermined time intervals, that is, displayed as a so-called slide show.
なお、第2ゲームの開始がユーザにより指示された場合に、予め用意された複数のミニゲームのうち、いずれのミニゲームを実行するかについてランダムに決定するようにしてもよい。 In addition, when the start of a 2nd game is instruct | indicated by the user, you may make it determine at random which mini game should be performed among several prepared mini games.
図11〜図13は、この発明の実施の形態に従う第2ゲームのゲーム中およびゲーム終了後のシーンの一例を示す図である。 11 to 13 are diagrams showing an example of a scene during and after the game of the second game according to the embodiment of the present invention.
(1)第1ミニゲーム
図11(a)に示す第2ゲームに含まれる第1ミニゲームでは、第2LCD22の予め定められた位置に「メガネ」のオブジェクトOBJ10が表示されており、ユーザは、認識される自身の目の位置がオブジェクトOBJ10と一致するように、ゲーム装置100(内側カメラ23)に対する自身の相対位置を調整する。
(1) First Mini Game In the first mini game included in the second game shown in FIG. 11 (a), the “glasses” object OBJ10 is displayed at a predetermined position on the second LCD 22, and the user The relative position of the player with respect to the game apparatus 100 (inner camera 23) is adjusted so that the position of the recognized eye matches the object OBJ10.
図11(a)に示すシーンにおいては、第2LCD22に、ゲーム演出上の画像オブジェクト(オブジェクトOBJ10)が表示されるとともに、内側カメラ23により取得された画像データに対する人体認識処理によって得られたユーザの顔の範囲を示す認識表示RECが反映される。この認識表示RECは、後述する肌色領域検出処理の処理周期毎に逐次更新される。また、人体認識されたユーザの瞳に位置に「目」を示す画像オブジェクトが表示される。 In the scene shown in FIG. 11A, an image object (object OBJ10) on the game effect is displayed on the second LCD 22, and the user's body obtained by the human body recognition process on the image data acquired by the inner camera 23 is displayed. A recognition display REC indicating the face range is reflected. This recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later. In addition, an image object indicating “eye” at the position is displayed on the pupil of the user whose human body has been recognized.
ユーザが、ゲーム装置100に対する自身の相対位置を調整し、内側カメラ23により取得される画像データ内における人体認識されたユーザの瞳の位置が、オブジェクトOBJ10の配置位置と一致したと判断されると、第1ミニゲームは「成功」となる。このように、人体認識の結果に基づいて、ゲーム演出に応じて表示されるオブジェクトの位置に関連付けられた成功条件が満足されるか否かが判断される。 When the user adjusts the relative position of the user with respect to the game apparatus 100 and it is determined that the position of the user's recognized pupil in the image data acquired by the inner camera 23 matches the arrangement position of the object OBJ10. The first mini game is “success”. As described above, based on the result of the human body recognition, it is determined whether or not the success condition associated with the position of the object displayed in accordance with the game effect is satisfied.
図11(b)を参照して、第2ゲーム終了後、図11(a)に示す第1ミニゲームのプレイ中にキャプチャーされた画像データが第2LCD22に表示される。この表示される画像には、典型的に、第1ミニゲームのプレイ中に表示された「メガネ」のオブジェクトOBJ10#が重ねられる。なお、図11(b)に示す例では、対応する第1ミニゲームにおいて表示された「メガネ」と同じ「メガネ」のオブジェクトが重ねて表示されるが、別の形態の「メガネ」を重ねて表示するようにしてもよい。あるいは、「メガネ」とは全く異なる画像オブジェクトを重ねて表示するようにしてもよい。 Referring to FIG. 11 (b), after the second game ends, image data captured during the play of the first mini game shown in FIG. 11 (a) is displayed on the second LCD 22. This displayed image is typically overlaid with the “glasses” object OBJ10 # displayed during the play of the first mini game. In the example shown in FIG. 11B, the same “glasses” object as the “glasses” displayed in the corresponding first mini-game is displayed, but another form of “glasses” is superimposed. You may make it display. Alternatively, an image object that is completely different from “glasses” may be displayed in an overlapping manner.
なお、第1LCD12には、複数のミニゲームのそれぞれにおいてキャプチャーされた画像データの表示(スライドショー)を制御するためのボタン画像などが表示される。より具体的には、第1LCD12には、順序通知画像202、停止ボタン画像204、戻るボタン画像206、進むボタン画像208、および、おわるボタン画像210が表示される。第1LCD12の上にはタッチパネル13が設けられており、ユーザが第1LCD12上のいずれかの位置をタッチすると、タッチパネル13によりタッチされた座標が検出される。そして、検出された座標に上述のいずれかのボタン画像が表示されている場合には、以下に説明するような、対応するボタン画像に割当てられた処理が実行される。 The first LCD 12 displays a button image for controlling display (slide show) of image data captured in each of the plurality of mini games. More specifically, the first LCD 12 displays an order notification image 202, a stop button image 204, a return button image 206, a forward button image 208, and a closing button image 210. A touch panel 13 is provided on the first LCD 12, and when the user touches any position on the first LCD 12, coordinates touched by the touch panel 13 are detected. When any one of the above-described button images is displayed at the detected coordinates, processing assigned to the corresponding button image as described below is executed.
順序通知画像202は、現在表示中の画像データがいずれのミニゲームにおいてキャプチャーされたものであるかを通知する。図11(b)に示す例では、先に5つのミニゲームがプレイされた場合を示すとともに、現在表示されている画像データが第1番目のミニゲームにおいてキャプチャーされたことが示される。停止ボタン画像204は、画像データの表示切り替え(スライドショー)の停止指示を受付ける。なお、スライドショーが停止状態の場合には、停止ボタン画像204に代えて、スライドショーの再開指示を受付けるための再生ボタン画像が表示される。戻るボタン画像206は、一連の画像データのうち、表示される画像データを現在表示中のものから1つ戻すための指示を受付ける。また、進むボタン画像208、一連の画像データのうち、表示される画像データを現在表示中のものから1つ進めるための指示を受付ける。終わるボタン画像210は、画像データの表示の終了指示を受付ける。 The order notification image 202 notifies which mini-game the image data currently being displayed is captured. The example shown in FIG. 11B shows a case where five mini games have been played first, and also shows that the currently displayed image data has been captured in the first mini game. The stop button image 204 receives an instruction to stop image data display switching (slide show). When the slide show is in a stopped state, a playback button image for receiving a slide show restart instruction is displayed instead of the stop button image 204. The return button image 206 accepts an instruction for returning one of the series of image data to be displayed from the currently displayed image data. The forward button image 208 and an instruction to advance one of the series of image data to be displayed from the currently displayed image data are received. The end button image 210 receives an instruction to end display of image data.
(2)第2ミニゲーム
次に、図12(a)に示す第2ゲームに含まれる第2ミニゲームでは、第2LCD22に「蚊」を示すオブジェクトOBJ11が移動表示され、ユーザは、認識される自身の手の動きによってオブジェクトOBJ11が「つぶされる」ように、手をたたく。
(2) Second Mini Game Next, in the second mini game included in the second game shown in FIG. 12A, the object OBJ11 indicating “mosquito” is moved and displayed on the second LCD 22, and the user is recognized. Strike the hand so that the object OBJ11 is “crushed” by the movement of its own hand.
図12(a)に示すシーンにおいては、第2LCD22に、ゲーム演出上の画像(オブジェクトOBJ11)が時間的に位置を変えて表示されるとともに、ユーザに手をたたくことを促すオブジェクトOBJ12が表示される。さらに、第2LCD22には、内側カメラ23により取得された画像データに対する人体認識処理によって得られたユーザの手および顔の範囲を示す認識表示RECが反映される。この認識表示RECは、後述する肌色領域検出処理の処理周期毎に逐次更新される。一方、第1LCD12には、ユーザに手をたたくことを通知する「たたけ!」とのメッセージを示す通知画像INFが表示される。 In the scene shown in FIG. 12A, an image (object OBJ11) on the game effect is displayed on the second LCD 22 while changing its position in time, and an object OBJ12 that prompts the user to tap the hand is displayed. The Further, the second LCD 22 reflects a recognition display REC indicating the range of the user's hand and face obtained by the human body recognition process on the image data acquired by the inner camera 23. This recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later. On the other hand, the first LCD 12 displays a notification image INF indicating a message “Take!” Notifying the user of clapping.
ユーザがゲーム装置100に対する自身の相対位置を調整した上で手をたたき、内側カメラ23により取得される画像データに対する人体認識処理によって、オブジェクトOBJ11の位置でユーザが手をたたいたと認識されると、第2ミニゲームは「成功」となり、「蚊」が画面下側に落ちるような演出がなされる。 When the user claps his / her hand after adjusting his / her relative position with respect to the game apparatus 100 and the user recognizes that the user has clashed his / her hand at the position of the object OBJ11 by the human body recognition process on the image data acquired by the inner camera 23. The second mini-game is “successful”, and an effect is produced in which “mosquito” falls to the bottom of the screen.
図12(b)を参照して、第2ゲーム終了後、図12(a)に示す第2ミニゲームのプレイ中にキャプチャーされた画像データが第2LCD22に表示される。この表示される画像には、第2ミニゲームのプレイ中に表示された「蚊」のオブジェクトOBJ11とは独立した、異なる意味をもつオブジェクトOBJ13が重ねられる。すなわち、ユーザによる「蚊」をたたく動きを、ユーザの可愛らしい(lovelyな)表現に置き換えて表示がなされる。 Referring to FIG. 12B, after the second game is finished, image data captured during the play of the second mini game shown in FIG. 12A is displayed on the second LCD 22. On this displayed image, an object OBJ13 having a different meaning independent of the “mosquito” object OBJ11 displayed during the play of the second mini game is overlaid. In other words, the movement of hitting “mosquito” by the user is replaced with the user's lovely expression and displayed.
なお、第1LCD12には、上述の図11(b)と同様に、複数のミニゲームのそれぞれにおいてキャプチャーされた画像データの表示(スライドショー)を制御するためのボタン画像などが表示される。 The first LCD 12 displays a button image for controlling display (slide show) of image data captured in each of the plurality of mini games, as in FIG. 11B described above.
図12に示すように、第2ミニゲームの終了後の、第2ミニゲームのプレイ中にキャプチャーされた画像データに基づく画像の表示中には、第2ミニゲームの進行中に表示したオブジェクトの位置に当該オブジェクトとは別のオブジェクトに入れ替えて画像表示がなされる。特に、図12に示す例では、第2ミニゲームの進行中に表示されたオブジェクト(図12(a)に示す例では「蚊」)とは関連しないオブジェクト(図12(b)に示す例では「ハートマーク」など)が、第2ミニゲームのプレイ中にキャプチャーされた画像データとともに表示される。 As shown in FIG. 12, during the display of the image based on the image data captured during the play of the second mini game after the end of the second mini game, the object displayed during the progress of the second mini game is displayed. The image is displayed by replacing the object with a different object at the position. In particular, in the example shown in FIG. 12, the object (in the example shown in FIG. 12A, “mosquito” in the example shown in FIG. 12A) that is not associated with the object displayed during the progress of the second mini game (in the example shown in FIG. 12B). "Heart mark" and the like are displayed together with the image data captured during the play of the second mini game.
(3)第3ミニゲーム
次に、図13(a)に示す第2ゲームに含まれる第3ミニゲームでは、2人のユーザでのプレイが可能である。すなわち、図13(a)に示す第3ミニゲームでは、第2LCD22に2つの「トーテムポール」のオブジェクトOBJ14およびOBJ15が表示されるとともに、内側カメラ23により取得された画像データに対する人体認識処理によって得られたそれぞれのユーザの範囲を示す認識表示RECが反映される。この認識表示RECは、後述する肌色領域検出処理の処理周期毎に逐次更新される。これらの「トーテムポール」のオブジェクトOBJ14およびOBJ15には、その一部に円状の切り抜き部が設けられており、それぞれのユーザは、認識される自身の顔の位置が対応する切り抜き部と一致するように、ゲーム装置100(内側カメラ23)に対する相対位置を調整する。
(3) Third Mini Game Next, in the third mini game included in the second game shown in FIG. 13A, play by two users is possible. That is, in the third mini game shown in FIG. 13A, two “totem pole” objects OBJ14 and OBJ15 are displayed on the second LCD 22, and obtained by the human body recognition process on the image data acquired by the inner camera 23. The recognition display REC indicating the range of each user is reflected. This recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later. Each of these “totem pole” objects OBJ14 and OBJ15 is provided with a circular cutout portion, and each user has a recognized face position that matches the corresponding cutout portion. In this way, the relative position with respect to the game apparatus 100 (inner camera 23) is adjusted.
また、第1LCD12には、ユーザに自身の顔を所定位置に一致させることを通知する「あわせて!」とのメッセージを示す通知画像INFが表示される。 Further, the first LCD 12 displays a notification image INF indicating a message “Match together!” For notifying the user that his / her face matches a predetermined position.
両ユーザが、ゲーム装置100に対する自身の相対位置を調整し、内側カメラ23により取得される画像データ内における人体認識された顔の位置が、対応するオブジェクトOBJ14およびOBJ15の切り抜き部と一致したと判断されると、第3ミニゲームは「成功」となる。 Both users adjust their relative positions with respect to the game apparatus 100 and determine that the positions of the faces recognized by the human body in the image data acquired by the inner camera 23 coincide with the cutout portions of the corresponding objects OBJ14 and OBJ15. Then, the third mini game becomes “success”.
図13(b)を参照して、第2ゲーム終了後、図13(a)に示す第3ミニゲームのプレイ中にキャプチャーされた画像データが第2LCD22に表示される。この表示される画像には、第3ミニゲームのプレイ中に表示された「トーテムポール」のオブジェクトOBJ14およびOBJ15とは独立した、異なる意味をもつオブジェクトOBJ16が重ねられる。すなわち、両ユーザが「トーテムポール」に設けられたそれぞれの切り抜き部に位置した姿を、大きな「鼻」から両ユーザが飛び出ている表現に置き換えて表示がなされる。 Referring to FIG. 13B, after the second game is finished, image data captured during the play of the third mini game shown in FIG. 13A is displayed on the second LCD 22. In this displayed image, an object OBJ16 having a different meaning independent of the objects “OBJ14” and “OBJ15” of the “totem pole” displayed during the play of the third mini game is overlaid. In other words, the display in which both users are positioned in the respective cutout portions provided on the “totem pole” is replaced with an expression in which both users are protruding from the large “nose”.
なお、第1LCD12には、上述の図11(b)と同様に、複数のミニゲームのそれぞれにおいてキャプチャーされた画像データの表示(スライドショー)を制御するためのボタン画像などが表示される。 The first LCD 12 displays a button image for controlling display (slide show) of image data captured in each of the plurality of mini games, as in FIG. 11B described above.
上述のように、第2ゲーム(に含まれるミニゲーム)のプレイ中にキャプチャーされたユーザの姿に、対応するミニゲームのゲーム演出に対応するオブジェクト、あるいは対応するミニゲームのゲーム演出とは独立した(異なる意味をもつ)オブジェクトが重ねて表現される。これにより、ユーザがミニゲームをプレイした姿を利用したより楽しい画像で楽しむことができる。 As described above, the user captured during the play of the second game (included therein) is independent of the object corresponding to the game effect of the corresponding mini game or the game effect of the corresponding mini game. The objects (with different meanings) are expressed in layers. Thereby, it can enjoy with the more pleasant image using the figure which the user played the mini game.
図13に示すように、第3ミニゲームの終了後の、第3ミニゲームのプレイ中にキャプチャーされた画像データに基づく画像の表示中には、第3ミニゲームの進行中に表示したオブジェクトとは別のオブジェクトに入れ替えて画像表示がなされる。特に、図13に示す例では、第3ミニゲームの進行中に表示されたオブジェクト(図13(a)に示す例では「トーテムポール」)とは関連しないオブジェクト(図13(b)に示す例では「鼻」など)が、第3ミニゲームのプレイ中にキャプチャーされた画像データとともに表示される。 As shown in FIG. 13, during the display of the image based on the image data captured during the play of the third mini game after the end of the third mini game, the object displayed during the progress of the third mini game is displayed. Is replaced with another object and the image is displayed. In particular, in the example shown in FIG. 13, an object (example shown in FIG. 13B) that is not related to the object displayed in the progress of the third mini game (“Totem Pole” in the example shown in FIG. 13A). Is displayed together with image data captured during the play of the third mini game.
<第3ゲーム>
次に、図14〜図19を参照して、本実施の形態に従うゲーム装置100で提供される第3ゲームおよび第3ゲーム終了後の画像の表示態様について説明する。第3ゲームは、一連の複数のミニゲームから構成され、各ミニゲームのプレイ中においては、所定の条件が満足されたタイミングでユーザがプレイしている姿が少なくとも1枚キャプチャーされる。そして、一連のミニゲームの終了、すなわち第3ゲーム終了後に、これらのキャプチャーされたそれぞれの画像データに対して、特定の意味をもつオブジェクトを重ねて表示することで、予め用意されたシナリオに沿った漫画ライクな表現が提供される。なお、この漫画ライクな画像データは、所定時間毎に順次切換えて表示される。
<Third game>
Next, with reference to FIGS. 14 to 19, a third game provided by game device 100 according to the present embodiment and an image display mode after the end of the third game will be described. The third game is composed of a series of a plurality of mini-games, and during the play of each mini-game, at least one image of the user playing at a timing when a predetermined condition is satisfied is captured. Then, after the end of the series of mini-games, that is, after the end of the third game, an object having a specific meaning is superimposed on each of the captured image data, so that it follows a prepared scenario. Manga-like expression is provided. Note that the comic-like image data is sequentially switched and displayed every predetermined time.
図14〜図18は、この発明の実施の形態に従う第3ゲームのシーンの一例を示す図である。図19および図20は、この発明の実施の形態に従う第3ゲーム終了後の画像の表示例を示す図である。なお、以下の説明では、第3ゲームが5つのミニゲームから構成され、それぞれのミニゲームにおいてキャプチャーされた合計5つの画像データを用いて「5コマ漫画」が表示される場合について例示する。 14 to 18 are diagrams showing an example of the scene of the third game according to the embodiment of the present invention. 19 and 20 are diagrams showing a display example of an image after the end of the third game according to the embodiment of the present invention. In the following description, the case where the third game is composed of five mini-games and “5-frame cartoon” is displayed using a total of five image data captured in each mini-game is illustrated.
(1)第4ミニゲーム
図14に示す第3ゲームに含まれる第4ミニゲームでは、第2LCD22の予め定められた位置に、人間の頭部および背中を表わすオブジェクトOBJ17が表示されており、ユーザは、認識される自身の動きによってオブジェクトOBJ17の「肩」に相当する部分を「たたく」ように、手を動かす。
(1) Fourth Mini Game In the fourth mini game included in the third game shown in FIG. 14, an object OBJ17 representing a human head and back is displayed at a predetermined position on the second LCD 22, and the user Moves the hand so as to “tap” the portion corresponding to the “shoulder” of the object OBJ17 by its recognized movement.
図14に示すシーンにおいては、第2LCD22に、ゲーム演出上の画像(オブジェクトOBJ17)が表示されるとともに、内側カメラ23により取得された画像データに対する人体認識処理によって得られたユーザの手の範囲を示す認識表示RECが反映される。この認識表示RECは、後述する肌色領域検出処理の処理周期毎に逐次更新される。 In the scene shown in FIG. 14, an image (object OBJ17) on the game effect is displayed on the second LCD 22, and the range of the user's hand obtained by the human body recognition process on the image data acquired by the inner camera 23 is displayed. The recognition display REC shown is reflected. This recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later.
ユーザがゲーム装置100に対する手の相対位置を調整した上で、手を上下させ、内側カメラ23により取得される画像データに対する人体認識処理によって、ユーザがオブジェクトOBJ17の所定位置(「肩」に対応する位置)を「たたいた」と所定回数にわたって判断されると、第4ミニゲームは「成功」となる。なお、ゲーム進行中において、「肩」を「たたいた」と判断されると、そのことを示すオブジェクトOBJ18が表示される。さらに、第2LCD22には、ゲームが「成功」となるために必要な肩を「たたく」残り回数を示すオブジェクトOBJ19も表示される。 The user moves the hand up and down after adjusting the relative position of the hand with respect to the game apparatus 100, and the user corresponds to the predetermined position (“shoulder”) of the object OBJ 17 by human body recognition processing on the image data acquired by the inner camera 23. If the position is determined to be “tapped” for a predetermined number of times, the fourth mini game is “successful”. When it is determined that “shoulder” is “tapped” while the game is in progress, an object OBJ 18 indicating that is displayed. Further, the second LCD 22 also displays an object OBJ19 indicating the remaining number of times that the user “taps” the shoulder necessary for the game to be “successful”.
(2)第5ミニゲーム
図15に示す第3ゲームに含まれる第5ミニゲームでは、第2LCD22に別れのシーンを表わすオブジェクトOBJ20が表示されており、ユーザは、手を左右に動かして、「バイバイ」の動作を行なう。
(2) Fifth Mini Game In the fifth mini game included in the third game shown in FIG. 15, an object OBJ20 representing a separate scene is displayed on the second LCD 22, and the user moves his / her hand to the left and right. “Bye-by” operation.
図15に示すシーンにおいては、第2LCD22に、ゲーム演出上の画像(オブジェクトOBJ20)が表示されるとともに、内側カメラ23により取得された画像データに対する人体認識処理によって得られたユーザの手の範囲を示す認識表示RECが反映される。この認識表示RECは、後述する肌色領域検出処理の処理周期毎に逐次更新される。 In the scene shown in FIG. 15, an image (object OBJ20) on the game effect is displayed on the second LCD 22, and the range of the user's hand obtained by the human body recognition process on the image data acquired by the inner camera 23 is displayed. The recognition display REC shown is reflected. This recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later.
ユーザがゲーム装置100に対する手の相対位置を調整した上で手を左右に動かし、内側カメラ23により取得される画像データに対する人体認識処理によって、ユーザがその手を所定回数にわたって左右に動かしたと認識されると、第5ミニゲームは「成功」となる。なお、ゲーム進行中において、ユーザに手をふることを促すオブジェクトOBJ21が表示される。 The user moves the hand to the left and right after adjusting the relative position of the hand with respect to the game apparatus 100, and the human body recognition process for the image data acquired by the inner camera 23 recognizes that the user has moved the hand to the left and right a predetermined number of times. Then, the fifth mini game is “success”. Note that an object OBJ21 that prompts the user to touch the hand while the game is in progress is displayed.
(3)第6ミニゲーム
図16に示す第3ゲームに含まれる第6ミニゲームでは、第2LCD22に「鼻」を表わすオブジェクトOBJ22が表示されており、ユーザは、認識される自身の人差し指および中指が「鼻」を表わすオブジェクトOBJ22の「穴」に相当する位置に「差し込まれる」ように、手を動かす。
(3) Sixth Mini Game In the sixth minigame included in the third game shown in FIG. 16, the object OBJ22 representing “nose” is displayed on the second LCD 22, and the user recognizes his / her index finger and middle finger. Moves the hand so that “is inserted” into a position corresponding to the “hole” of the object OBJ22 representing “nose”.
図16に示すシーンにおいては、第2LCD22に、ゲーム演出上の画像(オブジェクトOBJ22)が表示されるとともに、内側カメラ23により取得された画像データに対する人体認識処理によって得られたユーザの手の範囲を示す認識表示RECが反映される。この認識表示RECは、後述する肌色領域検出処理の処理周期毎に逐次更新される。 In the scene shown in FIG. 16, an image (object OBJ22) on the game effect is displayed on the second LCD 22, and the range of the user's hand obtained by the human body recognition process for the image data acquired by the inner camera 23 is displayed. The recognition display REC shown is reflected. This recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later.
ユーザがゲーム装置100に対する手の相対位置を調整した上で手の位置を調整し、内側カメラ23により取得される画像データに対する人体認識処理によって、ユーザの人差し指および中指がオブジェクトOBJ22の「穴」に相当する位置に差し込まれたと認識されると、第6ミニゲームは「成功」となる。 The user adjusts the relative position of the hand with respect to the game apparatus 100 and then adjusts the position of the hand, and the user's index finger and middle finger are placed in the “hole” of the object OBJ22 by human body recognition processing on the image data acquired by the inner camera 23. If it is recognized that it has been inserted into the corresponding position, the sixth mini-game becomes “success”.
(4)第7ミニゲーム
図17に示す第3ゲームに含まれる第7ミニゲームでは、第2LCD22に「マントを羽織ったキャラクター」を表わすオブジェクトOBJ23が表示されており、ユーザは、内側カメラ23に顔を近付けるとともに、内側カメラ23に近接配置されているマイク用孔16(およびその中に収納されるマイク43)に向けて息を吹きかける。
(4) Seventh Mini Game In the seventh mini game included in the third game shown in FIG. 17, an object OBJ 23 representing “a character wearing a cape” is displayed on the second LCD 22, and the user While approaching the face, breath is blown toward the microphone hole 16 (and the microphone 43 accommodated therein) disposed close to the inner camera 23.
図17に示すシーンにおいては、第2LCD22に、ゲーム演出上の画像(オブジェクトOBJ23)が表示されるとともに、内側カメラ23により取得された画像データに対する人体認識処理によって得られたユーザの手の範囲を示す認識表示RECが反映される。この認識表示RECは、後述する肌色領域検出処理の処理周期毎に逐次更新される。 In the scene shown in FIG. 17, an image (object OBJ23) on the game effect is displayed on the second LCD 22, and the range of the user's hand obtained by the human body recognition process for the image data acquired by the inner camera 23 is displayed. The recognition display REC shown is reflected. This recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later.
ユーザがゲーム装置100に対する自身の顔の相対位置を調整した上で息を吹きかけ、これにより、ユーザの顔の認識領域が所定のしきい値を超え、かつ息を吹きかける際の音圧が所定のしきい値を超えると、第7ミニゲームは「成功」と判断される。なお、ゲーム進行中において、息を吹きかけたと判定されると、その判定に応じて、表示されるオブジェクトOBJ23が「吹き飛ばされる」ような演出がなされる。 The user blows after adjusting the relative position of his / her face with respect to the game apparatus 100, so that the recognition area of the user's face exceeds a predetermined threshold value and the sound pressure when blowing is predetermined When the threshold is exceeded, the seventh mini game is determined to be “success”. If it is determined that the player blows while the game is in progress, the displayed object OBJ23 is “blown away” according to the determination.
(5)第8ミニゲーム
図18に示す第3ゲームに含まれる第8ミニゲームでは、第2LCD22に「泣いている赤ちゃん」を表わすオブジェクトOBJ24が表示されており、ユーザは、顔を両手で覆うような動作および顔から両手を離す動作を繰返す、いわゆる「いないいないばあ」をする。
(5) Eighth mini game In the eighth minigame included in the third game shown in FIG. 18, an object OBJ24 representing "crying baby" is displayed on the second LCD 22, and the user covers his face with both hands. Such a motion and a motion of releasing both hands from the face are repeated, so-called “not in the hand”.
図18に示すシーンにおいては、第2LCD22に、ゲーム演出上の画像(オブジェクトOBJ24)が表示されるとともに、内側カメラ23により取得された画像データに対する人体認識処理によって得られたユーザの手の範囲を示す認識表示RECが反映される。この認識表示RECは、後述する肌色領域検出処理の処理周期毎に逐次更新される。 In the scene shown in FIG. 18, an image (object OBJ24) on the game effect is displayed on the second LCD 22, and the range of the user's hand obtained by the human body recognition process on the image data acquired by the inner camera 23 is displayed. The recognition display REC shown is reflected. This recognition display REC is sequentially updated every processing cycle of a skin color area detection process described later.
ユーザが自身の顔を両手で覆う動作および両手を離す動作を所定回数にわたって繰返したと認識されると、第8ミニゲームは「成功」と判断される。 When it is recognized that the user has repeated the action of covering his / her face with both hands and the action of releasing both hands for a predetermined number of times, the eighth mini game is determined to be “success”.
(6)ゲーム終了後の表示例
上述のような第4〜第8ミニゲーム(第3ゲーム)終了後に、図19および図20に示すような予め用意されたシナリオに沿った漫画ライクな表現が提供される。
(6) Display example after the end of the game After the fourth to eighth mini-games (third game) as described above, a cartoon-like expression according to a scenario prepared in advance as shown in FIG. 19 and FIG. Provided.
第3ゲーム終了後、第2LCD22には、図19(a)に示すような予め用意されたタイトル画面が表示され、続いて、図19(b)に示すような画面が表示される。この図19(b)に示す画面は、ユーザが第3ゲームに含まれる第4ミニゲーム(図14)をプレイ中にキャプチャーされた画像データに、予め用意されたシナリオに沿った画像オブジェクトを重ねたものである。その後、図19(b)に示す画面に引き続いて、図19(c)に示す画面が表示される。この図19(c)に示す画面は、ユーザが第3ゲームに含まれる第5ミニゲーム(図15)をプレイ中にキャプチャーされた画像データに、予め用意されたシナリオに沿った画像オブジェクトを重ねたものである。 After the end of the third game, a title screen prepared in advance as shown in FIG. 19A is displayed on the second LCD 22, and then a screen as shown in FIG. 19B is displayed. In the screen shown in FIG. 19B, an image object according to a scenario prepared in advance is superimposed on the image data captured while the user is playing the fourth mini game (FIG. 14) included in the third game. It is a thing. Then, following the screen shown in FIG. 19B, the screen shown in FIG. 19C is displayed. In the screen shown in FIG. 19C, an image object according to a scenario prepared in advance is overlaid on image data captured while the user is playing the fifth mini game (FIG. 15) included in the third game. It is a thing.
以下同様にして、図19(c)に示す画面に引き続いて、第2LCD22には、図20(a)に示す画面、図20(b)に示す画面、図20(c)に示す画面が順次表示される。図20(a)に示す画面、図20(b)に示す画面、および図20(c)に示す画面は、それぞれ第3ゲームに含まれる第6ミニゲーム(図16)、第7ミニゲーム(図17)、および第8ミニゲーム(図18)をユーザがプレイ中にキャプチャーされた画像データに、予め用意されたシナリオに沿ったそれぞれの画像オブジェクトを重ねたものである。 In the same manner, following the screen shown in FIG. 19C, the screen shown in FIG. 20A, the screen shown in FIG. 20B, and the screen shown in FIG. 20C are sequentially displayed on the second LCD 22. Is displayed. The screen shown in FIG. 20A, the screen shown in FIG. 20B, and the screen shown in FIG. 20C are the sixth mini game (FIG. 16) and the seventh mini game ( FIG. 17) and the eighth mini game (FIG. 18) are obtained by superimposing the respective image objects in accordance with a prepared scenario on the image data captured while the user is playing.
図19および図20に示すように、一連のミニゲームのプレイ中にそれぞれキャプチャーされたユーザの姿に、予め用意されたシナリオに沿ったオブジェクトが重ねて表現される。これにより、第3ゲームをプレイしたユーザを主人公にした漫画ライクな画像で楽しむことができる。 As shown in FIG. 19 and FIG. 20, objects in accordance with scenarios prepared in advance are superimposed on the appearances of users captured during a series of mini games. Thereby, it can enjoy with the cartoon-like image which made the user who played the 3rd game the hero.
上述の図14〜図18に示すように、第3ゲームにおいては、予め定められた複数の段階(第4〜第8ミニゲーム)において、各段階(ミニゲーム)に対応付けられた成功条件に基づいてゲーム成功をそれぞれ判断することでゲームが進行される。このとき、各ミニゲームでは、それぞれに対応する成功条件に関連付けられたオブジェクトが切換えて表示される。 As shown in FIGS. 14 to 18 described above, in the third game, the success condition associated with each stage (mini game) is determined in a plurality of predetermined stages (fourth to eighth mini games). The game is advanced by judging the success of the game based on each. At this time, in each mini game, objects associated with the corresponding success conditions are switched and displayed.
また、上述の図19および図20に示すように、第3ゲームにおいては、予め定められた複数の段階(第4〜第8ミニゲーム)において、各段階(ミニゲーム)に対応付けられた成功条件に基づいてゲーム成功をそれぞれ判断することでゲームが進行される。この第3ゲームの終了後、ゲーム進行中の複数の段階(ミニゲーム)のそれぞれにおいて取得されて画像記憶部116に記憶された複数の画像データと、各画像データが取得された段階(ミニゲーム)に対応付けられた成功条件に関連付けられたオブジェクトと、を合成した画像が表示される。 Further, as shown in FIG. 19 and FIG. 20 described above, in the third game, the success associated with each stage (mini game) in a plurality of predetermined stages (fourth to eighth mini games). The game is advanced by judging the success of the game based on the conditions. After the end of the third game, a plurality of image data acquired in each of a plurality of stages (mini game) in progress of the game and stored in the image storage unit 116, and a stage in which each image data is acquired (mini game) ) And the object associated with the success condition associated with () are displayed.
<制御構造>
次に、上述のような処理を提供するための制御構造について説明する。
<Control structure>
Next, a control structure for providing the above processing will be described.
図21は、本実施の形態に従うゲーム装置100の制御構造を示すブロック図である。
図21を参照して、ゲーム装置100は、その制御構造として、音声データバッファ102と、音声認識部104と、判定部110と、画像データバッファ112と、キャプチャーコントローラ114と、画像記憶部116と、人体認識部120と、ゲーム画像コントローラ130と、ゲーム画像DB(Data Base)132と、認識結果反映部134と、
リプレイコントローラ136と、リプレイ画像DB138と、レンダリングエンジン140とを含む。なお、図21に示す制御構造は、典型的には、CPU31がメインメモリ32などのハードウェアを利用してゲームプログラムを実行することが提供される。代替的に、その全部もしくは一部をハードウェア回路によって具現化してもよい。
FIG. 21 is a block diagram showing a control structure of game device 100 according to the present embodiment.
Referring to FIG. 21, game device 100 has, as its control structure, an audio data buffer 102, an audio recognition unit 104, a determination unit 110, an image data buffer 112, a capture controller 114, and an image storage unit 116. A human body recognition unit 120, a game image controller 130, a game image DB (Data Base) 132, a recognition result reflection unit 134,
A replay controller 136, a replay image DB 138, and a rendering engine 140 are included. The control structure shown in FIG. 21 is typically provided such that the CPU 31 executes a game program using hardware such as the main memory 32. Alternatively, all or a part thereof may be embodied by a hardware circuit.
音声データバッファ102は、マイク43(図3)により取得された音声がI/F回路42(図3)でD/A変換されて得られるデジタル形式の音声信号を所定時間分だけ蓄積する。この音声データバッファ102は、メインメモリ32の一部の領域として提供される。 The audio data buffer 102 accumulates a digital audio signal obtained by D / A conversion of audio acquired by the microphone 43 (FIG. 3) by the I / F circuit 42 (FIG. 3) for a predetermined time. The audio data buffer 102 is provided as a partial area of the main memory 32.
音声認識部104は、音声データバッファ102に蓄積された音声データに対して、公知の音声認識を行なう。典型的には、音声認識部104は、上述の図17に示す第3ゲームに含まれる第7ミニゲームにおけるユーザが息を吹きかけているか否かを判断する。なお、マイク43により取得された音声が所定の音圧以上であるか否かに基づいて、ユーザが息を吹きかけているか否かを判断してもよい。音声認識部104による認識結果は、判定部110へ送られる。 The voice recognition unit 104 performs known voice recognition on the voice data stored in the voice data buffer 102. Typically, the voice recognition unit 104 determines whether or not the user in the seventh mini game included in the third game shown in FIG. 17 is blowing. Note that it may be determined whether the user is blowing on the basis of whether the sound acquired by the microphone 43 is equal to or higher than a predetermined sound pressure. The recognition result by the voice recognition unit 104 is sent to the determination unit 110.
画像データバッファ112は、カメラ(内側カメラ23および外側カメラ25)より取得される画像データを所定コマ数分蓄積する。なお、上述の各ゲームにおいては、基本的に内側カメラ23が使用されるので、画像データバッファ112には、内側カメラ23で撮像された画像データが随時蓄積される。メインメモリ32の一部の領域として提供される。また、画像データバッファ112は、キャプチャーコントローラ114および人体認識部120と接続される。 The image data buffer 112 accumulates image data acquired from the cameras (the inner camera 23 and the outer camera 25) for a predetermined number of frames. In each game described above, the inner camera 23 is basically used. Therefore, the image data captured by the inner camera 23 is accumulated in the image data buffer 112 as needed. It is provided as a partial area of the main memory 32. The image data buffer 112 is connected to the capture controller 114 and the human body recognition unit 120.
キャプチャーコントローラ114は、画像データバッファ112と画像記憶部116との間に配置され、後述する判定部110からのキャプチャー指令に応じて、画像データバッファ112に蓄積されている画像データを画像記憶部116へ出力する。すなわち、ゲームのプレイ中(内側カメラ23が有効化されている間)には、内側カメラ23により撮像される画像データが周期的に画像データバッファ112に書込まれ、これらの画像データのうち、必要なものが選択的に画像記憶部116に格納される。 The capture controller 114 is arranged between the image data buffer 112 and the image storage unit 116, and in response to a capture command from the determination unit 110 described later, the image data stored in the image data buffer 112 is stored in the image storage unit 116. Output to. That is, during the game play (while the inner camera 23 is activated), image data captured by the inner camera 23 is periodically written to the image data buffer 112, and among these image data, Necessary items are selectively stored in the image storage unit 116.
画像記憶部116は、本実施の形態に従うゲーム終了後に表示される画像データを格納する。この画像記憶部116は、メインメモリ32もしくは保存用データメモリ34の一部の領域として提供される。なお、この画像記憶部116に格納された画像データを、外部からゲーム装置100に装着されるメモリカード28に格納するように構成してもよい。 Image storage unit 116 stores image data displayed after the game according to the present embodiment is over. The image storage unit 116 is provided as a partial area of the main memory 32 or the storage data memory 34. Note that the image data stored in the image storage unit 116 may be stored in the memory card 28 attached to the game apparatus 100 from the outside.
人体認識部120は、内側カメラ23により取得される画像データに対して人体認識を行なうとともに、その認識結果を判定部110へ出力する。より具体的には、顔認識部122と、色座標変換部124と、肌色領域検出部126とを含む。 The human body recognition unit 120 performs human body recognition on the image data acquired by the inner camera 23 and outputs the recognition result to the determination unit 110. More specifically, it includes a face recognition unit 122, a color coordinate conversion unit 124, and a skin color area detection unit 126.
顔認識部122は、画像データバッファ112に蓄積される画像データに対して、顔認識処理を実行する。すなわち、顔認識部122は、ユーザ画像として、撮像された画像データの中から人間の顔領域を検出する。このとき、顔認識部122は、顔領域に含まれる顔の特徴点なども抽出する。顔認識部122は、これらの顔認識結果を判定部110へ出力する。より具体的には、顔領域として特定された範囲を示す座標値および瞳などの中心座標などが検出結果として出力される。なお、顔認識部122における顔認識処理については、公知の技術であるので、ここでは詳細な説明は行なわない。 The face recognition unit 122 performs face recognition processing on the image data stored in the image data buffer 112. That is, the face recognition unit 122 detects a human face area from the captured image data as a user image. At this time, the face recognition unit 122 also extracts feature points of the face included in the face area. The face recognition unit 122 outputs these face recognition results to the determination unit 110. More specifically, a coordinate value indicating a range specified as a face area, a center coordinate such as a pupil, and the like are output as detection results. Note that the face recognition processing in the face recognition unit 122 is a known technique, and therefore will not be described in detail here.
色座標変換部124は、後述する肌色領域検出部126での前処理として、RGB表色系で記述された画像データをHVC表色系に変換する。すなわち、カメラで撮像される画像データでは、各画素の色情報がR(赤)、G(緑)、B(青)の階調値で表現されており、色座標変換部124は、これらの各画素の色情報を色相(Hue)、輝度(Value)、彩度(Chroma)の座標系に変換する。 The color coordinate conversion unit 124 converts image data described in the RGB color system to the HVC color system as preprocessing in the skin color area detection unit 126 described later. That is, in the image data captured by the camera, the color information of each pixel is expressed by gradation values of R (red), G (green), and B (blue), and the color coordinate conversion unit 124 The color information of each pixel is converted into a coordinate system of hue (Hue), luminance (Value), and saturation (Chroma).
肌色領域検出部126は、色座標変換部124から出力されるHVC座標系の色情報に基づいて、内側カメラ23により取得される画像データ内の肌色領域を検出する(肌色領域検出処理)。すなわち、肌色領域検出部126は、ユーザ画像として、内側カメラ23により取得される画像データ内の肌色領域を検出する。これにより、肌色領域検出部126は、画像データ内のユーザの領域を示すユーザ領域を検出する。より具体的には、肌色領域検出部126は、各画素について、色相、輝度、および彩度がそれぞれ対応するしきい範囲に含まれているか否かを判断し、いずれのしきい範囲に含まれている画素について「肌色」であると判定する。なお、周辺の照明環境によって、ユーザの肌の部分を撮像して得られる色情報は変動するので、予め、ユーザを1回もしくは複数回にわたって撮像し、これらの撮像によって得られた画像データに基づいて肌色とすべきしきい範囲を動的に決定することが好ましい。肌色領域検出部126は、このように検出した肌色領域(肌色であると判断された各画素の座標値および/または画素の数)を判定部110へ出力する。 The skin color area detection unit 126 detects a skin color area in the image data acquired by the inner camera 23 based on the color information of the HVC coordinate system output from the color coordinate conversion unit 124 (skin color area detection processing). That is, the skin color area detection unit 126 detects a skin color area in the image data acquired by the inner camera 23 as a user image. As a result, the skin color area detection unit 126 detects a user area indicating a user area in the image data. More specifically, the skin color area detection unit 126 determines whether the hue, luminance, and saturation are included in the corresponding threshold ranges for each pixel, and is included in any threshold range. It is determined that the pixel is “skin color”. In addition, since the color information obtained by imaging the user's skin portion varies depending on the surrounding lighting environment, the user is imaged once or a plurality of times in advance, and based on the image data obtained by these imaging. It is preferable to dynamically determine the threshold range to be used as the skin color. The skin color area detection unit 126 outputs the thus detected skin color area (the coordinate value and / or the number of pixels of each pixel determined to be a skin color) to the determination unit 110.
判定部110は、音声認識部104および人体認識部120(顔認識部122および肌色領域検出部126)からの認識結果に基づいて、ゲーム進行中に各ゲームに固有に設定された条件が満足されているか否かを逐次判断する。すなわち、判定部110は、認識結果に基づいて、進行中のゲーム演出に応じて表示されるオブジェクトの位置に関連付けられた条件が満足されるか否かを判断する。より具体的には、判定部110は、それぞれのゲームに対応付けて予め複数の条件からなる条件群110aを格納しており、ユーザ指令に応じて選択されるゲームに応じて、対応する条件を選択して、入力される認識結果が当該条件を満足するか否かを判断する。そして、判定部110は、各ゲームが成功であると判断される条件(成功条件)が満足された場合に、ゲームが成功したと決定する。 Based on the recognition results from the speech recognition unit 104 and the human body recognition unit 120 (the face recognition unit 122 and the skin color area detection unit 126), the determination unit 110 satisfies the conditions set specifically for each game during the game. Sequentially determine whether or not. That is, based on the recognition result, the determination unit 110 determines whether or not a condition associated with the position of the object displayed according to the ongoing game effect is satisfied. More specifically, the determination unit 110 stores a condition group 110a including a plurality of conditions in advance in association with each game, and sets a corresponding condition according to a game selected according to a user command. Select and determine whether the input recognition result satisfies the condition. Then, the determination unit 110 determines that the game is successful when a condition (success condition) for determining that each game is successful is satisfied.
なお、判定部110は、肌色領域検出部126および/または顔認識部122によりユーザの存在が検出されているときに限って、ゲームが成功したか否かを判断するようにしてもよい。ここで、ユーザの存在が検出されたか否かの判断基準としては、肌色領域検出部126によって所定面積以上の肌色領域が検出されている場合や、顔認識部122により顔領域が検出されている場合などを含む。このような条件を付加することで、ユーザがゲーム装置100の前に存在していないにもかかわらず、ゲームが誤判定によって進行するといった事態を回避できる。 Note that the determination unit 110 may determine whether or not the game is successful only when the presence of the user is detected by the skin color area detection unit 126 and / or the face recognition unit 122. Here, as a criterion for determining whether or not the presence of the user is detected, when a skin color area of a predetermined area or more is detected by the skin color area detection unit 126, or a face area is detected by the face recognition unit 122. Including cases. By adding such a condition, it is possible to avoid a situation in which the game proceeds due to erroneous determination even though the user does not exist in front of the game apparatus 100.
さらに、判定部110は、ゲームが成功であるか否かを決定するための成功条件に加えて、キャプチャーコントローラ114へ対してキャプチャー指令を出力するための条件が満足されるか否かについても判断する。 Further, the determination unit 110 determines whether or not a condition for outputting a capture command to the capture controller 114 is satisfied in addition to a success condition for determining whether or not the game is successful. To do.
また、この判定部110による判定結果は、ゲーム画像コントローラ130および認識結果反映部134へ出力される。また、判定部110は、人体認識部120からの認識結果を認識結果反映部134へ出力する。 The determination result by the determination unit 110 is output to the game image controller 130 and the recognition result reflection unit 134. Further, the determination unit 110 outputs the recognition result from the human body recognition unit 120 to the recognition result reflection unit 134.
ゲーム画像コントローラ130およびゲーム画像DB132は、判定部110からの認識結果に基づいて、ゲームを進行する。より具体的には、ゲーム画像DB132には、予め用意された複数のゲームにそれぞれ対応する画像オブジェクトが格納されており、ゲーム画像コントローラ130は、判定部110からの認識結果に基づいて、ゲーム画像DB132から必要な画像オブジェクトをレンダリングエンジン140へ適宜のタイミングで出力する。このように、判定部110、ゲーム画像コントローラ130、およびゲーム画像DB132は、人体認識の結果に基づいてゲームを進行する。 The game image controller 130 and the game image DB 132 advance the game based on the recognition result from the determination unit 110. More specifically, the game image DB 132 stores image objects respectively corresponding to a plurality of games prepared in advance, and the game image controller 130 determines the game image based on the recognition result from the determination unit 110. Necessary image objects are output from the DB 132 to the rendering engine 140 at an appropriate timing. As described above, the determination unit 110, the game image controller 130, and the game image DB 132 advance the game based on the result of human body recognition.
認識結果反映部134は、ゲーム進行中に人体認識部120により検出された肌色領域(ユーザ画像)を、ユーザの顔や手であると認識された領域として表示する(図7などに示す認識表示REC)。認識結果反映部134は、上述の図7などに示すように、検出された肌色領域を「影」として表示する。すなわち、認識結果反映部134は、ゲーム進行中に検出された肌色領域(ユーザ画像)を、内側カメラ23により撮像される画像とは異なる態様で表示する。 The recognition result reflection unit 134 displays the skin color area (user image) detected by the human body recognition unit 120 during the game as an area recognized as the user's face or hand (recognition display shown in FIG. 7 or the like). REC). The recognition result reflecting unit 134 displays the detected skin color area as “shadow” as shown in FIG. That is, the recognition result reflection unit 134 displays the skin color area (user image) detected during the game in a different manner from the image captured by the inner camera 23.
リプレイコントローラ136およびリプレイ画像DB138は、上述のゲーム終了後の画像表示(リプレイ動作)を行なう。より具体的には、リプレイ画像DB138には、ゲーム終了後の画像データに重ね合わせる画像オブジェクトが格納されており、リプレイコントローラ136は、ゲーム終了後に、画像記憶部116に格納される画像データを読み出すとともに、必要に応じて、リプレイ画像DB138から対応する画像オブジェクトを読み出して、両者をレンダリングエンジン140へ出力する。なお、図10に示すように、複数の画像データを何らの画像オブジェクトを重ねることなく表示する場合には、リプレイコントローラ136は、画像記憶部116に格納されている画像データのみをレンダリングエンジン140へ出力する。 The replay controller 136 and the replay image DB 138 perform image display (replay operation) after the above-described game ends. More specifically, the replay image DB 138 stores an image object to be superimposed on the image data after the game ends, and the replay controller 136 reads the image data stored in the image storage unit 116 after the game ends. At the same time, corresponding image objects are read from the replay image DB 138 as necessary, and both are output to the rendering engine 140. As shown in FIG. 10, when displaying a plurality of image data without overlapping any image object, the replay controller 136 sends only the image data stored in the image storage unit 116 to the rendering engine 140. Output.
レンダリングエンジン140は、第1LCD12および第2LCD22における画像表示を制御する。より具体的には、レンダリングエンジン140は、ゲーム進行中においては、ゲーム画像コントローラ130からの画像オブジェクトと、認識結果反映部134からの認識された領域を示す画像とを重ねて表示する。また、レンダリングエンジン140は、ゲーム終了後においては、リプレイコントローラ136からの画像データおよび画像オブジェクトとを重ねて表示する。 The rendering engine 140 controls image display on the first LCD 12 and the second LCD 22. More specifically, the rendering engine 140 displays the image object from the game image controller 130 and the image indicating the recognized area from the recognition result reflecting unit 134 in an overlapping manner while the game is in progress. In addition, after the game ends, the rendering engine 140 displays the image data and the image object from the replay controller 136 in an overlapping manner.
図22は、図21に示すレンダリングエンジンにおける処理を概念的に示す図である。なお、図22には、図11(b)に示す第2LCD22における表示を実現する場合の例を示す。 FIG. 22 is a diagram conceptually showing processing in the rendering engine shown in FIG. FIG. 22 shows an example in which the display on the second LCD 22 shown in FIG.
図22を参照して、レンダリングエンジン140では、第1LCD12および第2LCD22に画像を表示するための映像信号は、複数のレイヤーを用いて生成される。より具体的には、レンダリングエンジン140は、少なくとも、画像データIMGを表示するための第1レイヤーLYR1と、画像オブジェクトを表示するための第2レイヤーLYR2とを有する。第1レイヤーLYR1には画像データIMGが展開され、第2レイヤーLYR2にはオブジェクトOBJ10#が展開される。なお、レイヤーLYR1およびLYR2の各々は、第1LCD12または第2LCD22での表示に十分な大きさのメモリ領域をCPU31内のVRAM(図示しない)に形成することで提供される。これらのレイヤーLYR1およびLYR2を合成することで、映像信号が生成される。 Referring to FIG. 22, in rendering engine 140, a video signal for displaying an image on first LCD 12 and second LCD 22 is generated using a plurality of layers. More specifically, the rendering engine 140 includes at least a first layer LYR1 for displaying the image data IMG and a second layer LYR2 for displaying the image object. The image data IMG is expanded on the first layer LYR1, and the object OBJ10 # is expanded on the second layer LYR2. Each of the layers LYR1 and LYR2 is provided by forming a memory area large enough for display on the first LCD 12 or the second LCD 22 in a VRAM (not shown) in the CPU 31. By synthesizing these layers LYR1 and LYR2, a video signal is generated.
このように、第2レイヤーLYR2に必要なオブジェクトを展開することで、ゲームの進行中および画像記憶部116に保存された画像データに基づく画像の表示中に、任意のオブジェクトを切換えて表示させることができる。 In this way, by expanding the necessary objects in the second layer LYR2, any object can be switched and displayed during the game and during the display of the image based on the image data stored in the image storage unit 116. Can do.
<第1ゲームの処理内容および処理手順>
次に、上述の第1ゲーム(図7〜図10)を提供するための処理内容および処理手順について説明する。第1ゲームでは、主として、ゲーム演出に応じて表示されるオブジェクトの位置と、肌色領域検出部126(図22)により検出される肌色領域の位置および大きさとに基づいてゲームが進行される。
<Processing contents and processing procedure of first game>
Next, processing contents and processing procedures for providing the first game (FIGS. 7 to 10) will be described. In the first game, the game proceeds mainly based on the position of the object displayed according to the game effect and the position and size of the skin color area detected by the skin color area detection unit 126 (FIG. 22).
図23は、この発明の実施の形態に従う第1ゲームのゲーム進行の条件を説明するための図である。図23を参照して、第1ゲームでは、図7〜図9に示す第2LCD22に表示されるオブジェクトの位置に対応付けて、内側カメラ23により取得される画像データに設定した基準点RP1を中心として、同心円状に区分された複数の判定領域AREA1〜AREA5が設定される。そして、これらの判定領域AREA1〜AREA5に含まれる画素のうち、「肌色」であると検出された画素数(比率)をゲーム進行の条件とする。 FIG. 23 is a diagram for describing the game progress conditions of the first game according to the embodiment of the present invention. Referring to FIG. 23, in the first game, the reference point RP1 set in the image data acquired by the inner camera 23 is centered in association with the position of the object displayed on the second LCD 22 shown in FIGS. A plurality of determination areas AREA1 to AREA5 divided into concentric circles are set. Of the pixels included in these determination areas AREA1 to AREA5, the number of pixels (ratio) detected as “skin color” is used as the game progress condition.
より具体的には、第1ゲームでは、ゲーム進行が第1段階から第5段階に区分されており、それぞれ判定領域AREA1〜AREA5に含まれる画素のうち「肌色」であると検出された画素数についての対応する判定領域に含まれる全画素数に対する比率が算出され、算出された比率がそれぞれ対応するしきい値を超えることを条件に、順次段階を進める。これは、第1ゲームでは、ユーザがゲーム装置100に顔を徐々に近付けることが想定されており、このようなユーザの動きによって、「肌色」であると検出された画素が徐々に広がると想定されるためである。 More specifically, in the first game, the game progress is divided from the first stage to the fifth stage, and the number of pixels detected as “skin color” among the pixels included in the determination areas AREA1 to AREA5, respectively. A ratio with respect to the total number of pixels included in the corresponding determination region is calculated, and the steps are sequentially performed on condition that the calculated ratio exceeds a corresponding threshold value. In the first game, it is assumed that the user gradually approaches the face of the game apparatus 100, and it is assumed that pixels detected as “skin color” gradually spread due to such user movement. It is to be done.
すなわち、第1ゲームの開始後、まず、判定領域AREA1に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA1に含まれる全画素数に対する比率が所定のしきい値Th1を超えると、第2段階に進む。第2段階においては、判定領域AREA2に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA2に含まれる全画素数に対する比率が所定のしきい値Th2を超えるか否かが継続的に判断され、しきい値Th2を超えると、第3段階に進む。 That is, after the start of the first game, first, the ratio of the number of pixels detected as “skin color” among the pixels included in the determination area AREA1 to the total number of pixels included in the determination area AREA1 is a predetermined threshold Th1. If it exceeds, proceed to the second stage. In the second stage, whether the ratio of the number of pixels detected as “skin color” among the pixels included in the determination area AREA2 to the total number of pixels included in the determination area AREA2 exceeds a predetermined threshold value Th2. Is continuously determined, and if the threshold value Th2 is exceeded, the process proceeds to the third stage.
以下、同様にして、第3段階では、判定領域AREA3に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA3に含まれる全画素数に対する比率が所定のしきい値Th3を超えるか否かが継続的に判断され、しきい値Th3を超えると、第4段階に進む。続く第4段階では、判定領域AREA4に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA4に含まれる全画素数に対する比率が所定のしきい値Th4を超えるか否かが継続的に判断され、しきい値Th4を超えると、第5段階に進む。さらに続く、続く第5段階では、判定領域AREA5に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA5に含まれる全画素数に対する比率が所定のしきい値Th5を超えるか否かが継続的に判断され、しきい値Th5を超えると、第1ゲームは「成功」となる。 Similarly, in the third stage, the ratio of the number of pixels detected as “skin color” among the pixels included in the determination area AREA3 to the total number of pixels included in the determination area AREA3 is a predetermined threshold Th3. Is continuously determined. If the threshold value Th3 is exceeded, the process proceeds to the fourth stage. In the subsequent fourth stage, whether or not the ratio of the number of pixels detected as “skin color” among the pixels included in the determination area AREA4 to the total number of pixels included in the determination area AREA4 exceeds a predetermined threshold Th4. Is continuously determined, and if the threshold value Th4 is exceeded, the process proceeds to the fifth stage. In the subsequent fifth stage, the ratio of the number of pixels detected as “skin color” among the pixels included in the determination area AREA5 to the total number of pixels included in the determination area AREA5 exceeds a predetermined threshold Th5. Whether the first game is “successful” when the threshold value Th5 is exceeded.
なお、しきい値Th1〜Th5は、いずれも50%以上に設定することが好ましい。また、上述の説明では、各判定領域について、「肌色」であると検出された画素数の比率で判定する場合について例示したが、「肌色」であると検出された画素の絶対数で判定するようにしてもよい。 Note that the thresholds Th1 to Th5 are all preferably set to 50% or more. Further, in the above description, each determination area is exemplified by the ratio of the number of pixels detected as “skin color”. However, the determination is based on the absolute number of pixels detected as “skin color”. You may do it.
上述のように、各段階では、対応する判定領域に含まれる画素に基づいて条件が満足されているか否かの判断がなされる。本来予想されるユーザの動きとは異なった検出結果、たとえば、第1ゲーム開始直後において、内側の判定領域において「肌色」であると検出された画素数が少ないにもかかわらず、より外側の判定領域において「肌色」であると検出された画素数が多いような場合において、いきなり第1ゲームが「成功」といった誤った判断を避けることができる。 As described above, at each stage, it is determined whether or not the condition is satisfied based on the pixels included in the corresponding determination region. A detection result that is different from the user's expected movement, for example, immediately after the first game is started, even though the number of pixels detected as “skin color” in the inner determination region is small, the outer determination In the case where the number of pixels detected as “skin color” in the region is large, it is possible to avoid an erroneous determination that the first game is “successful” suddenly.
また、上述のゲーム進行の段階に応じて、ゲーム演出が変更される。たとえば、第1〜第3段階までは、図7に示すような画像オブジェクトを表示させるとともに、第3段階から第4段階に進んだタイミングで、図8に示すような画像オブジェクトに表示を切換える。さらに、第5段階における条件が満足されて、第1ゲームが「成功」と判断されると、図10に示すような画像オブジェクトに表示を切換える。 Further, the game effect is changed according to the stage of the above-described game progress. For example, in the first to third stages, the image object as shown in FIG. 7 is displayed, and the display is switched to the image object as shown in FIG. 8 at the timing of proceeding from the third stage to the fourth stage. Further, when the condition in the fifth stage is satisfied and the first game is determined to be “successful”, the display is switched to an image object as shown in FIG.
本実施の形態に従うそれぞれのゲームにおいては、所定の条件が満足されるタイミングで、ユーザのプレイ中の姿をキャプチャーされる。第1ゲームにおいては、上述の第1〜第5段階における条件が満足されたタイミングで、内側カメラ23により取得される画像データがキャプチャーされる。すなわち、キャプチャーされる画像データは、それぞれゲーム進行の段階が変化するタイミング周辺におけるユーザの姿を含むことになる。 In each game according to the present embodiment, the user's playing appearance is captured at a timing when a predetermined condition is satisfied. In the first game, the image data acquired by the inner camera 23 is captured at the timing when the conditions in the first to fifth stages are satisfied. That is, the captured image data includes the user's appearance around the timing at which the stage of game progress changes.
なお、上述の基準点RP1および判定領域AREA1〜AREA5の位置は、ゲーム演出上で表示されるオブジェクトの位置によって適宜変更される。 Note that the positions of the reference point RP1 and the determination areas AREA1 to AREA5 are appropriately changed depending on the position of the object displayed on the game effect.
上述したように、第1ゲームでは、予め定められた複数の段階において、各段階に対応付けられた成功条件に基づいてゲーム成功をそれぞれ判断することでゲームが進行される。第1ゲームの終了後、ゲーム進行中の複数の段階のそれぞれにおいて取得されて画像記憶部116に記憶された複数の画像データが連続的に表示される。 As described above, in the first game, in a plurality of predetermined stages, the game progresses by determining the success of the game based on the success conditions associated with each stage. After the end of the first game, a plurality of image data acquired at each of a plurality of stages during the game and stored in the image storage unit 116 are continuously displayed.
図24は、この発明の実施の形態に従う第1ゲームの処理手順を示すフローチャートである。図24に示すフローチャートは、第1ゲームの開始がユーザにより指示されると実行される。 FIG. 24 is a flowchart showing a processing procedure of the first game according to the embodiment of the present invention. The flowchart shown in FIG. 24 is executed when the user gives an instruction to start the first game.
図24を参照して、まず、ステップS100において、CPU31は、内側カメラ23により撮像される画像データを取得する。続くステップS102において、CPU31は、取得した画像データ内の肌色領域を検出する。さらに続くステップS104において、CPU31は、図23に示す判定領域AREA1に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA1に含まれる全画素数に対する比率がしきい値Th1を超えているか否かを判断する。比率がしきい値Th1を超えていない場合(ステップS104においてNOの場合)には、ステップS100の処理が繰返される。一方、比率がしきい値Th1を超えている場合(ステップS104においてYESの場合)には、処理はステップS106へ進む。 Referring to FIG. 24, first, in step S <b> 100, the CPU 31 acquires image data captured by the inner camera 23. In subsequent step S102, the CPU 31 detects a skin color region in the acquired image data. Further, in step S104, the CPU 31 determines that the ratio of the number of pixels detected as “skin color” to the total number of pixels included in the determination area AREA1 among the pixels included in the determination area AREA1 illustrated in FIG. It is determined whether or not it exceeds. If the ratio does not exceed threshold value Th1 (NO in step S104), the process of step S100 is repeated. On the other hand, if the ratio exceeds threshold value Th1 (YES in step S104), the process proceeds to step S106.
ステップS106において、CPU31は、最も直近に取得された画像データをメインメモリ32もしくは保存用データメモリ34に格納する。すなわち、CPU31は、ユーザのプレイしている姿をキャプチャーする。そして、処理はステップS108へ進む。すなわち、第1ゲームの進行は、第1段階から第2段階へ進む。 In step S <b> 106, the CPU 31 stores the most recently acquired image data in the main memory 32 or the storage data memory 34. That is, the CPU 31 captures the appearance of the user playing. Then, the process proceeds to step S108. That is, the progress of the first game proceeds from the first stage to the second stage.
ステップS108において、CPU31は、内側カメラ23により撮像される画像データを取得する。続くステップS110において、CPU31は、取得した画像データ内の肌色領域を検出する。さらに続くステップS112において、CPU31は、図23に示す判定領域AREA2に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA2に含まれる全画素数に対する比率がしきい値Th2を超えているか否かを判断する。比率がしきい値Th2を超えていない場合(ステップS112においてNOの場合)には、ステップS108の処理が繰返される。一方、比率がしきい値Th2を超えている場合(ステップS112においてYESの場合)には、処理はステップS114へ進む。 In step S <b> 108, the CPU 31 acquires image data captured by the inner camera 23. In subsequent step S110, CPU 31 detects a skin color region in the acquired image data. Further, in step S112, the CPU 31 determines that the ratio of the number of pixels detected as “skin color” to the total number of pixels included in the determination area AREA2 among the pixels included in the determination area AREA2 illustrated in FIG. It is determined whether or not it exceeds. If the ratio does not exceed threshold value Th2 (NO in step S112), the process of step S108 is repeated. On the other hand, if the ratio exceeds threshold value Th2 (YES in step S112), the process proceeds to step S114.
ステップS114において、CPU31は、最も直近に取得された画像データをメインメモリ32もしくは保存用データメモリ34に格納する。すなわち、CPU31は、ユーザのプレイしている姿をキャプチャーする。そして、処理はステップS116へ進む。すなわち、第1ゲームの進行は、第2段階から第3段階へ進む。 In step S <b> 114, the CPU 31 stores the most recently acquired image data in the main memory 32 or the storage data memory 34. That is, the CPU 31 captures the appearance of the user playing. Then, the process proceeds to step S116. That is, the progress of the first game proceeds from the second stage to the third stage.
ステップS116において、CPU31は、内側カメラ23により撮像される画像データを取得する。続くステップS118において、CPU31は、取得した画像データ内の肌色領域を検出する。さらに続くステップS120において、CPU31は、図23に示す判定領域AREA3に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA3に含まれる全画素数に対する比率がしきい値Th3を超えているか否かを判断する。比率がしきい値Th3を超えていない場合(ステップS120においてNOの場合)には、ステップS116の処理が繰返される。一方、比率がしきい値Th3を超えている場合(ステップS120においてYESの場合)には、処理はステップS122へ進む。 In step S <b> 116, the CPU 31 obtains image data captured by the inner camera 23. In subsequent step S118, CPU 31 detects a skin color area in the acquired image data. Further, in step S120, the CPU 31 determines that the ratio of the number of pixels detected as “skin color” among the pixels included in the determination area AREA3 shown in FIG. 23 to the total number of pixels included in the determination area AREA3 is the threshold Th3. It is determined whether or not it exceeds. If the ratio does not exceed threshold value Th3 (NO in step S120), the process of step S116 is repeated. On the other hand, if the ratio exceeds threshold value Th3 (YES in step S120), the process proceeds to step S122.
ステップS122において、CPU31は、最も直近に取得された画像データをメインメモリ32もしくは保存用データメモリ34に格納する。すなわち、CPU31は、ユーザのプレイしている姿をキャプチャーする。さらに続くステップS124において、CPU31は、図7に示す画像オブジェクトから図8に示す画像オブジェクトに、表示する画像オブジェクトを切換える。そして、処理はステップS126へ進む。すなわち、第1ゲームの進行は、第3段階から第4段階へ進む。 In step S 122, the CPU 31 stores the most recently acquired image data in the main memory 32 or the storage data memory 34. That is, the CPU 31 captures the appearance of the user playing. In further subsequent step S124, the CPU 31 switches the image object to be displayed from the image object shown in FIG. 7 to the image object shown in FIG. Then, the process proceeds to step S126. That is, the progress of the first game proceeds from the third stage to the fourth stage.
ステップS126において、CPU31は、内側カメラ23により撮像される画像データを取得する。続くステップS128において、CPU31は、取得した画像データ内の肌色領域を検出する。さらに続くステップS130において、CPU31は、図23に示す判定領域AREA4に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA4に含まれる全画素数に対する比率がしきい値Th4を超えているか否かを判断する。比率がしきい値Th4を超えていない場合(ステップS130においてNOの場合)には、ステップS126の処理が繰返される。一方、比率がしきい値Th4を超えている場合(ステップS130においてYESの場合)には、処理はステップS132へ進む。 In step S <b> 126, the CPU 31 acquires image data captured by the inner camera 23. In subsequent step S128, CPU 31 detects a skin color region in the acquired image data. Further, in step S130, the CPU 31 determines that the ratio of the number of pixels detected as “skin color” among the pixels included in the determination area AREA4 shown in FIG. 23 to the total number of pixels included in the determination area AREA4 is the threshold Th4. It is determined whether or not it exceeds. If the ratio does not exceed threshold value Th4 (NO in step S130), the process of step S126 is repeated. On the other hand, if the ratio exceeds threshold value Th4 (YES in step S130), the process proceeds to step S132.
ステップS132において、CPU31は、最も直近に取得された画像データをメインメモリ32もしくは保存用データメモリ34に格納する。すなわち、CPU31は、ユーザのプレイしている姿をキャプチャーする。そして、処理はステップS134へ進む。すなわち、第1ゲームの進行は、第4段階から第5段階へ進む。 In step S <b> 132, the CPU 31 stores the most recently acquired image data in the main memory 32 or the storage data memory 34. That is, the CPU 31 captures the appearance of the user playing. Then, the process proceeds to step S134. That is, the progress of the first game proceeds from the fourth stage to the fifth stage.
ステップS134において、CPU31は、内側カメラ23により撮像される画像データを取得する。続くステップS136において、CPU31は、取得した画像データ内の肌色領域を検出する。さらに続くステップS138において、CPU31は、図23に示す判定領域AREA5に含まれる画素のうち「肌色」であると検出された画素数の判定領域AREA5に含まれる全画素数に対する比率がしきい値Th5を超えているか否かを判断する。比率がしきい値Th5を超えていない場合(ステップS138においてNOの場合)には、ステップS134以下の処理が繰返される。一方、比率がしきい値Th5を超えている場合(ステップS138においてYESの場合)には、処理はステップS140へ進む。 In step S134, the CPU 31 obtains image data captured by the inner camera 23. In subsequent step S136, the CPU 31 detects a skin color region in the acquired image data. Further, in step S138, the CPU 31 determines that the ratio of the number of pixels detected as “skin color” to the total number of pixels included in the determination area AREA5 among the pixels included in the determination area AREA5 illustrated in FIG. It is determined whether or not it exceeds. If the ratio does not exceed threshold value Th5 (NO in step S138), the processes in and after step S134 are repeated. On the other hand, if the ratio exceeds threshold value Th5 (YES in step S138), the process proceeds to step S140.
ステップS140において、CPU31は、最も直近に取得された画像データをメインメモリ32もしくは保存用データメモリ34に格納する。すなわち、CPU31は、ユーザのプレイしている姿をキャプチャーする。さらに続くステップS142において、CPU31は、図8に示す画像オブジェクトから図9に示す画像オブジェクトに、表示する画像オブジェクトを切換える。そして、処理はステップS144へ進む。すなわち、第1ゲームは「成功」と判断され、第1ゲームの進行は終了する。 In step S <b> 140, the CPU 31 stores the most recently acquired image data in the main memory 32 or the storage data memory 34. That is, the CPU 31 captures the appearance of the user playing. In further subsequent step S142, CPU 31 switches the image object to be displayed from the image object shown in FIG. 8 to the image object shown in FIG. Then, the process proceeds to step S144. That is, the first game is determined to be “successful”, and the progress of the first game ends.
なお、上述のステップS100〜S142までの一連の処理が、予め定められた時間内に終了しない場合には、第1ゲームが「失敗」に終わったと判断してもよい。この場合には、ステップS144以降の処理に代えて、第1ゲームが「失敗」であることを示す画面が表示される。 In addition, when the series of processes from the above-described steps S100 to S142 does not end within a predetermined time, it may be determined that the first game has been “failed”. In this case, a screen indicating that the first game is “failure” is displayed instead of the processing after step S144.
ステップS144において、CPU31は、キャプチャーした複数の画像データをメインメモリ32もしくは保存用データメモリ34から読出して、所定の順序で第2LCD22に順次切換えて表示する。すなわち、CPU31は、ゲームプレイ中のユーザの姿をリプレイ表示する。なお、この画像データの表示順は、キャプチャーされた時間順であってもよいし、あるいはキャプチャーされた時間順とは独立したランダムな順序であってもよい。 In step S144, the CPU 31 reads a plurality of captured image data from the main memory 32 or the storage data memory 34, and sequentially switches and displays them on the second LCD 22 in a predetermined order. That is, the CPU 31 replays and displays the appearance of the user who is playing the game. The display order of the image data may be a captured time order or may be a random order independent of the captured time order.
続くステップS146において、CPU31は、ユーザにより終了が指示されたか否かを判断する。ユーザにより終了が指示されていない場合(ステップS146においてNOの場合)には、ステップS144の処理が繰返される。一方、ユーザにより終了が指示された場合(ステップS146においてYESの場合)には、第1ゲームについての処理は終了する。 In subsequent step S146, CPU 31 determines whether or not the user has instructed termination. If termination is not instructed by the user (NO in step S146), the process in step S144 is repeated. On the other hand, when the end is instructed by the user (YES in step S146), the process for the first game ends.
<第2ゲームの処理内容および処理手順>
上述したように、本実施の形態に従う第2ゲームは、複数のミニゲームを含む。各ミニゲームでは、ゲーム進行と並行して、ユーザのプレイ中の姿がキャプチャーされる。そして、一連のミニゲームが終了すると、各ミニゲームにおいてキャプチャーされた画像データに、さまざまなオブジェクトを重ねて表示する。
<Processing contents and processing procedure of second game>
As described above, the second game according to the present embodiment includes a plurality of mini games. In each mini game, the user's playing appearance is captured in parallel with the progress of the game. When a series of mini-games is completed, various objects are displayed in an overlapping manner on the image data captured in each mini-game.
(1)全体処理
図25は、この発明の実施の形態に従う第2ゲームの処理手順を示すフローチャートである。図25に示すフローチャートは、第2ゲームの開始がユーザにより指示されると実行される。
(1) Overall Processing FIG. 25 is a flowchart showing a processing procedure of the second game according to the embodiment of the present invention. The flowchart shown in FIG. 25 is executed when the user instructs the start of the second game.
図25を参照して、まず、ステップS20において、CPU31は、ミニゲームを実行する。この実行されるミニゲームにおいては、ゲーム進行および画像データのキャプチャーが並列的に実行される。続くステップS30において、CPU31は、予め用意されているすべてのミニゲームの実行が完了したか否かを判断する。すべてのミニゲームの実行が完了していない場合(ステップS30においてNOの場合)には、ステップS20の処理が繰返される。すなわち、予め用意されているミニゲームの数だけ、ステップS20の処理が繰返される。すべてのミニゲームの実行が完了している場合(ステップS30においてYESの場合)、すなわち第2ゲーム終了後には、処理はステップS32以下のリプレイ処理に移行する。 Referring to FIG. 25, first, in step S20, CPU 31 executes a mini game. In the mini game to be executed, game progress and image data capture are executed in parallel. In the subsequent step S30, the CPU 31 determines whether or not the execution of all the prepared mini games has been completed. If execution of all mini-games has not been completed (NO in step S30), the process of step S20 is repeated. That is, the process of step S20 is repeated for the number of mini games prepared in advance. If execution of all mini-games has been completed (YES in step S30), that is, after the end of the second game, the process proceeds to a replay process in step S32 and subsequent steps.
ステップS32において、CPU31は、先のミニゲームにおいてそれぞれキャプチャーされた画像データのうち、1つの画像データを読出す。続くステップS34において、CPU31は、読出した画像データに応じたオブジェクトを読出す。さらに続くステップS36において、CPU31は、ステップS32において読出した画像データにステップS34において読出したオブジェクトを重ねて表示する。所定時間の経過後、処理はステップS38へ進む。 In step S32, the CPU 31 reads one image data out of the image data captured in the previous mini game. In subsequent step S34, CPU 31 reads an object corresponding to the read image data. In further succeeding step S36, the CPU 31 displays the object read in step S34 so as to overlap the image data read in step S32. After the elapse of the predetermined time, the process proceeds to step S38.
ステップS38において、CPU31は、ユーザにより終了が指示されたか否かを判断する。ユーザにより終了が指示されていない場合(ステップS38においてNOの場合)には、ステップS32の処理が繰返される。一方、ユーザにより終了が指示された場合(ステップS38においてYESの場合)には、第2ゲームについての処理は終了する。 In step S38, the CPU 31 determines whether or not the user has instructed the end. If termination is not instructed by the user (NO in step S38), the process in step S32 is repeated. On the other hand, if the end is instructed by the user (YES in step S38), the process for the second game ends.
次に、上述の第2ゲームに含まれる第1〜第3ミニゲーム(図11〜図13)を提供するための処理内容および処理手順について説明する。 Next, processing contents and processing procedures for providing the first to third mini games (FIGS. 11 to 13) included in the second game will be described.
(2)第1ミニゲーム
第2ゲームに含まれる第1ミニゲームでは、主として、ゲーム演出に応じて表示されるオブジェクトの位置と、顔認識部122(図22)により検出される顔特徴量の位置とに基づいてゲームが進行される。より具体的には、顔認識部122により認識される顔特徴量のうち、「瞳」のそれぞれの中心座標に基づいて、ゲーム進行に係る条件が満足されるか否かが判断される。
(2) First mini-game In the first mini-game included in the second game, mainly the position of the object displayed in accordance with the game effect and the facial feature amount detected by the face recognition unit 122 (FIG. 22). The game proceeds based on the position. More specifically, it is determined whether or not a condition related to the game progress is satisfied based on the center coordinates of the “pupil” among the facial feature amounts recognized by the face recognition unit 122.
図26は、この発明の実施の形態に従う第2ゲームに含まれる第1ミニゲームのゲーム進行の条件を説明するための図である。図26を参照して、第1ミニゲームでは、図11(a)に示す第2LCD22に表示される「メガネ」のオブジェクトOBJ10の中心点に対応付けて、内側カメラ23により取得される画像データに基準点RP2が設定される。そして、この基準点RP2を中心として、左右対称に判定領域DTLおよびDTRが設定される。これらの判定領域DTLおよびDTRは、「メガネ」のオブジェクトOBJ10のレンズの部分に対応するように設定される。なお、図26には、判定領域DTLおよびDTRを矩形状としたが、これに限らず円状や楕円状であってもよい。さらに、これらの判定領域DTLおよびDTRのそれぞれに認識された「瞳」の中心座標の値が含まれる度合いをゲーム進行の条件とする。 FIG. 26 is a diagram for describing the game progress conditions of the first mini game included in the second game according to the embodiment of the present invention. Referring to FIG. 26, in the first mini game, the image data acquired by the inner camera 23 in association with the center point of the “glasses” object OBJ10 displayed on the second LCD 22 shown in FIG. A reference point RP2 is set. Then, determination areas DTL and DTR are set symmetrically about the reference point RP2. These determination areas DTL and DTR are set so as to correspond to the lens portion of the object “OBJ10” of “glasses”. In FIG. 26, the determination areas DTL and DTR are rectangular. However, the determination areas are not limited to this and may be circular or elliptical. Further, the degree of inclusion of the value of the center coordinates of the recognized “pupil” in each of the determination areas DTL and DTR is set as the game progress condition.
より具体的には、第1ミニゲームでは、判定周期毎に、認識された「瞳」の中心座標DEPがそれぞれ判定領域DTLおよびDTRに含まれているか否かが判定され、含まれていれば所定の点数を加算し、含まれていなければ所定の点数を減算する。この結果、累積点が所定のしきい値を超えた時点で、第1ミニゲームは「成功」となる。 More specifically, in the first mini game, for each determination cycle, it is determined whether or not the recognized center coordinates DEP of the “pupil” are included in the determination areas DTL and DTR, respectively. A predetermined score is added, and if not included, the predetermined score is subtracted. As a result, the first mini game becomes “successful” when the cumulative point exceeds a predetermined threshold.
また、第2ゲームに含まれる第1ミニゲームでは、初期値(典型的には、ゼロ)から「成功」と判定されるしきい値までの間に複数の中間的なしきい値が予め設定されており、累積点がこれらの中間的なしきい値をはじめて超えるタイミングで、ユーザのプレイ中の姿をキャプチャーされる。典型的には、Th11,Th12,Th13,Th14,Th15(但し、Th11<Th12<Th13<Th14<Th15)の5つのしきい値が予め設定されており、累積値がそれぞれのしきい値をはじめて超えるタイミングで画像データがキャプチャーされるとともに、累積値がしきい値Th5を超えると、第1ミニゲームは「成功」となる。したがって、キャプチャーされる画像データは、累積値がそれぞれしきい値を超えるタイミングにおけるユーザの姿を含むことになる。 In the first mini game included in the second game, a plurality of intermediate threshold values are set in advance between the initial value (typically zero) and the threshold value determined as “success”. At the timing when the cumulative point exceeds these intermediate thresholds for the first time, the user's playing appearance is captured. Typically, five threshold values of Th11, Th12, Th13, Th14, and Th15 (where Th11 <Th12 <Th13 <Th14 <Th15) are set in advance, and the cumulative value is the first time that each of the threshold values is set. When the image data is captured at a timing exceeding the threshold value and the accumulated value exceeds the threshold Th5, the first mini game is “successful”. Therefore, the captured image data includes the user's appearance at the timing when the accumulated value exceeds the threshold value.
なお、上述の基準点RP2の位置ならびに判定領域DTLおよびDTRの位置および大きさは、ゲーム演出上で表示されるオブジェクトの種類および位置によって適宜変更される。 The position of the reference point RP2 and the positions and sizes of the determination areas DTL and DTR are appropriately changed depending on the type and position of the object displayed on the game effect.
図27は、この発明の実施の形態に従う第2ゲームに含まれる第1ミニゲームの処理手順を示すフローチャートである。 FIG. 27 is a flowchart showing a processing procedure of the first mini game included in the second game according to the embodiment of the present invention.
図27を参照して、まず、ステップS200において、CPU31は、累積値Sを初期化(累積値Sに「ゼロ」をセット)する。続くステップS202において、CPU31は、しきい値ThSを初期化(しきい値ThSに最も小さいしきい値であるTh11をセット)する。 Referring to FIG. 27, first, in step S200, CPU 31 initializes accumulated value S (sets accumulated value S to “zero”). In subsequent step S202, CPU 31 initializes threshold value ThS (sets threshold value ThS, which is the smallest threshold value Th11).
ステップS204において、CPU31は、内側カメラ23により撮像される画像データを取得する。続くステップS206において、CPU31は、取得した画像データ内における左右それぞれの「瞳」の中心座標を認識する。さらに続くステップS208において、認識した左右それぞれの「瞳」の中心座標が判定領域DTLおよびDTR(図26)に含まれているか否かを判断する。左右それぞれの「瞳」の中心座標が判定領域DTLおよびDTRに含まれている場合(ステップS208においてYESの場合)には、累積値Sに一定値αを加算する(ステップS210)。一方、左右それぞれの「瞳」の中心座標が判定領域DTLおよびDTRに含まれていない場合(ステップS208においてNOの場合)には、累積値Sから一定値βを減算する(ステップS212)。その後、処理はステップS214へ進む。 In step S <b> 204, the CPU 31 acquires image data captured by the inner camera 23. In the subsequent step S206, the CPU 31 recognizes the center coordinates of the left and right “pupils” in the acquired image data. In the subsequent step S208, it is determined whether or not the recognized center coordinates of the left and right “pupils” are included in the determination regions DTL and DTR (FIG. 26). If the center coordinates of the left and right “pupils” are included in the determination areas DTL and DTR (YES in step S208), a fixed value α is added to the accumulated value S (step S210). On the other hand, when the center coordinates of the left and right “pupils” are not included in the determination areas DTL and DTR (NO in step S208), the constant value β is subtracted from the accumulated value S (step S212). Thereafter, the process proceeds to step S214.
ステップS214において、CPU31は、累積値Sがしきい値ThSを超えているか否かを判断する。累積値Sがしきい値ThSを超えていない場合(ステップS214においてNOの場合)には、ステップS202以下の処理が繰返される。一方、累積値Sがしきい値ThSを超えている場合(ステップS214においてYESの場合)には、処理はステップS216へ進む。 In step S214, the CPU 31 determines whether or not the accumulated value S exceeds the threshold value ThS. If cumulative value S does not exceed threshold value ThS (NO in step S214), the processes in and after step S202 are repeated. On the other hand, if accumulated value S exceeds threshold value ThS (YES in step S214), the process proceeds to step S216.
ステップS216において、CPU31は、最も直近に取得された画像データをメインメモリ32もしくは保存用データメモリ34に格納する。すなわち、CPU31は、ユーザのプレイしている姿をキャプチャーする。続くステップS218において、CPU31は、現在のしきい値ThSに最も大きなしきい値であるしきい値Th15がセットされているか否かを判断する。現在のしきい値ThSにしきい値Th15がセットされていない場合(ステップS218においてNOの場合)には、CPU31は、しきい値ThSに現在セットされているしきい値の次に大きなしきい値をセットし(ステップS220)、ステップS202以下の処理を繰返す。 In step S <b> 216, the CPU 31 stores the most recently acquired image data in the main memory 32 or the storage data memory 34. That is, the CPU 31 captures the appearance of the user playing. In subsequent step S218, CPU 31 determines whether or not threshold value Th15 which is the largest threshold value is set to current threshold value ThS. When threshold value Th15 is not set to current threshold value ThS (NO in step S218), CPU 31 determines the next larger threshold value than the threshold value currently set to threshold value ThS. Is set (step S220), and the processes in and after step S202 are repeated.
一方、現在のしきい値ThSにしきい値Th15がセットされている場合(ステップS218においてYESの場合)には、第1ミニゲームは「成功」と判断され、第1ミニゲームの進行は終了する。 On the other hand, when threshold value Th15 is set to current threshold value ThS (YES in step S218), the first mini game is determined to be “successful”, and the progress of the first mini game ends. .
なお、上述のステップS200〜S220までの一連の処理が、予め定められた時間内に終了しない場合には、第1ミニゲームが「失敗」に終わったと判断してもよい。また、累積値Sの最低値(たとえば、「ゼロ」)を定めておくことが好ましい。 In addition, when the series of processes from the above-described steps S200 to S220 does not end within a predetermined time, it may be determined that the first mini game has been “failed”. In addition, it is preferable to determine a minimum value (for example, “zero”) of the cumulative value S.
(3)第2ミニゲーム
第2ゲームに含まれる第2ミニゲームでは、主として、ゲーム演出に応じて表示されるオブジェクトの位置と、肌色領域検出部126(図22)により検出される肌色領域の位置および大きさとに基づいてゲームが進行される。
(3) Second Mini Game In the second mini game included in the second game, mainly the position of the object displayed according to the game effect and the skin color area detected by the skin color area detection unit 126 (FIG. 22). The game progresses based on the position and size.
図28は、この発明の実施の形態に従う第2ゲームに含まれる第2ミニゲームのゲーム進行の条件を説明するための図である。図28を参照して、第2ミニゲームでは、図12(a)に示す第2LCD22に表示される「蚊」のオブジェクトOBJ11の中心点に対応付けて、内側カメラ23により取得される画像データに基準点RP3が設定される。この基準点RP3を中心として、基準点RP3を含む判定領域DT31が設定されるとともに、この判定領域DT31より広い範囲に、基準点RP3を含む判定領域DT32が設定される。さらに、基準点RP3を始点として、上下左右および斜め方向の計8方向に判定線DL1〜DL8が設定される。そして、これらの判定領域DT31およびDT31ならびに判定線DL1〜DL8に含まれる画素のうち、「肌色」であると検出された画素数(比率)をゲーム進行の条件とする。 FIG. 28 is a diagram for describing the game progress conditions of the second mini game included in the second game according to the embodiment of the present invention. Referring to FIG. 28, in the second mini game, the image data acquired by inner camera 23 is associated with the center point of “mosquito” object OBJ11 displayed on second LCD 22 shown in FIG. A reference point RP3 is set. A determination area DT31 including the reference point RP3 is set around the reference point RP3, and a determination area DT32 including the reference point RP3 is set in a wider range than the determination area DT31. Furthermore, determination lines DL1 to DL8 are set in a total of eight directions, starting from the reference point RP3, up and down, left and right, and diagonally. The number of pixels (ratio) detected as “skin color” among the pixels included in the determination regions DT31 and DT31 and the determination lines DL1 to DL8 is set as the game progress condition.
より具体的には、第2ミニゲームでは、以下の(i)〜(iii)の条件がすべて満足された場合に、ゲームが「成功」と判断される。 More specifically, in the second mini game, the game is determined to be “successful” when all of the following conditions (i) to (iii) are satisfied.
(i)判定領域DT32に含まれる画素のうち「肌色」であると検出された画素数の判定領域DT32に含まれる全画素数に対する比率が所定のしきい値Th32を超えること
(ii)判定線DL1〜DL8上の画素のうち「肌色」であると検出された画素数の判定線DL1〜DL8上の全画素数に対する比率がいずれも所定のしきい値Th33を超えること
(iii)判定領域DT31に含まれる画素のうち「肌色」であると検出された画素数の判定領域DT31に含まれる全画素数に対する比率が所定のしきい値Th31を超えないこと
上述の(i)および(ii)については、表示される「蚊」のオブジェクトOBJ11の近傍にユーザの「手」があることを判断するための条件である。また、(iii)については、ユーザの顔などを「手」として誤認識することを回避するための条件である。
(I) The ratio of the number of pixels detected as “skin color” among the pixels included in the determination region DT32 to the total number of pixels included in the determination region DT32 exceeds a predetermined threshold Th32. (Ii) Determination line The ratio of the number of pixels detected as “skin color” among the pixels on DL1 to DL8 to the total number of pixels on the determination lines DL1 to DL8 all exceeds a predetermined threshold Th33. (Iii) Determination region DT31 The ratio of the number of pixels detected as “skin color” to the total number of pixels included in the determination area DT31 does not exceed a predetermined threshold value Th31 among the pixels included in (i) and (ii) Is a condition for determining that the user's “hand” is in the vicinity of the displayed “mosquito” object OBJ11. Further, (iii) is a condition for avoiding erroneous recognition of the user's face or the like as a “hand”.
また、第2ゲームに含まれる第2ミニゲームでは、画像データが周期的に取得され、直近のものから所定枚数分だけ蓄積される。そして、第2ミニゲームが「成功」したタイミングにおいて、その画像データの取得(更新)が停止される。そのため、第2ミニゲームが「成功」したタイミングから、所定期間前の間におけるユーザのプレイ中の姿をキャプチャーすることができる。 Further, in the second mini game included in the second game, image data is periodically acquired and accumulated by a predetermined number from the most recent one. Then, at the timing when the second mini game is “successful”, the acquisition (update) of the image data is stopped. Therefore, it is possible to capture the appearance of the user playing during the predetermined period from the timing when the second mini game is “successful”.
なお、上述の基準点RP3の位置ならびに判定領域DT31およびDT32の大きさは、ゲーム演出上で表示されるオブジェクトの位置および数によって適宜変更される。 Note that the position of the reference point RP3 and the sizes of the determination areas DT31 and DT32 are appropriately changed depending on the position and number of objects displayed in the game effect.
図29は、この発明の実施の形態に従う第2ゲームに含まれる第2ミニゲームの処理手順を示すフローチャートである。 FIG. 29 is a flowchart showing a processing procedure of the second mini game included in the second game according to the embodiment of the present invention.
図29を参照して、まず、ステップS240において、CPU31は、内側カメラ23により撮像される画像データを取得する。続くステップS242において、CPU31は、メインメモリ32もしくは保存用データメモリ34に既に規定数の画像データが格納済であるか否かを判断する。規定数の画像データが格納済ではない場合(ステップS242においてNOの場合)には、処理はステップS246へ進む。既に規定数の画像データが格納済である場合(ステップS242においてYESの場合)には、CPU31は、格納済の画像データのうち、最も古く取得された画像データを削除し(ステップS244)、新たに取得した画像データをメインメモリ32もしくは保存用データメモリ34に格納する(ステップS246)。そして、処理はステップS248へ進む。 Referring to FIG. 29, first, in step S240, CPU 31 obtains image data captured by inner camera 23. In subsequent step S242, CPU 31 determines whether or not a prescribed number of image data has already been stored in main memory 32 or storage data memory 34. If the prescribed number of image data has not been stored (NO in step S242), the process proceeds to step S246. If the prescribed number of image data has already been stored (YES in step S242), the CPU 31 deletes the oldest acquired image data from the stored image data (step S244), and starts a new one. The acquired image data is stored in the main memory 32 or the storage data memory 34 (step S246). Then, the process proceeds to step S248.
ステップS248において、CPU31は、取得した画像データ内の肌色領域を検出する。続くステップS250において、CPU31は、上述の判定条件(i)〜(iii)がすべて満足されているか否かを判断する。上述の判定条件(i)〜(iii)のいずれかが満足されていない場合(ステップS250においてNOの場合)には、ステップS240以下の処理が繰返される。上述の判定条件(i)〜(iii)がすべて満足されていない場合(ステップS250においてYESの場合)には、第2ミニゲームは「成功」と判断され、第2ミニゲームの進行は終了する。 In step S248, the CPU 31 detects a skin color area in the acquired image data. In subsequent step S250, CPU 31 determines whether or not all of the above-described determination conditions (i) to (iii) are satisfied. If any of the above-described determination conditions (i) to (iii) is not satisfied (NO in step S250), the processing in step S240 and subsequent steps is repeated. If all of the above-described determination conditions (i) to (iii) are not satisfied (YES in step S250), the second mini game is determined to be “successful”, and the progress of the second mini game ends. .
(4)第3ミニゲーム
第2ゲームに含まれる第3ミニゲームでは、主として、ゲーム演出に応じて表示されるオブジェクトの位置と、顔認識部122(図22)により検出される顔領域の位置とに基づいてゲームが進行される。
(4) Third Mini Game In the third mini game included in the second game, the position of the object displayed according to the game effect and the position of the face area detected by the face recognition unit 122 (FIG. 22). The game proceeds based on the above.
図30は、この発明の実施の形態に従う第2ゲームに含まれる第3ミニゲームのゲーム進行の条件を説明するための図である。図30を参照して、第3ミニゲームでは、図13(a)に示す第2LCD22に表示される「トーテムポール」のオブジェクトOBJ14およびOBJ15の切抜き部に対応付けて、内側カメラ23により取得される画像データにそれぞれ基準点RP41およびRP42が設定される。基準点RP41を中心として、基準点RP41を含む判定領域DT41が設定されるとともに、基準点RP42を中心として、基準点RP42を含む判定領域DT42が設定される。そして、これらの判定領域DT41およびDT42に、それぞれ認識された顔領域DFA1およびDFA2が含まれているか否かが判定され、含まれていれば所定の点数を加算し、含まれていなければ所定の点数を減算する。この結果、累積点が所定のしきい値を超えた時点で、第3ミニゲームは「成功」となる。 FIG. 30 is a diagram for describing the conditions for the progress of the third mini game included in the second game according to the embodiment of the present invention. Referring to FIG. 30, in the third mini game, the image is acquired by inner camera 23 in association with the cutout portions of objects “OBJ14” and “OBJ15” of “totem pole” displayed on second LCD 22 shown in FIG. Reference points RP41 and RP42 are set in the image data, respectively. A determination region DT41 including the reference point RP41 is set with the reference point RP41 as the center, and a determination region DT42 including the reference point RP42 is set with the reference point RP42 as the center. Then, it is determined whether or not the recognized face areas DFA1 and DFA2 are included in these determination areas DT41 and DT42, respectively. If they are included, a predetermined score is added. Subtract points. As a result, the third mini game is “successful” when the cumulative point exceeds a predetermined threshold.
すなわち、「トーテムポール」のオブジェクトOBJ14およびOBJ15の切抜き部のいずれにも、ユーザの顔が位置していると判断できる場合に、第3ミニゲームは「成功」と判断される。 That is, the third mini game is determined to be “successful” when it can be determined that the user's face is located at any of the cutout portions of the objects “OBJ14” and “OBJ15” of the “totem pole”.
また、第2ゲームに含まれる第3ミニゲームでは、画像データが周期的に取得され、直近のものから所定枚数分だけ蓄積される。そして、第3ミニゲームが「成功」したタイミングにおいて、その画像データの取得(更新)が停止される。そのため、第3ミニゲームが「成功」したタイミングから、所定期間前の間におけるユーザのプレイ中の姿をキャプチャーすることができる。 Further, in the third mini game included in the second game, image data is periodically acquired and accumulated by a predetermined number from the latest game. Then, at the timing when the third mini game is “successful”, the acquisition (update) of the image data is stopped. Therefore, it is possible to capture the user's playing appearance before a predetermined period from the timing when the third mini game is “successful”.
なお、上述の基準点RP41およびRP42の位置ならびに判定領域DT41およびDT42の大きさは、ゲーム演出上で表示されるオブジェクトの位置および数によって適宜変更される。 Note that the positions of the reference points RP41 and RP42 and the sizes of the determination areas DT41 and DT42 are appropriately changed depending on the position and number of objects displayed in the game effect.
第2ゲームに含まれる第3ミニゲームの処理手順については、上述の図27に示す第1ミニゲームの処理手順と同様であるので、詳細な説明は繰返さない。 Since the processing procedure of the third mini game included in the second game is the same as the processing procedure of the first mini game shown in FIG. 27 described above, detailed description will not be repeated.
<第3ゲームの処理内容および処理手順>
上述したように、本実施の形態に従う第3ゲームは、一連に実行される複数のミニゲームを含む。各ミニゲームでは、ゲーム進行と並行して、所定の条件が満足されたタイミングでユーザがプレイしている姿が少なくとも1枚キャプチャーされる。そして、一連のミニゲームが終了すると、これらのキャプチャーされたそれぞれの画像データに対して、特定の意味をもつオブジェクトを重ねて表示することで、予め用意されたシナリオに沿った漫画ライクな表現が提供される。
<Processing contents and processing procedure of third game>
As described above, the third game according to the present embodiment includes a plurality of mini games executed in series. In each mini game, in parallel with the progress of the game, at least one image of the user playing at the timing when a predetermined condition is satisfied is captured. When a series of mini-games are completed, an object having a specific meaning is superimposed on each captured image data to display a cartoon-like expression according to a prepared scenario. Provided.
なお、本実施の形態に従うゲーム装置100では、複数のシナリオが予め用意されており、第3ゲームの実行毎に選択された1つのシナリオに沿って、複数のミニゲームが所定の順序で実行される。 In game device 100 according to the present embodiment, a plurality of scenarios are prepared in advance, and a plurality of mini-games are executed in a predetermined order along one scenario selected every time the third game is executed. The
なお、各ミニゲームにおいては、人体認識処理(肌色領域検出処理および顔認識処理)の結果に基づいてゲーム進行の条件が満足されるか否かが判断される。これらのゲーム進行の条件については、上述の第2ゲームに含まれる各ミニゲームにおける条件と同一もしくは類似であるので、詳細な説明は繰返さない。 In each mini game, it is determined whether or not the game progress condition is satisfied based on the result of the human body recognition process (skin color area detection process and face recognition process). Since these game progress conditions are the same as or similar to the conditions in each mini-game included in the second game described above, detailed description will not be repeated.
図31は、この発明の実施の形態に従う第3ゲームの処理手順を示すフローチャートである。図31に示すフローチャートは、第3ゲームの開始がユーザにより指示されると実行される。 FIG. 31 is a flowchart showing a third game processing procedure according to the embodiment of the present invention. The flowchart shown in FIG. 31 is executed when the start of the third game is instructed by the user.
図31を参照して、まず、ステップS300において、CPU31は、予め用意されている複数のシナリオのうち、ランダムに1つのシナリオを選択する。続くステップS302において、CPU31は、ステップS300において選択されたシナリオに沿った実行すべき複数のミニゲームの特定、およびそれらの実行順を決定する。そして、処理はステップS304へ進む。 Referring to FIG. 31, first, in step S300, CPU 31 randomly selects one scenario from a plurality of prepared scenarios. In subsequent step S302, CPU 31 determines a plurality of mini-games to be executed along with the scenario selected in step S300, and determines the order of execution. Then, the process proceeds to step S304.
ステップS304において、CPU31は、第1番目に設定されたミニゲームを実行する。CPU31は、人体認識処理(肌色領域検出処理および顔認識処理)の結果に基づいてミニゲームを進行する。続くステップS306において、CPU31は、第1番目のミニゲームが「成功」したか否かを判断する。第1番目のミニゲームが「成功」した場合(ステップS306においてYESの場合)には、CPU31は、第1番目のミニゲームにおける画像データをキャプチャーする(ステップS308)。一方、第1番目のミニゲームが「成功」しなかった場合(ステップS306においてNOの場合)には、CPU31は、第1番目のミニゲームが「失敗」に終わったことを示すフラグをセットする(ステップS310)。 In step S304, the CPU 31 executes the first mini game set. The CPU 31 proceeds with the mini game based on the result of the human body recognition process (skin color area detection process and face recognition process). In subsequent step S306, CPU 31 determines whether or not the first mini-game is “successful”. If the first mini game is “successful” (YES in step S306), the CPU 31 captures image data in the first mini game (step S308). On the other hand, if the first mini game has not been “successful” (NO in step S306), CPU 31 sets a flag indicating that the first mini game has ended in “failure”. (Step S310).
以下、第2番目〜第5番目のミニゲームの各々について、ステップS304〜S310と同様の処理が繰返し実行される。一連のミニゲームが終了すると、処理はステップS312へ進む。 Thereafter, the same processing as steps S304 to S310 is repeatedly executed for each of the second to fifth mini games. When the series of mini games is completed, the process proceeds to step S312.
ステップS312において、CPU31は、選択されたシナリオに対応するタイトル画像を読出して表示する(図19(a)参照)。続くステップS314において、CPU31は、第1番目のミニゲームにおいて取得した画像データおよび対応する画像オブジェクトを読出して表示する(図19(b)参照)。なお、対応のミニゲームについて、当該ミニゲームが「失敗」に終わったことを示すフラグがセットされている場合には、CPU31は、ゲーム失敗であったことを示す画像を表示する。 In step S312, the CPU 31 reads and displays a title image corresponding to the selected scenario (see FIG. 19A). In subsequent step S314, CPU 31 reads out and displays the image data acquired in the first mini game and the corresponding image object (see FIG. 19B). When a flag indicating that the mini game has ended in “failure” is set for the corresponding mini game, the CPU 31 displays an image indicating that the game has failed.
続くステップS316において、CPU31は、第2番目のミニゲームにおいて取得した画像データおよび対応する画像オブジェクトを読出して表示する(図19(c)参照)。以下同様にして、ステップS318〜S322において、CPU31は、第3番目〜第5番目のミニゲームにおいてそれぞれ取得した画像データおよび対応する画像オブジェクトを順次読出して表示する(図20(a)〜(c)参照)。 In subsequent step S316, CPU 31 reads out and displays the image data acquired in the second mini game and the corresponding image object (see FIG. 19C). Similarly, in steps S318 to S322, the CPU 31 sequentially reads out and displays the image data and the corresponding image objects acquired in the third to fifth mini games (FIGS. 20A to 20C). )reference).
続くステップS324において、CPU31は、ユーザにより終了が指示されたか否かを判断する。ユーザにより終了が指示されていない場合(ステップS324においてNOの場合)には、ステップS312以下の処理が繰返される。一方、ユーザにより終了が指示された場合(ステップS324においてYESの場合)には、第3ゲームについての処理は終了する。 In subsequent step S324, CPU 31 determines whether or not the user has instructed termination. If termination is not instructed by the user (NO in step S324), the processes in and after step S312 are repeated. On the other hand, if the end is instructed by the user (YES in step S324), the process for the third game ends.
なお、上述したように、ゲーム中に所定の条件が満たされたときに撮像を行なうことで取得した複数の画像データをすべて表示するようにしてもよいし、あるいは、ゲーム中に撮像される複数の画像データを逐次取得しておき、ゲーム終了後などに、取得した複数の画像データのうち所定の条件を満たすものを抽出して表示してもよい。 As described above, a plurality of image data acquired by capturing images when a predetermined condition is satisfied during the game may be displayed, or a plurality of image data captured during the game may be displayed. Such image data may be sequentially acquired, and after the game, for example, a plurality of acquired image data satisfying a predetermined condition may be extracted and displayed.
また、上述の実施の形態においては、撮像部により取得された画像データが含む情報量をそのまま利用して表示するようにしたが、取得した画像データの1画素あたりの情報量を低減して画像表示をおこなってもよい。 In the above-described embodiment, the information amount included in the image data acquired by the imaging unit is used for display as it is. However, the information amount per pixel of the acquired image data is reduced and the image is Display may be performed.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
11 第1ハウジング、12 第1LCD、13 タッチパネル、14A〜14K ボタン、15A 第1LED、15B 第2LED、15C 第3LED、16 マイク用孔、21 第2ハウジング、22 第2LCD、23 内側カメラ、24 音抜き孔、25 外側カメラ、26 第4LED、27 タッチペン、28,29 メモリカード、32 メインメモリ、33 メモリ制御回路、34 保存用データメモリ、35 プリセットデータ用メモリ、36,37 メモリカードI/F、38 無線通信モジュール、39
ローカル通信モジュール、41 電源回路、42 インターフェース回路(I/F回路)、43 マイク、44 アンプ、45 スピーカ、100 ゲーム装置、102 音声データバッファ、104 音声認識部、110 判定部、110a 条件群、112 画像データバッファ、114 キャプチャーコントローラ、116 画像記憶部、120 人体認識部、122 顔認識部、124 色座標変換部、126 肌色領域検出部、130 ゲーム画像コントローラ、132 ゲーム画像DB、134 認識結果反映部、136 リプレイコントローラ、138 リプレイ画像DB、140 レンダリングエンジン、AP アクセスポイント、NW ネットワーク、SRV 配信サーバ装置。
DESCRIPTION OF SYMBOLS 11 1st housing, 12 1st LCD, 13 Touch panel, 14A-14K button, 15A 1st LED, 15B 2nd LED, 15C 3rd LED, 16 Microphone hole, 21 2nd housing, 22 2nd LCD, 23 Inside camera, 24 Sound removal Hole, 25 Outside camera, 26 4th LED, 27 Touch pen, 28, 29 Memory card, 32 Main memory, 33 Memory control circuit, 34 Data memory for saving, 35 Memory for preset data, 36, 37 Memory card I / F, 38 Wireless communication module, 39
Local communication module, 41 power supply circuit, 42 interface circuit (I / F circuit), 43 microphone, 44 amplifier, 45 speaker, 100 game device, 102 voice data buffer, 104 voice recognition unit, 110 determination unit, 110a condition group, 112 Image data buffer, 114 capture controller, 116 image storage unit, 120 human body recognition unit, 122 face recognition unit, 124 color coordinate conversion unit, 126 skin color area detection unit, 130 game image controller, 132 game image DB, 134 recognition result reflection unit 136 Replay controller, 138 Replay image DB, 140 rendering engine, AP access point, NW network, SRV distribution server device.
Claims (17)
前記撮像手段により撮像されたユーザの画像とは異なる態様としてのユーザの影の画像を前記表示手段に表示させるとともに、当該ユーザの画像に基づいてゲームを進行するゲーム進行手段、および
前記ゲームの終了後に、少なくとも、前記ユーザの画像が予め定められた条件を満足した場合に前記撮像手段により撮像されたユーザの画像を前記表示手段に表示させる表示制御手段、として機能させる、ゲームプログラム。 A game program executed by a computer of a game device capable of using an imaging unit and a display unit, wherein the imaging unit is adapted to image a user, and the game program stores the computer on the imaging unit. game progress means causes the display device display an image of the shadow of the user as a mode different from the image of the user taken to proceed with the game on the basis of the image of the user by, and
Wherein after the end of the game, at least, to function as a display control unit, to be displayed on said display means the images of the user captured by the imaging means when the image of the user is satisfied the predetermined condition, game program.
前記表示制御手段は、少なくとも、前記ゲームが成功したと判断されたときに前記撮像手段により撮像されたユーザの画像を前記表示手段に表示させる、請求項1または2に記載のゲームプログラム。 The game progress means determines whether the game is successful based on the image of the user,
Wherein the display control unit, at least, the game displays the images of the user captured by the imaging means when it is judged to be successful on the display means, a game program according to claim 1 or 2.
ユーザの存在を検出する存在検出手段として機能させ、
前記ゲーム進行手段は、前記存在検出手段によりユーザの存在が検出されているときに、前記ゲームが成功したか否かを判断する、請求項3または4に記載のゲームプログラム。 The game program causes the computer to further function as presence detection means for detecting the presence of a user,
It said game progress means, when the presence of the user is detected by the presence detection means, for determining whether the game is successful, a game program according to claim 3 or 4.
ゲーム開始からゲーム終了までの間、当該ゲームが成功したと決定するための条件を含む複数の異なる条件が満足される毎に、前記ユーザの画像をそれぞれ記憶し、
前記ゲームの終了後に、記憶されている複数の前記ユーザの画像を所定の順序で切換えて表示させる、請求項1〜5のいずれか1項に記載のゲームプログラム。 The display control means includes
Between the game start to the game termination, every time a plurality of different conditions, including conditions that determine the the game was successful is satisfied, stores the images of the user, respectively,
Wherein after the end of the game to the images of the plurality of users stored by switching in a predetermined order to be displayed, a game program according to any one of claims 1-5.
前記ゲームの進行中および前記撮像手段により撮像されたユーザの画像の表示中に、オブジェクトを前記表示手段に表示させるオブジェクト表示手段として機能させ、
前記オブジェクト表示手段は、前記ゲームの進行中に表示したオブジェクトの位置に、当該オブジェクトを別のオブジェクトに入れ替えて、前記撮像手段により撮像されたユーザの画像の表示中に表示させる、請求項1〜6のいずれか1項に記載のゲームプログラム。 The game program, the computer further during the display of images of the user captured by the progress and the imaging means of the game, to function as the object display means for displaying the object on the display means,
The object display means, the position of the object displayed on the progress of the game, by replacing the object to another object, is displayed during the display of images of the user captured by the imaging unit, according to claim 1 The game program according to any one of to 6 .
前記ゲームの進行中および前記撮像手段により撮像されたユーザの画像の表示中に、オブジェクトを前記表示手段に表示させるオブジェクト表示手段として機能させ、
前記オブジェクト表示手段は、前記ゲームの進行中に表示したオブジェクトとは関連しないオブジェクトを、前記撮像手段により撮像されたユーザの画像の表示中に表示させる、請求項1〜6のいずれか1項に記載のゲームプログラム。 The game program, the computer further during the display of images of the user captured by the progress and the imaging means of the game, to function as the object display means for displaying the object on the display means,
The object display means, an object not associated with the object displayed on the progress of the game, is displayed during the display of images of the user captured by the imaging means, any one of claims 1 to 6 The game program described in.
前記ゲームプログラムは、前記コンピュータを、さらに
前記ゲームの進行に応じて、それぞれの段階に対応する成功条件に関連付けられたオブジェクトを切換えて前記表示手段に表示させるオブジェクト表示手段として機能させる、請求項1〜6のいずれか1項に記載のゲームプログラム。 The game progress means advances the game by determining the success of the game based on the success conditions associated with each stage in a plurality of predetermined stages,
The game program causes the computer to further function as an object display unit that switches an object associated with a success condition corresponding to each stage and displays the object on the display unit according to the progress of the game. The game program according to any one of to 6 .
前記表示制御手段は、ゲーム進行中の前記複数の段階のそれぞれにおいて前記撮像手段により撮像された複数のユーザの画像と、各ユーザの画像が撮像された段階に対応付けられた成功条件に関連付けられたオブジェクトと、を合成した画像を表示させる、請求項1〜6のいずれか1項に記載のゲームプログラム。 The game progress means advances the game by determining the success of the game based on the success conditions associated with each stage in a plurality of predetermined stages,
Wherein the display control unit, success and images of a plurality of users captured by pre SL imaging means Te respective smell of the plurality of stages of the game progress, images of each user associated with step imaged The game program of any one of Claims 1-6 which displays the image which synthesize | combined with the object linked | related with conditions.
前記表示制御手段は、ゲーム進行中の前記複数の段階のそれぞれにおいて前記撮像手段により撮像された複数のユーザの画像を連続的に表示させる、請求項1〜6のいずれか1項に記載のゲームプログラム。 The game progress means advances the game by determining the success of the game based on the success conditions associated with each stage in a plurality of predetermined stages,
Said display control means, to continuously display the images of a plurality of users captured by pre SL imaging means Te respective smell of the plurality of stages of the game progress, in any one of claims 1 to 6 The described game program.
ユーザを撮像するように適合された撮像部と、
表示部と、
演算処理部とを備え、
前記演算処理部は、
前記撮像部により撮像されたユーザの画像とは異なる態様としてのユーザの影の画像を前記表示部に表示させるとともに、当該ユーザの画像に基づくゲームの進行と、
前記ゲームの終了後に、少なくとも、前記ユーザの画像が予め定められた条件を満足した場合に前記撮像部により撮像されたユーザの画像の前記表示部での表示とを実行可能である、ゲームシステム。 A game system,
An imaging unit adapted to image a user;
A display unit;
An arithmetic processing unit,
The arithmetic processing unit includes:
Together to display the shadow image of the user as a mode different from the images of the user captured by the imaging unit on the display unit, and the progress of the game based on the image of the user,
After completion of the game, at least, it is capable of executing a display on the display unit of the images of the user captured by the front SL imaging unit when the image of the user is satisfied the predetermined condition, game system.
前記取得手段により取得されたユーザの画像とは異なる態様としてのユーザの影の画像を表示装置に表示させるとともに、当該ユーザの画像に基づいてゲームを進行する進行手段と、
前記ゲームの終了後に、少なくとも、前記ユーザの画像が予め定められた条件を満足した場合に前記取得手段により取得されたユーザの画像を表示装置に表示させる表示制御手段とを備える、ゲーム装置。 An acquisition unit configured to acquire images from adapted imaging device to image the user,
Causes display on the display device an image of the shadow of the user as a mode different from the images of the acquired user by the acquisition unit, a traveling means for traveling the game based on the image of the user,
After completion of the game, at least, and a display control means for displaying on the display device the images of the user acquired by the previous SL acquisition means when the image of the user is satisfied the predetermined condition, the game apparatus .
前記取得されたユーザの画像とは異なる態様としてのユーザの影の画像を表示装置に表示させるとともに、当該ユーザの画像に基づいてゲームを進行するステップと、
前記ゲームの終了後に、少なくとも、前記ユーザの画像が予め定められた条件を満足した場合に取得されたユーザの画像を表示装置に表示させるステップとを含む、ゲーム制御方法。 Acquiring images from adapted imaging device to image the user,
Together causes the display device to display the image of the shadow of the user as a mode different from the images of the user the acquired, a step of proceeding a game based on the image of the user,
Wherein after the end of the game, at least, and a step of displaying the images of the user image of the user is acquired when satisfying the predetermined condition in the display device, a game control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012245521A JP5689103B2 (en) | 2012-11-07 | 2012-11-07 | GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012245521A JP5689103B2 (en) | 2012-11-07 | 2012-11-07 | GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008326209A Division JP2010142592A (en) | 2008-12-22 | 2008-12-22 | Game program and game device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013048924A JP2013048924A (en) | 2013-03-14 |
JP5689103B2 true JP5689103B2 (en) | 2015-03-25 |
Family
ID=48011478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012245521A Active JP5689103B2 (en) | 2012-11-07 | 2012-11-07 | GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5689103B2 (en) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09168647A (en) * | 1995-12-19 | 1997-06-30 | Omron Corp | Pachinko game device and image display method in pachinko game device |
JP3609972B2 (en) * | 1996-11-21 | 2005-01-12 | コナミ株式会社 | Scoring scene playback device in soccer video game system, playback method and medium storing score scene playback program |
JP2000149041A (en) * | 1998-11-10 | 2000-05-30 | Toshiba Corp | Dynamic image processing device and method and storage medium thereof |
JP4006949B2 (en) * | 2000-02-15 | 2007-11-14 | 株式会社セガ | Image processing system, image processing apparatus, and imaging apparatus |
JP3725460B2 (en) * | 2000-10-06 | 2005-12-14 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus, image processing method, recording medium, computer program, semiconductor device |
JP2002157079A (en) * | 2000-11-09 | 2002-05-31 | Doko Kagi Kofun Yugenkoshi | Method of discriminating intention |
JP2003085571A (en) * | 2001-09-07 | 2003-03-20 | Tomy Co Ltd | Coloring toy |
JP4494882B2 (en) * | 2004-06-29 | 2010-06-30 | 株式会社バンダイナムコゲームス | Program, game device, display control device, server, and information storage medium |
JP4005061B2 (en) * | 2004-06-30 | 2007-11-07 | 株式会社ソニー・コンピュータエンタテインメント | Information processing apparatus, program, and object control method in information processing apparatus |
JP4717445B2 (en) * | 2005-01-06 | 2011-07-06 | 株式会社バンダイナムコゲームス | Image processing system, image processing device, game device, program, information storage medium, and image processing method |
WO2006098255A1 (en) * | 2005-03-15 | 2006-09-21 | Shunsuke Nakamura | Image display method and device thereof |
JP5026692B2 (en) * | 2005-12-01 | 2012-09-12 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus, image processing method, and program |
-
2012
- 2012-11-07 JP JP2012245521A patent/JP5689103B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013048924A (en) | 2013-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010142592A (en) | Game program and game device | |
US8601379B2 (en) | Methods for interactive communications with real time effects and avatar environment interaction | |
JP5827007B2 (en) | Game program, image processing apparatus, image processing system, and image processing method | |
JP5738569B2 (en) | Image processing program, apparatus, system and method | |
JP4971483B2 (en) | Image display program, image display apparatus, image display system, and image display method | |
US9071808B2 (en) | Storage medium having stored information processing program therein, information processing apparatus, information processing method, and information processing system | |
JP2010142553A (en) | Game program and game apparatus | |
JP5627973B2 (en) | Program, apparatus, system and method for game processing | |
US8439750B2 (en) | Storage medium storing game program, game apparatus and game controlling method | |
JP5026692B2 (en) | Image processing apparatus, image processing method, and program | |
JP5622446B2 (en) | GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD, AND GAME SYSTEM | |
JP4671192B2 (en) | Image processing apparatus and image processing method | |
US20100248825A1 (en) | Character display control method | |
US10166477B2 (en) | Image processing device, image processing method, and image processing program | |
JP6518689B2 (en) | Program and information processing apparatus | |
JP5226038B2 (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
JP2012074878A (en) | Image generation program, imaging device, imaging system, and image generation method | |
JP2011107817A (en) | Game device and game program | |
JP5496991B2 (en) | Image display program, image display apparatus, image display system, and image display method | |
JP5689103B2 (en) | GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD | |
JP2002306849A (en) | Electronic game machine | |
JP2023126796A (en) | Distribution program and system | |
JP2002306844A (en) | Electronic game system | |
JP2004329713A (en) | Game apparatus, game system and game program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130924 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140805 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20141021 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20141112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5689103 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |