JP2012101024A - Game program, image processing device, image processing system, and image processing method - Google Patents

Game program, image processing device, image processing system, and image processing method Download PDF

Info

Publication number
JP2012101024A
JP2012101024A JP2010293443A JP2010293443A JP2012101024A JP 2012101024 A JP2012101024 A JP 2012101024A JP 2010293443 A JP2010293443 A JP 2010293443A JP 2010293443 A JP2010293443 A JP 2010293443A JP 2012101024 A JP2012101024 A JP 2012101024A
Authority
JP
Japan
Prior art keywords
game
image
face image
character object
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010293443A
Other languages
Japanese (ja)
Other versions
JP5827007B2 (en
Inventor
Toshiaki Suzuki
利明 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2010293443A priority Critical patent/JP5827007B2/en
Priority to US13/080,989 priority patent/US20120094773A1/en
Publication of JP2012101024A publication Critical patent/JP2012101024A/en
Application granted granted Critical
Publication of JP5827007B2 publication Critical patent/JP5827007B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/61Score computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Abstract

PROBLEM TO BE SOLVED: To assist a user in acquisition, collection, etc. of face images and to enable the user to enjoy the virtual world reflecting the real world with the face images.SOLUTION: The face image is obtained during a predetermined game or before the start of the predetermined game to create a first character object including the face image. In the predetermined game, a game related to the first character object is advanced in accordance with the player's operation, and when a success in the game related to the first character object is determined at least, the face image is stored in an accumulating manner in a storage area.

Description

本発明は、ゲームプログラム、画像処理装置、画像処理システム、および画像処理方法に関する。   The present invention relates to a game program, an image processing device, an image processing system, and an image processing method.

従来、実世界と仮想世界とを合成した画像を表示する装置が提案されている(例えば、特許文献1参照)。また、実世界で得られる情報である、ユーザ画像を用いたゲーム等の情報処理技術も提案されている(例えば、特許文献2参照)。この技術では、ゲーム進行中に、画像データに含まれるユーザ画像(人間の顔領域の画像など)が予め定められた条件を満足するタイミングで、画像データが撮像される。   Conventionally, an apparatus that displays an image obtained by combining a real world and a virtual world has been proposed (see, for example, Patent Document 1). In addition, an information processing technique such as a game using a user image, which is information obtained in the real world, has been proposed (see, for example, Patent Document 2). In this technique, image data is captured at a timing when a user image (such as an image of a human face area) included in the image data satisfies a predetermined condition while the game is in progress.

特開2006−72669号公報JP 2006-72669 A 特開2010−142592号公報JP 2010-142592 A

顔領域の画像(以下、顔画像)は、人、あるいは、生物の最も特徴的な部分の画像であり、実世界を仮想の世界に反映するための情報として極めて有用である。しかしながら、従来の技術では、実世界での状況を仮想の世界に反映できるという顔画像の特徴が十分に生かされていなかった。   An image of a face area (hereinafter referred to as a face image) is an image of the most characteristic part of a person or a living thing, and is extremely useful as information for reflecting the real world in a virtual world. However, in the conventional technology, the feature of the face image that the situation in the real world can be reflected in the virtual world has not been fully utilized.

本発明の目的は、ユーザによる顔画像の取得、収集等を支援するとともに、顔画像により実世界を反映した仮想の世界を表現することができるようにすることである。   An object of the present invention is to support acquisition and collection of face images by a user, and to represent a virtual world that reflects the real world by the face image.

上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。   In order to achieve the above object, the present invention may employ the following configuration, for example. When interpreting the description of the claims, it is understood that the scope should be interpreted only by the description of the claims, and the description of the claims and the description in this column are contradictory. In that case, priority is given to the claims.

本発明のゲームプログラムの一構成例は、表示装置に画像を表示するゲーム装置のコンピュータで実行される。上記ゲームプログラムは、画像取得ステップ、第1キャラクタオブジェクトを作成するステップ、第1のゲーム処理ステップ、判定ステップ、および第2記憶領域に蓄積的に保存するステップを、コンピュータに実行させる。画像取得ステップは、所定のゲーム中または当該ゲーム開始前に、顔画像を取得して第1記憶領域に一時的に記憶する。第1キャラクタオブジェクトを作成するステップは、第1記憶領域に記憶された顔画像を含むキャラクタオブジェクトである第1キャラクタオブジェクトを作成する。第1のゲーム処理ステップは、所定のゲームにおいて第1キャラクタオブジェクトに関連するゲームを、プレイヤの操作に応じて進行させる。判定ステップは、第1キャラクタオブジェクトに関連するゲームでの成功を判定する。第2記憶領域に蓄積的に保存するステップは、判定ステップにおいてゲームでの成功が少なくとも判定された場合、第1記憶領域に記憶された顔画像を、第2記憶領域に蓄積的に保存する。   One configuration example of the game program of the present invention is executed by a computer of a game device that displays an image on a display device. The game program causes a computer to execute an image acquisition step, a step of creating a first character object, a first game processing step, a determination step, and a step of accumulatively storing in a second storage area. In the image acquisition step, a face image is acquired during a predetermined game or before the game is started and temporarily stored in the first storage area. The step of creating the first character object creates a first character object that is a character object including a face image stored in the first storage area. In the first game processing step, a game related to the first character object in a predetermined game is advanced according to the operation of the player. The determination step determines success in the game related to the first character object. The step of accumulatively storing in the second storage area stores the face image stored in the first storage area accumulatively in the second storage area when at least the success in the game is determined in the determination step.

上記によれば、プレイヤは、ゲームでの成功が判定されるまでは、ゲーム中またはゲーム開始前に取得して一時的に第1記憶領域に記憶された顔画像を第2記憶領域に保存できず、緊張感を味わうことになる。一方、ゲームでの成功が判定された場合に、第2記憶領域に顔画像が保存されることで、例えば、第1のゲーム処理ステップでのゲームが終了した後でも取得した顔画像の活用が可能となるようにすれば、プレイヤは、極めて熱心に集中力を持って第1のゲーム処理ステップでのゲームに取り組むことになる。   According to the above, until the success in the game is determined, the player can save the face image acquired during or before the game and temporarily stored in the first storage area in the second storage area. You will experience a sense of tension. On the other hand, when the success in the game is determined, the face image is stored in the second storage area, so that the acquired face image can be used even after the game in the first game processing step is finished, for example. If possible, the player will work on the game in the first game processing step with great concentration.

また、上記画像取得ステップでは、所定のゲームの開始前に、顔画像が取得されて第1記憶領域に一時的に記憶されてもよい。   In the image acquisition step, a face image may be acquired and temporarily stored in the first storage area before the predetermined game is started.

上記によれば、所定のゲームの開始前に取得された顔画像を第2記憶領域に保存する対象として第1のゲーム処理ステップでのゲームを行うことができる。   According to the above, the game in the first game processing step can be performed with the face image acquired before the start of the predetermined game being stored in the second storage area.

また、上記ゲームプログラムは、第2キャラクタオブジェクトを作成するステップを、さらにコンピュータに実行させてもよい。第2キャラクタオブジェクトを作成するステップは、第2記憶領域に保存された顔画像から自動的にまたはプレイヤにより選択された顔画像を含む第2キャラクタオブジェクトを作成する。この場合、第1のゲーム処理ステップでは、所定のゲームにおいて第2キャラクタオブジェクトに関連するゲームを、プレイヤの操作に応じてさらに進行させてもよい。   The game program may further cause the computer to execute a step of creating the second character object. The step of creating the second character object creates a second character object including a face image selected automatically or from the face image stored in the second storage area. In this case, in the first game processing step, a game related to the second character object in the predetermined game may be further advanced according to the operation of the player.

上記によれば、第2記憶領域に保存された顔画像をゲームに活用できるようになる。したがって、今回の所定のゲームにおいて取得した顔画像を含むキャラクタオブジェクトと前回までに保存した顔画像を含むキャラクタオブジェクトとに関連するゲームを進行できるため、ゲームにおいて多様な表現が可能となる。   According to the above, the face image stored in the second storage area can be used for the game. Therefore, a game related to the character object including the face image acquired in the predetermined game this time and the character object including the face image saved up to the previous time can be progressed, so that various expressions can be made in the game.

また、上記ゲームプログラムは、第2キャラクタオブジェクトを作成するステップおよび第2のゲーム処理ステップを、さらにコンピュータに実行させてもよい。第2キャラクタオブジェクトを作成するステップは、第2記憶領域に保存された顔画像から自動的にまたはプレイヤにより選択された顔画像を含む第2キャラクタオブジェクトを作成する。第2のゲーム処理ステップは、第2キャラクタオブジェクトに関連するゲームを、プレイヤの操作に応じて進行させる。   The game program may further cause the computer to execute a step of creating a second character object and a second game processing step. The step of creating the second character object creates a second character object including a face image selected automatically or from the face image stored in the second storage area. In the second game processing step, a game related to the second character object is advanced according to the operation of the player.

上記によれば、プレイヤは、第2記憶領域に保存された顔画像から選択された顔画像を含む第2キャラクタオブジェクトを作成し、第2のゲーム処理ステップでのゲームを実行できる。すなわち、プレイヤは、第1のゲーム処理ステップでゲームに成功したことによって保存した顔画像を活用して、第2のゲーム処理ステップでのゲームを楽しむことができる。この場合に、ゲームに登場するキャラクタオブジェクトには、プレイヤの操作で選択されたまたは自動的に選択された顔画像が含まれるので、プレイヤは実世界のイメージを簡易に仮想の世界に持ち込むことができる。   According to the above, the player can create the second character object including the selected face image from the face images stored in the second storage area, and execute the game in the second game processing step. In other words, the player can enjoy the game in the second game processing step by utilizing the face image saved by the success in the game in the first game processing step. In this case, since the character object appearing in the game includes a face image selected by the player's operation or automatically selected, the player can easily bring the real world image into the virtual world. it can.

また、上記ゲーム装置は、撮像装置から画像を取得可能であってもよい。この場合、画像取得ステップでは、所定のゲームの開始前に、撮像装置から顔画像が取得されてもよい。   The game device may be able to acquire an image from the imaging device. In this case, in the image acquisition step, a face image may be acquired from the imaging device before the start of the predetermined game.

上記によれば、撮像装置で撮像した顔画像を含むキャラクタオブジェクトをゲームに登場させることができるとともに、撮像装置で撮像した顔画像を蓄積的に保存することができる。   Based on the above, it is possible to cause a character object including a face image captured by the imaging device to appear in the game, and to accumulately store the face image captured by the imaging device.

また、上記ゲーム装置は、撮像装置として、表示装置の表示面の外面前方方向を撮像する第1の撮像装置、および表示装置の表示面の背面方向を撮像する第2の撮像装置から画像を取得可能であってもよい。この場合、画像取得ステップは、第2の撮像装置の撮像による顔画像の取得より、第1の撮像装置の撮像による顔画像を優先的に取得するステップと、第1の撮像装置からの顔画像が第2記憶領域に保存された後に、第2の撮像装置の撮像による顔画像の取得を許容するステップとを含んでもよい。   In addition, the game device obtains an image from the first imaging device that images the front direction of the outer surface of the display surface of the display device and the second imaging device that images the back direction of the display surface of the display device as the imaging device. It may be possible. In this case, the image acquisition step includes a step of preferentially acquiring the face image captured by the first imaging device over the acquisition of the face image captured by the second imaging device, and the face image from the first imaging device. May be acquired after the image data is stored in the second storage area, and allowing a face image to be acquired by imaging by the second imaging device.

上記によれば、表示装置の表示面の外面前方方向を撮像する第1の撮像装置での顔画像取得が優先的に実行されるので、表示装置の表示面を見る、ゲーム装置のプレイヤ等の顔画像が優先して取得される可能性が高くなる。したがって、ゲーム装置のプレイヤ等が特定されない状態で、表示装置の表示面の背面方向を撮像する第2の撮像装置から画像を取得するという行為を制限できる可能性が高まる。   According to the above, since the face image acquisition in the first imaging device that images the front direction of the outer surface of the display surface of the display device is preferentially executed, the player of the game device or the like who looks at the display surface of the display device The possibility that the face image is acquired with priority is increased. Therefore, there is a high possibility that the act of acquiring an image from the second imaging device that captures the back direction of the display surface of the display device can be restricted in a state where the player of the game device is not specified.

また、上記ゲームプログラムは、顔画像の属性を特定するステップおよび顔画像の取得をプレイヤに促すステップを、コンピュータにさらに実行させてもよい。顔画像の属性を特定するステップは、第2記憶領域に保存された顔画像の属性を特定する。顔画像の取得をプレイヤに促すステップは、第2記憶領域に保存された顔画像から特定された属性とは異なる属性に該当する顔画像の取得をプレイヤに促す。   The game program may further cause the computer to execute a step of specifying an attribute of the face image and a step of prompting the player to acquire the face image. The step of specifying the attribute of the face image specifies the attribute of the face image stored in the second storage area. The step of prompting the player to acquire the face image prompts the player to acquire a face image corresponding to an attribute different from the attribute specified from the face image stored in the second storage area.

上記によれば、蓄積的に保存される顔画像の属性偏りを少なくして、様々な属性の顔画像を蓄積的に保存することを望むプレイヤを支援できる。   According to the above, it is possible to support a player who wants to store face images having various attributes in an accumulative manner by reducing the attribute bias of the face images stored in an accumulative manner.

また、上記第1のゲーム処理ステップは、プレイヤの操作に応じてキャラクタオブジェクトを攻撃することによって第1キャラクタオブジェクトに関連するゲームを進行させるステップを含んでいてもよい。この場合、第1のゲーム処理ステップでは、第1キャラクタオブジェクトへの攻撃が第1キャラクタオブジェクトに関連するゲームを成功させるために有効な攻撃とされ、第2キャラクタオブジェクトに対する攻撃が当該ゲームの成功に対して無効な攻撃とされてもよい。   The first game processing step may include a step of advancing a game related to the first character object by attacking the character object in accordance with an operation of the player. In this case, in the first game processing step, an attack on the first character object is an effective attack for making the game related to the first character object successful, and an attack on the second character object is a success of the game. On the other hand, it may be an invalid attack.

上記によれば、プレイヤは、第1のゲーム処理ステップによるゲームにおいて、第2キャラクタオブジェクトに対する攻撃を抑制することが必要となるため、第1キャラクタオブジェクトを選別して攻撃することになる。したがって、プレイヤは、第1キャラクタオブジェクトを正確に認識することを要求され、集中力を求められることになる。   According to the above, since it is necessary for the player to suppress the attack on the second character object in the game by the first game processing step, the player selects and attacks the first character object. Therefore, the player is required to accurately recognize the first character object, and is required to concentrate.

また、上記ゲームプログラムは、第3キャラクタオブジェクトを作成するステップを、さらにコンピュータに実行させてもよい。第3キャラクタオブジェクトを作成するステップは、第2キャラクタオブジェクトに含まれる顔画像とは異なる顔画像を含む第3キャラクタオブジェクトを作成する。この場合、第2のゲーム処理ステップは、プレイヤの操作に応じてキャラクタオブジェクトを攻撃することによって第2キャラクタオブジェクトに関連するゲームを進行させるステップを含んでいてもよい。第2のゲーム処理ステップでは、第2キャラクタオブジェクトへの攻撃が第2キャラクタオブジェクトに関連するゲームを成功させるために有効な攻撃とされ、第3キャラクタオブジェクトに対する攻撃が当該ゲームの成功に対して無効な攻撃とされてもよい。   The game program may further cause the computer to execute a step of creating the third character object. The step of creating the third character object creates a third character object including a face image different from the face image included in the second character object. In this case, the second game processing step may include a step of advancing a game related to the second character object by attacking the character object in accordance with the operation of the player. In the second game processing step, an attack on the second character object is an effective attack for making the game related to the second character object successful, and an attack on the third character object is invalid for the success of the game May be considered as a serious attack.

上記によれば、プレイヤは、第2のゲーム処理ステップによるゲームにおいて、第3キャラクタオブジェクトに対する攻撃を抑制することが必要となるため、第2キャラクタオブジェクトを選別して攻撃することになる。したがって、プレイヤは、第2キャラクタオブジェクトを正確に認識することを要求され、集中力を求められることになる。   According to the above, since it is necessary for the player to suppress the attack on the third character object in the game by the second game processing step, the player selects and attacks the second character object. Therefore, the player is required to accurately recognize the second character object and is required to concentrate.

また、上記ゲームプログラムは、第3キャラクタオブジェクトを作成するステップおよび第4キャラクタオブジェクトを作成するステップを、コンピュータにさらに実行させてもよい。第3キャラクタオブジェクトを作成するステップは、第1記憶領域に記憶された顔画像を含み、第1キャラクタオブジェクトよりも寸法の小さい第3キャラクタオブジェクトを作成する。第4キャラクタオブジェクトを作成するステップは、第1記憶領域に記憶された顔画像とは異なる顔画像を含み、第1キャラクタオブジェクトよりも寸法の小さい第4キャラクタオブジェクトを作成する。この場合、第1のゲーム処理ステップは、プレイヤの操作に応じてキャラクタオブジェクトを攻撃することによって第1キャラクタオブジェクトに関連するゲームを進行させるステップと、第4キャラクタオブジェクトが攻撃を受けた場合、第1キャラクタオブジェクトに含まれる顔画像の変形を進行させるステップと、第3キャラクタオブジェクトが攻撃を受けた場合、第1キャラクタオブジェクトに含まれる顔画像が第1記憶領域に記憶された元の顔画像に近づくように、変形を後退させるステップとを含んでいてもよい。   The game program may further cause the computer to execute a step of creating a third character object and a step of creating a fourth character object. The step of creating the third character object creates a third character object that includes the face image stored in the first storage area and has a smaller dimension than the first character object. The step of creating the fourth character object creates a fourth character object that includes a face image different from the face image stored in the first storage area and has a size smaller than that of the first character object. In this case, the first game processing step includes a step of advancing a game related to the first character object by attacking the character object according to the operation of the player, and a case where the fourth character object is attacked, The step of proceeding with the deformation of the face image included in one character object and when the third character object is attacked, the face image included in the first character object is changed to the original face image stored in the first storage area. A step of retracting the deformation so as to approach.

上記によれば、プレイヤは、第1キャラクタオブジェクトと第3キャラクタオブジェクトと第4キャラクタオブジェクトとを正確に認識することを要求され、集中力を求められることになる。特に、取得した顔画像がプレイヤと親密な関係のある人の顔画像の場合に、プレイヤはますます熱心に第1のゲーム処理ステップでのゲームに取り組むことができる。   Based on the above, the player is required to accurately recognize the first character object, the third character object, and the fourth character object, and is required to concentrate. In particular, when the acquired face image is a face image of a person who has a close relationship with the player, the player can more and more eagerly tackle the game in the first game processing step.

また、上記ゲームプログラムは、第3キャラクタオブジェクトを作成するステップおよび第4キャラクタオブジェクトを作成するステップを、コンピュータにさらに実行させてもよい。第3キャラクタオブジェクトを作成するステップは、第2キャラクタオブジェクトに含まれる顔画像と同じ顔画像を含み、第2キャラクタオブジェクトよりも寸法の小さい第3キャラクタオブジェクトを作成する。第4キャラクタオブジェクトを作成するステップは、第2キャラクタオブジェクトに含まれる顔画像と異なる顔画像を含み、第2キャラクタオブジェクトよりも寸法の小さい第4キャラクタオブジェクトを作成する。この場合、第2のゲーム処理ステップは、プレイヤの操作に応じてキャラクタオブジェクトを攻撃することによって第2キャラクタオブジェクトに関連するゲームを進行させるステップと、第4キャラクタオブジェクトが攻撃を受けた場合、第2キャラクタオブジェクトに含まれる顔画像の変形を進行させるステップと、第3キャラクタオブジェクトが攻撃を受けた場合、第2キャラクタオブジェクトに含まれる顔画像が第2記憶領域に保存された元の顔画像に近づくように、変形を後退させるステップとを含んでいてもよい。   The game program may further cause the computer to execute a step of creating a third character object and a step of creating a fourth character object. The step of creating the third character object creates a third character object that includes the same face image as the face image contained in the second character object and has a smaller dimension than the second character object. The step of creating the fourth character object creates a fourth character object that includes a face image different from the face image included in the second character object and has a smaller size than the second character object. In this case, the second game processing step includes a step of advancing a game related to the second character object by attacking the character object according to the operation of the player, and a case where the fourth character object is attacked, The step of proceeding with the deformation of the face image included in the two character object and when the third character object is attacked, the face image included in the second character object is changed to the original face image stored in the second storage area. A step of retracting the deformation so as to approach.

上記によれば、プレイヤは、第2キャラクタオブジェクトと第3キャラクタオブジェクトと第4キャラクタオブジェクトとを正確に認識することを要求され、集中力を求められることになる。   According to the above, the player is required to accurately recognize the second character object, the third character object, and the fourth character object, and is required to concentrate.

また、上記第1キャラクタオブジェクトを作成するステップでは、第1記憶領域に記憶された顔画像を変形させた顔画像を含むキャラクタオブジェクトが、第1キャラクタオブジェクトとして作成されてもよい。この場合、第1のゲーム処理ステップは、第1キャラクタオブジェクトに関連するゲームが成功であったときに、変形させた顔画像を第1記憶領域に記憶された元の顔画像に復帰させるステップを含んでいてもよい。   In the step of creating the first character object, a character object including a face image obtained by deforming the face image stored in the first storage area may be created as the first character object. In this case, the first game processing step includes a step of returning the deformed face image to the original face image stored in the first storage area when the game related to the first character object is successful. May be included.

上記によれば、例えば、取得した顔画像がプレイヤと親密な関係にある人の顔画像の場合に、変形した顔画像を元の顔画像に戻すために、プレイヤはますます熱心に第1のゲーム処理ステップでのゲームに取り組むことができる。   According to the above, for example, when the acquired face image is a face image of a person who is intimately related to the player, the player is more eager to return the deformed face image to the original face image. The game can be tackled at the game processing step.

また、上記第2キャラクタオブジェクトを作成するステップでは、第2記憶領域に保存された顔画像を変形させた顔画像が含むキャラクタオブジェクトが、第2キャラクタオブジェクトとして作成されてもよい。この場合、第2のゲーム処理ステップは、第2キャラクタオブジェクトに関連するゲームが成功であったときに、変形させた顔画像を第2記憶領域に保存された元の顔画像に復帰させるステップを含んでいてもよい。   In the step of creating the second character object, a character object included in a face image obtained by deforming the face image stored in the second storage area may be created as the second character object. In this case, the second game processing step includes a step of returning the deformed face image to the original face image stored in the second storage area when the game related to the second character object is successful. May be included.

上記によれば、例えば、取得した顔画像がプレイヤと親密な関係にある人の顔画像の場合に、変形した顔画像を元の顔画像に戻すために、プレイヤはますます熱心に第2のゲーム処理ステップでのゲームに取り組むことができる。   According to the above, for example, when the acquired face image is a face image of a person who has a close relationship with the player, the player is more eager to return the deformed face image to the original face image. The game can be tackled at the game processing step.

また、上記画像取得ステップでは、所定のゲーム中に、顔画像が取得されて第1記憶領域に一時的に記憶されてもよい。この場合、第1のゲーム処理ステップでは、所定のゲーム中に顔画像が取得され第1キャラクタオブジェクトが作成されたことに応じて、当該所定のゲームに当該第1キャラクタオブジェクトを登場させて第1キャラクタオブジェクトに関連するゲームを進行させてもよい。   In the image acquisition step, a face image may be acquired and temporarily stored in the first storage area during a predetermined game. In this case, in the first game processing step, the first character object is made to appear in the predetermined game in response to the face image being acquired and the first character object being created during the predetermined game. A game related to the character object may be advanced.

上記によれば、所定のゲーム中に取得された顔画像を第2記憶領域に保存する対象として第1のゲーム処理ステップでのゲームを行うことができる。   According to the above, it is possible to play the game in the first game processing step as a target for saving the face image acquired during the predetermined game in the second storage area.

また、上記ゲームプログラムは、撮像画像取得ステップ、表示画像生成ステップ、および表示制御ステップを、さらにコンピュータに実行させてもよい。撮像画像取得ステップは、上記実カメラによって撮像された撮像画像を取得する。表示画像生成ステップは、撮像画像取得ステップにおいて取得された撮像画像を背景として、所定のゲームに登場する仮想キャラクタオブジェクトが配置された表示画像を生成する。表示制御ステップは、表示画像生成ステップにおいて生成された画像を表示装置に表示する。この場合、画像取得ステップでは、所定のゲーム中に表示装置に表示されている撮像画像から少なくとも1つの顔画像が抽出されて第1記憶領域に一時的に記憶されてもよい。   The game program may further cause the computer to execute a captured image acquisition step, a display image generation step, and a display control step. In the captured image acquisition step, a captured image captured by the real camera is acquired. The display image generation step generates a display image in which virtual character objects appearing in a predetermined game are arranged with the captured image acquired in the captured image acquisition step as a background. The display control step displays the image generated in the display image generation step on the display device. In this case, in the image acquisition step, at least one face image may be extracted from the captured image displayed on the display device during a predetermined game and temporarily stored in the first storage area.

上記によれば、背景として表示されている実世界の撮像画像に含まれる顔画像がキャラクタオブジェクトとして登場し、当該キャラクタオブジェクトに関連するゲームでの成功によって、当該顔画像を蓄積的に保存することができる。   According to the above, the face image included in the captured image of the real world displayed as the background appears as a character object, and the face image is accumulated in accordance with the success in the game related to the character object. Can do.

また、上記表示画像生成ステップでは、画像取得ステップにおいて抽出された顔画像の撮像画像における位置と重なって表示装置に表示されるように、第1キャラクタオブジェクトを配置して表示画像を生成してもよい。   In the display image generation step, the display image may be generated by arranging the first character object so that the face image extracted in the image acquisition step is displayed on the display device so as to overlap the position in the captured image. Good.

上記によれば、第1キャラクタオブジェクトをあたかも撮像画像内から出現したように表現することができ、第1キャラクタオブジェクトが実カメラで撮像された実空間に存在しているような画像を表示することができる。   According to the above, the first character object can be expressed as if it appeared from within the captured image, and an image as if the first character object existed in the real space captured by the real camera is displayed. Can do.

また、上記撮像画像取得ステップでは、実カメラによってリアルタイムに撮像された実世界の撮像画像が繰り返し取得されてもよい。上記表示画像生成ステップでは、撮像画像取得ステップにおいて繰り返し取得された撮像画像が順次背景として設定されてもよい。上記画像取得ステップでは、順次背景として設定される撮像画像から、既に抽出された顔画像に対応する顔画像が繰り返し取得されてもよい。上記第1キャラクタオブジェクトを作成するステップでは、画像取得ステップにおいて繰り返し取得される顔画像を含むように第1キャラクタオブジェクトが繰り返し作成されてもよい。そして、上記表示画像生成ステップでは、画像取得ステップにおいて繰り返し取得されている顔画像の撮像画像における位置と重なって表示装置に表示されるように、繰り返し作成されている第1キャラクタオブジェクトが配置されて表示画像が生成されてもよい。   Further, in the captured image acquisition step, a real-world captured image captured in real time by a real camera may be repeatedly acquired. In the display image generation step, the captured images repeatedly acquired in the captured image acquisition step may be sequentially set as the background. In the image acquisition step, face images corresponding to face images that have already been extracted may be repeatedly acquired from captured images that are sequentially set as a background. In the step of creating the first character object, the first character object may be repeatedly created so as to include the face image repeatedly obtained in the image obtaining step. In the display image generation step, the first character object that is repeatedly created is arranged so as to be displayed on the display device so as to overlap the position in the captured image of the face image repeatedly obtained in the image acquisition step. A display image may be generated.

上記によれば、実カメラの撮像位置や撮像方向が変化しても当該変化に応じて第1キャラクタオブジェクトを配置することができ、顔画像を取得した被写体である人物の位置や表情が変化しても当該変化を第1キャラクタオブジェクトに反映することができるため、あたかもリアルタイムに撮像された撮像画像で表現された実空間内に第1キャラクタオブジェクトが存在しているように表示することができる。   According to the above, even if the imaging position and imaging direction of the real camera change, the first character object can be arranged according to the change, and the position and expression of the person who is the subject from which the face image is acquired change. However, since the change can be reflected in the first character object, it can be displayed as if the first character object exists in the real space represented by the captured image captured in real time.

また、上記ゲーム装置は、非一時的にデータを記憶する記憶手段に記憶されている画像データを利用可能であってもよい。この場合、画像取得ステップでは、所定のゲーム開始前に記憶手段に記憶されている画像データから、少なくとも1つの顔画像が抽出されて第1記憶領域に一時的に記憶されてもよい。   The game device may be able to use image data stored in a storage unit that stores data non-temporarily. In this case, in the image acquisition step, at least one face image may be extracted from the image data stored in the storage unit before the predetermined game is started and temporarily stored in the first storage area.

上記によれば、ゲーム装置に予め格納されている画像データから顔画像が取得されるため、別のアプリケーション等によって予め取得されている顔画像(例えば、カメラ撮像アプリケーションによって撮影された画像や通信アプリケーションによって他の装置から受信した画像に含まれる顔画像)を、取得対象とすることができる。   According to the above, since a face image is acquired from image data stored in advance in the game device, a face image acquired in advance by another application or the like (for example, an image captured by a camera imaging application or a communication application) Thus, a face image included in an image received from another device can be an acquisition target.

また、本発明は、上記各ステップを実行する手段を備える画像処理装置および画像処理システムや上記各ステップで行われる動作を含む画像処理方法の形態で実施されてもよい。   Further, the present invention may be implemented in the form of an image processing apparatus and an image processing system provided with means for executing the above steps, and an image processing method including operations performed in the respective steps.

本発明によれば、ユーザによる顔画像の取得、収集等を支援するとともに、顔画像により実世界を反映した仮想の世界を表現することを可能にする。   According to the present invention, it is possible to support acquisition and collection of a face image by a user and to express a virtual world reflecting the real world by the face image.

開いた状態におけるゲーム装置10の一例を示す正面図Front view showing an example of the game apparatus 10 in an opened state 開いた状態におけるゲーム装置10の一例を示す側面図Side view showing an example of the game apparatus 10 in the opened state 閉じた状態におけるゲーム装置10の一例を示す左側面図Left side view showing an example of the game apparatus 10 in the closed state 閉じた状態におけるゲーム装置10の一例を示す正面図Front view showing an example of the game apparatus 10 in a closed state 閉じた状態におけるゲーム装置10の一例を示す右側面図A right side view showing an example of the game apparatus 10 in a closed state 閉じた状態におけるゲーム装置10の一例を示す背面図Rear view showing an example of the game apparatus 10 in a closed state ユーザがゲーム装置10を両手で把持する様子の一例を示す図The figure which shows an example of a mode that a user holds the game apparatus 10 with both hands. ユーザがゲーム装置10を片手で把持する様子の一例を示す図The figure which shows an example of a mode that a user holds the game apparatus 10 with one hand. ゲーム装置10の内部構成の一例を示すブロック図Block diagram showing an example of the internal configuration of the game apparatus 10 一覧表示された顔画像の例List of face images displayed as a list 一覧表示された顔画像の他の例Other examples of face images listed 顔画像を敵オブジェクトにはめ込む処理の画面例Screen example of processing to insert face image into enemy object 顔画像選択画面を例示する図The figure which illustrates a face image selection screen 図1のゲーム装置で本実施形態における画像処理プログラムを実行することに応じて、メインメモリに記憶される各種データの一例を示す図The figure which shows an example of the various data memorize | stored in main memory according to performing the image processing program in this embodiment with the game device of FIG. 顔画像管理情報のデータ構造の一例An example of the data structure of face image management information 取得済みの顔画像を属性によって分類した集計表の例Example of summary table that classifies acquired face images by attribute 第1の実施形態に係るゲーム装置10の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the game device 10 which concerns on 1st Embodiment. 顔画像取得処理の詳細処理の一例を示すフローチャートThe flowchart which shows an example of the detailed process of a face image acquisition process 第2の実施形態に係るゲーム装置10の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the game device 10 which concerns on 2nd Embodiment. 一覧表示処理の詳細処理の一例を示すフローチャートFlow chart showing an example of detailed processing of list display processing 配役決定処理の詳細処理の一例を示すフローチャートThe flowchart which shows an example of the detailed process of a casting determination process 顔画像管理支援処理1の詳細処理例を示すフローチャートThe flowchart which shows the detailed process example of the face image management assistance process 1 顔画像管理支援処理2の詳細処理例を示すフローチャートThe flowchart which shows the detailed process example of the face image management assistance process 2 顔画像管理支援処理3の詳細処理例を示すフローチャートThe flowchart which shows the detailed process example of the face image management assistance process 3 画像処理プログラムの一例である仮想空間の概要を示す図The figure which shows the outline of the virtual space which is an example of the image processing program スクリーンモデルとαテクスチャの関係を示す図Diagram showing relationship between screen model and α texture 仮想空間の一例を示す図A diagram showing an example of a virtual space 画像処理プログラムの一例であるゲームプログラムにおいて定義される仮想の3次元空間(ゲーム世界)を示す図The figure which shows the virtual three-dimensional space (game world) defined in the game program which is an example of an image processing program 画像処理プログラムを実行する装置の一例であるゲーム装置の上側LCDに表示される表示形態例の各処理段階の一例を示す図The figure which shows an example of each process step of the example of a display form displayed on upper LCD of the game device which is an example of the apparatus which performs an image processing program 画像処理プログラムを実行する装置の一例であるゲーム装置の上側LCDに表示される表示形態例の各処理段階の一例を示す図The figure which shows an example of each process step of the example of a display form displayed on upper LCD of the game device which is an example of the apparatus which performs an image processing program 画像処理プログラムを実行する装置の一例であるゲーム装置の上側LCDに表示される表示形態例の各処理段階の一例を示す図The figure which shows an example of each process step of the example of a display form displayed on upper LCD of the game device which is an example of the apparatus which performs an image processing program 画像処理プログラムを実行する装置の一例であるゲーム装置の上側LCDに表示される表示形態例の各処理段階の一例を示す図The figure which shows an example of each process step of the example of a display form displayed on upper LCD of the game device which is an example of the apparatus which performs an image processing program 影オブジェクトのシルエットモデルを上から見た一例を示す図The figure which shows an example which looked at the silhouette model of a shadow object from the top 影オブジェクトのシルエットモデルの一例を示す図Figure showing an example of a silhouette model of a shadow object 各オブジェクトの不透明度の一例を示す図Diagram showing an example of opacity of each object 画像処理プログラムを実行することによってゲーム装置が画像処理する動作の一例を示すフローチャートA flowchart showing an example of an operation of image processing by a game device by executing an image processing program 画像処理プログラムの敵オブジェクト関連処理の詳細な動作の一例を示すサブルーチンのフローチャートSubroutine flowchart showing an example of detailed operation of enemy object related processing of the image processing program 画像処理プログラムの弾オブジェクト関連処理の詳細な動作の一例を示すサブルーチンのフローチャートSubroutine flowchart showing an example of detailed operation of bullet object related processing of the image processing program 画像処理プログラムの表示画像の更新処理(第1の描画方法)の詳細な動作の一例を示すサブルーチンのフローチャートSubroutine flowchart showing an example of detailed operation of display image update processing (first drawing method) of the image processing program 本実施形態における画像処理プログラムの表示画像の更新処理(第2の描画方法)の詳細な動作の一例を示すサブルーチンのフローチャートFlowchart of a subroutine showing an example of detailed operation of display image update processing (second drawing method) of the image processing program in the present embodiment. 第1の描画方法におけるレンダリング処理の一例を説明するための説明図Explanatory drawing for demonstrating an example of the rendering process in a 1st drawing method 図33の各オブジェクトの位置関係を説明するための説明図Explanatory drawing for demonstrating the positional relationship of each object of FIG. カメラ画像をレンダリングする処理の一例を説明するための説明図Explanatory drawing for demonstrating an example of the process which renders a camera image カメラ画像をレンダリングする際の座標の一例を説明するための説明図Explanatory drawing for demonstrating an example of the coordinate at the time of rendering a camera image 仮想空間をレンダリングする処理の一例を説明するための説明図Explanatory drawing for demonstrating an example of the process which renders virtual space 図37の各オブジェクトの位置関係説明するための説明図FIG. 37 is an explanatory diagram for explaining the positional relationship between the objects. 仮想空間をレンダリングする際の境界面の座標の一例を説明するための説明図Explanatory drawing for demonstrating an example of the coordinate of the boundary surface at the time of rendering virtual space 画像処理プログラムにより生成される表示画像の一例を示す図The figure which shows an example of the display image produced | generated by the image processing program 第2の実施形態に係るゲーム装置の画面の例Example of screen of game device according to second embodiment 第2の実施形態に係るゲーム装置の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the game device which concerns on 2nd Embodiment. 第3の実施形態に係るゲーム装置の画面の例Example of screen of game device according to third embodiment 第3の実施形態に係るゲーム装置の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the game device which concerns on 3rd Embodiment. 第4の実施形態に係る画面の一例Example of a screen according to the fourth embodiment 第4の実施形態に係るゲーム装置の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the game device which concerns on 4th Embodiment. 第5の実施形態に係るゲーム装置の上側LCDに表示される画面の一例を示す図The figure which shows an example of the screen displayed on upper LCD of the game device which concerns on 5th Embodiment 第5の実施形態に係るゲーム装置の上側LCDに表示される画面の一例を示す図The figure which shows an example of the screen displayed on upper LCD of the game device which concerns on 5th Embodiment 第5の実施形態に係る画像処理プログラムを実行することによって行われるゲーム中顔画像取得処理の詳細な動作の一例を示すサブルーチンThe subroutine which shows an example of detailed operation | movement of the in-game face image acquisition process performed by executing the image processing program which concerns on 5th Embodiment 図49のステップ202で行われる未出現処理の詳細な動作の一例を示すサブルーチンSubroutine showing an example of detailed operation of the non-appearance process performed in step 202 of FIG. 図49のステップ208で行われる出現済処理の詳細な動作の一例を示すサブルーチンSubroutine showing an example of detailed operation of the appearance processing performed in step 208 of FIG.

(第1の実施形態)
以下、本発明に係る一実施形態としての画像処理プログラムを実行する画像処理装置について具体例を挙げて説明する。ただし、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
(First embodiment)
Hereinafter, an image processing apparatus that executes an image processing program according to an embodiment of the present invention will be described with a specific example. However, the following embodiments are merely examples, and the present invention is not limited to the configurations of the following embodiments.

なお、以下に挙げる実施形態において、コンピュータが処理するデータをグラフや自然言語を用いて例示しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語、配列等で指定される。本発明は、データの表現方法を限定するものではない。   In the embodiment described below, data processed by a computer is exemplified using a graph or natural language. More specifically, a pseudo language, a command, a parameter, a machine language, an array that can be recognized by a computer. Etc. The present invention does not limit the data representation method.

<ハードウェアの構成例>
まず、図面を参照して、本実施形態に係る画像処理プログラムを実行する画像処理装置の一例として携帯型のゲーム装置10について説明する。ただし、本発明に係る画像処理装置は、ゲーム装置に限定されるものではない。本発明に係る画像処理装置は、例えば、汎用コンピュータ等、任意のコンピュータシステムであればよい。
<Example of hardware configuration>
First, with reference to the drawings, a portable game apparatus 10 will be described as an example of an image processing apparatus that executes an image processing program according to the present embodiment. However, the image processing device according to the present invention is not limited to a game device. The image processing apparatus according to the present invention may be any computer system such as a general-purpose computer.

なお、以下に示される本実施形態に係る画像処理プログラムはゲームプログラムであるが、本発明に係る画像処理プログラムはゲームプログラムに限定されるものではない。本発明の画像処理プログラムは、任意のコンピュータシステムで実行されることによって適用することができる。また、本実施形態の各処理をネットワーク化された複数の装置で分散処理してもよいし、サーバで主要な処理を行った後、端末に処理結果を配信するネットワークシステムや、いわゆるクラウドネットワークで実施してもよい。   The image processing program according to the present embodiment shown below is a game program, but the image processing program according to the present invention is not limited to the game program. The image processing program of the present invention can be applied by being executed by an arbitrary computer system. In addition, each processing of the present embodiment may be distributed by a plurality of networked devices, or may be performed by a network system that distributes processing results to a terminal after performing main processing by a server or a so-called cloud network. You may implement.

図1、図2、図3A、図3B、図3C、および図3Dは、ゲーム装置10の外観の一例を示す平面図である。図1−図3Dに示されるゲーム装置10は、撮像部(カメラ)を内蔵しており、当該撮像部によって画像を撮像し、撮像した画像を画面に表示したり、撮像した画像のデータを保存したりすることが可能である。また、ゲーム装置10は、交換可能なメモリカード内に記憶されたゲームプログラム、または、サーバや他のゲーム装置からネットワークを介して受信したゲームプログラムを実行可能である。また、ゲーム装置10は、仮想空間に設定された仮想カメラで撮像したときの画像を、コンピュータグラフィックス処理により生成して画面に表示すこともできる。なお、本明細書においては、カメラによって画像データを取り込むことを「撮像」と記し、撮像した画像データを記憶することを「撮影」と記す。   1, 2, 3 </ b> A, 3 </ b> B, 3 </ b> C, and 3 </ b> D are plan views illustrating an example of the appearance of the game apparatus 10. The game apparatus 10 shown in FIGS. 1 to 3D has a built-in imaging unit (camera), captures an image by the imaging unit, displays the captured image on a screen, and saves data of the captured image. It is possible to do. The game apparatus 10 can execute a game program stored in a replaceable memory card, or a game program received from a server or another game apparatus via a network. In addition, the game apparatus 10 can generate an image captured by a virtual camera set in a virtual space by computer graphics processing and display it on a screen. In this specification, capturing image data with a camera is referred to as “imaging”, and storing captured image data is referred to as “imaging”.

図1−図3Dに示されるゲーム装置10は、下側ハウジング11および上側ハウジング21を有する。下側ハウジング11と上側ハウジング21とは、ヒンジ構造により開閉可能(折り畳み可能)に連結されている。すなわち、上側ハウジング21は、下側ハウジング11に対して回動(揺動)自在に取り付けられている。これにより、ゲーム装置10は、上側ハウジング21が下側ハウジング11に対して密着した状態となる閉状態(図3A,図3C)と、上側ハウジング21が下側ハウジング11に対して回動し、密着場外が解除された状態(開状態)との2つの形態を有する。上側ハウジング21の回動は、図2に示すように、開状態において、上側ハウジング21と下側ハウジング11とが略平行となる位置まで許容される(図2参照)。   The game apparatus 10 shown in FIGS. 1 to 3D includes a lower housing 11 and an upper housing 21. The lower housing 11 and the upper housing 21 are connected to each other by a hinge structure so as to be openable and closable (foldable). That is, the upper housing 21 is attached to the lower housing 11 so as to be rotatable (swingable). Thereby, the game apparatus 10 is in a closed state (FIGS. 3A and 3C) in which the upper housing 21 is in close contact with the lower housing 11, and the upper housing 21 rotates with respect to the lower housing 11. It has two forms, a state where the outside of the contact field is released (open state). Rotation of the upper housing 21 is allowed to a position where the upper housing 21 and the lower housing 11 are substantially parallel in the open state as shown in FIG. 2 (see FIG. 2).

図1は、開いた状態(開状態)におけるゲーム装置10の一例を示す正面図である。ゲーム装置10の下側ハウジング11および上側ハウジング21のそれぞれは、平面形状が長手方向(横方向(左右方向):図中x方向)と短手方向((上下方向):図中y方向)とを有する横長の長方形である板状に形成されている。上側ハウジング21の長手方向の下側の外縁部と、下側ハウジング11の長手方向の上側の外縁部とがヒンジ構造により回動可能に連結されている。ユーザがゲーム装置10を使用する際には、通常、ゲーム装置10は開状態にされる。そして、ユーザがゲーム装置10を保管する際には、ゲーム装置10は閉状態にされる。また、上側ハウジング21は、下側ハウジング11との連結部分に生じる摩擦力により、下側ハウジング11との間でユーザが所望する角度をなして停止した状態を維持することができる。つまり、ゲーム装置10は、上側ハウジング21を下側ハウジング11に対して所望角度で静止させることができる。一般に、上側ハウジング21に設けられた画面の視認性の観点から、上側ハウジング21は、下側ハウジング11との間で、直角または鈍角をなす位置まで開いた状態とされる。以降、ゲーム装置10の閉状態において、上側ハウジング21と下側ハウジング11とのそれぞれの対向面を内側面、または、主面と称する。また、上側ハウジング21と下側ハウジング11とのそれぞれの内側面(主面)とは反対側の面を、外側面と称する。   FIG. 1 is a front view showing an example of the game apparatus 10 in an open state (open state). Each of the lower housing 11 and the upper housing 21 of the game apparatus 10 has a planar shape in the longitudinal direction (lateral direction (left-right direction): x direction in the figure) and short direction ((vertical direction): y direction in the figure). It is formed in the plate shape which is a horizontally long rectangle which has. A lower outer edge portion of the upper housing 21 in the longitudinal direction and an upper outer edge portion of the lower housing 11 in the longitudinal direction are coupled to each other by a hinge structure so as to be rotatable. When the user uses the game apparatus 10, the game apparatus 10 is normally opened. Then, when the user stores the game apparatus 10, the game apparatus 10 is closed. Further, the upper housing 21 can maintain a stopped state at an angle desired by the user with the lower housing 11 due to a frictional force generated at a connection portion with the lower housing 11. That is, the game apparatus 10 can make the upper housing 21 stationary at a desired angle with respect to the lower housing 11. In general, from the viewpoint of the visibility of the screen provided in the upper housing 21, the upper housing 21 is opened to a position that forms a right angle or an obtuse angle with the lower housing 11. Hereinafter, when the game apparatus 10 is in the closed state, the opposing surfaces of the upper housing 21 and the lower housing 11 are referred to as an inner surface or a main surface. Moreover, the surface on the opposite side to each inner surface (main surface) of the upper housing 21 and the lower housing 11 is called an outer surface.

ゲーム装置10の下側ハウジング11の上側長辺部分には、下側ハウジング11の内側面(主面)11Bに対して垂直な方向(図中z方向)に突出した突起部(軸受け部)11Aが設けられる。また、上側ハウジング21の下側長辺部分には、上側ハウジング21の下側面から当該下側面に垂直な方向に突起する突起部(軸受け部)21Aが設けられる。突起部11A,21A,11A内には、例えば、一方の突起部11Aから突起部21Aを貫通し他方の突起部11Aまでx方向に延びる回動軸(図示せず)が収容されており、この回動軸を中心に、上側ハウジング21が下側ハウジング11に対して相対的に回動自在となっている。このようにして、下側ハウジング11と上側ハウジング21とが、折り畳み可能に接続される。   On the upper long side portion of the lower housing 11 of the game apparatus 10, a protrusion (bearing portion) 11 </ b> A protruding in a direction (z direction in the drawing) perpendicular to the inner surface (main surface) 11 </ b> B of the lower housing 11. Is provided. Further, the lower long side portion of the upper housing 21 is provided with a protrusion (bearing portion) 21A that protrudes from the lower surface of the upper housing 21 in a direction perpendicular to the lower surface. In the protrusions 11A, 21A, 11A, for example, a rotating shaft (not shown) that extends in the x direction from one protrusion 11A through the protrusion 21A to the other protrusion 11A is accommodated. The upper housing 21 is rotatable relative to the lower housing 11 around the rotation axis. In this way, the lower housing 11 and the upper housing 21 are connected so as to be foldable.

図1に示される下側ハウジング11の内側面11Bには、下側LCD(Liquid Crystal Display:液晶表示装置)12、タッチパネル13、各操作ボタン14A〜14L、アナログスティック15、第1LED16A、および、マイクロフォン用孔18が設けられる。   An inner side surface 11B of the lower housing 11 shown in FIG. 1 has a lower LCD (Liquid Crystal Display) 12, a touch panel 13, operation buttons 14A to 14L, an analog stick 15, a first LED 16A, and a microphone. A service hole 18 is provided.

下側LCD12は下側ハウジング11に収納される。下側LCD12の平面形状は横長の長方形であり、その長辺方向が下側ハウジング11の長手方向(図1中x方向)に一致するように配置される。下側LCD12は、下側ハウジング11の内側面(主面)中央に設けられる。下側ハウジング11の内側面に設けられた開口部から下側LCD12の画面が露出する。ゲーム装置10を使用しない場合には上記閉状態としておくことによって、下側LCD12の画面が汚れたり傷ついたりすることを防止することができる。下側LCD12の画素数は、一例として、320dot×240dot(横×縦)である。下側LCD12は、後述する上側LCD22とは異なり、画像を(立体視可能ではなく)平面的に表示する表示装置である。なお、第1の実施形態では表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の表示装置を利用してもよい。また、下側LCD12として、所望の解像度を有する表示装置を利用することができる。   The lower LCD 12 is housed in the lower housing 11. The planar shape of the lower LCD 12 is a horizontally long rectangle, and is arranged so that the long side direction thereof coincides with the longitudinal direction of the lower housing 11 (x direction in FIG. 1). The lower LCD 12 is provided at the center of the inner surface (main surface) of the lower housing 11. The screen of the lower LCD 12 is exposed from an opening provided on the inner surface of the lower housing 11. When the game apparatus 10 is not used, it is possible to prevent the screen of the lower LCD 12 from being soiled or damaged by keeping the closed state. The number of pixels of the lower LCD 12 is, for example, 320 dots × 240 dots (horizontal × vertical). Unlike the upper LCD 22 described later, the lower LCD 12 is a display device that displays an image in a planar manner (not stereoscopically viewable). In the first embodiment, an LCD is used as the display device. However, other display devices such as a display device using EL (Electro Luminescence) may be used. A display device having a desired resolution can be used as the lower LCD 12.

タッチパネル13はゲーム装置10の入力装置の一つである。タッチパネル13は、下側LCD12の画面上を覆うように装着されている。第1の実施形態では、タッチパネル13は、抵抗膜方式のタッチパネルが用いられる。ただし、タッチパネル13は、抵抗膜方式に限らず、例えば、静電容量方式等、任意の押圧式のタッチパネルを用いることができる。また、第1の実施形態では、タッチパネル13は、下側LCD12の解像度と同解像度(検出精度)のものが利用される。ただし、必ずしもタッチパネル13の解像度と下側LCD12の解像度とが一致している必要はない。   The touch panel 13 is one of input devices of the game apparatus 10. The touch panel 13 is mounted so as to cover the screen of the lower LCD 12. In the first embodiment, the touch panel 13 is a resistive film type touch panel. However, the touch panel 13 is not limited to the resistive film type, and any pressing type touch panel such as a capacitance type can be used. In the first embodiment, the touch panel 13 has the same resolution (detection accuracy) as the resolution of the lower LCD 12. However, the resolution of the touch panel 13 and the resolution of the lower LCD 12 are not necessarily matched.

各操作ボタン14A〜14Lは、所定の入力を行うための入力装置である。下側ハウジング11の内側面(主面)には、各操作ボタン14A〜14Lのうち、十字ボタン14A(方向入力ボタン14A)、ボタン14B、ボタン14C、ボタン14D、ボタン14E、電源ボタン14F、セレクトボタン14J、HOMEボタン14K、およびスタートボタン14Lが設けられる。   Each operation button 14A-14L is an input device for performing a predetermined input. On the inner surface (main surface) of the lower housing 11, among the operation buttons 14A to 14L, the cross button 14A (direction input button 14A), button 14B, button 14C, button 14D, button 14E, power button 14F, select A button 14J, a HOME button 14K, and a start button 14L are provided.

十字ボタン14Aは、十字の形状を有しており、少なくとも上下左右の方向を指示するボタンを有している。十字ボタン14Aは、下側LCD12より左側の領域中の下部領域に設けられる。十字ボタン14Aは、下側ハウジング11を把持した左手の親指で操作可能な位置に設計される。   The cross button 14A has a cross shape, and has buttons for instructing at least the vertical and horizontal directions. The cross button 14 </ b> A is provided in a lower area in the area on the left side of the lower LCD 12. The cross button 14 </ b> A is designed at a position where it can be operated with the thumb of the left hand holding the lower housing 11.

ボタン14B、ボタン14C、ボタン14D、およびボタン14Eの4つのボタンは、下側LCD12より右側の領域中の上部に、十字状に配置されて設けられる。ボタン14B、ボタン14C、ボタン14D、およびボタン14Eは、下側ハウジング11を把持するユーザの右手の親指が自然と位置するところに設置される。電源ボタン14Fは、下側LCD12の右側の領域中の下部に配置される。   The four buttons, the button 14B, the button 14C, the button 14D, and the button 14E, are arranged in a cross shape in the upper part of the area on the right side of the lower LCD 12. The button 14B, the button 14C, the button 14D, and the button 14E are installed at a position where the thumb of the right hand of the user holding the lower housing 11 is naturally positioned. The power button 14 </ b> F is disposed in the lower part of the right area of the lower LCD 12.

セレクトボタン14J、HOMEボタン14K、およびスタートボタン14Lは、それぞれ、下側LCD12の下側領域に設置される。   The select button 14J, the HOME button 14K, and the start button 14L are installed in the lower area of the lower LCD 12, respectively.

ボタン14A〜14E、セレクトボタン14J、HOMEボタン14K、およびスタートボタン14Lには、ゲーム装置10によって実行されるプログラムに応じた機能が適宜割り当てられる。例えば、十字ボタン14Aは、選択操作やゲーム中のキャラクタの移動操作等に用いられる。例えば、各操作ボタン14B〜14Eは、決定操作やキャンセル操作等に用いられる。また、電源ボタン14Fは、ゲーム装置10の電源をオン/オフするために用いられる。   Functions according to a program executed by the game apparatus 10 are appropriately assigned to the buttons 14A to 14E, the select button 14J, the HOME button 14K, and the start button 14L. For example, the cross button 14A is used for a selection operation, a character movement operation during a game, and the like. For example, the operation buttons 14B to 14E are used for a determination operation, a cancel operation, and the like. The power button 14F is used to turn on / off the power of the game apparatus 10.

アナログスティック15は、方向を指示するデバイスである。アナログスティック15は、下側ハウジング11の内側面(主面)の下側LCD12より左側の領域中の上部に設けられる。すなわち、アナログスティック15は十字ボタン14Aの上方に設けられる。また、アナログスティック15は、下側ハウジング11を把持した左手の親指で操作可能な位置に設計される。アナログスティック15が上部領域に設けられたことにより、下側ハウジング11を把持するユーザの左手の親指が自然と位置するところにアナログスティック15が配置される。そして、十字ボタン14Aは、下側ハウジング11を把持するユーザの左手の親指を少し下にずらした位置に配置される。それゆえ、ユーザは、下側ハウジング11を把持する左手の親指を上下に動かすだけで、アナログスティック15と十字ボタン14Aを操作することができる。アナログスティック15は、そのキートップが、下側ハウジング11の内側面に平行にスライドするように構成されている。アナログスティック15は、ゲーム装置10が実行するプログラムに応じて機能する。例えば、3次元仮想空間に所定のオブジェクトが登場するゲームがゲーム装置10によって実行される場合、アナログスティック15は、当該所定のオブジェクトを3次元仮想空間内で移動させるための入力装置として機能する。この場合において、所定のオブジェクトは、アナログスティック15のキートップがスライドした方向に移動される。なお、アナログスティック15として、上下左右および斜め方向の任意の方向に所定量だけ傾倒することでアナログ入力を可能としたものを用いてもよい。   The analog stick 15 is a device that indicates a direction. The analog stick 15 is provided in the upper part of the region on the left side of the lower LCD 12 on the inner surface (main surface) of the lower housing 11. That is, the analog stick 15 is provided above the cross button 14A. The analog stick 15 is designed at a position where it can be operated with the thumb of the left hand holding the lower housing 11. Since the analog stick 15 is provided in the upper region, the analog stick 15 is disposed where the thumb of the left hand of the user holding the lower housing 11 is naturally positioned. The cross button 14A is disposed at a position where the thumb of the left hand of the user holding the lower housing 11 is slightly shifted downward. Therefore, the user can operate the analog stick 15 and the cross button 14 </ b> A simply by moving the thumb of the left hand holding the lower housing 11 up and down. The analog stick 15 is configured such that its key top slides parallel to the inner surface of the lower housing 11. The analog stick 15 functions according to a program executed by the game apparatus 10. For example, when a game in which a predetermined object appears in the three-dimensional virtual space is executed by the game apparatus 10, the analog stick 15 functions as an input device for moving the predetermined object in the three-dimensional virtual space. In this case, the predetermined object is moved in the direction in which the key top of the analog stick 15 slides. As the analog stick 15, an analog stick that allows analog input by tilting by a predetermined amount in any direction of up / down / left / right and oblique directions may be used.

なお、ボタン14B、ボタン14C,ボタン14D、およびボタン14Eの4つのボタンとアナログスティック15とは、下側LCD12を挟んで、左右対称な位置に配置される。これにより、ゲームプログラムによっては、例えば、左利きの人が、ボタン14B、ボタン14C,ボタン14D、およびボタン14Eの4つのボタンを使用して方向指示入力をすることも可能である。   The four buttons 14B, 14C, 14D, and 14E and the analog stick 15 are arranged at symmetrical positions with the lower LCD 12 in between. Thus, depending on the game program, for example, a left-handed person can input a direction instruction using the four buttons of the button 14B, the button 14C, the button 14D, and the button 14E.

第1LED16A(図1)は、ゲーム装置10の電源のON/OFF状態をユーザに通知する。第1LED16Aは、下側ハウジング11の内側面(主面)と下側ハウジング11の下側面とが共有する端部の右側に設けられる。これによって、ユーザは、ゲーム装置10の開閉状態にかかわらず、第1LED16Aの点灯の有無を視認することができる。   1st LED16A (FIG. 1) notifies a user of the ON / OFF state of the power supply of the game device 10. FIG. The first LED 16 </ b> A is provided on the right side of the end shared by the inner surface (main surface) of the lower housing 11 and the lower surface of the lower housing 11. Thereby, the user can visually recognize whether or not the first LED 16A is lit regardless of the open / closed state of the game apparatus 10.

マイクロフォン用孔18は、音声入力装置としてのゲーム装置10に内蔵されるマイクロフォン用の孔である。内蔵されたマイクロフォンは、マイクロフォン用孔18から外部の音を検出する。マイクロフォンおよびマイクロフォン用孔18は、下側ハウジング11の内側面(主面)の電源ボタン14Fの下方に設けられる。   The microphone hole 18 is a microphone hole built in the game apparatus 10 as a voice input device. The built-in microphone detects an external sound from the microphone hole 18. The microphone and the microphone hole 18 are provided below the power button 14 </ b> F on the inner surface (main surface) of the lower housing 11.

下側ハウジング11の上側面には、タッチペン28の挿入口17(図1、図3Dにおいて点線で示される)が設けられている。挿入口17から、タッチパネル13に対する操作を行うために用いられるタッチペン28を収納することができる。なお、タッチパネル13を用いた入力は、通常タッチペン28を用いて行われる。但し、タッチペン28の代わりにユーザの指を用いることもできる。   An insertion port 17 (indicated by a dotted line in FIGS. 1 and 3D) of the touch pen 28 is provided on the upper side surface of the lower housing 11. A touch pen 28 used for performing an operation on the touch panel 13 can be accommodated from the insertion port 17. The input using the touch panel 13 is normally performed using the touch pen 28. However, the user's finger can be used instead of the touch pen 28.

下側ハウジング11の上側面にはゲーム装置10とゲームプログラムを記録した外部メモリ45を挿入するための挿入口11D(図1、図3Dにおいて点線で示される)が設けられる。挿入口11Dの内部には、外部メモリ45と内部回路とを電気的に着脱自在に接続するためのコネクタ(図示せず)が設けられる。外部メモリ45がゲーム装置10に接続されることにより、内部回路に含まれるプロセッサによって所定のゲームプログラムが実行される。なお、上記コネクタおよび挿入口11Dは、下側ハウジング11の他の側面(例えば、右側面等)に設けられてもよい。   An insertion port 11D (indicated by a dotted line in FIGS. 1 and 3D) for inserting the game apparatus 10 and an external memory 45 in which a game program is recorded is provided on the upper side surface of the lower housing 11. Inside the insertion slot 11D, a connector (not shown) for electrically connecting the external memory 45 and the internal circuit in a detachable manner is provided. When the external memory 45 is connected to the game apparatus 10, a predetermined game program is executed by a processor included in the internal circuit. The connector and the insertion port 11D may be provided on the other side surface (for example, the right side surface) of the lower housing 11.

図1に示される上側ハウジング21の内側面21Bには、スピーカ孔21E、上側LCD22、内側撮像部24、3D調整スイッチ25、および3Dインジケータ26が設けられる。内側撮像部24が、第1の撮像装置の一例である。   A speaker hole 21E, an upper LCD 22, an inner imaging unit 24, a 3D adjustment switch 25, and a 3D indicator 26 are provided on the inner side surface 21B of the upper housing 21 shown in FIG. The inner imaging unit 24 is an example of a first imaging device.

上側LCD22は、立体視可能な画像を表示することが可能な表示装置である。上側LCD22は、実質的に同一の表示領域を用いて左目用画像と右目用画像とを表示することが可能である。具体的には、上側LCD22は、左目用画像と右目用画像とが所定単位で(例えば、1列ずつ)横方向に交互に表示される方式の表示装置である。なお、上側LCD22は、左目用画像と右目用画像とが交互に表示される方式の表示装置であってもよい。また、上側LCD22は、裸眼立体視可能な表示装置である。この場合、上側LCD22は、横方向に交互に表示される左目用画像と右目用画像とを左目および右目のそれぞれに分解して見えるようにレンチキュラー方式やパララックスバリア方式(視差バリア方式)のものが用いられる。第1の実施形態では、上側LCD22は、パララックスバリア方式の表示装置とする。上側LCD22は、右目用画像と左目用画像とを用いて、裸眼で立体視可能な画像(立体画像)を表示する。すなわち、上側LCD22は、視差バリアを用いてユーザの左目に左目用画像をユーザの右目に右目用画像をそれぞれ視認させることにより、ユーザにとって立体感のある立体画像(立体視可能な画像)を表示することができる。また、上側LCD22は、上記視差バリアを無効にすることが可能であり、視差バリアを無効にした場合は、画像を平面的に表示することができる(上述した立体視とは反対の意味で平面視の画像を表示することができる。すなわち、表示された同一の画像が右目にも左目にも見えるような表示モードである。)。このように、上側LCD22は、立体視可能な画像を表示する立体表示モードと、画像を平面的に表示する(平面視画像を表示する)平面表示モードとを切り替えることが可能な表示装置である。この表示モードの切り替えは、後述する3D調整スイッチ25によって行われる。   The upper LCD 22 is a display device capable of displaying a stereoscopically visible image. The upper LCD 22 can display a left-eye image and a right-eye image using substantially the same display area. Specifically, the upper LCD 22 is a display device in which a left-eye image and a right-eye image are alternately displayed in a horizontal direction in a predetermined unit (for example, one column at a time). Note that the upper LCD 22 may be a display device in which a left-eye image and a right-eye image are displayed alternately. The upper LCD 22 is a display device capable of autostereoscopic viewing. In this case, the upper LCD 22 is of a lenticular method or a parallax barrier method (parallax barrier method) so that the left-eye image and the right-eye image alternately displayed in the horizontal direction are seen as being decomposed into the left eye and the right eye, respectively. Is used. In the first embodiment, the upper LCD 22 is a parallax barrier display device. The upper LCD 22 uses the right-eye image and the left-eye image to display an image (stereoscopic image) that can be stereoscopically viewed with the naked eye. That is, the upper LCD 22 displays a stereoscopic image (stereoscopically viewable) having a stereoscopic effect for the user by using the parallax barrier to visually recognize the left-eye image for the user's left eye and the right-eye image for the user's right eye. can do. Further, the upper LCD 22 can invalidate the parallax barrier. When the parallax barrier is invalidated, the upper LCD 22 can display an image in a planar manner (in the sense opposite to the above-described stereoscopic view, the planar LCD is planar). (This is a display mode in which the same displayed image can be seen by both the right eye and the left eye.) As described above, the upper LCD 22 is a display device capable of switching between a stereoscopic display mode for displaying a stereoscopically viewable image and a planar display mode for displaying an image in a planar manner (displaying a planar view image). . This display mode switching is performed by a 3D adjustment switch 25 described later.

上側LCD22は、上側ハウジング21に収納される。上側LCD22は、横長の長方形であり、長辺方向が上側ハウジング21の長辺方向に一致する状態で、上側ハウジング21の中央に配置される。上側LCD22の画面の面積は、一例として下側LCD12の画面の面積よりも大きく設定される。具体的には、上側LCD22の画面は、下側LCD12の画面よりも横長に設定される。すなわち、上側LCD22の画面のアスペクト比における横幅の割合は、下側LCD12の画面のアスペクト比における横幅の割合よりも大きく設定される上側LCD22の画面は、上側ハウジング21の内側面(主面)21Bに設けられ、上側ハウジング21の内側面21Bに設けられた開口部から上側LCD22の画面が露出する。また、上側ハウジング21の内側面は、透明なスクリーンカバー27によって覆われている。スクリーンカバー27は、上側LCD22の画面を保護するとともに、上側LCD22と上側ハウジング21の内側面と一体的にさせ、これにより統一感を持たせている。上側LCD22の画素数は、一例として800dot×240dot(横×縦)である。第1の実施形態では、上側LCD22は液晶表示装置であるとして説明される。ただし、これに限らず、例えば、ELを利用した表示装置などが利用されてもよい。また、上側LCD22として、任意の解像度の表示装置を利用することができる。   The upper LCD 22 is housed in the upper housing 21. The upper LCD 22 is a horizontally long rectangle, and is arranged in the center of the upper housing 21 in a state where the long side direction coincides with the long side direction of the upper housing 21. For example, the screen area of the upper LCD 22 is set larger than the screen area of the lower LCD 12. Specifically, the screen of the upper LCD 22 is set to be horizontally longer than the screen of the lower LCD 12. In other words, the screen of the upper LCD 22 in which the ratio of the width in the aspect ratio of the screen of the upper LCD 22 is set larger than the ratio of the width in the aspect ratio of the screen of the lower LCD 12 is the inner surface (main surface) 21B of the upper housing 21. The screen of the upper LCD 22 is exposed from the opening provided in the inner side surface 21B of the upper housing 21. The inner surface of the upper housing 21 is covered with a transparent screen cover 27. The screen cover 27 protects the screen of the upper LCD 22 and is integrated with the upper LCD 22 and the inner side surface of the upper housing 21, thereby providing a sense of unity. The number of pixels of the upper LCD 22 is, for example, 800 dots × 240 dots (horizontal × vertical). In the first embodiment, the upper LCD 22 is described as a liquid crystal display device. However, not limited to this, for example, a display device using EL may be used. In addition, a display device having an arbitrary resolution can be used as the upper LCD 22.

スピーカ孔21Eは、ゲーム装置10の音声出力装置としてのスピーカ44からの音声を出力するための孔である。スピーカ21Eは、上側LCDを挟んで左右対称に設置される。後述するスピーカ44からの音声がこのスピーカ孔21Eから出力される。   The speaker hole 21 </ b> E is a hole for outputting sound from a speaker 44 as a sound output device of the game apparatus 10. The speakers 21E are installed symmetrically across the upper LCD. Sound from a speaker 44 described later is output from the speaker hole 21E.

内側撮像部24は、上側ハウジング21の内側面21Bの内向きの法線方向を撮像方向とする撮像部である。内側撮像部24は、所定の解像度を有する撮像素子と、レンズとを含む。撮像素子は、例えば、CCDイメージセンサやCMOSイメージセンサ等である。レンズは、ズーム機構を有するものでもよい。   The inner imaging unit 24 is an imaging unit whose imaging direction is the inward normal direction of the inner side surface 21 </ b> B of the upper housing 21. The inner imaging unit 24 includes an imaging element having a predetermined resolution and a lens. The imaging element is, for example, a CCD image sensor or a CMOS image sensor. The lens may have a zoom mechanism.

内側撮像部24は、上側ハウジング21の内側面21Bの、上側LCD22の画面の上端よりも上方に配置され、上側ハウジング21の左右方向に関して中央の位置(上側ハウジング21(上側LCD22の画面)を左右に2等分する線の線上)に配置される。このように内側撮像部24が配置されることによって、ユーザが上側LCD22を正視した際、内側撮像部24によってユーザの顔を正面から撮像することができる。外側左撮像部23aおよび外側右撮像部23bについては、後述される。   The inner imaging unit 24 is disposed above the upper end of the screen of the upper LCD 22 on the inner side surface 21B of the upper housing 21, and the center position (upper housing 21 (screen of the upper LCD 22) in the left-right direction) On the line that bisects the line. By arranging the inner imaging unit 24 in this way, when the user views the upper LCD 22 from the front, the inner imaging unit 24 can capture the user's face from the front. The outer left imaging unit 23a and the outer right imaging unit 23b will be described later.

3D調整スイッチ25は、スライドスイッチであり、上述のように上側LCD22の表示モードを切り替えるために用いられるスイッチである。また、3D調整スイッチ25は、上側LCD22に表示された立体視可能な画像(立体画像)の立体感を調整するために用いられる。3D調整スイッチ25は、ゲーム装置10の開閉状態に関わらずユーザが視認できるように、上側ハウジング21の内側面21Bと右側面とが共有する端部に設けられる。3D調整スイッチ25は、所定方向(例えば、上下方向)の任意の位置にスライド可能なスライダを有しており、当該スライダの位置に応じて上側LCD22の表示モードが設定される。   The 3D adjustment switch 25 is a slide switch, and is a switch used to switch the display mode of the upper LCD 22 as described above. The 3D adjustment switch 25 is used to adjust the stereoscopic effect of a stereoscopically viewable image (stereoscopic image) displayed on the upper LCD 22. The 3D adjustment switch 25 is provided at an end shared by the inner side surface 21 </ b> B and the right side surface of the upper housing 21 so that the user can visually recognize regardless of the open / closed state of the game apparatus 10. The 3D adjustment switch 25 has a slider that can slide to an arbitrary position in a predetermined direction (for example, the vertical direction), and the display mode of the upper LCD 22 is set according to the position of the slider.

例えば、3D調整スイッチ25のスライダが最下点位置に配置されている場合、上側LCD22が平面表示モードに設定され、上側LCD22の画面には平面画像が表示される。なお、上側LCD22を立体表示モードのままとして、左目用画像と右目用画像とを同一の画像とすることにより平面表示してもよい。一方、上記最下点位置より上側にスライダが配置されている場合、上側LCD22は立体表示モードに設定される。この場合、上側LCD22の画面には立体視可能な画像が表示される。ここで、スライダが上記最下点位置より上側に配置されている場合、スライダの位置に応じて、立体画像の見え方が調整される。具体的には、スライダの位置に応じて、右目用画像および左目用画像における横方向の位置のずれ量が調整される。   For example, when the slider of the 3D adjustment switch 25 is disposed at the lowest point position, the upper LCD 22 is set to the flat display mode, and a flat image is displayed on the screen of the upper LCD 22. Note that the upper LCD 22 may remain in the stereoscopic display mode, and the left-eye image and the right-eye image may be planarly displayed by using the same image. On the other hand, when the slider is arranged above the lowest point position, the upper LCD 22 is set to the stereoscopic display mode. In this case, a stereoscopically viewable image is displayed on the screen of the upper LCD 22. Here, when the slider is arranged above the lowest point position, the appearance of the stereoscopic image is adjusted according to the position of the slider. Specifically, the shift amount of the horizontal position in the right-eye image and the left-eye image is adjusted according to the position of the slider.

3Dインジケータ26は、上側LCD22が立体表示モードか否かを示す。例えば、3Dインジケータ26は、LEDであり、上側LCD22の立体表示モードが有効の場合に点灯する。3Dインジケータ26は、上側ハウジング21の内側面21Bに設けられ、上側LCD22の画面近傍に設けられる。このため、ユーザが上側LCD22の画面を正視した場合、ユーザは3Dインジケータ26を視認しやすい。したがって、ユーザは、上側LCD22の画面を視認している状態でも、上側LCD22の表示モードを容易に認識することができる。   The 3D indicator 26 indicates whether or not the upper LCD 22 is in the stereoscopic display mode. For example, the 3D indicator 26 is an LED, and lights up when the stereoscopic display mode of the upper LCD 22 is valid. The 3D indicator 26 is provided on the inner surface 21 </ b> B of the upper housing 21 and is provided in the vicinity of the screen of the upper LCD 22. For this reason, when the user views the screen of the upper LCD 22 from the front, the user can easily view the 3D indicator 26. Therefore, the user can easily recognize the display mode of the upper LCD 22 even while viewing the screen of the upper LCD 22.

図2は、開状態におけるゲーム装置10の一例を示す右側面図である。下側ハウジング11の右側面には、第2LED16Bと、無線スイッチ19と、Rボタン14Hとが設けられている。第2LED16Bは、点灯により、ゲーム装置10の無線通信の確立状況をユーザに通知する。ゲーム装置10は、他の機器との間で無線通信を行うことが可能であり、第2LED16Bは、他の機器との無線通信が確立している場合に点灯する。ゲーム装置10は、例えば、IEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。無線スイッチ19は、この無線通信の機能を有効/無効にする。Rボタン14Hについては、後述される。   FIG. 2 is a right side view showing an example of the game apparatus 10 in the open state. On the right side surface of the lower housing 11, a second LED 16B, a wireless switch 19, and an R button 14H are provided. The second LED 16B notifies the user of the wireless communication establishment status of the game apparatus 10 by lighting. The game apparatus 10 can perform wireless communication with other devices, and the second LED 16B lights up when wireless communication with the other devices is established. The game apparatus 10 is, for example, IEEE 802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard. The wireless switch 19 enables / disables this wireless communication function. The R button 14H will be described later.

図3Aは、閉じた状態(閉状態)におけるゲーム装置10の一例を示す左側面図である。図3Aに示される下側ハウジング11の左側面には、開閉可能なカバー部11Cと、Lボタン14Hと、音量ボタン14Iとが設けられる。音量ボタン14Iは、ゲーム装置10が備えるスピーカ44の音量を調整するためのボタンである。   FIG. 3A is a left side view illustrating an example of the game apparatus 10 in a closed state (closed state). An openable / closable cover portion 11C, an L button 14H, and a volume button 14I are provided on the left side surface of the lower housing 11 shown in FIG. 3A. The volume button 14I is a button for adjusting the volume of the speaker 44 provided in the game apparatus 10.

カバー部11Cの内側には、ゲーム装置10とデータ保存用外部メモリ46(図1参照)とを電気的に接続するためのコネクタ(図示せず)が設けられる。データ保存用外部メモリ46は、上記コネクタに着脱自在に装着される。データ保存用外部メモリ46は、例えば、ゲーム装置10によって撮像された画像のデータを記憶(保存)するために用いられる。なお、上記コネクタおよびカバー部11Cは、下側ハウジング11の右側面に設けられてもよい。Lボタン14Hについては後述される。   Inside the cover portion 11C, a connector (not shown) for electrically connecting the game apparatus 10 and the data storage external memory 46 (see FIG. 1) is provided. The external data storage memory 46 is detachably attached to the connector. The data storage external memory 46 is used, for example, for storing (saving) data of an image captured by the game apparatus 10. The connector and cover portion 11 </ b> C may be provided on the right side surface of the lower housing 11. The L button 14H will be described later.

図3Bは、閉状態におけるゲーム装置10の一例を示す正面図である。図3Bに示される上側ハウジング21の外側面には、外側左撮像部23a、外側右撮像部23b、および第3LED29が設けられる。   FIG. 3B is a front view showing an example of the game apparatus 10 in the closed state. An outer left imaging section 23a, an outer right imaging section 23b, and a third LED 29 are provided on the outer surface of the upper housing 21 shown in FIG. 3B.

外側左撮像部23aおよび外側右撮像部23bは、それぞれ所定の共通の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。レンズは、ズーム機構を有するものでもよい。外側左撮像部23aおよび外側右撮像部23bの撮像方向は、いずれも外側面21Dの外向きの法線方向である。すなわち、外側左撮像部23aの撮像方向および外側右撮像部23bの撮像方向(カメラの視軸)は、平行である。以降、外側左撮像部23aおよび外側右撮像部23bをまとめて、外側撮像部23と称する。外側撮像部23が、第2の撮像装置の一例である。   The outer left imaging unit 23a and the outer right imaging unit 23b each include an imaging element (for example, a CCD image sensor or a CMOS image sensor) having a predetermined common resolution and a lens. The lens may have a zoom mechanism. The imaging directions of the outer left imaging unit 23a and the outer right imaging unit 23b are both outward normal directions of the outer surface 21D. That is, the imaging direction of the outer left imaging unit 23a and the imaging direction (camera viewing axis) of the outer right imaging unit 23b are parallel. Hereinafter, the outer left imaging unit 23a and the outer right imaging unit 23b are collectively referred to as the outer imaging unit 23. The outer imaging unit 23 is an example of a second imaging device.

外側撮像部23を構成する外側左撮像部23aおよび外側右撮像部23bは、上側LCD22の画面の横方向に並べて配置される。すなわち、2つの外側左撮像部23aおよび外側右撮像部23bを結んだ直線が上側LCD22の画面の横方向に配置されるように、外側左撮像部23aおよび外側右撮像部23bが配置される。また、ユーザが上側ハウジング21を下側ハウジング11に対して所定角度(例えば90°)揺動させ、上側LCD22の画面を正面から視認した場合に、外側左撮像部23aは画面を視認するユーザの左側に位置し、外側右撮像部23bはユーザの右側に位置する(図1参照)。外側左撮像部23aおよび外側右撮像部23bの間隔は、人間の両目の間隔程度に設定され、例えば、30mm〜70mmの範囲で設定されてもよい。なお、外側左撮像部23aおよび外側右撮像部23bの間隔は、この範囲に限らない。なお、第1の実施形態においては、外側左撮像部23aおよび外側右撮像部23bは、上側ハウジング21に固定されており、撮像方向を変更することはできない。   The outer left imaging unit 23 a and the outer right imaging unit 23 b constituting the outer imaging unit 23 are arranged side by side in the horizontal direction of the screen of the upper LCD 22. That is, the outer left imaging unit 23 a and the outer right imaging unit 23 b are arranged so that a straight line connecting the two outer left imaging units 23 a and the outer right imaging unit 23 b is arranged in the horizontal direction of the screen of the upper LCD 22. In addition, when the user swings the upper housing 21 with respect to the lower housing 11 by a predetermined angle (for example, 90 °) and visually recognizes the screen of the upper LCD 22 from the front, the outer left imaging unit 23a displays the screen of the user who visually recognizes the screen. Located on the left side, the outer right imaging unit 23b is positioned on the right side of the user (see FIG. 1). The interval between the outer left imaging unit 23a and the outer right imaging unit 23b is set to about the interval between both eyes of a human, and may be set in a range of 30 mm to 70 mm, for example. In addition, the space | interval of the outer left imaging part 23a and the outer right imaging part 23b is not restricted to this range. In the first embodiment, the outer left imaging unit 23a and the outer right imaging unit 23b are fixed to the upper housing 21, and the imaging direction cannot be changed.

外側左撮像部23aおよび外側右撮像部23bは、上側LCD22(上側ハウジング21)の上側LCD22を左右に2等分する線に対して対称の位置にそれぞれ配置される。また、外側左撮像部23aおよび外側右撮像部23bは、上側ハウジング21を開いた状態において、上側ハウジング21の上部であって、上側LCD22の画面の上端よりも上方の位置の裏側に配置される(図1参照)。すなわち、外側左撮像部23aおよび外側右撮像部23bは、上側ハウジング21の外側面であって、上側LCD22を外側面に投影した場合、投影した上側LCD22の画面の上端よりも上方に配置される。   The outer left imaging unit 23a and the outer right imaging unit 23b are arranged at positions symmetrical with respect to a line that bisects the upper LCD 22 of the upper LCD 22 (upper housing 21) to the left and right. Further, the outer left imaging unit 23a and the outer right imaging unit 23b are arranged on the upper side of the upper housing 21 and on the back side of the upper side of the screen of the upper LCD 22 with the upper housing 21 opened. (See FIG. 1). That is, the outer left imaging unit 23a and the outer right imaging unit 23b are arranged on the outer surface of the upper housing 21 and above the upper end of the projected screen of the upper LCD 22 when the upper LCD 22 is projected onto the outer surface. .

このように、外側左撮像部23aおよび外側右撮像部23bが上側LCD22の短手方向中央線に対して線対称に配置されることにより、ユーザが上側LCD22を正視した場合に、外側撮像部23それぞれの撮像方向をユーザの左右の目それぞれの視線方向と一致させることができる。また、外側撮像部23は、上側LCD22の画面の上端より上方の裏側の位置に配置されるため、外側撮像部23と上側LCD22とが上側ハウジング21の内部で干渉することがない。さらに、外側左撮像部23aおよび外側右撮像部23bは、図3Bにおいて点線で示される上側ハウジング21の内側面に設けられた内側撮像部24を上側ハウジング21の外側面に投影した場合、当該投影された内側撮像部24を挟んで左右対称に設けられる。したがって、外側撮像部23を上側LCD22の画面の裏側に配置する場合や、内側撮像部24の裏側に外側撮像部23を配置する場合に比べて、上側ハウジング21を薄く構成することが可能となる。   As described above, the outer left imaging unit 23a and the outer right imaging unit 23b are arranged symmetrically with respect to the center line in the lateral direction of the upper LCD 22, so that when the user views the upper LCD 22 from the front, the outer imaging unit 23 is viewed. The respective imaging directions can be matched with the line-of-sight directions of the left and right eyes of the user. Further, since the outer imaging unit 23 is disposed at a position on the back side above the upper end of the screen of the upper LCD 22, the outer imaging unit 23 and the upper LCD 22 do not interfere inside the upper housing 21. Further, the outer left imaging unit 23a and the outer right imaging unit 23b project the inner imaging unit 24 provided on the inner surface of the upper housing 21 indicated by a dotted line in FIG. The inner imaging unit 24 is provided symmetrically. Accordingly, the upper housing 21 can be made thinner than when the outer imaging unit 23 is arranged on the back side of the screen of the upper LCD 22 or when the outer imaging unit 23 is arranged on the back side of the inner imaging unit 24. .

外側左撮像部23aと外側右撮像部23bとは、ゲーム装置10が実行するプログラムによって、ステレオカメラとして使用することが可能である。また、プログラムによっては、2つの外側撮像部(外側左撮像部23aおよび外側右撮像部23b)のいずれか一方を単独で用いて、外側撮像部23を非ステレオカメラとして使用可能である。外側撮像部23aおよび23bをステレオカメラとして機能させるプログラムが実行されている場合、外側左撮像部23aは、ユーザの左目で視認される左目用画像を撮像し、外側右撮像部23bは、ユーザの右目で視認される右目用画像を撮像する。また、プログラムによっては、2つの外側撮像部(外側左撮像部23aおよび外側右撮像部23b)で撮像した画像を合成してまたは補完的に使用することにより撮像範囲を広げた撮像を行うことも可能である。また、外側撮像部23aと23bとの一方を用いて撮像された単一の画像から、視差を有する左目用画像および右目用画像を生成して、あたかも2つのカメラで撮像されたかのような疑似ステレオ画像を生成することもできる。この疑似ステレオ画像の生成において、仮想カメラ間の距離は、適宜設定可能とされる。   The outer left imaging unit 23a and the outer right imaging unit 23b can be used as a stereo camera by a program executed by the game apparatus 10. In addition, depending on the program, one of the two outer imaging units (the outer left imaging unit 23a and the outer right imaging unit 23b) can be used alone, and the outer imaging unit 23 can be used as a non-stereo camera. When a program for causing the outer imaging units 23a and 23b to function as a stereo camera is executed, the outer left imaging unit 23a captures an image for the left eye that is visually recognized by the user's left eye, and the outer right imaging unit 23b A right-eye image that is visually recognized by the right eye is captured. Further, depending on the program, it is also possible to perform imaging with a wider imaging range by combining or complementarily using images captured by the two outer imaging units (the outer left imaging unit 23a and the outer right imaging unit 23b). Is possible. In addition, a pseudo-stereo as if the left-eye image and the right-eye image having parallax were generated from a single image captured using one of the outer imaging units 23a and 23b and captured by two cameras. An image can also be generated. In the generation of the pseudo stereo image, the distance between the virtual cameras can be set as appropriate.

第3LED29は、外側撮像部23が作動している場合に点灯し、外側撮像部23が作動していることを報知する。第3LED29は、上側ハウジング21の外側面の外側撮像部23の近傍に設けられる。   The third LED 29 is lit when the outer imaging unit 23 is operating, and notifies that the outer imaging unit 23 is operating. The third LED 29 is provided in the vicinity of the outer imaging unit 23 on the outer surface of the upper housing 21.

図3Cは、閉状態におけるゲーム装置10の一例を示す右側面図である。図3Dは、閉状態におけるゲーム装置10の一例を示す背面図である。   FIG. 3C is a right side view showing an example of the game apparatus 10 in the closed state. FIG. 3D is a rear view showing an example of the game apparatus 10 in the closed state.

図3Dに示される下側ハウジング11の上側面には、Lボタン14GおよびRボタン14Hが設けられている。Lボタン14Gは、下側ハウジング11の上面の左端部に設けられ、Rボタン14Hは、下側ハウジング11の上面の右端部に設けられる。Lボタン14GおよびRボタン14Hは、ゲーム装置10が実行するプログラムに応じた機能が適宜割り当てられる。例えば、Lボタン14GおよびRボタン14Hは、上述の各撮像部のシャッターボタン(撮影指示ボタン)として機能する。   An L button 14G and an R button 14H are provided on the upper side surface of the lower housing 11 shown in FIG. 3D. The L button 14 </ b> G is provided at the left end portion of the upper surface of the lower housing 11, and the R button 14 </ b> H is provided at the right end portion of the upper surface of the lower housing 11. Functions corresponding to the program executed by the game apparatus 10 are appropriately assigned to the L button 14G and the R button 14H. For example, the L button 14G and the R button 14H function as shutter buttons (shooting instruction buttons) of the above-described imaging units.

なお、図示は省略するが、下側ハウジング11には、ゲーム装置10の電源となる充電式電池が収納され、下側ハウジング11の側面(例えば、上側面)に設けられた端子を介して当該電池を充電することができる。   Although not shown, the lower housing 11 stores a rechargeable battery that serves as a power source for the game apparatus 10, and the terminal is provided via a terminal provided on a side surface (for example, the upper side surface) of the lower housing 11. The battery can be charged.

図4および図5は、それぞれ、ゲーム装置10の使用状態の一例を示す。図4は、ユーザがゲーム装置10を両手で把持する様子の一例を示す図である。   4 and 5 each show an example of the usage state of the game apparatus 10. FIG. 4 is a diagram illustrating an example of how the user holds the game apparatus 10 with both hands.

図4に示される例において、ユーザは、下側LCD12および上側LCD22がユーザの方向を向く状態で、両手の掌と中指、薬指および小指とで下側ハウジング11の側面および外側面(内側面の反対側の面)を把持する。このように把持することで、ユーザは、下側ハウジング11を把持したまま、各操作ボタン14A〜14Eおよびアナログスティック15に対する操作を左右の親指で行い、Lボタン14GおよびR14Hに対する操作を左右の人差し指で行うことができる。   In the example shown in FIG. 4, the user moves the side and outer surfaces (inner surface of the inner surface) of the lower housing 11 with the palm and middle finger, ring finger and little finger of both hands with the lower LCD 12 and the upper LCD 22 facing the user. Grasp the opposite surface. By gripping in this way, the user operates the operation buttons 14A to 14E and the analog stick 15 with the left and right thumbs while holding the lower housing 11, and performs the operation on the L buttons 14G and R14H with the left and right index fingers. Can be done.

図5は、ユーザがゲーム装置10を片手で把持する様子の一例を示す図である。図5に示される例において、タッチパネル13に対して入力を行う場合には、ユーザは下側ハウジング11を把持していた一方の手を離して他方の手のみで下側ハウジング11を把持する。これによって、当該一方の手でタッチパネル13に対する入力を行うことができる。   FIG. 5 is a diagram illustrating an example of how the user holds the game apparatus 10 with one hand. In the example shown in FIG. 5, when performing an input on the touch panel 13, the user releases one hand holding the lower housing 11 and holds the lower housing 11 only with the other hand. As a result, the input to the touch panel 13 can be performed with the one hand.

図6は、ゲーム装置10の内部構成の一例を示すブロック図である。ゲーム装置10は、上述した各構成部に加えて、情報処理部31、メインメモリ32、外部メモリインターフェイス(外部メモリI/F)33、データ保存用外部メモリI/F34、データ保存用内部メモリ35、無線通信モジュール36、ローカル通信モジュール37、リアルタイムクロック(RTC)38、加速度センサ39、角速度センサ40、電源回路41、およびインターフェイス回路(I/F回路)42等の電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて下側ハウジング11(または上側ハウジング21でもよい)内に収納される。   FIG. 6 is a block diagram illustrating an example of the internal configuration of the game apparatus 10. In addition to the components described above, the game apparatus 10 includes an information processing unit 31, a main memory 32, an external memory interface (external memory I / F) 33, an external memory I / F 34 for data storage, and an internal memory 35 for data storage. , A wireless communication module 36, a local communication module 37, a real time clock (RTC) 38, an acceleration sensor 39, an angular velocity sensor 40, a power supply circuit 41, and an interface circuit (I / F circuit) 42. These electronic components are mounted on an electronic circuit board and accommodated in the lower housing 11 (or the upper housing 21).

情報処理部31は、所定のプログラムを実行するためのCPU(Central Processing Unit)311、画像処理を行うGPU(Graphics Processing Unit)312等を含む情報処理手段である。第1の実施形態では、所定のプログラムがゲーム装置10内のメモリ(例えば外部メモリI/F33に接続された外部メモリ45やデータ保存用内部メモリ35)に記憶されている。情報処理部31のCPU311は、当該所定のプログラムを実行することによって、後述する画像処理やゲーム処理を実行する。なお、情報処理部31のCPU311によって実行されるプログラムは、他の機器との通信によって他の機器から取得されてもよい。また、情報処理部31は、VRAM(Video RAM)313を含む。情報処理部31のGPU312は、情報処理部31のCPU311からの命令に応じて画像を生成し、VRAM313に描画する。そして、情報処理部31のGPU312は、VRAM313に描画された画像を上側LCD22および/または下側LCD12に出力し、当該画像は上側LCD22および/または下側LCD12に表示される。   The information processing unit 31 is information processing means including a CPU (Central Processing Unit) 311 for executing a predetermined program, a GPU (Graphics Processing Unit) 312 for performing image processing, and the like. In the first embodiment, a predetermined program is stored in a memory (for example, the external memory 45 connected to the external memory I / F 33 or the internal data storage memory 35) in the game apparatus 10. The CPU 311 of the information processing unit 31 executes image processing and game processing described later by executing the predetermined program. Note that the program executed by the CPU 311 of the information processing unit 31 may be acquired from another device through communication with the other device. The information processing unit 31 includes a VRAM (Video RAM) 313. The GPU 312 of the information processing unit 31 generates an image in response to a command from the CPU 311 of the information processing unit 31 and draws it on the VRAM 313. Then, the GPU 312 of the information processing unit 31 outputs the image drawn in the VRAM 313 to the upper LCD 22 and / or the lower LCD 12, and the image is displayed on the upper LCD 22 and / or the lower LCD 12.

情報処理部31には、メインメモリ32、外部メモリI/F33、データ保存用外部メモリI/F34、およびデータ保存用内部メモリ35が接続される。外部メモリI/F33は、外部メモリ45を着脱自在に接続するためのインターフェイスである。また、データ保存用外部メモリI/F34は、データ保存用外部メモリ46を着脱自在に接続するためのインターフェイスである。   A main memory 32, an external memory I / F 33, a data storage external memory I / F 34, and a data storage internal memory 35 are connected to the information processing unit 31. The external memory I / F 33 is an interface for detachably connecting the external memory 45. The data storage external memory I / F 34 is an interface for detachably connecting the data storage external memory 46.

メインメモリ32は、情報処理部31(CPU311)のワーク領域やバッファ領域として用いられる揮発性の記憶手段である。すなわち、メインメモリ32は、画像処理やゲーム処理で用いられる各種データを一時的に記憶したり、外部(外部メモリ45や他の機器等)から取得されるプログラムを一時的に記憶したりする。第1の実施形態では、メインメモリ32として例えばPSRAM(Pseudo−SRAM)を用いる。   The main memory 32 is a volatile storage unit used as a work area or a buffer area of the information processing unit 31 (CPU 311). That is, the main memory 32 temporarily stores various data used in image processing and game processing, and temporarily stores programs acquired from the outside (such as the external memory 45 and other devices). In the first embodiment, for example, a PSRAM (Pseudo-SRAM) is used as the main memory 32.

外部メモリ45は、情報処理部31によって実行されるプログラムを記憶するための不揮発性の記憶手段である。外部メモリ45は、例えば読み取り専用の半導体メモリで構成される。外部メモリ45が外部メモリI/F33に接続されると、情報処理部31は外部メモリ45に記憶されたプログラムを読み込むことができる。情報処理部31が読み込んだプログラムを実行することにより、所定の処理が行われる。データ保存用外部メモリ46は、不揮発性の読み書き可能なメモリ(例えばNAND型フラッシュメモリ)で構成され、所定のデータを格納するために用いられる。例えば、データ保存用外部メモリ46には、外側撮像部23で撮像された画像や他の機器で撮像された画像が記憶される。データ保存用外部メモリ46がデータ保存用外部メモリI/F34に接続されると、情報処理部31はデータ保存用外部メモリ46に記憶された画像を読み込み、上側LCD22および/または下側LCD12に当該画像を表示することができる。   The external memory 45 is a nonvolatile storage unit for storing a program executed by the information processing unit 31. The external memory 45 is constituted by a read-only semiconductor memory, for example. When the external memory 45 is connected to the external memory I / F 33, the information processing section 31 can read a program stored in the external memory 45. A predetermined process is performed by executing the program read by the information processing unit 31. The data storage external memory 46 is composed of a non-volatile readable / writable memory (for example, a NAND flash memory), and is used for storing predetermined data. For example, the data storage external memory 46 stores an image captured by the outer imaging unit 23 and an image captured by another device. When the data storage external memory 46 is connected to the data storage external memory I / F 34, the information processing section 31 reads an image stored in the data storage external memory 46 and applies the image to the upper LCD 22 and / or the lower LCD 12. An image can be displayed.

データ保存用内部メモリ35は、読み書き可能な不揮発性メモリ(例えばNAND型フラッシュメモリ)で構成され、所定のデータを格納するために用いられる。例えば、データ保存用内部メモリ35には、無線通信モジュール36を介した無線通信によってダウンロードされたデータやプログラムが格納される。   The data storage internal memory 35 is configured by a readable / writable nonvolatile memory (for example, a NAND flash memory), and is used for storing predetermined data. For example, the data storage internal memory 35 stores data and programs downloaded by wireless communication via the wireless communication module 36.

無線通信モジュール36は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール37は、所定の通信方式(例えば赤外線通信)により同種のゲーム装置との間で無線通信を行う機能を有する。無線通信モジュール36およびローカル通信モジュール37は、情報処理部31に接続される。情報処理部31は、無線通信モジュール36を用いてインターネットを介して他の機器との間でデータを送受信したり、ローカル通信モジュール37を用いて同種の他のゲーム装置との間でデータを送受信したりすることができる。   The wireless communication module 36 is, for example, IEEE 802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard. The local communication module 37 has a function of performing wireless communication with the same type of game device by a predetermined communication method (for example, infrared communication). The wireless communication module 36 and the local communication module 37 are connected to the information processing unit 31. The information processing unit 31 transmits / receives data to / from other devices via the Internet using the wireless communication module 36, and transmits / receives data to / from other game devices of the same type using the local communication module 37. You can do it.

情報処理部31には、加速度センサ39が接続される。加速度センサ39は、3軸(本実施形態では、xyz軸)方向に沿った直線方向の加速度(直線加速度)の大きさを検出する。加速度センサ39は、例えば下側ハウジング11の内部に設けられる。加速度センサ39は、図1に示されるように、下側ハウジング11の長辺方向をx軸、下側ハウジング11の短辺方向をy軸、下側ハウジング11の内側面(主面)に対して垂直な方向をz軸として、ゲーム装置10の各軸方向へ生じる直線加速度の大きさをそれぞれ検出する。なお、加速度センサ39は、例えば静電容量式の加速度センサとするが、他の方式の加速度センサを用いるようにしてもよい。また、加速度センサ39は1軸または2軸方向を検出する加速度センサであってもよい。情報処理部31は、加速度センサ39が検出した加速度を示すデータ(加速度データ)を受信して、ゲーム装置10の姿勢や動きを算出する。   An acceleration sensor 39 is connected to the information processing unit 31. The acceleration sensor 39 detects the magnitude of linear acceleration (linear acceleration) along the direction of three axes (in this embodiment, the xyz axis). The acceleration sensor 39 is provided, for example, inside the lower housing 11. As shown in FIG. 1, the acceleration sensor 39 is configured such that the long side direction of the lower housing 11 is the x axis, the short side direction of the lower housing 11 is the y axis, and the inner surface (main surface) of the lower housing 11 is. Then, the magnitude of the linear acceleration generated in each axial direction of the game apparatus 10 is detected using the vertical direction as the z-axis. The acceleration sensor 39 is, for example, a capacitance type acceleration sensor, but other types of acceleration sensors may be used. The acceleration sensor 39 may be an acceleration sensor that detects a uniaxial or biaxial direction. The information processing unit 31 receives data (acceleration data) indicating the acceleration detected by the acceleration sensor 39 and calculates the attitude and movement of the game apparatus 10.

情報処理部31には、角速度センサ40が接続される。角速度センサ40は、ゲーム装置10の3軸(本実施形態では、xyz軸)周りに生じる角速度をそれぞれ検出し、検出した角速度を示すデータ(角速度データ)を情報処理部31へ出力する。角速度センサ40は、例えば下側ハウジング11の内部に設けられる。情報処理部31は、角速度センサ40から出力された角速度データを受信して、ゲーム装置10の姿勢や動きを算出する。   An angular velocity sensor 40 is connected to the information processing unit 31. The angular velocity sensor 40 detects angular velocities generated around the three axes (xyz axes in the present embodiment) of the game apparatus 10 and outputs data (angular velocity data) indicating the detected angular velocities to the information processing section 31. The angular velocity sensor 40 is provided, for example, inside the lower housing 11. The information processing unit 31 receives the angular velocity data output from the angular velocity sensor 40 and calculates the attitude and movement of the game apparatus 10.

情報処理部31には、RTC38および電源回路41が接続される。RTC38は、時間をカウントして情報処理部31に出力する。情報処理部31は、RTC38によって計時された時間に基づき現在時刻(日付)を計算する。電源回路41は、ゲーム装置10が有する電源(下側ハウジング11に収納される上記充電式電池)からの電力を制御し、ゲーム装置10の各部品に電力を供給する。   An RTC 38 and a power supply circuit 41 are connected to the information processing unit 31. The RTC 38 counts the time and outputs it to the information processing unit 31. The information processing unit 31 calculates the current time (date) based on the time counted by the RTC 38. The power supply circuit 41 controls power from the power supply (the rechargeable battery housed in the lower housing 11) of the game apparatus 10 and supplies power to each component of the game apparatus 10.

情報処理部31には、I/F回路42が接続される。I/F回路42には、マイク43、スピーカ44、およびタッチパネル13が接続される。具体的には、I/F回路42には、図示しないアンプを介してスピーカ44が接続される。マイク43は、ユーザの音声を検知して音声信号をI/F回路42に出力する。アンプは、I/F回路42からの音声信号を増幅し、音声をスピーカ44から出力させる。I/F回路42は、マイク43およびスピーカ44(アンプ)の制御を行う音声制御回路と、タッチパネル13の制御を行うタッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換およびD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。タッチパネル制御回路は、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを生成して情報処理部31に出力する。タッチ位置データは、タッチパネル13の入力面において入力が行われた位置(タッチ位置)の座標を示す。なお、タッチパネル制御回路は、タッチパネル13からの信号の読み込み、およびタッチ位置データの生成を所定時間に1回の割合で行う。情報処理部31は、タッチ位置データを取得することにより、タッチパネル13に対して入力が行われたタッチ位置を知ることができる。   An I / F circuit 42 is connected to the information processing unit 31. A microphone 43, a speaker 44, and the touch panel 13 are connected to the I / F circuit 42. Specifically, a speaker 44 is connected to the I / F circuit 42 via an amplifier (not shown). The microphone 43 detects the user's voice and outputs a voice signal to the I / F circuit 42. The amplifier amplifies the audio signal from the I / F circuit 42 and outputs the audio from the speaker 44. The I / F circuit 42 includes a voice control circuit that controls the microphone 43 and the speaker 44 (amplifier), and a touch panel control circuit that controls the touch panel 13. The voice control circuit performs A / D conversion and D / A conversion on the voice signal, or converts the voice signal into voice data of a predetermined format. The touch panel control circuit generates touch position data in a predetermined format based on a signal from the touch panel 13 and outputs it to the information processing unit 31. The touch position data indicates the coordinates of the position (touch position) where the input is performed on the input surface of the touch panel 13. The touch panel control circuit reads signals from the touch panel 13 and generates touch position data at a rate of once per predetermined time. The information processing section 31 can know the touch position where an input has been made on the touch panel 13 by acquiring the touch position data.

操作ボタン14は、上記各操作ボタン14A〜14Lからなり、情報処理部31に接続される。操作ボタン14から情報処理部31へは、各操作ボタン14A〜14Iに対する入力状況(押下されたか否か)を示す操作データが出力される。情報処理部31は、操作ボタン14から操作データを取得することによって、操作ボタン14に対する入力に応じた処理を実行する。   The operation button 14 includes the operation buttons 14 </ b> A to 14 </ b> L and is connected to the information processing unit 31. From the operation button 14 to the information processing section 31, operation data indicating the input status (whether or not the button is pressed) for each of the operation buttons 14A to 14I is output. The information processing unit 31 acquires the operation data from the operation button 14, thereby executing processing corresponding to the input to the operation button 14.

下側LCD12および上側LCD22は、情報処理部31に接続される。下側LCD12および上側LCD22は、情報処理部31(GPU312)の指示にしたがって画像を表示する。第1の実施形態では、情報処理部31は、手書き画像入力操作用の画像を下側LCD12に表示させ、外側撮像部23および内側撮像部24のいずれかから取得した画像を上側LCD22に表示させる。すなわち、情報処理部31は、上側LCD22に外側撮像部23で撮像した右目用画像と左目用画像とを用いた立体画像(立体視可能な画像)を表示させたり、内側撮像部24で撮像した平面画像を上側LCD22に表示させたり、上側LCD22に外側撮像部23で撮像した右目用画像および左目用画像の一方を用いた平面画像を表示させたりする。   The lower LCD 12 and the upper LCD 22 are connected to the information processing unit 31. Lower LCD 12 and upper LCD 22 display images in accordance with instructions from information processing unit 31 (GPU 312). In the first embodiment, the information processing unit 31 displays an image for handwritten image input operation on the lower LCD 12 and displays an image acquired from either the outer imaging unit 23 or the inner imaging unit 24 on the upper LCD 22. . That is, the information processing unit 31 displays a stereoscopic image (stereoscopically visible image) using the right-eye image and the left-eye image captured by the outer imaging unit 23 on the upper LCD 22 or is captured by the inner imaging unit 24. A planar image is displayed on the upper LCD 22, or a planar image using one of the right-eye image and the left-eye image captured by the outer imaging unit 23 is displayed on the upper LCD 22.

具体的には、情報処理部31は、上側LCD22のLCDコントローラ(図示せず)と接続され、当該LCDコントローラに対して視差バリアのON/OFFを制御する。上側LCD22の視差バリアがONになっている場合、情報処理部31のVRAM313に格納された(外側撮像部23で撮像された)右目用画像と左目用画像とが、上側LCD22に出力される。より具体的には、LCDコントローラは、右目用画像について縦方向に1ライン分の画素データを読み出す処理と、左目用画像について縦方向に1ライン分の画素データを読み出す処理とを交互に繰り返すことによって、VRAM313から右目用画像と左目用画像とを読み出す。これにより、右目用画像および左目用画像が、画素を縦に1ライン毎に並んだ短冊状画像に分割され、分割された右目用画像の短冊状画像と左目用画像の短冊状画像とが交互に配置された画像が、上側LCD22の画面に表示される。そして、上側LCD22の視差バリアを介して当該画像がユーザに視認されることによって、ユーザの右目に右目用画像が、ユーザの左目に左目用画像が視認される。以上により、上側LCD22の画面には立体視可能な画像が表示される。   Specifically, the information processing section 31 is connected to an LCD controller (not shown) of the upper LCD 22 and controls ON / OFF of the parallax barrier for the LCD controller. When the parallax barrier of the upper LCD 22 is ON, the right-eye image and the left-eye image stored in the VRAM 313 of the information processing unit 31 (imaged by the outer imaging unit 23) are output to the upper LCD 22. More specifically, the LCD controller alternately repeats the process of reading pixel data for one line in the vertical direction for the image for the right eye and the process of reading pixel data for one line in the vertical direction for the image for the left eye. Thus, the right-eye image and the left-eye image are read from the VRAM 313. As a result, the image for the right eye and the image for the left eye are divided into strip-like images in which pixels are arranged vertically for each line. The strip-like images for the right-eye image and the strip-like images for the left-eye image are alternately displayed. The image arranged on the upper LCD 22 is displayed on the screen. Then, when the user visually recognizes the image through the parallax barrier of the upper LCD 22, the right eye image is visually recognized by the user's right eye and the left eye image is visually recognized by the user's left eye. As a result, a stereoscopically viewable image is displayed on the screen of the upper LCD 22.

外側撮像部23および内側撮像部24は、情報処理部31に接続される。外側撮像部23および内側撮像部24は、情報処理部31の指示にしたがって画像を撮像し、撮像した画像データを情報処理部31に出力する。第1の実施形態では、情報処理部31は、外側撮像部23および内側撮像部24のいずれか一方に対して撮像指示を行い、撮像指示を受けた撮像部が画像を撮像して画像データを情報処理部31に送る。具体的には、ユーザによるタッチパネル13や操作ボタン14を用いた操作によって使用する撮像部が選択される。そして、撮像部が選択されたことを情報処理部31(CPU311)が検知し、情報処理部31が外側撮像部23または内側撮像部24に対して撮像指示を行う。   The outer imaging unit 23 and the inner imaging unit 24 are connected to the information processing unit 31. The outer imaging unit 23 and the inner imaging unit 24 capture an image in accordance with an instruction from the information processing unit 31, and output the captured image data to the information processing unit 31. In the first embodiment, the information processing unit 31 issues an imaging instruction to one of the outer imaging unit 23 and the inner imaging unit 24, and the imaging unit that receives the imaging instruction captures an image and obtains image data. The information is sent to the information processing unit 31. Specifically, an imaging unit to be used is selected by an operation using the touch panel 13 or the operation button 14 by the user. Then, the information processing unit 31 (CPU 311) detects that the imaging unit has been selected, and the information processing unit 31 issues an imaging instruction to the outer imaging unit 23 or the inner imaging unit 24.

外側撮像部23および内側撮像部24は、情報処理部31(CPU311)からの指示によって起動されると、例えば、1秒間に60枚の速度で撮像する。外側撮像部23または内側撮像部24によって撮像された撮像画像は、順次、情報処理部31に送られ、情報処理部31(GPU312)によって上側LCD22または下側LCD12に表示される。撮像画像は、情報処理部31に出力されると、VRAM313に格納され、上側LCD22または下側LCD12に出力された後、所定のタイミングで削除される。このように、例えば、1秒間に60枚の速度で、撮像し、撮像した画像を表示することによって、ゲーム装置10は、外側撮像部23および内側撮像部24の撮像範囲内の景色をリアルタイムに上側LCD22または下側LCD12に表示することができる。   When activated by an instruction from the information processing unit 31 (CPU 311), the outer imaging unit 23 and the inner imaging unit 24, for example, capture images at a speed of 60 sheets per second. The captured images captured by the outer imaging unit 23 or the inner imaging unit 24 are sequentially sent to the information processing unit 31 and displayed on the upper LCD 22 or the lower LCD 12 by the information processing unit 31 (GPU 312). When the captured image is output to the information processing unit 31, it is stored in the VRAM 313, output to the upper LCD 22 or the lower LCD 12, and then deleted at a predetermined timing. Thus, for example, by capturing images at a speed of 60 images per second and displaying the captured images, the game apparatus 10 can view the scenery in the imaging range of the outer imaging unit 23 and the inner imaging unit 24 in real time. It can be displayed on the upper LCD 22 or the lower LCD 12.

3D調整スイッチ25は、情報処理部31に接続される。3D調整スイッチ25は、スライダの位置に応じた電気信号を情報処理部31に送信する。   The 3D adjustment switch 25 is connected to the information processing unit 31. The 3D adjustment switch 25 transmits an electrical signal corresponding to the position of the slider to the information processing unit 31.

3Dインジケータ26は、情報処理部31に接続される。情報処理部31は、3Dインジケータ26の点灯を制御する。例えば、情報処理部31は、上側LCD22が立体表示モードである場合、3Dインジケータ26を点灯させる。   The 3D indicator 26 is connected to the information processing unit 31. The information processing unit 31 controls lighting of the 3D indicator 26. For example, the information processing section 31 turns on the 3D indicator 26 when the upper LCD 22 is in the stereoscopic display mode.

<機能の説明>
次に、ゲーム装置10が実行するゲーム処理の一例の概要を説明する。ゲーム装置10は、ユーザ(以下、プレイヤともいう)の操作にしたがって、内側撮像部24、あるいは、外側撮像部23等を通じて、例えば、人の顔画像を取得して保存することにより、顔画像を収集する機能を提供する。顔画像の収集にあたって、ユーザは、取得した顔画像を用いたゲーム(第1のゲーム)を実行し、そのゲームの結果が成功であった場合に、ユーザは取得した画像を保存することができる。なお、ユーザは、保存する対象となる顔画像を、上記第1のゲームを実行する前に内側撮像部24または外側撮像部23等によって撮像された画像や、上記第1のゲームを実行する前に別のアプリケーションによって取得されている画像や、上記第1のゲームの実行中に内側撮像部24または外側撮像部23等によって撮像される画像等から取得することができる。ゲーム装置10は、後述するように、ゲーム処理を実行中にアクセス可能なセーブデータ記憶域Do(図11参照)に、上記第1のゲーム前または上記第1のゲーム中に取得した顔画像を保存する。そして、ユーザは、ゲーム装置10に対して同様の操作を繰り返して、複数の顔画像を収集し、セーブデータ記憶域Doに追加し、蓄積することができる。セーブデータ記憶域Doは、ゲーム実行中のゲーム装置10がアクセス可能な領域であるので、取得された顔画像がセーブデータ記憶域Doに保存されることによって、後の処理においても利用可能な状態となる。さらに、ゲーム装置10は、セーブデータ記憶域Doに蓄積したデータを読み出すことにより、第1のゲームの結果として収集した顔画像の一覧を表示する。そして、ゲーム装置10は、表示した顔画像の一覧の中からユーザが選択した顔画像、あるいは、ゲーム装置10が自動的に選択した顔画像を用いてゲーム(第2のゲーム)を実行する。
<Description of functions>
Next, an outline of an example of game processing executed by the game apparatus 10 will be described. The game apparatus 10 obtains and stores a face image of a person, for example, through the inner imaging unit 24, the outer imaging unit 23, or the like in accordance with an operation of a user (hereinafter also referred to as a player). Provides the ability to collect. In collecting the face images, the user executes a game using the acquired face image (first game), and when the result of the game is successful, the user can save the acquired image. . It should be noted that the user can save the face image to be saved by capturing an image captured by the inner imaging unit 24 or the outer imaging unit 23 before executing the first game, or before executing the first game. The image can be acquired from an image acquired by another application, an image captured by the inner imaging unit 24, the outer imaging unit 23, or the like during the execution of the first game. As will be described later, the game apparatus 10 stores the face image acquired before or during the first game in the saved data storage area Do (see FIG. 11) accessible during the execution of the game process. save. The user can then repeat the same operation on the game apparatus 10 to collect a plurality of face images, add them to the save data storage area Do, and store them. Since the save data storage area Do is an area that can be accessed by the game apparatus 10 that is executing the game, the saved face image is stored in the save data storage area Do so that it can be used in later processing. It becomes. Furthermore, the game apparatus 10 displays a list of face images collected as a result of the first game by reading the data accumulated in the save data storage area Do. Then, the game device 10 executes a game (second game) using the face image selected by the user from the displayed list of face images or the face image automatically selected by the game device 10.

ゲーム装置10が実行するゲーム(第1のゲーム、第2のゲーム)は、例えば、敵オブジェクトEOに照準を合わせて攻撃を行い、敵オブジェクトEOを破壊するゲームである。そして、第1の実施形態では、例えば、ユーザが取得し、セーブデータ記憶域Do保存納前の顔画像、あるいはセーブデータ記憶域Do保存納後の顔画像が敵オブジェクトEO等のキャラクタオブジェクトのテクスチャとなって、敵オブジェクトEO等にマッピングされる。   The game (first game, second game) executed by the game apparatus 10 is, for example, a game that attacks the enemy object EO while aiming and destroys the enemy object EO. In the first embodiment, for example, the face image obtained by the user and stored in the save data storage area Do or the face image stored in the save data storage area Do is stored in the texture of the character object such as the enemy object EO. Thus, it is mapped to the enemy object EO or the like.

まず、第1の実施形態における第1のゲーム実行段階では、ユーザは、例えば、カメラのような撮像部を介して所望の顔画像を取得し、第1のゲームを実行できる。そして、ユーザは、第1のゲームで成功することにより、取得した顔画像をセーブデータ記憶域Doに蓄積的に保存し、一覧表示し、第2のゲームに利用できる。ここで、蓄積的にとは、ユーザが新たな顔画像を取得し、さらに、第1のゲームで成功することによって、新たな顔画像が追加されることをいう。   First, in the first game execution stage in the first embodiment, the user can acquire a desired face image via an imaging unit such as a camera and execute the first game. Then, when the user succeeds in the first game, the acquired face images are accumulated in the save data storage area Do, displayed as a list, and can be used for the second game. Here, “accumulating” means that a new face image is added when the user acquires a new face image and succeeds in the first game.

そして、第2のゲームの実行段階では、ユーザは、収集した顔画像の中から所望の顔画像を選択して敵オブジェクトEOを作成することができる。そして、ユーザは、所望の顔画像を用いて作成した敵オブジェクトEOを用いたゲーム、例えば、作成した敵オブジェクトEOを破壊するゲームを実行することができる。ただし、ユーザの操作によらず、ゲーム装置10が自動的に、セーブデータ記憶域Doから、例えば、ランダムに顔画像を選択し、敵オブジェクトEO等を作成してもよい。なお、第1のゲームの実行段階においても、すでにセーブデータ記憶域Doに収集済みの顔画像を用いてキャラクタオブジェクトを作成し、セーブデータ記憶域Doに保存前の顔画像を用いたキャラクタオブジェクトとともに、ゲームに登場させてもよい。なお、以下で、複数の敵オブジェクトEOをそれぞれ区別する場合には、敵オブジェクトEO1、EO2のように呼ぶ。一方、敵オブジェクトEO1、EO2等を総称的に呼ぶ場合、および、複数の敵オブジェクトを区別する必要がない文脈では、敵オブジェクトEOのように呼ぶ。   In the execution stage of the second game, the user can select a desired face image from the collected face images and create an enemy object EO. Then, the user can execute a game using the enemy object EO created using a desired face image, for example, a game for destroying the created enemy object EO. However, the game apparatus 10 may automatically select a face image from the saved data storage area Do, for example, and create an enemy object EO or the like regardless of the user's operation. Even in the execution stage of the first game, a character object is created using the face image already collected in the save data storage area Do, together with the character object using the face image before saving in the save data storage area Do. You may make it appear in the game. In the following, when differentiating a plurality of enemy objects EO, they are called as enemy objects EO1 and EO2. On the other hand, when the enemy objects EO1, EO2, etc. are called generically, and in a context where it is not necessary to distinguish between a plurality of enemy objects, they are called like the enemy object EO.

次に、図7〜図10を参照して、第1の実施形態に係るゲーム装置10の表示例を説明する。図7は、ゲーム装置10の上側LCD22に一覧表示された顔画像の例である。上述のように、ユーザは、第1のゲームで成功することにより、取得した顔画像を保存し、図7のように一覧表示できる。一覧表示される顔画像は、例えば、内側撮像部24、外側左撮像部23a、外側右撮像部23b等によって取得された画像データを人の顔面の3次元モデルにテクスチャマッピングしたものである。例えば、複数のポリゴンを組み合わせて形成した3次元モデルの表面に、画像データがテクスチャとして貼り付けられる。ただし、ゲーム装置10が実行するゲームでは、顔画像は、3次元モデルにテクスチャマッピングされたものに限定される訳ではない。例えば、ゲーム装置10は、単純な2次元画素配列に保持される画像データを顔画像として表示するようにしてもよい。また、図7のように一覧表示された顔画像のうち、いずれか1つ以上が単純な2次元画素配列に保持される顔画像であり、残りが3次元モデルにテクスチャマッピングされた顔画像であってもよい。   Next, display examples of the game apparatus 10 according to the first embodiment will be described with reference to FIGS. FIG. 7 is an example of face images displayed as a list on the upper LCD 22 of the game apparatus 10. As described above, when the user succeeds in the first game, the acquired face images can be saved and displayed as a list as shown in FIG. The face images displayed as a list are obtained by texture mapping image data acquired by the inner imaging unit 24, the outer left imaging unit 23a, the outer right imaging unit 23b, and the like onto a three-dimensional model of a human face. For example, image data is pasted as a texture on the surface of a three-dimensional model formed by combining a plurality of polygons. However, in the game executed by the game apparatus 10, the face image is not limited to a texture image mapped to a three-dimensional model. For example, the game apparatus 10 may display image data held in a simple two-dimensional pixel array as a face image. Also, among the face images displayed as a list as shown in FIG. 7, any one or more face images are held in a simple two-dimensional pixel array, and the rest are face images texture-mapped to a three-dimensional model. There may be.

図7では、顔画像G1は、太線L1で囲まれている。太線L1は、顔画像G1が選択状態にあることを示している。選択状態とは、例えば、ユーザが操作ボタン14等を操作することによって、処理対象として選択された状態にあることをいう。選択状態は、フォーカスされた状態とも呼ばれる。ユーザが、例えば、操作ボタン14を押下するごとに、選択状態の顔画像は、左から右、上から下に移動する。例えば、図7の状態で、ユーザが、十字ボタン14Aを右方向に押下することで、選択状態の顔画像は、顔画像G1から顔画像G2、顔画像G2から顔画像G3のように、右方向に遷移する。選択状態の顔画像が遷移するとは、上側LCD22の画面上では、太線L1で取り囲まれる顔画像が変更されていくことをいう。   In FIG. 7, the face image G1 is surrounded by a thick line L1. A thick line L1 indicates that the face image G1 is in a selected state. The selected state means that the user is in a state selected as a processing target by operating the operation button 14 or the like, for example. The selected state is also called a focused state. Each time the user presses the operation button 14, for example, the selected face image moves from left to right and from top to bottom. For example, in the state shown in FIG. 7, when the user presses the cross button 14A to the right, the face images in the selected state are right like the face image G1 to the face image G2 and the face image G2 to the face image G3. Transition in the direction. The transition of the selected face image means that the face image surrounded by the thick line L1 is changed on the screen of the upper LCD 22.

なお、図7で、顔画像の横の並びを1つの段と呼ぶことにする。この1つの段において右端の顔画像G4が選択状態にあって、さらに、ユーザが、十字ボタン14Aを右方向に押下すると、選択状態の顔画像は、次の下段の左下の顔画像G5となる。逆に、例えば、下段の左下の顔画像G5が選択状態にある場合に、ユーザが、十字ボタン14Aを左方向に押下することで、選択状態の顔画像は、顔画像G5から顔画像G4、顔画像G4から顔画像G3のように、上方向、右方向に遷移する。   In FIG. 7, the horizontal arrangement of the face images is referred to as one stage. When the rightmost face image G4 is in the selected state in this one stage and the user further presses the cross button 14A in the right direction, the face image in the selected state becomes the next lower left face image G5. . Conversely, for example, when the lower left face image G5 in the lower row is in the selected state, the user presses the cross button 14A to the left, so that the selected face image is changed from the face image G5 to the face image G4, As in the face image G3 from the face image G4, a transition is made in the upward direction and the right direction.

ただし、選択状態の変更は、十字ボタン14Aの左右への押下に限定される訳でなく、上下への押下によって、選択状態が変更されるようにしてもよい。また、選択状態の変更は、十字ボタン14Aの押下に限定される訳ではなく、他の操作ボタン14、例えば、操作ボタン14B(Aボタン)を押下することによって、選択対象の画像を変更するようにしてもよい。また、下側LCD12上のタッチパネル13の操作によって、選択状態の顔画像を切り替えるようにしてもよい。例えば、ゲーム装置10は、上側LCD22に表示される顔画像の一覧と同様の顔画像の一覧を下側LCD12に表示しておく。そして、ゲーム装置10は、タッチパネル13への操作を検知することによって、どの顔画像が選択状態になったかを検知するようにしてもよい。そして、ゲーム装置10は、選択状態になった顔画像、例えば、顔画像G1を太線L1で取り囲んで表示するようにすればよい。   However, the change of the selection state is not limited to pressing the cross button 14A to the left and right, and the selection state may be changed by pressing the button up and down. The change of the selection state is not limited to the pressing of the cross button 14A, but the selection target image is changed by pressing another operation button 14, for example, the operation button 14B (A button). It may be. Alternatively, the selected face image may be switched by operating the touch panel 13 on the lower LCD 12. For example, the game apparatus 10 displays a face image list similar to the face image list displayed on the upper LCD 22 on the lower LCD 12. Then, the game apparatus 10 may detect which face image has been selected by detecting an operation on the touch panel 13. Then, the game apparatus 10 may display the face image in the selected state, for example, the face image G1 surrounded by the thick line L1.

以上のように、ユーザは、上側LCD22に表示される、図7で例示される画面により、現在取得済みの顔画像の一覧を閲覧できる。また、ユーザは、現在取得済みの画面一覧から所望の顔画像を選択状態とすることができる。そして、例えば、所定の決定ボタン、例えば、下側LCD12に表示された決定ボタンなどをタッチパネル13あるいは操作ボタン14などで選択することで、選択状態を確定することができる。また、例えば、ユーザがボタン14C(Bボタンともいう)を押下することで、上側LCD22の顔画像の一覧画面が閉じて、図示しないメニュー選択待ちの画面を表示するようにしてもよい。   As described above, the user can view a list of currently acquired face images on the screen illustrated in FIG. 7 displayed on the upper LCD 22. Further, the user can select a desired face image from the currently acquired screen list. For example, the selection state can be determined by selecting a predetermined determination button, for example, a determination button displayed on the lower LCD 12 with the touch panel 13 or the operation button 14. Further, for example, when the user presses the button 14C (also referred to as the B button), the face image list screen of the upper LCD 22 may be closed and a menu selection waiting screen (not shown) may be displayed.

図8は、一覧表示された顔画像の他の例である。図8の例では、顔画像G2が選択状態にあり、太線L2で囲まれている。図8の例では、顔画像G2が選択状態になると、顔画像G2と関連がある顔画像が反応している。例えば、顔画像G0の近傍にハートマークが表示され、かつ、顔画像G0が片目を閉じて、選択状態にある顔画像G2に向かって視線を送っている。また、例えば、顔画像G3、顔画像G7なども、選択状態にある顔画像G2に顔を向けて、視線を送っている。   FIG. 8 shows another example of face images displayed as a list. In the example of FIG. 8, the face image G2 is in a selected state and is surrounded by a thick line L2. In the example of FIG. 8, when the face image G2 is selected, the face image related to the face image G2 reacts. For example, a heart mark is displayed in the vicinity of the face image G0, and the face image G0 closes one eye and sends a line of sight toward the face image G2 in the selected state. In addition, for example, the face image G3, the face image G7, and the like also send their lines of sight toward the face image G2 in the selected state.

ただし、選択状態にされた顔画像と関連性のある顔画像の反応は、顔を向ける、近傍にハートマークが表示され、片目を閉じて視線を送る、顔を向けて視線を送る、等の動作だけに限定される訳ではない。例えば、関連のある顔画像が、笑う、声を発する等の反応を示してもよい。逆に、選択状態にされた顔画像と関連のない顔画像が、笑っている表情から、笑わない表情に変わるようにしてもよい。また、選択状態にされた顔画像と関連のない顔画像が、選択状態にされた顔画像の方向と逆の方向を向くようにしてもよい。   However, the reaction of the face image related to the selected face image is directed toward the face, a heart mark is displayed in the vicinity, the eye is closed with one eye, the eye is directed toward the face, etc. It is not limited only to operation. For example, a related face image may show a reaction such as laughing or making a voice. Conversely, a facial image that is not related to the selected facial image may be changed from a smiling expression to a non-laughing expression. In addition, a face image not related to the selected face image may be directed in a direction opposite to the direction of the selected face image.

ここで、関連のある顔画像は、例えば、顔画像取得の段階で定義しておくようにしてもよい。例えば、顔画像を分類するためのグループを事前に設定しておき、顔画像が取得されるときに、取得される顔画像がどのグループに属するかをユーザが入力するようにしてもよい。また、例えば、ゲームの進行に応じて、顔画像のグループを定義し、顔画像を分類するようにしてもよい。例えば、顔画像G0を用いて、ゲームを進行中に、新たに顔画像G1が取得されたような場合に、顔画像G0と顔画像G1とを同一のグループに属する関連のある顔画像同士であると決定してもよい。   Here, the related face image may be defined, for example, at the face image acquisition stage. For example, a group for classifying face images may be set in advance, and when a face image is acquired, the user may input which group the acquired face image belongs to. Further, for example, a group of face images may be defined according to the progress of the game, and the face images may be classified. For example, when a face image G1 is newly acquired during the game using the face image G0, the face image G0 and the face image G1 are related face images belonging to the same group. You may decide that there is.

図8のように、1つの顔画像、例えば、顔画像G2が操作ボタン14等によって選択状態にされたときに、他の顔画像G0、G3、G7などが反応すると、取得された顔画像間の親近感などを表現できるようになる。すなわち、単に収集した顔画像をグループに分けて分類するというのではなく、顔画像の表情、反応によって、複数の顔画像間での親近性を表現でき、実世界の人と人との関連性、親密度等を仮想のゲーム装置10の世界で表現できる。   As shown in FIG. 8, when one face image, for example, the face image G2 is selected by the operation button 14 or the like, if other face images G0, G3, G7, etc. react, the interval between the acquired face images You will be able to express a sense of familiarity. In other words, instead of simply classifying the collected face images into groups, the closeness between multiple face images can be expressed by facial expressions and reactions, and the relationship between people in the real world Intimacy can be expressed in the virtual game device 10 world.

図9および図10は、顔画像をゲームキャラクタの1つである、敵オブジェクトEOにはめ込む処理の画面例である。図9は、敵オブジェクトEOの頭部選択画面の例である。例えば、ゲーム装置10の下側LCD12に表示されるメニューから、タッチパネル13への操作で、ユーザが「ボスを選ぶ」というメニューのリストを選択すると、図9のような、ゲーム装置10に用意されている敵オブジェクトEOの頭部形状の一覧が表示される。ただし、このような操作は、タッチパネル13による操作に限定される訳ではなく、例えば、操作ボタン14等による操作で、図9のような頭部形状の一覧が表示されるようにしてもよい。   FIG. 9 and FIG. 10 are screen examples of processing for fitting a face image into the enemy object EO, which is one of the game characters. FIG. 9 is an example of the head selection screen of the enemy object EO. For example, when the user selects a menu list “select boss” by operating the touch panel 13 from the menu displayed on the lower LCD 12 of the game apparatus 10, the game apparatus 10 is prepared as shown in FIG. 9. A list of head shapes of the enemy object EO is displayed. However, such an operation is not limited to the operation using the touch panel 13. For example, a list of head shapes as shown in FIG. 9 may be displayed by the operation using the operation buttons 14 or the like.

図9では、頭部形状H1、H2、H3の3種類が選択可能に表示されている。例えば、頭部形状H1は、3次元モデルで形成された顔面部分H12と、顔面部分H12を取り囲む周辺部分H13とを含む。図7、図8で示したように、3次元モデルである顔面部分H12に、顔画像をテクスチャマッピングすることで、ゲームに登場する敵オブジェクトEOが形成される。   In FIG. 9, three types of head shapes H1, H2, and H3 are displayed so as to be selectable. For example, the head shape H1 includes a face part H12 formed by a three-dimensional model and a peripheral part H13 surrounding the face part H12. As shown in FIGS. 7 and 8, the enemy object EO appearing in the game is formed by texture mapping the face image on the face portion H12 which is a three-dimensional model.

周辺部分H13は、ゲームに登場する敵オブジェクトEOの特徴を暗示した形状とすればよい。例えば、周辺部分H13が、兜(カブト)を模倣した形状であれば、敵オブジェクトEOの好戦的なイメージを表現できる。図9では、2行4列の頭部形状の一覧表に、3種類の頭部形状H1、H2、H3が例示されており、それら以外は、未定義のマークH0が表示されている。したがって、頭部形状H1−H3は、あくまでも例示であり、頭部形状の種類が3種類に限定される訳ではない。例えば、ゲームプログラムのバージョンアップ媒体、あるいは、インターネット上でゲームのパーツを提供するウェブサイトなどから、新たな頭部形状を追加できるようにしておいてもよい。   The peripheral portion H13 may have a shape that implies the characteristics of the enemy object EO appearing in the game. For example, if the peripheral portion H13 has a shape imitating a beetle, a war-like image of the enemy object EO can be expressed. In FIG. 9, three types of head shapes H1, H2, and H3 are illustrated in a list of head shapes in 2 rows and 4 columns, and an undefined mark H0 is displayed in other cases. Accordingly, the head shapes H1-H3 are merely examples, and the types of head shapes are not limited to three. For example, a new head shape may be added from a game program upgrade medium or a website that provides game parts on the Internet.

図9では、「ボス」というラベルLBにより、頭部形状H1がユーザによって、選択状態になっていることが示されている。ラベルLBは、例えば十字ボタン14A等によって、移動可能である。ユーザが十字ボタン14A等の操作によって、ラベルLBを移動することで、例えば、頭部形状H2、あるいはH3を選択状態とすることができる。そして、いずれかの頭部形状を選択状態とした後、ユーザが、操作ボタン14B(Aボタン)などを押下することで、選択状態を決定するようにすればよい。選択状態を決定することで、ラベルLBが配置され、選択状態となっている頭部形状、例えば、図9の例では、頭部形状H1の選択が確定する。なお、図9の画面が上側LCD22に表示されているときに、ユーザが操作ボタン14C(Bボタン)を押下することで、敵オブジェクトEOの頭部選択画面が閉じられ、前の操作画面に戻るようにすればよい。   In FIG. 9, the label LB “boss” indicates that the head shape H1 is selected by the user. The label LB can be moved by, for example, the cross button 14A. When the user moves the label LB by operating the cross button 14A or the like, for example, the head shape H2 or H3 can be selected. Then, after selecting any one of the head shapes, the selection state may be determined by the user pressing the operation button 14B (A button) or the like. By determining the selection state, the label LB is arranged, and the selection of the head shape in the selection state, for example, the head shape H1 in the example of FIG. 9, is confirmed. When the screen of FIG. 9 is displayed on the upper LCD 22, when the user presses the operation button 14C (B button), the head selection screen of the enemy object EO is closed and the previous operation screen is returned. What should I do?

図10は、顔画像選択画面を例示する図である。例えば、図9の敵オブジェクトEOの頭部選択画面が上側LCD22に表示されているときに、ユーザが操作ボタン14B(Aボタン)などを押下することで、頭部形状の選択状態を決定すると、図10の画面が表示される。図10の画面は、図7および図8と同様であるが、選択状態となった顔画像に図9で選択された頭部形状の周辺部分H13が付加される点で、図7および図8と相違する。   FIG. 10 is a diagram illustrating a face image selection screen. For example, when the head selection screen of the enemy object EO of FIG. 9 is displayed on the upper LCD 22 and the user determines the selection state of the head shape by pressing the operation button 14B (A button) or the like, The screen of FIG. 10 is displayed. The screen of FIG. 10 is the same as that of FIGS. 7 and 8, except that the peripheral portion H13 of the head shape selected in FIG. 9 is added to the face image in the selected state. Is different.

図10の画面において、ユーザが、十字ボタン14A等を操作することによって、選択対象の顔画像を変更することができる。すなわち、ユーザは、選択状態の顔画像を顔画像G0からG1へ、さらに、顔画像G1からG2へというように、移動可能である。そして、選択状態とされた顔画像は、頭部形状の顔面部分にテクスチャマッピングされて表示される。例えば、図10の例では、図9の画面で選択された頭部形状H1の顔面部分H12に、顔画像G2がテクスチャマッピングされ、周辺部分H13と組み合わせて表示される。   In the screen of FIG. 10, the user can change the face image to be selected by operating the cross button 14A or the like. That is, the user can move the selected face image from the face image G0 to G1, and further from the face image G1 to G2. The selected face image is texture-mapped and displayed on the head-shaped face portion. For example, in the example of FIG. 10, the face image G2 is texture-mapped on the face portion H12 of the head shape H1 selected on the screen of FIG. 9, and is displayed in combination with the peripheral portion H13.

このような周辺部分H13と顔画像G2との組み合わせが表示されることによって、敵オブジェクトEOが一時的に作成される。ユーザは、一時的に表示される敵オブジェクトEOによって、ゲームで対決する敵のイメージを想像することになる。ユーザは、十字ボタン14A等を操作することによって、選択対象の顔画像を変更することで、敵オブジェクトEOの顔画像を取り替えることができる。すなわち、ユーザは、敵オブジェクトEOの顔を次々に取り替えて、ゲームで戦うイメージに合致する敵オブジェクトEOを作成できる。   By displaying such a combination of the peripheral portion H13 and the face image G2, the enemy object EO is temporarily created. The user imagines an image of an enemy confronting in the game by the enemy object EO temporarily displayed. The user can replace the face image of the enemy object EO by changing the face image to be selected by operating the cross button 14A or the like. That is, the user can create an enemy object EO that matches the image of fighting in the game by successively changing the faces of the enemy objects EO.

すなわち、ゲーム装置10では、例えば、上記のように第1のゲームで成功することにより収集され、セーブデータ記憶域Doに蓄積された顔画像が次の第2のゲームに使用される。すなわち、ゲーム装置10では、収集した顔画像を用いて作成した敵オブジェクトEOを用いたゲーム処理が実行される。例えば、ゲーム装置10は、ユーザの操作にしたがって、ゲームの実行前に配役決定処理を呼ばれる処理を実行し、ユーザのイメージに合致する敵オブジェクトEOを生成する。あるいは、ゲーム装置10は、ゲームの実行前に自動的に、敵オブジェクトEOを生成する。「自動的に」とは、例えば、ゲーム装置10が収集された顔画像から顔画像を必要数、すなわち、ゲームに登場する敵オブジェクトEOの数だけ、ランダムに選択して、敵オブジェクトEOを生成することができることをいう。また、例えば、ゲーム装置10は、ユーザが過去に実行したゲーム処理の履歴から、ユーザの特性、指向などから、次にユーザが望むと推定される顔画像を選択して、敵オブジェクトEOを作成してもよい。ゲーム装置10は、顔画像とともに、顔画像の被写体の属性、例えば、年齢、性別、交友関係(家族、友人、職場・学校・地域などでの交流関係)、被写体がペット等の生物である場合の被写体の所有関係などを基に、現時点までのユーザによるゲームの実行履歴から、次に用いる顔画像を選択してもよい。また、例えば、ゲーム装置10は、過去に実行したゲームにおけるユーザの成績から、次に用いる顔画像を選択してもよい。   That is, in the game apparatus 10, for example, the face images collected by succeeding in the first game as described above and accumulated in the save data storage area Do are used for the next second game. That is, in the game apparatus 10, game processing using the enemy object EO created using the collected face images is executed. For example, the game apparatus 10 executes a process called a casting determination process before the game is executed according to the user's operation, and generates an enemy object EO that matches the user's image. Alternatively, the game apparatus 10 automatically generates an enemy object EO before the game is executed. “Automatically” means that, for example, the game apparatus 10 randomly selects the required number of face images from the collected face images, that is, the number of enemy objects EO appearing in the game, and generates enemy objects EO. Say what you can do. Further, for example, the game apparatus 10 creates an enemy object EO by selecting a face image estimated to be next desired by the user based on the user's characteristics, orientation, etc., from the history of game processing executed by the user in the past. May be. The game apparatus 10 has attributes of the subject of the face image, for example, age, sex, friendship relationship (family, friend, exchange relationship at work / school / region, etc.), and subject is a creature such as a pet. The face image to be used next may be selected from the game execution history by the user up to the present time based on the ownership relationship of the subject. Further, for example, the game apparatus 10 may select a face image to be used next from a user's score in a game executed in the past.

ゲーム装置10は、このようなユーザの操作による指定、あるいは、ゲーム装置10の処理によって、作成された敵オブジェクトEOを用いたゲーム処理(第2のゲーム)を実行する。なお、ここでは、一例として、敵オブジェクトEOという呼び名で説明するが、ゲームに登場するキャラクタオブジェクトとしては、敵対関係にあるオブジェクトに限定されず、味方のキャラクタオブジェクトでもよい。また、敵味方という関係が存在するゲームに限定されず、ユーザ自身を模擬したプレイヤオブジェクトが登場するゲームでもよい。また、例えば、ゲームを実行するユーザを支援する、エージェントと呼ばれるオブジェクトが登場するゲームであってもよい。   The game apparatus 10 executes a game process (second game) using the created enemy object EO by the designation by the user's operation or the process of the game apparatus 10. Here, as an example, the description will be made with the name of the enemy object EO. However, the character object appearing in the game is not limited to an object having a hostile relationship, and may be a friendly character object. Further, the game is not limited to a game in which there is a relationship of an enemy ally, and may be a game in which a player object simulating the user himself / herself appears. Further, for example, a game in which an object called an agent that supports a user who executes the game appears.

ゲーム装置10は、以上のような敵オブジェクトEO等、様々なキャラクタオブジェクトが登場するゲームを実行する。このゲームに登場するキャラクタオブジェクトには、ユーザが第1のゲームで成功することにより収集した顔画像が、テクスチャマッピング等の手法により貼り付けられている。したがって、ゲーム装置10で実行されるゲームでは、ユーザ自身が収集した顔画像を含むキャラクタオブジェクトが登場する。このため、様々なキャラクタオブジェクトに、顔画像のような、人、あるいは、生物の特徴を象徴する部分の画像を用いることにより、ユーザは、その顔画像の人、あるいはその顔画像の生物との実世界の関係を反映したゲームを実行できる。例えば、愛情、好意、好感、逆に憎悪などの感情を込めたゲームを実行できるのである。   The game apparatus 10 executes a game in which various character objects appear, such as the enemy object EO as described above. A face image collected when the user succeeds in the first game is pasted to the character object appearing in this game by a technique such as texture mapping. Therefore, in a game executed on the game apparatus 10, a character object including a face image collected by the user himself appears. For this reason, by using an image of a part symbolizing the characteristics of a person or a living thing such as a face image for various character objects, the user can interact with the person of the face image or the living thing of the face image. You can run games that reflect real-world relationships. For example, it is possible to execute a game with feelings such as love, favor, good feeling, and hatred.

なお、図10の顔画像選択画面でも、図8と同様に、1つの顔画像が選択対象なったときに、選択対象とされている顔画像に関連する他の顔画像が反応を示すようにすればよい。例えば、図10の例では、選択対象とされ、頭部形状H1の周辺部分13と組み合わせられた顔画像G2に対して、関連する顔画像、例えば、顔画像G4が顔を向けて微笑み、視線を送っている。また、顔画像G5が、顔画像G2に対して、顔を上向きに上げて、うらやむような視線を送っている。また、顔画像G8およびG9も顔画像G2の方向に視線を向けている。一方、図10では、顔画像G4、G5、G8、G9以外は、顔画像G2が選択対象とされたことに対して、反応を見せていない。このような反応の相違によって、複数の顔画像同士の親近関係を表現できる。このように、ゲーム装置10は、顔画像がユーザと特定の関係ある場合、例えば、複数の友人グループに属するような場合など、実世界の人と人との親密さの関係をゲーム装置10が表現する仮想の世界に持ち込み、描写することを可能としている。   In the face image selection screen of FIG. 10, as in FIG. 8, when one face image is selected, other face images related to the face image that is the selection target show a reaction. do it. For example, in the example of FIG. 10, the face image G2 that is a selection target and combined with the peripheral portion 13 of the head shape H1 is related to the face image, for example, the face image G4 with a smile and eyes. Is sending. In addition, the face image G5 raises the face upward and sends an enviable line of sight to the face image G2. Further, the face images G8 and G9 are also directed toward the face image G2. On the other hand, in FIG. 10, there is no response to the face image G2 being selected except for the face images G4, G5, G8, and G9. By such a difference in reaction, it is possible to express a close relationship between a plurality of face images. As described above, the game apparatus 10 indicates the relationship between the person in the real world and the person when the face image has a specific relationship with the user, for example, when the face image belongs to a plurality of friend groups. It is possible to bring it into the virtual world to express and describe it.

<各種データの一例>
図11は、画像処理プログラムを実行することに応じて、メインメモリ32に記憶される各種データの一例を示す図である。
<Examples of various data>
FIG. 11 is a diagram illustrating an example of various data stored in the main memory 32 in response to executing the image processing program.

なお、ゲーム装置10の処理を実行するためのプログラムは、ゲーム装置10に内蔵されるメモリ(例えば、データ保存用内部メモリ35)、外部メモリ45、または、データ保存用外部メモリ46に含まれており、ゲーム装置10の電源がオンになったときに、内蔵メモリから、または外部メモリI/F33やデータ保存用外部メモリI/F34を介して外部メモリ45またはデータ保存用外部メモリ46からメインメモリ32に読み出されて、CPU311によって実行される。   Note that a program for executing processing of the game apparatus 10 is included in a memory (for example, the data storage internal memory 35), the external memory 45, or the data storage external memory 46 built in the game apparatus 10. When the power of the game apparatus 10 is turned on, the main memory is stored from the internal memory or from the external memory 45 or the data storage external memory 46 via the external memory I / F 33 or the data storage external memory I / F 34. 32 is read and executed by the CPU 311.

図11において、メインメモリ32には、内蔵メモリ、外部メモリ45、またはデータ保存用外部メモリ46から読み出されたプログラムや画像処理において生成される一時的なデータが記憶される。図11において、メインメモリ32のデータ記憶領域には、操作データDa、実カメラ画像データDb、実世界画像データDc、境界面データDd、奥壁画像データDe、敵オブジェクトデータDf、弾オブジェクトデータDg、得点データDh、動きデータDi、仮想カメラデータDj、レンダリング画像データDk、および表示画像データDl、照準カーソル画像データDm、管理データDn、セーブデータ記憶域Do等が格納される。また、メインメモリ32のプログラム記憶領域には、画像処理プログラムを構成する各種プログラム群Paが記憶される。   In FIG. 11, the main memory 32 stores a program read from the internal memory, the external memory 45, or the data storage external memory 46 and temporary data generated in the image processing. In FIG. 11, the data storage area of the main memory 32 includes operation data Da, real camera image data Db, real world image data Dc, boundary surface data Dd, back wall image data De, enemy object data Df, bullet object data Dg. The score data Dh, motion data Di, virtual camera data Dj, rendering image data Dk, display image data Dl, aiming cursor image data Dm, management data Dn, save data storage area Do, and the like are stored. The program storage area of the main memory 32 stores various program groups Pa constituting the image processing program.

《操作データDa》
操作データDaは、ユーザがゲーム装置10を操作した操作情報を示すデータである。操作データDaは、操作子データDa1および角速度データDa2を含んでいる。操作子データDa1は、ユーザがゲーム装置10の操作ボタン14やアナログスティック15等の操作子を操作したことを示すデータである。角速度データDa2は、角速度センサ40によって検出された角速度を示すデータである。例えば、角速度データDa2には、角速度センサ40が検出したx軸周りの角速度を示すx軸周り角速度データ、y軸周りの角速度を示すy軸周り角速度データ、およびz軸周りの角速度を示すz軸周り角速度データが含まれる。例えば、操作ボタン14やアナログスティック15からの操作データや角速度センサ40からの角速度データは、ゲーム装置10が処理する時間単位(例えば、1/60秒)毎に取得され、当該取得に応じて操作子データDa1および角速度データDa2に格納されて更新される。
<< Operation data Da >>
The operation data Da is data indicating operation information on the operation of the game apparatus 10 by the user. The operation data Da includes operation element data Da1 and angular velocity data Da2. The operation element data Da1 is data indicating that the user has operated an operation element such as the operation button 14 or the analog stick 15 of the game apparatus 10. The angular velocity data Da2 is data indicating the angular velocity detected by the angular velocity sensor 40. For example, the angular velocity data Da2 includes the x-axis angular velocity data indicating the angular velocity around the x-axis detected by the angular velocity sensor 40, the y-axis angular velocity data indicating the angular velocity around the y-axis, and the z-axis indicating the angular velocity around the z-axis. Angular angular velocity data is included. For example, the operation data from the operation button 14 and the analog stick 15 and the angular velocity data from the angular velocity sensor 40 are acquired every time unit (for example, 1/60 second) processed by the game apparatus 10, and the operation is performed according to the acquisition. It is stored and updated in the child data Da1 and the angular velocity data Da2.

なお、後述するゲーム処理(例えば、図20A以下の処理等)では、操作子データDa1および角速度データDa2が処理周期である1フレーム毎にそれぞれ更新される例を用いて説明するが、他の処理周期で更新されてもかまわない。例えば、操作ボタン14やアナログスティック15等の操作子をユーザが操作したことを検出する周期毎に操作子データDa1を更新し、当該更新された操作子データDa1を処理周期毎に利用する態様でもかまわない。また、角速度センサ40の角速度検出周期毎に角速度データDa2を更新し、当該更新された角速度データDa2を処理周期毎に利用する態様でもかまわない。この場合、操作子データDa1や角速度データDa2を更新するそれぞれの周期と、処理周期とが異なることになる。   In the game processing described later (for example, the processing in FIG. 20A and the following), the operation data Da1 and the angular velocity data Da2 will be described using an example in which each frame is updated. It does not matter if it is updated periodically. For example, in a mode in which the operator data Da1 is updated for each cycle in which it is detected that the user has operated an operator such as the operation button 14 or the analog stick 15, and the updated operator data Da1 is used for each processing cycle. It doesn't matter. Further, the angular velocity data Da2 may be updated every angular velocity detection cycle of the angular velocity sensor 40, and the updated angular velocity data Da2 may be used every processing cycle. In this case, each cycle for updating the operator data Da1 and the angular velocity data Da2 is different from the processing cycle.

《実カメラ画像データDb》
実カメラ画像データDbは、外側撮像部23および内側撮像部24のいずれかが撮像した実カメラ画像を示すデータである。後述する処理の説明においては、実カメラ画像を取得するステップにおいて外側撮像部23および内側撮像部24のいずれかが撮像した実カメラ画像を用いて、実カメラ画像データDbを更新する態様を用いる。なお、外側撮像部23または内側撮像部24が撮像し、撮像された実カメラ画像を用いて実カメラ画像データDbを更新する周期は、ゲーム装置10における処理の単位時間(例えば、1/60秒)と同じでもいいし、当該単位時間より短い時間でもかまわない。ゲーム装置10における処理の周期より実カメラ画像データDbを更新する周期が短い場合、後述する処理とは独立して適宜実カメラ画像データDbを更新してもかまわない。この場合、後述する実カメラ画像を取得するステップにおいて、実カメラ画像データDbが示す最新の実カメラ画像を常に用いて処理すればよい。以下、本実施形態では、実カメラ画像データDbは、外側撮像部23(例えば、外側左撮像部23a)により撮像した実カメラ画像を示すデータであるとする。
<< Real camera image data Db >>
The actual camera image data Db is data indicating an actual camera image captured by either the outer imaging unit 23 or the inner imaging unit 24. In the description of processing to be described later, a mode is used in which the actual camera image data Db is updated using the actual camera image captured by either the outer imaging unit 23 or the inner imaging unit 24 in the step of acquiring the actual camera image. Note that the cycle in which the outer imaging unit 23 or the inner imaging unit 24 captures and updates the actual camera image data Db using the captured actual camera image is a unit time of processing in the game apparatus 10 (for example, 1/60 seconds). ) Or shorter than the unit time. If the cycle of updating the actual camera image data Db is shorter than the cycle of processing in the game apparatus 10, the actual camera image data Db may be updated as appropriate independently of the processing described later. In this case, in the step of acquiring an actual camera image to be described later, the latest actual camera image indicated by the actual camera image data Db may be always used for processing. Hereinafter, in the present embodiment, it is assumed that the actual camera image data Db is data indicating an actual camera image captured by the outer imaging unit 23 (for example, the outer left imaging unit 23a).

《実世界画像データDc》
後述するゲーム処理、例えば、図14のステップ18のゲーム実行の処理、さらに具体的には、図20A以降に示す処理では、ゲーム装置10の実カメラ(外側撮像部23または内側撮像部24)が撮像した実カメラ画像をテクスチャマッピングする境界面3が導入される。実世界画像データDcは、ゲーム装置10の実カメラ(外側撮像部23または内側撮像部24)が撮像した実カメラ画像を用いて、境界面3上に存在しているように見える実世界画像を生成するためのデータである。後述する第1の描画方法では、例えば、実世界画像データDcは、実世界画像を境界面(仮想カメラの表示範囲のスクリーンオブジェクト)に貼り付けるための実カメラ画像のテクスチャデータを含んでいる。また、後述する第2の描画方法では、例えば、実世界画像データDcは、実世界画像を生成するための平面ポリゴンのデータ、当該平面ポリゴンにマッピングするための実カメラ画像のテクスチャデータ、および当該平面ポリゴンの仮想空間上の位置(後述する実世界描画用カメラからの位置)を示すデータ等を含んでいる。
<< Real World Image Data Dc >>
In the game process described later, for example, the game execution process in step 18 of FIG. 14, more specifically, in the processes shown in FIG. A boundary surface 3 for texture mapping of the captured real camera image is introduced. The real world image data Dc is a real world image that appears to be present on the boundary surface 3 using a real camera image captured by a real camera (the outer imaging unit 23 or the inner imaging unit 24) of the game apparatus 10. Data to generate. In a first rendering method described later, for example, the real world image data Dc includes texture data of a real camera image for pasting the real world image on a boundary surface (screen object in the display range of the virtual camera). In the second rendering method described later, for example, the real world image data Dc includes plane polygon data for generating a real world image, texture data of a real camera image for mapping to the plane polygon, and It includes data indicating the position of the planar polygon in the virtual space (position from a real-world drawing camera described later).

《境界面データDd》
境界面データDdは、上記実世界画像データDcと合わせて、境界面3上に存在しているように見える実世界画像を生成するためのデータである。第1の描画方法では、例えば、境界面データDdは、スクリーンオブジェクトに関するデータであり、境界面3を構成する各点の状態(例えば、開口の有無)を示す開口判定用データ(後述するαテクスチャのデータに相当する)、境界面3の仮想空間上の配置位置(境界面3の仮想空間上の座標)を示すデータ等を含んでいる。また、第2の描画方法では、例えば、境界面データDdは、上記実世界画像の平面ポリゴンに開口を表現するためのデータであり、境界面3を構成する各点の状態(例えば、開口の有無)を示す開口判定用データ(後述するαテクスチャのデータに相当する)、境界面3の仮想空間上の配置位置(境界面3の仮想空間上の座標)を示すデータ等を含んでいる。境界面3の仮想空間上の配置位置を示すデータは、例えば、上記球体表面の条件式(仮想空間上における球体表面を定義する関係式)であり、境界面3の仮想空間上の存在範囲を示す。
<< Boundary surface data Dd >>
The boundary surface data Dd is data for generating a real world image that appears to be present on the boundary surface 3 together with the real world image data Dc. In the first drawing method, for example, the boundary surface data Dd is data related to the screen object, and data for opening determination (alpha texture described later) indicating the state of each point (for example, presence or absence of an opening) constituting the boundary surface 3. Data indicating the arrangement position of the boundary surface 3 in the virtual space (coordinates of the boundary surface 3 in the virtual space) and the like. In the second drawing method, for example, the boundary surface data Dd is data for expressing an opening in the planar polygon of the real world image, and the state of each point constituting the boundary surface 3 (for example, the opening surface) Data for opening determination (corresponding to α texture data to be described later) indicating the presence / absence), data indicating an arrangement position of the boundary surface 3 in the virtual space (coordinates of the boundary surface 3 in the virtual space), and the like. The data indicating the arrangement position of the boundary surface 3 in the virtual space is, for example, a conditional expression of the sphere surface (a relational expression defining the sphere surface in the virtual space), and the existence range of the boundary surface 3 in the virtual space is Show.

開口状態を示す開口判定用データは、例えば、各点のアルファ値(不透明度)を設定可能な2次元(例えば、2048ピクセル×384ピクセル等の矩形形状)のテクスチャデータである。アルファ値は、“0”が最小で“1”が最大の、“0”から“1”までの値である。アルファ値は、“0”で透明を示し、“1”で不透明を示す。開口判定用データは、開口判定用データに「0」が格納されている位置は開口状態であり、「1」が格納されている位置は開口ではない状態であることを示すことができる。アルファ値は、例えば、ゲーム装置10内部で生成されるゲーム世界の画像、あるいは上側LCD22における画素または複数の画素からなる画素ブロック単位に設定することができる。本実施形態では、非開口領域には、「0を超える1未満の所定値(本実施形態においては0.2が設定される)」が格納される。このデータは、実世界画像に適用するときには使用されない。実世界画像に適用する場合、開口判定用データに格納されたアルファ値「0.2」は「1」として取り扱われる。なお、当該アルファ値「0.2」は、前述の敵オブジェクトEOの影ESの描画時に使用される。ただし、当該アルファ値の設定、およびアルファ値の取り得る値の範囲は、本発明の画像処理プログラムを限定するものではない。   The opening determination data indicating the opening state is, for example, two-dimensional texture data (for example, a rectangular shape such as 2048 pixels × 384 pixels) in which an alpha value (opacity) of each point can be set. The alpha value is a value from “0” to “1” where “0” is the smallest and “1” is the largest. The alpha value is “0” indicating transparency and “1” indicating opaqueness. The opening determination data can indicate that a position where “0” is stored in the opening determination data is an open state, and a position where “1” is stored is a non-open state. The alpha value can be set, for example, in an image of the game world generated in the game apparatus 10 or in a pixel block unit composed of a pixel or a plurality of pixels in the upper LCD 22. In this embodiment, the non-opening area stores “a predetermined value exceeding 0 and less than 1 (0.2 is set in this embodiment)”. This data is not used when applied to real world images. When applied to a real world image, the alpha value “0.2” stored in the aperture determination data is treated as “1”. The alpha value “0.2” is used when the shadow ES of the enemy object EO is drawn. However, the setting of the alpha value and the range of values that the alpha value can take do not limit the image processing program of the present invention.

本実施形態における画像処理プログラムは、第1の描画方法では、この開口判定用データのうち仮想カメラの視空間の範囲に対応する領域と、境界面3に貼り付けられる実世界画像のテクスチャの色情報(画素値)とを掛け算することによって、開口を有する実世界画像を生成することができる。また、第2の描画方法では、この開口判定用データのうち仮想世界描画用カメラの視空間の範囲に対応する領域と、実世界画像(具体的には、上記実世界画像データDcを用いて後述する平行投影によりレンダリングされた実カメラ画像のレンダリング画像データ)の色情報(画素値)とを掛け算することによって、開口を有する実世界画像を生成することができる。なぜなら、開口位置に格納されたアルファ値「0」と当該位置における実世界画像の色情報とが掛け算されることによって、実世界画像の色情報の値が「0」(完全に透明な状態)となるからである。   In the first drawing method, the image processing program according to the present embodiment uses a region corresponding to the range of the virtual camera viewing space in the aperture determination data and the texture color of the real world image pasted on the boundary surface 3. By multiplying the information (pixel value), a real world image having an opening can be generated. In the second drawing method, an area corresponding to the range of the viewing space of the virtual world drawing camera and the real world image (specifically, the real world image data Dc) are used. A real world image having an opening can be generated by multiplying color information (pixel value) of rendering image data of a real camera image rendered by parallel projection described later. Because the alpha value “0” stored at the opening position is multiplied by the color information of the real world image at the position, the color information value of the real world image is “0” (completely transparent state). Because it becomes.

なお、第1の描画方法では、後述するとおり、当該開口判定用データが適用された実世界画像のオブジェクトを含んだ各仮想オブジェクトの仮想空間画像がレンダリングされることにより上側LCD22に表示される画像が生成される。   In the first drawing method, as described later, an image displayed on the upper LCD 22 by rendering a virtual space image of each virtual object including an object of a real world image to which the aperture determination data is applied. Is generated.

また、第2の描画方法では、具体的には、後述するとおり、当該開口判定用データを考慮して仮想空間画像がレンダリングされる。すなわち、開口判定用データに基づいて、各仮想オブジェクトの境界面に対する優先度(実世界画像に対する優先度)が判定され、各仮想オブジェクトがレンダリングされることにより仮想空間画像として生成される。そして、このようにして生成された実世界画像と仮想空間画像とを合成することで、上側LCD22に表示される画像が生成される。   In the second drawing method, specifically, as described later, the virtual space image is rendered in consideration of the opening determination data. That is, based on the opening determination data, the priority of each virtual object with respect to the boundary surface (the priority with respect to the real world image) is determined, and each virtual object is rendered to generate a virtual space image. Then, the image displayed on the upper LCD 22 is generated by synthesizing the real world image and the virtual space image generated in this way.

また、本実施形態における画像処理プログラムでは、境界面3の形状は球体表面である(図20Aおよび図20B参照)。そして、本実施形態における開口判定用データの形状は、矩形形状としてよい。この矩形形状の開口判定用データを、図20Aおよび図20Bで図示したような球体表面の中央部にマッピングすることにより、開口判定用データの各点と境界面の各点とを対応させることができる。   In the image processing program according to the present embodiment, the shape of the boundary surface 3 is a spherical surface (see FIGS. 20A and 20B). The shape of the opening determination data in this embodiment may be a rectangular shape. By mapping this rectangular opening determination data to the center of the sphere surface as shown in FIGS. 20A and 20B, each point of the opening determination data can be associated with each point on the boundary surface. it can.

なお、本実施形態において開口判定用データは図20Aで示す球体表面の中央部に対応するデータのみであるため、仮想カメラ(第2の描画方法では、仮想世界描画用カメラ)の向きによっては、開口判定用データが存在しない場合がある。このように開口判定用データが存在しない場合は、実世界画像はそのまま描画される。すなわち、α値としては「1」が設定されているとして描画される。   In the present embodiment, since the opening determination data is only data corresponding to the central portion of the sphere surface shown in FIG. 20A, depending on the orientation of the virtual camera (virtual world drawing camera in the second drawing method), There may be no data for opening determination. When there is no aperture determination data in this way, the real world image is drawn as it is. That is, rendering is performed assuming that “1” is set as the α value.

境界面3上に作成される開口の画像処理については後述する。   Image processing of the opening created on the boundary surface 3 will be described later.

《奥壁画像データDe》
奥壁画像データDeは、第2空間2に存在する奥壁BWに関するデータである。例えば、奥壁画像データDeは、奥壁BWの画像を生成するための画像データ、および当該奥壁BWを定義するポリゴンモデルの仮想空間上の位置を示すデータ等を含んでいる。
<< Back wall image data De >>
The back wall image data De is data related to the back wall BW existing in the second space 2. For example, the back wall image data De includes image data for generating an image of the back wall BW, data indicating the position of the polygon model that defines the back wall BW in the virtual space, and the like.

奥壁BWを定義するポリゴンモデルは、典型的には、仮想カメラ(第2の描画方法では、仮想世界描画用カメラ)の位置から伸びる鉛直軸を中心として、図20Aで示す球体の半径より大きな半径を有し、図20Aで示す球体の中央部と同じ形状のモデルである。すなわち、奥壁BWを定義するモデルは、境界面3を内含する。また、境界面3に形成される開口予定位置の背後に配置される平面ポリゴンであってもよい。また、境界面3に開口が形成される毎に、第2空間2においてその開口の投影面を定義する平面ポリゴンが配置されるようにしてもよい。   The polygon model that defines the back wall BW is typically larger than the radius of the sphere shown in FIG. 20A around the vertical axis extending from the position of the virtual camera (the virtual world drawing camera in the second drawing method). It is a model having a radius and the same shape as the central part of the sphere shown in FIG. 20A. That is, the model that defines the back wall BW includes the boundary surface 3. Further, it may be a planar polygon arranged behind the planned opening position formed on the boundary surface 3. Each time an opening is formed in the boundary surface 3, a planar polygon that defines the projection plane of the opening may be arranged in the second space 2.

奥壁BWのポリゴンモデルに貼り付けられる画像データ(テクスチャ)は、任意でよい。もっとも、この画像データは、実世界画像の背後に存在する別の空間(第2空間2)を表現するため、宇宙空間,空,水中を示す画像のような非現実を表現する画像であると、プレイヤに対して、現実空間の向こうに非現実な空間があるかのような不思議な感覚を喚起できることで好ましい。例えば、本実施形態のゲームを部屋の中でプレイしているときには、部屋の向こうに非現実な空間があるかのような感覚を与えることができる。また、奥壁のテクスチャは、砂漠、荒野のような普段目にすることのない風景を表現するものであってもよい。このように、奥壁BWのテクスチャの選択によって、ゲーム世界の背景として表現された現実画像の背後に潜む別世界に対する所望のイメージをプレイヤに知らしめることができる。   Image data (texture) pasted on the polygon model of the back wall BW may be arbitrary. However, since this image data represents another space (second space 2) that exists behind the real world image, it is an image that represents unreality such as an image showing outer space, the sky, and the water. It is preferable that the player can be given a strange feeling as if there is an unreal space beyond the real space. For example, when playing the game of this embodiment in a room, it is possible to give a feeling as if there is an unreal space beyond the room. Further, the texture of the back wall may represent a landscape that is not usually seen, such as a desert or a wilderness. In this way, by selecting the texture of the back wall BW, the player can be informed of a desired image for another world hidden behind the real image expressed as the background of the game world.

また、例えば、当該画像データが、宇宙の画像等の繰り返し表現を用いることができる画像であれば、画像データ(テクスチャ)のデータサイズを小さくすることができる。また、当該画像データが、このような画像であれば、仮想空間上の奥壁BWの描画されるべき位置を特定しなくても、奥壁BWの画像を描画することができる。なぜなら、繰り返し表現を用いることができる画像であれば、描画される画像は位置に依らない(ポリゴンモデル全体に繰り返しパターンを表現できる)からである。   For example, if the image data is an image that can use repetitive expressions such as a space image, the data size of the image data (texture) can be reduced. If the image data is such an image, the image of the back wall BW can be drawn without specifying the position where the back wall BW in the virtual space should be drawn. This is because, if the image can use repetitive expressions, the drawn image does not depend on the position (repetitive patterns can be expressed in the entire polygon model).

なお、本実施形態において、後述する描画の優先度はアルファ値によって定められるため、当該画像データにはアルファ値が定められているものとする。本実施形態では、当該画像データに定められているアルファ値は「1」であるとする。   In the present embodiment, since drawing priority, which will be described later, is determined by an alpha value, it is assumed that the image data has an alpha value. In the present embodiment, it is assumed that the alpha value defined for the image data is “1”.

《敵オブジェクトデータDf》
敵オブジェクトデータDfは、敵オブジェクトEOに関するデータであり、実体データDf1、シルエットデータDf2、および開口形状データDf3を含んでいる。
<< Enemy Object Data Df >>
The enemy object data Df is data related to the enemy object EO, and includes entity data Df1, silhouette data Df2, and opening shape data Df3.

実体データDf1は、敵オブジェクトEOの実体を描画するためのデータであり、例えば、敵オブジェクトEOの実体の3次元形状を定義したポリゴンモデルと、当該ポリゴンモデルにマッピングするためのテクスチャデータである。当該テクスチャデータは、例えば、ゲーム装置10の各撮像部で撮像したユーザ等の顔写真等であってもよい。なお、本実施形態において、後述する描画の優先度はアルファ値によって定められるため、当該テクスチャデータにはアルファ値が定められているものとする。本実施形態では、当該テクスチャデータに定められているアルファ値は「1」であるとする。   The entity data Df1 is data for drawing the entity of the enemy object EO, and is, for example, a polygon model that defines the three-dimensional shape of the entity of the enemy object EO and texture data for mapping to the polygon model. The texture data may be, for example, a face photograph of a user or the like captured by each imaging unit of the game apparatus 10. In the present embodiment, since drawing priority, which will be described later, is determined by an alpha value, it is assumed that an alpha value is defined for the texture data. In the present embodiment, it is assumed that the alpha value defined for the texture data is “1”.

シルエットデータDf2は、第2空間2に存在する敵オブジェクトEOの影を実世界画像上に半透明で描画するためのデータであり、ポリゴンモデルとそのポリゴンモデルに貼り付けられるテクスチャデータとを含む。例えば、このシルエットモデルは、前述したように、8枚の平面ポリゴンを含み、第2空間2に存在する敵オブジェクトEOの位置と同じ位置に配置される。このテクスチャが貼り付けられたシルエットモデルを仮想世界描画用カメラから見て実世界画像上に半透明などで描画することにより、第2空間2に存在する敵オブジェクトEOの影を表現できる。また、シルエットデータDf2のテクスチャデータは、例えば、図27Aおよび図27Bに示すように、敵オブジェクトEOを各方向からみた画像であってもよい(例えば、8枚の平面ポリゴン)。さらに、当該画像は、敵オブジェクトEOのシルエットモデルを簡素化した画像であってもよい。なお、本実施形態において、後述する描画の優先度はアルファ値によって定められるため、シルエットモデルに貼り付けられるテクスチャデータにはアルファ値が定められているものとする。本実施形態では、当該テクスチャデータに定められているアルファ値は、影画像部分について「1」であり、影画像がない部分(周囲の部分)について「0」であるとする。   The silhouette data Df2 is data for rendering the shadow of the enemy object EO existing in the second space 2 translucently on the real world image, and includes a polygon model and texture data pasted on the polygon model. For example, as described above, this silhouette model includes eight planar polygons and is arranged at the same position as the enemy object EO existing in the second space 2. The shadow model of the enemy object EO existing in the second space 2 can be expressed by drawing the silhouette model with the texture pasted on the real world image as seen from the virtual world drawing camera. Further, the texture data of the silhouette data Df2 may be, for example, an image of the enemy object EO viewed from each direction as shown in FIGS. 27A and 27B (for example, eight planar polygons). Furthermore, the image may be an image obtained by simplifying the silhouette model of the enemy object EO. In the present embodiment, since drawing priority, which will be described later, is determined by an alpha value, it is assumed that an alpha value is defined for texture data to be pasted on a silhouette model. In the present embodiment, it is assumed that the alpha value defined in the texture data is “1” for the shadow image portion and “0” for the portion without the shadow image (surrounding portion).

開口形状データDf3は、敵オブジェクトEOが第1空間1と第2空間2とを往来する際に境界面3上に生成する開口の形状に関するデータである。本実施形態では、開口形状データDf3は、開口を生成する境界面3上の位置に対応する開口判定用データの位置におけるアルファ値を「0」にするためのデータである。例えば、開口形状データDf3は、生成する開口の形状に合わせた、アルファ値「0」のテクスチャデータである。なお、本実施形態では、開口判定用データに対して、上記敵オブジェクトEOが境界面3を通った位置に対応する箇所を中心として、当該開口形状データDf3の形状分だけアルファ値「0」に設定する。敵オブジェクトEOが境界面3上に開口を生成する際の画像処理については後述する。   The opening shape data Df3 is data relating to the shape of the opening generated on the boundary surface 3 when the enemy object EO travels between the first space 1 and the second space 2. In the present embodiment, the opening shape data Df3 is data for setting the alpha value at the position of the opening determination data corresponding to the position on the boundary surface 3 where the opening is generated to “0”. For example, the opening shape data Df3 is texture data having an alpha value “0” that matches the shape of the opening to be generated. In the present embodiment, with respect to the opening determination data, the alpha value is set to “0” by the shape of the opening shape data Df3 around the location corresponding to the position where the enemy object EO has passed through the boundary surface 3. Set. Image processing when the enemy object EO generates an opening on the boundary surface 3 will be described later.

《弾オブジェクトデータDg》
弾オブジェクトデータDgは、プレイヤの攻撃操作に応じて発射される弾オブジェクトBOに関するデータである。例えば、弾オブジェクトデータDgは、弾オブジェクトBOを描画するためのポリゴンモデルおよび弾画像(テクスチャ)データ、弾オブジェクトBOの配置方向や配置位置を示すデータ、および弾オブジェクトBOの移動速度や移動方向(例えば、移動速度ベクトル)を示すデータ等を含んでいる。なお、本実施形態において、後述する描画の優先度はアルファ値によって定められるため、弾画像データにはアルファ値が定められているものとする。本実施形態では、弾画像データに定められているアルファ値は「1」であるとする。
<< Bullet Object Data Dg >>
The bullet object data Dg is data related to the bullet object BO that is fired in response to the player's attack operation. For example, the bullet object data Dg includes a polygon model and bullet image (texture) data for drawing the bullet object BO, data indicating the arrangement direction and arrangement position of the bullet object BO, and the movement speed and movement direction of the bullet object BO ( For example, it includes data indicating a movement speed vector. In the present embodiment, since drawing priority, which will be described later, is determined by an alpha value, it is assumed that an alpha value is defined for bullet image data. In the present embodiment, it is assumed that the alpha value defined in the bullet image data is “1”.

《得点データDh》
得点データDhは、敵オブジェクトEOが登場するゲームの得点を示すデータである。例えば、上述のとおり、ゲームの得点は、攻撃操作によって敵オブジェクトEOを退治することによって加点され、敵オブジェクトEOがユーザの位置(つまり、仮想空間上における仮想カメラの配置位置)に到達することによって減点される。
<Scoring data Dh>
The score data Dh is data indicating the score of the game in which the enemy object EO appears. For example, as described above, the score of the game is added by defeating the enemy object EO by an attack operation, and the enemy object EO reaches the position of the user (that is, the arrangement position of the virtual camera in the virtual space). Points are deducted.

《動きデータDi》
動きデータDiは、実空間におけるゲーム装置10の動きを示すデータである。一例として、ゲーム装置10の動きは、角速度センサ40によって検出された角速度によって算出される。
<Motion data Di>
The motion data Di is data indicating the motion of the game apparatus 10 in the real space. As an example, the movement of the game apparatus 10 is calculated based on the angular velocity detected by the angular velocity sensor 40.

《仮想カメラデータDj》
仮想カメラデータDjは、仮想空間に設置される仮想カメラに関するデータである。第1の描画方法では、例えば、仮想カメラデータDjは、仮想カメラの仮想空間上の配置方向や配置位置を示すデータを含んでいる。また、第2の描画方法では、例えば、仮想カメラデータDjは、実世界描画用カメラの仮想空間上の配置方向や配置位置を示すデータと、仮想世界描画用カメラの仮想空間上の配置方向や配置位置を示すデータのそれぞれを含む。そして、例えば、第1の描画方法における仮想カメラおよび第2の描画方法における仮想世界描画用カメラの仮想空間上の配置方向や配置位置を示すデータは、動きデータDiが示すゲーム装置10の動き(角速度)に応じて変化する。さらに、仮想カメラデータDjは、仮想カメラの画角(描画範囲)データを含んでいる。これによって、第1の描画方法における仮想カメラおよび第2の描画方法における仮想世界描画用カメラの位置および向きの変化に応じて、境界面3上の描画範囲(描画位置)が変化する。
<< Virtual Camera Data Dj >>
The virtual camera data Dj is data related to the virtual camera installed in the virtual space. In the first drawing method, for example, the virtual camera data Dj includes data indicating the arrangement direction and the arrangement position of the virtual camera in the virtual space. In the second drawing method, for example, the virtual camera data Dj includes data indicating the arrangement direction and arrangement position of the real world drawing camera in the virtual space, the arrangement direction of the virtual world drawing camera in the virtual space, Each of the data indicating the arrangement position is included. For example, the data indicating the arrangement direction and the arrangement position in the virtual space of the virtual camera in the first drawing method and the virtual world drawing camera in the second drawing method are movements of the game apparatus 10 indicated by the movement data Di ( It changes according to (angular velocity). Further, the virtual camera data Dj includes angle of view (drawing range) data of the virtual camera. As a result, the drawing range (drawing position) on the boundary surface 3 changes according to changes in the position and orientation of the virtual camera in the first drawing method and the virtual world drawing camera in the second drawing method.

《レンダリング画像データDk》
レンダリング画像データDkは、後述する処理によりレンダリングされた画像に関するデータである。
<< Rendered image data Dk >>
The rendered image data Dk is data related to an image rendered by processing to be described later.

第1の描画方法では、実世界画像を仮想空間上のオブジェクトとしてレンダリングするため、レンダリング画像データDkは、仮想空間のレンダリング画像データを含む。仮想空間のレンダリング画像データは、敵オブジェクトEO、弾オブジェクトBO、実世界画像がテクスチャとして貼られた境界面3(スクリーンオブジェクト)、奥壁BWが配置された仮想空間を仮想カメラにより透視投影でレンダリングすることによって得られる仮想世界画像を示すデータである。   In the first drawing method, since the real world image is rendered as an object in the virtual space, the rendering image data Dk includes rendering image data in the virtual space. Rendered image data in the virtual space is rendered by perspective projection of the virtual space where the enemy object EO, the bullet object BO, the boundary surface 3 (screen object) on which the real world image is pasted as a texture, and the back wall BW are arranged. It is the data which shows the virtual world image obtained by doing.

他方、第2の描画方法では、実世界画像と仮想世界画像を別々の仮想カメラでレンダリングするため、レンダリング画像データDkは、実カメラ画像のレンダリング画像データおよび仮想空間のレンダリング画像データを含んでいる。実カメラ画像のレンダリング画像データは、実カメラ画像のテクスチャがマッピングされた平面ポリゴンを、実世界画像描画用カメラにより平行投影でレンダリングすることによって得られる実世界画像を示すデータである。仮想空間のレンダリング画像データは、敵オブジェクトEO、弾オブジェクトBO、境界面3、奥壁BWが配置された仮想空間を仮想世界描画用カメラにより透視投影でレンダリングすることによって得られる仮想世界画像を示すデータである。   On the other hand, in the second rendering method, since the real world image and the virtual world image are rendered by separate virtual cameras, the rendering image data Dk includes the rendering image data of the real camera image and the rendering image data of the virtual space. . The rendered image data of the real camera image is data indicating a real world image obtained by rendering the planar polygon onto which the texture of the real camera image is mapped by parallel projection by the real world image drawing camera. The rendered image data of the virtual space indicates a virtual world image obtained by rendering the virtual space in which the enemy object EO, the bullet object BO, the boundary surface 3, and the back wall BW are arranged by perspective projection with a virtual world drawing camera. It is data.

《表示画像データDl》
表示画像データDlは、上側LCD22に表示される表示画像を示すデータである。第1の描画方法では、例えば、上側LCD22に表示される表示画像は、仮想空間のレンダリング処理により生成される。また、第2の描画方法では、例えば、上側LCD22に表示される表示画像は、上記カメラ画像のレンダリング画像データと仮想空間のレンダリング画像データとを後述する方法で合成することによって生成される。
<< Display image data Dl >>
The display image data Dl is data indicating a display image displayed on the upper LCD 22. In the first drawing method, for example, a display image displayed on the upper LCD 22 is generated by a virtual space rendering process. In the second drawing method, for example, the display image displayed on the upper LCD 22 is generated by combining the rendered image data of the camera image and the rendered image data of the virtual space by a method described later.

《照準カーソル画像データDm》
照準カーソル画像データDmは、上側LCD22に表示される照準カーソルALの画像データである。当該画像データは、任意のデータでよい。
<< Aiming cursor image data Dm >>
The aiming cursor image data Dm is image data of the aiming cursor AL displayed on the upper LCD 22. The image data may be arbitrary data.

なお、本実施形態では、描画に用いられる各オブジェクトに関するデータ(境界面データDd、奥壁画像データDe、実体データDf1、シルエットデータDf2、弾画像データ)は、描画の優先度を定める優先度情報を含んでいる。本実施形態では、当該優先度情報は、アルファ値が用いられているとする。当該アルファ値と画像処理の関係については後述する。   In the present embodiment, data relating to each object used for drawing (boundary surface data Dd, back wall image data De, entity data Df1, silhouette data Df2, bullet image data) is priority information that determines drawing priority. Is included. In the present embodiment, an alpha value is used for the priority information. The relationship between the alpha value and image processing will be described later.

また、本実施形態では、描画に用いる各オブジェクトに関するデータは、核オブジェクト間でデプス判定を行うか否かを示すデータが含まれている。当該データは、上述のとおり、敵オブジェクトEO、弾オブジェクトBO、半透明の敵オブジェクト、エフェクトオブジェクト、スクリーンオブジェクト(境界面3)との間は、互いにデプス判定が有効となるように設定されている。また、当該データは、「影用の平面ポリゴン(シルエットデータDf2)と敵オブジェクトEO(実体データDf1)の間」「影用の平面ポリゴン(シルエットデータDf2)と弾オブジェクトBOの間」「影用の平面ポリゴン(シルエットデータDf2)と半透明の敵オブジェクトの間」「影用の平面ポリゴン(シルエットデータDf2)とエフェクトオブジェクトの間」は、互いにデプス判定が有効となるように設定されている。さらに、当該データは、影用の平面ポリゴン(シルエットデータDf2)とスクリーンオブジェクト(境界面データDd)との間は、デプス判定が無効となるように設定されている。   In the present embodiment, the data regarding each object used for drawing includes data indicating whether or not depth determination is performed between the core objects. As described above, the data is set so that the depth determination is valid between the enemy object EO, the bullet object BO, the translucent enemy object, the effect object, and the screen object (boundary surface 3). . The data includes “between the shadow plane polygon (silhouette data Df2) and the enemy object EO (substance data Df1)”, “between the shadow plane polygon (silhouette data Df2) and the bullet object BO”, “shadow The plane polygon (silhouette data Df2) and the semi-transparent enemy object "and" between the shadow plane polygon (silhouette data Df2) and the effect object "are set so that the depth determination is effective. Further, the data is set such that the depth determination is invalid between the shadow plane polygon (silhouette data Df2) and the screen object (boundary surface data Dd).

《管理データDn》
管理データDnは、収集した顔画像等、ゲーム装置10が処理するデータ、あるいは、ゲーム装置10が蓄積したデータ等を管理するためのデータである。管理データDnは、例えば、顔画像管理情報Dn1、顔画像属性集計表Dn2等を含む。顔画像管理情報Dn1には、個々の顔画像のデータの記憶先(例えば、メインメモリ32等のアドレス)、顔画像の取得元(例えば、内側撮像部24、外側撮像部23)、顔画像の属性(例えば、顔画像の被写体の性別、年齢等)、顔画像と関連する他の顔画像の情報等が格納される。また、顔画像属性集計表Dn2には、ユーザが現在収集済みの顔画像の属性ごとの収集点数が格納される。例えば、収集した顔画像の被写体を性別、年代等で分類したときの、それぞれの分類ごとの収集実績値が格納される。顔画像管理情報Dn1、顔画像属性集計表Dn2のデータ構造例については後述する。
<< Management data Dn >>
The management data Dn is data for managing data processed by the game apparatus 10 such as collected face images or data accumulated by the game apparatus 10. The management data Dn includes, for example, face image management information Dn1, a face image attribute count table Dn2, and the like. In the face image management information Dn1, the storage destination of each face image data (for example, the address of the main memory 32, etc.), the acquisition source of the face image (for example, the inner imaging unit 24, the outer imaging unit 23), the face image management information The attributes (for example, the gender and age of the subject of the face image), information on other face images related to the face image, and the like are stored. The face image attribute count table Dn2 stores the number of points collected for each attribute of the face image currently collected by the user. For example, the collection result value for each classification when the subjects of the collected face images are classified by sex, age, or the like is stored. An example of the data structure of the face image management information Dn1 and the face image attribute count table Dn2 will be described later.

《セーブデータ記憶域Do》
セーブデータ記憶域Doは、情報処理部31が、ゲームプログラム等の画像処理プログラムを実行するときに、情報処理部31が処理対象とするデータ、情報処理部31が処理した結果のデータ等を保存する領域である。一例としては、本実施形態では、ゲーム装置10が、内側撮像部24、外側撮像部23、無線通信モジュール36、ローカル通信モジュール37等を介して、ゲーム装置10が取得した顔画像のデータが保存される。本実施形態では、例えば、ゲーム装置10が取得した顔画像がメインメモリ32に一時的に記憶された状態で、情報処理部31は第1のゲームを実行する。そして、ユーザの操作にしたがって、ユーザが第1のゲームで成功したと判断されたときに、情報処理部31は、メインメモリ32に一時的に記憶された顔画像をセーブデータ記憶域Doに保存する。セーブデータ記憶域Doに保存された顔画像は、以降のゲーム処理等で利用可能となる。
《Save data storage area Do》
The save data storage area Do stores data to be processed by the information processing unit 31 and data obtained as a result of processing by the information processing unit 31 when the information processing unit 31 executes an image processing program such as a game program. It is an area to do. As an example, in the present embodiment, the game device 10 stores face image data acquired by the game device 10 via the inner imaging unit 24, the outer imaging unit 23, the wireless communication module 36, the local communication module 37, and the like. Is done. In the present embodiment, for example, the information processing unit 31 executes the first game in a state where the face image acquired by the game apparatus 10 is temporarily stored in the main memory 32. When it is determined that the user has succeeded in the first game in accordance with the user's operation, the information processing section 31 saves the face image temporarily stored in the main memory 32 in the save data storage area Do. To do. The face image saved in the save data storage area Do can be used in subsequent game processing and the like.

セーブデータ記憶域Doの構造に特に限定はない。例えば、セーブデータ記憶域Doは、通常のメモリと同一の物理アドレス空間におかれて、情報処理部31からアクセスできるようにしてもよい。また、例えば、情報処理部31が、必要なタイミングで所定のブロック単位、あるいはページ単位で確保(割付、アロケートなどともいう)可能としておいてもよい。また、例えば、セーブデータ記憶域Doは、コンピュータのファイルシステムと同様に、ブロックを接続するポイントのような管理情報で接続される構造としてもよい。   There is no particular limitation on the structure of the save data storage area Do. For example, the save data storage area Do may be placed in the same physical address space as a normal memory and accessible from the information processing unit 31. Further, for example, the information processing section 31 may be secured (also referred to as allocation or allocation) in a predetermined block unit or page unit at a necessary timing. Further, for example, the save data storage area Do may be connected by management information such as a point for connecting blocks, similarly to a file system of a computer.

さらに、セーブデータ記憶域Doは、例えば、ゲーム装置10で実行されるプログラムごとに個別の領域が確保されるようにしてもよい。したがって、一のゲームプログラムがメインメモリ32にローディングされたときに、情報処理部31は、ゲームプログラムの管理情報などを基に、セーブデータ記憶域Doにアクセス(データを入出力)するようにしてもよい。   Further, the save data storage area Do may have a separate area reserved for each program executed by the game apparatus 10, for example. Accordingly, when one game program is loaded into the main memory 32, the information processing section 31 accesses the save data storage area Do (input / output data) based on the management information of the game program. Also good.

さらにまた、一のプログラムのセーブデータ記憶域Doが、他のプログラムを実行中の情報処理部31からアクセス可能としてもよい。このようにすることで、一のプログラムで処理したデータを他のプログラムに引き渡すことを可能としてもよい。例えば、後述する第1のゲームを実行された結果として、セーブデータ記憶域Doに保存された顔画像のデータを第2のゲームを実行中の情報処理部31が読み出して、キャラクタオブジェクトを作成できるようにしてもよい。なお、セーブデータ記憶域Doは、第2記憶領域の一例である。   Furthermore, the save data storage area Do of one program may be accessible from the information processing section 31 that is executing another program. In this way, data processed by one program may be transferred to another program. For example, as a result of executing a first game, which will be described later, the information processing unit 31 that is executing the second game can read out the face image data stored in the save data storage area Do and create a character object. You may do it. The save data storage area Do is an example of a second storage area.

<各種データの構造>
図12および図13を参照して、ゲーム装置10内で、顔画像を管理するデータ構造の一例を説明する。
<Structure of various data>
With reference to FIG. 12 and FIG. 13, an example of a data structure for managing face images in the game apparatus 10 will be described.

図12は、ゲーム装置10に保存された顔画像を管理する顔画像管理情報Dn1のデータ構造の一例である。ゲーム装置10は、保存した顔画像のデータを顔画像管理情報Dn1に記録することで、例えば、図7、図8のような形式で、顔画像の一覧を上側LCD22の画面などに表示できるようになる。顔画像管理情報Dn1は、例えば、顔画像ごとに1レコード用意される情報として作成される。顔画像管理情報Dn1は、例えば、データ保存用内部メモリ35、データ保存用外部メモリ46などに保存される。図12で、レコード1により、レコードの要素を例示する。また、図12では、レコード2以降の詳細は省略している。また、情報処理部31は、例えば、図示しないが、顔画像管理情報Dn1の総レコード数、すなわち、取得した顔画像の総数をデータ保存用内部メモリ35、データ保存用外部メモリ46などに保存しておけばよい。   FIG. 12 shows an example of the data structure of face image management information Dn1 for managing face images stored in the game apparatus 10. The game apparatus 10 records the stored face image data in the face image management information Dn1, so that a list of face images can be displayed on the screen of the upper LCD 22 or the like in the format shown in FIGS. become. The face image management information Dn1 is created as information prepared for one record for each face image, for example. The face image management information Dn1 is stored in, for example, the data storage internal memory 35 and the data storage external memory 46. In FIG. 12, a record 1 illustrates the elements of the record. Further, in FIG. 12, details after the record 2 are omitted. Further, for example, although not shown, the information processing section 31 stores the total number of records of the face image management information Dn1, that is, the total number of acquired face images in the data storage internal memory 35, the data storage external memory 46, and the like. Just keep it.

図12の例では、顔画像管理情報Dn1は、例えば、顔画像識別情報、顔画像データのアドレス、顔画像の取得先、性別の推定、年齢の推定、関連顔画像情報1−N等を有している。ただし、図12は顔画像管理情報Dn1の一例であり、顔画像管理情報が図12に例示された要素に限定される訳ではない。   In the example of FIG. 12, the face image management information Dn1 includes, for example, face image identification information, face image data address, face image acquisition destination, gender estimation, age estimation, related face image information 1-N, and the like. is doing. However, FIG. 12 is an example of the face image management information Dn1, and the face image management information is not limited to the elements illustrated in FIG.

顔画像識別情報は、保存された顔画像をユニークに識別する情報である。顔画像識別情報は、例えば、通し番号でもよい。   The face image identification information is information for uniquely identifying the stored face image. The face image identification information may be a serial number, for example.

顔画像データのアドレスは、例えば、顔画像のデータが格納されるデータ保存用内部メモリ35あるいはデータ保存用外部メモリ46等のアドレスである。ただし、例えば、OS(オペレーティングシステム)によってファイルシステムが構築されている記憶媒体に顔画像データが格納される場合には、顔画像データのアドレスとして、ファイルシステム中のパス名、ファイル名などを設定するようにしてもよい。   The address of the face image data is, for example, the address of the data storage internal memory 35 or the data storage external memory 46 where the face image data is stored. However, for example, when face image data is stored in a storage medium in which the file system is constructed by the OS (operating system), a path name, a file name, etc. in the file system are set as the address of the face image data. You may make it do.

顔画像の取得元は、例えば、顔画像を取得した撮像装置を識別する情報である。顔画像の取得元としては、例えば、内側撮像部24、外側左撮像部23a、および外側右撮像部23bを識別する情報が設定される。ただし、顔画像取得のために、外側左撮像部23aおよび外側右撮像部23bの両方が使用された場合には、両方を示す情報が設定される。また、例えば、内側撮像部24、外側左撮像部23a、および外側右撮像部23b以外に、例えば、ゲーム装置10外の他の撮像装置で顔画像が取得された場合には、その旨を示す情報(例えば「他」)が設定される。ゲーム装置10外の他の撮像装置で顔画像が取得される場合とは、例えば、外部メモリインターフェイス33、無線通信モジュール36、ローカル通信モジュール37等を通じて、ゲーム装置10と同様の他のゲーム装置10で撮像した画像を取得した場合などである。また、外部メモリインターフェイス33、無線通信モジュール36等を通じて、ゲーム装置10以外のカメラで得られた画像、スキャナで得られた画像、ビデオ機器からの映像等の画像を取得した場合も含まれる。   The acquisition source of the face image is, for example, information for identifying the imaging device that acquired the face image. As a face image acquisition source, for example, information for identifying the inner imaging unit 24, the outer left imaging unit 23a, and the outer right imaging unit 23b is set. However, when both the outer left imaging unit 23a and the outer right imaging unit 23b are used for face image acquisition, information indicating both is set. In addition, for example, when a face image is acquired by another imaging device other than the game device 10 other than the inner imaging unit 24, the outer left imaging unit 23a, and the outer right imaging unit 23b, for example, this is indicated. Information (for example, “other”) is set. The case where the face image is acquired by another imaging device outside the game device 10 is, for example, another game device 10 similar to the game device 10 through the external memory interface 33, the wireless communication module 36, the local communication module 37, and the like. This is the case where an image captured by the method is acquired. In addition, a case where an image obtained by a camera other than the game apparatus 10, an image obtained by a scanner, an image from a video device, or the like is acquired through the external memory interface 33, the wireless communication module 36, or the like.

性別の推定は、顔画像が男性か女性かを示す情報である。性別の推定は、例えば、後述する他の実施形態に示す処理したがって実行すればよい。年齢推定は、顔画像の人の年齢を示す情報である。年齢の推定は、例えば、後述する他の実施形態に示す処理したがって実行すればよい。   The gender estimation is information indicating whether the face image is male or female. The gender estimation may be executed in accordance with, for example, processing shown in another embodiment described later. Age estimation is information indicating the age of a person in a face image. The estimation of age may be executed according to the processing shown in another embodiment described later, for example.

関連画像の識別情報1−Nは、それぞれ、当該顔画像と関連する他の顔画像を示す情報である。例えば、関連画像の識別情報1−Nは、最大N個の他の関連する顔画像の顔画像識別情報を設定すればよい。関連する他の顔画像は、例えば、GUIを通じたユーザ操作によって、指定されるようにしてもよい。例えば、新たに、顔画像が取得されたときに、取得された顔画像と関連する顔画像1以上をユーザが操作ボタン14等によって選択対象とした上で、関連画像設定を指示するGUIの操作を情報処理部31が検出するようにすればよい。あるいは、単に、本人、友人、同僚、他人等、ゲーム装置10が用意した分類によって、取得された顔画像を分類するようにしてもよい。そして、同一の分類に属する顔画像を関連画像の識別情報1−Nを用いてリンクするようにしてもよい。ただし、ゲーム装置10が用意した分類で顔画像を分類する場合には、関連顔画像の識別情報1−Nのエントリを用意する代わりに、単に、「顔画像の分類」という要素を設け、本人、友人、同僚、他人等設定するようにしてもよい。また、図12では、関連画像の識別情報1からNとして、固定数で示したが、Nの数を可変数としてもよい。その場合には、設定済みの数Nを顔画像管理情報Dn1に保持するようにすればよい。さらに、例えば、関連する顔画像の間で、顔画像管理情報Dn1のレコードとレコードとをポインタのチェーンで接続するようにしてもよい。   The related image identification information 1-N is information indicating other face images related to the face image. For example, the related image identification information 1-N may set face image identification information of up to N other related face images. Other related face images may be specified by a user operation through a GUI, for example. For example, when a new face image is acquired, the user selects a face image 1 or more related to the acquired face image with the operation button 14 or the like, and then performs an operation of the GUI that instructs setting of the related image May be detected by the information processing section 31. Or you may make it classify | categorize the acquired face image only by the classification | category which the game device 10 prepared, such as a person, a friend, a colleague, and others. And you may make it link the face image which belongs to the same classification | category using the identification information 1-N of a related image. However, when classifying a face image according to the classification prepared by the game apparatus 10, instead of preparing an entry of identification information 1-N of the related face image, an element “classification of the face image” is simply provided, , Friends, colleagues, others, etc. may be set. In FIG. 12, the related image identification information 1 to N is shown as a fixed number, but the number of N may be a variable number. In that case, the set number N may be held in the face image management information Dn1. Further, for example, the records of the face image management information Dn1 may be connected with a chain of pointers between related face images.

図13に、顔画像属性集計表Dn2のデータ構造例を示す。顔画像属性集計表Dn2は、取得済みの顔画像を属性によって分類し、分類された画像数を集計した表である。以下、顔画像属性集計表Dn2を単に集計表ともいう。情報処理部31は、例えば、データ保存用内部メモリ35、データ保存用外部メモリ46等に、図13の集計表を保存している。図13の例では、集計表は、性別(男性、女性)、年齢層(10歳未満、10代、20代、30代、40代、50代、60代、70以上)との組み合わせによって分類された各行に、顔画像取得数を記憶している。すなわち、図13の表の各行は、性別、年齢、および顔画像取得数という要素を含む。顔画像取得数には、取得済みの顔画像が分類され、その取得数が集計されている。ただし、顔画像の分類、あるいは属性が、図13に例示した性別、あるいは年齢層に限定されるわけではない。   FIG. 13 shows an example of the data structure of the face image attribute summary table Dn2. The face image attribute count table Dn2 is a table in which acquired face images are classified according to attributes and the number of classified images is totaled. Hereinafter, the face image attribute summary table Dn2 is also simply referred to as a summary table. The information processing unit 31 stores the summary table of FIG. 13 in, for example, the data storage internal memory 35 and the data storage external memory 46. In the example of FIG. 13, the tabulation table is classified by combination with gender (male, female) and age group (under 10 years old, teens, 20s, 30s, 40s, 50s, 60s, 70 and above). The number of face image acquisitions is stored in each line. That is, each row in the table of FIG. 13 includes elements such as gender, age, and number of acquired face images. The acquired face images are classified into the number of acquired face images, and the acquired number is totaled. However, the classification or attribute of the face image is not limited to the gender or age group illustrated in FIG.

<処理フローの例>
図14から図19により、ゲーム装置10の情報処理部31で実行される画像処理プログラムによる動作例を説明する。まず、ゲーム装置10の電源(電源ボタン14F)がONにされると、CPU311によってブートプログラム(図示せず)が実行され、これにより内蔵メモリまたは外部メモリ45やデータ保存用外部メモリ46に格納されているプログラムがメインメモリ32においてCPU311が実行可能な形式で展開される。ここで、CPU311が実行可能な形式とは、例えば、CPU311の機械命令が所定の処理順で記述され、メインメモリ32の適切なアドレスに配置され、CPU311の機械命令を処理する制御部から読み出し可能な形式をいう。実行可能な形式で展開することを単にロードするともいう。なお、図14〜図19においては、第1の実施形態に直接関連しない処理についての記載を省略する。
<Example of processing flow>
An example of the operation by the image processing program executed by the information processing unit 31 of the game apparatus 10 will be described with reference to FIGS. First, when the power supply (power button 14F) of the game apparatus 10 is turned on, a boot program (not shown) is executed by the CPU 311 and thereby stored in the built-in memory or the external memory 45 or the data storage external memory 46. Are expanded in a format that can be executed by the CPU 311 in the main memory 32. Here, the format executable by the CPU 311 is, for example, in which machine instructions of the CPU 311 are described in a predetermined processing order, arranged at an appropriate address in the main memory 32, and readable from a control unit that processes the machine instructions of the CPU 311 Form. Extracting in an executable form is also simply loading. In FIGS. 14 to 19, descriptions of processes not directly related to the first embodiment are omitted.

図14は、情報処理部31による動作の一例を示すフローチャートである。情報処理部31は、電源ONの後の一連の処理の後、ユーザの操作、例えば、下側LCD12に表示されるグラフィカルユーザインターフェイス(以下、GUI)、例えば、メニューあるいは、アイコンなどのグラフィックオブジェクトに対するタッチパネル13あるいは操作ボタン14を通じた操作を検出すると、図14の処理を実行する。以下、GUIに対するタッチパネル13あるいは操作ボタン14を通じたユーザの操作を単に、「GUIに対する操作」という。図14の例では、情報処理部31は、ユーザの操作待ちとなる(ステップ8)。以下、図面中では、「ステップ」を「S」と略称する。   FIG. 14 is a flowchart illustrating an example of an operation performed by the information processing unit 31. The information processing unit 31 performs a user operation, for example, a graphical user interface (hereinafter, GUI) displayed on the lower LCD 12, for example, a graphic object such as a menu or an icon after a series of processes after the power is turned on. When an operation through the touch panel 13 or the operation button 14 is detected, the process of FIG. 14 is executed. Hereinafter, a user operation on the GUI through the touch panel 13 or the operation button 14 is simply referred to as “operation on the GUI”. In the example of FIG. 14, the information processing section 31 waits for a user operation (step 8). Hereinafter, in the drawings, “step” is abbreviated as “S”.

次に、ユーザの操作を検出すると、情報処理部31は、ステップ9以下の処理を実行する。例えば、ユーザのGUIに対する操作が、「内側撮像部24による顔画像の取得」の指示である場合(ステップ9でYesの場合)、情報処理部31は、顔画像取得処理1を実行する(ステップ10)。ここで、「内側撮像部24による顔画像の取得」の指示とは、例えば、GUI等を通じたユーザに操作によって内側撮像部24を用いた取得の指示をいう。その後、情報処理部31は、制御をステップ19に進める。顔画像取得処理1については、図15を参照して後述する。一方、ユーザのGUIに対する操作が「内側撮像部24による顔画像の取得」の指示でない場合(ステップ9でNoの場合)には、情報処理部31は、制御をステップ11に進める。   Next, when a user operation is detected, the information processing section 31 performs the processing from step 9 onwards. For example, when the user's operation on the GUI is an instruction of “acquisition of a face image by the inner imaging unit 24” (Yes in Step 9), the information processing unit 31 executes the face image acquisition process 1 (Step S1). 10). Here, the instruction of “acquisition of face image by the inner imaging unit 24” refers to an instruction of acquisition using the inner imaging unit 24 by an operation to the user through a GUI or the like, for example. Thereafter, the information processing section 31 advances the control to step 19. The face image acquisition process 1 will be described later with reference to FIG. On the other hand, when the user's operation on the GUI is not an instruction of “acquisition of face image by the inner imaging unit 24” (No in Step 9), the information processing unit 31 advances the control to Step 11.

次に、例えば、ユーザのGUIに対する操作が、「外側撮像部23による顔画像の取得」の指示である場合(ステップ11でYesの場合)、情報処理部31は、顔画像取得処理2を実行する(ステップ12)。その後、情報処理部31は、制御をステップ19に進める。ここで、「外側撮像部23による顔画像の取得」の指示とは、例えば、GUI等を通じたユーザに操作によって外側撮像部23を用いた取得の指示をいう。顔画像取得処理2については、図16を参照して後述する。一方、ユーザのGUIに対する操作が「外側撮像部23による顔画像の取得」の指示でない場合(ステップ11でNoの場合)には、情報処理部31は、制御をステップ13に進める。   Next, for example, when the user's operation on the GUI is an instruction of “acquisition of a face image by the outer imaging unit 23” (Yes in Step 11), the information processing unit 31 executes the face image acquisition process 2 (Step 12). Thereafter, the information processing section 31 advances the control to step 19. Here, the instruction “acquisition of a face image by the outer imaging unit 23” refers to an instruction to acquire using the outer imaging unit 23 by an operation to a user through a GUI or the like, for example. The face image acquisition process 2 will be described later with reference to FIG. On the other hand, when the user's operation on the GUI is not an instruction of “acquisition of face image by outer imaging unit 23” (No in step 11), the information processing unit 31 advances the control to step 13.

次に、ユーザのGUIに対する操作が収集した顔画像の一覧表示の指示である場合(ステップ13でYesの場合)、情報処理部31は、一覧表示処理を実行する(ステップ14)。その後、情報処理部31は、制御をステップ19に進める。一覧表示処理については、図17を参照して後述する。一方、ユーザのGUIに対する操作が収集した顔画像の一覧表示の指示でない場合(ステップ13でNoの場合)には、情報処理部31は、制御をステップ15に進める。   Next, when the user's operation on the GUI is an instruction to display a list of collected face images (Yes in Step 13), the information processing section 31 executes a list display process (Step 14). Thereafter, the information processing section 31 advances the control to step 19. The list display process will be described later with reference to FIG. On the other hand, if the user's operation on the GUI is not an instruction to display a list of collected face images (No in step 13), the information processing section 31 advances the control to step 15.

ユーザのGUIに対する操作が配役の決定指示である場合(ステップ15でYesの場合)、情報処理部31は、配役決定処理を実行する(ステップ16)。その後、情報処理部31は、制御をステップ19に進める。配役決定処理については、図18を参照して後述する。一方、ユーザのGUIに対する操作が配役の決定指示でない場合(ステップ15でNoの場合)には、情報処理部31は、制御をステップ17に進める。   When the user's operation on the GUI is a casting determination instruction (Yes in Step 15), the information processing section 31 executes a casting determination process (Step 16). Thereafter, the information processing section 31 advances the control to step 19. The casting determination process will be described later with reference to FIG. On the other hand, if the user's operation on the GUI is not an instruction to determine casting (No in step 15), the information processing section 31 advances the control to step 17.

ユーザの操作がゲームの実行指示である場合(ステップ17でYesの場合)、情報処理部31は、ゲームを実行する(ステップ18)。ステップ18の処理が第2のゲーム処理ステップの一例である。ゲーム装置10は、ステップ16の配役決定処理で作成された敵オブジェクトEO等、様々なキャラクタオブジェクトが登場するゲーム処理を実行する。ゲームの種類に限定はない。例えば、ステップ18で実行されるゲームは、ユーザが配役決定処理で作成された敵オブジェクトEOと戦闘を行うゲームでもよい。この場合に、例えば、ユーザは、ステップ10の顔画像取得処理1、ステップ12の顔画像取得処理2で収集され、ステップ14の一覧表示処理で表示された顔画像の敵オブジェクトEOと戦闘をすることになる。また、例えば、このゲームは、ユーザを象徴するプレイヤオブジェクトが様々な関門、障害等を乗り越えて進む冒険ゲームでもよい。また、このゲームは、歴史上の登場人物が登場する戦争シミュレーション、プレイヤオブジェクトが登場する経営シミュレーション、プレイヤオブジェクトが登場する乗り物等の運転シミュレーション等のゲームでもよい。また、ゲームは、小説の原作をモデルにした、上記キャラクタオブジェクトが登場するノベルゲームでもよい。また、ゲームは、ユーザが物語に登場する主人公や登場人物を操作し、その役割を演じて遊ぶロールプレイングゲーム(RPG)と呼ばれるものでもよい。また、ゲームは、単に、登場するエージェントによってユーザが支援を受けて何らかのトレーニングを行うものでもよい。   If the user operation is a game execution instruction (Yes in Step 17), the information processing section 31 executes the game (Step 18). The process of step 18 is an example of a second game process step. The game apparatus 10 executes a game process in which various character objects such as the enemy object EO created in the casting determination process in step 16 appear. There is no limitation on the type of game. For example, the game executed in step 18 may be a game in which the user battles the enemy object EO created by the casting determination process. In this case, for example, the user battles with the enemy object EO of the face image collected in the face image acquisition process 1 in step 10 and the face image acquisition process 2 in step 12 and displayed in the list display process in step 14. It will be. Further, for example, this game may be an adventure game in which a player object that symbolizes a user moves over various barriers, obstacles, and the like. This game may be a game such as a war simulation in which historical characters appear, a management simulation in which a player object appears, or a driving simulation of a vehicle in which the player object appears. The game may be a novel game in which the character object appears, modeled on the original novel. In addition, the game may be a so-called role-playing game (RPG) in which a user operates a hero or a character appearing in a story and plays the role. Further, the game may be a game in which the user receives some support from an agent who appears.

このようなゲーム処理に登場するキャラクタオブジェクトには、ユーザがステップ10の第1のゲームで成功することにより収集した顔画像が、テクスチャマッピング等の手法により貼り付けられている。したがって、ステップ18で実行されるゲームでは、ユーザ自身が収集した顔画像を含むキャラクタオブジェクトが登場する。このため、様々なキャラクタオブジェクトについて、顔画像という、人、あるいは生物などを象徴する部分の画像を用いることにより、ユーザは、その顔画像の人(あるいは生物)との実世界の関係を反映したゲームを実行できる。例えば、愛情、好意、好感、逆に憎悪などの感情を込めたゲーム処理を実行できるのである。   To the character object appearing in such a game process, a face image collected when the user succeeds in the first game in step 10 is pasted by a technique such as texture mapping. Therefore, in the game executed in step 18, a character object including a face image collected by the user himself appears. For this reason, the user reflects the real-world relationship with the person (or creature) of the face image by using the face image, which is an image of a part that symbolizes a person or creature, for various character objects. You can run the game. For example, it is possible to execute a game process that includes emotions such as love, favor, good feeling, and hatred.

一方、ユーザの操作がゲームの実行指示でない場合(ステップ17でNoの場合)には、情報処理部31は、制御をステップ19に進める。   On the other hand, when the user's operation is not a game execution instruction (No in Step 17), the information processing section 31 advances the control to Step 19.

そして、情報処理部31は、処理を終了するか否かを判定する。情報処理部31は、GUIを通じて処理を終了する指示を検出すると、図14の処理を終了する。一方、情報処理部31は、GUIを通じて、終了しない指示(例えば、再実行指示)を検出すると、顔画像管理支援処理1を実行する(ステップ1A)。顔画像管理支援処理1は、例えば、すでに取得済みの顔画像を基に、次に取得する顔画像の属性等に関して、ユーザに情報を提供し、ユーザの顔画像取得を支援する処理である。顔画像管理支援処理1については、図19Aにより、詳細処理例を後述する。その後、情報処理部31は、制御をステップ8に戻す。   Then, the information processing section 31 determines whether or not to end the process. When the information processing unit 31 detects an instruction to end the process through the GUI, the information processing unit 31 ends the process of FIG. On the other hand, when the information processing unit 31 detects an instruction that does not end (for example, a re-execution instruction) through the GUI, the information processing unit 31 executes the face image management support process 1 (step 1A). The face image management support process 1 is a process that provides information to the user regarding the attribute of the face image to be acquired next based on the already acquired face image and supports the user's face image acquisition. The face image management support process 1 will be described later in detail with reference to FIG. 19A. Thereafter, the information processing section 31 returns the control to step 8.

図15は、顔画像取得処理1(図14のステップ10)の詳細処理の一例を示すフローチャートである。この処理では、情報処理部31は、まず、顔画像管理支援処理2を実行する(ステップ100)。顔画像管理支援処理2は、例えば、すでに取得済みの顔画像を基に、次に取得する顔画像の属性等に関して、ユーザに情報を提供し、ユーザの顔画像取得を支援する処理である。顔画像管理支援処理2の詳細処理例については、図19Bにより後述する。   FIG. 15 is a flowchart showing an example of detailed processing of face image acquisition processing 1 (step 10 in FIG. 14). In this process, the information processing section 31 first executes the face image management support process 2 (step 100). The face image management support process 2 is a process that provides information to the user regarding the attribute of the face image to be acquired next based on the already acquired face image and supports the user's face image acquisition. A detailed processing example of the face image management support processing 2 will be described later with reference to FIG. 19B.

次に、情報処理部31は、顔画像取得処理を実行する(ステップ101)。情報処理部31のCPU311は、画像取得手段の一例として、ステップ101の処理を実行する。   Next, the information processing section 31 executes face image acquisition processing (step 101). The CPU 311 of the information processing unit 31 executes the process of step 101 as an example of an image acquisition unit.

情報処理部31は、例えば、内側撮像部24、外側左撮像部23a、および/または外側右撮像部23bを通じて撮像される画像を所定の周期で取り込み、上側LCD22に表示する。この場合の表示周期は、ゲーム装置10における処理の単位時間(例えば、1/60秒)と同じでもいいし、当該単位時間より短い時間でもかまわない。ゲーム装置10の電源がオンとなり画像処理プログラムがロードされた直後、あるいは、図14の処理起動直後の初期状態では、情報処理部31は、例えば、内側撮像部24からの画像を上側LCD22に表示する。なお、下側LCD12には、例えば、内側撮像部24、外側左撮像部23a、および外側右撮像部23bの少なくとも1つ(外側左撮像部23a、外側右撮像部23bの両方を使用する場合も含む)を選択するための撮像部選択GUIが用意されている。図15の処理では、ユーザは、撮像部選択GUIにより自在に使用する撮像部を切り替えることができるものする。以下、初期状態または撮像部選択GUIへの操作によって、撮像に使用されている内側撮像部24、外側左撮像部23a、および/または外側右撮像部23bを単に撮像部ということにする。   For example, the information processing unit 31 captures an image captured through the inner imaging unit 24, the outer left imaging unit 23a, and / or the outer right imaging unit 23b at a predetermined cycle, and displays the captured image on the upper LCD 22. In this case, the display cycle may be the same as the processing unit time (for example, 1/60 seconds) in the game apparatus 10 or may be shorter than the unit time. Immediately after the game apparatus 10 is turned on and the image processing program is loaded, or in the initial state immediately after the start of processing in FIG. 14, the information processing unit 31 displays, for example, an image from the inner imaging unit 24 on the upper LCD 22. To do. Note that, for example, at least one of the inner imaging unit 24, the outer left imaging unit 23a, and the outer right imaging unit 23b (both the outer left imaging unit 23a and the outer right imaging unit 23b may be used as the lower LCD 12). An imaging unit selection GUI for selecting (including) is prepared. In the processing of FIG. 15, the user can freely switch the imaging unit to be used by the imaging unit selection GUI. Hereinafter, the inner imaging unit 24, the outer left imaging unit 23a, and / or the outer right imaging unit 23b used for imaging in the initial state or the operation of the imaging unit selection GUI are simply referred to as an imaging unit.

例えば、内側撮像部24が使用されている場合には、ユーザが上側ハウジング21を開いた状態で、上側ハウジング21の内側面21Bに顔を向けると、上側LCD22には、ユーザの顔が写し出される。そして、ユーザが、例えば、Rボタン14H(またはLボタン14G)を押下すると、情報処理部31は、上側LCD22に写し出された内側撮像部24からの画像をデータとして取得し、メインメモリ32に一時的に記憶する。この時点では、この画像のデータはメインメモリ32上に存在するのみであり、後述するセーブデータ記憶域Doに保存されていない。このメインメモリ32上のデータは、後述のステップ106によるゲームで利用されるのみであり、後述するように、ゲームが成功せずに終了した場合には廃棄される。メインメモリ32が第1データ記憶域の一例である。   For example, when the inner imaging unit 24 is used, when the user turns his / her face to the inner side surface 21 </ b> B of the upper housing 21 with the upper housing 21 opened, the user's face is projected on the upper LCD 22. . When the user presses the R button 14H (or L button 14G), for example, the information processing unit 31 acquires an image from the inner imaging unit 24 projected on the upper LCD 22 as data, and temporarily stores it in the main memory 32. Remember me. At this time, the image data is only present on the main memory 32 and is not saved in the save data storage area Do described later. The data on the main memory 32 is only used in the game in step 106 described later, and is discarded when the game ends without success as described later. The main memory 32 is an example of a first data storage area.

なお、本実施形態の処理では、ステップ101で取得した顔画像を敵オブジェクトEOの顔面部分等にテクスチャマッピングし、ゲームを実行する。そのため、ステップ101の処理では、撮像部から取得した画像のうち、特に、顔部分を切り出して顔画像を取得することが望ましい。本実施形態では、例えば、以下の処理が実行されるものとする。(1)情報処理部31は、取得された画像中から顔の輪郭を検出する。顔の輪郭は、目の間隔と、目と口の位置関係とから推定する。すなわち、情報処理部31は、目と口の配置から、標準的な顔の寸法を用いて、顔の輪郭と、背景との境界線を認識する。境界線は、例えば、微分処理(輪郭強調)、平均処理(平滑化演算)等の通常の画像処理を組み合わせることで取得できる。なお、顔の輪郭検出の方法は周知の他の方法で行ってもかまわない。(2)情報処理部31は、得られた顔画像を拡大または縮小することによって、敵オブジェクトEOの頭部形状の顔面部の寸法に合わせ込む。この処理によれば、ある程度、寸法にばらつきがある顔画像についても、ゲーム装置10で取得し、敵オブジェクトEOに貼り付けることを可能にする。   In the process of the present embodiment, the face image acquired in step 101 is texture-mapped to the face portion of the enemy object EO and the game is executed. For this reason, in the process of step 101, it is desirable to acquire a face image by cutting out a face portion from the image acquired from the imaging unit. In the present embodiment, for example, the following processing is executed. (1) The information processing unit 31 detects the outline of the face from the acquired image. The outline of the face is estimated from the interval between the eyes and the positional relationship between the eyes and the mouth. That is, the information processing section 31 recognizes the boundary line between the face outline and the background using the standard face dimensions from the arrangement of the eyes and mouth. The boundary line can be acquired by combining normal image processing such as differentiation processing (outline emphasis) and average processing (smoothing operation), for example. The face contour detection method may be performed by another known method. (2) The information processing unit 31 enlarges or reduces the obtained face image so as to match the size of the face portion of the head shape of the enemy object EO. According to this process, it is possible to acquire a face image having a variation in dimensions to some extent by the game apparatus 10 and paste it on the enemy object EO.

ただし、本実施形態のゲーム装置10において、顔画像を取得する処理が上記手順に限定される訳ではない。例えば、顔画像を取得する際に、任意距離から、任意の寸法で、画像を取得する代わりに、目標とする寸法の顔画像を撮像部から取得するようにしてもよい。例えば、被写体から得られる顔画像の目と目の距離が、所定画素数の近傍となるように、被写体と距離を確立した上で、取得するようにしてもよい。例えば、情報処理部31が、被写体との距離を誘導すればよい。また、被写体と距離を確立した上で、情報処理部31が、例えば、撮像部の視軸方向に対する被写体の顔の角度を調整するように被写体となる人、あるいは撮像者であるユーザを誘導してもよい。さらに、ユーザが、例えば、Rボタン14H(またはLボタン14G)を押下することによって画像を保存する代わりに、被写体との距離および撮像部の視軸方向に対する顔の角度の調整が完了したと判断できたときに、情報処理部31が、画像を保存するようにしてもよい。例えば、情報処理部31が、上側LCD22に、被写体の顔画像と重畳して、目の位置と、口の位置合わせの目標位置を示すマークを表示してもよい。そして、撮像部から取得した被写体の両目および口の位置が、両目および口に対応する目標位置のマークから所定の許容差の範囲に収まったときに、情報処理部31が、画像をメモリに保存するようにしてもよい。   However, in the game apparatus 10 of the present embodiment, the process of acquiring a face image is not limited to the above procedure. For example, when acquiring a face image, instead of acquiring an image with an arbitrary size from an arbitrary distance, a face image with a target size may be acquired from the imaging unit. For example, it may be acquired after establishing the distance from the subject so that the distance between the eyes of the face image obtained from the subject is close to a predetermined number of pixels. For example, the information processing unit 31 may guide the distance to the subject. In addition, after establishing the distance to the subject, the information processing unit 31 guides the person who is the subject or the user who is the photographer so as to adjust the angle of the face of the subject with respect to the visual axis direction of the imaging unit, for example. May be. Further, for example, instead of saving the image by pressing the R button 14H (or L button 14G), the user determines that the adjustment of the distance to the subject and the face angle with respect to the visual axis direction of the imaging unit is completed. When it is possible, the information processing section 31 may store the image. For example, the information processing unit 31 may display a mark indicating the eye position and the target position for mouth alignment on the upper LCD 22 so as to be superimposed on the face image of the subject. Then, when the positions of both eyes and mouth of the subject acquired from the imaging unit fall within a predetermined tolerance range from the target position marks corresponding to both eyes and mouth, the information processing unit 31 stores the image in the memory. You may make it do.

なお、情報処理部31は、ステップ101での顔画像の取得するとき、図13の顔画像属性集計表Dn2の該当する行の顔画像取得数を更新する。該当する行とは、例えば、後述する図19Bのステップ1002で推定された性別、年齢に相当する属性の行をいう。   Note that when acquiring the face image in step 101, the information processing section 31 updates the number of face image acquisitions in the corresponding row of the face image attribute summary table Dn2 in FIG. The relevant row means, for example, a row of attributes corresponding to gender and age estimated in step 1002 of FIG. 19B described later.

次に、情報処理部31は、ステップ101の処理によって取得された画像を、例えば、上側LCD22に表示する(ステップ102)。   Next, the information processing section 31 displays the image acquired by the processing in step 101 on, for example, the upper LCD 22 (step 102).

次に、情報処理部31は、敵オブジェクトEOの選択処理を実行する(ステップ103)。ここでは、情報処理部31は、ユーザに敵オブジェクトEOの頭部形状の選択を促す。例えば、図9に示したような頭部形状の一覧を表示し、GUIを通じて、ユーザの選択を受け付けるようにすればよい。そして、情報処理部31は、取得された顔画像を敵オブジェクトEOのテクスチャに設定し(ステップ104)、敵オブジェクトEOを生成する(ステップ105)。ステップ105で生成される敵オブジェクトが第1キャラクタオブジェクトの一例である。情報処理部31は、キャラクタオブジェクトを作成する手段の一例として、ステップ105の処理を実行する。   Next, the information processing section 31 executes an enemy object EO selection process (step 103). Here, the information processing section 31 prompts the user to select the head shape of the enemy object EO. For example, a list of head shapes as shown in FIG. 9 may be displayed and a user's selection may be received through the GUI. Then, the information processing section 31 sets the acquired face image as the texture of the enemy object EO (step 104), and generates the enemy object EO (step 105). The enemy object generated in step 105 is an example of a first character object. The information processing section 31 performs the process of step 105 as an example of a means for creating a character object.

そして、情報処理部31は、生成された敵オブジェクトEOを用いたゲームを実行する(ステップ106)。情報処理部31のCPU311は、第1のゲーム処理手段の一例として、ステップ106の処理を実行する。ここで、ゲームの種類は問わない。ゲームは、例えば、敵オブジェクトEOとの戦いを模擬するゲームである。また、ゲームは、例えば、敵オブジェクトEOと得点の多寡を競うゲームであってもよい。そして、ゲームの実行後、情報処理部31は、ユーザがゲームにおいて成功したか否かを判定する(ステップ107)。情報処理部31は、成功または不成功を判定する手段の一例として、ステップ107の処理を実行する。成功とは、例えば、ユーザが、敵オブジェクトEOと戦うゲームにおいて、敵オブジェクトEOに勝利した場合である。また、成功とは、例えば、敵オブジェクトEOと得点の多寡を競うゲームにおいて、ユーザが敵オブジェクトEOよりも多い得点を得た場合である。また、成功とは、例えば、敵オブジェクトEOが設定した障害等をユーザが克服していくゲームで、ユーザがゴールにたどり着いた場合であってもよい。   Then, the information processing section 31 executes a game using the generated enemy object EO (step 106). The CPU 311 of the information processing unit 31 executes the process of step 106 as an example of the first game processing means. Here, the kind of game is not ask | required. The game is, for example, a game that simulates a battle with the enemy object EO. Further, the game may be, for example, a game that competes with the enemy object EO for a large number of points. After the game is executed, the information processing section 31 determines whether or not the user has succeeded in the game (step 107). The information processing section 31 executes the processing of step 107 as an example of means for determining success or failure. Success is, for example, a case where the user wins the enemy object EO in a game in which the user fights the enemy object EO. Success is, for example, a case where the user has scored more points than the enemy object EO in a game in which the enemy object EO competes for a large number of scores. The success may be, for example, a game in which the user overcomes the obstacle set by the enemy object EO and the user reaches the goal.

なお、ステップ106のゲームには、ステップ101で取得した顔画像を含むキャラクタオブジェクトの他、過去にすでに収集済みの顔画像を用いたキャラクタオブジェクトを登場させるようにしてもよい。例えば、過去にすでに収集済みの顔画像が、敵オブジェクトEOあるいは味方のオブジェクトに貼り付けられて登場することで、ユーザは、実世界の人間関係等を反映したゲームを行うことができる。   In the game at step 106, in addition to the character object including the face image acquired at step 101, a character object using the face image already collected in the past may appear. For example, a face image that has already been collected in the past appears pasted on an enemy object EO or an ally object, so that the user can play a game reflecting human relationships in the real world.

ユーザがゲームで成功した場合には、情報処理部31は、前述のステップ101で取得したメインメモリ32上の顔画像のデータを当該ゲームのセーブデータ記憶域Doにこれまでに保存された顔画像データに加えて保存する(ステップ109)。情報処理部31のCPU311は、保存する手段の一例として、ステップ109の処理を実行する。当該ゲームのセーブデータ記憶域Doは、当該ゲームを実行する情報処理部31が書き込みおよび読み出し可能な、例えば、メインメモリ32、データ保存用内部メモリ35、データ保存用外部メモリ46等に構築される記憶領域である。新たな顔画像のデータが当該ゲームのセーブデータ記憶域Doに格納されることにより、当該ゲームを実行する情報処理部31は、上側LCD22の画面に、例えば、図7、図8で説明した顔画像の一覧に追加して、新たな顔画像のデータを表示できるようになる。このように、図15の処理によれば、ユーザは、ステップ101で取得した顔画像をゲームのセーブデータ記憶域Doに保存するために、ゲーム(第1のゲーム)を実行する。そのゲームには、例えば、ユーザが現在までにセーブデータ記憶域Doにこれまでに保存された顔画像を用いたキャラクタオブジェクトを登場させることで、ゲーム装置10でゲームを実行するユーザは、実世界の人間関係等を反映しつつ、新たな顔画像を収集し、セーブデータ記憶域Doに追加できるのである。   When the user succeeds in the game, the information processing section 31 stores the face image data on the main memory 32 acquired in step 101 described above in the saved data storage area Do of the game so far. In addition to the data, it is stored (step 109). The CPU 311 of the information processing unit 31 executes the process of step 109 as an example of a storing unit. The save data storage area Do of the game is constructed in, for example, the main memory 32, the internal data storage memory 35, the external data storage memory 46, and the like that can be written and read by the information processing unit 31 that executes the game. It is a storage area. When the new face image data is stored in the save data storage area Do of the game, the information processing section 31 that executes the game displays the face described in FIGS. 7 and 8 on the screen of the upper LCD 22, for example. In addition to the image list, new face image data can be displayed. Thus, according to the process of FIG. 15, the user executes the game (first game) in order to save the face image acquired in step 101 in the game save data storage area Do. In the game, for example, a user who executes a game on the game apparatus 10 by making a character object using a face image stored so far in the saved data storage area Do appear so far can be displayed in the real world. New face images can be collected and added to the saved data storage area Do while reflecting the human relationship of the user.

このとき、情報処理部31は、新たに、当該ゲームのセーブデータ記憶域Doに保存された顔画像を管理するため、図12で説明した顔画像管理情報Dn1を生成し、データ保存用内部メモリ35あるいはデータ保存用外部メモリ46に保存する。すなわち、情報処理部31は、新たに顔画像識別情報を生成し、顔画像管理情報Dn1のレコードに設定する。また、新たに、当該ゲームのセーブデータ記憶域Doに保存された顔画像のアドレス等を顔画像データのアドレスに設定する。さらに、顔画像の取得元、性別の推定、年齢の推定、関連する顔画像の識別情報1−Nなどを設定する。   At this time, the information processing section 31 newly generates the face image management information Dn1 described with reference to FIG. 12 to manage the face image stored in the save data storage area Do of the game, and stores the internal data storage memory. 35 or in the external memory 46 for data storage. That is, the information processing section 31 newly generates face image identification information and sets it in the record of the face image management information Dn1. Further, the address of the face image stored in the save data storage area Do of the game is newly set as the address of the face image data. Furthermore, a face image acquisition source, gender estimation, age estimation, and related face image identification information 1-N are set.

さらに、情報処理部31は、セーブデータ記憶域Doに追加した顔画像の属性を推定し、図13で説明した顔画像属性集計表Dn2の集計結果を更新するようにしてもよい。すなわち、情報処理部31は、新たに、セーブデータ記憶域Doに追加した顔画像の性別、年齢等を推定し、顔画像属性集計表Dn2の集計結果に反映するようにしてもよい。   Furthermore, the information processing section 31 may estimate the attribute of the face image added to the save data storage area Do and update the count result of the face image attribute count table Dn2 described with reference to FIG. In other words, the information processing section 31 may newly estimate the gender, age, and the like of the face image added to the save data storage area Do and reflect it in the count result of the face image attribute count table Dn2.

さらに、情報処理部31は、例えば、当該ゲームのセーブデータ記憶域Doに格納されたデータの複製、変更、無線通信モジュール36を通じたデータの転送等をユーザに許容するようにしてもよい。そして、情報処理部31は、ユーザのGUIを通じた操作または操作ボタン14を通じた操作にしたがって、セーブデータ記憶域Doに格納された顔画像の保存、複製、変更、転送等を実行すればよい。   Furthermore, the information processing section 31 may allow the user to copy or change data stored in the save data storage area Do of the game, transfer data through the wireless communication module 36, or the like. Then, the information processing unit 31 only needs to execute saving, copying, changing, transferring, and the like of the face image stored in the save data storage area Do according to the operation through the user GUI or the operation through the operation button 14.

一方、ユーザがゲームで成功しなかった場合には、情報処理部31は、ゲームを再試行するか否かをユーザに問い合わせる(ステップ108)。例えば、上側LCD22に、再試行するか否かの問い合わせのメッセージを表示し、下側LCD12上のGUI(肯定、否定のアイコン、メニュー等)へのタッチパネル13を通じた操作、あるいは操作ボタン14等による操作により、ユーザの選択を受け付ける。ユーザが再試行を指示した場合には、情報処理部31は、制御をステップ106に戻す。一方、ユーザが再試行を指示しなかった場合には、情報処理部31は、ステップ101で取得された顔画像を廃棄し(ステップ110)、処理を終了する。なお、ゲームに成功しなかった場合に、情報処理部31は、ステップ108での再試行の指示を待たずにステップ101で取得した顔画像を廃棄するようにしてもよい。   On the other hand, if the user has not succeeded in the game, the information processing section 31 inquires of the user whether or not to retry the game (step 108). For example, an inquiry message as to whether or not to retry is displayed on the upper LCD 22, and an operation through the touch panel 13 on a GUI (affirmative, negative icon, menu, etc.) on the lower LCD 12 or an operation button 14 is used. A user's selection is received by operation. If the user instructs a retry, the information processing section 31 returns control to step 106. On the other hand, if the user has not instructed the retry, the information processing section 31 discards the face image acquired in step 101 (step 110) and ends the process. If the game is not successful, the information processing section 31 may discard the face image acquired in step 101 without waiting for the retry instruction in step 108.

以下、図16を参照して、顔画像取得処理2(図14のステップ12)の詳細処理例について説明する。この処理では、顔画像取得処理において、2つの外側撮像部23(外側左撮像部23aおよび外側右撮像部23b)よりも先に内側撮像部24による顔画像取得をするように、ユーザを誘導する処理例を説明する。ゲーム装置10がユーザに内側撮像部24による顔画像取得を先に実行させるのは、内側撮像部24による顔画像取得によって、例えば、ゲーム装置10の持ち主等を明確化し、ゲーム装置10の他人による使用を制限できる可能性を高めるためである。   Hereinafter, a detailed processing example of the face image acquisition processing 2 (step 12 in FIG. 14) will be described with reference to FIG. In this process, in the face image acquisition process, the user is guided to acquire the face image by the inner imaging unit 24 before the two outer imaging units 23 (the outer left imaging unit 23a and the outer right imaging unit 23b). A processing example will be described. The game device 10 causes the user to execute the face image acquisition by the inner imaging unit 24 first, for example, by clarifying the owner of the game device 10 by the face image acquisition by the inner imaging unit 24, and by another person of the game device 10 This is to increase the possibility of restricting the use.

図16により、ゲーム装置10の情報処理部31で実行される画像処理プログラムによる動作例を説明する。この処理では、情報処理部31は、まず、内側撮像部24による顔画像取得が済みか否かを判定する(ステップ121)。内側撮像部24による顔画像取得済みか否かは、例えば、図12に示した顔画像管理情報Dn1により、顔画像の取得先として、内側撮像部24が設定されているレコードがあるか否かによって判定すればよい。また、例えば、ゲーム装置10に、内側撮像部24によるゲーム装置10の持ち主の顔画像をゲーム装置10に登録する機能が設けられている場合には、持ち主の顔画像が登録済みか否かで判定してもよい。   An example of an operation by the image processing program executed by the information processing unit 31 of the game apparatus 10 will be described with reference to FIG. In this process, the information processing section 31 first determines whether or not the face image acquisition by the inner imaging section 24 has been completed (step 121). Whether or not the face image has been acquired by the inner imaging unit 24 is, for example, whether or not there is a record in which the inner imaging unit 24 is set as a face image acquisition destination by the face image management information Dn1 shown in FIG. It may be determined by Further, for example, when the game device 10 is provided with a function of registering the face image of the owner of the game device 10 in the game device 10 by the inner imaging unit 24, whether or not the owner's face image has been registered is determined. You may judge.

内側撮像部24による顔画像が取得済みでない場合(ステップ121でNoの場合)には、情報処理部31は、ユーザに対して内側撮像部24による顔画像取得処理を先に実行するように促し(ステップ124)、当該サブルーチンによる処理を終了する。より具体的には、例えば、「ゲーム装置10では内側撮像部24による顔画像が取得済みでないと外側撮像部23による顔画像取得処理が実行できない」旨のメッセージを上側LCD22に表示する。あるいは、情報処理部31は、持ち主の顔画像をまず登録することをユーザに要求するようにしてもよい。   If the face image has not been acquired by the inner imaging unit 24 (No in step 121), the information processing unit 31 prompts the user to execute the face image acquisition process by the inner imaging unit 24 first. (Step 124), the processing by the subroutine is terminated. More specifically, for example, a message stating that “the face image acquisition process by the outer imaging unit 23 cannot be executed unless the face image by the inner imaging unit 24 has been acquired in the game apparatus 10” is displayed on the upper LCD 22. Alternatively, the information processing section 31 may request the user to register the owner's face image first.

一方、内側撮像部24による顔画像取得済みの場合(ステップ121でYesの場合)には、情報処理部31は、顔画像管理支援処理3を実行する(ステップ122)。顔画像管理支援処理3については、図19Cを参照して後述する。そして、情報処理部31は、外側撮像部23による顔画像取得処理を実行する(ステップ123)。例えば、外側撮像部23が使用されている場合には、上側ハウジング21を開いた状態で、ユーザが上側ハウジング21の外側面21Dを他の人物の顔に向けると、上側LCD22には当該他の人物の顔が写し出される。そして、ユーザが、例えば、Rボタン14H(またはLボタン14G)を押下すると、情報処理部31は、上側LCD22に写し出された外側撮像部23からの画像をデータとして取得し、メインメモリ32に一時的に記憶する。この時点では、この画像のデータはメインメモリ32上に存在するのみであり、セーブデータ記憶域Doに保存されていない。このメインメモリ32上のデータは、後述のステップ129によるゲームで利用されるのみであり、後述するように、ゲームが成功せずに終了した場合には廃棄される。   On the other hand, when the face image has been acquired by the inner imaging unit 24 (Yes in Step 121), the information processing unit 31 executes the face image management support process 3 (Step 122). The face image management support process 3 will be described later with reference to FIG. 19C. And the information processing part 31 performs the face image acquisition process by the outer side imaging part 23 (step 123). For example, when the outer imaging unit 23 is used, when the user points the outer surface 21D of the upper housing 21 toward another person's face with the upper housing 21 opened, the upper LCD 22 displays the other The person's face is projected. When the user presses the R button 14H (or L button 14G), for example, the information processing unit 31 acquires an image from the outer imaging unit 23 projected on the upper LCD 22 as data, and temporarily stores it in the main memory 32. Remember me. At this time, the image data exists only on the main memory 32 and is not saved in the save data storage area Do. The data on the main memory 32 is only used in the game in step 129 described later, and is discarded when the game ends without success as described later.

なお、本実施形態の処理では、ステップ123で取得した顔画像も敵オブジェクトEOの顔面部分等にテクスチャマッピングし、ゲームを実行することが可能である。そのため、ステップ123の処理では、上記ステップ101と同様の処理によって、撮像部から取得した画像のうち、特に、顔部分を切り出して顔画像を取得することが望ましい。また、情報処理部31は、ステップ123での顔画像の取得においても、図13の顔画像属性集計表Dn2の該当する行の顔画像取得数を更新する。該当する行とは、例えば、後述する図19Cのステップ1202で推定された性別、年齢に相当する属性の行をいう。   In the process of the present embodiment, the face image acquired in step 123 can be texture-mapped on the face portion or the like of the enemy object EO, and the game can be executed. Therefore, in the process of step 123, it is desirable to cut out a face part and acquire a face image from among images acquired from the imaging unit by the same process as in step 101 above. Further, the information processing section 31 also updates the number of face image acquisitions in the corresponding row of the face image attribute summary table Dn2 in FIG. The corresponding row refers to, for example, a row of attributes corresponding to gender and age estimated in step 1202 of FIG. 19C described later.

次に、情報処理部31は、ステップ123の処理によって取得された画像を、例えば、上側LCD22に表示する(ステップ125)。   Next, the information processing section 31 displays the image acquired by the process of step 123 on, for example, the upper LCD 22 (step 125).

次に、情報処理部31は、敵オブジェクトEOの選択処理を実行する(ステップ126)。ここでは、情報処理部31は、ユーザに敵オブジェクトEOの頭部形状の選択を促す。例えば、図9に示したような頭部形状の一覧を表示し、GUIを通じて、ユーザの選択を受け付けるようにすればよい。そして、情報処理部31は、取得された顔画像を敵オブジェクトEOのテクスチャに設定し(ステップ127)、敵オブジェクトEOを生成する(ステップ128)。ステップ128で生成される敵オブジェクトも第1キャラクタオブジェクトの一例である。情報処理部31は、キャラクタオブジェクトを作成する手段の一例として、ステップ128の処理を実行する。   Next, the information processing section 31 executes an enemy object EO selection process (step 126). Here, the information processing section 31 prompts the user to select the head shape of the enemy object EO. For example, a list of head shapes as shown in FIG. 9 may be displayed and a user's selection may be received through the GUI. Then, the information processing section 31 sets the acquired face image as the texture of the enemy object EO (step 127), and generates the enemy object EO (step 128). The enemy object generated in step 128 is also an example of the first character object. The information processing section 31 executes the process of step 128 as an example of a means for creating a character object.

そして、情報処理部31は、生成された敵オブジェクトEOを用いたゲームを実行する(ステップ129)。情報処理部31のCPU311は、第1のゲーム処理手段の一例として、ステップ129の処理を実行する。上記ステップ129で行われるゲームは、上記ステップ106と同様である。すなわち、上記ステップ129で行われるゲームの種類は様々であり、例えば、敵オブジェクトEOとの戦いを模擬するゲームや、敵オブジェクトEOと得点の多寡を競うゲームが考えられる。そして、ゲームの実行後、情報処理部31は、ユーザがゲームにおいて成功したか否かを判定する(ステップ130)。情報処理部31は、成功または不成功を判定する手段の一例として、ステップ130の処理を実行する。成功とは、例えば、ユーザが、敵オブジェクトEOと戦うゲームにおいて、敵オブジェクトEOに勝利した場合である。また、成功とは、例えば、敵オブジェクトEOと得点の多寡を競うゲームにおいて、ユーザが敵オブジェクトEOよりも多い得点を得た場合である。また、成功とは、例えば、敵オブジェクトEOが設定した障害等をユーザが克服していくゲームで、ユーザがゴールにたどり着いた場合であってもよい。   Then, the information processing section 31 executes a game using the generated enemy object EO (step 129). The CPU 311 of the information processing unit 31 executes the process of step 129 as an example of the first game processing unit. The game performed in step 129 is the same as that in step 106. That is, there are various types of games performed in the above step 129. For example, a game that simulates a battle with the enemy object EO and a game that competes with the enemy object EO for scores are considered. Then, after the game is executed, the information processing section 31 determines whether or not the user has succeeded in the game (step 130). The information processing unit 31 executes the process of step 130 as an example of means for determining success or failure. Success is, for example, a case where the user wins the enemy object EO in a game in which the user fights the enemy object EO. Success is, for example, a case where the user has scored more points than the enemy object EO in a game in which the enemy object EO competes for a large number of scores. The success may be, for example, a game in which the user overcomes the obstacle set by the enemy object EO and the user reaches the goal.

なお、ステップ129で実行するゲームには、ステップ123で取得した顔画像を含むキャラクタオブジェクトの他、過去にすでに収集済みの顔画像を用いたキャラクタオブジェクトを登場させるようにしてもよい。例えば、過去にすでに収集済みの顔画像が、敵オブジェクトEOあるいは味方のオブジェクトに貼り付けられて登場することで、ユーザは、実世界の人間関係等を反映したゲームを行うことができる。   In the game executed in step 129, in addition to the character object including the face image acquired in step 123, a character object using the face image already collected in the past may appear. For example, a face image that has already been collected in the past appears pasted on an enemy object EO or an ally object, so that the user can play a game reflecting human relationships in the real world.

ユーザがゲームで成功した場合には、情報処理部31は、前述のステップ123で取得したメインメモリ32上の顔画像のデータを当該ゲームのセーブデータ記憶域Doにこれまでに保存された顔画像データに加えて保存し(ステップ132)、当該サブルーチンによる処理を終了する。情報処理部31のCPU311は、保存する手段の一例として、ステップ132の処理を実行する。新たな顔画像のデータが当該ゲームのセーブデータ記憶域Doに格納されることにより、当該ゲームを実行する情報処理部31は、上側LCD22の画面に、例えば、図7および図8で説明した顔画像の一覧に追加して、新たな顔画像のデータを表示できるようになる。このように、図16の処理によれば、ユーザは、ステップ123で取得した顔画像をゲームのセーブデータ記憶域Doに保存するために、ゲーム(第1のゲーム)を実行する。そのゲームには、例えば、ユーザが現在までにセーブデータ記憶域Doにこれまでに保存された顔画像を用いたキャラクタオブジェクトを登場させることで、ゲーム装置10でゲームを実行するユーザは、実世界の人間関係等を反映しつつ、新たな顔画像を収集し、セーブデータ記憶域Doに追加できるのである。   If the user succeeds in the game, the information processing section 31 stores the face image data on the main memory 32 acquired in step 123 described above in the save data storage area Do of the game so far. In addition to the data, the data is stored (step 132), and the processing by the subroutine is terminated. The CPU 311 of the information processing unit 31 executes the process of step 132 as an example of a storing unit. When the new face image data is stored in the save data storage area Do of the game, the information processing unit 31 executing the game displays the face described in FIGS. 7 and 8 on the screen of the upper LCD 22, for example. In addition to the image list, new face image data can be displayed. Thus, according to the process of FIG. 16, the user executes the game (first game) in order to save the face image acquired in step 123 in the game save data storage area Do. In the game, for example, a user who executes a game on the game apparatus 10 by making a character object using a face image stored so far in the saved data storage area Do appear so far can be displayed in the real world. New face images can be collected and added to the saved data storage area Do while reflecting the human relationship of the user.

このとき、情報処理部31は、上記ステップ10における顔画像取得処理1と同様に、新たに、当該ゲームのセーブデータ記憶域Doに保存された顔画像を管理するため、図12で説明した顔画像管理情報Dn1を生成し、データ保存用内部メモリ35あるいはデータ保存用外部メモリ46に保存する。すなわち、情報処理部31は、新たに顔画像識別情報を生成し、顔画像管理情報Dn1のレコードに設定する。また、新たに、当該ゲームのセーブデータ記憶域Doに保存された顔画像のアドレス等を顔画像データのアドレスに設定する。さらに、顔画像の取得元、性別の推定、年齢の推定、関連する顔画像の識別情報1−Nなどを設定する。さらに、情報処理部31は、セーブデータ記憶域Doに追加した顔画像の属性を推定し、図13で説明した顔画像属性集計表Dn2の集計結果を更新するようにしてもよい。すなわち、情報処理部31は、新たに、セーブデータ記憶域Doに追加した顔画像の性別、年齢等を推定し、顔画像属性集計表Dn2の集計結果に反映するようにしてもよい。さらに、情報処理部31は、例えば、当該ゲームのセーブデータ記憶域Doに格納されたデータの複製、変更、無線通信モジュール36を通じたデータの転送等をユーザに許容するようにしてもよい。そして、情報処理部31は、ユーザのGUIを通じた操作または操作ボタン14を通じた操作にしたがって、セーブデータ記憶域Doに格納された顔画像の保存、複製、変更、転送等を実行すればよい。   At this time, in the same way as the face image acquisition process 1 in step 10 above, the information processing unit 31 newly manages the face image stored in the save data storage area Do of the game. Image management information Dn1 is generated and stored in the data storage internal memory 35 or the data storage external memory 46. That is, the information processing section 31 newly generates face image identification information and sets it in the record of the face image management information Dn1. Further, the address of the face image stored in the save data storage area Do of the game is newly set as the address of the face image data. Furthermore, a face image acquisition source, gender estimation, age estimation, and related face image identification information 1-N are set. Furthermore, the information processing section 31 may estimate the attribute of the face image added to the save data storage area Do and update the count result of the face image attribute count table Dn2 described with reference to FIG. In other words, the information processing section 31 may newly estimate the gender, age, and the like of the face image added to the save data storage area Do and reflect it in the count result of the face image attribute count table Dn2. Furthermore, the information processing section 31 may allow the user to copy or change data stored in the save data storage area Do of the game, transfer data through the wireless communication module 36, or the like. Then, the information processing unit 31 only needs to execute saving, copying, changing, transferring, and the like of the face image stored in the save data storage area Do according to the operation through the user GUI or the operation through the operation button 14.

一方、ユーザがゲームで成功しなかった場合には、情報処理部31は、ゲームを再試行するか否かをユーザに問い合わせる(ステップ131)。例えば、上側LCD22に、再試行するか否かの問い合わせのメッセージを表示し、下側LCD12上のGUI(肯定、否定のアイコン、メニュー等)へのタッチパネル13を通じた操作、あるいは操作ボタン14等による操作により、ユーザの選択を受け付ける。ユーザが再試行を指示した場合には、情報処理部31は、制御をステップ129に戻す。一方、ユーザが再試行を指示しなかった場合には、情報処理部31は、ステップ123で取得された顔画像を廃棄し(ステップ133)、当該サブルーチンによる処理を終了する。なお、ゲームに成功しなかった場合に、情報処理部31は、ステップ131での再試行の指示を待たずにステップ123で取得した顔画像を廃棄するようにしてもよい。   On the other hand, if the user has not succeeded in the game, the information processing section 31 inquires of the user whether or not to retry the game (step 131). For example, an inquiry message as to whether or not to retry is displayed on the upper LCD 22, and an operation through the touch panel 13 on a GUI (affirmative, negative icon, menu, etc.) on the lower LCD 12 or an operation button 14 is used. A user's selection is received by operation. If the user instructs a retry, the information processing section 31 returns the control to step 129. On the other hand, if the user has not instructed the retry, the information processing section 31 discards the face image acquired in step 123 (step 133) and ends the processing by the subroutine. If the game is not successful, the information processing section 31 may discard the face image acquired in step 123 without waiting for a retry instruction in step 131.

図17は、一覧表示処理(図14のステップ14)の詳細処理の一例を示すフローチャートである。この処理では、情報処理部31は、まず、登録済みの顔画像をデータ保存用内部メモリ35またはデータ保存用外部メモリ46のセーブデータ記憶域Doから読み出し、上側LCD22に表示する(ステップ140)。より具体的には、情報処理部31は、セーブデータ記憶域Doに保存された顔画像管理情報Dn1から、それぞれの顔画像データのアドレスを取得する。そして、データ保存用内部メモリ35内またはデータ保存用外部メモリ46等のアドレスから、顔画像を読み出し、上側LCD22に表示すればよい。   FIG. 17 is a flowchart illustrating an example of detailed processing of the list display processing (step 14 in FIG. 14). In this process, the information processing section 31 first reads a registered face image from the saved data storage area Do of the data saving internal memory 35 or the data saving external memory 46 and displays it on the upper LCD 22 (step 140). More specifically, the information processing section 31 acquires the address of each face image data from the face image management information Dn1 stored in the save data storage area Do. Then, a face image may be read from the address in the data storage internal memory 35 or the data storage external memory 46 and displayed on the upper LCD 22.

次に、情報処理部31は、ユーザの操作待ちとなる(ステップ141)。そして、ユーザの操作によって、顔画像が選択状態にあるか否かを判定する(ステップ142)。顔画像が選択状態にあるか否かは、図7および図8に示したように、上側LCD22に顔画像の一覧が表示されているときに、ユーザが操作ボタン14等を押下した後の操作状態、あるいはGUIを通じた操作状態等で判断される。なお、選択状態にある顔画像は、図7および図8に示したように、例えば、太線L1や太線L2等で囲まれて表示される。   Next, the information processing section 31 waits for a user operation (step 141). Then, it is determined by the user's operation whether or not the face image is in a selected state (step 142). Whether or not the face image is in the selected state is determined after the user presses the operation button 14 or the like when the list of face images is displayed on the upper LCD 22 as shown in FIGS. Judgment is made based on the state or the operation state through the GUI. Note that the face image in the selected state is displayed surrounded by, for example, the thick line L1, the thick line L2, etc., as shown in FIGS.

そして、いずれかの顔画像が選択状態にある場合に、情報処理部31は、顔画像管理情報Dn1(図12参照)を用いて、選択状態にある顔画像と関連する顔画像を検索する(ステップ143)。   Then, when any face image is in the selected state, the information processing section 31 uses the face image management information Dn1 (see FIG. 12) to search for a face image related to the selected face image (see FIG. 12). Step 143).

そして、情報処理部31は、検索された顔画像の視線を選択状態にある顔画像に向ける等、検索された顔画像が反応する処理を実行する(ステップ144)。検索された顔画像が反応する処理は、例えば、以下の手順で実行できる。例えば、事前に、目の向きを図8の他の顔画像に向ける複数の目のパターン、顔の向きを図8の他の顔画像に向ける複数の顔のパターン等を用意しておく。そして、検索された顔画像の位置と、選択状態にある顔画像の位置との関係から、該当する目の向き、顔の向きのパターンを選択する。そして、すでに表示中の顔画像の目の向き、顔の向きのパターン等に代えて、該当する顔画像の目の向き、顔の向きのパターン等を表示すればよい。すなわち、検索された顔画像の位置と、選択状態にある顔画像の位置との関係から決定される目の部分の画像を元の顔画像の目の部分と入れ替えればよい。また、顔の向きを変える場合には、顔画像全体を入れ替えて表示してもよい。また、例えば、目の向きについて、予め、所定の角度、例えば、15度単位で、360度方向に向きを変えるパターンを用意しておいてもよい。そして、選択状態にある顔画像と検索された顔画像のとの位置関係から、角度を決定し、決定した角度に最も近い角度の目のパターンを選択するようにしてもよい。   Then, the information processing section 31 executes a process in which the searched face image reacts, such as directing the line of sight of the searched face image to the selected face image (step 144). The process in which the searched face image reacts can be executed by the following procedure, for example. For example, a plurality of eye patterns in which the direction of eyes is directed to other face images in FIG. 8 and a plurality of face patterns in which the direction of faces are directed to other face images in FIG. 8 are prepared in advance. Then, based on the relationship between the position of the searched face image and the position of the face image in the selected state, the corresponding eye orientation and face orientation pattern are selected. Then, instead of the eye orientation and face orientation pattern of the face image already displayed, the eye orientation and face orientation pattern of the corresponding face image may be displayed. That is, the image of the eye part determined from the relationship between the position of the searched face image and the position of the face image in the selected state may be replaced with the eye part of the original face image. Further, when changing the orientation of the face, the entire face image may be replaced and displayed. Further, for example, a pattern for changing the direction in the direction of 360 degrees in a predetermined angle, for example, 15 degrees may be prepared in advance. Then, an angle may be determined from the positional relationship between the face image in the selected state and the searched face image, and an eye pattern having an angle closest to the determined angle may be selected.

さらに、顔の向きについては、画面の法線方向に向く場合を0度して、左右方向に、例えば、30度、60度、90度等の角度で向きを変えた顔画像のパターンを用意する。また、上下方向に、例えば、30度程度向きを変えたパターンを用意する。さらに、左右方向で90度の角度で向きを変えた顔画像に対して、さらに、上下方向、つまり斜め上(例えば、15度上、30度上、45度上等)、斜め下(例えば、15度下、30度下、45度下方向等)に、向きを変えたパターン等を用意しておけばよい。そして、選択状態にある顔画像と検索された顔画像のとの位置関係から、角度を決定し、該当する角度に最も近い顔の角度を選択するようにすればよい。さらに、親密さを強調するため、3次元モデルのアニメーションによって片目をつぶる等の表情を表示すればよい。また、ハートマーク等を用意しておき、選択状態にある顔画像に関連する顔画像の近傍に表示するようにしてもよい。   Furthermore, with regard to the orientation of the face, a face image pattern is prepared in which the orientation is 0 degrees when facing in the normal direction of the screen and the orientation is changed at an angle of 30 degrees, 60 degrees, 90 degrees, etc. in the left-right direction. To do. Also, a pattern whose direction is changed by about 30 degrees in the vertical direction is prepared. Furthermore, with respect to a face image whose direction has been changed by 90 degrees in the left-right direction, it is further up and down, that is, diagonally upward (for example, 15 degrees upward, 30 degrees upward, 45 degrees upward, etc.), diagonally downward (for example, It is sufficient to prepare a pattern whose direction has been changed to 15 degrees, 30 degrees, 45 degrees, or the like. Then, the angle may be determined from the positional relationship between the face image in the selected state and the searched face image, and the face angle closest to the corresponding angle may be selected. Furthermore, in order to emphasize intimacy, an expression such as closing one eye may be displayed by animation of a three-dimensional model. Also, a heart mark or the like may be prepared and displayed near the face image related to the face image in the selected state.

ステップ142の判定で、顔画像が選択状態にない場合には、情報処理部31は、その他の処理を実行する(ステップ145)。その他の処理とは、例えば、下側LCD12上の他のGUIに対する操作、顔画像の選択に用いる操作ボタン14(ボタン14a、14b、14c等)以外の操作ボタン14に対する処理などである。その後、情報処理部31は、処理を終了するか否かを判定する(ステップ146)。例えば、情報処理部31は、図8の画面が表示されているときに、ボタン14c(Bボタン)の押下を検知すると、「戻る」の指示がなされたと判断し、図17の処理を終了する。処理を終了しない場合には、情報処理部31は、制御をステップ140に戻す。   If it is determined in step 142 that the face image is not in the selected state, the information processing section 31 performs other processing (step 145). The other processes include, for example, operations on other GUIs on the lower LCD 12 and processes on the operation buttons 14 other than the operation buttons 14 (buttons 14a, 14b, 14c, etc.) used for selecting a face image. Thereafter, the information processing section 31 determines whether or not to end the process (step 146). For example, when the information processing unit 31 detects that the button 14c (B button) is pressed while the screen of FIG. 8 is displayed, the information processing unit 31 determines that a “return” instruction has been issued and ends the processing of FIG. . If the process is not terminated, the information processing section 31 returns the control to step 140.

図18は、配役決定処理(図14のステップ16)の詳細処理の一例を示すフローチャートである。この処理では、情報処理部31は、まず、敵オブジェクトEOの頭部形状の一覧を表示する(ステップ160)。なお、ここでは、敵オブジェクトEOを例に説明するが、敵オブジェクトEO以外の他のキャラクタオブジェクトを生成する場合も、処理は、以下と同様である。情報処理部31は、予め、例えば、ゲーム装置10の出荷前、画像処理プログラムのインストール時、あるいは、バージョンアップ時に、敵オブジェクトEOの頭部形状をデータ保存用内部メモリ35に格納する。情報処理部31は、現在、データ保存用内部メモリ35に格納されている敵オブジェクトEOの頭部形状を読み出し、図9に例示するような配置で表示する。   FIG. 18 is a flowchart showing an example of detailed processing of the casting determination processing (step 16 in FIG. 14). In this process, the information processing section 31 first displays a list of head shapes of the enemy object EO (step 160). Here, the enemy object EO is described as an example, but the process is the same as the following when a character object other than the enemy object EO is generated. The information processing section 31 stores the head shape of the enemy object EO in the data storage internal memory 35 in advance, for example, before shipment of the game apparatus 10, at the time of installation of the image processing program, or at the time of version upgrade. The information processing section 31 reads the head shape of the enemy object EO currently stored in the data storage internal memory 35 and displays it in the arrangement as illustrated in FIG.

次に、情報処理部31は、ユーザのGUIまたは操作ボタン14等による選択操作を検出し、敵オブジェクトEOの頭部形状の選択を受け付ける(ステップ161)。敵オブジェクトEOの頭部形状の選択が終了すると、次に、情報処理部31は、顔画像一覧を表示する(ステップ162)。そして、情報処理部31は、ユーザのGUIまたは操作ボタン14等による選択操作を検出し、顔画像の選択を受け付ける(ステップ163)。なお、図18の処理例では、ステップ163において、選択操作を検出することで、情報処理部31は、顔画像を決定する。しかし、このような処理に代えて、情報処理部31が自動的に顔画像を決定するようにしてもよい。例えば、情報処理部31がセーブデータ記憶域Doに蓄積された顔画像から、ランダムに顔画像を選択してもよい。また、情報処理部31が、ゲーム装置10でのユーザのゲームの履歴をメインメモリ32、外部メモリ45,データ保存用外部メモリ46,データ保存用内部メモリ35等に保存しておき、そのユーザの履歴から推定されるユーザの特性、指向等にしたがって、顔画像を選択してもよい。例えば、過去にユーザが顔画像を選択した頻度比率にしたがって、次に選択すべき顔画像を決定してもよい。   Next, the information processing section 31 detects a selection operation by the user GUI or the operation button 14 and receives the selection of the head shape of the enemy object EO (step 161). When the selection of the head shape of the enemy object EO is completed, the information processing section 31 then displays a face image list (step 162). Then, the information processing section 31 detects a selection operation by the user's GUI or the operation button 14 and receives a selection of a face image (step 163). In the processing example of FIG. 18, in step 163, the information processing unit 31 determines a face image by detecting a selection operation. However, instead of such processing, the information processing section 31 may automatically determine a face image. For example, the information processing unit 31 may randomly select a face image from the face images stored in the save data storage area Do. In addition, the information processing unit 31 stores a user's game history on the game apparatus 10 in the main memory 32, the external memory 45, the data storage external memory 46, the data storage internal memory 35, and the like. A face image may be selected according to the user characteristics, orientation, etc. estimated from the history. For example, the face image to be selected next may be determined according to the frequency ratio with which the user has selected the face image in the past.

そして、情報処理部31は、選択された顔画像を敵オブジェクトEOのテクスチャに設定する(ステップ164)。そして、選択された顔画像を敵オブジェクトEOの顔面部分にテクスチャマッピングすることにより、敵オブジェクトEOを生成する(ステップ165)。ステップ165で生成される敵オブジェクトが第2キャラクタオブジェクトの一例である。そして、情報処理部31は、生成した敵オブジェクトEOを上側LCD22の画面に、例えば、図10の敵オブジェクトEOのような態様で表示する。   Then, the information processing section 31 sets the selected face image as the texture of the enemy object EO (step 164). Then, the enemy face EO is generated by texture mapping the selected face image on the face portion of the enemy object EO (step 165). The enemy object generated in step 165 is an example of a second character object. Then, the information processing section 31 displays the generated enemy object EO on the screen of the upper LCD 22 in a manner like the enemy object EO in FIG.

さらに、情報処理部31は、関連する顔画像が反応する処理を実行する(ステップ166)。この処理は、図17のステップ143およびステップ144の処理と同様である。さらに、情報処理部31は、生成した敵オブジェクトEOを確定するか否かをユーザのGUIに対する操作にしたがって判定する(ステップ167)。そして、敵オブジェクトEOを確定しない場合、情報処理部31は、制御をステップ162に戻し、顔画像の選択を受け付ける。ただし、敵オブジェクトEOを確定しない場合、情報処理部31は、制御をステップ160に戻し、敵オブジェクトEOの頭部形状の選択を受け付けるようにしてもよい。一方、敵オブジェクトEOを確定する場合、情報処理部31は、処理を終了する。情報処理部31は、この確定した敵オブジェクトEOを用いて、図14のステップ18のゲーム処理を実行する。ただし、図18には明示されていないが、敵オブジェクトEOを確定しないで、図18の処理を終了するように、GUIのメニュー等を用意するようにしてもよい。   Furthermore, the information processing section 31 executes a process in which the related face image reacts (step 166). This processing is the same as the processing in step 143 and step 144 in FIG. Further, the information processing section 31 determines whether or not to confirm the generated enemy object EO according to the user's operation on the GUI (step 167). If the enemy object EO is not confirmed, the information processing section 31 returns control to step 162 and accepts selection of a face image. However, when the enemy object EO is not confirmed, the information processing section 31 may return the control to Step 160 and accept the selection of the head shape of the enemy object EO. On the other hand, when confirming the enemy object EO, the information processing section 31 ends the process. The information processing section 31 executes the game process of step 18 in FIG. 14 using the confirmed enemy object EO. However, although not explicitly shown in FIG. 18, a GUI menu or the like may be prepared so as to end the processing of FIG. 18 without determining the enemy object EO.

図19Aは、顔画像管理支援処理1(図14のステップ1A)の詳細処理例を示すフローチャートである。この処理では、情報処理部31は、顔画像属性集計表Dn2から取得済みの顔画像の属性を読み出す(ステップ1A1)。そして、情報処理部31は、読み出した顔画像属性集計表Dn2から、未取得の属性または顔画像取得数の少ない属性を検索する。未取得の属性とは、例えば、図13に例示した表で、顔画像取得数が0の属性をいう。また、顔画像取得数の少ない属性とは、例えば、図13に例示した表中の顔画像取得数をソーティングキーとして、ソーティングしたときに、顔画像取得数が下位から所定の順位に含まれる属性をいう。   FIG. 19A is a flowchart illustrating an example of detailed processing of face image management support processing 1 (step 1A in FIG. 14). In this process, the information processing section 31 reads the acquired face image attributes from the face image attribute count table Dn2 (step 1A1). Then, the information processing section 31 searches the face image attribute count table Dn2 that has been read for an attribute that has not been acquired or that has a small number of face image acquisitions. The unacquired attribute is, for example, an attribute whose face image acquisition count is 0 in the table illustrated in FIG. In addition, the attribute having a small number of face image acquisitions is an attribute in which the number of face image acquisitions is included in a predetermined order from the bottom when sorting is performed using the number of face image acquisitions in the table illustrated in FIG. 13 as a sorting key. Say.

次に、情報処理部31は、ユーザに対して、未取得の属性に該当する顔画像の取得を促す処理を実行する(ステップ1A2)。例えば、情報処理部31は、図13に例示した表から、属性「男性」、属性「10歳代」、および用語「画像取得数0」を組み合わせたメッセージを下側LCD12または上側LCD22に表示すればよい。また、例えば、情報処理部31は、属性「男性」、属性「10歳代」および用語「画像取得数が少ない」を組み合わせたメッセージを表示してもよい。ただし、表示する属性の組み合わせ(図13の表の行)の数は、1件に限られず、2件以上を表示してもよい。そして、例えば、ユーザによる操作ボタン14B(Aボタン)の押下を検知したときに、情報処理部31は、図19Aの処理を終了すればよい。すると、その後、情報処理部31は、図14のステップ8に制御を戻す。   Next, the information processing section 31 executes processing for prompting the user to acquire a face image corresponding to an unacquired attribute (step 1A2). For example, the information processing unit 31 displays a message combining the attribute “male”, the attribute “10's”, and the term “image acquisition number 0” on the lower LCD 12 or the upper LCD 22 from the table illustrated in FIG. That's fine. Further, for example, the information processing section 31 may display a message in which the attribute “male”, the attribute “10s” and the term “the number of image acquisition is small” are combined. However, the number of attribute combinations to be displayed (the rows in the table of FIG. 13) is not limited to one, and two or more may be displayed. For example, when detecting that the user presses the operation button 14B (A button), the information processing section 31 may end the process of FIG. 19A. Then, the information processing section 31 returns control to step 8 in FIG.

なお、ここでは、図19Aに示した顔画像管理支援処理1を図14の終了判定時(ステップ1A)の詳細処理例として説明した。しかし、顔画像管理支援処理1は、ゲーム実行後、終了判定時(ステップ1A)のタイミングでの実行に限定されるわけではない。例えば、情報処理部31は、一覧表示処理(ステップ14)、配役決定処理(ステップ16)、ゲーム実行(ステップ18)等の処理中に、ユーザに顔画像の取得を促すために、顔画像管理支援処理1を実行してもよい。   Here, the face image management support processing 1 shown in FIG. 19A has been described as a detailed processing example at the time of termination determination (step 1A) in FIG. However, the face image management support processing 1 is not limited to the execution at the timing of the end determination (step 1A) after the game is executed. For example, the information processing unit 31 performs facial image management in order to prompt the user to acquire facial images during processing such as list display processing (step 14), casting determination processing (step 16), and game execution (step 18). Support process 1 may be executed.

図19Bは、顔画像管理支援処理2(図15のステップ100)の詳細処理例を示すフローチャートである。この処理では、情報処理部31は、まず、取得画像数を参照し、取得画像の有無を判定する(ステップ1000)。情報処理部31は、取得画像数を、例えば、顔画像管理情報Dn1のレコード数として、メインメモリ32、外部メモリ45、データ保存用外部メモリ46、データ保存用内部メモリ35等に記憶しておけばよい。   FIG. 19B is a flowchart illustrating an example of detailed processing of face image management support processing 2 (step 100 in FIG. 15). In this processing, the information processing section 31 first determines the presence or absence of an acquired image by referring to the number of acquired images (step 1000). The information processing section 31 can store the number of acquired images as, for example, the number of records of the face image management information Dn1 in the main memory 32, the external memory 45, the external data storage memory 46, the internal data storage memory 35, and the like. That's fine.

そして、取得画像がない場合(ステップ1000の判定でNoの場合)、情報処理部31は、処理を終了する。一方、取得画像がある場合(ステップ1000の判定でYesの場合)、情報処理部31は、制御をステップ1001に進める。そして、情報処理部31は、顔画像の取得要求を受け付ける(ステップ1001)。情報処理部31は、例えば、内側撮像部24あるいは、外側撮像部23を通じて、上側LCD22に顔画像が写し出されている状態で、Lボタン14GまたはRボタン14Hによる取得指示を受け付けた場合に、顔画像の取得要求を認識する。   If there is no acquired image (No in step 1000), the information processing section 31 ends the process. On the other hand, if there is an acquired image (Yes in step 1000), the information processing section 31 advances the control to step 1001. Then, the information processing section 31 accepts a face image acquisition request (step 1001). When the information processing unit 31 receives an acquisition instruction from the L button 14G or the R button 14H in a state where a face image is projected on the upper LCD 22 through the inner imaging unit 24 or the outer imaging unit 23, for example, Recognize image acquisition requests.

すると、情報処理部31は、内側撮像部24あるいは、外側撮像部23を通じて取得され、上側LCD22に顔画像が写し出されている顔画像の属性、例えば、性別と年齢を推定する(ステップ1002)。例えば、性別は、顔画像に含まれる頬骨、顎骨を含む骨格の大きさ、顔の寸法から推定できる。すなわち、情報処理部31は、目と目の距離、および目と口の距離に対する、顔の輪郭の相対寸法(例えば、顔の幅、目と顎の距離等)を算出する。そして、相対寸法が統計的に得られている男性平均値に近い場合に、顔画像が男性であると判定すればよい。また、例えば、相対寸法が統計的に得られている男性平均値に近い場合に、顔画像が男性であると判定すればよい。   Then, the information processing unit 31 estimates the attributes of the face image acquired through the inner imaging unit 24 or the outer imaging unit 23 and the face image is projected on the upper LCD 22, such as gender and age (step 1002). For example, the gender can be estimated from the cheekbone included in the face image, the size of the skeleton including the jawbone, and the face size. In other words, the information processing unit 31 calculates the relative dimensions of the face outline (for example, the width of the face, the distance between the eyes and the jaw) with respect to the distance between the eyes and the distance between the eyes. Then, when the relative dimension is close to the statistically obtained male average value, the face image may be determined to be male. Further, for example, when the relative dimension is close to the male average value obtained statistically, it may be determined that the face image is male.

また、情報処理部31は、性別ごとに、年齢層(例えば、10歳未満、10代、20代、30代、40代、50代、60代、70以上等)ごとに、顔のパーツの平均の位置、および、顔の部分におけるしわの本数等の特徴情報を事前に記憶しておけばよい。そして、情報処理部は、例えば、外側撮像部23を通じて取得され、上側LCD22に顔画像が写し出されている顔画像の上記特徴情報を算出し、算出した特徴情報が最も近い年齢層を推定すればよい。ただし、以上の性別と年齢の特定についての説明は例示であり、性別と年齢の判定は、上記の処理に限定される訳ではない。ステップ1002の処理では、従来から提案されている様々な性別判定技術、年齢特定技術を適用できる。   In addition, the information processing unit 31 sets the facial parts for each gender, for each age group (for example, younger than 10 years, 10s, 20s, 30s, 40s, 50s, 60s, 70 or more). Characteristic information such as the average position and the number of wrinkles in the face portion may be stored in advance. For example, the information processing unit calculates the feature information of the face image acquired through the outer imaging unit 23 and the face image is projected on the upper LCD 22, and estimates the age group with the closest calculated feature information. Good. However, the above description of specifying the sex and age is an example, and the determination of the sex and age is not limited to the above processing. In the processing of step 1002, various gender determination techniques and age identification techniques that have been proposed in the past can be applied.

次に、情報処理部31は、ユーザに対して、未取得の属性の顔画像取得を促す(ステップ1003)。例えば、情報処理部31は、上側LCD22に、未取得の属性の顔画像取得を促すメッセージを表示すればよい。この処理は、図19Aの処理と同様である。そして、情報処理部31は、ユーザの操作によって、取得対象の顔画像が変更されたか否かを判定する(ステップ1004)。例えば、情報処理部31は、内側撮像部24あるいは、外側撮像部23を通じて取得される画像に含まれる顔画像の特徴、例えば、目と目の距離、目と口の距離が変化した場合に、取得対象の顔画像が変更されたと判定する。また、例えば、単に、Lボタン14GまたはRボタン14Hによる取得指示が解除され、再び、Lボタン14GまたはRボタン14Hによる取得指示がなされた場合に、情報処理部31は、取得対象の顔画像が変更されたと判定してもよい。そして、取得対象の顔画像が変更された場合に、情報処理部31は、制御をステップ1002に戻す。   Next, the information processing section 31 prompts the user to acquire a face image having an unacquired attribute (step 1003). For example, the information processing unit 31 may display a message prompting the upper LCD 22 to acquire a face image having an unacquired attribute. This process is the same as the process of FIG. 19A. Then, the information processing section 31 determines whether or not the face image to be acquired has been changed by a user operation (step 1004). For example, the information processing unit 31 changes the characteristics of the face image included in the image acquired through the inner imaging unit 24 or the outer imaging unit 23, for example, the distance between the eyes and the distance between the eyes and the mouth. It is determined that the face image to be acquired has changed. Further, for example, when the acquisition instruction by the L button 14G or the R button 14H is simply canceled and the acquisition instruction by the L button 14G or the R button 14H is made again, the information processing unit 31 displays the face image to be acquired. You may determine with having changed. Then, when the face image to be acquired is changed, the information processing section 31 returns the control to step 1002.

一方、取得対象の顔画像が変更されなかった場合に、情報処理部31は、そのまま処理を終了する。ここで、取得対象の顔画像が変更されなかった場合とは、例えば、ユーザがGUI、あるいは、操作ボタン14C(Bボタン)等によって、顔画像管理支援処理2を終了した場合である。また、例えば、取得対象の顔画像が変更されない状態が所定時間持続した場合等に、情報処理部31は、取得対象の顔画像が変更されなかったと判定してもよい。この場合には、情報処理部31は、制御を図15のステップ101に進め、顔画像取得処理を実行する。なお、すでに、図15のステップ101の処理で説明したように、情報処理部31は、図13の顔画像属性集計表Dn2の該当する行の顔画像取得数を更新する。   On the other hand, when the face image to be acquired is not changed, the information processing section 31 ends the process as it is. Here, the case where the face image to be acquired has not been changed is, for example, a case where the user has finished the face image management support processing 2 by using the GUI or the operation button 14C (B button). For example, the information processing unit 31 may determine that the face image to be acquired has not been changed when the face image to be acquired has not been changed for a predetermined time. In this case, the information processing section 31 advances the control to step 101 in FIG. 15 and executes face image acquisition processing. As already described in the processing of step 101 in FIG. 15, the information processing section 31 updates the number of face image acquisitions in the corresponding row in the face image attribute summary table Dn2 in FIG.

また、ステップ1004の判定処理で、取得対象の顔画像が変更されなかった場合とは、例えば、目と目の距離、目と口の距離の変化量が許容値以内である場合である。また、例えば、単に、Lボタン14GまたはRボタン14Hによる取得指示が解除されることなく、そのまま所定時間、取得指示が継続した場合に、情報処理部31は、取得指示が解除されなかったと判断してよい。   The case where the face image to be acquired is not changed in the determination processing in step 1004 is, for example, a case where the amount of change in the distance between the eyes and the distance between the eyes and the mouth is within an allowable value. Also, for example, when the acquisition instruction continues for a predetermined time without simply canceling the acquisition instruction by the L button 14G or the R button 14H, the information processing section 31 determines that the acquisition instruction has not been canceled. It's okay.

図19Cは、顔画像管理支援処理3(図16のステップ122)の詳細処理例を示すフローチャートである。図19Cの処理(ステップ1201からステップ1204)は、図19Bの処理のステップ1001からステップ1004と同様であるので、その説明を省略する。   FIG. 19C is a flowchart illustrating an example of detailed processing of face image management support processing 3 (step 122 in FIG. 16). The processing in FIG. 19C (step 1201 to step 1204) is the same as the processing in step 1001 to step 1004 in FIG.

図19Aから図19Cの処理によれば、情報処理部31は、未取得の属性に該当する顔画像を優先して取得をするように、ユーザを誘導する。このような処理によって、極力、属性の偏りのない顔画像取得を望むユーザの顔画像収集処理を支援することができる。   19A to 19C, the information processing section 31 guides the user to preferentially acquire face images corresponding to unacquired attributes. By such a process, it is possible to support the face image collection process of a user who desires to acquire a face image with no attribute bias as much as possible.

なお、本実施形態では、年齢層を10歳未満、10代、20代、30代、40代、50代、60代、70以上のように分類する処理例を示した。しかし、本発明の実施は、このような年齢層の分類に限定される訳ではない。例えば、さらに細かく年齢層を分類するようにしてもよい。また、逆に、子供、大人、老人等のように、粗く年齢層を分類するようにしてもよい。   In addition, in this embodiment, the process example which classifies an age group like less than 10 years old, 10 generations, 20 generations, 30 generations, 40 generations, 50 generations, 60 generations, 70 or more was shown. However, the implementation of the present invention is not limited to such age group classification. For example, the age group may be further classified. Conversely, the age group may be roughly classified as a child, an adult, an elderly person, or the like.

本実施形態では、Lボタン14GまたはRボタン14Hによる取得指示を受け付けた場合に、情報処理部31が顔画像の取得要求を認識した。しかし、そのような処理に代えて、例えば、本実施形態で説明したように、情報処理部31が、目標とする寸法の顔画像を撮像部から取得するために、ゲーム装置10と顔との距離、撮像部の視軸と顔との角度等を誘導するような処理において、顔画像の属性、例えば、性別、年齢を推定してもよい。すなわち、このような誘導処理のため、例えば、情報処理部31が、リアルタイム、あるいは、フレーム周期(1/60秒等)ごとに顔画像を取得する場合に、取得された顔画像から、顔画像の属性を特定すればよい。   In the present embodiment, the information processing unit 31 recognizes a face image acquisition request when an acquisition instruction by the L button 14G or the R button 14H is received. However, instead of such processing, for example, as described in the present embodiment, in order for the information processing unit 31 to acquire a face image having a target size from the imaging unit, the game apparatus 10 and the face In the process of guiding the distance, the angle between the visual axis of the imaging unit and the face, the attributes of the face image, such as sex and age, may be estimated. That is, for such guidance processing, for example, when the information processing unit 31 acquires a face image in real time or every frame period (1/60 seconds or the like), the face image is acquired from the acquired face image. It is sufficient to specify the attribute of.

<ゲーム処理の詳細例>
ここでは、図20A−図40を参照して、顔画像を用いたキャラクタオブジェクトが登場するゲーム処理の一例を説明する。以下の処理は、セーブデータ記憶域Doに蓄積された顔画像を含む敵オブジェクトEOを用いて、例えば、図14のステップ18において、実行される処理である。
<Detailed example of game processing>
Here, an example of a game process in which a character object using a face image appears will be described with reference to FIGS. 20A to 40. The following processing is processing that is executed, for example, in step 18 of FIG. 14 using the enemy object EO including the face image accumulated in the save data storage area Do.

まず、本実施形態において、ゲーム装置10によるゲームプログラムの実行によってプレイヤが遊技可能なゲームの概要について説明する。本実施形態におけるゲームは、プレイヤが、ゲーム内の主人公として、ゲーム世界として用意された仮想の3次元空間に出現する敵キャラクタを撃ち落とす、いわゆるシューティングゲームである。例えば、ゲーム世界をなす仮想の3次元空間(仮想空間(ゲーム空間とも呼ばれる))は、ゲーム装置10の表示画面(例えば、上側LCD22)において、プレイヤの視点(いわゆる主観視点で)で表示される。もちろん、客観視点としてもよい。プレイヤが敵キャラクタを撃ち落とすことで、得点が加算される。これに対し、敵キャラクタとプレイヤとが衝突すると(具体的には、敵キャラクタが仮想カメラの位置から一定距離以内に到達すると)、得点が減点される。   First, in this embodiment, an outline of a game that a player can play by executing a game program by the game apparatus 10 will be described. The game in the present embodiment is a so-called shooting game in which a player shoots down an enemy character that appears in a virtual three-dimensional space prepared as a game world as the main character in the game. For example, a virtual three-dimensional space (virtual space (also referred to as a game space)) forming the game world is displayed on the display screen (for example, the upper LCD 22) of the game apparatus 10 from the player's viewpoint (so-called subjective viewpoint). . Of course, it may be an objective viewpoint. A score is added when the player shoots down an enemy character. On the other hand, when the enemy character and the player collide (specifically, when the enemy character reaches within a certain distance from the position of the virtual camera), the score is reduced.

また、本実施形態のゲームは、ゲーム装置10が備える撮像部により取得される現実世界の画像(以下、「実世界画像」と呼ぶ)と、仮想空間を表現した仮想世界画像とを合成して表示する。具体的には、仮想空間を、仮想カメラに近い領域(以下、「手前側領域」と呼ぶ)と、仮想カメラから遠い領域(以下、「奥側領域」と呼ぶ)に区分して、手前側領域に存在する仮想オブジェクトを表す画像を実世界画像の手前に表示し、奥側領域に存在する仮想オブジェクトを実世界画像の背後に表示する。より具体的には、後述するように、手前側領域に存在する仮想オブジェクトを実世界画像よりも優先し、かつ、実世界画像を奥側領域に存在する仮想オブジェクトよりも優先して合成する。   In addition, the game of the present embodiment combines a real world image (hereinafter referred to as “real world image”) acquired by an imaging unit included in the game apparatus 10 and a virtual world image representing a virtual space. indicate. Specifically, the virtual space is divided into a region close to the virtual camera (hereinafter referred to as “front side region”) and a region far from the virtual camera (hereinafter referred to as “back side region”). An image representing a virtual object existing in the area is displayed in front of the real world image, and a virtual object existing in the back area is displayed behind the real world image. More specifically, as will be described later, the virtual object existing in the near side area is given priority over the real world image, and the real world image is given priority over the virtual object existing in the back side area.

実世界画像と仮想世界画像との合成の手法は問わない。例えば、仮想オブジェクトと同じ仮想空間に、実世界画像をオブジェクトとして存在させて(より具体的には、例えば、仮想オブジェクトのテクスチャとして貼り付けて)、実世界画像を仮想オブジェクトとともに共通の仮想カメラでレンダリングしてもよい。   There is no limitation on the method of combining the real world image and the virtual world image. For example, a real world image exists as an object in the same virtual space as the virtual object (more specifically, for example, pasted as a texture of the virtual object), and the real world image is shared with the virtual object by a common virtual camera. It may be rendered.

また、別の例では、第1の仮想カメラ(以下、実世界描画用カメラと呼ぶ)から実世界画像をレンダリングして第1のレンダリング画像とし、第2の仮想カメラ(以下、仮想世界描画用カメラと呼ぶ)から仮想オブジェクトをレンダリングして第2のレンダリング画像とし、第1のレンダリング画像と第2のレンダリング画像とを、手前側領域に存在する仮想オブジェクトを実世界画像よりも優先し、かつ、実世界画像を奥側領域に存在する仮想オブジェクトよりも優先するように、合成してもよい。   In another example, a real world image is rendered from a first virtual camera (hereinafter referred to as a real world drawing camera) to form a first rendered image, and a second virtual camera (hereinafter referred to as a virtual world drawing camera) is rendered. A virtual object is rendered as a second rendered image from the camera), the first rendered image and the second rendered image are given priority over the virtual object existing in the near side area over the real world image, and The real world image may be synthesized so as to give priority to the virtual object existing in the back area.

前者の方法では、典型的には、実世界画像をテクスチャとして適用したオブジェクト(以下、このオブジェクトをスクリーンオブジェクトと呼ぶ)を手前側領域と奥側領域の境界となる位置に配置し、敵オブジェクトなどの仮想オブジェクトとともに共通の仮想カメラから見て描画してもよい。この場合、典型的には、実世界画像が貼り付けられるオブジェクトは、仮想カメラから一定距離で、かつ、法線が仮想カメラの視線方向と一致するような面を有するオブジェクトであり、この面(以下、境界面と呼ぶ)に実世界画像をテクスチャとして貼り付けてもよい。   In the former method, typically, an object to which a real-world image is applied as a texture (hereinafter referred to as a screen object) is placed at a position that is a boundary between the near side area and the far side area, and an enemy object, etc. You may draw by seeing from a common virtual camera with these virtual objects. In this case, typically, the object to which the real-world image is pasted is an object having a certain distance from the virtual camera and a surface whose normal line coincides with the viewing direction of the virtual camera. Hereinafter, the real world image may be pasted as a texture on the boundary surface.

また、後者の方法では、仮想オブジェクトを手前側領域と奥側領域との境界面(以下、単に境界面と呼ぶ)に対して奥行判定(Zバッファによる判定)を行いつつレンダリングして上記第2のレンダリング画像とし、仮想カメラから一定距離でかつ法線が仮想カメラの視線方向と一致するような面に実世界画像をテクスチャとして貼り付けてレンダリングして上記第1のレンダリング画像とする。そして、第2のレンダリング画像を第1のレンダリング画像に優先して合成するようにすれば、実世界画像が境界面に存在しているように見える画像が合成される。   In the latter method, the virtual object is rendered while performing depth determination (determination by the Z buffer) on the boundary surface between the near side region and the back side region (hereinafter simply referred to as the boundary surface), and the second method described above. The real world image is pasted as a texture on a surface at a constant distance from the virtual camera and the normal line coincides with the viewing direction of the virtual camera, and rendered as the first rendered image. Then, if the second rendering image is synthesized with priority over the first rendering image, an image in which the real world image appears to exist on the boundary surface is synthesized.

いずれの方法においても、実世界画像は仮想カメラの視野範囲を包含するように、仮想カメラからの距離および視野角と実世界画像オブジェクトの大きさ(視線方向についての大きさ)との関係が設定される。   In either method, the relationship between the distance and viewing angle from the virtual camera and the size of the real world image object (size in the line of sight) is set so that the real world image includes the visual field range of the virtual camera. Is done.

なお、以下では、前者の方法を第1の描画方法と呼び、後者の方法を第2の描画方法と呼ぶ。   Hereinafter, the former method is referred to as a first drawing method, and the latter method is referred to as a second drawing method.

また、ゲーム上における所定のイベント発生条件が満たされると、実世界画像の一部が開口され、奥側領域の仮想空間がその開口を通じて見えるように表示される。また、手前側領域には敵キャラクタオブジェクトが存在し、さらに、奥側領域には、所定の条件を満たすと特別な敵キャラクタ(いわゆる「ボスキャラ」)が出現する。ボスキャラクタを撃ち落とすことで、ステージクリアとなる。ステージは幾つか用意されており、全てのステージをクリアすることでゲームクリアとなる。これに対し、所定のゲームオーバー条件が満たされると、ゲームオーバーとなる。   Further, when a predetermined event occurrence condition on the game is satisfied, a part of the real world image is opened and displayed so that the virtual space in the back area can be seen through the opening. An enemy character object exists in the near side area, and a special enemy character (so-called “boss character”) appears in the back side area when a predetermined condition is satisfied. The stage is cleared by shooting down the boss character. Several stages are prepared, and the game is cleared by clearing all stages. On the other hand, when a predetermined game over condition is satisfied, the game is over.

実世界画像に対する開口は、上述の第1の描画方法の典型例では、スクリーンオブジェクトの境界面に対して開口の位置を示すデータを設定してもよい。より具体的には、境界面に適用されるテクスチャ(いわゆるαテクスチャ)の不透明度で開口または非開口を示すようにしてもよい。また、第2の描画方法では、境界面に対して開口の位置を示すデータを設定してもよい。   In the typical example of the first drawing method described above, the opening for the real world image may be set with data indicating the position of the opening with respect to the boundary surface of the screen object. More specifically, an opening or non-opening may be indicated by the opacity of a texture (so-called α texture) applied to the boundary surface. In the second drawing method, data indicating the position of the opening with respect to the boundary surface may be set.

また、本実施形態では、実世界画像に対して開口/非開口を設定したが、実世界画像に対して他の画像処理を行うようにしてもよい。例えば、実世界画像に汚れを付けたりぼかし処理をしたりするなど当業者の技術常識による任意の画像処理を行うことができる。これらの例でも、境界面や境界面に対して、画像処理を行う位置を示すデータが設定されるようにしてもよい。   In this embodiment, opening / non-opening is set for the real world image, but other image processing may be performed on the real world image. For example, it is possible to perform arbitrary image processing based on the common general knowledge of those skilled in the art, such as smearing or blurring a real world image. Also in these examples, data indicating the position where image processing is performed may be set for the boundary surface or the boundary surface.

<ゲーム世界>
このように本実施形態に係るゲームでは、実画像の背後にも仮想空間(奥側領域)が存在することが感じられ、奥行き感が向上した仮想空間を表すゲーム画面が表示される。なお、実世界画像は、単眼カメラで撮像された状態の通常画像であってもよく、複眼カメラで撮像された状態のステレオ画像であってもよい。
<Game World>
As described above, in the game according to the present embodiment, it is felt that there is a virtual space (back side region) behind the real image, and a game screen representing the virtual space with an improved sense of depth is displayed. The real world image may be a normal image captured by a monocular camera or a stereo image captured by a compound eye camera.

本実施形態に係るゲームでは、実世界画像として、外側撮像部23で撮像された画像を用いる。すなわち、ゲームのプレイ中に外側撮像部23で撮像されたプレイヤの周囲の実世界画像(リアルタイムに取得される実世界の動画)が用いられる。従って、ゲーム装置10を保持したユーザ(ゲームのプレイヤ)が、ゲームのプレイ中にゲーム装置10を左右方向、あるいは上下方向に向きを変えて外側撮像部23の撮像範囲を変更すると、上側LCD22に表示される実世界画像も、撮像範囲の変更に追従して変更される。   In the game according to the present embodiment, an image captured by the outer imaging unit 23 is used as a real world image. That is, a real world image (real world moving image acquired in real time) around the player captured by the outer imaging unit 23 during the game play is used. Accordingly, when the user (game player) holding the game apparatus 10 changes the imaging range of the outer imaging unit 23 by changing the orientation of the game apparatus 10 in the left-right direction or the up-down direction while playing the game, the upper LCD 22 is displayed. The displayed real world image is also changed following the change of the imaging range.

ここで、ゲームプレイ中におけるゲーム装置10の向きの変更は、大略して、(1)プレイヤの意図、または(2)ゲーム上の意図(シナリオ)に従って行われる。プレイヤがプレイ中にゲーム装置10の向きを意図的に変えることで、外側撮像部23で撮像される実世界画像が変化し、これにより、上側LCD22に表示される実世界画像を意図的に変更することができる。   Here, the direction change of the game apparatus 10 during the game play is roughly performed in accordance with (1) the intention of the player or (2) the intention (scenario) of the game. When the player intentionally changes the direction of the game apparatus 10 during play, the real world image captured by the outer imaging unit 23 changes, and thereby the real world image displayed on the upper LCD 22 is intentionally changed. can do.

また、ゲーム装置10が備える角速度センサ40によりゲーム装置10の向きの変化が検出され、それに応じて仮想カメラの向きを変更する。より具体的には、外側撮像部23の向きの変化方向に仮想カメラを現在の向きから変化させる。さらに、外側撮像部23の向きの変化量(角度)だけ、仮想カメラを現在の向きから変化させる。すなわち、ゲーム装置10の向きを変えると、実世界画像が変化するとともに、仮想空間のうちの表示される範囲が変化する。すなわち、ゲーム装置10の向きを変更することにより、実世界画像と仮想世界画像が連動して変化し、これにより、現実世界と仮想世界とが関連付いているかのような合成画像を表示することができる。なお、本実施形態においては、仮想カメラの位置は変更しないが、ゲーム装置10の移動を検出して仮想カメラの位置を変更してもよい。   In addition, a change in the orientation of the game device 10 is detected by the angular velocity sensor 40 included in the game device 10, and the orientation of the virtual camera is changed accordingly. More specifically, the virtual camera is changed from the current direction in the direction in which the direction of the outer imaging unit 23 changes. Further, the virtual camera is changed from the current direction by the change amount (angle) of the direction of the outer imaging unit 23. That is, when the orientation of the game apparatus 10 is changed, the real world image changes and the displayed range of the virtual space changes. That is, by changing the orientation of the game apparatus 10, the real world image and the virtual world image change in conjunction with each other, thereby displaying a composite image as if the real world and the virtual world are related to each other. Can do. In the present embodiment, the position of the virtual camera is not changed, but the movement of the game apparatus 10 may be detected to change the position of the virtual camera.

なお、第2の描画方法においては、このような仮想カメラの向き変更処理は、仮想世界描画用カメラに適用され、実世界描画用カメラについては適用されない。   In the second drawing method, the virtual camera orientation changing process is applied to the virtual world drawing camera, and is not applied to the real world drawing camera.

また、ゲームプレイ中に、画面の端(例えば、右端、左端)のような局所にオブジェクトが表示されると、プレイヤに対し、オブジェクトを画面の中心に捉えようとする心理が自然に働き、プレイヤはゲーム装置10(外側撮像部23)を動かす。この結果、画面に表示される実世界画像が変わる。このようなゲーム装置10の向きの変更(実世界画像変更)は、ゲームのシナリオに従って表示されるオブジェクトが意図的に画面の端に表示されるようにプログラミングすることによって、プレイヤが自然に行うようにすることができる。   In addition, if an object is displayed locally such as at the edge of the screen (for example, the right edge or the left edge) during game play, the player will have a psychological feeling of trying to catch the object at the center of the screen, and the player Moves the game apparatus 10 (outside imaging unit 23). As a result, the real world image displayed on the screen changes. Such a change in the orientation of the game apparatus 10 (real world image change) is performed by the player naturally by programming the object displayed according to the game scenario to be intentionally displayed on the edge of the screen. Can be.

<仮想空間の詳細>
(実世界画像の描画)
外側撮像部23で撮像された実世界画像は、仮想空間の手前側領域と奥側領域との境界位置に存在して見えるように合成される。図20Aは、本実施形態における仮想空間の一例を示す。また、図20Bは、本実施形態におけるスクリーンモデルとαテクスチャの関係を示す。第1の描画方法では、実世界画像の表示のため、図20Aに示すように、仮想空間内に仮想カメラの位置を中心とする球体モデル(上述のスクリーンモデル)を設定し、この球体の内面に実世界画像を貼り付け、スクリーンオブジェクトを形成してもよい。より具体的には、スクリーンモデルのうち仮想カメラの視体積内となる部分の全体にテクスチャとして貼り付けられる。スクリーンモデルのうちこの部分以外については、透明に設定されるため画面上で視認されない。この例では、境界面は球体面であり、すなわち、図20Aで示すように、球体の表面により仮想カメラ側が手前側領域(本発明の「第2領域」に相当)であり、球体の表面より仮想カメラからみて遠い側が奥側領域(本発明の「第1領域」に相当)である。
<Details of virtual space>
(Drawing real world images)
The real world image captured by the outer imaging unit 23 is synthesized so that it appears to exist at the boundary position between the near side region and the far side region of the virtual space. FIG. 20A shows an example of a virtual space in the present embodiment. FIG. 20B shows the relationship between the screen model and the α texture in the present embodiment. In the first drawing method, for the display of the real world image, as shown in FIG. 20A, a sphere model (the above-described screen model) centered on the position of the virtual camera is set in the virtual space, and the inner surface of the sphere is displayed. A real world image may be pasted to form a screen object. More specifically, it is pasted as a texture on the entire portion of the screen model that is within the viewing volume of the virtual camera. The screen model other than this part is not visible on the screen because it is set to be transparent. In this example, the boundary surface is a sphere surface, that is, as shown in FIG. 20A, the virtual camera side is the front side region (corresponding to the “second region” of the present invention) by the surface of the sphere, and from the surface of the sphere The far side from the virtual camera is the back side region (corresponding to the “first region” of the present invention).

第2の描画方法では、実世界画像の表示のため、仮想空間内には、実世界画像のテクスチャを貼り付けるための平面ポリゴンが配置される。仮想空間において、平面ポリゴンの実世界描画用カメラに対する相対位置は、常に固定される。すなわち、平面ポリゴンは、実世界描画用カメラから一定の距離を空けて配置され、その法線方向が実世界描画用カメラの視点(視軸)に一致するように配置される。   In the second drawing method, a planar polygon for pasting the texture of the real world image is arranged in the virtual space for displaying the real world image. In the virtual space, the relative position of the planar polygon with respect to the real world drawing camera is always fixed. That is, the plane polygon is arranged at a certain distance from the real world drawing camera, and is arranged so that the normal direction thereof coincides with the viewpoint (visual axis) of the real world drawing camera.

また、この平面ポリゴンは、実世界描画用カメラの視野範囲を包含するように設定される。具体的には、平面ポリゴンの大きさとその仮想カメラからの距離は、平面ポリゴンが仮想カメラの視野範囲を包含可能となるように設定される。この平面ポリゴンの仮想カメラ側の面全体に実世界画像を貼り付けるようにしたので、仮想カメラで、この実世界画像が貼り付けられた平面ポリゴンを描画すると、仮想カメラにより生成される画像において、実世界画像がその全域に対応するように表示される。   Further, the planar polygon is set so as to encompass the visual field range of the real world drawing camera. Specifically, the size of the planar polygon and its distance from the virtual camera are set so that the planar polygon can include the visual field range of the virtual camera. Since the real world image is pasted on the entire surface of the plane polygon on the virtual camera side, when the plane polygon on which the real world image is pasted is drawn with the virtual camera, in the image generated by the virtual camera, The real world image is displayed so as to correspond to the entire area.

なお、図21に示すように、境界面を円筒状にしてもよい。図21は、本実施形態における仮想空間の別の例を示す。この場合、仮想空間には、仮想カメラの位置に立てられた鉛直軸(本実施形態においては、仮想空間のY軸が鉛直方向に対応し、X軸およびZ軸が水平方向に対応するとする)を中心軸とする仮想の円筒周面(境界面)が配置される。ただし、前述の通り、この円筒周面は視認されるオブジェクトではなく、開口処理において用いられるオブジェクトである。この円筒の外周面は、仮想空間を、仮想カメラが位置する第1空間(本発明の「第2領域」に相当)と、この第1空間の周りに存在する第2空間(本発明の「第1領域」に相当)とに区分する。   As shown in FIG. 21, the boundary surface may be cylindrical. FIG. 21 shows another example of the virtual space in the present embodiment. In this case, in the virtual space, the vertical axis set up at the position of the virtual camera (in this embodiment, the Y axis of the virtual space corresponds to the vertical direction, and the X axis and the Z axis correspond to the horizontal direction). An imaginary cylindrical circumferential surface (boundary surface) having a central axis is arranged. However, as described above, this cylindrical circumferential surface is not an object to be visually recognized, but an object used in the opening process. The outer peripheral surface of the cylinder is divided into a virtual space, a first space where the virtual camera is located (corresponding to a “second region” of the present invention) and a second space existing around the first space (“ Equivalent to “first region”).

(実世界画像を開口させるための処理)
さらに、本実施形態に係るゲームでは、実世界画像に開口を設け、実世界画像の背後の奥側領域の存在をプレイヤに認識させる。より明確に言うと、実世界画像のうちこの開口の部分は、透明または半透明で表示され、その背後にある世界がこの部分に合成される。このため、ゲーム内で、所定のイベントの発生を契機に、実世界画像の一部が開口して(消去されて)、その開口を通して実世界画像の背後に存在する他の仮想空間(奥側領域)を示す画像が表示される。
(Process for opening real world images)
Furthermore, in the game according to the present embodiment, an opening is provided in the real world image, and the player is made aware of the existence of the back side area behind the real world image. More specifically, the opening portion of the real world image is displayed as transparent or translucent, and the world behind it is combined with this portion. For this reason, in the game, when a predetermined event occurs, a part of the real world image is opened (erased) and another virtual space (back side) existing behind the real world image through the opening. Area) is displayed.

このような、実世界画像に開口を設けて奥側領域を表示する処理は、本実施形態において、境界面は球体面であり、第1の描画方法では、図20Aおよび図20Bに示すように、上述の球体のスクリーンオブジェクトの内面に貼り付けられるテクスチャにより実現される。以下、このテクスチャのことをスクリーン用αテクスチャ(後述する、開口判定用データ)と呼ぶ。本実施形態では、スクリーン用αテクスチャは仮想カメラを中心として少なくとも或る方向に360度周回する部分に貼り付けられる。より具体的には、図20Bで示すように、スクリーン用αテクスチャは、球体のうち中央部分、言い換えると、仮想カメラの位置を中心として、XY平面に平行な方向に360度周回させた、Y方向に所定の幅を有する部分(以下、αテクスチャ適用部と呼ぶ)に貼り付けられる。このようにすることにより、スクリーン用αテクスチャのデータの持ち方を簡単にすることができる。具体的には、本実施形態では、スクリーン用αテクスチャは矩形形状である。このαテクスチャが図20Aで示す部分に貼り付けられることにより、スクリーン用αテクスチャの各ドットの情報は、スクリーンオブジェクトのうちαテクスチャ適用部の各座標に対応する。   In this embodiment, the boundary surface is a spherical surface in the processing for providing an opening in the real world image and displaying the back side region. In the first drawing method, as shown in FIGS. 20A and 20B, This is realized by a texture pasted on the inner surface of the spherical screen object. Hereinafter, this texture is referred to as a screen α texture (opening determination data described later). In the present embodiment, the screen α texture is attached to a portion that circulates 360 degrees in at least a certain direction around the virtual camera. More specifically, as shown in FIG. 20B, the α texture for the screen is rotated around 360 degrees in the direction parallel to the XY plane around the center of the sphere, in other words, the position of the virtual camera. Affixed to a portion having a predetermined width in the direction (hereinafter referred to as an α texture application unit). In this way, it is possible to simplify the way of holding the screen α texture data. Specifically, in this embodiment, the screen α texture has a rectangular shape. By pasting this α texture on the portion shown in FIG. 20A, information on each dot of the screen α texture corresponds to each coordinate of the α texture application unit in the screen object.

上述のように実世界画像が貼り付けられ、αテクスチャが設定されたスクリーンオブジェクトを仮想カメラで描画することにより、開口部を有する実世界画像が境界面(球体内面)に存在するように描画されることになる。αテクスチャのうち実世界画像に対応する部分は、仮想カメラによる描画により計算される。   As described above, the real world image is pasted, and the screen object with the α texture set is drawn with the virtual camera, so that the real world image having the opening is drawn so that it exists on the boundary surface (sphere inner surface). Will be. The part of the α texture corresponding to the real world image is calculated by drawing with a virtual camera.

第2の描画方法においても、仮想空間の境界面(ここでは球体内面)に対して、開口の位置を示すデータが設定される。典型的には、境界面の各点について開口の有無を示すデータが設定される。より具体的には、上述と同様の球体オブジェクトが仮想オブジェクトの存在する仮想世界に配置され、この球体オブジェクトに対して同様のαテクスチャが設定される。そして、実世界画像のレンダリング時に、αテクスチャが設定された球体オブジェクトのうち仮想世界描画用カメラで描画される部分に対応する部分のαテクスチャを、上述の平面ポリゴンに適用してレンダリングする。または、この部分のαテクスチャを用いて、実世界画像に対して開口部を透明化する処理を行った後、この処理後の実世界画像を前述の平面ポリゴンに貼り付けて実世界描画用カメラでレンダリングする。なお、この球体オブジェクトは、開口の計算にのみ使用されるオブジェクトであり、仮想世界の描画時に描画されないオブジェクトである。   Also in the second drawing method, data indicating the position of the opening is set with respect to the boundary surface of the virtual space (here, the inner surface of the sphere). Typically, data indicating the presence or absence of an opening is set for each point on the boundary surface. More specifically, the same spherical object as described above is arranged in the virtual world where the virtual object exists, and the same α texture is set for the spherical object. Then, at the time of rendering the real world image, the α texture of the part corresponding to the part drawn by the virtual world drawing camera among the spherical objects set with the α texture is applied to the above-described planar polygon and rendered. Alternatively, the alpha texture of this part is used to perform the process of making the opening transparent with respect to the real world image, and then the real world image after pasting this process is pasted on the planar polygon. Render with Note that this spherical object is an object that is used only for calculating the opening, and is not drawn when the virtual world is drawn.

なお、本実施形態では、開口部を示すデータは境界面の各点ごとに情報を有するようなデータであるが、境界面において開口を有する位置を計算式で定義するような情報でもよい。   In the present embodiment, the data indicating the opening is data having information for each point on the boundary surface, but may be information defining a position having the opening on the boundary surface by a calculation formula.

第2空間には、開口を通じて仮想カメラの視野に収まる第2空間の背景画像(テクスチャ)を貼り付けるためのポリゴン(オブジェクト)が配置される。第2空間の背景は、「奥壁」と呼ぶこともある。   In the second space, a polygon (object) for pasting a background image (texture) of the second space that fits in the visual field of the virtual camera through the opening is arranged. The background of the second space may be called “back wall”.

第1空間には、敵キャラクタや、敵キャラクタを撃ち落とすための弾を表す各種のキャラクタを示すオブジェクトが配置される。第2空間にも所定のオブジェクト(例えば、敵キャラクタのうちの一部)が配置される。仮想空間上に配置された各オブジェクトは、予めプログラミングされたロジック(アルゴリズム)に従って仮想空間内を移動する。   In the first space, objects representing various characters representing enemy characters and bullets for shooting down enemy characters are arranged. A predetermined object (for example, a part of enemy characters) is also arranged in the second space. Each object arranged in the virtual space moves in the virtual space according to a preprogrammed logic (algorithm).

さらに、敵キャラクタのうちの一部は、境界面に形成された開口を通じて第1空間と第2空間との間を行き来することもできる。または、自ら境界面に開口を形成して第1空間と第2空間との間を行き来することができる。開口を形成するゲーム上の所定イベントは、例えば、敵キャラクタが境界面に衝突するようなイベント(衝突イベント)である。あるいは、ゲームシナリオの進行上、所定のタイミングで境界面が破壊され、第2空間にいた敵キャラクタが第1空間に進入するイベント(敵キャラクタ出現イベント)である。あるいは、時間経過に応じて自動的に開口が形成されるようにしてもよい。また、プレイヤの所定のゲーム操作に応じて、開口を修復することができる。例えば、プレイヤは、形成された開口に対して弾を当てることで、開口を小さくする(修復する)こともできる。   Further, some of the enemy characters can go back and forth between the first space and the second space through an opening formed in the boundary surface. Alternatively, it is possible to go back and forth between the first space and the second space by forming an opening on the boundary surface. The predetermined event on the game that forms the opening is, for example, an event (collision event) in which the enemy character collides with the boundary surface. Alternatively, it is an event (enemy character appearance event) in which the boundary surface is destroyed at a predetermined timing and the enemy character in the second space enters the first space as the game scenario progresses. Alternatively, the opening may be automatically formed as time elapses. Further, the opening can be repaired in accordance with a predetermined game operation by the player. For example, the player can reduce (repair) the opening by hitting a bullet against the formed opening.

図22は、実施形態における画像処理プログラムの一例であるゲームプログラムにおいて定義される仮想の3次元空間(ゲーム世界)を示す。なお、上述したように、本実施形態では、境界面は球体であるが、図22では簡便のため、境界面を円筒状に示す。上述したように、本実施形態に係るゲームでは、ゲーム装置10の上側LCD22には、仮想の3次元空間を表現した仮想世界画像と実世界画像が合成されて表示される。   FIG. 22 shows a virtual three-dimensional space (game world) defined in a game program that is an example of an image processing program in the embodiment. As described above, in this embodiment, the boundary surface is a sphere, but in FIG. 22, the boundary surface is shown in a cylindrical shape for the sake of simplicity. As described above, in the game according to the present embodiment, the upper LCD 22 of the game apparatus 10 displays the synthesized virtual world image representing the virtual three-dimensional space and the real world image.

また、図22において示されるとおり、本実施形態におけるゲーム上の仮想空間は、仮想カメラの位置を中心軸とする球体面で形成された境界面3によって第1空間1と第2空間2とに分けられている。   Further, as shown in FIG. 22, the virtual space on the game in the present embodiment is divided into the first space 1 and the second space 2 by the boundary surface 3 formed by a spherical surface with the position of the virtual camera as the central axis. It is divided.

境界面3には、ゲーム装置10に内蔵する実カメラによって撮像された実世界画像であるカメラ画像CI(図23)は、第1の描画方法においては後述するステップ81および82、また、カメラ画像CIは、第2の描画方法においては後述するステップ83からステップ85の処理により、境界面3の位置に存在しているかのように、仮想世界画像と合成される。   On the boundary surface 3, a camera image CI (FIG. 23), which is a real world image captured by a real camera built in the game apparatus 10, is described later in steps 81 and 82 in the first drawing method. In the second drawing method, the CI is synthesized with the virtual world image as if it were present at the position of the boundary surface 3 by the processing from step 83 to step 85 described later.

本実施形態における実世界画像は平面視の画像である。また仮想世界画像も平面視の画像である。すなわち、上側LCD22には平面視の画像が表示される。ただし、実世界画像は、立体視可能な画像であってもよい。本発明は、実世界画像の種類によって限定されない。なお、本実施形態におけるカメラ画像CIは、静止画であっても、リアルタイムの実世界画像(動画像)であってもよい。本実施形態におけるゲームプログラムでは、カメラ画像CIは、リアルタイムの実世界画像であるとする。また、実世界画像であるカメラ画像CIは、カメラの種類によって限定されない。例えば、カメラ画像CIは、ゲーム装置10に外部接続可能なカメラによって得られた画像であってもよい。さらに、本実施形態では、カメラ画像CIは、外側撮像部23(複眼カメラ)および/または内側撮像部24(単眼カメラ)から取得した画像であればよい。本実施形態におけるゲームプログラムでは、カメラ画像CIは、外側撮像部23の外側左撮像部23aおよび外側右撮像部23bの一方を単眼カメラとして用いることにより取得される画像であるとする。   The real world image in the present embodiment is a planar view image. The virtual world image is also a planar view image. That is, a planar view image is displayed on the upper LCD 22. However, the real world image may be a stereoscopically viewable image. The present invention is not limited by the type of real world image. The camera image CI in the present embodiment may be a still image or a real-time real world image (moving image). In the game program in the present embodiment, the camera image CI is assumed to be a real-time real world image. Further, the camera image CI that is a real world image is not limited by the type of camera. For example, the camera image CI may be an image obtained by a camera that can be externally connected to the game apparatus 10. Furthermore, in the present embodiment, the camera image CI may be an image acquired from the outer imaging unit 23 (compound eye camera) and / or the inner imaging unit 24 (monocular camera). In the game program in the present embodiment, the camera image CI is an image acquired by using one of the outer left imaging unit 23a and the outer right imaging unit 23b of the outer imaging unit 23 as a monocular camera.

上記したように第1空間1は、仮想カメラから見て境界面3より手前の空間であり、境界面3によって囲まれた空間である。また、第2空間2は、仮想カメラから見て境界面3の背後の空間である。図20Aおよび図21において図示はされていないが、境界面3を囲む奥壁BWが存在する。つまり、第2空間2は、境界面3と奥壁BWとの間に存在する空間である。奥壁BWは、任意の画像が貼り付けられる。例えば、奥壁BWには、予め用意された宇宙空間を表す画像が貼り付けられ、第1空間1の背後には宇宙空間である第2空間2の存在が表示される。すなわち、仮想カメラから見て、手前から順に、第1空間1、境界面3、第2空間2、奥壁BWが配置される。   As described above, the first space 1 is a space in front of the boundary surface 3 when viewed from the virtual camera, and is a space surrounded by the boundary surface 3. The second space 2 is a space behind the boundary surface 3 when viewed from the virtual camera. Although not shown in FIGS. 20A and 21, there is a back wall BW surrounding the boundary surface 3. That is, the second space 2 is a space that exists between the boundary surface 3 and the back wall BW. An arbitrary image is pasted on the back wall BW. For example, an image representing a prepared space is pasted on the back wall BW, and the presence of the second space 2 that is a space is displayed behind the first space 1. That is, as viewed from the virtual camera, the first space 1, the boundary surface 3, the second space 2, and the back wall BW are arranged in this order from the front.

ただし、上述のとおり、本発明の画像処理プログラムはゲームプログラムに限定される訳ではなく、これらの設定およびルールは、本発明の画像処理プログラムを限定するものではない。なお、敵オブジェクトEOは、図22に示されるとおり、仮想の3次元空間内を移動し、上述の境界面3を通って、第1空間1と第2空間2とを往来することができる。境界面3のうち、仮想カメラによって撮像される領域を通って、敵オブジェクトEOが第1空間1と第2空間2との間を移動した場合には、上側LCD22に表示される画像においては、敵オブジェクトEOが実世界画像を通り抜けて奥側から手前側に、または、手前側から奥側に移動するように表現される。   However, as described above, the image processing program of the present invention is not limited to the game program, and these settings and rules do not limit the image processing program of the present invention. As shown in FIG. 22, the enemy object EO can move in the virtual three-dimensional space, and can travel between the first space 1 and the second space 2 through the boundary surface 3 described above. In the image displayed on the upper LCD 22 when the enemy object EO moves between the first space 1 and the second space 2 through the area captured by the virtual camera in the boundary surface 3, It is expressed that the enemy object EO moves through the real world image and moves from the back side to the near side, or from the near side to the far side.

画面には、ゲームのシナリオやイベントにより実世界画像に生じた開口(穴)を使って第1空間1と第2空間2とを往来する敵オブジェクトEOの様子が表示される。図22および図24には、敵オブジェクトEOが境界面3に開口を作って、または、境界面3上に既に存在する開口を通って、第1空間1と第2空間2とを行き来する様子が図示されている。   The screen displays the appearance of the enemy object EO that travels between the first space 1 and the second space 2 using openings (holes) created in the real world image due to game scenarios and events. In FIGS. 22 and 24, the enemy object EO makes an opening in the boundary surface 3 or passes through the opening already existing on the boundary surface 3 to move between the first space 1 and the second space 2. Is shown.

なお、本実施形態における画像処理プログラムでは、第1空間1または第2空間2に存在するオブジェクトは、敵オブジェクトEO、弾オブジェクトBO、および奥壁BWの3つであるが、本発明の画像処理プログラムは、オブジェクトの種類に限定されない。本実施形態における画像処理プログラムにおいて、オブジェクトは、仮想空間(第1空間1および第2空間2)に存在する仮想物体である。例えば、本実施形態に係る画像処理プログラムにおいて、障害物のオブジェクト等の任意のオブジェクトが存在してもよい。   In the image processing program in the present embodiment, there are three objects existing in the first space 1 or the second space 2, the enemy object EO, the bullet object BO, and the back wall BW. The program is not limited to the type of object. In the image processing program according to the present embodiment, the object is a virtual object that exists in the virtual space (the first space 1 and the second space 2). For example, in the image processing program according to the present embodiment, an arbitrary object such as an obstacle object may exist.

<表示形態例>
図23〜図26は、上側LCD22に表示されるゲーム画面の一例を示す。以下、各図の表示形態例について説明する。
<Display example>
23 to 26 show examples of game screens displayed on the upper LCD 22. Hereinafter, examples of display forms in each figure will be described.

まず、図23〜図26において共通に表示される照準カーソルALについて説明する。図23〜図26において、上側LCD22には、共通して、ゲーム装置10を用いた攻撃操作(例えば、ボタン14B(Aボタン)の押下)に応じて発射される弾オブジェクトBOの照準カーソルALが表示されている。本実施形態のゲームプログラムでは、照準カーソルALは、ゲーム装置10が実行するプログラムに応じて所定の方向を向くように設定されている。   First, the aiming cursor AL displayed in common in FIGS. 23 to 26 will be described. 23 to 26, the upper LCD 22 has a common aiming cursor AL for the bullet object BO that is fired in response to an attack operation using the game apparatus 10 (for example, pressing the button 14B (A button)). It is displayed. In the game program of the present embodiment, the aiming cursor AL is set to face a predetermined direction according to the program executed by the game apparatus 10.

例えば、照準カーソルALは、仮想カメラの視線方向、つまり、上側LCD22の画面中央に固定されているように設定される。この場合、上述のとおり、本実施形態において、外側撮像部23の撮像方向の変化に応じて、仮想カメラ(第1の描画方法における仮想カメラまたは第2の描画方法における仮想世界描画用カメラ)の視線方向を変更するので、プレイヤは、ゲーム装置10の向きを変えることで、照準カーソルALの仮想空間内における向きを変更できる。そして、プレイヤは、例えば、ゲーム装置10が備えるボタン14B(Aボタン)を、下側ハウジング11を把持した右手の親指で押下することにより攻撃操作を行う。これにより、プレイヤは、攻撃操作による弾オブジェクトBOの発射を行い、本実施形態のゲーム上における敵オブジェクトEOの退治や、境界面3に存在する開口の修復をする。   For example, the aiming cursor AL is set so as to be fixed in the viewing direction of the virtual camera, that is, in the center of the screen of the upper LCD 22. In this case, as described above, in the present embodiment, the virtual camera (the virtual camera in the first drawing method or the virtual world drawing camera in the second drawing method) according to the change in the imaging direction of the outer imaging unit 23 in the present embodiment. Since the line-of-sight direction is changed, the player can change the direction of the aiming cursor AL in the virtual space by changing the direction of the game apparatus 10. Then, for example, the player performs an attack operation by pressing the button 14B (A button) provided in the game apparatus 10 with the thumb of the right hand holding the lower housing 11. As a result, the player fires the bullet object BO by the attack operation, and extinguishes the enemy object EO on the game of the present embodiment or repairs the opening existing on the boundary surface 3.

次に、図23〜図26について各図個別に説明する。   Next, FIGS. 23 to 26 will be described individually.

図23において、上側LCD22には、第1空間1に存在する敵オブジェクトEOと、ゲーム装置10に内蔵する実カメラによって撮像されたカメラ画像CIと、が表示されている。敵オブジェクトEOは、任意に設定される。   In FIG. 23, the upper LCD 22 displays an enemy object EO present in the first space 1 and a camera image CI captured by a real camera built in the game apparatus 10. The enemy object EO is arbitrarily set.

敵オブジェクトEOは、例えば、ゲーム装置10のデータ保存用外部メモリ46等に記憶された画像(例えば、人の顔写真)をテクスチャとして用い、所定形状の3次元ポリゴンモデル(人の頭部の3次元形状を表すポリゴンモデル)に、所定の方法で貼り付けたオブジェクトである。   The enemy object EO uses, for example, an image (for example, a human face photograph) stored in the data storage external memory 46 of the game apparatus 10 as a texture, and uses a three-dimensional polygon model (3 of the human head) of a predetermined shape. The polygon model representing a dimensional shape) is an object pasted by a predetermined method.

また、本実施形態において、上側LCD22に表示されるカメラ画像CIは、上述のとおり、ゲーム装置10に内蔵する実カメラで撮像されたリアルタイムの実世界画像である。その他、例えば、カメラ画像CIは、ゲーム装置10のデータ保存用外部メモリ46等に記憶された画像(例えば、風景写真)であってもよい。   In the present embodiment, the camera image CI displayed on the upper LCD 22 is a real-time real world image captured by a real camera built in the game apparatus 10 as described above. In addition, for example, the camera image CI may be an image (for example, a landscape photograph) stored in the external data storage memory 46 of the game apparatus 10 or the like.

カメラ画像CIが上側LCD22に表示された状態において、敵オブジェクトEOは任意に移動することができる。例えば、第1空間1に存在する敵オブジェクトEOは、第2空間2に移動することができる。図24は、第1空間1に存在する敵オブジェクトEOが、第1空間1から第2空間2へ移動する様子の一例を示す。図24に示した一例では、第1空間1に存在する敵オブジェクトEOは、境界面3上に開口を作って、第2空間2へ移動する。第2空間2に移動した敵オブジェクトEOは、境界面3上の非開口領域において仮想カメラから見た位置において影(シルエットモデル)ESとして表示される。また、第2空間2は、境界面3上の開口を通して視認される。つまり、仮想カメラの視野内の境界面3上に開口が存在する場合、上側LCD22には、当該開口を通して第2空間2の画像の一部が表示される。第2空間2の画像は、具体的には、第2空間2に存在するオブジェクト、例えば、第2空間2に存在する敵オブジェクトEOや、奥壁BWである。影ESは、敵オブジェクトEOの影を示す表示である。図27Aは、敵オブジェクトEOの影のシルエットモデルを上から見た図を示す。また、図27Bは、敵オブジェクトEOの影のシルエットモデル例を示す。図27Aおよび図27Bに示すように、本実施形態においては、敵オブジェクトEOについて、複数の向きごとにシルエットモデルが設定されている。具体的には、シルエットモデルは、例えば、図27Aに示す8枚の平面ポリゴンである。このシルエットモデル(8枚の平面ポリゴン)は、実体モデルである敵オブジェクトEOと同じ位置に配置される。また、各平面ポリゴンは、実体モデルに内包される大きさである(実体モデルからはみ出ない)。また、各平面ポリゴンにはその面の法線方向から見た敵オブジェクトEOの影画像が描いたテクスチャが貼り付けられる。敵オブジェクトEOが境界面3の非開口領域の背後に存在する場合には、このシルエットモデルが描画されることにより影ESが表示される。   In a state where the camera image CI is displayed on the upper LCD 22, the enemy object EO can arbitrarily move. For example, the enemy object EO existing in the first space 1 can move to the second space 2. FIG. 24 shows an example of how the enemy object EO existing in the first space 1 moves from the first space 1 to the second space 2. In the example shown in FIG. 24, the enemy object EO existing in the first space 1 moves to the second space 2 by creating an opening on the boundary surface 3. The enemy object EO that has moved to the second space 2 is displayed as a shadow (silhouette model) ES at a position viewed from the virtual camera in the non-opening region on the boundary surface 3. The second space 2 is visually recognized through the opening on the boundary surface 3. That is, when an opening exists on the boundary surface 3 in the visual field of the virtual camera, a part of the image of the second space 2 is displayed on the upper LCD 22 through the opening. Specifically, the image of the second space 2 is an object that exists in the second space 2, for example, an enemy object EO or a back wall BW that exists in the second space 2. The shadow ES is a display showing the shadow of the enemy object EO. FIG. 27A shows a top view of the silhouette model of the shadow of the enemy object EO. FIG. 27B shows an example of a silhouette model of the shadow of the enemy object EO. As shown in FIG. 27A and FIG. 27B, in this embodiment, a silhouette model is set for each of a plurality of directions for the enemy object EO. Specifically, the silhouette model is, for example, eight planar polygons shown in FIG. 27A. This silhouette model (eight planar polygons) is arranged at the same position as the enemy object EO that is a substantial model. Each planar polygon has a size included in the entity model (does not protrude from the entity model). Also, a texture drawn by a shadow image of the enemy object EO viewed from the normal direction of the surface is pasted to each planar polygon. When the enemy object EO is behind the non-opening area of the boundary surface 3, the shadow ES is displayed by drawing this silhouette model.

なお、8枚の平面ポリゴンのすべてがレンダリングされる。敵オブジェクトEOが境界面3の非開口領域の背後に存在する場合、奥行判定(デプス判定)により、敵オブジェクトEOの実体モデルはこの境界面(スクリーンオブジェクト)3に隠されるため描画されない。しかしながら、シルエットモデルは、境界面(スクリーンオブジェクト)3に対してデプス判定をしないように設定されているため、敵オブジェクトEO(およびそのシルエットモデル)が境界面3の非開口領域の背後に存在する場合であっても、シルエットモデルは描画されて、図24や図25に示すように影が表示される。しかしながら、敵オブジェクトEOが境界面3の前方に存在する場合や、境界面3の開口領域の背後に存在する場合は、シルエットモデルは実体モデルより奥に存在し、敵オブジェクトEOの実体モデルが描画され、それによりシルエットモデルは描画されないため、影は表示されない。これは、シルエットモデルが敵オブジェクトEOの実体モデルに内包されるように設定されているからである。   Note that all eight planar polygons are rendered. When the enemy object EO exists behind the non-opening area of the boundary surface 3, the entity model of the enemy object EO is hidden by the boundary surface (screen object) 3 due to depth determination (depth determination), and thus is not drawn. However, since the silhouette model is set so as not to perform depth determination on the boundary surface (screen object) 3, the enemy object EO (and its silhouette model) exists behind the non-opening region of the boundary surface 3. Even in this case, the silhouette model is drawn and a shadow is displayed as shown in FIGS. However, when the enemy object EO exists in front of the boundary surface 3 or behind the opening area of the boundary surface 3, the silhouette model exists behind the entity model, and the entity model of the enemy object EO is drawn. As a result, the silhouette model is not drawn, so no shadow is displayed. This is because the silhouette model is set to be included in the entity model of the enemy object EO.

上側LCD22には、以下の優先順位で画像が合成されて表示される。   Images are synthesized and displayed on the upper LCD 22 in the following priority order.

(1)第1空間1に存在するオブジェクトの画像(2)実世界画像のうち非開口領域については、第2空間2に存在するオブジェクトの影画像と実世界画像の合成画像(例えば影画像が半透明で実世界画像に合成される)(3)実世界画像のうち開口部領域については第2空間2に存在するオブジェクトの画像(実体画像)が優先的に合成され、さらにその奥に奥壁画像が合成される。ただし、第2空間2に存在する敵オブジェクトEOの移動状態によっては、敵オブジェクトEOが開口領域と非開口領域との両方にまたがって存在する場面がある。つまり、仮想カメラから見た位置において、敵オブジェクトEOが開口のふちに存在する場面がある。図25は、このような、第2空間2に存在する敵オブジェクトEOが、境界面3上に設定された開口のふちに移動した状態を示す。図25において示されるとおり、第2空間2に存在する敵オブジェクトEOについて、仮想カメラから見て、開口を通して第2空間2が視認できる範囲についてはそのままの画像が、開口を通して第2空間2が視認できない範囲については影ESが、上側LCD22に表示される。   (1) An image of an object existing in the first space 1 (2) For a non-opening region in the real world image, a combined image (for example, a shadow image of the shadow image of the object existing in the second space 2 and the real world image) (3) The opening area of the real world image is preferentially synthesized with the image of the object (substance image) existing in the second space 2 and further on the back. The wall image is synthesized. However, depending on the movement state of the enemy object EO existing in the second space 2, there is a scene where the enemy object EO exists over both the open area and the non-open area. That is, there is a scene where the enemy object EO is present at the edge of the opening at the position viewed from the virtual camera. FIG. 25 shows a state in which the enemy object EO existing in the second space 2 has moved to the edge of the opening set on the boundary surface 3. As shown in FIG. 25, regarding the enemy object EO existing in the second space 2, as viewed from the virtual camera, an image as it is in the range in which the second space 2 can be viewed through the opening, the second space 2 is viewed through the opening. The shadow ES is displayed on the upper LCD 22 for the range where it cannot.

より具体的には、図28に示すように、各オブジェクトには不透明度(アルファ値)のデータが設定される。図28は、本実施形態において各オブジェクトに設定される不透明度(アルファ値)の例を示す。敵オブジェクトの実体モデルには、そのテクスチャにモデル全体について不透明度が1である設定がされる。また、敵オブジェクトのシルエットモデル(平面ポリゴン)には、そのテクスチャに影画像の全体について不透明度が1である設定がされる。弾のモデルについても同様である。敵オブジェクトのうち半透明のオブジェクトのモデルやエフェクト用のモデルについては、そのテクスチャに、例えば、そのモデル全体について不透明度0.6が設定される。スクリーンオブジェクト(図20Aに示される球体のスクリーンモデル)には、マテリアルとして不透明度0.2が設定され、そのテクスチャであるαテクスチャに、各点ごとに1または0が設定される。1が非開口部を示し、0が開口部を示す。すなわち、スクリーンオブジェクトには、不透明度値として、マテリアルの設定とテクスチャの設定の2つが施される。   More specifically, as shown in FIG. 28, opacity (alpha value) data is set for each object. FIG. 28 shows an example of the opacity (alpha value) set for each object in the present embodiment. In the actual model of the enemy object, the texture is set to have an opacity of 1 for the entire model. In the silhouette model (planar polygon) of the enemy object, the opacity of the entire shadow image is set to 1 for the texture. The same applies to the bullet model. For the enemy object, a semi-transparent object model and an effect model, for example, an opacity of 0.6 is set for the entire model. In the screen object (spherical screen model shown in FIG. 20A), an opacity of 0.2 is set as a material, and 1 or 0 is set for each point in the α texture which is the texture. 1 indicates a non-opening and 0 indicates an opening. That is, the screen object is subjected to two opacity values: material setting and texture setting.

また、敵オブジェクト、弾オブジェクト、半透明の敵オブジェクト、エフェクトオブジェクト、スクリーンオブジェクトの間は、互いにデプス判定有効である。「影用の平面ポリゴンと敵オブジェクトとの間」「影用の平面ポリゴンと弾オブジェクトとの間」「影用の平面ポリゴンと半透明の敵オブジェクトとの間」「影用の平面ポリゴンとエフェクトオブジェクトとの間」は、互いにデプス判定有効である。影用の平面ポリゴンとスクリーンオブジェクトとの間は、デプス判定無効である。   Further, the depth determination is effective between the enemy object, the bullet object, the translucent enemy object, the effect object, and the screen object. "Between shadow plane polygons and enemy objects" "Between shadow plane polygons and bullet objects" "Between shadow plane polygons and translucent enemy objects" "Shadow plane polygons and effects “Between objects” is effective for depth determination. Depth determination is invalid between the shadow plane polygon and the screen object.

デプス判定が有効な場合には、通常の透視投影に従い、レンダリングされる。仮想カメラからの奥行方向に応じて陰面消去される。デプス判定が無効の場合には、対象オブジェクトが自身のオブジェクトより仮想カメラに近い側に存在していてもレンダリングされる。   When the depth determination is valid, rendering is performed according to normal perspective projection. The hidden surface is erased according to the depth direction from the virtual camera. When the depth determination is invalid, rendering is performed even if the target object is closer to the virtual camera than the object itself.

そして、本実施形態においては、レンダリング時に、オブジェクトごとにレンダリングの式を設定することができる。具体的には以下のように設定される。   In the present embodiment, a rendering expression can be set for each object during rendering. Specifically, it is set as follows.

敵オブジェクトの実体、弾オブジェクト、半透明の敵オブジェクト、エフェクトオブジェクトは、以下の式で描画される。   The enemy object entity, bullet object, translucent enemy object, and effect object are drawn using the following formula.

「自身の色×自身の不透明度+背景の色×(1−自身の不透明度)」
スクリーンオブジェクトは、以下の式で描画される。
"Own color x own opacity + background color x (1-own opacity)"
The screen object is drawn with the following formula.

「自身の色(実世界画像の色)×自身のテクスチャの不透明度+背景の色×(1−自身のテクスチャの不透明度)」
敵オブジェクトのシルエットモデルは、以下の式で描画される。
"Own color (color of real world image) x Opacity of own texture + Background color x (1-Opacity of own texture)"
The silhouette model of the enemy object is drawn by the following formula.

「自身の色×(1−背景のマテリアルの不透明度)+背景の色×背景のマテリアルの不透明度)」
なお、敵オブジェクトが描画される場合、その背景はスクリーンオブジェクト(境界面3)であるから、上式において、「背景のマテリアルの不透明度」は「スクリーンオブジェクト(境界面3)のマテリアルの不透明度」である。
"Own color x (1-Opacity of background material) + Background color x Opacity of background material"
When an enemy object is drawn, the background is a screen object (boundary surface 3). Therefore, in the above equation, the “background material opacity” is “the opacity of the material of the screen object (boundary surface 3)”. Is.

上述のような様々な設定により、敵オブジェクトが境界面の非開口部の背後に存在するときには、実体は表示されずに影が表示され、敵オブジェクトが境界面の前方に存在するときおよび敵オブジェクトが境界面の開口部に存在するときには、影は表示されずに実体が表示される。   When the enemy object exists behind the non-opening portion of the boundary surface due to various settings as described above, the shadow is displayed without displaying the entity, and when the enemy object exists in front of the boundary surface and the enemy object Is present in the opening of the boundary surface, the entity is displayed without displaying the shadow.

また、本実施形態におけるゲームでは、境界面3上に存在する開口は、弾オブジェクトBOを当てることにより修復され得る。図26は、境界面3に存在する開口に弾オブジェクトBOを当てることにより、当該開口を塞ぐ様子を示す。図26に示されるとおり、例えば弾オブジェクトBOが当該境界面3上に存在する非開口領域に衝突したときに、衝突点から一定範囲の境界面について非開口のデータ設定がされる。これにより、衝突点から一定範囲に開口があったときに当該開口は塞がれる。なお、本実施形態では、開口にあたった弾オブジェクトBOは消滅する(したがって、図26において弾オブジェクトBOは消滅している)。また、弾オブジェクトBOは境界面3上の開口に当たったときには、当該開口を通り抜けて第2空間に移動する。   In the game according to the present embodiment, the opening existing on the boundary surface 3 can be repaired by hitting the bullet object BO. FIG. 26 shows a state in which a bullet object BO is applied to an opening existing on the boundary surface 3 to close the opening. As shown in FIG. 26, for example, when the bullet object BO collides with a non-opening area existing on the boundary surface 3, non-opening data is set for the boundary surface within a certain range from the collision point. Thereby, when there is an opening within a certain range from the collision point, the opening is closed. In this embodiment, the bullet object BO that hits the opening disappears (therefore, the bullet object BO disappears in FIG. 26). When the bullet object BO hits the opening on the boundary surface 3, it passes through the opening and moves to the second space.

なお、上述したように、上側LCD22には、ゲーム装置10に内蔵する実カメラによって撮像されたリアルタイムの実世界画像が境界面3上にあるかのように見える画像として表示されている。実空間内においてゲーム装置10の方向を変えることによって、ゲーム装置10で撮像される撮像範囲が変わるため、上側LCD22に表示されるカメラ画像CIも変化する。この場合、ゲーム装置10は、実空間内におけるゲーム装置10の動きに応じて、上記仮想空間内における上記仮想カメラ(第2の描画方法については、仮想世界描画用カメラ)の方向を変化させる。これによって、実空間内に配置されているように表示されている敵オブジェクトEOや境界面3上に存在する開口は、実空間内におけるゲーム装置10の方向が変わっても実空間内における同じ位置に配置されているように表示される。例えば、ゲーム装置10の実カメラによる撮像方向を左へ変えるとする。この場合、上側LCD22に表示されている敵オブジェクトEOや境界面3上に存在する開口の表示位置が、実カメラの撮像方向を変えた方向の逆方向(右方向)に移動、すなわち敵オブジェクトEOおよび境界面3上に存在する開口が配置されている仮想空間の仮想カメラ(第2の描画方法については仮想世界描画用カメラ)の方向が実カメラと同じ左方向に移動する。したがって、敵オブジェクトEOや境界面3上に存在する開口は、ゲーム装置10の方向が変化して実カメラの撮像範囲が変わったとしても、あたかもカメラ画像CIで表現された実空間内に配置されているように上側LCD22に表示される。   As described above, on the upper LCD 22, the real-time real world image captured by the real camera built in the game apparatus 10 is displayed as an image that looks as if it is on the boundary surface 3. By changing the direction of the game apparatus 10 in the real space, the imaging range captured by the game apparatus 10 changes, so that the camera image CI displayed on the upper LCD 22 also changes. In this case, the game apparatus 10 changes the direction of the virtual camera (for the second drawing method, a virtual world drawing camera) in the virtual space according to the movement of the game apparatus 10 in the real space. As a result, the enemy object EO displayed so as to be arranged in the real space and the opening existing on the boundary surface 3 have the same position in the real space even if the direction of the game apparatus 10 changes in the real space. It is displayed as if it is arranged in. For example, it is assumed that the imaging direction of the game device 10 by the real camera is changed to the left. In this case, the display position of the enemy object EO displayed on the upper LCD 22 or the opening on the boundary surface 3 moves in the opposite direction (right direction) to the direction in which the imaging direction of the real camera is changed, that is, the enemy object EO. And the direction of the virtual camera (virtual world drawing camera for the second drawing method) in the virtual space in which the opening existing on the boundary surface 3 is arranged moves to the left as the real camera. Accordingly, the opening present on the enemy object EO or the boundary surface 3 is arranged in the real space as if it is represented by the camera image CI even if the direction of the game apparatus 10 changes and the imaging range of the real camera changes. As shown in FIG.

《画像処理の動作例》
次に、図29〜図31、図32Aおよび図32Bを参照して、ゲーム装置10で実行される本実施形態における画像処理プログラムによる具体的な画像処理の動作例について説明する。図29は、当該画像処理プログラムを実行することによってゲーム装置10が画像処理する動作例の一例を示すフローチャートである。図30は、図29のステップ53で行われる敵オブジェクト関連処理の詳細な動作の一例を示すサブルーチンのフローチャートである。図31は、図29のステップ54で行われる弾オブジェクト関連処理の詳細な動作の一例を示すサブルーチンのフローチャートである。図32Aおよび図32Bは、図29のステップ57で行われる表示画像の更新処理(第1の描画方法および第2の描画方法)の詳細な動作の一例を示すサブルーチンのフローチャートである。
《Image processing operation example》
Next, with reference to FIG. 29 to FIG. 31, FIG. 32A, and FIG. 32B, a specific example of the image processing operation by the image processing program in the present embodiment executed by the game apparatus 10 will be described. FIG. 29 is a flowchart illustrating an example of an operation example in which the game apparatus 10 performs image processing by executing the image processing program. FIG. 30 is a flowchart of a subroutine showing an example of detailed operation of the enemy object-related process performed in step 53 of FIG. FIG. 31 is a subroutine flowchart showing an example of detailed operation of the bullet object related process performed in step 54 of FIG. FIGS. 32A and 32B are flowcharts of subroutines showing an example of detailed operation of the display image update process (first drawing method and second drawing method) performed in step 57 of FIG. 29.

《画像処理例》
図29を参照して、情報処理部31の動作について説明する。まず、ゲーム装置10の電源(電源ボタン14F)がONされると、CPU311によってブートプログラム(図示せず)が実行され、これにより内蔵メモリまたは外部メモリ45やデータ保存用外部メモリ46に格納されているプログラムがメインメモリ32にロードされる。そして、当該ロードされたプログラムが情報処理部31(CPU311)で実行されることによって、図29に示すステップが実行される。なお、図29〜図32Aにおいては、本発明の画像処理に直接関連しない画像処理およびその他周辺の処理についての記載を省略する。
《Image processing example》
The operation of the information processing unit 31 will be described with reference to FIG. First, when the power supply (power button 14F) of the game apparatus 10 is turned on, a boot program (not shown) is executed by the CPU 311 and is thereby stored in the internal memory or the external memory 45 or the data storage external memory 46. Is loaded into the main memory 32. Then, when the loaded program is executed by the information processing unit 31 (CPU 311), the steps shown in FIG. 29 are executed. In FIGS. 29 to 32A, descriptions of image processing and other peripheral processing not directly related to the image processing of the present invention are omitted.

図29において、情報処理部31は、画像処理における初期設定を行い(ステップ51)、次のステップ52に処理を進める。例えば、情報処理部31は、仮想世界画像(仮想空間の画像)を生成するための仮想カメラの初期位置や初期方向を仮想カメラデータDjに設定し、当該仮想カメラが配置される仮想空間の座標軸(例えば、XYZ軸)を設定する。次に、情報処理部31は、ゲーム装置10の各構成部より各種データを取得し(ステップ52)、次のステップ53に処理を進める。例えば、情報処理部31は、現在選択されている撮像部(本実施形態では外側撮像部23)によって撮像されたカメラ画像を用いて、実カメラ画像データDbを更新する。また、情報処理部31は、操作ボタン14やアナログスティック15を操作したことを示すデータを取得して、操作子データDa1を更新する。さらに、情報処理部31は、角速度センサ40によって検出された角速度を示す角速度データを取得して、角速度データDa2を更新する。   In FIG. 29, the information processing section 31 performs initial setting in image processing (step 51), and proceeds to the next step 52. For example, the information processing unit 31 sets the initial position and initial direction of a virtual camera for generating a virtual world image (virtual space image) in the virtual camera data Dj, and the coordinate axis of the virtual space in which the virtual camera is arranged (For example, XYZ axes) is set. Next, the information processing unit 31 acquires various data from each component of the game apparatus 10 (step 52), and proceeds to the next step 53. For example, the information processing unit 31 updates the actual camera image data Db using the camera image captured by the currently selected image capturing unit (the outer image capturing unit 23 in the present embodiment). Further, the information processing section 31 acquires data indicating that the operation button 14 or the analog stick 15 has been operated, and updates the operator data Da1. Furthermore, the information processing section 31 acquires angular velocity data indicating the angular velocity detected by the angular velocity sensor 40, and updates the angular velocity data Da2.

次に、情報処理部31は、敵オブジェクト関連処理を実行し(ステップ53)、次のステップ54に処理を進める。以下、図30を参照して、敵オブジェクト関連処理について説明する。   Next, the information processing section 31 executes enemy object related processing (step 53), and proceeds to the next step 54. Hereinafter, enemy object-related processing will be described with reference to FIG.

図30において、情報処理部31は、敵オブジェクトEOが出現する条件を満たしているか否かを判断する(ステップ61)。例えば、敵オブジェクトEOが出現する条件として、所定時間毎に敵オブジェクトEOが出現してもいいし、敵オブジェクトEOが仮想世界から消滅したことに応じて新たな敵オブジェクトEOが出現してもいいし、ランダムのタイミングで敵オブジェクトEOを出現させてもよい。なお、敵オブジェクトEOが出現する条件は、例えば、メインメモリ32に保持されている各種プログラム群Paにより設定される。   In FIG. 30, the information processing section 31 determines whether or not the condition for the enemy object EO to appear is satisfied (step 61). For example, as a condition for the appearance of the enemy object EO, the enemy object EO may appear every predetermined time, or a new enemy object EO may appear when the enemy object EO disappears from the virtual world. Then, the enemy object EO may appear at random timing. The condition for the appearance of the enemy object EO is set by various program groups Pa held in the main memory 32, for example.

そして、情報処理部31は、敵オブジェクトEOが出現する条件を満たしている場合、次のステップ62に処理を進める。一方、情報処理部31は、敵オブジェクトEOが出現する条件を満たしていない場合、次のステップ63に処理を進める。   Then, the information processing unit 31 proceeds to the next step 62 when the condition for the appearance of the enemy object EO is satisfied. On the other hand, the information processing unit 31 proceeds to the next step 63 when the condition for the appearance of the enemy object EO is not satisfied.

ステップ62において、情報処理部31は、出現条件を満たした敵オブジェクトEOに対応する敵オブジェクトデータDfを生成、および初期設定を行って、次のステップ63に処理を進める。例えば、情報処理部31は、メインメモリ32に保持されている各種プログラム群Paを用いて、実体データDf1、シルエットデータDf2、開口形状データDf3、および敵オブジェクトEOに対応するポリゴンのデータを取得する。そして、情報処理部31は、当該各データを含んだ敵オブジェクトデータDfを生成する。また、例えば、情報処理部31は、生成した敵オブジェクトデータDfに含まれる、敵オブジェクトEOに対応するポリゴンの仮想空間上における配置方向や配置位置を示すデータ、および敵オブジェクトEOの仮想空間上における移動速度や移動方向を示すデータの初期設定を行う。当該初期設定は周知の方法で行われる。   In step 62, the information processing section 31 generates enemy object data Df corresponding to the enemy object EO that satisfies the appearance condition, performs initial setting, and proceeds to the next step 63. For example, the information processing unit 31 uses the various program groups Pa stored in the main memory 32 to acquire the entity data Df1, the silhouette data Df2, the opening shape data Df3, and polygon data corresponding to the enemy object EO. . Then, the information processing section 31 generates enemy object data Df including the data. In addition, for example, the information processing unit 31 includes, in the generated enemy object data Df, data indicating the arrangement direction and position of the polygon corresponding to the enemy object EO in the virtual space, and the enemy object EO in the virtual space. Initial setting of data indicating the moving speed and moving direction is performed. The initial setting is performed by a known method.

次に、情報処理部31は、仮想空間に配置されている敵オブジェクトEOを移動させ(ステップ63)、次のステップ64に処理を進める。一例として、情報処理部31は、敵オブジェクトデータDeに含まれる敵オブジェクトEOの配置位置を示すデータを、当該敵オブジェクトデータDeに含まれる敵オブジェクトEOの仮想空間上における移動速度や移動方向を示すデータに基づいて更新する。この際、情報処理部31は、敵オブジェクトデータDeに含まれる敵オブジェクトEOの配置方向を示すデータを、上記移動方向を示すデータに基づいて更新する。更新後、敵オブジェクトデータDeに含まれる敵オブジェクトEOの仮想空間上における移動速度や移動方向を示すデータを任意に更新してもよい。移動速度や移動方向を示すデータを更新することで、敵オブジェクトEOは、仮想空間上を、任意の速度、任意の方向に移動することができる。   Next, the information processing section 31 moves the enemy object EO arranged in the virtual space (step 63), and proceeds to the next step 64. As an example, the information processing unit 31 uses data indicating the placement position of the enemy object EO included in the enemy object data De to indicate the moving speed and moving direction of the enemy object EO included in the enemy object data De in the virtual space. Update based on data. At this time, the information processing section 31 updates the data indicating the arrangement direction of the enemy object EO included in the enemy object data De based on the data indicating the movement direction. After the update, data indicating the moving speed and moving direction of the enemy object EO in the virtual space included in the enemy object data De may be arbitrarily updated. By updating the data indicating the moving speed and moving direction, the enemy object EO can move in an arbitrary speed and in an arbitrary direction in the virtual space.

次に、情報処理部31は、敵オブジェクトEOが仮想カメラ(第1の描画方法における仮想カメラまたは第2の描画方法における仮想世界描画用カメラ。)の位置から一定距離まで到達したか否かを判定する(ステップ64)。例えば、情報処理部31は、敵オブジェクトデータDeに含まれる敵オブジェクトEOの配置位置を示すデータと、仮想カメラデータDjに含まれる仮想カメラ(第1の描画方法における仮想カメラまたは第2の描画方法における仮想世界描画用カメラ)の配置位置を示すデータとを比較する。そして、情報処理部31は、2つのデータが所定の条件(例えば、敵オブジェクトEOの配置位置と仮想カメラの配置位置との間の距離が所定の値よりも小さくなる)を満たした場合、敵オブジェクトEOが仮想カメラの位置から一定距離まで到達したと判定し、2つのデータが所定の条件を満たさない場合、敵オブジェクトEOは仮想カメラの位置まで到達していないと判定する。なお、以下、第1の描画方法および第2の描画方法を区別せず、単に「仮想カメラ」と表記した場合、第1の描画方法における仮想カメラまたは第2の描画方法における仮想世界描画用カメラを指す。情報処理部31は、敵オブジェクトEOが仮想カメラの位置まで到達したと判定した場合、次のステップ65に処理を進める。一方、情報処理部31は、敵オブジェクトEOが仮想カメラの位置まで到達していないと判定した場合、ステップ66に処理を進める。   Next, the information processing section 31 determines whether or not the enemy object EO has reached a certain distance from the position of the virtual camera (the virtual camera in the first drawing method or the virtual world drawing camera in the second drawing method). Determination is made (step 64). For example, the information processing unit 31 includes data indicating the arrangement position of the enemy object EO included in the enemy object data De, and a virtual camera (virtual camera in the first drawing method or the second drawing method) included in the virtual camera data Dj. The data indicating the arrangement position of the virtual world rendering camera in FIG. When the two data satisfy a predetermined condition (for example, the distance between the placement position of the enemy object EO and the placement position of the virtual camera is smaller than a predetermined value), the information processing unit 31 When it is determined that the object EO has reached a certain distance from the position of the virtual camera and the two data do not satisfy the predetermined condition, it is determined that the enemy object EO has not reached the position of the virtual camera. In the following, when the first drawing method and the second drawing method are not distinguished and are simply expressed as “virtual camera”, the virtual camera in the first drawing method or the virtual world drawing camera in the second drawing method is used. Point to. If the information processing unit 31 determines that the enemy object EO has reached the position of the virtual camera, the information processing unit 31 proceeds to the next step 65. On the other hand, if the information processing section 31 determines that the enemy object EO has not reached the position of the virtual camera, the information processing section 31 proceeds to step 66.

ステップ65において、情報処理部31は、減点処理を行って、次のステップ66に処理を進める。例えば、情報処理部31は、得点データDhが示すゲームの得点を所定値だけ減点し、減点後の得点を用いて得点データDhを更新する。なお、上記減点処理においては、情報処理部31は、上記仮想カメラの位置まで到達した敵オブジェクトEOを仮想空間から消滅させる処理(例えば、仮想カメラの位置まで到達した敵オブジェクトEOに関する敵オブジェクトデータDeを初期化し、当該敵オブジェクトEOが仮想空間に存在しない状態にする)を行ってもよい。また、当該減点処理における所定値は、任意の値でよく、例えば、メインメモリ32に保持されている各種プログラム群Paによって設定されてもよい。   In step 65, the information processing section 31 performs a point deduction process and proceeds to the next step 66. For example, the information processing section 31 deducts the score of the game indicated by the score data Dh by a predetermined value, and updates the score data Dh using the score after deduction. In the deduction process, the information processing section 31 performs a process of eliminating the enemy object EO that has reached the position of the virtual camera from the virtual space (for example, enemy object data De regarding the enemy object EO that has reached the position of the virtual camera). May be performed so that the enemy object EO does not exist in the virtual space). In addition, the predetermined value in the deduction process may be an arbitrary value, and may be set by various program groups Pa held in the main memory 32, for example.

ステップ66において、情報処理部31は、敵オブジェクトEOが境界面3を通過する(敵オブジェクトEOが第1空間1と第2空間2との間を移動する)か否かを判定する。例えば、情報処理部31は、敵オブジェクトデータDeに含まれる敵オブジェクトEOの配置位置を示すデータと、境界面データDdに含まれる境界面3の配置位置を示すデータとを比較する。そして、情報処理部31は、2つのデータが所定の条件を満たした場合、敵オブジェクトEOが境界面3を通過すると判定し、2つのデータが所定の条件を満たさない場合、敵オブジェクトEOが境界面3を通過しないと判定する。なお、所定の条件とは、例えば、敵オブジェクトEOの仮想空間上の座標(配置位置)が、境界面3の球体表面の条件式を満たすことである。上述のとおり、境界面3の仮想空間上の配置位置を示すデータは、境界面3の仮想空間上の存在範囲を示し、例えば、球体表面(本実施形態における境界面3の形状)の条件式である。敵オブジェクトEOの配置位置が当該条件式を満たす場合、敵オブジェクトEOは、仮想空間において境界面3上に存在することになる。本実施形態では、例えばこのような場合に、敵オブジェクトEOが境界面3を通過すると判定する。   In step 66, the information processing section 31 determines whether the enemy object EO passes through the boundary surface 3 (the enemy object EO moves between the first space 1 and the second space 2). For example, the information processing unit 31 compares data indicating the arrangement position of the enemy object EO included in the enemy object data De with data indicating the arrangement position of the boundary surface 3 included in the boundary surface data Dd. Then, the information processing unit 31 determines that the enemy object EO passes through the boundary surface 3 when the two data satisfy the predetermined condition, and determines that the enemy object EO is the boundary when the two data does not satisfy the predetermined condition. It is determined that the surface 3 is not passed. The predetermined condition is, for example, that the coordinates (arrangement position) of the enemy object EO in the virtual space satisfy the conditional expression of the sphere surface of the boundary surface 3. As described above, the data indicating the arrangement position of the boundary surface 3 in the virtual space indicates the existence range of the boundary surface 3 in the virtual space. It is. When the arrangement position of the enemy object EO satisfies the conditional expression, the enemy object EO exists on the boundary surface 3 in the virtual space. In the present embodiment, for example, in such a case, it is determined that the enemy object EO passes through the boundary surface 3.

情報処理部31は、敵オブジェクトEOが境界面3を通過すると判定した場合、次のステップ67に処理を進める。一方、情報処理部31は、敵オブジェクトEOが境界面3を通過しないと判定した場合、当該サブルーチンによる処理を終了する。   If the information processing unit 31 determines that the enemy object EO passes through the boundary surface 3, the information processing unit 31 proceeds to the next step 67. On the other hand, if the information processing section 31 determines that the enemy object EO does not pass through the boundary surface 3, the information processing section 31 ends the processing by the subroutine.

ステップ67において、情報処理部31は、境界面データDdに含まれる開口判定用データの更新処理を行って、当該サブルーチンによる処理を終了する。本処理は、敵オブジェクトEOが境界面3を通過することによりできる境界面3上の開口情報を境界面データDdに登録するための処理である。例えば、第1の描画方法および第2の描画方法において、情報処理部31は、境界面データDdに含まれる開口判定用データの、敵オブジェクトEOが境界面3を通過する仮想空間上の位置に対応する位置を中心とした領域のアルファ値と開口形状データDf3のアルファ値とを乗算する。開口形状データDf3は、敵オブジェクトEOの配置位置を中心とした、アルファ値「0」が格納されたテクスチャデータである。そのため、当該乗算によって、敵オブジェクトEOの配置位置(敵オブジェクトEOが通過する境界面3上の座標)を中心として開口が生成される領域の開口判定用データのアルファ値は「0」となる。つまり、情報処理部31は、境界面3上に既に開口が存在するか否かを判定することなく、境界面の状態(具体的には開口判定用データ)を更新することができる。なお、敵オブジェクトと境界面の衝突位置に既に開口が存在するか否かを判定するようにしてもよい。そして、開口が存在しない場合には、当該衝突位置に対応する実世界画像が破片となって飛び散るエフェクトを表示してもよい。   In step 67, the information processing section 31 updates the opening determination data included in the boundary surface data Dd, and ends the processing by the subroutine. This process is a process for registering opening information on the boundary surface 3 that is created when the enemy object EO passes through the boundary surface 3 in the boundary surface data Dd. For example, in the first drawing method and the second drawing method, the information processing unit 31 sets the opening determination data included in the boundary surface data Dd to a position on the virtual space where the enemy object EO passes through the boundary surface 3. The alpha value of the area centered on the corresponding position is multiplied by the alpha value of the aperture shape data Df3. The opening shape data Df3 is texture data in which an alpha value “0” is stored with the arrangement position of the enemy object EO as the center. Therefore, the alpha value of the opening determination data in the region where the opening is generated around the position where the enemy object EO is arranged (coordinates on the boundary surface 3 through which the enemy object EO passes) is “0”. That is, the information processing unit 31 can update the state of the boundary surface (specifically, data for opening determination) without determining whether or not an opening already exists on the boundary surface 3. Note that it may be determined whether an opening already exists at the collision position between the enemy object and the boundary surface. When there is no opening, an effect may be displayed in which the real world image corresponding to the collision position is scattered as a fragment.

また、上記開口判定用データの更新処理においては、情報処理部31は、開口が生成されたことの演出処理(例えば、開口が生成された位置において壁が崩れる演出を行う)を行ってもよい。この場合、情報処理部31は、敵オブジェクトEOが境界面3を通過する位置(開口を生成する範囲)が既に開口状態であったか否かの判定をする必要がある。情報処理部31は、例えば、開口形状データDf3のアルファ値を「0」から「1」に反転させたデータと上記乗算した開口判定用データのアルファ値とを乗算することにより、開口を生成する範囲が既に開口状態であったかどうかの判定をすることができる。すなわち、開口を生成する範囲全てが既に開口状態であった場合、開口判定用データのアルファ値は「0」であるから、当該乗算結果は「0」である。他方、開口を生成する範囲の一部でも開口状態ではない場合、開口判定用データのアルファ値は「0」でない部分が存在するため、当該乗算結果は「0」以外となる。   In addition, in the opening determination data updating process, the information processing section 31 may perform an effect process that an opening has been generated (for example, an effect that causes a wall to collapse at the position where the opening is generated). . In this case, the information processing unit 31 needs to determine whether or not the position where the enemy object EO passes through the boundary surface 3 (the range in which the opening is generated) is already in the open state. For example, the information processing section 31 multiplies data obtained by inverting the alpha value of the opening shape data Df3 from “0” to “1” by the alpha value of the multiplied opening determination data, thereby generating an opening. It can be determined whether the range is already open. That is, when the entire range in which the opening is generated is already in the opening state, the alpha value of the opening determination data is “0”, and thus the multiplication result is “0”. On the other hand, if even a part of the range for generating the opening is not in the opening state, the multiplication result is other than “0” because there is a portion where the alpha value of the opening determination data is not “0”.

なお、敵オブジェクトEOの開口形状データDf3は、敵オブジェクトEOの形状に対応したアルファ値「0」を格納したテクスチャデータであるが、情報処理部31は、所定のイベントにより当該テクスチャデータのアルファ値を「1」に変換してもよい。当該変更後上記処理が行われた場合、開口形状データDf3のアルファ値が「1」であるため、開口判定用データのアルファ値は変更されない。この場合、敵オブジェクトEOは、開口を作らず、境界面3を通過する。すなわち、これによって、敵オブジェクトEOが、境界面3をすり抜けるかのような演出を行うことができる(図22参照)。なお、所定のイベントとは、例えば、乱数や所定の間隔で定められた時間間隔であってもよいし、ゲーム上の所定条件が満たされたことであってもよい。そして、これらは、例えば、メインメモリ32に保持されている各種プログラム群Paによって設定されてもよい。   The opening shape data Df3 of the enemy object EO is texture data in which an alpha value “0” corresponding to the shape of the enemy object EO is stored. However, the information processing unit 31 performs an alpha value of the texture data according to a predetermined event. May be converted to “1”. When the process is performed after the change, the alpha value of the opening determination data is not changed because the alpha value of the opening shape data Df3 is “1”. In this case, the enemy object EO passes through the boundary surface 3 without making an opening. That is, it is possible to produce an effect as if the enemy object EO slips through the boundary surface 3 (see FIG. 22). The predetermined event may be, for example, a random number or a time interval determined by a predetermined interval, or may be that a predetermined condition on the game is satisfied. These may be set by various program groups Pa held in the main memory 32, for example.

図29に戻り、上記ステップ53における敵オブジェクト関連処理の後、情報処理部31は、弾オブジェクト関連処理を行い(ステップ54)、次のステップ55に処理を進める。以下、図31を参照して、弾オブジェクト関連処理について説明する。   Returning to FIG. 29, after the enemy object related processing in step 53, the information processing section 31 performs bullet object related processing (step 54), and proceeds to the next step 55. Hereinafter, bullet object related processing will be described with reference to FIG.

図31において、情報処理部31は、設定されている移動速度ベクトルに応じて、仮想空間内で弾オブジェクトBOを移動させ(ステップ71)、次のステップ72に処理を進める。例えば、情報処理部31は、弾オブジェクトデータDgに含まれる移動速度ベクトルを示すデータに基づいて、弾オブジェクトBOの配置方向や配置位置を示すデータを更新する。この際、情報処理部31は、周知の方法で、当該移動速度ベクトルを示すデータを更新してもよい。また、例えば、情報処理部31は、弾オブジェクトBOの種類に応じて、当該移動速度ベクトルを示すデータの更新方法を変えてもよい。例えば、弾オブジェクトBOがボールである場合、情報処理部31は、仮想空間上鉛直方向における重力の影響を考慮して、当該移動速度ベクトルを示すデータを更新してもよい。   In FIG. 31, the information processing section 31 moves the bullet object BO in the virtual space according to the set moving speed vector (step 71), and proceeds to the next step 72. For example, the information processing unit 31 updates the data indicating the arrangement direction and the arrangement position of the bullet object BO based on the data indicating the moving speed vector included in the bullet object data Dg. At this time, the information processing section 31 may update the data indicating the movement speed vector by a known method. For example, the information processing unit 31 may change the update method of data indicating the moving speed vector according to the type of the bullet object BO. For example, when the bullet object BO is a ball, the information processing unit 31 may update the data indicating the movement speed vector in consideration of the influence of gravity in the vertical direction in the virtual space.

次に、情報処理部31は、ゲーム装置10のユーザによって発射操作が行われたか否かを判断する(ステップ72)。例えば、情報処理部31は、操作子データDa1を参照して、ユーザが所定の発射操作(例えば、ボタン14B(Aボタン)の押下)を行ったか否かを判断する。そして、情報処理部31は、発射操作が行われた場合、次のステップ73に処理を進める。一方、情報処理部31は、発射操作が行われていない場合、次のステップ74に処理を進める。   Next, the information processing section 31 determines whether or not a launch operation has been performed by the user of the game apparatus 10 (step 72). For example, the information processing section 31 refers to the operator data Da1 and determines whether or not the user has performed a predetermined firing operation (for example, pressing the button 14B (A button)). Then, when the launch operation is performed, the information processing section 31 proceeds to the next step 73. On the other hand, the information processing unit 31 proceeds to the next step 74 when the launch operation is not performed.

ステップ73において、情報処理部31は、発射操作に応じて、仮想空間における仮想カメラの位置に弾オブジェクトBOを配置し、当該弾オブジェクトBOに対する移動速度ベクトルを設定して、次のステップ74に処理を進める。例えば、情報処理部31は、当該発射操作に対応する弾オブジェクトデータDgを生成する。そして、例えば、情報処理部31は、仮想カメラデータDjに含まれる仮想カメラの配置位置や配置方向(視線方向)を示すデータを、生成した弾オブジェクトデータDgに含まれる弾オブジェクトBOの配置位置や配置方向を示すデータに格納する。また、例えば、情報処理部31は、生成した弾オブジェクトデータDgに含まれる移動速度ベクトルを示すデータに任意の値を格納する。当該移動速度ベクトルを示すデータに格納する値は、メインメモリ32に保持されている各種プログラム群Paによって設定されてもよい。   In step 73, the information processing section 31 arranges the bullet object BO at the position of the virtual camera in the virtual space in accordance with the launch operation, sets the moving speed vector for the bullet object BO, and proceeds to the next step 74. To proceed. For example, the information processing unit 31 generates bullet object data Dg corresponding to the firing operation. Then, for example, the information processing section 31 uses data indicating the placement position and placement direction (gaze direction) of the virtual camera included in the virtual camera data Dj as the placement position of the bullet object BO included in the generated bullet object data Dg, Store in the data indicating the direction of placement. Further, for example, the information processing unit 31 stores an arbitrary value in the data indicating the moving speed vector included in the generated bullet object data Dg. The value stored in the data indicating the moving speed vector may be set by various program groups Pa held in the main memory 32.

ステップ74において、情報処理部31は、敵オブジェクトEOと弾オブジェクトBOとが仮想空間内で接触したか否かを判断する。例えば、情報処理部31は、敵オブジェクトデータDfに含まれる敵オブジェクトEOの配置位置を示すデータと、弾オブジェクトデータDgに含まれる弾オブジェクトBOの配置位置を示すデータとを比較して、敵オブジェクトEOと弾オブジェクトBOとが仮想空間内で接触したか否かを判断する。例えば、情報処理部31は、敵オブジェクトEOの配置位置を示すデータと弾オブジェクトBOの配置位置を示すデータとが所定の条件を満たした場合、敵オブジェクトEOと弾オブジェクトBOとが接触したと判定する。また、そうではない場合、情報処理部31は、敵オブジェクトEOと弾オブジェクトBOとが接触していないと判定する。なお、所定の条件とは、例えば、敵オブジェクトEOの配置位置と弾オブジェクトBOの配置位置との間の距離が所定の値よりも小さくなることである。当該所定の値は、例えば、敵オブジェクトEOの大きさに基づいた値であってもよい。   In step 74, the information processing section 31 determines whether or not the enemy object EO and the bullet object BO have contacted each other in the virtual space. For example, the information processing unit 31 compares the data indicating the placement position of the enemy object EO included in the enemy object data Df with the data indicating the placement position of the bullet object BO included in the bullet object data Dg. It is determined whether the EO and the bullet object BO are in contact with each other in the virtual space. For example, the information processing unit 31 determines that the enemy object EO and the bullet object BO are in contact when the data indicating the arrangement position of the enemy object EO and the data indicating the arrangement position of the bullet object BO satisfy a predetermined condition. To do. Otherwise, the information processing section 31 determines that the enemy object EO and the bullet object BO are not in contact. The predetermined condition is, for example, that the distance between the arrangement position of the enemy object EO and the arrangement position of the bullet object BO is smaller than a predetermined value. The predetermined value may be a value based on the size of the enemy object EO, for example.

そして、情報処理部31は、敵オブジェクトEOと弾オブジェクトBOとが接触したと判定した場合、次のステップ75に処理を進める。一方、情報処理部31は、敵オブジェクトEOと弾オブジェクトBOとが接触していないと判定した場合、次のステップ76に処理を進める。   If the information processing unit 31 determines that the enemy object EO and the bullet object BO have contacted each other, the information processing unit 31 proceeds to the next step 75. On the other hand, if the information processing unit 31 determines that the enemy object EO and the bullet object BO are not in contact, the information processing unit 31 proceeds to the next step 76.

ステップ75において、情報処理部31は、加点処理を行って、次のステップ76に処理を進める。例えば、上記加点処理においては、情報処理部31は、得点データDhが示すゲームの得点を所定数だけ加点し、加点後の得点を用いて得点データDhを更新する。また、上記加点処理においては、情報処理部31は、上記ステップ84で接触したと判定された両者(すなわち、敵オブジェクトEOと弾オブジェクトBO)を仮想空間から消滅させる処理(例えば、弾オブジェクトBOと接触した敵オブジェクトEOおよび敵オブジェクトEOに接触した弾オブジェクトBOに関するそれぞれの敵オブジェクトデータDeおよび弾オブジェクトデータDgを初期化し、当該敵オブジェクトEOおよび弾オブジェクトBOが仮想空間に存在しない状態にする)を行う。なお、当該加点処理における所定値は、任意の値でよく、例えば、メインメモリ32に保持されている各種プログラム群Paによって設定されてもよい。   In step 75, the information processing section 31 performs a point addition process and proceeds to the next step 76. For example, in the above score process, the information processing section 31 scores a predetermined number of game scores indicated by the score data Dh, and updates the score data Dh using the score after the score. In addition, in the point addition process, the information processing section 31 performs a process (for example, a bullet object BO) that causes both of the touches determined to have contacted in step 84 (that is, the enemy object EO and the bullet object BO) to disappear from the virtual space. The enemy object data De and the bullet object data Dg relating to the enemy object EO that has touched and the bullet object BO that has come into contact with the enemy object EO are initialized, and the enemy object EO and the bullet object BO are not in the virtual space). Do. The predetermined value in the point addition process may be an arbitrary value, and may be set by various program groups Pa held in the main memory 32, for example.

ステップ76において、情報処理部31は、弾オブジェクトBOが境界面3上の非開口領域に接触したか否かを判断する。例えば、情報処理部31は、弾オブジェクトデータDgに含まれる弾オブジェクトBOの配置位置を示すデータと、開口判定用データとを用いて、弾オブジェクトBOが境界面3上の非開口領域に接触したか否かを判定する。   In step 76, the information processing section 31 determines whether or not the bullet object BO has contacted the non-opening area on the boundary surface 3. For example, the information processing unit 31 uses the data indicating the arrangement position of the bullet object BO included in the bullet object data Dg and the opening determination data, so that the bullet object BO contacts the non-opening area on the boundary surface 3. It is determined whether or not.

例えば、情報処理部31は、弾オブジェクトデータDgに含まれる弾オブジェクトBOの配置位置を示すデータが、上記敵オブジェクトBOの処理と同様に、境界面3の球体表面の条件式を満たすか否かを判定する。そして、情報処理部31は、弾オブジェクトBOの配置位置を示すデータが、当該球体表面の条件式を満たさない場合、弾オブジェクトBOが境界面3上に接触していないと判定する。他方、弾オブジェクトBOの配置位置を示すデータが、境界面3の球体表面の条件式を満たす場合、弾オブジェクトBOは、仮想空間上、境界面3上に存在することになる。このとき、情報処理部31は、例えば、当該弾オブジェクトBOが存在する境界面3上の位置に対応する位置を中心とした所定の領域について、開口判定用データのアルファ値を取得する。この所定の領域は、弾オブジェクトBOと境界面3との接触点を中心とした所定領域である。そして、当該所定領域の少なくとも一部に対応する開口判定用データのアルファ値が非開口領域に対応するアルファ値「1」である場合、弾オブジェクトBOが境界面3上の非開口領域に接触したと判定する。   For example, the information processing unit 31 determines whether or not the data indicating the placement position of the bullet object BO included in the bullet object data Dg satisfies the conditional expression of the sphere surface of the boundary surface 3 as in the processing of the enemy object BO. Determine. Then, the information processing unit 31 determines that the bullet object BO is not in contact with the boundary surface 3 when the data indicating the arrangement position of the bullet object BO does not satisfy the conditional expression of the sphere surface. On the other hand, when the data indicating the arrangement position of the bullet object BO satisfies the conditional expression of the sphere surface of the boundary surface 3, the bullet object BO exists on the boundary surface 3 in the virtual space. At this time, for example, the information processing section 31 acquires the alpha value of the opening determination data for a predetermined area centered on a position corresponding to the position on the boundary surface 3 where the bullet object BO exists. This predetermined area is a predetermined area centered on the contact point between the bullet object BO and the boundary surface 3. When the alpha value of the opening determination data corresponding to at least a part of the predetermined area is “1” corresponding to the non-opening area, the bullet object BO has contacted the non-opening area on the boundary surface 3. Is determined.

そして、情報処理部31は、弾オブジェクトBOが境界面3上の非開口領域に接触したと判定した場合、次のステップ77に処理を進める。一方、情報処理部31は、弾オブジェクトBOが境界面3上の非開口領域に接触していないと判定した場合、次のステップ78に処理を進める。   If the information processing unit 31 determines that the bullet object BO has contacted the non-opening region on the boundary surface 3, the information processing unit 31 proceeds to the next step 77. On the other hand, when the information processing unit 31 determines that the bullet object BO is not in contact with the non-opening region on the boundary surface 3, the information processing unit 31 proceeds to the next step 78.

ステップ77において、情報処理部31は、開口判定用データの更新処理を行って、次のステップ78に処理を進める。例えば、上記更新処理においては、情報処理部31は、境界面3の非開口領域と接触したと判定した弾オブジェクトBOの配置位置に対応する境界面3上の位置を中心とした所定領域の開口判定用データのアルファ値を非開口領域に対応するアルファ値「1」に更新する。この更新処理によって、弾オブジェクトBOが非開口領域に接触すると、接触点を中心とした所定領域内における開口判定用データのアルファ値が全て「1」に更新される。したがって、上記接触点をした中心とした所定領域内において開口判定用データのアルファ値が「0」に設定されている部分がある場合、当該部分における開口判定用データのアルファ値も「1」に更新されることになる。つまり、境界面3に設けられた開口のふちに弾オブジェクトBOが接触した場合、当該接触した位置を中心とした所定領域内に含まれる開口が非開口状態に修復されることになる。また、上記更新処理においては、情報処理部31は、上記ステップ76で接触したと判定された弾オブジェクトBOを仮想空間から消滅させる処理(例えば、境界面3上の非開口領域と接触した弾オブジェクトBOに関する弾オブジェクトデータDgを初期化し、当該弾オブジェクトBOが仮想空間に存在しない状態にする)を行う。なお、当該更新処理における所定領域は、任意の領域でよく、例えば、メインメモリ32に保持されている各種プログラム群Paによって設定されてもよい。   In step 77, the information processing section 31 updates the opening determination data and proceeds to the next step 78. For example, in the update process, the information processing section 31 opens a predetermined area centered on a position on the boundary surface 3 corresponding to the arrangement position of the bullet object BO determined to be in contact with the non-opening area of the boundary surface 3. The alpha value of the determination data is updated to the alpha value “1” corresponding to the non-opening area. When the bullet object BO comes into contact with the non-opening area by this update process, all the alpha values of the opening determination data in the predetermined area centered on the contact point are updated to “1”. Therefore, if there is a portion where the alpha value of the opening determination data is set to “0” within a predetermined area centered on the contact point, the alpha value of the opening determination data in that portion is also set to “1”. Will be updated. That is, when the bullet object BO comes into contact with the edge of the opening provided on the boundary surface 3, the opening included in the predetermined area centered on the contacted position is restored to the non-opening state. Further, in the update process, the information processing section 31 performs a process of eliminating the bullet object BO determined to have been contacted in step 76 from the virtual space (for example, a bullet object that has contacted the non-opening area on the boundary surface 3). The bullet object data Dg related to BO is initialized, and the bullet object BO does not exist in the virtual space). Note that the predetermined area in the update process may be an arbitrary area, and may be set by various program groups Pa held in the main memory 32, for example.

ステップ78において、情報処理部31は、弾オブジェクトBOが仮想空間における所定の位置まで到達したか否かを判断する。所定の位置は、例えば、仮想空間上における奥壁BWが存在する位置であってもよい。この場合、例えば、情報処理部31は、弾オブジェクトデータDgに含まれる弾オブジェクトBOの配置位置を示すデータが奥壁BWに衝突したか否かを判定する。   In step 78, the information processing section 31 determines whether or not the bullet object BO has reached a predetermined position in the virtual space. The predetermined position may be, for example, a position where the back wall BW exists in the virtual space. In this case, for example, the information processing section 31 determines whether data indicating the arrangement position of the bullet object BO included in the bullet object data Dg collides with the back wall BW.

そして、情報処理部31は、弾オブジェクトBOが所定の位置まで到達した場合、次のステップ77に処理を進める。一方、情報処理部31は、弾オブジェクトBOが所定の位置まで到達していない場合、当該サブルーチンによる処理を終了する。   Then, when the bullet object BO has reached a predetermined position, the information processing section 31 proceeds to the next step 77. On the other hand, when the bullet object BO has not reached the predetermined position, the information processing section 31 ends the processing by the subroutine.

ステップ77において、情報処理部31は、上記ステップ76で所定の位置に到達したと判定された弾オブジェクトBOを仮想空間から消滅させる処理を行い、当該サブルーチンによる処理を終了する。例えば、情報処理部31は、上記ステップ76で所定の位置に到達したと判定された弾オブジェクトBOを仮想空間から消滅させる処理(例えば、当該弾オブジェクトBOに関する弾オブジェクトデータDgを初期化し、当該弾オブジェクトBOが仮想空間に存在しない状態にする)を行う。   In step 77, the information processing section 31 performs a process of eliminating the bullet object BO determined to have reached the predetermined position in step 76 from the virtual space, and ends the process of the subroutine. For example, the information processing section 31 initializes the bullet object data Dg related to the bullet object BO, for example, to erase the bullet object BO determined to have reached the predetermined position in step 76 from the virtual space. The object BO does not exist in the virtual space).

図29に戻り、上記ステップ54における弾オブジェクト関連処理の後、情報処理部31は、ゲーム装置10の動きを算出して(ステップ55)、次のステップ56に処理を進める。一例として、情報処理部31は、角速度データDa2が示す角速度を用いて、ゲーム装置10の動き(例えば、ゲーム装置10に設けられた実カメラにおける撮像方向の変化)を算出し、当該動きを用いて動きデータDiを更新する。具体的には、ユーザが実空間においてゲーム装置10に設けられた実カメラの撮像方向を変化させた場合、ゲーム装置10全体の向きも変化するため、ゲーム装置10に当該変化に応じた角速度が生じる。そして、ゲーム装置10に生じた角速度を角速度センサ40が検出することによって、当該角速度を示すデータが角速度データDa2に格納される。したがって、情報処理部31は、角速度データDa2が示す角速度を用いることによって、ゲーム装置10に設けられた実カメラの撮像方向が変化した方向や変化した量(角度)をゲーム装置10の動きとして算出することが可能となる。   Returning to FIG. 29, after the bullet object related processing in step 54, the information processing section 31 calculates the movement of the game apparatus 10 (step 55), and proceeds to the next step 56. As an example, the information processing unit 31 calculates the movement of the game apparatus 10 (for example, the change in the imaging direction in the real camera provided in the game apparatus 10) using the angular velocity indicated by the angular velocity data Da2, and uses the movement. To update the motion data Di. Specifically, when the user changes the imaging direction of the real camera provided in the game device 10 in real space, the orientation of the game device 10 as a whole also changes, so the game device 10 has an angular velocity corresponding to the change. Arise. And the angular velocity sensor 40 detects the angular velocity which arose in the game device 10, and the data which show the said angular velocity are stored in the angular velocity data Da2. Therefore, the information processing unit 31 uses the angular velocity indicated by the angular velocity data Da2 to calculate the direction in which the imaging direction of the real camera provided in the game device 10 has changed and the amount (angle) of the change as the motion of the game device 10. It becomes possible to do.

次に、情報処理部31は、ゲーム装置10の動きに応じて仮想空間における仮想カメラの方向を変更し(ステップ56)、次のステップ57に処理を進める。例えば、情報処理部31は、動きデータDiを用いて、実空間におけるゲーム装置10の実カメラの撮像方向変化と同じ変化を、仮想空間における仮想カメラに与え、変化後の仮想カメラの位置や方向を用いて仮想カメラデータDjを更新する。一例として、実空間におけるゲーム装置10の実カメラの撮像方向が左へA°変化した場合、仮想空間における仮想カメラの方向も左へA°変化させる。これによって、実空間内に配置されているように表示されている敵オブジェクトEOや弾オブジェクトBOは、実空間内におけるゲーム装置10の方向や位置が変わっても実空間内における同じ位置に配置されているように表示される。   Next, the information processing section 31 changes the direction of the virtual camera in the virtual space according to the movement of the game apparatus 10 (step 56), and proceeds to the next step 57. For example, the information processing unit 31 uses the motion data Di to give the same change in the imaging direction of the real camera of the game device 10 in the real space to the virtual camera in the virtual space, and the position and direction of the virtual camera after the change Is used to update the virtual camera data Dj. As an example, when the imaging direction of the real camera of the game device 10 in the real space changes A ° to the left, the direction of the virtual camera in the virtual space also changes A ° to the left. Thereby, the enemy object EO and the bullet object BO displayed so as to be arranged in the real space are arranged at the same position in the real space even if the direction and the position of the game apparatus 10 in the real space are changed. Is displayed.

次に、情報処理部31は、表示画面の更新処理を行い(ステップ57)、次のステップ58に処理を進める。以下、図32Aおよび図32Bを参照して、表示画面の更新処理について説明する。図32Aは、第1の描画方法における表示画面の更新処理である。また、図32Bは、第2の描画方法における表示画面の更新処理である。   Next, the information processing section 31 performs a display screen update process (step 57), and proceeds to the next step 58. Hereinafter, the display screen update process will be described with reference to FIGS. 32A and 32B. FIG. 32A shows display screen update processing in the first drawing method. FIG. 32B shows display screen update processing in the second drawing method.

まず、第1の描画方法における表示画面の更新処理について説明する。   First, display screen update processing in the first drawing method will be described.

図32Aにおいて、情報処理部31は、上記ステップ52で取得した実カメラ画像を仮想カメラの視体積内におけるスクリーンオブジェクト(境界面3)に貼り付ける処理を行い(ステップ81)、次のステップ82に処理を進める。例えば、情報処理部31は、上記ステップ52で更新した実カメラ画像データDbを用いて、実世界画像データDcに含まれる実カメラ画像のテクスチャデータを更新する。そして、情報処理部31は、仮想カメラデータDjに含まれる仮想カメラの仮想空間上の配置方向および配置位置を示すデータを用いて、仮想カメラの視線方向と境界面3の重なる点を求める。情報処理部31は、求めた点を中心として実世界画像データDcに含まれる上記実カメラ画像のテクスチャデータを貼り付け、境界面データDdを更新する。このとき、情報処理部31は、テクスチャデータを貼り付ける領域に設定されている開口判定用データを、テクスチャデータの各画素に対応する領域分取得する。そして、情報処理部31は、取得した開口判定用データに設定されているアルファ値(「0」または「0.2」)を上記テクスチャデータに適用する。具体的には、情報処理部31は、貼り付ける実カメラ画像のテクスチャデータの各画素の色情報と、開口判定用データの対応する位置におけるアルファ値とを掛け算する。この処理により、上述のとおり、実世界画像に開口が表現される。なお、開口判定用データに格納されるアルファ値「0.2」(非開口領域)は、上記掛け算の際は、上述のマテリアルとしてのアルファ値「1」として取り扱われる。また、本実施形態では、境界面3に貼り付けられる実カメラ画像のテクスチャデータは、仮想カメラC0の視野範囲よりも領域の広い画像データである。   In FIG. 32A, the information processing section 31 performs a process of pasting the real camera image acquired in the above step 52 on the screen object (boundary surface 3) within the visual volume of the virtual camera (step 81). Proceed with the process. For example, the information processing section 31 updates the texture data of the actual camera image included in the actual world image data Dc using the actual camera image data Db updated in step 52. Then, the information processing unit 31 uses the data indicating the arrangement direction and the arrangement position of the virtual camera in the virtual space included in the virtual camera data Dj to obtain a point where the visual line direction of the virtual camera and the boundary surface 3 overlap. The information processing unit 31 pastes the texture data of the real camera image included in the real world image data Dc around the obtained point, and updates the boundary surface data Dd. At this time, the information processing section 31 acquires the opening determination data set in the area where the texture data is pasted for the area corresponding to each pixel of the texture data. Then, the information processing section 31 applies the alpha value (“0” or “0.2”) set in the acquired aperture determination data to the texture data. Specifically, the information processing unit 31 multiplies the color information of each pixel of the texture data of the actual camera image to be pasted by the alpha value at the corresponding position of the aperture determination data. By this processing, as described above, the opening is expressed in the real world image. The alpha value “0.2” (non-aperture area) stored in the aperture determination data is handled as the alpha value “1” as the above-described material in the multiplication. In the present embodiment, the texture data of the actual camera image pasted on the boundary surface 3 is image data having a wider area than the visual field range of the virtual camera C0.

次に、情報処理部31は、仮想空間をレンダリングする処理により表示画像を生成し(ステップ82)、当該サブルーチンによる処理を終了する。例えば、情報処理部31は、境界面3(スクリーンオブジェクト)、敵オブジェクトEO、弾オブジェクトEO、および奥壁BWが配置されている仮想空間をレンダリングした画像を生成し、当該画像を用いてレンダリング画像データDkに含まれる仮想空間のレンダリング画像データを更新する。また、情報処理部31は、仮想空間のレンダリング画像データを用いて表示画像データDlを更新する。以下、図33および図34を用いて、当該レンダリング処理の一例について説明する。   Next, the information processing section 31 generates a display image by processing for rendering the virtual space (step 82), and ends the processing by the subroutine. For example, the information processing unit 31 generates an image obtained by rendering a virtual space in which the boundary surface 3 (screen object), the enemy object EO, the bullet object EO, and the back wall BW are arranged, and the rendered image is used by using the image. The rendering image data of the virtual space included in the data Dk is updated. Further, the information processing unit 31 updates the display image data Dl using the rendering image data in the virtual space. Hereinafter, an example of the rendering process will be described with reference to FIGS. 33 and 34.

図33は、仮想空間上における、敵オブジェクトEO、弾オブジェクトBO、境界面3(開口判定用データが設定されたスクリーンオブジェクト)および奥壁BWの配置例を示す。また、図34は、図33における仮想カメラC0が原点から(X,Y,Z)=(0,0,1)方向に向いているとした場合における各オブジェクトの位置関係を示す。このように、敵オブジェクトEO、弾オブジェクトBO、境界面3および奥壁BWが、それぞれ敵オブジェクトデータDf、弾オブジェクトデータDg、境界面データDdおよび奥壁画像データDeに含まれる配置位置を示すデータに応じて配置されている。また、仮想空間には、仮想空間をレンダリングするための仮想カメラC0が、仮想カメラデータDjに含まれる配置方向および配置位置を示すデータに応じて配置されている。   FIG. 33 shows an arrangement example of the enemy object EO, the bullet object BO, the boundary surface 3 (screen object for which opening determination data is set), and the back wall BW in the virtual space. FIG. 34 shows the positional relationship of each object when the virtual camera C0 in FIG. 33 is oriented in the (X, Y, Z) = (0, 0, 1) direction from the origin. Thus, the data indicating the placement positions of the enemy object EO, the bullet object BO, the boundary surface 3 and the back wall BW included in the enemy object data Df, the bullet object data Dg, the boundary surface data Dd and the back wall image data De, respectively. Are arranged according to. In the virtual space, a virtual camera C0 for rendering the virtual space is arranged according to data indicating the arrangement direction and the arrangement position included in the virtual camera data Dj.

情報処理部31は、図33(または図34)に示されるとおり境界面3を含み、仮想空間に配置された敵オブジェクトEO、弾オブジェクトBO、奥壁BWを仮想カメラC0により透視投影でレンダリングする。このとき、情報処理部31は、描画の優先度情報を考慮する。通常の透視投影では、境界面3により、第2空間2に存在するオブジェクトは描画されない。本実施形態のゲームでは、境界面3(実世界画像)に開口部を設けて、その開口部から第2空間2の一部が見えるようにした。また、第2空間2にあるオブジェクトの影を実世界画像に合成して描画するようにした。こうすることによって、実世界画像の向こうにさらに仮想世界が存在しているかのような感覚をユーザに与えることができる。具体的には、情報処理部31は、描画の優先度情報を用いて、当該レンダリング処理を行う。なお、本実施形態における画像処理プログラムは、当該描画の優先度の一例として、アルファ値を用いる。   The information processing section 31 includes the boundary surface 3 as shown in FIG. 33 (or FIG. 34), and renders the enemy object EO, the bullet object BO, and the back wall BW arranged in the virtual space by perspective projection with the virtual camera C0. . At this time, the information processing unit 31 considers drawing priority information. In normal perspective projection, the object existing in the second space 2 is not drawn by the boundary surface 3. In the game of the present embodiment, an opening is provided in the boundary surface 3 (real world image) so that a part of the second space 2 can be seen from the opening. In addition, the shadow of the object in the second space 2 is combined with the real world image and drawn. By doing so, it is possible to give the user a feeling as if there is a virtual world beyond the real world image. Specifically, the information processing section 31 performs the rendering process using drawing priority information. Note that the image processing program in the present embodiment uses an alpha value as an example of the drawing priority.

上記透視投影において、第2空間2に存在するオブジェクト(本実施形態では敵オブジェクトEOまたは奥壁BW)は、境界面3の背後に存在する。ここで、境界面3は、上述のステップ81により実カメラ画像のテクスチャデータが仮想カメラC0の視野方向(視野範囲)に貼られたスクリーンオブジェクトである。また、上記のとおり、実カメラ画像のテクスチャデータには、各位置に対応する開口判定用データが適用されている。したがって、仮想カメラC0の視野範囲には、開口判定用データが適用された実世界画像が存在する。   In the perspective projection, an object (in this embodiment, the enemy object EO or the back wall BW) existing in the second space 2 exists behind the boundary surface 3. Here, the boundary surface 3 is a screen object in which the texture data of the real camera image is pasted in the visual field direction (visual field range) of the virtual camera C0 in step 81 described above. Further, as described above, aperture determination data corresponding to each position is applied to the texture data of the actual camera image. Therefore, a real world image to which the aperture determination data is applied exists in the visual field range of the virtual camera C0.

なお、本実施形態では、例えば、情報処理部31は、開口判定用データにアルファ値「0」が格納された領域(開口領域)については、第2空間2のうち開口領域から見える領域に存在する仮想オブジェクトや奥壁BWの画像を描画(レンダリング)する。また、情報処理部31は、開口判定用データに非開口領域に対応するアルファ値「0.2」が格納された領域(非開口領域としてアルファ値「1」が格納された領域として取り扱われる領域)については、第2空間2に存在する仮想オブジェクトや奥壁BWは描画されない。すなわち、表示される画像において当該領域に対応する部分には、上述のステップ81により貼り付けられた実世界画像が描画されることになる。   In the present embodiment, for example, the information processing unit 31 has an area (opening area) in which the alpha value “0” is stored in the opening determination data in the area that can be seen from the opening area in the second space 2. The virtual object or the image of the back wall BW is drawn (rendered). In addition, the information processing unit 31 stores an area where the alpha value “0.2” corresponding to the non-opening area is stored in the opening determination data (an area treated as an area where the alpha value “1” is stored as the non-opening area) ), The virtual object and the back wall BW existing in the second space 2 are not drawn. That is, in the displayed image, the real world image pasted in the above-described step 81 is drawn in the portion corresponding to the area.

したがって、仮想カメラC0から見て開口判定用データに「0」が格納された領域については、実体データDf1、または、奥壁画像データDeに含まれる画像データが描画されるようレンダリングされる。そして、上側LCD22上において当該領域に対応する部分には、仮想オブジェクトや奥壁BWの画像が表示されることになる。   Therefore, the region in which “0” is stored in the aperture determination data as viewed from the virtual camera C0 is rendered so that the image data included in the entity data Df1 or the back wall image data De is drawn. Then, on the upper LCD 22, a virtual object or an image of the back wall BW is displayed in a portion corresponding to the area.

また、仮想カメラC0から見て開口判定用データに非開口領域を示すアルファ値「0.2」が格納された領域(非開口領域としてアルファ値「1」が格納された領域として取り扱われる領域)については、第2空間2に存在する仮想オブジェクトや奥壁BWは描画されない。すなわち、上側LCD22に表示される画像において当該領域に対応する部分には、実世界画像が描画されることになる。ただし、前述の第2空間2に存在する敵オブジェクトEOの影ES(シルエットモデル)については、境界面3との間のデプス判定を無効に設定されており、境界面3のアルファ値「0.2」よりもシルエットモデルのアルファ値「1」の方が大きいため、非開口領域を示すアルファ値「1」が格納されている領域(開口判定用データにアルファ値「0.2」が格納された領域)において描画される。これにより、実世界画像上に影ESの画像が描画される。   In addition, an area in which the alpha value “0.2” indicating the non-opening area is stored in the opening determination data as viewed from the virtual camera C0 (an area handled as an area in which the alpha value “1” is stored as the non-opening area) As for, the virtual object and the back wall BW existing in the second space 2 are not drawn. That is, in the image displayed on the upper LCD 22, a real world image is drawn in a portion corresponding to the area. However, for the shadow ES (silhouette model) of the enemy object EO existing in the second space 2 described above, depth determination with the boundary surface 3 is set to be invalid, and the alpha value “0. Since the alpha value “1” of the silhouette model is larger than “2”, the alpha value “1” indicating the non-opening area is stored (the alpha value “0.2” is stored in the opening determination data). Drawn). Thereby, an image of the shadow ES is drawn on the real world image.

また、敵オブジェクトEOの影ES(シルエットモデル)は実体モデルに内包されるようなサイズでかつそのように配置され、かつ、敵オブジェクトEOの実体モデルと影ESのシルエットモデルはデプス判定有効に設定される、敵オブジェクトEOが第1空間1に存在する場合、シルエットモデルは実体モデルに隠されるため描画されない。   In addition, the shadow ES (silhouette model) of the enemy object EO is sized to be included in the entity model and arranged as such, and the entity model of the enemy object EO and the silhouette model of the shadow ES are set to enable depth determination. When the enemy object EO exists in the first space 1, the silhouette model is not drawn because it is hidden by the entity model.

なお、本実施形態における境界面3の形状は図20Aに示すように球体表面の中央部であるため、仮想カメラC0の視線方向によっては、開口判定用データが存在しない。この場合、疑似的にアルファ値を「0.2」を格納した開口判定用データが存在するものとして、上記処理を行う。つまり、開口判定用データが存在しない領域は、非開口領域を示すアルファ値「1」が格納されている領域として取り扱われる。   In addition, since the shape of the boundary surface 3 in this embodiment is the center part of the spherical surface as shown in FIG. In this case, the above processing is performed on the assumption that there is aperture determination data in which an alpha value “0.2” is stored in a pseudo manner. That is, the area where the opening determination data does not exist is handled as an area in which the alpha value “1” indicating the non-opening area is stored.

また、本実施形態における敵オブジェクトEOに対応する敵オブジェクトデータDfに含まれるシルエットデータDf2は、複数の平面ポリゴンがその法線方向を敵オブジェクトEOから見て各放射方向となるように設定されており、各平面ポリゴンには、敵オブジェクトEOをその方向から見たシルエット画像のテクスチャが適用される。したがって、本実施形態における画像処理プログラムでは、仮想空間画像における敵オブジェクトEOの影は、第2空間2における敵オブジェクトEOの向きが反映された画像として表現される。   Further, the silhouette data Df2 included in the enemy object data Df corresponding to the enemy object EO in the present embodiment is set so that a plurality of planar polygons have respective radial directions when the normal direction is viewed from the enemy object EO. The texture of a silhouette image obtained by viewing the enemy object EO from the direction is applied to each planar polygon. Therefore, in the image processing program in the present embodiment, the shadow of the enemy object EO in the virtual space image is expressed as an image reflecting the direction of the enemy object EO in the second space 2.

また、情報処理部31は、照準カーソル画像データDmに含まれる画像データを仮想カメラC0の視野の中心(レンダリングする画像の中心)に優先して描画されるように上記レンダリング処理を行う。   Further, the information processing section 31 performs the rendering process so that the image data included in the aiming cursor image data Dm is drawn with priority over the center of the visual field of the virtual camera C0 (the center of the image to be rendered).

以上の処理によって、情報処理部31は、仮想空間に配置された敵オブジェクトEO、弾オブジェクトBO、および奥壁BWを透視投影でレンダリングし、仮想カメラC0から見た仮想世界画像(照準カーソルALを含んだ画像)を生成し、仮想空間のレンダリング画像データを更新する(ステップ82)。そして、更新した仮想空間のレンダリング画像データを用いて、表示画像データDlを更新する。   Through the above processing, the information processing section 31 renders the enemy object EO, the bullet object BO, and the back wall BW arranged in the virtual space by perspective projection, and displays the virtual world image (the aim cursor AL viewed from the virtual camera C0). Including the image) and updating the rendering image data in the virtual space (step 82). Then, the display image data Dl is updated using the updated rendering image data of the virtual space.

次に、第2の描画方法における表示画面の更新処理について説明する。   Next, display screen update processing in the second drawing method will be described.

図32Bにおいて、情報処理部31は、上記ステップ52で取得した実カメラ画像をレンダリングする処理を行い(ステップ83)、次のステップ84に処理を進める。例えば、情報処理部31は、上記ステップ52で更新した実カメラ画像データDbを用いて、実世界画像データDcに含まれる実カメラ画像のテクスチャデータを更新する。そして、情報処理部31は、更新した実世界画像データDcを用いて、実カメラ画像をレンダリングした画像を生成し、生成した画像を用いて、レンダリング画像データDkに含まれる実カメラ画像のレンダリング画像データを更新する。以下、図35および図36を用いて実カメラ画像をレンダリングする処理例について説明する。   In FIG. 32B, the information processing section 31 performs processing for rendering the actual camera image acquired in step 52 (step 83), and proceeds to the next step 84. For example, the information processing section 31 updates the texture data of the actual camera image included in the actual world image data Dc using the actual camera image data Db updated in step 52. Then, the information processing unit 31 generates an image obtained by rendering the real camera image using the updated real world image data Dc, and uses the generated image to render the real camera image included in the rendering image data Dk. Update the data. Hereinafter, a processing example for rendering an actual camera image will be described with reference to FIGS. 35 and 36.

本実施形態において情報処理部31は、図35に示すように、ゲーム装置10の実カメラから得られた実カメラ画像をテクスチャに設定し、当該テクスチャがマッピングされた平面ポリゴンを生成する。そして、情報処理部31は、実世界画像描画用カメラC1から、平行投影で上記平面ポリゴンをレンダリングした画像を実世界画像として生成する。ここで、上側LCD22の表示画面全面に、ゲーム装置10の実カメラから得られた実カメラ画像全面が表示される場合の実世界画像生成方法の一例について説明する。なお、本実施形態では上側LCD22の表示画面全体に本実施形態の合成画像(実世界画像と仮想世界画像との合成画像)が表示されるようにしたが、上側LCD22の表示画面の一部領域に合成画像が表示されるようにしてもよい。この場合には、この合成画像全体に実カメラ画像全体が表示されるようにする。   In this embodiment, as shown in FIG. 35, the information processing section 31 sets a real camera image obtained from a real camera of the game apparatus 10 as a texture, and generates a planar polygon to which the texture is mapped. Then, the information processing section 31 generates, as a real world image, an image obtained by rendering the planar polygon by parallel projection from the real world image drawing camera C1. Here, an example of a real world image generation method in the case where the entire real camera image obtained from the real camera of the game apparatus 10 is displayed on the entire display screen of the upper LCD 22 will be described. In the present embodiment, the composite image (composite image of the real world image and the virtual world image) of the present embodiment is displayed on the entire display screen of the upper LCD 22, but a partial area of the display screen of the upper LCD 22. A composite image may be displayed on the screen. In this case, the entire real camera image is displayed on the entire composite image.

まず、上記平面ポリゴンを配置する仮想空間の座標の1単位に対して、iピクセルのテクスチャをマッピングする平面ポリゴンを考える。この場合、上記座標の1単位×1単位の領域に対して、iピクセル×iピクセルのテクスチャがマッピングされることになる。ここで、上側LCD22の表示画面が横Wdot×縦Hdotであって、Wdot×Hdotの表示画面全面と上記実カメラ画像のテクスチャ全面とが対応しているとする。つまり、カメラ画像のテクスチャデータのサイズが横Wピクセル×縦Hピクセルであるとする。   First, consider a planar polygon that maps an i-pixel texture to one unit of coordinates in the virtual space where the planar polygon is placed. In this case, a texture of i pixels × i pixels is mapped to an area of 1 unit × 1 unit of the coordinates. Here, it is assumed that the display screen of the upper LCD 22 is horizontal Wdot × vertical Hdot, and the entire display screen of Wdot × Hdot corresponds to the entire texture of the actual camera image. That is, the size of the texture data of the camera image is assumed to be W horizontal pixels × H vertical pixels.

この場合、当該表示画面の1dot×1dotと上記実カメラ画像のテクスチャ1ピクセル×1ピクセルとが対応するように平面ポリゴンを配置することを考えればよく、図36に示すように上記座標を定めればよい。すなわち、上記カメラ画像のテクスチャが主面全面にマッピングされた平面ポリゴンの幅がW/i座標分となり、平面ポリゴンの縦がH/i座標分となるように、当該平面ポリゴンを配置する仮想空間のXY座標を設定する。そして、上記テクスチャがマッピングされた平面ポリゴンの主面中心を仮想空間のXY座標の原点に一致させ、当該平面ポリゴンの横方向がX軸方向(右方向がX軸正方向)となり、当該平面ポリゴンの縦方向がY軸方向(上方向がY軸正方向)となるように当該平面ポリゴンを配置する。この場合、上記テクスチャがマッピングされた平面ポリゴンの主面における右上角位置が(X,Y)=(W/2i,H/2i)に配置され、右下角位置が(X,Y)=(W/2i,−H/2i)に配置され、左上角位置が(X,Y)=(−W/2i,H/2i)に配置され、左下角位置が(X,Y)=(−W/2i,−H/2i)に配置されることになる。   In this case, it is only necessary to consider arranging the plane polygon so that 1 dot × 1 dot of the display screen corresponds to the texture 1 pixel × 1 pixel of the actual camera image, and the coordinates are determined as shown in FIG. That's fine. That is, the virtual space in which the plane polygon is arranged so that the width of the plane polygon in which the texture of the camera image is mapped on the entire main surface is the W / i coordinate and the height of the plane polygon is the H / i coordinate. Set the XY coordinates. Then, the principal surface center of the planar polygon to which the texture is mapped is made coincident with the origin of the XY coordinates of the virtual space, the horizontal direction of the planar polygon is the X-axis direction (the right direction is the X-axis positive direction), and the planar polygon The planar polygons are arranged so that the vertical direction is the Y-axis direction (upward is the positive Y-axis direction). In this case, the upper right corner position on the main surface of the planar polygon to which the texture is mapped is arranged at (X, Y) = (W / 2i, H / 2i), and the lower right corner position is (X, Y) = (W / 2i, -H / 2i), the upper left corner position is placed at (X, Y) = (-W / 2i, H / 2i), and the lower left corner position is (X, Y) = (-W / 2i, -H / 2i).

このように配置すれば、上記座標の1単位×1単位の領域が、テクスチャのiピクセル×iピクセルの領域に対応するため、平面ポリゴンの横(W/i)×縦(H/i)の領域は、テクスチャのWピクセル×Hピクセルのサイズに対応する。   By arranging in this way, the area of 1 unit × 1 unit of the coordinates corresponds to the area of i pixels × i pixels of the texture, so that the horizontal (W / i) × vertical (H / i) of the planar polygon. The region corresponds to the size of W pixels × H pixels of the texture.

以上のとおり、表示画面上の1dotと実カメラ画像(テクスチャ)の1ピクセルとが対応するように、仮想空間の座標に配置された平面ポリゴンを平行投影でレンダリングすることによって、ゲーム装置10の実カメラから得られた実カメラ画像に対応する実世界画像が生成される。   As described above, by rendering the plane polygon arranged at the coordinates of the virtual space by parallel projection so that 1 dot on the display screen corresponds to 1 pixel of the real camera image (texture), the game device 10 can be actually displayed. A real world image corresponding to the real camera image obtained from the camera is generated.

なお、上述のとおり、実世界画像データDcに含まれる実カメラ画像のテクスチャデータは、実カメラ画像データDbによって更新されるが、実カメラ画像データDbの画像の横A×縦Bのサイズと当該テクスチャデータの横W×縦Hのサイズが一致しない場合が存在する。この場合、情報処理部31は、任意の方法で、当該テクスチャデータの更新を行う。例えば、情報処理部31は、W×Hサイズの画像(テクスチャデータの画像)に合うように、実カメラ画像データDbの画像の横Aおよび縦Bのサイズを拡大および縮小した画像を用いて、テクスチャデータを更新してもよい。また、例えば、実カメラ画像データDbの画像の横Aおよび縦Bのサイズが、テクスチャデータの横Wおよび縦Hのサイズよりも大きいとする。この場合、例えば、情報処理部31は、実カメラ画像データDbの画像の所定位置より、W×Hサイズの画像(テクスチャデータの画像)を切り出し、当該テクスチャデータを更新してもよい。また、例えば、実カメラ画像データDbの画像の横Aおよび縦Bのサイズの少なくともどちらか一方が、テクスチャデータの横Wおよび縦Hのサイズよりも小さいとする。この場合、例えば、情報処理部31は、実カメラ画像データDbの画像をテクスチャデータのサイズよりも大きくなるように拡大した後、拡大後の画像の所定の位置より、W×Hサイズの画像(テクスチャデータの画像)を切り出し、当該テクスチャデータを更新してもよい。   As described above, the texture data of the real camera image included in the real world image data Dc is updated by the real camera image data Db, and the size of the horizontal A × vertical B of the image of the real camera image data Db There is a case where the size of horizontal W × longitudinal H of the texture data does not match. In this case, the information processing unit 31 updates the texture data by an arbitrary method. For example, the information processing unit 31 uses an image obtained by enlarging and reducing the size of the horizontal A and vertical B of the image of the actual camera image data Db so as to match the W × H size image (texture data image). The texture data may be updated. For example, it is assumed that the horizontal A and vertical B sizes of the image of the actual camera image data Db are larger than the horizontal W and vertical H sizes of the texture data. In this case, for example, the information processing unit 31 may cut out a W × H size image (texture data image) from a predetermined position of the image of the actual camera image data Db and update the texture data. For example, it is assumed that at least one of the horizontal A and vertical B sizes of the image of the actual camera image data Db is smaller than the horizontal W and vertical H sizes of the texture data. In this case, for example, the information processing unit 31 enlarges the image of the actual camera image data Db so as to be larger than the size of the texture data, and then, from a predetermined position of the enlarged image, the W × H size image ( The texture data image) may be cut out and the texture data may be updated.

また、本実施形態において、上側LCD22の表示画面の横×縦のサイズと、実カメラ画像のテクスチャデータの横×縦のサイズとが一致しているが、これらは一致していなくともよい。この場合、上側LCD22の表示画面と実世界画像のサイズが一致しないことになるが、情報処理部31は、上側LCD22の表示画面に実世界画像を表示する際、周知の方法で、実世界画像のサイズを変更すればよい。   In the present embodiment, the horizontal × vertical size of the display screen of the upper LCD 22 and the horizontal × vertical size of the texture data of the actual camera image match, but they do not have to match. In this case, the display screen of the upper LCD 22 and the size of the real world image do not match, but the information processing unit 31 uses a known method to display the real world image on the display screen of the upper LCD 22. You can change the size of.

次に、情報処理部31は、図32Bに示されるとおり、仮想空間をレンダリングする処理を行い(ステップ84)、次のステップ85に処理を進める。例えば、情報処理部31は、開口判定用データを考慮して、敵オブジェクトEO、弾オブジェクトBO、および奥壁BWが配置されている仮想空間をレンダリングした画像を生成し、当該画像を用いて、レンダリング画像データDkに含まれる仮想空間のレンダリング画像データを更新する。以下、図37〜図39を用いて、当該レンダリング処理の一例について説明する。   Next, as illustrated in FIG. 32B, the information processing section 31 performs processing for rendering the virtual space (step 84), and proceeds to the next step 85. For example, the information processing unit 31 generates an image obtained by rendering a virtual space in which the enemy object EO, the bullet object BO, and the back wall BW are arranged in consideration of the opening determination data, and uses the image, The rendering image data of the virtual space included in the rendering image data Dk is updated. Hereinafter, an example of the rendering process will be described with reference to FIGS.

図37は、仮想空間上における、敵オブジェクトEO、弾オブジェクトBO、境界面3(開口判定用データ)および奥壁BWの配置例を示す。また、図38は、図37における仮想カメラ(仮想世界描画用カメラ)が原点から(X,Y,Z)=(0,0,−1)方向に向いているとした場合における各オブジェクトの位置関係を示す。このように、敵オブジェクトEO、弾オブジェクトBO、境界面3および奥壁BWが、それぞれ敵オブジェクトデータDf、弾オブジェクトデータDg、境界面データDdおよび奥壁画像データDeに含まれる配置位置を示すデータに応じて配置されているとする。また、仮想空間には、仮想空間をレンダリングするための仮想世界描画用カメラC2が、仮想カメラデータDjに含まれる配置方向および配置位置を示すデータに応じて配置されている。   FIG. 37 shows an arrangement example of the enemy object EO, the bullet object BO, the boundary surface 3 (opening determination data), and the back wall BW in the virtual space. FIG. 38 shows the position of each object when the virtual camera (virtual world drawing camera) in FIG. 37 is oriented in the (X, Y, Z) = (0, 0, −1) direction from the origin. Show the relationship. Thus, the data indicating the placement positions of the enemy object EO, the bullet object BO, the boundary surface 3 and the back wall BW included in the enemy object data Df, the bullet object data Dg, the boundary surface data Dd and the back wall image data De, respectively. It is assumed that they are arranged according to In the virtual space, a virtual world drawing camera C2 for rendering the virtual space is arranged according to data indicating the arrangement direction and the arrangement position included in the virtual camera data Dj.

ここでまず、境界面3(開口判定用データ)の位置について説明する。上述したとおり、本実施形態における画像処理プログラムでは、開口判定用データと実世界画像(実カメラ画像のレンダリング画像データ)の色情報とが掛け算されることで、開口が付与された実画像が生成される。したがって、例えば、実カメラ画像のレンダリング画像データ(図35および図36の平面ポリゴンの位置関係を参照)の横1座標×縦1座標と、仮想空間における境界面3(具体的には、開口判定用データ)の横1座標×縦1座標とが対応しているとする。つまり、図37または図38に示す仮想世界描画用カメラC2から境界面3を透視投影により見たときに、仮想世界描画用カメラC2による境界面3の視野範囲が実カメラ画像のレンダリング画像データの横×縦のサイズに対応しているものとする。   First, the position of the boundary surface 3 (opening determination data) will be described. As described above, in the image processing program according to the present embodiment, the aperture determination data and the color information of the real world image (rendered image data of the actual camera image) are multiplied to generate a real image with an aperture. Is done. Therefore, for example, the horizontal coordinate x vertical coordinate of the rendering image data of the real camera image (refer to the positional relationship of the planar polygons in FIGS. 35 and 36) and the boundary surface 3 in the virtual space (specifically, aperture determination) Suppose that 1 horizontal coordinate × 1 vertical coordinate of (data) corresponds. That is, when the boundary surface 3 is viewed through the perspective projection from the virtual world drawing camera C2 shown in FIG. 37 or 38, the visual field range of the boundary surface 3 by the virtual world drawing camera C2 is the rendering image data of the real camera image. Assume that the size corresponds to the horizontal x vertical size.

図39は、仮想世界描画用カメラC2を境界面3との位置関係の例を示す。原点から(X,Y,Z)=(0,0,−1)方向に向いた仮想世界描画用カメラC2により境界面3を透視投影することを考える。この場合、図39に示すZ=Z0の位置に境界面3が配置されているとすれば、開口判定用データの横1座標×縦1座標と実カメラ画像のレンダリング画像データの横1座標×縦1座標とが対応することになる。ここで、Z=Z0の位置は、境界面3を透視投影する仮想世界描画用カメラC2のY軸方向の画角をθとした場合に、仮想世界描画用カメラC2の注視点からY軸正方向への表示範囲の長さH/2iとなる位置である。なお、上述したように、Hは上側LCD22の表示画面における縦のドット数であり、iは仮想空間の座標の1単位に対してマッピングするテクスチャのピクセル数である。そして、仮想世界描画用カメラC2の中心からZ=Z0の位置までの距離をD(D>0)とすると、以下の数1が成立する。   FIG. 39 shows an example of the positional relationship between the virtual world drawing camera C <b> 2 and the boundary surface 3. Suppose that the boundary surface 3 is perspective-projected by the virtual world drawing camera C2 oriented in the (X, Y, Z) = (0, 0, −1) direction from the origin. In this case, if the boundary surface 3 is arranged at the position of Z = Z0 shown in FIG. 39, the horizontal coordinate of the aperture determination data × the vertical coordinate of 1 and the horizontal coordinate of the rendered image data of the actual camera image × One vertical coordinate corresponds. Here, the position of Z = Z0 is determined from the gazing point of the virtual world drawing camera C2 when the angle of view in the Y axis direction of the virtual world drawing camera C2 that perspectively projects the boundary surface 3 is θ. This is the position where the length of the display range in the direction is H / 2i. As described above, H is the number of vertical dots on the display screen of the upper LCD 22, and i is the number of texture pixels to be mapped to one unit of coordinates in the virtual space. When the distance from the center of the virtual world drawing camera C2 to the position of Z = Z0 is D (D> 0), the following formula 1 is established.

tanθ=(H/2i)/D=H/2Di
したがって、境界面3を考慮して、後述する敵オブジェクトEO等を透視投影して仮想世界画像を生成する場合、当該仮想世界画像を生成する仮想世界描画用カメラC2は「Y軸方向の画角θ=tan−1(H/2Di)、アスペクト比=W:H」と設定される。そして、境界面3(具体的には境界面3の状態を示す開口判定用データ)は、仮想世界描画用カメラC2からのビュー座標Z=Z0に配置される。これにより、仮想世界描画用カメラC2による境界面3の視野範囲が大きさW×Hとなる。
tan θ = (H / 2i) / D = H / 2Di
Therefore, when a virtual world image is generated by perspective projection of an enemy object EO or the like, which will be described later, in consideration of the boundary surface 3, the virtual world drawing camera C2 that generates the virtual world image has a “viewing angle in the Y-axis direction”. θ = tan−1 (H / 2Di), aspect ratio = W: H ”. The boundary surface 3 (specifically, opening determination data indicating the state of the boundary surface 3) is arranged at view coordinates Z = Z0 from the virtual world drawing camera C2. Thereby, the visual field range of the boundary surface 3 by the virtual world drawing camera C2 becomes the size W × H.

次に、仮想空間のレンダリング処理について説明する。以上の位置に境界面3が存在するものとして、情報処理部31は、仮想空間をレンダリングした画像を生成する。情報処理部31は、後に実世界画像を合成することを考慮して、当該レンダリング処理を行う。以下、当該レンダリング処理の一例を具体的に説明する。   Next, a virtual space rendering process will be described. Assuming that the boundary surface 3 exists at the above position, the information processing section 31 generates an image in which the virtual space is rendered. The information processing unit 31 performs the rendering process in consideration of later synthesis of the real world image. Hereinafter, an example of the rendering process will be specifically described.

情報処理部31は、図37(または図38)に示されるとおり境界面3が存在しているものとして、仮想空間に配置された敵オブジェクトEO、弾オブジェクトBO、奥壁BWを仮想世界描画用カメラC2により透視投影でレンダリングする。このとき、情報処理部31は、描画の優先度情報を考慮する。通常の透視投影では、仮想空間上において仮想カメラから見て手前にあるオブジェクトが優先的に描画されるようにレンダリングされる。したがって、通常の透視投影では、境界面3が存在するため、第2空間2にあるオブジェクトは描画されないことになる。本実施形態のゲームでは、境界面3(実世界画像)に開口部を設けて、その開口部から第2空間2の一部が見えるようにした。また、第2空間2にあるオブジェクトの影を実世界画像に合成して描画するようにした。こうすることによって、実世界画像の向こうにさらに仮想世界が存在しているかのような感覚をユーザに与えることができる。具体的には、情報処理部31は、描画の優先度情報を用いて、当該レンダリング処理を行う。なお、本実施形態における画像処理プログラムは、当該描画の優先度情報の一例として、アルファ値を用いる。   The information processing section 31 assumes that the boundary surface 3 exists as shown in FIG. 37 (or FIG. 38), and draws the enemy object EO, the bullet object BO, and the back wall BW arranged in the virtual space for virtual world drawing. Rendering is performed by perspective projection by the camera C2. At this time, the information processing unit 31 considers drawing priority information. In normal perspective projection, rendering is performed such that an object in front of the virtual camera is drawn preferentially in the virtual space. Therefore, in normal perspective projection, since the boundary surface 3 exists, the object in the second space 2 is not drawn. In the game of the present embodiment, an opening is provided in the boundary surface 3 (real world image) so that a part of the second space 2 can be seen from the opening. In addition, the shadow of the object in the second space 2 is combined with the real world image and drawn. By doing so, it is possible to give the user a feeling as if there is a virtual world beyond the real world image. Specifically, the information processing section 31 performs the rendering process using drawing priority information. Note that the image processing program in the present embodiment uses an alpha value as an example of the drawing priority information.

上記透視投影において、第2空間2に存在するオブジェクト(本実施形態では敵オブジェクトEOまたは奥壁BW)は、境界面3の背後に存在する。ここで、境界面3には、開口判定用データが設定されている。開口判定用データは、上述のとおり、アルファ値を格納した矩形のテクスチャデータであり、テクスチャデータ上の各座標は、仮想空間の境界面の各位置に対応する。したがって、情報処理部31は、仮想世界描画用カメラC2による第2空間2に存在するオブジェクトの視野範囲に対応する開口判定用データの領域を特定することができる。   In the perspective projection, an object (in this embodiment, the enemy object EO or the back wall BW) existing in the second space 2 exists behind the boundary surface 3. Here, opening determination data is set on the boundary surface 3. As described above, the opening determination data is rectangular texture data storing an alpha value, and each coordinate on the texture data corresponds to each position on the boundary surface of the virtual space. Therefore, the information processing section 31 can specify the area of the aperture determination data corresponding to the visual field range of the object existing in the second space 2 by the virtual world drawing camera C2.

なお、本実施形態では、例えば、情報処理部31は、開口判定用データにアルファ値「0」が格納された領域(開口領域)については、第2空間2のうち開口領域から見える領域に存在する仮想オブジェクトや奥壁の画像を描画(レンダリング)する。また、情報処理部31は、開口判定用データに非開口領域に対応するアルファ値「0.2」が格納された領域(非開口領域としてアルファ値「1」が格納された領域として取り扱われる領域)については、第2空間2に存在する仮想オブジェクトや奥壁は描画されない。すなわち、表示される画像において当該領域に対応する部分には、後述のステップ85の合成処理により、実世界画像が描画されることになる。   In the present embodiment, for example, the information processing unit 31 has an area (opening area) in which the alpha value “0” is stored in the opening determination data in the area that can be seen from the opening area in the second space 2. Draw (render) a virtual object or back wall image. In addition, the information processing unit 31 stores an area where the alpha value “0.2” corresponding to the non-opening area is stored in the opening determination data (an area treated as an area where the alpha value “1” is stored as the non-opening area) ), A virtual object and a back wall existing in the second space 2 are not drawn. That is, a real world image is drawn in a portion corresponding to the region in the displayed image by a combining process in step 85 described later.

したがって、仮想世界描画用カメラC2から見て開口判定用データに「0」が格納された領域については、実体データDf1、または、奥壁画像データDeに含まれる画像データが描画されるようレンダリングされる。そして、後述のステップS85の合成処理により、上側LCD22上において当該領域に対応する部分には、仮想オブジェクト・奥壁の画像が表示されることになる。   Therefore, the region in which “0” is stored in the opening determination data as viewed from the virtual world drawing camera C2 is rendered so that the image data included in the entity data Df1 or the back wall image data De is drawn. The Then, a virtual object / back wall image is displayed on the upper LCD 22 in a portion corresponding to the region by a combining process in step S85 described later.

また、仮想世界描画用カメラC2から見て開口判定用データに非開口領域を示すアルファ値「0.2」が格納された領域(非開口領域としてアルファ値「1」が格納された領域として取り扱われる領域)については、第2空間2に存在する仮想オブジェクトや奥壁は描画されない。すなわち、上側LCD22に表示される画像において当該領域に対応する部分には、後述のステップ85の合成処理により、実世界画像が描画されることになる。ただし、前述の敵オブジェクトEOの影ES(シルエットモデル)については、境界面3との間のデプス判定を無効に設定されており、境界面3のアルファ値「0.2」よりもシルエットモデルのアルファ値「1」の方が大きいため、非開口領域を示すアルファ値「1」が格納されている領域において描画される。これにより、実世界画像上に敵オブジェクトEOの影ESが描画される。また、敵オブジェクトEOのシルエットモデルは実体モデルに内包されるようなサイズでかつそのように配置され、かつ、敵オブジェクトEOの実体モデルとシルエットモデルはデプス判定有効に設定される、敵オブジェクトEOが第1空間1に存在する場合、シルエットモデルは実体モデルに隠されるため描画されない。   In addition, an area where the alpha value “0.2” indicating the non-aperture area is stored in the aperture determination data as viewed from the virtual world drawing camera C2 (the area where the alpha value “1” is stored as the non-aperture area) is treated. The virtual object and the back wall existing in the second space 2 are not drawn. That is, in the image displayed on the upper LCD 22, a real world image is drawn in a portion corresponding to the area by a combining process in step 85 described later. However, with regard to the shadow ES (silhouette model) of the enemy object EO described above, the depth determination with the boundary surface 3 is set to be invalid, and the silhouette model has an alpha value of “0.2”. Since the alpha value “1” is larger, the drawing is performed in the area in which the alpha value “1” indicating the non-opening area is stored. Thereby, the shadow ES of the enemy object EO is drawn on the real world image. In addition, the silhouette model of the enemy object EO is sized and included in the entity model, and the entity model and silhouette model of the enemy object EO are set to enable depth determination. If it exists in the first space 1, the silhouette model is not drawn because it is hidden by the entity model.

なお、本実施形態における境界面3の形状は図20Aに示すように球体表面の中央部であるため、仮想世界描画用カメラC2の視野方向によっては、開口判定用データが存在しない。この場合、疑似的にアルファ値を「0.2」を格納した開口判定用データが存在するものとして、上記処理を行う。つまり、開口判定用データが存在しない領域は、非開口領域を示すアルファ値「1」が格納されている領域として取り扱われる。   In addition, since the shape of the boundary surface 3 in this embodiment is the center part of the spherical surface as shown in FIG. 20A, there is no opening determination data depending on the viewing direction of the virtual world drawing camera C2. In this case, the above processing is performed on the assumption that there is aperture determination data in which an alpha value “0.2” is stored in a pseudo manner. That is, the area where the opening determination data does not exist is handled as an area in which the alpha value “1” indicating the non-opening area is stored.

なお、本実施形態における敵オブジェクトEOに対応する敵オブジェクトデータDfに含まれるシルエットデータDf2は、複数の平面ポリゴンがその法線方向を敵オブジェクトから見て各放射方向となるように設定されており、各平面ポリゴンには、敵オブジェクトをその方向から見たシルエット画像のテクスチャが適用される。したがって、本実施形態における画像処理プログラムでは、仮想空間画像における敵オブジェクトEOの影ESは、第2空間2における敵オブジェクトの向きが反映された画像として表現される。   Note that the silhouette data Df2 included in the enemy object data Df corresponding to the enemy object EO in the present embodiment is set so that a plurality of planar polygons have respective radial directions when the normal direction is viewed from the enemy object. The texture of a silhouette image of an enemy object viewed from the direction is applied to each planar polygon. Therefore, in the image processing program in the present embodiment, the shadow ES of the enemy object EO in the virtual space image is expressed as an image reflecting the direction of the enemy object in the second space 2.

以上の処理によって、情報処理部31は、仮想空間に配置された敵オブジェクトEO、弾オブジェクトBO、および奥壁BWを透視投影でレンダリングし、仮想世界描画用カメラC2から見た仮想世界画像を生成し、仮想空間のレンダリング画像データを更新する(図32Bのステップ84)。なお、当該処理によって生成される画像は、図40に示される表示画像から実世界画像を除いた画像である。   Through the above processing, the information processing section 31 renders the enemy object EO, the bullet object BO, and the back wall BW arranged in the virtual space by perspective projection, and generates a virtual world image viewed from the virtual world drawing camera C2. Then, the rendering image data in the virtual space is updated (step 84 in FIG. 32B). Note that the image generated by this processing is an image obtained by removing the real world image from the display image shown in FIG.

次に、情報処理部31は、実世界画像と仮想空間画像とを合成した表示画像を生成し(ステップ85)、当該サブルーチンによる処理を終了する。   Next, the information processing section 31 generates a display image obtained by synthesizing the real world image and the virtual space image (step 85), and ends the processing by the subroutine.

例えば、情報処理部31は、実カメラ画像のレンダリング画像データと仮想空間のレンダリング画像とを、仮想空間のレンダリング画像を優先して、合成することによって、実世界画像と仮想空間画像とが合成された画像を生成する。そして、情報処理部31は、当該合成画像の中心(仮想世界描画用カメラC2の視野の中心)に、照準カーソル画像データに含まれる画像データを優先して合成することによって表示画像(図40)を生成する。図40は、第1の描画方法または第2の描画方法により生成される表示画像の一例を示す。なお、情報処理部31は、仮想空間のレンダリング画像データに仮想空間画像が格納されていない場合、カメラ画像のレンダリング画像データに格納される実世界画像をそのまま表示画像データDlに格納すればよい。   For example, the information processing unit 31 combines the rendering image data of the real camera image and the rendering image of the virtual space with priority given to the rendering image of the virtual space, thereby combining the real world image and the virtual space image. Generated images. Then, the information processing section 31 preferentially combines the image data included in the aiming cursor image data with the center of the combined image (the center of the visual field of the virtual world drawing camera C2) to display the display image (FIG. 40). Is generated. FIG. 40 shows an example of a display image generated by the first drawing method or the second drawing method. Note that when the virtual space image is not stored in the virtual space rendering image data, the information processing unit 31 may store the real world image stored in the camera image rendering image data as it is in the display image data D1.

以上により、第1の描画方法または第2の描画方法により表示画像の更新に関する処理(サブルーチン)が完了する。   Thus, the process (subroutine) related to the update of the display image is completed by the first drawing method or the second drawing method.

図29に戻り、上記ステップ57における表示画像の更新に関する処理の後、情報処理部31は、更新した表示画像を上側LCD22に表示して(ステップ58)、次のステップ59に処理を進める。例えば、情報処理部31のCPU311は、上記ステップ57により更新された表示画像データDl(表示画像)をVRAM313に格納する。そして、情報処理部31のGPU312が、VRAM313に描画された表示画像を上側LCD22に出力することによって、上側LCD22に当該表示画像が表示される。   Returning to FIG. 29, after the processing related to the updating of the display image in step 57, the information processing section 31 displays the updated display image on the upper LCD 22 (step 58), and proceeds to the next step 59. For example, the CPU 311 of the information processing unit 31 stores the display image data Dl (display image) updated in step 57 in the VRAM 313. Then, the GPU 312 of the information processing unit 31 outputs the display image drawn in the VRAM 313 to the upper LCD 22 so that the display image is displayed on the upper LCD 22.

次に、情報処理部31は、ゲームを終了するか否かを判断する(ステップ59)。ゲームを終了する条件としては、例えば、上記の所定の条件(ゲームクリアまたはゲームオーバー)が満たされたことや、ユーザがゲームを終了する操作を行ったこと等がある。情報処理部31は、ゲームを終了しない場合、上記ステップ52に戻って処理を繰り返す。一方、情報処理部31は、ゲームを終了する場合、当該フローチャートによる処理を終了する。   Next, the information processing section 31 determines whether or not to end the game (step 59). As a condition for ending the game, for example, the predetermined condition (game clear or game over) is satisfied, or the user performs an operation to end the game. If the information processing section 31 does not end the game, the information processing section 31 returns to step 52 and repeats the processing. On the other hand, the information processing section 31 ends the processing according to the flowchart when the game is ended.

<第1の実施形態に係る画像処理の作用および効果>
以上述べたように、本実施形態に係る画像処理プログラムでは、図15および図16の処理で例示したように、顔画像取得処理で取得された顔画像は、ユーザがゲーム(第1のゲーム)で成功するまでは、ユーザに解放されない。すなわち、ゲームで成功するまでは、ユーザは、取得された顔画像をゲームのセーブデータ記憶域Doに保存できない。また、ユーザは、取得された顔画像を複製、変更、転送等することができない。逆に、ゲーム不成功の状態で、ゲームの再試行をやめると、取得されていた顔画像が廃棄されて、処理が終了する。また、第1のゲームの処理の仕方、例えば、実行モード、あるいは、仕様によっては、第1のゲームの結果が不成功となると、直ちに、顔画像が廃棄されて、処理が終了する。したがって、取得された顔画像が引き渡されるまで、つまり顔画像がセーブデータ記憶域Doに保存されるまで、ユーザは、ゲームに執着し、熱意を持って成功を目指すようになる。すなわち、本実施形態の画像処理プログラムによれば、ユーザが極めて真剣にゲームに取り組むことができる。
<Operation and Effect of Image Processing According to First Embodiment>
As described above, in the image processing program according to the present embodiment, as exemplified in the processing of FIGS. 15 and 16, the face image acquired by the face image acquisition processing is a game (first game) by the user. Will not be released to the user until successful. In other words, until the game is successful, the user cannot save the acquired face image in the game save data storage area Do. Also, the user cannot copy, change, transfer, etc. the acquired face image. On the contrary, if the game is retried while the game is unsuccessful, the acquired face image is discarded and the process ends. Further, depending on the processing method of the first game, for example, the execution mode or the specification, when the result of the first game is unsuccessful, the face image is immediately discarded and the processing ends. Therefore, until the acquired face image is delivered, that is, until the face image is stored in the save data storage area Do, the user remains attached to the game and eagerly aims for success. That is, according to the image processing program of this embodiment, the user can tackle the game very seriously.

また、ゲームの開始時のユーザのGUIに対する操作として、「内側撮像部24による顔画像の取得」が指示され(図14のステップ9でYesの場合)、顔画像取得処理1(図14のステップ10)が実行されると、以下のような効果も期待できる。すなわち、ゲーム開始するとき(典型的には、第1のゲームを開始する前)に、内側撮像部24を用いて撮像することで顔画像を取得すると、撮像毎に異なる顔画像が得られる。このため、例えば、他の装置に記憶されている特定の画像を選択して、選択した画像をゲームで用いる場合と比較して、ゲーム成功への意欲が増すことになる。また、外側撮像部23による顔画像取得処理2(図14のステップ12)の場合にも、同様の効果が期待できる。ゲーム開始するとき(典型的には、第1のゲームを開始する前)に、外側撮像部23を用いて撮像することで顔画像を取得しても、撮像毎に異なる顔画像が得られるからである。   In addition, as an operation on the GUI of the user at the start of the game, “acquisition of face image by the inner imaging unit 24” is instructed (Yes in step 9 of FIG. 14), and face image acquisition processing 1 (step of FIG. 14) When 10) is executed, the following effects can also be expected. That is, when a face image is acquired by capturing an image using the inner imaging unit 24 at the start of a game (typically before starting the first game), a different face image is obtained for each image capture. For this reason, for example, compared with the case where a specific image stored in another device is selected and the selected image is used in the game, the willingness to succeed in the game is increased. The same effect can also be expected in the face image acquisition process 2 (step 12 in FIG. 14) by the outer imaging unit 23. When a game is started (typically, before starting the first game), even if a face image is acquired by imaging using the outer imaging unit 23, a different face image is obtained for each imaging. It is.

また、本実施形態に係る画像処理プログラムによれば、上記第1のゲームに成功することで、セーブデータ記憶域Doに、ユーザ自身の顔画像、ユーザの周りの人の顔画像、ビデオ機器で得られた画像中の顔画像、ユーザの保有する生物の顔画像等、様々な顔画像を収集することができる。ゲーム装置10は、収集した顔画像を例えば、図7および図8のような画面に表示することができる。そして、ゲーム装置10は、例えば、図8のような画面では、選択状態にある顔画像と関連の顔画像が反応を示す状態を表現できる。反応は、例えば、選択状態にある顔画像に向かって片目をつぶり、視線を送る、顔を向ける等である。したがって、ゲーム装置10は、ゲーム装置10内に収集した顔画像による仮想現実の世界に、実世界の人間関係、親密さ等に基づく関係を表現できる。その結果、顔画像を収集したユーザに、顔画像による仮想現実の世界への親近感、収集した顔画像に対する親しみ、実世界の人、あるいは生物に対する感情と同様の感情等を引き起こさせることができる。   In addition, according to the image processing program according to the present embodiment, when the first game is successful, the saved data storage area Do is stored in the user's own face image, the person's face image around the user, and the video device. Various face images such as a face image in the obtained image and a face image of a living creature held by the user can be collected. The game apparatus 10 can display the collected face images on a screen as shown in FIGS. 7 and 8, for example. And the game device 10 can express the state in which the face image in the selected state and the related face image show a reaction, for example, on the screen as shown in FIG. The reaction is, for example, squeezing one eye toward the face image in the selected state, sending a line of sight, or turning the face. Therefore, the game apparatus 10 can express a relationship based on human relationships, intimacy, and the like in the real world in the virtual reality world based on the face images collected in the game apparatus 10. As a result, it is possible to cause the user who has collected the face image to feel familiarity with the virtual reality world by the face image, familiarity with the collected face image, emotions similar to those of the real world person, or living things. .

また、本実施形態の画像処理プログラムによれば、収集した顔画像を敵オブジェクトEOの顔面部分にテクスチャマッピングすることによって、敵オブジェクトEOを生成し、ゲームを実行できる。ユーザは、ゲームに登場する敵オブジェクトEOに、収集した顔画像を貼り付けることで、いわば、配役を自由に決定できる。したがって、ユーザは、ゲームの実行時、敵オブジェクトEOの顔から得られる効果によって、ますます、ゲームに熱中する可能性を高めることができる。   Further, according to the image processing program of the present embodiment, the enemy object EO can be generated and the game can be executed by texture mapping the collected face image onto the face portion of the enemy object EO. The user can freely determine the casting by attaching the collected face image to the enemy object EO appearing in the game. Accordingly, when the game is executed, the user can be more likely to be enthusiastic about the game due to the effect obtained from the face of the enemy object EO.

さらに、本実施形態の画像処理プログラムによれば、敵オブジェクトEOを生成する際にも、敵オブジェクトEOに貼り付けるために、顔画像が選択状態になったときに、選択状態になった顔画像に関連する顔画像が反応を示す。したがって、敵オブジェクトEOの配役を決定するユーザに、仮想現実の世界への親近感、一覧表示された顔画像に対する親しみ、実世界の人に対する感情と同様の感情等を引き起こさせることができる。   Furthermore, according to the image processing program of the present embodiment, when generating an enemy object EO, the face image that is in the selected state when the face image is in the selected state to be pasted on the enemy object EO. The face image related to the response shows the reaction. Therefore, it is possible to cause the user who decides the casting of the enemy object EO to have a sense of familiarity with the virtual reality world, familiarity with the face images displayed in a list, emotions similar to those of the real world people, and the like.

なお、上記第1の実施形態では、敵オブジェクトEOに顔画像を貼り付けることで、敵オブジェクトEOを生成した。しかし、このような処理は、敵オブジェクトEOの生成に限定される訳ではなく、ゲームに登場するキャラクタオブジェクト一般の生成に適用できる。例えば、ゲーム装置10の操作、あるいはゲームの進行をガイドするエージェントなどに、ユーザが取得した顔画像を貼り付けるようにしてもよい。また、ゲーム装置10に登場する、ユーザ自身を模擬したキャラクタオブジェクト、ユーザと友好的な関係でゲームに登場するキャラクタオブジェクト、ゲーム装置の持ち主を表すキャラクタオブジェクト等に、ユーザが取得した顔画像を貼り付けるようにしてもよい。   In the first embodiment, the enemy object EO is generated by pasting a face image on the enemy object EO. However, such processing is not limited to generation of enemy objects EO, but can be applied to generation of general character objects appearing in the game. For example, the face image acquired by the user may be pasted on an agent that guides the operation of the game apparatus 10 or the progress of the game. In addition, the face image obtained by the user is pasted on a character object that simulates the user himself / herself, a character object that appears in the game in a friendly relationship with the user, a character object that represents the owner of the game device, or the like. You may make it attach.

上記では、顔画像として人の顔を想定したが、本発明の実施は、人の顔画像に限定されるものではなく、動物の顔画像にも適用できる。例えば、犬、猫、馬等のほ乳類、鳥類、魚類、は虫類、両生類、昆虫等、様々な動物の顔画像を取得のために、上記第1の実施形態で説明した顔画像取得処理を実行し、顔画像を収集してもよい。例えば、ゲーム装置10によれば、図8の画面において人と人との関係で例示したように、選択状態にある人に対して、小鳥がさえずり、あるいは、犬が吠え、猫が視線を向けるというように、実世界の人と動物との関係を表現できる。逆に、ペットと主人の関係において、ペットの顔画像が選択状態にされたときに、主人とその家族に相当する顔画像が微笑む、あるいは、視線をペットの方に向けるというように、ゲーム装置10は、実世界の感情、意識、関係を仮想世界の中に反映することできる。そして、配役決定処理により、敵オブジェクトEO、その他のキャラクタオブジェクトに収集した顔を貼り付けることによって、実世界の関係をユーザに意識させつつゲームを実行させることができる。   In the above description, a human face is assumed as the face image. However, the embodiment of the present invention is not limited to the human face image, and can be applied to an animal face image. For example, in order to acquire face images of various animals such as mammals such as dogs, cats, horses, birds, fish, reptiles, amphibians, insects, etc., the face image acquisition process described in the first embodiment is executed. , Face images may be collected. For example, according to the game apparatus 10, as exemplified by the relationship between people on the screen of FIG. 8, a bird sings or a dog barks and a cat turns its gaze toward a selected person. In this way, we can express the relationship between people and animals in the real world. On the contrary, in the relationship between the pet and the master, when the pet's face image is selected, the face image corresponding to the master and his family smiles, or turns the line of sight toward the pet. 10 can reflect the feelings, consciousness, and relationships of the real world in the virtual world. Then, the game can be executed while making the user aware of the real-world relationship by pasting the collected faces on the enemy object EO and other character objects by the casting determination process.

なお、ペットと主人の関係、主人とその家族の関係等は、UIF(ユーザインターフェイス)を通じて、顔画像管理情報Dn1によって定義し、顔画像間の関係として、参照できるようにしておけばよい。単純に、好き、嫌い等の感情、好きな人のペット、嫌いな人のペットなどの感情の善し悪しを定義できるようにしておけばよい。また、例えば、主人の顔画像でのゲームの結果が成功であったときに、ゲームのセーブデータ記憶域Doに保存できた動物の顔画像は、その主人と親密な関係にあるとの設定が、顔画像管理情報Dn1に記録できるようにしてもよい。ゲーム装置10によれば、ユーザは、以上のようにして収集した様々の顔画像を基に、キャラクタオブジェクトを生成、実世界の意識を反映したゲームを実行できるのである。   The relationship between the pet and the master, the relationship between the master and the family, etc. may be defined by the face image management information Dn1 through a UI (User Interface) so that it can be referred to as the relationship between the face images. It is sufficient to be able to simply define the feelings of likes and dislikes, good and bad feelings such as favorite pets and disliked pets. In addition, for example, when the game result of the master's face image is successful, the setting that the animal's face image saved in the game save data storage area Do is intimately related to the master is set. The face image management information Dn1 may be recorded. According to the game apparatus 10, the user can generate a character object based on the various facial images collected as described above, and can execute a game reflecting the real world consciousness.

また、本実施形態に係る画像処理プログラムでは、図16に示したように、2つの外側撮像部23(外側左撮像部23aおよび外側右撮像部23b)よりも先に内側撮像部24による撮像によって顔画像を取得するように、ユーザを誘導する。内側撮像部24は、主として、ゲーム装置10を操作するユーザを撮像するものであるため、ユーザ以外の人の撮像には使用しづらい。また、内側撮像部24は、主として、ゲーム装置10を操作するユーザを撮像するものであるため、持ち主の撮像に適する。したがって、この処理によれば、ゲーム装置10のユーザあるいは持ち主が誰もゲーム装置10に顔画像を保存しない状態での外側撮像部23の使用を禁止する効果がある。したがって、例えば、持ち主の特定されないゲーム装置10、あるいは、ユーザの特定されないゲーム装置10を第三者が用いて画像を撮像することを禁止する可能性を高めることができる。   Further, in the image processing program according to the present embodiment, as shown in FIG. 16, the inner imaging unit 24 performs imaging before the two outer imaging units 23 (the outer left imaging unit 23a and the outer right imaging unit 23b). The user is guided to acquire a face image. The inner imaging unit 24 mainly captures a user who operates the game apparatus 10, and thus is difficult to use for imaging people other than the user. Moreover, since the inner side imaging part 24 mainly images the user who operates the game device 10, it is suitable for an owner's imaging. Therefore, according to this process, there is an effect of prohibiting the use of the outer imaging unit 23 in a state where no user or owner of the game apparatus 10 stores a face image in the game apparatus 10. Therefore, for example, it is possible to increase the possibility of prohibiting a third party from taking an image using the game device 10 whose owner is not specified or the game device 10 whose user is not specified.

また、本実施形態に係る画像処理プログラムでは、図19A−図19Cに示したように、情報処理部31は、未取得の属性に該当する顔画像を優先して撮像をするように、ユーザを誘導する。このような処理によって、極力、属性の偏りのない顔画像取得を望むユーザの顔画像収集処理を支援することができる。   In the image processing program according to the present embodiment, as illustrated in FIGS. 19A to 19C, the information processing unit 31 prompts the user to capture a face image corresponding to an unacquired attribute. Induce. By such a process, it is possible to support the face image collection process of a user who desires to acquire a face image with no attribute bias as much as possible.

また、本実施形態に係る画像処理プログラムでは、実カメラから得られた実世界画像と、当該実世界画像の背後に存在するオブジェクトを含む仮想空間画像とが合成されて表示される。   Further, in the image processing program according to the present embodiment, a real world image obtained from a real camera and a virtual space image including an object existing behind the real world image are combined and displayed.

したがって、本実施形態に係る画像処理プログラムは、実世界の画像を用いた背景に非現実を表す描画を行うことでユーザの興味を引くことができる画像を生成することができる。   Therefore, the image processing program according to the present embodiment can generate an image that can attract the user's interest by performing drawing representing unreal on a background using a real-world image.

また、当該合成されて表示される画像における当該実世界画像の背後に存在するオブジェクト(例えば、第2空間2に存在する敵オブジェクトEO)は、実世界画像(境界面3)に開口が存在する領域においては、実像が表示される。また、当該オブジェクトは、実世界画像に開口が存在しない領域においては、影画像が表示される(図24参照)。さらに、当該実像および影画像は、当該オブジェクトの仮想空間上における配置方向または、移動方向に応じた向きに対応する画像である。   In addition, an object (for example, an enemy object EO existing in the second space 2) that exists behind the real world image in the synthesized and displayed image has an opening in the real world image (boundary surface 3). A real image is displayed in the area. In addition, a shadow image of the object is displayed in a region where no opening exists in the real world image (see FIG. 24). Furthermore, the real image and the shadow image are images corresponding to the arrangement direction of the object in the virtual space or the direction according to the movement direction.

したがって、本実施形態に係る画像処理プログラムは、実世界画像のさらに背後に存在するオブジェクトの数や移動方向等の動向をユーザが認識することができる画像を生成することができる。   Therefore, the image processing program according to the present embodiment can generate an image that allows the user to recognize trends such as the number of objects and the moving direction behind the real world image.

また、本実施形態に係る画像処理プログラムでは、奥壁BWの画像データとして、宇宙の画像等の非現実空間の画像が用いられ得る。当該非現実空間の画像は、実世界画像の開口を通して視認され得る。当該開口は、仮想空間上の位置が特定される。そして、実カメラの向きと仮想カメラの向きは対応づけられている。   In the image processing program according to the present embodiment, an image of an unreal space such as a space image can be used as the image data of the back wall BW. The image of the unreal space can be viewed through the opening of the real world image. The position of the opening in the virtual space is specified. The direction of the real camera is associated with the direction of the virtual camera.

したがって、本実施形態に係る画像処理プログラムは、実カメラの向きに応じた位置に開口を設けることができ、実世界画像の同じ位置に開口を表現することができる。すなわち、本実施形態に係る画像処理プログラムは、実カメラの向きを変えても現実空間の同じ位置に開口が表現されるため、現実空間と非現実空間とが繋がったかのごとくユーザに認識させる画像を生成することができる。   Therefore, the image processing program according to the present embodiment can provide an opening at a position corresponding to the orientation of the real camera, and can express the opening at the same position in the real world image. In other words, the image processing program according to the present embodiment expresses an opening at the same position in the real space even if the orientation of the real camera is changed, so that the image to be recognized by the user as if the real space and the unreal space were connected. Can be generated.

また、開口が表現された実世界画像は、実カメラから得られる実世界画像とアルファ値との掛け算によって生成される。   The real world image in which the aperture is expressed is generated by multiplying the real world image obtained from the real camera and the alpha value.

したがって、本実施形態に係る画像処理プログラムは、簡便な方法で開口を表現および生成することができる。   Therefore, the image processing program according to the present embodiment can express and generate the opening by a simple method.

また、敵オブジェクトEOが境界面3を通過することにより生成する実世界画像の開口は、敵オブジェクトデータDfに含まれる開口形状データDf3を開口判定用データの所定の位置に掛け算することで生成される。   Further, the opening of the real world image generated by the enemy object EO passing through the boundary surface 3 is generated by multiplying the opening shape data Df3 included in the enemy object data Df by a predetermined position of the opening determination data. The

したがって、本実施形態に係る画像処理プログラムは、簡便な方法で衝突したキャラクタの形状に対応した開口を設定することができる。   Therefore, the image processing program according to the present embodiment can set an opening corresponding to the shape of the collided character by a simple method.

また、本実施形態に係る画像処理プログラムでは、アルファ値の比較によって、影画像の描画を実現することができる。また、シルエットデータDf2に設定されたアルファ値の変更によって、影画像の描画のオンまたはオフを切り替えることができる。   Further, in the image processing program according to the present embodiment, drawing of a shadow image can be realized by comparing alpha values. Further, the shadow image drawing can be switched on or off by changing the alpha value set in the silhouette data Df2.

したがって、本実施形態に係る画像処理プログラムは、影画像の描画をGPUに任せることができ、また、影の表示または非表示を単純な操作で切り替えることができる。   Therefore, the image processing program according to the present embodiment can leave the drawing of shadow images to the GPU, and can switch between displaying and hiding shadows with a simple operation.

(第2の実施形態)
以下、図41および図42を参照して、本発明の第2の実施形態に係る画像処理プログラムを実行する画像処理装置について説明する。第1の実施形態では、顔画像取得処理1(図14のステップ10)および顔画像取得処理2(図14のステップ12)において、第1のゲームが実行され、ユーザが第1のゲームで成功した場合に、ゲーム装置10は、顔画像取得処理1および顔画像取得処理2で取得した画像をセーブデータ記憶域Doに格納することを許容する。そして、ユーザは、第1のゲームに成功すれば、同様の処理で取得した顔画像を順次、セーブデータ記憶域Doに追加していくことができる。そして、ゲーム装置10は、セーブデータ記憶域Doに収集された顔画像から、例えば、ユーザの操作にしたがって、あるいは、自動的に、敵オブジェクトEO等のキャラクタオブジェクトを作成する。そして、ゲーム装置10は、ユーザに対して、ユーザが収集した顔画像を基に作成されたキャラクタオブジェクトを第1のゲーム(図15のステップ106、図16のステップ129)、あるいは、第2のゲーム(図14のステップ18)等に登場させ、ユーザに、実世界の人間関係等を反映した仮想世界を提供する。したがって、ユーザは、そのような実世界を反映した仮想世界で、例えば、図20A−図26に示したようなゲームを実行し、楽しむことができる。本実施形態では、そのような実世界を反映した仮想世界での他のゲーム処理の例を説明する。本実施形態のゲームも、第1の実施形態と同様、ゲーム装置10の情報処理部31が、メインメモリ32に展開された画像処理プログラムを実行することで、ユーザに提供される。また、本実施形態のゲームは、第1の実施形態のゲームと同様、例えば、図14に示したステップ10による顔画像取得処理1およびステップ12による顔画像取得処理2のための第1のゲーム(図15のステップ106、図16のステップ129)として実行してもよい。また、本実施形態のゲームは、例えば、第2のゲーム(図14に示したステップ18)と同様、顔画像が収集され、ゲームのセーブデータ記憶域Doに蓄積されていることを前提として実行されるようにしてもよい。
(Second Embodiment)
Hereinafter, an image processing apparatus that executes an image processing program according to the second embodiment of the present invention will be described with reference to FIGS. 41 and 42. In the first embodiment, in the face image acquisition process 1 (step 10 in FIG. 14) and the face image acquisition process 2 (step 12 in FIG. 14), the first game is executed, and the user succeeds in the first game. In such a case, the game apparatus 10 allows the images acquired in the face image acquisition process 1 and the face image acquisition process 2 to be stored in the save data storage area Do. And if a user succeeds in a 1st game, he can add the face image acquired by the same process to the save data storage area Do sequentially. Then, the game apparatus 10 creates a character object such as an enemy object EO from the face images collected in the save data storage area Do, for example, according to a user operation or automatically. Then, the game device 10 gives the user a character object created based on the face images collected by the user in the first game (step 106 in FIG. 15, step 129 in FIG. 16) or the second object. It is made to appear in a game (step 18 in FIG. 14) and the like, and a virtual world that reflects human relationships in the real world is provided to the user. Therefore, the user can execute and enjoy a game such as that shown in FIGS. 20A to 26 in a virtual world that reflects such a real world. In the present embodiment, an example of another game process in a virtual world reflecting such a real world will be described. Similarly to the first embodiment, the game of the present embodiment is also provided to the user when the information processing unit 31 of the game apparatus 10 executes the image processing program developed in the main memory 32. Further, the game of the present embodiment is the same as the game of the first embodiment, for example, the first game for the face image acquisition process 1 in step 10 and the face image acquisition process 2 in step 12 shown in FIG. (Step 106 in FIG. 15, step 129 in FIG. 16) may be executed. The game of this embodiment is executed on the assumption that face images are collected and stored in the game save data storage area Do, for example, as in the second game (step 18 shown in FIG. 14). You may be made to do.

図41は、本実施形態に係るゲーム装置10の上側LCD22に表示される画面の例である。この画面の作成手順は、上記第1の実施形態と同様である。すなわち、ユーザは、例えば、ゲーム装置10の下側ハウジング11と上側ハウジング21とを開状態として、図4のように、下側ハウジング11を両手に持つ場合を想定する。このとき、ユーザは、上側LCD22の表示画面を見ることができる。そして、この状態では、外側撮像部23は、例えば、ユーザの視線前方の空間を撮像することが可能である。本実施形態のゲームの実行中、ゲーム装置10は、画面の背景に、外側撮像部23が撮像した画像を写し出す。より具体的には、情報処理部31は、外側撮像部23が撮像した画像をフレーム単位で、ゲームの画面の背景部分にテクスチャマッピングしている。ユーザがゲーム装置10を手に持って方向を変えると、変化後の外側撮像部23の視線方向から外側撮像部23を通じて取得された画像がゲームの背景に表示されることになる。すなわち、図41の画面の背景には、ユーザがゲーム装置10の外側撮像部23を向けた方向から取得された画像が埋め込まれる。   FIG. 41 is an example of a screen displayed on the upper LCD 22 of the game apparatus 10 according to the present embodiment. The procedure for creating this screen is the same as that in the first embodiment. That is, for example, it is assumed that the user holds the lower housing 11 in both hands as shown in FIG. 4 with the lower housing 11 and the upper housing 21 opened in the game apparatus 10. At this time, the user can see the display screen of the upper LCD 22. And in this state, the outer side imaging part 23 can image the space ahead of a user's eyes | visual_axis. During execution of the game of the present embodiment, the game apparatus 10 projects the image captured by the outer imaging unit 23 on the background of the screen. More specifically, the information processing section 31 texture maps the image captured by the outer imaging section 23 on the background portion of the game screen in units of frames. When the user changes the direction while holding the game apparatus 10 in his / her hand, an image acquired through the outer imaging unit 23 from the line-of-sight direction of the outer imaging unit 23 after the change is displayed on the background of the game. That is, an image acquired from the direction in which the user faces the outer imaging unit 23 of the game apparatus 10 is embedded in the background of the screen in FIG.

さらに、この画面では、上記背景に対して、例えば、図10の画面例、および図18の配役決定処理で説明した手順にしたがって作成された敵オブジェクトEO1が表示されている。敵オブジェクトEO1の顔面部分には、図18の配役決定処理で選択された顔画像がテクスチャマッピングされて表示されている。なお、敵オブジェクトEO1の顔面部は、必ずしもテクスチャマッピングによって形成しなくてもよく、単に、図9に示した敵オブジェクトEOの頭部形状の周辺部分H13と顔画像とを組み合わせることで、敵オブジェクトEO1を表示するようにしてもよい。そこで、以下では、敵オブジェクトの顔面部分に、顔画像が貼り付けられている、という記述する。   Furthermore, on this screen, for example, the enemy object EO1 created according to the procedure described in the screen example of FIG. 10 and the cast determination process of FIG. 18 is displayed against the background. On the face portion of the enemy object EO1, the face image selected in the casting determination process of FIG. 18 is texture-mapped and displayed. The face portion of the enemy object EO1 does not necessarily have to be formed by texture mapping. The enemy object EO1 is simply formed by combining the peripheral portion H13 of the head shape of the enemy object EO and the face image shown in FIG. EO1 may be displayed. Therefore, in the following, it is described that a face image is pasted on the face portion of the enemy object.

さらに、図41では、敵オブジェクトEO1の周りに、敵オブジェクトEO1よりも形状の小さい敵オブジェクトEO2−EO7が表示されている。このように、図41の画面では、敵オブジェクトEO1−EO7の合計7個の敵オブジェクトEOが表示されている。ただし、本実施形態に係るゲーム装置10の処理において、敵オブジェクトEOの数が7個に限定される訳でない。なお、すでに第1の実施形態で説明したように、敵オブジェクトEO1−EO7等を区別する必要がない場合には、敵オブジェクトEOと呼ぶ。   Further, in FIG. 41, enemy objects EO2-EO7 having a smaller shape than the enemy object EO1 are displayed around the enemy object EO1. Thus, in the screen of FIG. 41, a total of seven enemy objects EO of the enemy objects EO1-EO7 are displayed. However, in the process of the game apparatus 10 according to the present embodiment, the number of enemy objects EO is not limited to seven. As already described in the first embodiment, when there is no need to distinguish the enemy objects EO1-EO7, etc., they are called enemy objects EO.

また、敵オブジェクトEO1−EO7のいずれか1以上、例えば、敵オブジェクトEO6には、敵オブジェクトEO1と同一の顔画像が貼り付けされている。一方、他の敵オブジェクトEO2−EO5等には、敵オブジェクトEO1とは異なる顔画像が貼り付けられている。   Further, the same face image as that of the enemy object EO1 is pasted on one or more of the enemy objects EO1 to EO7, for example, the enemy object EO6. On the other hand, a face image different from that of the enemy object EO1 is pasted on the other enemy objects EO2-EO5 and the like.

さらに、図41の画面内には、敵オブジェクトEO1等を攻撃するための照準カーソルALが表示されている。照準カーソルALと、背景および敵オブジェクトEO1等の位置関係、および相対移動の関係は、第1の実施形態(図23−図26)で説明したものと同様である。   Further, an aiming cursor AL for attacking the enemy object EO1 or the like is displayed in the screen of FIG. The positional relationship between the aiming cursor AL, the background and the enemy object EO1, and the relationship of relative movement are the same as those described in the first embodiment (FIGS. 23 to 26).

すなわち、敵オブジェクトEO1は、図41の画面内を自在に動き回る。より具体的には、外側撮像部23が写し出した画像を背景とする仮想空間を自在に動き回る。したがって、上側LCD22を見るユーザには、自身が位置する空間内を敵オブジェクトEO1が自在に動くように見える。また、敵オブジェクトEO2−EO7は、敵オブジェクトEO1の周りに配置される。   That is, the enemy object EO1 freely moves around in the screen of FIG. More specifically, it freely moves around in a virtual space with the image captured by the outer imaging unit 23 as a background. Therefore, it looks to the user who sees the upper LCD 22 that the enemy object EO1 freely moves in the space where the user is located. The enemy objects EO2-EO7 are arranged around the enemy object EO1.

したがって、仮想空間を自在に動き回る敵オブジェクトEO1−EO7に対して、ユーザがゲーム装置10の向きを変えることで、画面に表示された照準カーソルALを敵オブジェクトEO1−EO7に合わせることが可能となる。敵オブジェクトEO1に照準カーソルALを合わせた状態で、トリガボタンに相当する操作ボタン14B(Aボタン)を押下することで、敵オブジェクトEO1−EO7に向けて弾を撃つことができる。   Therefore, when the user changes the direction of the game apparatus 10 with respect to the enemy objects EO1-EO7 that freely move around in the virtual space, the aiming cursor AL displayed on the screen can be aligned with the enemy objects EO1-EO7. . By pressing the operation button 14B (A button) corresponding to the trigger button in a state where the aiming cursor AL is aligned with the enemy object EO1, it is possible to shoot bullets toward the enemy objects EO1-EO7.

ただし、本実施形態のゲームでは、敵オブジェクトEO1−EO7のうち、敵オブジェクトEO1と同一の顔画像を有するもの以外への攻撃は、有効な攻撃とはならない。例えば、ユーザが、敵オブジェクトEO1および敵オブジェクトEO1と同一の顔画像を有する敵オブジェクトを攻撃した場合には、ユーザの得点となる。あるいは、敵オブジェクトの失点となる。また、敵オブジェクトEO1よりも寸法の小さい、敵オブジェクトEO2−EO7を攻撃した方がユーザの得点が高いものとする。あるいは、敵オブジェクトEO2−EO7が攻撃された場合の敵オブジェクトの失点は、敵オブジェクトEO1が攻撃された場合よりも、大きいとする。しかしながら、敵オブジェクトEO2−EO7のうち、敵オブジェクトEO1と異なる顔画像の敵オブジェクトへの攻撃は無効な攻撃となる。すなわち、ユーザには、敵オブジェクトEO1と同一の敵オブジェクトを攻撃する義務が課せられることになる。以下、敵オブジェクトEO1と異なる顔画像の敵オブジェクトを誤認用オブジェクトと呼ぶ。なお、図41では、敵オブジェクトEO2−EO7は、同一種類の頭部形状を有している。しかし、敵オブジェクトEO2−EO7のうち、誤認用オブジェクトである、敵オブジェクトEO2−EO5、EO7等のいずれかは、異なる種類の頭部形状を有するようにしてもよい。なお、すでに述べたように、個々の敵オブジェクトEO1−EO7等を区別しない場合、単に、敵オブジェクトEOという。   However, in the game of the present embodiment, an attack on the enemy objects EO1 to EO7 other than the enemy object EO1 that has the same face image as the enemy object EO1 is not an effective attack. For example, when the user attacks an enemy object EO1 and an enemy object having the same face image as the enemy object EO1, the user's score is obtained. Or, it is a penalty for enemy objects. Further, it is assumed that the user score is higher when the enemy objects EO2 to EO7 having a smaller size than the enemy object EO1 are attacked. Alternatively, it is assumed that the loss of the enemy object when the enemy objects EO2 to EO7 are attacked is larger than that when the enemy object EO1 is attacked. However, of the enemy objects EO2 to EO7, an attack on an enemy object having a face image different from that of the enemy object EO1 is an invalid attack. That is, the user is obliged to attack the same enemy object as the enemy object EO1. Hereinafter, an enemy object having a face image different from that of the enemy object EO1 is referred to as a misidentification object. In FIG. 41, enemy objects EO2-EO7 have the same type of head shape. However, of the enemy objects EO2-EO7, any of the enemy objects EO2-EO5, EO7, etc., which are misidentification objects, may have different types of head shapes. As described above, when the individual enemy objects EO1-EO7 are not distinguished, they are simply referred to as enemy objects EO.

図42により、ゲーム装置10の情報処理部31で実行される画像処理プログラムによる動作例を説明する。図42は、情報処理部31による動作の一例を示すフローチャートである。この処理では、情報処理部31は、例えば、顔画像の選択を受け付け、敵オブジェクトを生成する(ステップ30)。ステップ30の処理は、例えば、図18の配役決定処理と同様である。   With reference to FIG. 42, an example of an operation by the image processing program executed by the information processing unit 31 of the game apparatus 10 will be described. FIG. 42 is a flowchart illustrating an example of an operation performed by the information processing unit 31. In this process, the information processing section 31 receives, for example, selection of a face image and generates an enemy object (step 30). The process of step 30 is the same as the casting determination process of FIG. 18, for example.

次に、情報処理部31が、誤認用オブジェクトを生成する(ステップ31)。誤認用オブジェクトの生成は、例えば、敵オブジェクトEOの頭部形状の顔面部分に、ステップ30で指定された敵オブジェクトEOの顔画像以外の顔画像を貼り付ければよい。誤認用オブジェクトの顔画像の指定に限定はない。例えば、図7および図8に示したようなユーザが取得済みの顔画像から、誤認用オブジェクトの顔画像を選択してもよい。また、例えば、ゲーム装置10の出荷前にデータ保存用内部メモリ35に、事前に誤認用オブジェクトの顔画像を格納しておいてもよい。また、画像処理プログラムのインストール時、あるいは、バージョンアップ時に、誤認用オブジェクトの顔画像も、併せてデータ保存用内部メモリ35に格納するようにしてもよい。また、例えば、敵オブジェクトEOの顔画像を変形させた顔画像、例えば、目、鼻、口など、顔のパーツを他の顔画像と入れ替えた顔画像を誤認用オブジェクトに用いてもよい。   Next, the information processing section 31 generates a misidentification object (step 31). For example, the misidentification object may be generated by pasting a face image other than the face image of the enemy object EO specified in step 30 on the head-shaped face portion of the enemy object EO. There is no limitation on the designation of the face image of the misidentification object. For example, the face image of the misidentification object may be selected from the face images already acquired by the user as shown in FIGS. Further, for example, a face image of a misidentification object may be stored in advance in the data storage internal memory 35 before the game apparatus 10 is shipped. Further, when the image processing program is installed or upgraded, the face image of the misidentification object may also be stored in the data storage internal memory 35. Further, for example, a face image obtained by deforming the face image of the enemy object EO, for example, a face image in which face parts such as eyes, nose, and mouth are replaced with other face images may be used as the misidentification object.

次に、情報処理部31は、敵オブジェクトEOおよび誤認用オブジェクトによるゲームを開始する(ステップ32)。そして、情報処理部31は、ユーザによる攻撃があったか否かを判定する(ステップ33)。ユーザによる攻撃は、図41に示した照準カーソルALを敵オブジェクトEOに合わせた状態でのトリガの入力、例えば、操作ボタン14Bの押下によって検知される。ユーザによる攻撃があった場合、情報処理部31は、適正な敵オブジェクトEOへの攻撃か否かを判定する(ステップ35)。適正な敵オブジェクトEOに対する攻撃がなされた場合、情報処理部31は、敵オブジェクトEOを破壊し、ユーザの得点を追加する(ステップ36)。一方、ステップ35の判定で、適正な敵オブジェクトEO以外の誤認用オブジェクトへの攻撃が検知された場合、情報処理部31は、無効な攻撃であるとして、なにもしない。さらに、ステップ33の判定で、ユーザによる攻撃がなかった場合、情報処理部31は、他の処理を実行する(ステップ34)。他の処理は、例えば、それぞれのゲーム特有の処理である。例えば、図41の敵オブジェクトEO6、誤認用オブジェクトEO2−EO5を増殖する処理、図41の敵オブジェクトEO6の位置と誤認用オブジェクトEO2−EO7等の位置とを入れ替える処理である。   Next, the information processing section 31 starts a game with the enemy object EO and the misidentification object (step 32). Then, the information processing section 31 determines whether or not there has been an attack by the user (step 33). The attack by the user is detected by inputting a trigger in a state where the aiming cursor AL shown in FIG. 41 is aligned with the enemy object EO, for example, pressing the operation button 14B. If there is an attack by the user, the information processing section 31 determines whether or not the attack is on an appropriate enemy object EO (step 35). When an attack is made against the appropriate enemy object EO, the information processing section 31 destroys the enemy object EO and adds a user's score (step 36). On the other hand, if it is determined in step 35 that an attack on a misidentification object other than the proper enemy object EO is detected, the information processing section 31 does nothing as an invalid attack. Furthermore, when it is determined in step 33 that there is no attack by the user, the information processing section 31 executes another process (step 34). The other processing is, for example, processing specific to each game. For example, there are processing for multiplying the enemy object EO6 and the misidentification objects EO2-EO5 in FIG. 41, and processing for exchanging the positions of the enemy objects EO6 and misidentification objects EO2-EO7 in FIG.

そして、情報処理部31は、ゲーム終了か否かを判定する(ステップ37)。ゲーム終了は、例えば、ユーザが、増殖する敵オブジェクトEOをすべて破壊し尽くしたとき、ユーザの得点が基準値を超えた場合等である。あるいは、ゲーム終了は、例えば、敵オブジェクトEOが所定限度を超えて増殖した場合、ユーザの失点が所定の限度を超えた場合等である。ゲーム終了でない場合、情報処理部31は、制御をステップ33に戻す。   Then, the information processing section 31 determines whether or not the game is over (step 37). The end of the game is, for example, when the user's score exceeds a reference value when the user completely destroys all of the multiplying enemy objects EO. Alternatively, the end of the game is, for example, when the enemy object EO has proliferated beyond a predetermined limit, or when the user's goal has exceeded a predetermined limit. If the game is not finished, the information processing section 31 returns the control to step 33.

以上述べたように、本実施形態の画像処理プログラムによれば、収集した顔画像を用いて、敵オブジェクトEOを作成してゲームを実行できる。したがって、ユーザは、現実の世界に存在する人の顔画像を基に、仮想現実の世界でのゲームを遂行することができる。   As described above, according to the image processing program of the present embodiment, it is possible to create an enemy object EO and execute a game using the collected face images. Therefore, the user can perform a game in the virtual reality world based on a human face image existing in the real world.

また、本実施形態のゲーム装置10によれば、適正な敵オブジェクトEOと、誤認用オブジェクトの組み合わせによって、ユーザの混乱を生じさせつつ、ゲームが実行される。したがって、ユーザは、敵オブジェクトEOの顔画像の正確な把握が求められる。その結果、ユーザには、敵オブジェクトEOを見分ける処理能力、集中力が要求される。したがって、本実施形態のゲーム装置10は、ユーザにゲームを実行するときの緊張感を発生させ、あるいは、顔画像認識に伴う脳の活性化を可能とする。   Further, according to the game apparatus 10 of the present embodiment, the game is executed while causing confusion for the user by a combination of the appropriate enemy object EO and the object for misidentification. Therefore, the user is required to accurately grasp the face image of the enemy object EO. As a result, the user is required to have a processing ability and a concentration ability to distinguish the enemy object EO. Therefore, the game apparatus 10 according to the present embodiment generates a sense of tension when the user executes the game, or enables the brain activation associated with the face image recognition.

上記第2の実施形態では、例えば、図14のステップ16の配役決定処理およびステップ18のゲーム実行の処理と同様に、ゲームのセーブデータ記憶域Doに格納済みの顔画像を基に敵オブジェクトEOを作成し、ゲームを実行した。しかし、図42のステップ30の処理として、例えば、図15のステップ100−ステップ105の処理を実行してもよい。すなわち、顔画像取得処理で取得し、ゲームのセーブデータ記憶域Doに格納前の状態で、本実施形態のゲームを実行してもよい。そして、図15のステップ107−ステップ110と同様に、ゲームで成功した場合に、取得した顔画像をゲームのセーブデータ記憶域Doに格納すればよい。このような構成によって、第1の実施得形態と同様、ユーザは、取得した顔画像を保存するため、ますます熱心にゲームに取り組むようになる。   In the second embodiment, for example, the enemy object EO is based on the face image stored in the save data storage area Do of the game, as in the cast determination process in step 16 and the game execution process in step 18 of FIG. Created and ran the game. However, as the processing in step 30 in FIG. 42, for example, the processing in steps 100 to 105 in FIG. 15 may be executed. That is, the game according to the present embodiment may be executed in a state obtained by the face image acquisition process and before being stored in the game save data storage area Do. Similarly to Step 107 to Step 110 in FIG. 15, when the game is successful, the acquired face image may be stored in the game save data storage area Do. With such a configuration, as in the first embodiment, the user becomes more enthusiastic about the game in order to save the acquired face image.

(第3の実施形態)
以下、図43および図44を参照して、本発明の第3の実施形態に係る画像処理プログラムを実行する画像処理装置について説明する。本実施形態のゲームは、第1の実施形態のゲームと同様、例えば、図14に示したステップ10による顔画像取得処理1およびステップ12による顔画像取得処理2のための第1のゲーム(図15のステップ106、図16のステップ129)として実行してもよい。また、本実施形態のゲームは、例えば、第2のゲーム(図14に示したステップ18)と同様、顔画像が収集され、ゲームのセーブデータ記憶域Doに蓄積されていることを前提として実行されるようにしてもよい。
(Third embodiment)
Hereinafter, an image processing apparatus that executes an image processing program according to the third embodiment of the present invention will be described with reference to FIGS. 43 and 44. The game of this embodiment is the same as the game of the first embodiment, for example, the first game for the face image acquisition process 1 in step 10 and the face image acquisition process 2 in step 12 shown in FIG. 15 step 106 and step 129) of FIG. The game of this embodiment is executed on the assumption that face images are collected and stored in the game save data storage area Do, for example, as in the second game (step 18 shown in FIG. 14). You may be made to do.

すなわち、第2の実施形態で述べた場合と同様、ゲーム装置10の情報処理部31は、本実施形態のゲームを第1の実施形態の配役決定処理(図14のステップ16)、および第2のゲーム(図14のステップ18で実行されるゲーム)の処理例として、実行する。また、ゲーム装置10の情報処理部31は、本実施形態のゲームを第1実施形態の第1のゲーム(図15のステップ106、図16のステップ129で実行されるゲーム)としても実行できる。   That is, as in the case described in the second embodiment, the information processing unit 31 of the game apparatus 10 performs the casting determination process (step 16 in FIG. 14) of the first embodiment and the second game. As a processing example of this game (game executed in step 18 of FIG. 14), it is executed. The information processing unit 31 of the game apparatus 10 can also execute the game of the present embodiment as the first game of the first embodiment (the game executed in step 106 in FIG. 15 and step 129 in FIG. 16).

また、上記第2の実施形態では、顔画像を取得し、取得した顔画像を含む敵オブジェクトEOと誤認用オブジェクトを用いたゲームの処理の一例を説明した。そして、上記第2の実施形態では、誤認用オブジェクトへの攻撃は無効な攻撃とされた。   In the second embodiment, an example of a game process using a face image acquired and an enemy object EO including the acquired face image and a misidentification object has been described. In the second embodiment, the attack on the misidentification object is an invalid attack.

本実施形態では、第2の実施形態のゲームに代えて、誤認用オブジェクトへの攻撃が検知されると、敵オブジェクトEOの顔画像のパーツが、他の顔画像のパーツと入れ替わるゲームについて説明する。例えば、敵オブジェクトEOの周辺部分(図9のH13参照)と、ユーザの顔画像を組み合わせて、敵オブジェクトEOを構成する。ユーザの顔画像の代わりにユーザの親しい人の顔画像を用いてもよい。この場合に、ユーザの顔画像(あるいは親しい人の顔画像)は、敵オブジェクトEOに拘束された状態を模擬するようにしてもよい。そして、ユーザがゲームで、敵オブジェクトEOに勝利した場合には、ユーザの顔画像(あるいは親しい人の顔画像)が敵オブジェクトEOから解放されることを模擬すればよい。一方、ユーザがゲームで、失敗を続けると、徐々に、敵オブジェクトEOに拘束されたユーザの顔画像(あるいは親しい人の顔画像)が変形していくことになる。そして、変形の限度が一定限度を超えるとゲーム終了となるようにすればよい。   In this embodiment, instead of the game of the second embodiment, a description will be given of a game in which a face image part of an enemy object EO is replaced with another face image part when an attack on a misidentification object is detected. . For example, the enemy object EO is configured by combining the peripheral portion of the enemy object EO (see H13 in FIG. 9) and the user's face image. Instead of the face image of the user, a face image of a person close to the user may be used. In this case, the face image of the user (or the face image of a close person) may simulate the state of being restricted by the enemy object EO. Then, when the user wins the enemy object EO in the game, it is only necessary to simulate that the user's face image (or a close person's face image) is released from the enemy object EO. On the other hand, if the user continues to fail in the game, the face image of the user (or the face image of a close person) restrained by the enemy object EO will gradually be deformed. Then, the game may be ended when the deformation limit exceeds a certain limit.

図43は、本実施形態に係る、上側LCD22に表示される画面の一例である。図43の例では、敵オブジェクトEO1(第1のキャラクタオブジェクトの一例)が表示されている。また、敵オブジェクトEO1の周りに、寸法が敵オブジェクトEO1よりも小さい敵オブジェクトEO11(第2のキャラクタオブジェクトの一例)と、誤認用オブジェクトEO12−EO16(第3のキャラクタオブジェクトの一例)が表示されている。敵オブジェクトEO11には、敵オブジェクトEO1と同一の顔画像が貼り付けられている。一方、誤認用オブジェクトEO12−EO16の構成は、第2の実施例の場合と同様であり、敵オブジェクトEO1とは異なる顔画像が貼り付けられている。なお、図43の構成は例示であり、寸法が敵オブジェクトEO1よりも小さい敵オブジェクトEO11の数が、1個に限定される訳ではない。   FIG. 43 is an example of a screen displayed on the upper LCD 22 according to the present embodiment. In the example of FIG. 43, an enemy object EO1 (an example of a first character object) is displayed. In addition, an enemy object EO11 (an example of a second character object) having a size smaller than that of the enemy object EO1 and misidentification objects EO12-EO16 (an example of a third character object) are displayed around the enemy object EO1. Yes. The same face image as the enemy object EO1 is pasted on the enemy object EO11. On the other hand, the configuration of the misidentification objects EO12 to EO16 is the same as that in the second embodiment, and a face image different from the enemy object EO1 is pasted. Note that the configuration in FIG. 43 is merely an example, and the number of enemy objects EO11 having dimensions smaller than the enemy object EO1 is not limited to one.

本実施形態のゲームにおいては、例えば、寸法の大きな敵オブジェクトEO1には、照準カーソルALを合わせやすいため、敵オブジェクトEO1を攻撃し、弾が命中したとしても、ユーザが得られる得点、あるいは、敵オブジェクトEO1に与えるダメージは小さいものとする。また、寸法の小さな敵オブジェクトEO11には、照準カーソルALを合わせにくいため、敵オブジェクトEO11を攻撃し、弾が命中した場合には、ユーザが得られる得点、あるいは、敵オブジェクトEO1に与えるダメージは、敵オブジェクトEO1の場合よりも大きいものとする。   In the game of the present embodiment, for example, since the aiming cursor AL is easily aligned with the enemy object EO1 having a large size, even if the enemy object EO1 is attacked and a bullet hits, the score obtained by the user or the enemy It is assumed that the damage given to the object EO1 is small. Further, since it is difficult to position the aiming cursor AL on the enemy object EO11 having a small size, when the enemy object EO11 is attacked and a bullet hits, the score that the user can obtain or the damage to the enemy object EO1 is as follows: It is assumed that it is larger than that of the enemy object EO1.

さらに、本実施形態では、ユーザが誤認用オブジェクトEO12−EO16を攻撃した場合には、敵オブジェクトEO1に貼り付けられている顔画像のパーツが他の顔画像と入れ替えられる。例えば、図43の場合には、すでに、敵オブジェクトEO1に貼り付けられた顔画像のうち、眉と目の部分が顔画像EO13の眉と目の部分と置き換えられている。このようにして、小さな敵オブジェクトEO11を攻撃しようとするユーザに対して、誤認用オブジェクトEO12−EO16は、ユーザを混乱させ、敵オブジェクトEO1の変形へと導こうとする。なお、図43では、誤認用オブジェクトEO12−EO16は、同一種類の頭部形状を有している。しかし、誤認用オブジェクトEO12−EO16のいずれかは、異なる種類の頭部形状にしてもよい。   Furthermore, in this embodiment, when the user attacks the misidentification objects EO12 to EO16, the parts of the face image pasted on the enemy object EO1 are replaced with other face images. For example, in the case of FIG. 43, the eyebrows and the eye portions of the face image pasted on the enemy object EO1 have already been replaced with the eyebrows and eye portions of the face image EO13. In this way, for the user who tries to attack the small enemy object EO11, the misidentification objects EO12-EO16 confuse the user and attempt to lead to deformation of the enemy object EO1. In FIG. 43, the misidentification objects EO12-EO16 have the same type of head shape. However, any of the misidentification objects EO12 to EO16 may have a different type of head shape.

図44により、ゲーム装置10の情報処理部31で実行される画像処理プログラムによる動作例を説明する。図44は、情報処理部31による動作の一例を示すフローチャートである。この処理では、ステップ40−ステップ42の処理は、図42のステップ30−ステップ32の処理と同様であるので、その説明を省略する。   With reference to FIG. 44, an example of an operation by an image processing program executed by the information processing unit 31 of the game apparatus 10 will be described. FIG. 44 is a flowchart illustrating an example of an operation performed by the information processing unit 31. In this process, the process from step 40 to step 42 is the same as the process from step 30 to step 32 in FIG.

そして、情報処理部31は、敵オブジェクトEOへの攻撃を検知すると(ステップ43)、顔画像の変形を削減し、敵オブジェクトEO11の顔画像を本来貼り付けられている顔画像に近づける(ステップ44)。この場合には、図43に示した寸法の小さな敵オブジェクトEO11への攻撃には、寸法の大きな敵オブジェクトEO1への攻撃よりも高い得点を付与すればよい。また、寸法の小さな敵オブジェクトEO11への攻撃には、寸法の大きな敵オブジェクトEO1への攻撃よりも、顔画像の変形を削減する程度を大きくすれよい。   When the information processing unit 31 detects an attack on the enemy object EO (step 43), the information processing unit 31 reduces the deformation of the face image and brings the face image of the enemy object EO11 closer to the originally pasted face image (step 44). ). In this case, the attack on the enemy object EO11 having a small size shown in FIG. 43 may be given a higher score than the attack on the enemy object EO1 having a large size. Further, the attack on the enemy object EO11 having a small size may be made larger in the degree of reducing the deformation of the face image than the attack on the enemy object EO1 having a large size.

一方、情報処理部31は、誤認用オブジェクトEO12−EO16等への攻撃を検知すると(ステップ45)、現在よりも、さらに敵オブジェクトEO1に貼り付けられている顔画像のパーツの置き換えを進める。すなわち、情報処理部31は、顔画像の変形を追加する(ステップ44)。また、情報処理部31は、敵オブジェクトEOへの攻撃、誤認用オブジェクトへの攻撃以外の状態を検知した場合には、その他の処理を実行する(ステップ47)。その他の処理は、図42のステップ34の場合と同様である。例えば、情報処理部31は、敵オブジェクトEOを増殖する。   On the other hand, when the information processing unit 31 detects an attack on the misidentification objects EO12 to EO16 and the like (step 45), the information processing unit 31 further replaces parts of the face image pasted on the enemy object EO1 as compared with the present. That is, the information processing section 31 adds a deformation of the face image (step 44). Further, when the information processing unit 31 detects a state other than the attack on the enemy object EO and the attack on the object for misidentification, the information processing unit 31 performs other processing (step 47). Other processes are the same as those in step 34 of FIG. For example, the information processing unit 31 propagates the enemy object EO.

そして、情報処理部31は、ゲーム終了か否かを判定する(ステップ48)。ゲーム終了の判定は、例えば、敵オブジェクトEOの顔画像の変形が基準の限度を超えた場合である。また、ゲーム終了の判定は、例えば、ユーザが敵オブジェクトEOを破壊し、所定限度の得点を得た場合である。そして、ゲーム終了でない場合、情報処理部31は、制御をステップ43に戻す。   Then, the information processing section 31 determines whether or not the game is over (step 48). The determination of the end of the game is, for example, when the deformation of the face image of the enemy object EO exceeds the reference limit. The determination of the end of the game is, for example, when the user destroys the enemy object EO and obtains a predetermined limit score. If the game is not finished, the information processing section 31 returns the control to step 43.

以上述べたように、本実施形態のゲーム装置10によれば、ユーザが敵オブジェクトEOの攻撃に成功すると、変形した顔画像が復旧する。また、ユーザが誤認用オブジェクトを攻撃すると、顔画像の変形がさらに進行する。したがって、ユーザは、集中力を持ってゲームに取り組むことを要求され、ゲーム実行時の緊張感が高まり、集中力を養成することが可能になる。さらに、本実施形態のゲーム装置10によれば、ユーザの顔画像、ユーザの親しい人の顔画像が変形されるので、ユーザは、現実の世界を投影した仮想現実の世界で、ゲームに熱中する可能性を高めることができる。   As described above, according to the game device 10 of the present embodiment, when the user succeeds in attacking the enemy object EO, the deformed face image is restored. Further, when the user attacks the misidentification object, the deformation of the face image further proceeds. Therefore, the user is required to work on the game with concentration, and the tension at the time of game execution increases, and it becomes possible to develop concentration. Furthermore, according to the game device 10 of the present embodiment, the face image of the user and the face image of the close person of the user are deformed, so that the user is enthusiastic about the game in the virtual reality world that is a projection of the real world. The possibility can be increased.

上記第3の実施形態では、例えば、図42のステップ30、さらに、図14のステップ16の配役決定処理およびステップ18のゲーム実行の処理と同様に、ゲームのセーブデータ記憶域Doに格納済みの顔画像を基に敵オブジェクトEOを作成し、ゲームを実行する場合を想定して説明した。しかし、図44のステップ40の処理として、例えば、図15のステップ100−ステップ105の処理を実行してもよい。すなわち、顔画像取得処理で取得し、ゲームのセーブデータ記憶域Doに格納前の状態で、第3の実施形態のゲームを実行してもよい。そして、図15のステップ107−ステップ110と同様に、ゲームで成功した場合に、取得した顔画像をゲームのセーブデータ記憶域Doに格納すればよい。このような構成によって、第1の実施得形態と同様、ユーザは、ますます熱心にゲームに取り組むようになる。   In the third embodiment, for example, in the same manner as the step 30 in FIG. 42, the casting determination process in step 16 in FIG. 14, and the game execution process in step 18, it is already stored in the game save data storage area Do. The description has been made assuming that the enemy object EO is created based on the face image and the game is executed. However, for example, the processing of Step 100 to Step 105 of FIG. 15 may be executed as the processing of Step 40 of FIG. In other words, the game of the third embodiment may be executed in a state obtained by the face image acquisition process and before being stored in the game save data storage area Do. Similarly to Step 107 to Step 110 in FIG. 15, when the game is successful, the acquired face image may be stored in the game save data storage area Do. With this configuration, as in the first embodiment, the user becomes more enthusiastic about the game.

(第4の実施形態)
以下、図45および図46を参照して、本発明の第4の実施形態に係る画像処理プログラムを実行する画像処理装置について説明する。本実施形態のゲームは、第1の実施形態のゲームと同様、例えば、図14に示したステップ10による顔画像取得処理1およびステップ12による顔画像取得処理2のための第1のゲーム(図15のステップ106、図16のステップ129)として実行してもよい。また、本実施形態のゲームは、例えば、第2のゲーム(図14に示したステップ18)と同様、顔画像が収集され、ゲームのセーブデータ記憶域Doに蓄積されていることを前提として実行されるようにしてもよい。
(Fourth embodiment)
Hereinafter, with reference to FIGS. 45 and 46, an image processing apparatus that executes an image processing program according to the fourth embodiment of the present invention will be described. The game of this embodiment is the same as the game of the first embodiment, for example, the first game for the face image acquisition process 1 in step 10 and the face image acquisition process 2 in step 12 shown in FIG. 15 step 106 and step 129) of FIG. The game of this embodiment is executed on the assumption that face images are collected and stored in the game save data storage area Do, for example, as in the second game (step 18 shown in FIG. 14). You may be made to do.

すなわち、第2の実施形態で述べた場合と同様、ゲーム装置10の情報処理部31は、本実施形態のゲームを第1の実施形態の配役決定処理(図14のステップ16)、あるいは、第2のゲーム(図14のステップ18で実行されるゲーム)の処理例として、実行することができる。また、ゲーム装置10の情報処理部31は、本実施形態のゲームを第1実施形態の第1のゲーム(図15のステップ106、図16のステップ129で実行されるゲーム)としても実行できる。   That is, as in the case described in the second embodiment, the information processing section 31 of the game apparatus 10 determines that the game of this embodiment is the casting determination process of the first embodiment (step 16 in FIG. 14) or As a processing example of the second game (the game executed in step 18 in FIG. 14), it can be executed. The information processing unit 31 of the game apparatus 10 can also execute the game of the present embodiment as the first game of the first embodiment (the game executed in step 106 in FIG. 15 and step 129 in FIG. 16).

また、上記第3の実施形態では、顔画像を取得し、取得した顔画像を用いた敵オブジェクトEOと誤認用オブジェクトを用いたゲームの処理の一例を説明した。さらに、第3実施形態では、誤認用オブジェクトへの攻撃が検知されると、敵オブジェクトEOの顔画像のパーツが、他の顔画像のパーツと入れ替えられた。   In the third embodiment, an example of a game process using a face image acquired and an enemy object EO and a misidentification object using the acquired face image has been described. Furthermore, in the third embodiment, when an attack on the misidentification object is detected, the face image part of the enemy object EO is replaced with another face image part.

本実施形態では、第2の実施形態、あるいは、第3実施形態のゲームに代えて、ゲーム開始時点で、敵オブジェクトEOに含まれる顔のパーツが、他の顔画像のパーツと入れ替えられており、ユーザがゲームに勝利すると、敵オブジェクトEOに含まれる顔のパーツが元の顔画像に戻る処理を説明する。   In this embodiment, instead of the game of the second embodiment or the third embodiment, the facial parts included in the enemy object EO are replaced with other facial image parts at the start of the game. The process of returning the facial parts included in the enemy object EO to the original facial image when the user wins the game will be described.

図45は、本実施形態に係る、上側LCD22に表示される画面の一例である。画面の左側には、敵オブジェクトEOに貼り付け可能な顔画像の一覧表(登場人物欄)が登場人物として表示されている。ただし、ゲーム装置10の画面では、顔画像の一覧表は、なくてもよい。また、例えば、情報処理部31が、GUIを通じて、ユーザからの一覧表の表示要求操作を検知したときに、顔画像の一覧表を表示するようにしてもよい。また、顔画像の一覧表の表示箇所が、図45のような画面の左側に限定される訳ではない。登場人物欄には、顔画像PS1−PS5等の顔画像が表示されている。   FIG. 45 is an example of a screen displayed on the upper LCD 22 according to the present embodiment. On the left side of the screen, a list of face images (character column) that can be pasted on the enemy object EO is displayed as characters. However, the face image list may not be provided on the screen of the game apparatus 10. Further, for example, when the information processing unit 31 detects a list display display operation from the user through the GUI, the face image list may be displayed. Further, the display location of the face image list is not limited to the left side of the screen as shown in FIG. In the character column, face images such as the face images PS1 to PS5 are displayed.

また、図45の画面には、敵オブジェクトEO20、EO21−EO25が表示されている。敵オブジェクトEO20、EO21−EO25等は、例えば、第1の実施形態の図7−9の画面、あるいは、図18の配役決定処理に示したような選択操作で作成した敵オブジェクトEOである。ただし、本実施形態では、敵オブジェクトEO20は、画面中央に大きく描かれ、敵オブジェクトEO21−EO25等は、敵オブジェクトEO20の周りに描かれている。また、例えば、敵オブジェクトEO20には、元々、顔画像PS1が貼り付けられていた。また、例えば、敵オブジェクトEO22には、顔画像PS2が貼り付けられていた。また、敵画像EO25には、顔画像PS5が貼り付けられていた。   In addition, enemy objects EO20, EO21-EO25 are displayed on the screen of FIG. The enemy objects EO20, EO21-EO25, and the like are, for example, enemy objects EO created by the selection operation as shown in the screen of FIG. 7-9 of the first embodiment or the casting determination process of FIG. However, in this embodiment, the enemy object EO20 is drawn large in the center of the screen, and the enemy objects EO21 to EO25 are drawn around the enemy object EO20. For example, the face image PS1 was originally pasted on the enemy object EO20. For example, the face image PS2 is pasted on the enemy object EO22. Further, the face image PS5 is pasted on the enemy image EO25.

しかしながら、本ゲームの開始前に、敵オブジェクトEO20と、EO21−EO25との間で、顔のパーツの入れ替えが行われる。例えば、敵オブジェクトEO20と敵オブジェクトEO22との間で、鼻が入れ替わっている。また、例えば、敵オブジェクトEO20と敵オブジェクトEO25との間で、左眉毛と左目が入れ替わっている。顔のパーツの入れ替えは、例えば、顔画像をテクスチャマッピング時に、テクスチャマッピングされる3次元モデルを構成するポリゴン単位で行えばよい。   However, the face parts are exchanged between the enemy object EO20 and the EO21-EO25 before the start of the game. For example, the nose is switched between the enemy object EO20 and the enemy object EO22. Further, for example, the left eyebrow and the left eye are interchanged between the enemy object EO20 and the enemy object EO25. For example, the face parts may be replaced in units of polygons constituting a three-dimensional model to be texture-mapped when a face image is texture-mapped.

このような顔のパーツの入れ替えは、例えば、入れ替えるパーツ数と、入れ替え対象パーツをランダムに入れ替えるようにしてもよい。また、例えば、すでに行った当該ゲーム、あるいは、他のゲームの成否、得点によって、入れ替えるパーツ数を決定してもよい。例えば、すでに行ったゲームで、ユーザの成績、達成度が良好な場合には、入れ替えるパーツ数を少なくし、ユーザの成績、達成度が不調の場合には、入れ替えるパーツ数を多くするなどである。また、ゲームをレベル分けしておき、ゲームのレベルに応じて、入れ替えるパーツ数を変更してもよい。例えば、入門レベルでは、入れ替えるパーツ数を少なくし、上級レベルでは、入れ替えるパーツ数を多くするなどである。   Such face part replacement may be performed by, for example, randomly replacing the number of parts to be replaced and the part to be replaced. Also, for example, the number of parts to be replaced may be determined based on the success or score of the game already played or another game. For example, in a game that has already been performed, if the user's grade and achievement level are good, the number of parts to be replaced is reduced, and if the user's grade and achievement level are poor, the number of parts to be exchanged is increased. . Further, the game may be divided into levels, and the number of parts to be replaced may be changed according to the level of the game. For example, the number of parts to be replaced is reduced at the introductory level, and the number of parts to be replaced is increased at the advanced level.

また、内側撮像部24によりユーザの顔画像を取得して、顔認識を行い、認識された表情に応じて、入れ替えるパーツ数を決定してもよい。例えば、顔画像が笑っている場合、驚いている場合、悲しんでいる場合、無表情に近い場合などを判定し、判定結果に応じて、入れ替えるパーツ数を決定してもよい。顔の表情は、目の寸法、口の面積、口の形状、目の中心、口の中心、鼻等を基準点として、頬の輪郭の位置等から決定すればよい。例えば、ユーザの無表情状態の顔画像を事前に登録しておき、新たに、ユーザの顔画像を取得したときに得られた目の寸法、口の面積、口の形状、基準点からの頬の輪郭の位置等の値と、事前に登録した顔画像から得られた値との差分値から、ユーザの顔の表情を推定してもよい。なお、このような顔の表情の推定方法は、以上の手順に限定される訳ではなく、様々な手順を利用できる。   Alternatively, the user's face image may be acquired by the inner imaging unit 24, face recognition may be performed, and the number of parts to be replaced may be determined according to the recognized facial expression. For example, it may be determined whether the face image is laughing, surprised, sad, or expressionless, and the number of parts to be replaced may be determined according to the determination result. The facial expression may be determined from the position of the cheek outline, etc., using the eye dimensions, mouth area, mouth shape, eye center, mouth center, nose, etc. as reference points. For example, a facial image of the user's expressionless state is registered in advance, and the eye size, mouth area, mouth shape, cheek from the reference point obtained when the user's face image is newly acquired The facial expression of the user may be estimated from the difference value between the value of the contour position and the like and the value obtained from the face image registered in advance. Note that such a facial expression estimation method is not limited to the above procedure, and various procedures can be used.

本実施形態では、ゲーム装置10では、ユーザが、図45のような顔のパーツが入れ替えられた敵オブジェクトEOを攻撃し、敵オブジェクトEOと戦うゲームを実行する。攻撃の仕方は、第1の実施形態から第3の実施形態で説明した手順と同様である。そして、ユーザが、敵オブジェクトEOとの戦いに勝利したときに、入れ替えられたパーツが元の顔画像に復帰するようにすればよい。   In the present embodiment, in the game apparatus 10, the user attacks the enemy object EO with the face parts replaced as shown in FIG. 45 and executes a game in which the user fights the enemy object EO. The manner of attack is the same as the procedure described in the first to third embodiments. Then, when the user wins the battle with the enemy object EO, the replaced parts may be restored to the original face image.

図46により、ゲーム装置10の情報処理部31で実行される画像処理プログラムによる動作例を説明する。この処理のうち、ステップ90の処理は、図42のステップ30、図44のステップ40と同様である。本実施形態では、ゲーム装置10の情報処理部31は、次に、顔のパーツの入れ替えを実行する(ステップ91)。そして、情報処理部31は、ゲームを実行する(ステップ92)。そして、情報処理部31は、ゲームが成功したか否かを判定する(ステップ93)。ゲームが成功した場合には、情報処理部31は、ステップ91の処理でパーツが入れ替えられた顔を、元の撮像された状態の顔に復旧する(ステップ94)。   With reference to FIG. 46, an example of an operation by the image processing program executed by the information processing unit 31 of the game apparatus 10 will be described. Of these processes, the process of Step 90 is the same as Step 30 of FIG. 42 and Step 40 of FIG. In the present embodiment, the information processing section 31 of the game apparatus 10 next performs face part replacement (step 91). Then, the information processing section 31 executes a game (step 92). Then, the information processing section 31 determines whether or not the game is successful (step 93). If the game is successful, the information processing section 31 restores the face whose parts have been replaced in the process of step 91 to the original imaged face (step 94).

以上述べたように、本実施形態の画像処理プログラムによれば、例えば、内側撮像部24によりユーザの顔画像を取得し、取得した顔画像と、他の顔画像との間で、顔のパーツが入れ替えられた状態で、ゲームが開始する。そして、ユーザが敵オブジェクトEOとの戦いに勝利するなど、ゲームにおいて、ユーザが成功した場合には、パーツが入れ替えられた顔画像が、元の顔画像に復旧する。   As described above, according to the image processing program of the present embodiment, for example, a face image of a user is acquired by the inner imaging unit 24, and a facial part is acquired between the acquired face image and another face image. The game starts in the state where is replaced. When the user succeeds in the game, such as when the user wins a battle with the enemy object EO, the face image with the parts replaced is restored to the original face image.

したがって、例えば、顔のパーツが入れ替えられる顔画像が、ユーザ自身の顔画像である場合、あるいは、ユーザと親密な人の顔画像等である場合に、ユーザはゲームで成功するため、高い動機付けを与えられる。   Therefore, for example, when the face image whose face parts are to be replaced is the user's own face image or the face image of a person who is intimate with the user, the user succeeds in the game, so that the motivation is high. Is given.

また、すでに他のゲームでの成績に応じて、本実施形態でのゲーム開始時の顔のパーツの入れ替えを行うことによって、ユーザに他のゲームの結果如何によるハンディキャップあるいはアドバンテージを付与できる。また、ゲームのレベルに応じて顔のパーツの入れ替えを行うことによって、ゲームのレベルの難易度を顔の変形の程度によって表現することができる。   In addition, by replacing the face parts at the start of the game in this embodiment according to the results of other games, the user can be given a handicap or advantage depending on the results of the other games. Also, by replacing the face parts according to the game level, the difficulty level of the game level can be expressed by the degree of face deformation.

上記第4の実施形態では、例えば、図42のステップ30、図44のステップ40、あるいは、図14のステップ16の配役決定処理およびステップ18のゲーム実行の処理と同様に、ゲームのセーブデータ記憶域Doに格納済みの顔画像を基に敵オブジェクトEOを作成し、ゲームを実行することを想定して説明した。しかし、図45のステップ90の処理として、例えば、図15のステップ100−ステップ105の処理を実行してもよい。すなわち、顔画像取得処理で取得し、ゲームのセーブデータ記憶域Doに格納前の状態で、本実施形態のゲームを実行してもよい。そして、図15のステップ107−ステップ110と同様に、ゲームで成功した場合に、取得した顔画像をゲームのセーブデータ記憶域Doに格納すればよい。このような構成によって、第1の実施得形態と同様、ユーザは、取得した顔画像を保存するため、ますます熱心にゲームに取り組むようになる。   In the fourth embodiment, for example, the game save data storage is performed in the same manner as the step 30 in FIG. 42, the step 40 in FIG. 44, or the casting determination process in step 16 in FIG. 14 and the game execution process in step 18. The description has been made on the assumption that the enemy object EO is created based on the face image stored in the area Do and the game is executed. However, as the processing of step 90 of FIG. 45, for example, the processing of step 100 to step 105 of FIG. 15 may be executed. That is, the game according to the present embodiment may be executed in a state obtained by the face image acquisition process and before being stored in the game save data storage area Do. Similarly to Step 107 to Step 110 in FIG. 15, when the game is successful, the acquired face image may be stored in the game save data storage area Do. With such a configuration, as in the first embodiment, the user becomes more enthusiastic about the game in order to save the acquired face image.

(第5の実施形態)
以下、図47〜図51を参照して、本発明の第5の実施形態に係る画像処理プログラムを実行する画像処理装置について説明する。上述した実施形態では、顔画像をセーブデータ記憶域Doに格納するためのゲーム(例えば、第1のゲーム)を開始する前に、内側撮像部24または外側撮像部23が撮像したカメラ画像を用いた顔画像取得処理によって取得対象となる顔画像が取得される。そして、当該顔画像を取得した後に上記ゲームが実行され、ユーザが上記ゲームで成功した場合に、当該顔画像をセーブデータ記憶域Doに格納することが許容される。第5の実施形態では、敵オブジェクトEOと戦うゲームの実行中に内側撮像部24または外側撮像部23が撮像したカメラ画像から取得対象となる顔画像を取得し、当該顔画像の取得に成功する条件を満たすことによって当該ゲーム中に取得した顔画像をセーブデータ記憶域Doに格納することが許容される。すなわち、第5の実施形態では、所定のゲームの実行中に撮像されたカメラ画像から顔画像を取得して、当該ゲームにおいて当該顔画像の取得に成功する条件を満たすことによって当該顔画像をセーブデータ記憶域Doに格納することが許容されるため、結果的に当該ゲームが顔画像をセーブデータ記憶域Doに格納することが許容されるゲームとなる。本実施形態のゲームも、上記実施形態と同様、ゲーム装置10の情報処理部31が、メインメモリ32に展開された画像処理プログラムを実行することで、ユーザに提供される。以下の説明では、ゲーム中に顔画像を取得する一例として、上述した第2のゲーム(図14のステップ18)の実行中に顔画像を取得する態様を用いる。
(Fifth embodiment)
Hereinafter, an image processing apparatus that executes an image processing program according to the fifth embodiment of the present invention will be described with reference to FIGS. 47 to 51. In the embodiment described above, the camera image captured by the inner imaging unit 24 or the outer imaging unit 23 is used before starting a game (for example, the first game) for storing the face image in the save data storage area Do. The face image to be acquired is acquired by the acquired face image acquisition process. Then, after the face image is acquired, the game is executed, and when the user succeeds in the game, the face image is allowed to be stored in the save data storage area Do. In the fifth embodiment, a face image to be acquired is acquired from a camera image captured by the inner imaging unit 24 or the outer imaging unit 23 during execution of a game fighting an enemy object EO, and the acquisition of the face image is successful. By satisfying the conditions, it is allowed to store the face image acquired during the game in the save data storage area Do. That is, in the fifth embodiment, a face image is acquired from a camera image captured during execution of a predetermined game, and the face image is saved by satisfying a condition for successful acquisition of the face image in the game. Since the storage in the data storage area Do is allowed, the game is allowed to store the face image in the save data storage area Do as a result. The game of this embodiment is also provided to the user when the information processing unit 31 of the game apparatus 10 executes the image processing program developed in the main memory 32, as in the above embodiment. In the following description, as an example of acquiring the face image during the game, a mode in which the face image is acquired during the execution of the second game (step 18 in FIG. 14) described above is used.

図47は、本実施形態に係るゲーム装置10の上側LCD22に表示される画面の一例である。この画面の作成手順は、上記第1の実施形態と同様である。すなわち、ユーザは、例えば、ゲーム装置10の下側ハウジング11と上側ハウジング21とを開状態として、図4のように、下側ハウジング11を両手に持つ場合を想定する。このとき、ユーザは、上側LCD22の表示画面を見ることができる。そして、この状態では、外側撮像部23は、例えば、ユーザの視線前方の空間を撮像することが可能である。本実施形態のゲームの実行中、ゲーム装置10は、画面の背景に、外側撮像部23が撮像したカメラ画像CIを写し出す。より具体的には、情報処理部31は、外側撮像部23が撮像した画像をフレーム単位で、ゲームの画面の背景部分にテクスチャマッピングしている。すなわち、上側LCD22には、ゲーム装置10に内蔵する実カメラで撮像されたリアルタイムの実世界画像(動画像)が背景部分に表示される。ユーザがゲーム装置10を手に持って方向を変えると、変化後の外側撮像部23の視線方向から外側撮像部23を通じて取得された画像がゲームの背景に表示されることになる。すなわち、図47の画面の背景には、ユーザがゲーム装置10の外側撮像部23を向けた方向から取得された画像が埋め込まれる。なお、図47に示した画面例では、画面の背景として表示されているカメラ画像CIの被写体として、外側撮像部23に正面を向けた人物が含まれている。   FIG. 47 is an example of a screen displayed on the upper LCD 22 of the game apparatus 10 according to the present embodiment. The procedure for creating this screen is the same as that in the first embodiment. That is, for example, it is assumed that the user holds the lower housing 11 in both hands as shown in FIG. 4 with the lower housing 11 and the upper housing 21 opened in the game apparatus 10. At this time, the user can see the display screen of the upper LCD 22. And in this state, the outer side imaging part 23 can image the space ahead of a user's eyes | visual_axis. During execution of the game of this embodiment, the game apparatus 10 projects the camera image CI captured by the outer imaging unit 23 on the background of the screen. More specifically, the information processing section 31 texture maps the image captured by the outer imaging section 23 on the background portion of the game screen in units of frames. That is, on the upper LCD 22, a real-time real world image (moving image) captured by a real camera built in the game apparatus 10 is displayed in the background portion. When the user changes the direction while holding the game apparatus 10 in his / her hand, an image acquired through the outer imaging unit 23 from the line-of-sight direction of the outer imaging unit 23 after the change is displayed on the background of the game. That is, an image acquired from the direction in which the user faces the outer imaging unit 23 of the game apparatus 10 is embedded in the background of the screen in FIG. In the example of the screen shown in FIG. 47, a person facing the front to the outer imaging unit 23 is included as the subject of the camera image CI displayed as the background of the screen.

さらに、この画面では、上記背景に対して、例えば、上記実施形態で説明した手順にしたがって作成された敵オブジェクトEOおよび照準カーソルALが表示されている。敵オブジェクトEOの顔面部分には、上記配役決定処理等で選択された顔画像がテクスチャマッピングされて表示されている。そして、ゲーム装置10のユーザは、敵オブジェクトEOに照準カーソルALを合わせた状態で、トリガボタンに相当する操作ボタン14B(Aボタン)を押下することで、敵オブジェクトEOに向けて弾を撃つことができる。   Furthermore, on this screen, for example, the enemy object EO and the aiming cursor AL created according to the procedure described in the above embodiment are displayed against the background. On the face portion of the enemy object EO, the face image selected in the casting determination process or the like is displayed with texture mapping. Then, the user of the game apparatus 10 shoots a bullet at the enemy object EO by pressing the operation button 14B (A button) corresponding to the trigger button while the aiming cursor AL is positioned on the enemy object EO. Can do.

ゲーム装置10は、上記ゲーム中においても、実カメラ(例えば、外側撮像部23)で撮像されたカメラ画像CIに対して所定の顔認識処理を逐次に行い、カメラ画像CI内の被写体における人物の顔の有無を判断している。そして、ゲーム装置10は、上記顔認識処理において、カメラ画像CI内に人物の顔が存在すると識別でき、かつ、取得対象オブジェクトAOを出現させる条件を満たした場合、カメラ画像CI内から顔と識別した部分から取得対象オブジェクトAOが出現する。   Even during the game, the game apparatus 10 sequentially performs a predetermined face recognition process on the camera image CI captured by the real camera (for example, the outer imaging unit 23), and the person in the subject in the camera image CI Judging the presence or absence of a face. Then, in the face recognition process, the game apparatus 10 can identify that a human face exists in the camera image CI, and if the condition for causing the acquisition target object AO to appear is satisfied, the game apparatus 10 identifies the face from the camera image CI. The acquisition target object AO appears from the part that has been processed.

図48に示すように、取得対象オブジェクトAOは、カメラ画像CIから抽出された顔画像が、所定のポリゴンの所定部分(例えば、人体の頭部形状を模した3次元モデルにおける顔面部分)にテクスチャマッピングされて表示される。一例として、取得対象オブジェクトAOは、複数のポリゴンを組み合わせて形成した頭部形状の3次元モデルの表面に、カメラ画像CI内から顔と識別した部分画像がテクスチャとして貼り付けられて表示される。なお、取得対象オブジェクトAOが出現するゲームでは、顔認識された顔画像が3次元モデルにテクスチャマッピングされたものに限定される訳ではない。例えば、取得対象オブジェクトAOは、カメラ画像CIから切り取られた上記顔と識別した部分の画像が主面に貼り付けられた板状の物体として表示されてもかまわなし、単に2次元画素配列に保持された画像として表示されてもよい。   As shown in FIG. 48, in the acquisition target object AO, the face image extracted from the camera image CI is textured on a predetermined portion of a predetermined polygon (for example, a face portion in a three-dimensional model imitating a human head shape). It is mapped and displayed. As an example, the acquisition target object AO is displayed by pasting a partial image identified as a face from the camera image CI as a texture on the surface of a head-shaped three-dimensional model formed by combining a plurality of polygons. Note that the game in which the acquisition target object AO appears is not limited to a face image whose face is recognized and texture-mapped to a three-dimensional model. For example, the acquisition target object AO may be displayed as a plate-like object in which the image identified from the face cut out from the camera image CI is pasted on the main surface, and is simply held in a two-dimensional pixel array. It may be displayed as a processed image.

例えば、取得対象オブジェクトAOは、敵オブジェクトEOと同様に上述した仮想空間に配置され、仮想カメラから取得対象オブジェクトAOおよび/または敵オブジェクトEOを見た仮想空間の画像(仮想世界画像)を、カメラ画像CIから得られる実世界画像に合成することによって、取得対象オブジェクトAOおよび/または敵オブジェクトEOが実空間内に配置されているように上側LCD22に表示される。また、ゲーム装置10を用いた攻撃操作(例えば、ボタン14B(Aボタン)の押下)に応じて、照準カーソルALの方向に弾オブジェクトBOが発射され、取得対象オブジェクトAOもユーザの攻撃対象となる。そして、ユーザが取得対象オブジェクトAOとの戦いに勝利した場合、当該取得対象オブジェクトAOに貼り付けられた顔画像をセーブデータ記憶域Doに格納することができる。   For example, the acquisition target object AO is arranged in the above-described virtual space in the same manner as the enemy object EO, and an image (virtual world image) of the virtual space obtained by viewing the acquisition target object AO and / or the enemy object EO from the virtual camera is displayed on the camera. By synthesizing with the real world image obtained from the image CI, the acquisition target object AO and / or the enemy object EO is displayed on the upper LCD 22 so as to be arranged in the real space. Further, in response to an attack operation using the game apparatus 10 (for example, pressing of the button 14B (A button)), the bullet object BO is fired in the direction of the aiming cursor AL, and the acquisition target object AO is also a user's attack target. . When the user wins the battle with the acquisition target object AO, the face image pasted on the acquisition target object AO can be stored in the save data storage area Do.

なお、取得対象オブジェクトAOとの戦いに勝利することだけでなく、敵オブジェクトEOを攻撃するゲーム、すなわち取得対象オブジェクトAOに貼り付けられる顔画像を顔認識した際に既に実行されているゲームをクリアすることを、取得対象オブジェクトAOの顔画像をセーブデータ記憶域Doに格納するための条件に加えてもよい。例えば、敵オブジェクトEOを攻撃するゲームゲームをクリアする条件としては、所定数以上の敵オブジェクトEOを倒すことが考えられる。この場合、敵オブジェクトEOを攻撃するゲームを実行する際、その途中で取得対象オブジェクトAOが登場して倒した場合に当該取得対象オブジェクトAOの顔画像を付加的に取得できるというゲーム仕様となる。   In addition to winning the battle with the acquisition target object AO, the game that attacks the enemy object EO, that is, the game already executed when the face image pasted on the acquisition target object AO is recognized is cleared. This may be added to the conditions for storing the face image of the acquisition target object AO in the save data storage area Do. For example, as a condition for clearing a game game that attacks the enemy object EO, it is conceivable to defeat a predetermined number or more of the enemy objects EO. In this case, when executing a game that attacks the enemy object EO, the game specification is such that if the acquisition target object AO appears and is defeated in the middle, a face image of the acquisition target object AO can be additionally acquired.

なお、取得対象オブジェクトAOに用いる顔画像は、カメラ画像CIから顔認識された1枚の顔画像(静止画像)を用いてもいいし、繰り返し撮像されているカメラ画像CIを繰り返し顔認識して識別される顔画像(動画像)を用いてもよい。例えば、後者の場合、カメラ画像CIとして繰り返し撮像されている人物の顔の表情等が変化した場合、当該変化が取得対象オブジェクトAOのテクスチャに反映される。つまり、取得対象オブジェクトAOに貼り付けられている顔画像の表情は、ゲーム装置10の実カメラによって撮像されている人物の表情をリアルタイムに反映することが可能となる。   The face image used for the acquisition target object AO may be a single face image (still image) whose face is recognized from the camera image CI, or the camera image CI that has been repeatedly picked up is repeatedly recognized as a face. An identified face image (moving image) may be used. For example, in the latter case, when the facial expression or the like of a person repeatedly captured as the camera image CI changes, the change is reflected in the texture of the acquisition target object AO. That is, the facial expression of the face image pasted on the acquisition target object AO can reflect the facial expression of the person captured by the real camera of the game apparatus 10 in real time.

また、カメラ画像CI内から顔認識された部分から出現する取得対象オブジェクトAOは、カメラ画像CIに合成されて表示される際に当該部分と常に重複するように配置してもよい。例えば、実空間内においてゲーム装置10の方向や位置(すなわち、外側撮像部23の方向や位置)を変えることによって、ゲーム装置10で撮像される撮像範囲が変わるため、上側LCD22に表示されるカメラ画像CIも変化する。この場合、ゲーム装置10は、実空間内におけるゲーム装置10の動きに応じて、上記仮想空間内における上記仮想カメラの位置や方向を変化させる。これによって、実空間内に配置されているように表示されている取得対象オブジェクトAOは、実空間内におけるゲーム装置10の方向や位置が変わっても実空間内における同じ位置に配置されているように表示される。また、上側LCD22には、ゲーム装置10に内蔵する実カメラによって撮像されたリアルタイムの実世界画像が表示されており、被写体が実空間において移動することもあり得る。この場合、ゲーム装置10は、繰り返し撮像されているカメラ画像CIに対して顔認識処理を逐次行うことによって、カメラ画像CIと合成される際に当該顔認識された位置と重なって表示されるように取得対象オブジェクトAOを仮想空間内に逐次配置する。したがって、ゲーム装置10の撮像方向や撮像位置が変化したり、撮像されている人物の位置が変化したりすることによって、取得対象オブジェクトAOとして出現させた顔画像の位置や大きさがカメラ画像CI内で変化しても、これらの処理によって当該顔画像と重なるように取得対象オブジェクトAOを描画することができる。   Further, the acquisition target object AO appearing from the part whose face is recognized from the camera image CI may be arranged so as to always overlap with the part when it is combined with the camera image CI and displayed. For example, since the imaging range captured by the game apparatus 10 is changed by changing the direction and position of the game apparatus 10 in real space (that is, the direction and position of the outer imaging unit 23), the camera displayed on the upper LCD 22 The image CI also changes. In this case, the game apparatus 10 changes the position and direction of the virtual camera in the virtual space according to the movement of the game apparatus 10 in the real space. As a result, the acquisition target object AO displayed so as to be arranged in the real space seems to be arranged at the same position in the real space even if the direction and the position of the game apparatus 10 in the real space change. Is displayed. The upper LCD 22 displays a real-time real world image captured by a real camera built in the game apparatus 10, and the subject may move in real space. In this case, the game apparatus 10 sequentially performs face recognition processing on the repeatedly captured camera image CI so that when the game apparatus 10 is combined with the camera image CI, the game apparatus 10 is displayed so as to overlap the face recognized position. The acquisition target objects AO are sequentially arranged in the virtual space. Therefore, the position and size of the face image that appears as the acquisition target object AO is changed by the camera image CI when the imaging direction or imaging position of the game apparatus 10 changes or the position of the person being imaged changes. The acquisition target object AO can be drawn so as to overlap with the face image by these processes.

なお、上側LCD22に表示する取得対象オブジェクトAOは、現実に撮像されてカメラ画像CIに表示されている顔画像に対して拡大、縮小、変形等のデフォルメを施して表示したり、当該顔画像を貼り付けたモデルの表示方向を変化させて表示したりしてもかまわない。これらの画像処理によって、実際に撮像されている顔画像と取得対象オブジェクトAOとの違いが生まれるため、カメラ画像CIの中から取得対象オブジェクトAOが出現したことをゲーム装置10のユーザが容易に判別することが可能となる。   The acquisition target object AO displayed on the upper LCD 22 is displayed by deforming the face image that is actually captured and displayed on the camera image CI, such as enlargement, reduction, deformation, or the like. You may change the display direction of the pasted model. Since the difference between the actually captured face image and the acquisition target object AO is generated by these image processes, the user of the game apparatus 10 can easily determine that the acquisition target object AO has appeared from the camera image CI. It becomes possible to do.

次に、図49〜図51を参照して、第5の実施形態に係る画像処理プログラムを実行することによる具体的な処理動作について説明する。なお、図49は、当該画像処理プログラムを実行することによって行われるゲーム中顔画像取得処理の詳細な動作の一例を示すサブルーチンである。図50は、図49のステップ202で行われる未出現処理の詳細な動作の一例を示すサブルーチンである。図51は、図49のステップ208で行われる出現済処理の詳細な動作の一例を示すサブルーチンである。   Next, a specific processing operation by executing the image processing program according to the fifth embodiment will be described with reference to FIGS. 49 to 51. FIG. 49 is a subroutine showing an example of detailed operation of the in-game face image acquisition process performed by executing the image processing program. FIG. 50 is a subroutine showing an example of detailed operation of the non-appearance process performed in step 202 of FIG. FIG. 51 is a subroutine showing an example of detailed operation of the appearance processing performed in step 208 of FIG.

なお、これらの処理を実行するためのプログラムは、ゲーム装置10に内蔵されるメモリ(例えば、データ保存用内部メモリ35)や外部メモリ45またはデータ保存用外部メモリ46に含まれており、ゲーム装置10の電源がオンになったときに、内蔵メモリから、または外部メモリI/F33やデータ保存用外部メモリI/F34を介して外部メモリ45またはデータ保存用外部メモリ46からメインメモリ32に読み出されて、CPU311によって実行される。   Note that a program for executing these processes is included in a memory (for example, the data storage internal memory 35), the external memory 45, or the data storage external memory 46 built in the game apparatus 10, and the game apparatus 10 is read from the external memory 45 or the data storage external memory 46 to the main memory 32 from the built-in memory or via the external memory I / F 33 or the data storage external memory I / F 34. And is executed by the CPU 311.

第5の実施形態に係る画像処理プログラムを実行することによる処理動作は、第1の実施形態に係る画像処理プログラムを実行することによる処理動作に対して、後述するゲーム中顔画像取得処理が図29で説明したゲーム処理の中に、ゲーム処理周期毎に実行(例えば、ステップ52〜ステップ59の途中で1回実行)されるだけである。したがって、以下の説明においては、第1の実施形態に対して追加された処理動作のみ説明し、他の処理動作については詳細な説明を省略する。   The processing operation by executing the image processing program according to the fifth embodiment is different from the processing operation by executing the image processing program according to the first embodiment. In the game process described in 29, it is only executed every game process cycle (for example, executed once in the middle of steps 52 to 59). Therefore, in the following description, only processing operations added to the first embodiment will be described, and detailed descriptions of other processing operations will be omitted.

また、第5の実施形態に係る画像処理プログラムを実行することに応じてメインメモリ32に記憶される各種データは、出現フラグデータ、顔認識データ、および取得対象オブジェクトデータがさらに記憶されることを除いて、第1の実施形態に係る画像処理プログラムを実行することに応じて記憶される各種データと同様である。なお、上記出現フラグデータは、現時点の敵オブジェクトEOの出現状況が「未出現」、「出現中」、および「出現済」の何れであるのかを表す出現フラグを示すデータであり、出現フラグは、上記ステップ51(図29)における初期設定において「未出現」に設定されている。また、顔認識データは、繰り返し撮像されるカメラ画像CIから逐次顔認識された最新の顔画像およびカメラ画像CIにおける当該顔画像の位置を示すデータである。また、上記取得対象オブジェクトデータは、取得対象オブジェクトAOに対応する3次元モデルのデータ、当該3次元モデルにマッピングするためのテクスチャデータ、および当該3次元モデルの配置方向や配置位置を示すデータ等を含んでいる。   The various data stored in the main memory 32 in response to the execution of the image processing program according to the fifth embodiment further includes appearance flag data, face recognition data, and acquisition target object data. Except for this, it is the same as the various data stored in response to the execution of the image processing program according to the first embodiment. The appearance flag data is data indicating an appearance flag indicating whether the current appearance state of the enemy object EO is “Not Appearing”, “Now Appearing”, or “Appearing”, and the appearance flag is The initial setting in step 51 (FIG. 29) is set to “not appearing”. The face recognition data is data indicating the latest face image that has been successively recognized from the repeatedly captured camera image CI and the position of the face image in the camera image CI. Further, the acquisition target object data includes three-dimensional model data corresponding to the acquisition target object AO, texture data for mapping to the three-dimensional model, data indicating the arrangement direction and arrangement position of the three-dimensional model, and the like. Contains.

図49において、情報処理部31は、取得対象オブジェクトAOが未出現であるか否かを判断する(ステップ201)。例えば、情報処理部31は、出現フラグデータを参照して、出現フラグが「未出現」に設定されているか否かによって上記ステップ201における判定を行う。そして、情報処理部31は、取得対象オブジェクトAOが未出現である場合、次のステップ202に処理を進める。一方、情報処理部31は、取得対象オブジェクトAOが未出現でない場合、次のステップ203に処理を進める。   In FIG. 49, the information processing section 31 determines whether or not the acquisition target object AO has not yet appeared (step 201). For example, the information processing section 31 refers to the appearance flag data and performs the determination in step 201 based on whether or not the appearance flag is set to “non-appearance”. Then, when the acquisition target object AO has not yet appeared, the information processing section 31 advances the processing to the next step 202. On the other hand, if the acquisition target object AO does not appear yet, the information processing section 31 proceeds to the next step 203.

ステップ202において、情報処理部31は、未出現処理を行い、次のステップ203に処理を進める。以下、図50を参照して、情報処理部31が上記ステップ203で行う未出現処理について説明する。   In step 202, the information processing section 31 performs a non-appearance process and proceeds to the next step 203. Hereinafter, the non-appearance process performed by the information processing unit 31 in step 203 will be described with reference to FIG.

図50において、情報処理部31は、実カメラ画像データDbが示すカメラ画像に対して所定の顔認識処理を行って当該顔認識結果を顔認識データとしてメインメモリ32に格納し(ステップ211)、次のステップに処理を進める。ここで、上記顔認識処理は、図50で示すフローチャートによる処理とは別に独立して逐次上記カメラ画像を用いて情報処理部31が行ってもかまわない。この場合、情報処理部31は、上記カメラ画像から人物の顔が識別されたときに、上記ステップ211において顔認識結果を取得して当該顔認識結果を顔認識データとしてメインメモリ32に格納する。   In FIG. 50, the information processing section 31 performs a predetermined face recognition process on the camera image indicated by the actual camera image data Db, and stores the face recognition result as face recognition data in the main memory 32 (step 211). Proceed to the next step. Here, the face recognition processing may be performed by the information processing section 31 using the camera image sequentially, independently of the processing according to the flowchart shown in FIG. In this case, when the face of a person is identified from the camera image, the information processing unit 31 acquires the face recognition result in step 211 and stores the face recognition result in the main memory 32 as face recognition data.

次に、情報処理部31は、取得対象オブジェクトAOが仮想空間に出現する条件を満たしているか否かを判断する(ステップ212)。例えば、取得対象オブジェクトAOが出現する条件は、上記ステップ211においてカメラ画像から人物の顔が識別されていることを必須条件として、ゲームが開始されてからゲームが終了するまでに1度だけ取得対象オブジェクトAOが出現してもいいし、所定時間毎に取得対象オブジェクトAOが出現してもいいし、取得対象オブジェクトAOが仮想世界から消滅したことに応じて新たな取得対象オブジェクトAOが出現してもいいし、ランダムのタイミングで取得対象オブジェクトAOを出現させてもよい。そして、情報処理部31は、取得対象オブジェクトAOが出現する条件を満たしている場合、次のステップ213に処理を進める。一方、情報処理部31は、取得対象オブジェクトAOが出現する条件を満たしていない場合、当該サブルーチンによる処理を終了する。   Next, the information processing section 31 determines whether or not the acquisition target object AO satisfies a condition for appearing in the virtual space (step 212). For example, the condition for the acquisition target object AO to appear is that the person's face is identified from the camera image in step 211, and the acquisition target object AO is acquired only once from the start of the game to the end of the game. The object AO may appear, the acquisition target object AO may appear every predetermined time, or a new acquisition target object AO appears in response to the disappearance of the acquisition target object AO from the virtual world. Alternatively, the acquisition target object AO may appear at random timing. The information processing unit 31 proceeds to the next step 213 when the condition for the acquisition target object AO to appear is satisfied. On the other hand, if the condition for the acquisition target object AO to appear does not satisfy, the information processing section 31 ends the processing by the subroutine.

ステップ213において、情報処理部31は、上記ステップ211における顔認識処理で識別された顔の画像を、取得対象オブジェクトAOのテクスチャに設定して、次のステップに処理を進める。例えば、情報処理部31は、実カメラ画像データDbが示すカメラ画像から、上記ステップ211における顔認識処理の顔認識結果が示す顔の範囲内の画像を取得対象オブジェクトAOのテクスチャに設定し、当該設定されたテクスチャを用いて取得対象オブジェクトデータを更新する。   In step 213, the information processing section 31 sets the face image identified by the face recognition process in step 211 as the texture of the acquisition target object AO, and proceeds to the next step. For example, the information processing unit 31 sets an image within the face range indicated by the face recognition result of the face recognition process in step 211 from the camera image indicated by the actual camera image data Db as the texture of the acquisition target object AO. The acquisition target object data is updated using the set texture.

次に、情報処理部31は、上記ステップ211における顔認識処理で識別された顔画像を用いて取得対象オブジェクトAOを設定し(ステップ214)、次のステップに処理を進める。一例として、情報処理部31は、上記ステップ211における顔認識処理で識別された顔の画像の範囲に応じて、取得対象オブジェクトAOの出現開始時点の状態に対応するポリゴン(例えば、平面ポリゴン)のサイズおよび形状を設定し、上記ステップ213で設定された顔画像のテクスチャを当該ポリゴンの主面に貼り付けて出現開始時点の状態に対応する取得対象オブジェクトAOを設定し、取得対象オブジェクトデータを更新する。   Next, the information processing section 31 sets the acquisition target object AO using the face image identified in the face recognition process in step 211 (step 214), and proceeds to the next step. As an example, the information processing unit 31 determines a polygon (for example, a plane polygon) corresponding to the state at the start of appearance of the acquisition target object AO according to the range of the face image identified by the face recognition process in step 211. Set the size and shape, paste the texture of the face image set in step 213 on the main surface of the polygon, set the acquisition target object AO corresponding to the state at the start of appearance, and update the acquisition target object data To do.

次に、情報処理部31は、新たに取得対象オブジェクトAOを仮想空間に配置して(ステップ215)、次のステップに処理を進める。例えば、情報処理部31は、上記カメラ画像が上側LCD22に表示される際、上記ステップ211で顔認識された顔画像の位置と重なって透視投影される仮想空間内の位置に取得対象オブジェクトAOを配置し、取得対象オブジェクトデータを更新する。   Next, the information processing section 31 newly arranges the acquisition target object AO in the virtual space (step 215), and proceeds to the next step. For example, when the camera image is displayed on the upper LCD 22, the information processing section 31 places the acquisition target object AO at a position in the virtual space that is perspectively projected so as to overlap the position of the face image recognized in step 211. Arrange and update the acquisition target object data.

本実施形態においては、敵オブジェクトEOに加えて取得対象オブジェクトAOを新たに配置した仮想空間を、仮想カメラから透視投影でレンダリングして画像を生成し、当該画像を少なくとも含む表示画像を表示する。ここで、取得対象オブジェクトAOが上側LCD22に表示されたカメラ画像の顔画像上から出現するように表現するために、情報処理部31は、上記カメラ画像のテクスチャがマッピングされた境界面3における当該顔画像に対応する範囲に、取得対象オブジェクトAOを重ね合わせて仮想空間に配置し、配置された取得対象オブジェクトAOを仮想カメラから透視投影する。なお、取得対象オブジェクトAOを仮想空間に配置する方法については、図33〜図39を用いて説明した敵オブジェクトEOの配置例を同様であるため詳細な説明を省略する。   In the present embodiment, a virtual space in which the acquisition target object AO is newly arranged in addition to the enemy object EO is rendered by perspective projection from a virtual camera to generate an image, and a display image including at least the image is displayed. Here, in order to express the acquisition target object AO so as to appear from the face image of the camera image displayed on the upper LCD 22, the information processing unit 31 performs the processing on the boundary surface 3 on which the texture of the camera image is mapped. The acquisition target object AO is superimposed on the range corresponding to the face image and arranged in the virtual space, and the arranged acquisition target object AO is perspectively projected from the virtual camera. Note that the method of arranging the acquisition target object AO in the virtual space is the same as the arrangement example of the enemy object EO described with reference to FIGS.

次に、情報処理部31は、出現フラグを「出現中」に設定して出現フラグデータを更新し(ステップ216)、当該サブルーチンによる処理を終了する。   Next, the information processing section 31 sets the appearance flag to “appearing”, updates the appearance flag data (step 216), and ends the processing by the subroutine.

図49に戻り、ステップ203において、情報処理部31は、取得対象オブジェクトAOが出現中であるか否かを判断する。例えば、情報処理部31は、出現フラグデータを参照して、出現フラグが「出現中」に設定されているか否かによって上記ステップ203における判定を行う。そして、情報処理部31は、取得対象オブジェクトAOが出現中である場合、次のステップ204に処理を進める。一方、情報処理部31は、取得対象オブジェクトAOが出現中でない場合、次のステップ207に処理を進める。   Returning to FIG. 49, in step 203, the information processing section 31 determines whether or not the acquisition target object AO is appearing. For example, the information processing section 31 refers to the appearance flag data and performs the determination in step 203 depending on whether or not the appearance flag is set to “appearing”. Then, when the acquisition target object AO is appearing, the information processing section 31 proceeds to the next step 204. On the other hand, if the acquisition target object AO is not appearing, the information processing section 31 proceeds to the next step 207.

ステップ204において、情報処理部31は、出現中処理を行い、次のステップに処理を進める。例えば、上記ステップ204において、情報処理部31は、カメラ画像に含まれる顔画像が立体的なオブジェクトに段階的に変化させることによって、取得対象オブジェクトAOの出現する様子を表現する。具体的には、情報処理部31は、上記ステップ211と同様にカメラ画像に対する顔認識結果に基づいて、取得対象オブジェクトAOのテクスチャに設定する。そして、一例として、平面ポリゴンから所定の立体ポリゴン(例えば、複数のポリゴンを組み合わせて形成した人体の頭部形状を模した3次元モデル)まで変化させるモーフィング処理を行って取得対象オブジェクトAOを設定する。そして、情報処理部31は、モーフィング処理が行われた取得対象オブジェクトAOを、上記ステップ215と同様に当該ステップ204で顔認識された顔画像の位置と重なって透視投影される仮想空間内の位置に配置し、取得対象オブジェクトデータを更新する。このようなモーフィング処理を行うことによって、実世界画像から識別された顔画像から取得対象オブジェクトAOが出現する際、取得対象オブジェクトAOは、当該顔画像上において徐々に平面から立体になるように表現される。   In step 204, the information processing section 31 performs an appearance process and proceeds to the next step. For example, in step 204 described above, the information processing section 31 expresses the appearance of the acquisition target object AO by gradually changing the face image included in the camera image into a three-dimensional object. Specifically, the information processing section 31 sets the texture of the acquisition target object AO based on the face recognition result for the camera image as in step 211 described above. As an example, the acquisition target object AO is set by performing a morphing process that changes from a plane polygon to a predetermined three-dimensional polygon (for example, a three-dimensional model imitating a human head formed by combining a plurality of polygons). . Then, the information processing unit 31 positions the acquisition target object AO that has been subjected to the morphing process in a virtual space where the face image recognized in step 204 overlaps with the position of the face image recognized in the same manner as in step 215. And update the acquisition target object data. By performing such a morphing process, when the acquisition target object AO appears from the face image identified from the real world image, the acquisition target object AO is expressed on the face image so as to gradually become a solid from a plane. Is done.

なお、上記モーフィング処理によって平面ポリゴンから変化させる立体ポリゴンは、様々な形状のポリゴンが考えられる。第1の例として、上記モーフィング処理によって平面ポリゴンから予め定められたキャラクタの頭部形状を有する立体ポリゴンに変化させて取得対象オブジェクトAOを生成する。この場合、カメラ画像に対して顔認識処理で識別された顔の画像がテクスチャとなって、上記頭部形状のポリゴンの顔面にマッピングされる。第2の例として、上記モーフィング処理によって平面ポリゴンから所定の厚さを有する平板ポリゴンに変化させて取得対象オブジェクトAOを生成する。この場合、カメラ画像に対して顔認識処理で識別された顔の画像がテクスチャとなって、上記平板ポリゴンの主面にマッピングされる。第3の例として、上記モーフィング処理によって平面ポリゴンから予め定められた武器形状を有する立体ポリゴン(例えば、ミサイル形状のポリゴン)に変化させて取得対象オブジェクトAOを生成する。この場合、カメラ画像に対して顔認識処理で識別された顔の画像がテクスチャとなって、上記武器形状のポリゴンの一部にマッピングされる(例えば、ミサイル形状のポリゴンに対して当該ミサイルの先端にマッピングされる)。   It should be noted that the polygon that is changed from the planar polygon by the morphing process may be polygons having various shapes. As a first example, the acquisition target object AO is generated by changing from a planar polygon to a three-dimensional polygon having a predetermined character head shape by the morphing process. In this case, the face image identified by the face recognition process with respect to the camera image becomes a texture and is mapped to the face of the head-shaped polygon. As a second example, the acquisition target object AO is generated by changing from a flat polygon to a flat polygon having a predetermined thickness by the morphing process. In this case, the face image identified by the face recognition process with respect to the camera image is textured and mapped to the main surface of the flat polygon. As a third example, the acquisition target object AO is generated by changing from a plane polygon to a three-dimensional polygon having a predetermined weapon shape (for example, a missile-shaped polygon) by the morphing process. In this case, the face image identified by the face recognition process with respect to the camera image is textured and mapped to a part of the weapon-shaped polygon (for example, the tip of the missile with respect to the missile-shaped polygon). Mapped to).

次に、情報処理部31は、取得対象オブジェクトAOに対する出現中処理が終了したか否かを判断する(ステップ205)。例えば、情報処理部31は、取得対象オブジェクトAOに対するモーフィング処理が最終段階となった場合、出現中処理が終了したと判断する。そして、情報処理部31は、取得対象オブジェクトAOに対する出現中処理が終了した場合、次のステップ206に処理を進める。一方、情報処理部31は、取得対象オブジェクトAOに対する出現中処理が終了していない場合、次のステップ207に処理を進める。例えば、情報処理部31は、取得対象オブジェクトAOに対応するポリゴンが、上記ステップ204のモーフィング処理を繰り返すことによって複数のポリゴンを組み合わせて形成した人体の頭部形状を模した3次元モデルまで変化した場合、取得対象オブジェクトAOに対するモーフィング処理が最終段階であると判定する。   Next, the information processing section 31 determines whether or not the appearance process for the acquisition target object AO has ended (step 205). For example, when the morphing process for the acquisition target object AO is in the final stage, the information processing unit 31 determines that the in-appearance process has ended. Then, when the in-appearance process for the acquisition target object AO is completed, the information processing section 31 proceeds to the next step 206. On the other hand, if the in-appearance process for the acquisition target object AO has not ended, the information processing section 31 proceeds to the next step 207. For example, the information processing unit 31 changes the polygon corresponding to the acquisition target object AO to a three-dimensional model imitating a human head shape formed by combining a plurality of polygons by repeating the morphing process in step 204 above. In this case, it is determined that the morphing process for the acquisition target object AO is the final stage.

ステップ206において、情報処理部31は、出現フラグを「出現済」に設定して出現フラグデータを更新し、次のステップ207に処理を進める。   In step 206, the information processing section 31 sets the appearance flag to “appeared”, updates the appearance flag data, and proceeds to the next step 207.

ステップ207において、情報処理部31は、取得対象オブジェクトAOが出現済であるか否かを判断する。例えば、情報処理部31は、出現フラグデータを参照して、出現フラグが「出現済」に設定されているか否かによって上記ステップ207における判定を行う。そして、情報処理部31は、取得対象オブジェクトAOが出現済である場合、次のステップ208に処理を進める。一方、情報処理部31は、取得対象オブジェクトAOが出現済でない場合、当該サブルーチンによる処理を終了する。   In step 207, the information processing section 31 determines whether or not the acquisition target object AO has already appeared. For example, the information processing section 31 refers to the appearance flag data and performs the determination in step 207 depending on whether or not the appearance flag is set to “appeared”. Then, when the acquisition target object AO has already appeared, the information processing section 31 advances the processing to the next step 208. On the other hand, when the acquisition target object AO has not yet appeared, the information processing section 31 ends the processing by the subroutine.

ステップ208において、情報処理部31は、出現済処理を行い、当該サブルーチンによる処理を終了する。以下、図51を参照して、情報処理部31が上記ステップ208で行う出現済処理について説明する。   In step 208, the information processing section 31 performs the appearance processing and ends the processing by the subroutine. Hereinafter, with reference to FIG. 51, the appearance processing that the information processing unit 31 performs in step 208 will be described.

図51において、情報処理部31は、実カメラ画像データDbが示すカメラ画像に対して所定の顔認識処理を行って当該顔認識結果を顔認識データとしてメインメモリ32に格納し(ステップ221)、次のステップに処理を進める。ここで、上記顔認識処理も、図51で示すフローチャートによる処理とは別に独立して逐次上記カメラ画像を用いて情報処理部31が行ってもかまわない。この場合、情報処理部31は、上記カメラ画像から人物の顔が識別されたときに、上記ステップ221において顔認識結果を取得して当該顔認識結果を顔認識データとしてメインメモリ32に格納する。   In FIG. 51, the information processing section 31 performs a predetermined face recognition process on the camera image indicated by the actual camera image data Db and stores the face recognition result as face recognition data in the main memory 32 (step 221). Proceed to the next step. Here, the face recognition process may also be performed by the information processing section 31 using the camera image sequentially independently of the process according to the flowchart shown in FIG. In this case, when the face of a person is identified from the camera image, the information processing section 31 acquires the face recognition result in step 221 and stores the face recognition result in the main memory 32 as face recognition data.

次に、情報処理部31は、上記ステップ221における顔認識処理で識別された顔画像(カメラ画像のうちの顔領域内の画像)を、取得対象オブジェクトAOのテクスチャに設定し(ステップ222)、次のステップに処理を進める。例えば、情報処理部31は、実カメラ画像データDbが示すカメラ画像から、上記ステップ221における顔認識処理の顔認識結果が示す顔の範囲内の画像を取得対象オブジェクトAOのテクスチャに設定し、当該設定されたテクスチャを用いて取得対象オブジェクトデータを更新する。   Next, the information processing section 31 sets the face image (image in the face area of the camera image) identified by the face recognition process in step 221 as the texture of the acquisition target object AO (step 222). Proceed to the next step. For example, the information processing section 31 sets an image within the face range indicated by the face recognition result of the face recognition process in step 221 from the camera image indicated by the real camera image data Db as the texture of the acquisition target object AO. The acquisition target object data is updated using the set texture.

次に、情報処理部31は、上記ステップ221における顔認識処理で識別された顔画像に応じた取得対象オブジェクトAOを設定し(ステップ223)、次のステップに処理を進める。例えば、情報処理部31は、複数のポリゴンを組み合わせて形成した人体の頭部形状を模した3次元モデルの顔面部分に、上記ステップ222で設定された顔画像のテクスチャを貼り付けて取得対象オブジェクトAOを設定し、取得対象オブジェクトデータを更新する。なお、上記ステップ223において、上記ステップ221における顔認識処理で識別された顔画像をテクスチャとして貼り付けたポリゴンに拡大、縮小、変形等のデフォルメを施したり、顔画像のテクスチャを変形させたりしてもかまわない。   Next, the information processing section 31 sets an acquisition target object AO corresponding to the face image identified in the face recognition process in step 221 (step 223), and proceeds to the next step. For example, the information processing unit 31 pastes the texture of the face image set in step 222 on the face portion of the three-dimensional model imitating the head shape of a human body formed by combining a plurality of polygons. AO is set and the acquisition target object data is updated. In step 223, the face image identified in the face recognition process in step 221 is subjected to deformation such as enlargement, reduction, deformation, etc., or the texture of the face image is deformed. It doesn't matter.

次に、情報処理部31は、上記ステップ223で設定された取得対象オブジェクトAOを仮想空間に配置して(ステップ224)、次のステップに処理を進める。例えば、情報処理部31は、上記ステップ215と同様に、上記カメラ画像が上側LCD22に表示される際、上記ステップ221で顔認識された顔画像の位置と重なって透視投影される仮想空間内の位置に取得対象オブジェクトAOを配置し、取得対象オブジェクトデータを更新する。なお、上記ステップ223では、顔画像のテクスチャが貼り付けられた顔面部が仮想カメラと対向するように取得対象オブジェクトAOを配置してもいいし、ゲームの進行状況に応じて取得対象オブジェクトAOの向きを任意の方向に変化させてもかまわない。   Next, the information processing section 31 places the acquisition target object AO set in step 223 in the virtual space (step 224), and advances the processing to the next step. For example, as in step 215, the information processing unit 31 overlaps with the position of the face image recognized in step 221 when the camera image is displayed on the upper LCD 22. The acquisition target object AO is arranged at the position, and the acquisition target object data is updated. In step 223, the acquisition target object AO may be arranged so that the face part to which the texture of the face image is pasted is opposed to the virtual camera, or the acquisition target object AO is set according to the progress of the game. The direction may be changed in any direction.

次に、情報処理部31は、取得対象オブジェクトAOと弾オブジェクトBOとが仮想空間内で接触したか否かを判断する(ステップ225)。例えば、情報処理部31は、取得対象オブジェクトデータが示す取得対象オブジェクトAOの位置と、弾オブジェクトデータDgが示す弾オブジェクトBOの位置とを用いて、取得対象オブジェクトAOと弾オブジェクトBOとが仮想空間内で接触したか否かを判断する。そして、情報処理部31は、取得対象オブジェクトAOと弾オブジェクトBOとが接触した場合、次のステップ226に処理を進める。一方、情報処理部31は、取得対象オブジェクトAOと弾オブジェクトBOとが接触していない場合、次のステップ229に処理を進める。   Next, the information processing section 31 determines whether or not the acquisition target object AO and the bullet object BO have contacted each other in the virtual space (step 225). For example, the information processing unit 31 uses the position of the acquisition target object AO indicated by the acquisition target object data and the position of the bullet object BO indicated by the bullet object data Dg to obtain a virtual space between the acquisition target object AO and the bullet object BO. It is determined whether or not contact has been made. Then, when the acquisition target object AO and the bullet object BO come into contact with each other, the information processing section 31 proceeds to the next step 226. On the other hand, if the acquisition target object AO and the bullet object BO are not in contact with each other, the information processing section 31 proceeds to the next step 229.

ステップ226において、情報処理部31は、加点処理を行って、次のステップに処理を進める。例えば、上記加点処理においては、情報処理部31は、得点データDhが示すゲームの得点を所定数だけ加点し、加点後の得点を用いて得点データDhを更新する。また、上記加点処理においては、情報処理部31は、上記ステップ225で接触したと判定された弾オブジェクトBOを仮想空間から消滅させる処理(例えば、取得対象オブジェクトAOに接触した弾オブジェクトBOに関する弾オブジェクトデータDgを初期化し、当該弾オブジェクトBOが仮想空間に存在しない状態にする)を行う。   In step 226, the information processing section 31 performs a point addition process and proceeds to the next step. For example, in the above score process, the information processing section 31 scores a predetermined number of game scores indicated by the score data Dh, and updates the score data Dh using the score after the score. Further, in the above point addition process, the information processing section 31 performs a process of erasing the bullet object BO determined to be touched in the above step 225 from the virtual space (for example, a bullet object related to the bullet object BO that has touched the acquisition target object AO). The data Dg is initialized, and the bullet object BO is not in the virtual space).

次に、情報処理部31は、弾オブジェクトBOと接触した取得対象オブジェクトAOに貼り付けられた顔画像の取得に成功したか否かを判定する(ステップ227)。情報処理部31は、顔画像の取得に成功したか否かを判定する手段の一例として、ステップ227の処理を実行する。そして、情報処理部31は、顔画像の取得に成功した場合、次のステップ228に処理を進める。一方、情報処理部31は、顔画像の取得に成功していない場合、次のステップ228に処理を進める。   Next, the information processing section 31 determines whether or not acquisition of the face image pasted on the acquisition target object AO that has contacted the bullet object BO has succeeded (step 227). The information processing unit 31 executes the process of step 227 as an example of a unit that determines whether or not the acquisition of the face image is successful. If the information processing unit 31 succeeds in acquiring the face image, the information processing unit 31 proceeds to the next step 228. On the other hand, if acquisition of the face image has not succeeded, the information processing section 31 proceeds to the next step 228.

ここで、顔画像の取得に成功とは、例えば、ユーザが、取得対象オブジェクトAOとの戦いにおいて勝利した場合である。一例として、仮想空間内に存在するための所定のライフ値を取得対象オブジェクトAOに設定し、当該取得対象オブジェクトAOが弾オブジェクトBOと接触した場合、当該ライフ値から所定数減算していく。そして、取得対象オブジェクトAOのライフ値が0以下となった場合、仮想空間から取得対象オブジェクトAOを消滅させるとともに、当該取得対象オブジェクトAOに貼り付けられた顔画像の取得に成功したとする。   Here, success in the acquisition of the face image is, for example, a case where the user wins a battle with the acquisition target object AO. As an example, when a predetermined life value for existing in the virtual space is set in the acquisition target object AO, and the acquisition target object AO comes into contact with the bullet object BO, a predetermined number is subtracted from the life value. Then, when the life value of the acquisition target object AO becomes 0 or less, it is assumed that the acquisition target object AO disappears from the virtual space and the face image pasted on the acquisition target object AO has been successfully acquired.

ステップ228において、顔画像の取得に成功した場合、情報処理部31は、上記ステップ221で顔認識されたメインメモリ32上の顔画像を示すデータを、セーブデータ記憶域Doにこれまでに保存された顔画像データに加えて保存し、次のステップ229に処理を進める。情報処理部31のCPU311は、保存する手段の一例として、ステップ228の処理を実行する。上述したようにセーブデータ記憶域Doは、情報処理部31が書き込みおよび読み出し可能な、例えば、データ保存用内部メモリ35、データ保存用外部メモリ46等に構築される記憶領域である。新たな顔画像のデータがセーブデータ記憶域Doに格納されることにより、情報処理部31は、上側LCD22の画面に、例えば、図7および図8で説明した顔画像の一覧に追加して、新たな顔画像のデータを表示できるようになる。   If the face image is successfully acquired in step 228, the information processing section 31 stores the data indicating the face image on the main memory 32 recognized in step 221 in the save data storage area Do so far. In addition to the stored face image data, the process proceeds to the next step 229. The CPU 311 of the information processing unit 31 executes the process of step 228 as an example of a storing unit. As described above, the save data storage area Do is a storage area that can be written and read by the information processing section 31, for example, the data storage internal memory 35, the data storage external memory 46, and the like. By storing new face image data in the save data storage area Do, the information processing section 31 adds to the screen of the upper LCD 22, for example, the list of face images described with reference to FIGS. New face image data can be displayed.

このとき、情報処理部31は、新たに、当該ゲームのセーブデータ記憶域Doに保存された顔画像を管理するため、図12で説明した顔画像管理情報Dn1を生成し保存する。すなわち、情報処理部31は、新たに顔画像識別情報を生成し、顔画像管理情報Dn1のレコードに設定する。また、新たに、セーブデータ記憶域Doに保存された顔画像のアドレス等を顔画像データのアドレスに設定する。さらに、顔画像の取得元、性別の推定、年齢の推定、関連する顔画像の識別情報1−Nなどを設定する。   At this time, the information processing unit 31 newly generates and stores the face image management information Dn1 described with reference to FIG. 12 in order to manage the face image stored in the save data storage area Do of the game. That is, the information processing section 31 newly generates face image identification information and sets it in the record of the face image management information Dn1. Further, the address of the face image stored in the save data storage area Do is newly set as the address of the face image data. Furthermore, a face image acquisition source, gender estimation, age estimation, and related face image identification information 1-N are set.

さらに、情報処理部31は、セーブデータ記憶域Doに追加した顔画像の属性を推定し、図13で説明した顔画像属性集計表Dn2の集計結果を更新するようにしてもよい。すなわち、情報処理部31は、新たに、セーブデータ記憶域Doに追加した顔画像の性別、年齢等を推定し、顔画像属性集計表Dn2の集計結果に反映するようにしてもよい。   Furthermore, the information processing section 31 may estimate the attribute of the face image added to the save data storage area Do and update the count result of the face image attribute count table Dn2 described with reference to FIG. In other words, the information processing section 31 may newly estimate the gender, age, and the like of the face image added to the save data storage area Do and reflect it in the count result of the face image attribute count table Dn2.

さらに、情報処理部31は、例えば、セーブデータ記憶域Doに格納されたデータの複製、変更、無線通信モジュール36を通じたデータの転送等をユーザに許容するようにしてもよい。そして、情報処理部31は、ユーザのGUIを通じた操作または操作ボタン14を通じた操作にしたがって、セーブデータ記憶域Doに格納された顔画像の保存、複製、変更、転送等を実行すればよい。   Further, the information processing section 31 may allow the user to copy or change data stored in the save data storage area Do, transfer data through the wireless communication module 36, or the like. Then, the information processing unit 31 only needs to execute saving, copying, changing, transferring, and the like of the face image stored in the save data storage area Do according to the operation through the user GUI or the operation through the operation button 14.

また、上記ステップ228の処理において、情報処理部31は、顔画像の取得成功の対象となっている取得対象オブジェクトAOを仮想空間から消滅させてもかまわない。この場合、情報処理部31は、顔画像の取得成功の対象となっている取得対象オブジェクトAOに関する取得対象オブジェクトデータを初期化し、当該取得対象オブジェクトAOが仮想空間に存在しない状態にする。   Further, in the processing of step 228, the information processing section 31 may cause the acquisition target object AO, which is a target of facial image acquisition success, to disappear from the virtual space. In this case, the information processing section 31 initializes the acquisition target object data related to the acquisition target object AO that is the target of the successful acquisition of the face image, and makes the acquisition target object AO not exist in the virtual space.

ステップ229において、情報処理部31は、仮想空間に存在している取得対象オブジェクトAOに貼り付けられた顔画像の取得に失敗したか否かを判定する。そして、情報処理部31は、何れか1つの取得対象オブジェクトAOに対する顔画像の取得に失敗した場合、次のステップ230に処理を進める。一方、情報処理部31は、何れの取得対象オブジェクトAOに対しても顔画像の取得に失敗していない場合、当該サブルーチンによる処理を終了する。   In step 229, the information processing section 31 determines whether or not the acquisition of the face image pasted on the acquisition target object AO existing in the virtual space has failed. When the information processing unit 31 fails to acquire a face image for any one acquisition target object AO, the information processing unit 31 proceeds to the next step 230. On the other hand, if the acquisition of the face image has not failed for any acquisition target object AO, the information processing section 31 ends the processing by the subroutine.

ここで、顔画像の取得に失敗とは、例えば、ユーザが、取得対象オブジェクトAOとの戦いにおいて敗戦した場合である。一例として、仮想空間内に所定時間以上取得対象オブジェクトAOが存在し続けた場合、当該取得対象オブジェクトAOに貼り付けられた顔画像の取得に失敗したとする。   Here, the failure to acquire the face image is, for example, a case where the user loses the battle with the acquisition target object AO. As an example, when the acquisition target object AO continues to exist in the virtual space for a predetermined time or longer, it is assumed that acquisition of the face image pasted on the acquisition target object AO has failed.

ステップ230において、顔画像の取得に失敗した場合、情報処理部31は、上記ステップ221で顔認識されたメインメモリ32上の顔画像を示すデータを廃棄し、当該サブルーチンによる処理を終了する。なお、上記ステップ230の処理において、情報処理部31は、顔画像の取得失敗の対象となっている取得対象オブジェクトAOを仮想空間から消滅させてもかまわない。この場合、情報処理部31は、顔画像の取得失敗の対象となっている取得対象オブジェクトAOに関する取得対象オブジェクトデータを初期化し、当該取得対象オブジェクトAOが仮想空間に存在しない状態にする。   If acquisition of the face image fails in step 230, the information processing section 31 discards the data indicating the face image on the main memory 32 recognized in step 221 and ends the processing by the subroutine. In the process of step 230, the information processing section 31 may cause the acquisition target object AO, which is a target of face image acquisition failure, to disappear from the virtual space. In this case, the information processing section 31 initializes the acquisition target object data related to the acquisition target object AO that is the target of face image acquisition failure, and sets the acquisition target object AO in a state that does not exist in the virtual space.

このように、上述した第5の実施形態に係る図49〜図51の処理によれば、敵オブジェクトEOを攻撃するゲームの途中で撮像されたカメラ画像から顔認識された顔画像が、セーブデータ記憶域Doに新たに保存する対象となる。そして、ゲーム中に取得された顔画像をセーブデータ記憶域Doに保存するためには、ユーザは、既に実行されている当該ゲームにおいて当該顔画像の取得に成功するゲーム結果が求められる。当該ゲームでは、実カメラから得られた実世界画像に、当該実世界画像内の顔画像が抜け出たように表現された取得対象オブジェクトを示す仮想世界画像が合成されて表示されるため、当該取得対象オブジェクトが実空間内に存在しているような新たな画像を表示することができる。また、当該ゲームでは、例えば、セーブデータ記憶域Doにこれまでに保存された顔画像を用いたキャラクタオブジェクトに加えて、当該ゲーム中に取得された顔画像が貼り付けられた取得対象オブジェクトAOを登場させることで、ゲーム装置10でゲームを実行するユーザは、ゲーム実行中の実世界や実世界の人間関係等を反映しつつ、新たな顔画像を収集し、セーブデータ記憶域Doに追加することができる。   As described above, according to the processing of FIGS. 49 to 51 according to the fifth embodiment described above, the face image recognized from the camera image captured in the middle of the game attacking the enemy object EO is saved data. It becomes a target to be newly saved in the storage area Do. In order to save the face image acquired during the game in the save data storage area Do, the user is required to obtain a game result that succeeds in acquiring the face image in the game already executed. In the game, a virtual world image indicating an acquisition target object expressed as if a face image in the real world image is extracted from a real world image obtained from a real camera is displayed and combined. A new image in which the target object exists in the real space can be displayed. In the game, for example, in addition to the character object using the face image stored so far in the save data storage area Do, the acquisition target object AO to which the face image acquired during the game is pasted is used. By making it appear, the user who executes the game on the game apparatus 10 collects a new face image and adds it to the save data storage area Do while reflecting the real world in which the game is being executed and the human relationship in the real world. be able to.

なお、上述した第5の実施形態では、ゲーム中に出現する取得対象オブジェクトAOを攻撃して勝利した場合に、当該取得対象オブジェクトAOに貼り付けられた顔画像をセーブデータ記憶域Doに格納することが許容される例を用いたが、取得対象オブジェクトAOと戦う他のゲームを実行することによって、顔画像をセーブデータ記憶域Doに格納することが許容されてもよい。一例として、敵オブジェクトと得点の多寡を競うゲームにおいて、当該ゲーム中に撮像されたカメラ画像に含まれる顔画像が貼り付けられた取得対象オブジェクトAOが当該ゲームに登場する。そして、ユーザがゲーム中に登場した取得対象オブジェクトAOよりも多い得点を得た場合に、当該取得対象オブジェクトAOに貼り付けられた顔画像をセーブデータ記憶域Doに格納することが許容される。他の例として、敵オブジェクトが設定した障害等をユーザが克服していくゲームにおいて、当該ゲーム中に撮像されたカメラ画像に含まれる顔画像が貼り付けられた取得対象オブジェクトAOが当該ゲームに登場する。そして、ユーザがゲーム中に登場した取得対象オブジェクトAOが設定した障害等をユーザが克服してゴールにたどり着いた場合に、当該取得対象オブジェクトAOに貼り付けられた顔画像をセーブデータ記憶域Doに格納することが許容される。   In the above-described fifth embodiment, when the acquisition target object AO that appears in the game is attacked and won, the face image pasted on the acquisition target object AO is stored in the save data storage area Do. However, it may be permitted to store the face image in the save data storage area Do by executing another game that fights the acquisition target object AO. As an example, in a game in which a player competes with an enemy object for a score, an acquisition target object AO to which a face image included in a camera image captured during the game is pasted appears in the game. When the user obtains more points than the acquisition target object AO that appeared during the game, the face image pasted on the acquisition target object AO is allowed to be stored in the save data storage area Do. As another example, in a game in which a user overcomes an obstacle set by an enemy object, an acquisition target object AO in which a face image included in a camera image taken during the game is pasted appears in the game. To do. When the user reaches the goal by overcoming the obstacle set by the acquisition target object AO that appeared during the game, the face image pasted on the acquisition target object AO is stored in the save data storage area Do. It is allowed to be stored.

また、上述した第1〜第5の実施形態では、図14に示したフローチャートに基づいた画像処理において取得した顔画像(第1〜第4の実施形態では顔画像をセーブデータ記憶域Doに格納するためのゲームを実行する前に顔画像取得処理によって取得した顔画像、第5の実施形態では顔画像をセーブデータ記憶域Doに格納するためのゲームの実行中に取得した顔画像)を、セーブデータ記憶域Doに格納する対象とする例を用いたが、当該画像処理のアプリケーションとは別のアプリケーションにおいて既に取得している顔画像をセーブデータ記憶域Doに格納する対象としてもかまわない。例えば、ゲーム装置10では、撮像部(カメラ)を内蔵しており、図14に示したフローチャートに基づいた画像処理とは別のカメラ撮像アプリケーションによっても当該撮像部によって画像を撮像し、撮像した画像を画面に表示したり、撮像した画像のデータをデータ保存用内部メモリ35やデータ保存用外部メモリ46等の記録媒体に保存したりすることが可能である。また、ゲーム装置10は、他の装置から撮像画像を含むデータを受信することが可能であり、通信アプリケーションを実行することによって受信したデータをデータ保存用内部メモリ35やデータ保存用外部メモリ46等の記録媒体に保存したりすることも可能である。このように、カメラ撮像アプリケーションや通信アプリケーションの実行によって予め得られている画像から顔認識された顔画像を、セーブデータ記憶域Doに格納する対象としてもかまわない。   In the first to fifth embodiments described above, the face image acquired in the image processing based on the flowchart shown in FIG. 14 (the face image is stored in the save data storage area Do in the first to fourth embodiments). Face image acquired by the face image acquisition process before executing the game for performing, in the fifth embodiment, the face image acquired during the execution of the game for storing the face image in the save data storage area Do), Although an example in which the target is stored in the save data storage area Do has been used, a face image already acquired in an application different from the application of the image processing may be stored in the save data storage area Do. For example, the game apparatus 10 has a built-in image pickup unit (camera), and the image pickup unit picks up an image by a camera image pickup application different from the image processing based on the flowchart shown in FIG. Can be displayed on the screen, and the captured image data can be stored in a recording medium such as the internal data storage memory 35 or the external data storage memory 46. Further, the game apparatus 10 can receive data including a captured image from another apparatus, and the data received by executing the communication application is stored in the internal data storage memory 35, the external data storage memory 46, or the like. It is also possible to store it on a recording medium. As described above, a face image whose face is recognized from an image obtained in advance by executing a camera imaging application or a communication application may be stored in the save data storage area Do.

上記画像処理のアプリケーションとは別のアプリケーションにおいて既に取得している顔画像をセーブデータ記憶域Doに格納する対象とする場合、当該別のアプリケーションを実行した際に保存されている撮影画像に対して顔認識処理を行って顔画像を少なくとも1つ抽出し、当該抽出された顔画像を格納する対象とする。具体的には、上記第1のゲームまたは上記第2のゲームに登場させるキャラクタ(顔画像)の選択を促すために、当該キャラクタを上側LCD22および/または下側LCD12に表示する際(例えば、ステップ30、ステップ40、ステップ90、ステップ103、ステップ126、ステップ140、ステップ160、ステップ162等)、別のアプリケーションの実行によって予め取得されている顔画像を含む少なくとも1つのキャラクタも選択対象として表示する。この場合、予め保存されている撮影画像に対して、上記キャラクタを表示する前に顔認識処理を行って顔画像を少なくとも1つ抽出しておき、抽出された顔画像から任意のものを選択対象として上記キャラクタに加えて表示する。そして、ユーザが上記抽出によって得られた顔画像を含むキャラクタをゲームに登場させることを選択した場合、ユーザが当該キャラクタとの戦いに勝利した場合、当該顔画像がセーブデータ記憶域Doに格納される。   When a face image already acquired in an application different from the image processing application is a target to be stored in the save data storage area Do, a captured image saved when the other application is executed At least one face image is extracted by performing face recognition processing, and the extracted face image is a target to be stored. Specifically, when the character is displayed on the upper LCD 22 and / or the lower LCD 12 in order to prompt selection of a character (face image) to appear in the first game or the second game (for example, step) 30, step 40, step 90, step 103, step 126, step 140, step 160, step 162, etc.), and at least one character including a face image acquired in advance by execution of another application is also displayed as a selection target. . In this case, at least one face image is extracted by performing face recognition processing on the pre-stored captured image before displaying the character, and an arbitrary one is selected from the extracted face images. Is displayed in addition to the above character. Then, when the user chooses to make the character including the face image obtained by the extraction appear in the game, and when the user wins the battle with the character, the face image is stored in the save data storage area Do. The

このように、上記画像処理のアプリケーションとは別のアプリケーションにおいて既に取得している顔画像もセーブデータ記憶域Doに格納する対象とすることによって、ユーザが取得可能となる顔画像のバリエーションが拡がって顔画像が収集しやすくなるとともに、ユーザが予想できない顔画像がゲームの参加対象として突然加えられるため、顔画像収集にあたっての倦怠を防止することもできる。   In this way, the face image already acquired in an application different from the image processing application is also stored in the save data storage area Do, so that the variation of the face image that can be acquired by the user is expanded. Facial images can be easily collected, and face images that cannot be predicted by the user are suddenly added as participation targets of the game, so that it is possible to prevent fatigue in collecting facial images.

また、上述した説明では、ゲーム装置10に生じる角速度を検出し、当該角速度を用いて実空間におけるゲーム装置10の動きを算出する例を用いたが、他の方式を用いてゲーム装置10の動きを算出してもかまわない。第1の例として、ゲーム装置10に内蔵されている加速度センサ39が検出した加速度を用いて、ゲーム装置10の動きを算出してもかまわない。一例として、加速度センサ39を搭載するゲーム装置10が静的な状態であることを前提としてコンピュータ側で処理する場合(すなわち、加速度センサ39によって検出される加速度が重力加速度のみであるとして処理する場合)、ゲーム装置10が現実に静的な状態であれば、検出された加速度に基づいてゲーム装置10の姿勢が重力方向に対して傾いているか否か、またはどの程度傾いているかを知ることができる。他の例として、加速度センサ39を搭載するゲーム装置10が動的な状態であることを前提とする場合には、加速度センサ39が重力加速度成分に加えて加速度センサ39の動きに応じた加速度を検出するので、重力加速度成分を所定の処理により除去すれば、ゲーム装置10の動き方向等を知ることができる。具体的には、加速度センサ39を備えるゲーム装置10がユーザの手で動的に加速されて動かされる場合に、加速度センサ39によって生成される加速度信号を処理することによって、ゲーム装置10の様々な動きおよび/または位置を算出することができる。また、加速度センサ39が動的な状態であることを前提とする場合であっても、加速度センサ39の動きに応じた加速度を所定の処理により除去すれば、重力方向に対するゲーム装置10の傾きを知ることが可能である。   In the above description, an example in which the angular velocity generated in the game apparatus 10 is detected and the movement of the game apparatus 10 in the real space is calculated using the angular velocity is used. However, the movement of the game apparatus 10 using another method is used. May be calculated. As a first example, the motion of the game apparatus 10 may be calculated using the acceleration detected by the acceleration sensor 39 built in the game apparatus 10. As an example, when processing is performed on the computer side on the assumption that the game apparatus 10 equipped with the acceleration sensor 39 is in a static state (that is, processing is performed assuming that the acceleration detected by the acceleration sensor 39 is only gravitational acceleration). ) If the game apparatus 10 is actually static, it is possible to know whether or how much the attitude of the game apparatus 10 is inclined with respect to the direction of gravity based on the detected acceleration. it can. As another example, when it is assumed that the game apparatus 10 equipped with the acceleration sensor 39 is in a dynamic state, the acceleration sensor 39 generates an acceleration corresponding to the movement of the acceleration sensor 39 in addition to the gravitational acceleration component. Therefore, if the gravitational acceleration component is removed by a predetermined process, the movement direction of the game apparatus 10 can be known. Specifically, when the game apparatus 10 including the acceleration sensor 39 is dynamically accelerated and moved by a user's hand, various kinds of the game apparatus 10 are processed by processing an acceleration signal generated by the acceleration sensor 39. Movement and / or position can be calculated. Even when it is assumed that the acceleration sensor 39 is in a dynamic state, if the acceleration according to the movement of the acceleration sensor 39 is removed by a predetermined process, the inclination of the game apparatus 10 with respect to the direction of gravity is reduced. It is possible to know.

第2の例として、ゲーム装置10に内蔵されている実カメラ(外側撮像部23または内側撮像部24)によってリアルタイムで撮像されたカメラ画像の移動量を用いて、ゲーム装置10の動きを算出してもかまわない。例えば、ゲーム装置10が動くことによって、上記実カメラの撮像方向や撮像位置が変わった場合、当該実カメラで撮像されるカメラ画像も変化する。したがって、ゲーム装置10に内蔵されている実カメラで撮像されるカメラ画像の変化を用いれば、当該実カメラの撮像方向が変化した角度や撮像位置の移動量等を算出することができる。一例として、ゲーム装置10に内蔵されている実カメラで撮像されるカメラ画像から所定の物体を識別し、当該物体が撮像されている角度や撮像されている位置を時系列的に比較することによって、これらの変化量から当該実カメラの撮像方向が変化した角度や撮像位置の移動量等を算出することができる。他の例として、ゲーム装置10に内蔵されている実カメラで撮像されるカメラ画像全体に対して時系列的に比較することによって、当該画像全体の撮像方向や撮像範囲の変化量から、当該実カメラの撮像方向が変化した角度や撮像位置の移動量等を算出することができる。   As a second example, the movement of the game apparatus 10 is calculated using the movement amount of the camera image captured in real time by the real camera (the outer imaging section 23 or the inner imaging section 24) built in the game apparatus 10. It doesn't matter. For example, when the imaging direction and imaging position of the real camera change due to the movement of the game apparatus 10, the camera image captured by the real camera also changes. Therefore, if the change in the camera image captured by the real camera incorporated in the game apparatus 10 is used, the angle at which the imaging direction of the actual camera changes, the amount of movement of the imaging position, and the like can be calculated. As an example, by identifying a predetermined object from a camera image captured by a real camera built in the game apparatus 10 and comparing the angle at which the object is captured and the position at which the object is captured in time series The angle at which the imaging direction of the actual camera changes, the amount of movement of the imaging position, and the like can be calculated from these changes. As another example, by comparing the entire camera image captured by the real camera built in the game apparatus 10 in time series, the actual image can be obtained from the imaging direction and the amount of change in the imaging range of the entire image. The angle at which the imaging direction of the camera changes, the amount of movement of the imaging position, and the like can be calculated.

第3の例として、上述したゲーム装置10に生じる角速度、ゲーム装置10に生じる加速度、およびゲーム装置10によって撮像されたカメラ画像の少なくとも2つを組み合わせて、ゲーム装置10の動きを算出してもかまわない。これによって、1つのパラメータからゲーム装置10の動きを算出する場合に当該動きの推定が難しい状況において、他のパラメータを組み合わせてゲーム装置10の動きを算出することによって、当該状況を補ったゲーム装置10の動きの算出が可能となる。一例として、上記第2の例によるゲーム装置10の動きを算出では、撮像されたカメラ画像が時系列的に水平方向へ動いた場合、ゲーム装置10の撮影角度が鉛直方向を中心として回転したのか、ゲーム装置10が水平移動したのか、正確な判定が難しいことがある。この場合、ゲーム装置10に生じる角速度を用いれば、ゲーム装置10が回転移動したのか水平移動したのかを容易に判定することが可能となる。   As a third example, the motion of the game apparatus 10 is calculated by combining at least two of the angular velocity generated in the game apparatus 10 described above, the acceleration generated in the game apparatus 10, and the camera image captured by the game apparatus 10. It doesn't matter. Thus, in a situation where it is difficult to estimate the motion when calculating the motion of the game apparatus 10 from one parameter, the game apparatus compensates for the situation by calculating the motion of the game apparatus 10 by combining other parameters. Ten motions can be calculated. As an example, in calculating the movement of the game apparatus 10 according to the second example, if the captured camera image moves in the horizontal direction in time series, has the shooting angle of the game apparatus 10 been rotated around the vertical direction? It may be difficult to accurately determine whether the game apparatus 10 has moved horizontally. In this case, if the angular velocity generated in the game apparatus 10 is used, it is possible to easily determine whether the game apparatus 10 has been rotated or moved horizontally.

また、第4の例として、ゲーム装置10の動きを、いわゆるAR(拡張現実)の技術により算出してもよい。   As a fourth example, the movement of the game apparatus 10 may be calculated by a so-called AR (augmented reality) technique.

また、上述した説明では、上側LCD22に、外側撮像部23および内側撮像部24のいずれかから取得したカメラ画像CIに基づいた、実世界の平面画像(上述した立体視可能な画像とは反対の意味での平面視の画像)が表示される例を主に用いたが、裸眼で立体視可能な画像(立体画像)を上側LCD22に表示することもできる。例えば、上述したように、ゲーム装置10は、外側左撮像部23aおよび外側右撮像部23bから取得したカメラ画像を用いた立体視可能な画像(立体画像)を上側LCD22に表示することが可能である。この場合、上側LCD22に表示された立体画像内に敵オブジェクトEOや存在したり、立体画像から取得対象オブジェクトAOが出現したりするように描画される。   In the above description, the upper LCD 22 has a real-world planar image (opposite of the above-described stereoscopically viewable image) based on the camera image CI acquired from either the outer imaging unit 23 or the inner imaging unit 24. Although an example in which a planar image in terms of meaning) is displayed is mainly used, an image (stereoscopic image) that can be stereoscopically viewed with naked eyes can be displayed on the upper LCD 22. For example, as described above, the game apparatus 10 can display a stereoscopically viewable image (stereoscopic image) using the camera images acquired from the outer left imaging unit 23a and the outer right imaging unit 23b on the upper LCD 22. is there. In this case, the rendering is performed such that the enemy object EO exists in the stereoscopic image displayed on the upper LCD 22 or the acquisition target object AO appears from the stereoscopic image.

例えば、上記立体画像に敵オブジェクトEOや取得対象オブジェクトAOを描画する場合、外側左撮像部23aから得られた左目用画像および外側右撮像部23bから得られた右目用画像を用いて、上述した画像処理を行う。具体的には、上述した画像処理において、顔認識処理を行って顔画像が抽出されるカメラ画像は、上記左目用画像および上記右目用画像の一方が用いられ、当該一方の画像から得られた顔画像のテクスチャがマッピングされた敵オブジェクトEOや取得対象オブジェクトAOが仮想空間に設定される。また、仮想空間に配置された敵オブジェクトEO、取得対象オブジェクトAO、および弾オブジェクトBO等を、2つの仮想カメラ(ステレオカメラ)から透視変換することによって、それぞれ左目用仮想世界画像と右目用仮想世界画像とを得る。そして、左目用の実世界画像と左目用仮想世界画像とを合成して左目用表示画像を生成し、右目用の実世界画像と右目用仮想世界画像とを合成して右目用表示画像を生成し、当該左目用表示画像および当該右目用表示画像を上側LCD22に出力する。   For example, when the enemy object EO and the acquisition target object AO are drawn on the stereoscopic image, the left eye image obtained from the outer left imaging unit 23a and the right eye image obtained from the outer right imaging unit 23b are used as described above. Perform image processing. Specifically, in the image processing described above, one of the left-eye image and the right-eye image is used as the camera image from which the face image is extracted by performing face recognition processing, and is obtained from the one image. The enemy object EO and the acquisition target object AO to which the texture of the face image is mapped are set in the virtual space. Further, the enemy object EO, the acquisition target object AO, the bullet object BO, and the like arranged in the virtual space are perspective-transformed from two virtual cameras (stereo cameras), so that the left-eye virtual world image and the right-eye virtual world respectively. Get an image and. Then, the left-eye real world image and the left-eye virtual world image are combined to generate the left-eye display image, and the right-eye real-world image and the right-eye virtual world image are combined to generate the right-eye display image. Then, the display image for the left eye and the display image for the right eye are output to the upper LCD 22.

また、上述した説明では、ゲーム装置10に内蔵する実カメラで撮像されたリアルタイムの動画像が上側LCD22に表示され、上記実カメラで撮像された動画像(カメラ画像)の中に敵オブジェクトEOや取得対象オブジェクトAOが登場するように表示されるが、本発明において上側LCD22に表示する画像は、様々なバリエーションが考えられる。第1の例として、予め録画された動画像およびテレビジョン放送や他の装置から得られる動画像等が上側LCD22に表示される。この場合、上記動画像が上側LCD22に表示され、敵オブジェクトEOや取得対象オブジェクトAOが当該動画像の中に登場することになる。第2の例として、ゲーム装置10に内蔵する実カメラや他の実カメラから得られた静止画像が上側LCD22に表示される。この場合、実カメラから得られた静止画像が上側LCD22に表示され、敵オブジェクトEOや取得対象オブジェクトAOが当該静止画像の中に登場することになる。ここで、実カメラから得られる静止画像は、ゲーム装置10に内蔵する実カメラでリアルタイムに撮像された実世界の静止画像でもいいし、当該実カメラや他の実カメラで予め撮影された実世界の静止画像でもいいし、テレビジョン放送や他の装置から得られる静止画像でもよい。   In the above description, the real-time moving image captured by the real camera built in the game apparatus 10 is displayed on the upper LCD 22, and the enemy object EO and the moving image (camera image) captured by the real camera are displayed. Although the acquisition target object AO is displayed so as to appear, various variations are conceivable for the image displayed on the upper LCD 22 in the present invention. As a first example, a moving image recorded in advance, a moving image obtained from a television broadcast or another device, and the like are displayed on the upper LCD 22. In this case, the moving image is displayed on the upper LCD 22, and the enemy object EO and the acquisition target object AO appear in the moving image. As a second example, a still image obtained from a real camera built in the game apparatus 10 or another real camera is displayed on the upper LCD 22. In this case, the still image obtained from the real camera is displayed on the upper LCD 22, and the enemy object EO and the acquisition target object AO appear in the still image. Here, the still image obtained from the real camera may be a real world still image captured in real time by the real camera built in the game apparatus 10, or a real world previously captured by the real camera or another real camera. Or still images obtained from television broadcasting or other devices.

また、上記実施形態では、上側LCD22がパララックスバリア方式の液晶表示装置であるとして、視差バリアのON/OFFを制御することにより、立体表示と平面表示とを切り替えることができる。他の実施形態では、例えば、上側LCD22としてレンチキュラー方式の液晶表示装置を用いて、立体画像および平面画像を表示可能としてもよい。レンチキュラー方式の場合でも、外側撮像部23で撮像した2つの画像を縦方向に短冊状に分割して交互に配置することで画像が立体表示される。また、レンチキュラー方式の場合でも、内側撮像部24で撮像した1つの画像をユーザの左右の目に視認させることによって、当該画像を平面表示させることができる。すなわち、レンチキュラー方式の液晶表示装置であっても、同じ画像を縦方向に短冊状に分割し、これら分割した画像を交互に配置することにより、ユーザの左右の目に同じ画像を視認させることができる。これにより、内側撮像部24で撮像された画像を平面画像として表示することが可能である。   Further, in the above embodiment, assuming that the upper LCD 22 is a parallax barrier liquid crystal display device, the stereoscopic display and the flat display can be switched by controlling the ON / OFF of the parallax barrier. In another embodiment, for example, a stereoscopic image and a planar image may be displayed using a lenticular liquid crystal display device as the upper LCD 22. Even in the case of the lenticular method, two images picked up by the outer image pickup unit 23 are divided into strips in the vertical direction and alternately arranged, and the images are displayed in three dimensions. Even in the case of the lenticular method, it is possible to display the image on a plane by visually recognizing one image captured by the inner imaging unit 24 to the left and right eyes of the user. That is, even in a lenticular type liquid crystal display device, the same image is divided into strips in the vertical direction, and the divided images are alternately arranged to make the same image visible to the left and right eyes of the user. it can. Thereby, it is possible to display the image imaged by the inner imaging unit 24 as a planar image.

また、上記実施例では、携帯型のゲーム装置10を用いて説明したが、据置型のゲーム装置、あるいは、一般的なパーソナルコンピュータ等の情報処理装置で本発明の画像処理プログラムを実行して、本発明を実現してもかまわない。また、他の実施形態では、ゲーム装置に限らず任意の携帯型電子機器、例えば、PDA(Personal Digital Assistant)や携帯電話、パーソナルコンピュータ、カメラ等であってもよい。例えば、携帯電話が、1つのハウジングの主面に2つの表示部と、実カメラとを備えてもよい。   In the above embodiment, the portable game apparatus 10 has been described. However, the image processing program of the present invention is executed by an information processing apparatus such as a stationary game apparatus or a general personal computer, The present invention may be realized. In another embodiment, the present invention is not limited to a game device, and may be any portable electronic device such as a PDA (Personal Digital Assistant), a mobile phone, a personal computer, a camera, or the like. For example, the mobile phone may include two display units and a real camera on the main surface of one housing.

また、上述した説明では画像処理をゲーム装置10で行う例を用いたが、上記画像処理における処理ステップの少なくとも一部を他の装置で行ってもかまわない。例えば、ゲーム装置10が他の装置(例えば、サーバや他のゲーム装置)と通信可能に構成されている場合、上記画像処理における処理ステップは、ゲーム装置10および当該他の装置が協働することによって実行してもよい。一例として、ゲーム装置10が顔画像取得処理および顔画像の蓄積的な保存を許容させるためのゲーム処理を行い、当該ゲームに成功することによって許容される対象となった顔画像が、他の装置に保存されてもかまわない。この場合、複数のゲーム装置10が他の装置に顔画像を蓄積的に保存していくことによって、顔画像の収集がさらに促進されるとともに、他のゲーム装置10によって保存された顔画像を閲覧することによって違った楽しみ方も生まれることが考えられる。他の例として、他の装置が図29におけるステップ52〜ステップ57までの処理を実行し、ゲーム装置10が図29におけるステップ58およびステップ59の処理を実行するように協働してもよい。このように、上記画像における処理ステップの少なくとも一部を他の装置で行うことによって、上述した画像処理と同様の処理が可能となる。すなわち、上述した画像処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施形態においては、ゲーム装置10の情報処理部31が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われたが、ゲーム装置10が備える専用回路によって上記処理の一部または全部が行われてもよい。   In the above description, the example in which the image processing is performed by the game apparatus 10 is used. However, at least a part of the processing steps in the image processing may be performed by another apparatus. For example, when the game apparatus 10 is configured to be communicable with another apparatus (for example, a server or another game apparatus), the game apparatus 10 and the other apparatus cooperate in the processing step in the image processing. It may be executed by. As an example, the game device 10 performs a face image acquisition process and a game process for allowing accumulative storage of the face image, and the face image that has been permitted by the success of the game is another device. You can save it in In this case, the plurality of game devices 10 accumulate face images in other devices in a cumulative manner, thereby further facilitating the collection of face images and browsing the face images stored by other game devices 10. Doing so may create a different way of enjoying it. As another example, another device may perform the processing from step 52 to step 57 in FIG. 29, and the game device 10 may cooperate to execute the processing in step 58 and step 59 in FIG. As described above, by performing at least a part of the processing steps on the image with another apparatus, the same processing as the above-described image processing can be performed. That is, the above-described image processing can be executed by cooperation between one processor or a plurality of processors included in an information processing system including at least one information processing apparatus. In the above embodiment, the processing according to the above-described flowchart is performed by the information processing unit 31 of the game device 10 executing a predetermined program. However, a part of the above processing is performed by a dedicated circuit included in the game device 10. Or all may be done.

また、上述したゲーム装置10の形状や、それに設けられている各種操作ボタン14、アナログスティック15、タッチパネル13の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、上述した画像処理で用いられる処理順序、設定値、判定に用いられる値等は、単なる一例に過ぎず他の順序や値であっても、本発明を実現できることは言うまでもない。   In addition, the shape of the game device 10 described above and the various operation buttons 14, the analog stick 15, the shape, number, and installation position of the touch panel 13 are merely examples, and other shapes, numbers, and It goes without saying that the present invention can be realized even at the installation position. Further, it is needless to say that the present invention can be realized even if the processing order used in the above-described image processing, the set value, the value used for determination, and the like are merely examples and have other orders and values.

また、上記画像処理プログラム(ゲームプログラム)は、外部メモリ45やデータ保存用外部メモリ46等の外部記憶媒体を通じてゲーム装置10に供給されるだけでなく、有線または無線の通信回線を通じてゲーム装置10に供給されてもよい。また、上記プログラムは、ゲーム装置10内部の不揮発性記憶装置に予め記録されていてもよい。なお、上記プログラムを記憶する情報記憶媒体としては、不揮発性メモリの他に、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープ、などでもよい。また、上記プログラムを記憶する情報記憶媒体としては、上記プログラムを一時的に記憶する揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。例えば、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。   The image processing program (game program) is not only supplied to the game apparatus 10 through an external storage medium such as the external memory 45 or the data storage external memory 46, but also to the game apparatus 10 through a wired or wireless communication line. It may be supplied. The program may be recorded in advance in a non-volatile storage device inside the game apparatus 10. As the information storage medium for storing the program, in addition to the nonvolatile memory, CD-ROM, DVD, or similar optical disk storage medium, flexible disk, hard disk, magneto-optical disk, magnetic tape, etc. But you can. The information storage medium that stores the program may be a volatile memory that temporarily stores the program. Such a storage medium can be referred to as a computer-readable recording medium. For example, various functions described above can be provided by causing a computer or the like to read and execute the program of the recording medium.

以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用されるすべての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。
(付記)
上記実施の形態は、以下の態様(付記と呼ぶ)で例示することができる。以下のそれぞれの付記に含まれる構成要素は、他の付記に含まれる構成要素と組み合わせることができる。
Although the present invention has been described in detail above, the above description is merely illustrative of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. It is understood that the scope of the present invention should be construed only by the claims. Moreover, it is understood that those skilled in the art can implement an equivalent range from the description of the specific embodiments of the present invention based on the description of the present invention and the common general technical knowledge. In addition, it is to be understood that the terms used in the present specification are used in the meaning normally used in the art unless otherwise specified. Thus, unless defined otherwise, all technical and technical terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. In case of conflict, the present specification, including definitions, will control.
(Appendix)
The said embodiment can be illustrated with the following aspects (it calls an appendix). The components included in each of the following supplementary notes can be combined with the components included in the other supplementary notes.

(付記1)
表示装置に画像を表示するコンピュータで実行されるゲームプログラムであって、前記コンピュータに、
顔画像を取得する画像取得ステップと、
前記取得した顔画像を基に第1のキャラクタオブジェクトを作成するステップと、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトとは異なる第2のキャラクタオブジェクトを表示してゲームを実行するゲーム処理ステップと、を実行させ、
前記ゲーム処理ステップは、
プレイヤの操作による前記第1のキャラクタオブジェクトへの攻撃により、前記ゲームでの成功に寄与するステップと、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃を無効にするステップと、を含むゲームプログラム。
(Appendix 1)
A game program executed on a computer that displays an image on a display device,
An image acquisition step of acquiring a face image;
Creating a first character object based on the acquired face image;
A game processing step of displaying a second character object different from the first character object together with the first character object and executing a game;
The game processing step includes
Contributing to success in the game by attacking the first character object by a player's operation;
And a step of invalidating an attack on the second character object by the operation of the player.

(付記2)
表示装置に画像を表示するコンピュータで実行されるゲームプログラムであって、前記コンピュータに、
顔画像を取得する画像取得ステップと、
前記取得した一の顔画像を含む第1のキャラクタオブジェクトを作成するステップと、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像を含む第2のキャラクタオブジェクトと前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像以外の顔画像を含む第3のキャラクタオブジェクトとを表示してゲームを実行するゲーム処理ステップと、を実行させ、
前記ゲーム処理ステップは、
プレイヤの操作による前記第3のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる前記顔画像の変形を進行させるステップと、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる顔画像が前記取得した元の顔画像に近づくように、前記変形を後退させるステップと、を含むゲームプログラム。
(Appendix 2)
A game program executed on a computer that displays an image on a display device,
An image acquisition step of acquiring a face image;
Creating a first character object including the acquired one face image;
Along with the first character object, the second character object including the one face image having a smaller size than the first character object and the one face image having a smaller size than the first character object. A game processing step of displaying a third character object including a face image other than and executing the game,
The game processing step includes
Advancing deformation of the face image included in the first character object by an attack on the third character object by a player's operation;
A step of reversing the deformation so that a face image included in the first character object approaches the acquired original face image by an attack on the second character object by a player's operation. program.

(付記3)
表示装置に画像を表示するコンピュータで実行されるゲームプログラムであって、前記コンピュータに、
顔画像を取得する画像取得ステップと、
前記取得した顔画像を変形させた顔画像を含むキャラクタオブジェクトを作成するステップと、
プレイヤの操作を受け付けて、前記顔画像に関連するゲームを進行するゲーム処理ステップと、
プレイヤの操作による前記ゲームでの成功または不成功を判定するステップと、
前記ゲームの結果が成功であったときに、前記変形させた顔画像が前記取得した元の顔画像に復帰するステップと、を実行させるゲームプログラム。
(Appendix 3)
A game program executed on a computer that displays an image on a display device,
An image acquisition step of acquiring a face image;
Creating a character object including a face image obtained by transforming the acquired face image;
A game processing step for accepting a player's operation and advancing a game related to the face image;
Determining success or failure in the game by an operation of the player;
And a step of returning the deformed face image to the acquired original face image when the game result is successful.

(付記4)
表示装置を接続可能な画像処理装置であって、
顔画像を取得する画像取得手段と、
前記取得した顔画像を基に第1のキャラクタオブジェクトを作成する手段と、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトとは異なる第2のキャラクタオブジェクトを前記表示装置に表示してゲームを実行するゲーム処理手段と、を備え、
前記ゲーム処理手段は、
プレイヤの操作による前記第1のキャラクタオブジェクトへの攻撃により、前記ゲームでの成功に寄与する手段と、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃を無効にする手段と、を含む画像処理装置。
(Appendix 4)
An image processing apparatus to which a display device can be connected,
Image acquisition means for acquiring a face image;
Means for creating a first character object based on the acquired face image;
Game processing means for displaying a second character object different from the first character object together with the first character object on the display device and executing a game;
The game processing means includes
Means for contributing to success in the game by attacking the first character object by a player's operation;
An image processing apparatus including: means for invalidating an attack on the second character object by a player's operation.

(付記5)
表示装置を接続可能な画像処理装置であって、
顔画像を取得する画像取得手段と、
前記取得した一の顔画像を含む第1のキャラクタオブジェクトを作成する手段と、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像を含む第2のキャラクタオブジェクトと前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像以外の顔画像を含む第3のキャラクタオブジェクトとを前記表示装置に表示してゲームを実行するゲーム処理手段と、を備え、
前記ゲーム処理手段は、
プレイヤの操作による前記第3のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる前記顔画像の変形を進行させる手段と、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる顔画像が前記取得した元の顔画像に近づくように、前記変形を後退させる手段と、を含む画像処理装置。
(Appendix 5)
An image processing apparatus to which a display device can be connected,
Image acquisition means for acquiring a face image;
Means for creating a first character object including the acquired one face image;
Along with the first character object, the second character object including the one face image having a smaller size than the first character object and the one face image having a smaller size than the first character object. Game processing means for displaying a third character object including a face image other than the above on the display device and executing a game,
The game processing means includes
Means for advancing deformation of the face image included in the first character object by an attack on the third character object by a player's operation;
Means for retracting the deformation so that a face image included in the first character object approaches the acquired original face image by an attack on the second character object by a player's operation. Processing equipment.

(付記6)
表示装置を接続可能な画像処理装置であって、
顔画像を取得する画像取得手段と、
前記取得した顔画像を変形させた顔画像を含むキャラクタオブジェクトを作成する手段と、
プレイヤの操作を受け付けて、前記表示装置に前記キャラクタオブジェクトを表示して前記顔画像に関連するゲームを進行するゲーム処理手段と、
プレイヤの操作による前記ゲームでの成功または不成功を判定する手段と、
前記ゲームの結果が成功であったときに、前記変形させた顔画像を前記取得した元の顔画像に復帰させる手段と、を備える画像処理装置。
(Appendix 6)
An image processing apparatus to which a display device can be connected,
Image acquisition means for acquiring a face image;
Means for creating a character object including a face image obtained by transforming the acquired face image;
Game processing means for receiving a player's operation, displaying the character object on the display device, and proceeding with a game related to the face image;
Means for determining success or failure in the game by operation of the player;
An image processing apparatus comprising: means for returning the deformed face image to the acquired original face image when the game result is successful.

(付記7)
表示装置と、
顔画像を取得する画像取得手段と、
前記取得した顔画像を基に第1のキャラクタオブジェクトを作成する手段と、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトとは異なる第2のキャラクタオブジェクトを前記表示装置に表示してゲームを実行するゲーム処理手段と、を備え、
前記ゲーム処理手段は、
プレイヤの操作による前記第1のキャラクタオブジェクトへの攻撃により、前記ゲームでの成功に寄与する手段と、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃を無効にする手段と、を含む画像処理装置。
(Appendix 7)
A display device;
Image acquisition means for acquiring a face image;
Means for creating a first character object based on the acquired face image;
Game processing means for displaying a second character object different from the first character object together with the first character object on the display device and executing a game;
The game processing means includes
Means for contributing to success in the game by attacking the first character object by a player's operation;
An image processing apparatus including: means for invalidating an attack on the second character object by a player's operation.

(付記8)
表示装置と、
顔画像を取得する画像取得手段と、
前記取得した一の顔画像を含む第1のキャラクタオブジェクトを作成する手段と、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像を含む第2のキャラクタオブジェクトと前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像以外の顔画像を含む第3のキャラクタオブジェクトとを前記表示装置に表示してゲームを実行するゲーム処理手段と、を備え、
前記ゲーム処理手段は、
プレイヤの操作による前記第3のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる前記顔画像の変形を進行させる手段と、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる顔画像が前記取得した元の顔画像に近づくように、前記変形を後退させる手段と、を含む画像処理装置。
(Appendix 8)
A display device;
Image acquisition means for acquiring a face image;
Means for creating a first character object including the acquired one face image;
Along with the first character object, the second character object including the one face image having a smaller size than the first character object and the one face image having a smaller size than the first character object. Game processing means for displaying a third character object including a face image other than the above on the display device and executing a game,
The game processing means includes
Means for advancing deformation of the face image included in the first character object by an attack on the third character object by a player's operation;
Means for retracting the deformation so that a face image included in the first character object approaches the acquired original face image by an attack on the second character object by a player's operation. Processing equipment.

(付記9)
表示装置と、
顔画像を取得する画像取得手段と、
前記取得した顔画像を変形させた顔画像を含むキャラクタオブジェクトを作成する手段と、
プレイヤの操作を受け付けて、前記表示装置に前記キャラクタオブジェクトを表示して前記顔画像に関連するゲームを進行するゲーム処理手段と、
プレイヤの操作による前記ゲームでの成功または不成功を判定する手段と、
前記ゲームの結果が成功であったときに、前記変形させた顔画像を前記取得した元の顔画像に復帰させる手段と、を備える画像処理装置。
(Appendix 9)
A display device;
Image acquisition means for acquiring a face image;
Means for creating a character object including a face image obtained by transforming the acquired face image;
Game processing means for receiving a player's operation, displaying the character object on the display device, and proceeding with a game related to the face image;
Means for determining success or failure in the game by operation of the player;
An image processing apparatus comprising: means for returning the deformed face image to the acquired original face image when the game result is successful.

(付記10)
撮像装置と、
前記撮像装置によって取得した画像を含む情報を表示する表示装置と、
前記撮像装置および表示装置と連携する画像処理装置とを備える画像処理システムであって、
前記画像処理装置は、
顔画像を取得する画像取得手段と、
前記取得した顔画像を基に第1のキャラクタオブジェクトを作成する手段と、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトとは異なる第2のキャラクタオブジェクトを前記表示装置に表示してゲームを実行するゲーム処理手段と、を備え、
前記ゲーム処理手段は、
プレイヤの操作による前記第1のキャラクタオブジェクトへの攻撃により、前記ゲームでの成功に寄与する手段と、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃を無効にする手段と、を含む画像処理システム。
(Appendix 10)
An imaging device;
A display device for displaying information including an image acquired by the imaging device;
An image processing system comprising an image processing device that cooperates with the imaging device and the display device,
The image processing apparatus includes:
Image acquisition means for acquiring a face image;
Means for creating a first character object based on the acquired face image;
Game processing means for displaying a second character object different from the first character object together with the first character object on the display device and executing a game;
The game processing means includes
Means for contributing to success in the game by attacking the first character object by a player's operation;
Means for invalidating an attack on the second character object by the operation of the player.

(付記11)
撮像装置と、
前記撮像装置によって取得した画像を含む情報を表示する表示装置と、
前記撮像装置および表示装置と連携する画像処理装置とを備える画像処理システムであって、
前記画像処理装置は、
顔画像を取得する画像取得手段と、
前記取得した一の顔画像を含む第1のキャラクタオブジェクトを作成する手段と、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像を含む第2のキャラクタオブジェクトと前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像以外の顔画像を含む第3のキャラクタオブジェクトとを前記表示装置に表示してゲームを実行するゲーム処理手段と、を備え、
前記ゲーム処理手段は、
プレイヤの操作による前記第3のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる前記顔画像の変形を進行させる手段と、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる顔画像が前記取得した元の顔画像に近づくように、前記変形を後退させる手段と、を含む画像処理システム。
(Appendix 11)
An imaging device;
A display device for displaying information including an image acquired by the imaging device;
An image processing system comprising an image processing device that cooperates with the imaging device and the display device,
The image processing apparatus includes:
Image acquisition means for acquiring a face image;
Means for creating a first character object including the acquired one face image;
Along with the first character object, the second character object including the one face image having a smaller size than the first character object and the one face image having a smaller size than the first character object. Game processing means for displaying a third character object including a face image other than the above on the display device and executing a game,
The game processing means includes
Means for advancing deformation of the face image included in the first character object by an attack on the third character object by a player's operation;
Means for retracting the deformation so that a face image included in the first character object approaches the acquired original face image by an attack on the second character object by a player's operation. Processing system.

(付記12)
撮像装置と、
前記撮像装置によって取得した画像を含む情報を表示する表示装置と、
前記撮像装置および表示装置と連携する画像処理装置とを備える画像処理システムであって、
前記画像処理装置は、
顔画像を取得する画像取得手段と、
前記取得した顔画像を変形させた顔画像を含むキャラクタオブジェクトを作成する手段と、
プレイヤの操作を受け付けて、前記表示装置に前記キャラクタオブジェクトを表示して前記顔画像に関連するゲームを進行するゲーム処理手段と、
プレイヤの操作による前記ゲームでの成功または不成功を判定する手段と、
前記ゲームの結果が成功であったときに、前記変形させた顔画像を前記取得した元の顔画像に復帰させる手段と、を備える画像処理システム。
(Appendix 12)
An imaging device;
A display device for displaying information including an image acquired by the imaging device;
An image processing system comprising an image processing device that cooperates with the imaging device and the display device,
The image processing apparatus includes:
Image acquisition means for acquiring a face image;
Means for creating a character object including a face image obtained by transforming the acquired face image;
Game processing means for receiving a player's operation, displaying the character object on the display device, and proceeding with a game related to the face image;
Means for determining success or failure in the game by operation of the player;
An image processing system comprising: means for returning the deformed face image to the acquired original face image when the game result is successful.

(付記13)
表示装置に画像を表示するコンピュータが、
顔画像を取得する画像取得ステップと、
前記取得した顔画像を基に第1のキャラクタオブジェクトを作成するステップと、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトとは異なる第2のキャラクタオブジェクトを表示してゲームを実行するゲーム処理ステップと、を実行し、
前記ゲーム処理ステップは、
プレイヤの操作による前記第1のキャラクタオブジェクトへの攻撃により、前記ゲームでの成功に寄与するステップと、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃を無効にするステップと、を含む情報処理方法。
(Appendix 13)
A computer displaying an image on a display device
An image acquisition step of acquiring a face image;
Creating a first character object based on the acquired face image;
A game processing step of displaying a second character object different from the first character object together with the first character object and executing a game; and
The game processing step includes
Contributing to success in the game by attacking the first character object by a player's operation;
Invalidating an attack on the second character object by the operation of the player.

(付記14)
表示装置に画像を表示するコンピュータが、
顔画像を取得する画像取得ステップと、
前記取得した一の顔画像を含む第1のキャラクタオブジェクトを作成するステップと、
前記第1のキャラクタオブジェクトとともに、前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像を含む第2のキャラクタオブジェクトと前記第1のキャラクタオブジェクトよりも寸法の小さい、前記一の顔画像以外の顔画像を含む第3のキャラクタオブジェクトとを表示してゲームを実行するゲーム処理ステップと、を実行し、
前記ゲーム処理ステップは、
プレイヤの操作による前記第3のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる前記顔画像の変形を進行させるステップと、
プレイヤの操作による前記第2のキャラクタオブジェクトへの攻撃により、前記第1のキャラクタオブジェクトに含まれる顔画像が前記取得した元の顔画像に近づくように、前記変形を後退させるステップと、を含む情報処理方法。
(Appendix 14)
A computer displaying an image on a display device
An image acquisition step of acquiring a face image;
Creating a first character object including the acquired one face image;
Along with the first character object, the second character object including the one face image having a smaller size than the first character object and the one face image having a smaller size than the first character object. A game processing step of displaying a third character object including a face image other than and executing a game,
The game processing step includes
Advancing deformation of the face image included in the first character object by an attack on the third character object by a player's operation;
Reversing the deformation so that a face image included in the first character object approaches the acquired original face image by an attack on the second character object by a player's operation. Processing method.

(付記15)
表示装置に画像を表示するコンピュータが、
顔画像を取得する画像取得ステップと、
前記取得した顔画像を変形させた顔画像を含むキャラクタオブジェクトを作成するステップと、
プレイヤの操作を受け付けて、前記顔画像に関連するゲームを進行するゲーム処理ステップと、
プレイヤの操作による前記ゲームでの成功または不成功を判定するステップと、
前記ゲームの結果が成功であったときに、前記変形させた顔画像が前記取得した元の顔画像に復帰するステップと、を実行する情報処理方法。
(Appendix 15)
A computer displaying an image on a display device
An image acquisition step of acquiring a face image;
Creating a character object including a face image obtained by transforming the acquired face image;
A game processing step for accepting a player's operation and advancing a game related to the face image;
Determining success or failure in the game by an operation of the player;
And a step of returning the deformed face image to the acquired original face image when the game result is successful.

本発明に係るゲームプログラム、画像処理装置、画像処理システム、および画像処理方法は、実世界画像と仮想世界画像とを合成して新たな画像を生成することが可能であり、各種画像を表示装置に表示する処理を行うゲームプログラム、画像処理装置、画像処理システム、および画像処理方法等として有用である。   The game program, the image processing device, the image processing system, and the image processing method according to the present invention can generate a new image by combining a real world image and a virtual world image, and display various images. It is useful as a game program, an image processing apparatus, an image processing system, an image processing method, etc.

10…ゲーム装置
11…下側ハウジング
12…下側LCD
13…タッチパネル
14…操作ボタン
15…アナログスティック
16…LED
17…挿入口
18…マイクロフォン用孔
19…無線スイッチ
21…上側ハウジング
22…上側LCD
23…外側撮像部
23a…外側左撮像部
23b…外側右撮像部
24…内側撮像部
25…3D調整スイッチ
26…3Dインジケータ
27…スクリーンカバー
28…タッチペン
31…情報処理部
311…CPU
312…GPU
313…VRAM
32…メインメモリ
33…外部メモリI/F
34…データ保存用外部メモリI/F
35…データ保存用内部メモリ
36…無線通信モジュール
37…ローカル通信モジュール
38…RTC
39…加速度センサ
40…角速度センサ
41…電源回路
42…I/F回路
43…マイク
44…スピーカ
45…外部メモリ
46…データ保存用外部メモリ
10 ... Game device 11 ... Lower housing 12 ... Lower LCD
13 ... Touch panel 14 ... Operation button 15 ... Analog stick 16 ... LED
17 ... Insert 18 ... Microphone hole 19 ... Wireless switch 21 ... Upper housing 22 ... Upper LCD
23 ... Outside imaging unit 23a ... Outside left imaging unit 23b ... Outside right imaging unit 24 ... Outside imaging unit 25 ... 3D adjustment switch 26 ... 3D indicator 27 ... Screen cover 28 ... Touch pen 31 ... Information processing unit 311 ... CPU
312 ... GPU
313 ... VRAM
32 ... Main memory 33 ... External memory I / F
34 ... External memory I / F for data storage
35 ... Internal data storage memory 36 ... Wireless communication module 37 ... Local communication module 38 ... RTC
39 ... Acceleration sensor 40 ... Angular velocity sensor 41 ... Power supply circuit 42 ... I / F circuit 43 ... Microphone 44 ... Speaker 45 ... External memory 46 ... External memory for data storage

Claims (22)

表示装置に画像を表示するゲーム装置のコンピュータで実行されるゲームプログラムであって、
前記コンピュータに、
所定のゲーム中または当該ゲーム開始前に、顔画像を取得して第1記憶領域に一時的に記憶する画像取得ステップと、
前記第1記憶領域に記憶された顔画像を含むキャラクタオブジェクトである第1キャラクタオブジェクトを作成するステップと、
前記所定のゲームにおいて前記第1キャラクタオブジェクトに関連するゲームを、プレイヤの操作に応じて進行させる第1のゲーム処理ステップと、
前記第1キャラクタオブジェクトに関連するゲームでの成功を判定する判定ステップと、
前記判定ステップにおいてゲームでの成功が少なくとも判定された場合、前記第1記憶領域に記憶された前記顔画像を、第2記憶領域に蓄積的に保存するステップとを実行させる、ゲームプログラム。
A game program executed by a computer of a game device that displays an image on a display device,
In the computer,
An image acquisition step of acquiring a face image and temporarily storing it in the first storage area during a predetermined game or before the game starts;
Creating a first character object that is a character object including a face image stored in the first storage area;
A first game processing step of causing a game related to the first character object in the predetermined game to progress according to a player's operation;
A determination step of determining success in a game related to the first character object;
A game program for executing the step of accumulatively storing the face image stored in the first storage area in a second storage area when success in the game is determined in the determination step.
前記画像取得ステップでは、前記所定のゲームの開始前に、前記顔画像が取得されて前記第1記憶領域に一時的に記憶される、請求項1に記載のゲームプログラム。   The game program according to claim 1, wherein in the image acquisition step, the face image is acquired and temporarily stored in the first storage area before the predetermined game is started. 前記コンピュータに、
前記第2記憶領域に保存された顔画像から自動的にまたはプレイヤにより選択された顔画像を含む第2キャラクタオブジェクトを作成するステップを、さらに実行させ、
前記第1のゲーム処理ステップでは、前記所定のゲームにおいて前記第2キャラクタオブジェクトに関連するゲームを、プレイヤの操作に応じてさらに進行させる、請求項1または2に記載のゲームプログラム。
In the computer,
A step of creating a second character object including a face image selected automatically or from a face image stored in the second storage area by the player;
The game program according to claim 1 or 2, wherein in the first game processing step, a game related to the second character object is further advanced in accordance with an operation of a player in the predetermined game.
前記コンピュータに、
前記第2記憶領域に保存された顔画像から自動的にまたはプレイヤにより選択された顔画像を含む第2キャラクタオブジェクトを作成するステップと、
前記第2キャラクタオブジェクトに関連するゲームを、プレイヤの操作に応じて進行させる第2のゲーム処理ステップとを、さらに実行させる、請求項1または2に記載のゲームプログラム。
In the computer,
Creating a second character object including a face image selected automatically or by a player from the face images stored in the second storage area;
The game program according to claim 1, further causing a second game processing step of causing a game related to the second character object to proceed in accordance with a player's operation.
前記ゲーム装置は、撮像装置から画像を取得可能であり、
前記画像取得ステップでは、前記所定のゲームの開始前に、前記撮像装置から前記顔画像が取得される、請求項2から4のいずれか1項に記載のゲームプログラム。
The game device can acquire an image from an imaging device;
The game program according to any one of claims 2 to 4, wherein, in the image acquisition step, the face image is acquired from the imaging device before the predetermined game is started.
前記ゲーム装置は、前記撮像装置として、前記表示装置の表示面の外面前方方向を撮像する第1の撮像装置、および前記表示装置の表示面の背面方向を撮像する第2の撮像装置から画像を取得可能であり、
前記画像取得ステップは、
前記第2の撮像装置の撮像による顔画像の取得より、前記第1の撮像装置の撮像による顔画像を優先的に取得するステップと、
前記第1の撮像装置からの顔画像が前記第2記憶領域に保存された後に、前記第2の撮像装置の撮像による顔画像の取得を許容するステップとを含む、請求項5に記載のゲームプログラム。
The game device, as the imaging device, captures an image from a first imaging device that images the front direction of the outer surface of the display surface of the display device, and a second imaging device that images the back direction of the display surface of the display device. Is available,
The image acquisition step includes
Preferentially acquiring a face image captured by the first imaging device over acquiring a face image captured by the second image capturing device; and
6. The game according to claim 5, further comprising: allowing acquisition of a face image by imaging of the second imaging device after the facial image from the first imaging device is stored in the second storage area. program.
前記第2記憶領域に保存された顔画像の属性を特定するステップと、
前記第2記憶領域に保存された顔画像から特定された属性とは異なる属性に該当する顔画像の取得をプレイヤに促すステップとを、前記コンピュータにさらに実行させる、請求項1から6のいずれか1項に記載のゲームプログラム。
Identifying the attributes of the face image stored in the second storage area;
7. The computer according to claim 1, further causing the computer to further execute a step of prompting the player to acquire a face image corresponding to an attribute different from the attribute specified from the face image stored in the second storage area. The game program according to item 1.
前記第1のゲーム処理ステップは、プレイヤの操作に応じてキャラクタオブジェクトを攻撃することによって前記第1キャラクタオブジェクトに関連するゲームを進行させるステップを含み、
前記第1のゲーム処理ステップでは、前記第1キャラクタオブジェクトへの攻撃が前記第1キャラクタオブジェクトに関連するゲームを成功させるために有効な攻撃とされ、前記第2キャラクタオブジェクトに対する攻撃が当該ゲームの成功に対して無効な攻撃とされる、請求項3に記載のゲームプログラム。
The first game processing step includes a step of advancing a game related to the first character object by attacking the character object according to an operation of the player,
In the first game processing step, an attack on the first character object is an effective attack for making the game related to the first character object successful, and an attack on the second character object is a success of the game The game program according to claim 3, wherein the game program is an invalid attack.
前記第2キャラクタオブジェクトに含まれる顔画像とは異なる顔画像を含む第3キャラクタオブジェクトを作成するステップを、さらに前記コンピュータに実行させ、
前記第2のゲーム処理ステップは、プレイヤの操作に応じてキャラクタオブジェクトを攻撃することによって前記第2キャラクタオブジェクトに関連するゲームを進行させるステップを含み、
前記第2のゲーム処理ステップでは、前記第2キャラクタオブジェクトへの攻撃が前記第2キャラクタオブジェクトに関連するゲームを成功させるために有効な攻撃とされ、前記第3キャラクタオブジェクトに対する攻撃が当該ゲームの成功に対して無効な攻撃とされる、請求項4に記載のゲームプログラム。
Causing the computer to further execute a step of creating a third character object including a face image different from the face image included in the second character object;
The second game processing step includes a step of advancing a game related to the second character object by attacking the character object according to an operation of the player,
In the second game processing step, an attack on the second character object is an effective attack for making the game related to the second character object successful, and an attack on the third character object is a success of the game The game program according to claim 4, wherein the game program is an invalid attack.
前記第1記憶領域に記憶された顔画像を含み、前記第1キャラクタオブジェクトよりも寸法の小さい第3キャラクタオブジェクトを作成するステップと、
前記第1記憶領域に記憶された顔画像とは異なる顔画像を含み、前記第1キャラクタオブジェクトよりも寸法の小さい第4キャラクタオブジェクトを作成するステップとを、前記コンピュータにさらに実行させ、
前記第1のゲーム処理ステップは、
プレイヤの操作に応じてキャラクタオブジェクトを攻撃することによって前記第1キャラクタオブジェクトに関連するゲームを進行させるステップと、
前記第4キャラクタオブジェクトが攻撃を受けた場合、前記第1キャラクタオブジェクトに含まれる顔画像の変形を進行させるステップと、
前記第3キャラクタオブジェクトが攻撃を受けた場合、前記第1キャラクタオブジェクトに含まれる顔画像が前記第1記憶領域に記憶された元の顔画像に近づくように、前記変形を後退させるステップとを含む、請求項3に記載のゲームプログラム。
Creating a third character object including a face image stored in the first storage area and having a size smaller than that of the first character object;
Causing the computer to further execute a step of creating a fourth character object including a face image different from the face image stored in the first storage area and having a size smaller than that of the first character object;
The first game processing step includes:
Advancing a game related to the first character object by attacking the character object in accordance with an operation of the player;
When the fourth character object is attacked, the step of proceeding the deformation of the face image included in the first character object;
Reversing the deformation so that the face image included in the first character object approaches the original face image stored in the first storage area when the third character object is attacked. The game program according to claim 3.
前記第2キャラクタオブジェクトに含まれる顔画像と同じ顔画像を含み、前記第2キャラクタオブジェクトよりも寸法の小さい第3キャラクタオブジェクトを作成するステップと、
前記第2キャラクタオブジェクトに含まれる顔画像と異なる顔画像を含み、前記第2キャラクタオブジェクトよりも寸法の小さい第4キャラクタオブジェクトを作成するステップとを、前記コンピュータにさらに実行させ、
前記第2のゲーム処理ステップは、
プレイヤの操作に応じてキャラクタオブジェクトを攻撃することによって前記第2キャラクタオブジェクトに関連するゲームを進行させるステップと、
前記第4キャラクタオブジェクトが攻撃を受けた場合、前記第2キャラクタオブジェクトに含まれる顔画像の変形を進行させるステップと、
前記第3キャラクタオブジェクトが攻撃を受けた場合、前記第2キャラクタオブジェクトに含まれる顔画像が前記第2記憶領域に保存された元の顔画像に近づくように、前記変形を後退させるステップとを含む、請求項4に記載のゲームプログラム。
Creating a third character object that includes the same face image as the face image included in the second character object and is smaller in size than the second character object;
A step of creating a fourth character object having a face image different from the face image included in the second character object and having a smaller dimension than the second character object;
The second game processing step includes
Advancing a game related to the second character object by attacking the character object in response to an operation of the player;
When the fourth character object is attacked, the step of proceeding the deformation of the face image included in the second character object;
Reversing the deformation so that the face image included in the second character object approaches the original face image stored in the second storage area when the third character object is attacked. The game program according to claim 4.
前記第1キャラクタオブジェクトを作成するステップでは、前記第1記憶領域に記憶された顔画像を変形させた顔画像を含むキャラクタオブジェクトが、前記第1キャラクタオブジェクトとして作成され、
前記第1のゲーム処理ステップは、前記第1キャラクタオブジェクトに関連するゲームが成功であったときに、前記変形させた顔画像を前記第1記憶領域に記憶された元の顔画像に復帰させるステップを含む、請求項1から11のいずれか1項に記載のゲームプログラム。
In the step of creating the first character object, a character object including a face image obtained by deforming the face image stored in the first storage area is created as the first character object,
In the first game processing step, when the game related to the first character object is successful, the deformed face image is restored to the original face image stored in the first storage area. The game program according to claim 1, comprising:
前記第2キャラクタオブジェクトを作成するステップでは、前記第2記憶領域に保存された顔画像を変形させた顔画像が含むキャラクタオブジェクトが、前記第2キャラクタオブジェクトとして作成され、
前記第2のゲーム処理ステップは、前記第2キャラクタオブジェクトに関連するゲームが成功であったときに、前記変形させた顔画像を前記第2記憶領域に保存された元の顔画像に復帰させるステップを含む、請求項4に記載のゲームプログラム。
In the step of creating the second character object, a character object included in a face image obtained by deforming the face image stored in the second storage area is created as the second character object,
In the second game processing step, when the game related to the second character object is successful, the deformed face image is restored to the original face image stored in the second storage area. The game program according to claim 4, including:
前記画像取得ステップでは、前記所定のゲーム中に、前記顔画像が取得されて前記第1記憶領域に一時的に記憶され、
前記第1のゲーム処理ステップでは、前記所定のゲーム中に前記顔画像が取得され前記第1キャラクタオブジェクトが作成されたことに応じて、当該所定のゲームに当該第1キャラクタオブジェクトを登場させて前記第1キャラクタオブジェクトに関連するゲームを進行させる、請求項1に記載のゲームプログラム。
In the image acquisition step, during the predetermined game, the face image is acquired and temporarily stored in the first storage area,
In the first game processing step, the first character object is caused to appear in the predetermined game in response to the face image being acquired and the first character object being created during the predetermined game. The game program according to claim 1, wherein a game related to the first character object is advanced.
実カメラによって撮像された撮像画像を取得する撮像画像取得ステップと、
前記撮像画像取得ステップにおいて取得された撮像画像を背景として、前記所定のゲームに登場する仮想キャラクタオブジェクトが配置された表示画像を生成する表示画像生成ステップと、
前記表示画像生成ステップにおいて生成された画像を前記表示装置に表示する表示制御ステップとを、さらに前記コンピュータに実行させ、
前記画像取得ステップでは、前記所定のゲーム中に前記表示装置に表示されている前記撮像画像から少なくとも1つの顔画像が抽出されて前記第1記憶領域に一時的に記憶される、請求項14に記載のゲームプログラム。
A captured image acquisition step of acquiring a captured image captured by a real camera;
A display image generation step of generating a display image in which a virtual character object appearing in the predetermined game is arranged with the captured image acquired in the captured image acquisition step as a background;
Further causing the computer to execute a display control step of displaying the image generated in the display image generation step on the display device,
15. In the image acquisition step, at least one face image is extracted from the captured image displayed on the display device during the predetermined game and temporarily stored in the first storage area. The described game program.
前記表示画像生成ステップでは、前記画像取得ステップにおいて抽出された顔画像の前記撮像画像における位置と重なって前記表示装置に表示されるように、前記第1キャラクタオブジェクトを配置して前記表示画像を生成する、請求項15に記載のゲームプログラム。   In the display image generation step, the display unit generates the display image by arranging the first character object so that the face image extracted in the image acquisition step is displayed on the display device so as to overlap the position in the captured image. The game program according to claim 15. 前記撮像画像取得ステップでは、前記実カメラによってリアルタイムに撮像された実世界の撮像画像が繰り返し取得され、
前記表示画像生成ステップでは、前記撮像画像取得ステップにおいて繰り返し取得された撮像画像が順次背景として設定され、
前記画像取得ステップでは、順次背景として設定される前記撮像画像から、既に抽出された前記顔画像に対応する顔画像が繰り返し取得され、
前記第1キャラクタオブジェクトを作成するステップでは、前記画像取得ステップにおいて繰り返し取得される顔画像を含むように前記第1キャラクタオブジェクトが繰り返し作成され、
前記表示画像生成ステップでは、前記画像取得ステップにおいて繰り返し取得されている顔画像の前記撮像画像における位置と重なって前記表示装置に表示されるように、前記繰り返し作成されている前記第1キャラクタオブジェクトが配置されて前記表示画像が生成される、請求項16に記載のゲームプログラム。
In the captured image acquisition step, captured images of the real world captured in real time by the real camera are repeatedly acquired,
In the display image generation step, the captured images repeatedly acquired in the captured image acquisition step are sequentially set as a background,
In the image acquisition step, a face image corresponding to the face image that has already been extracted is repeatedly acquired from the captured images that are sequentially set as a background,
In the step of creating the first character object, the first character object is repeatedly created so as to include the face image repeatedly obtained in the image obtaining step,
In the display image generation step, the first character object that has been repeatedly created is displayed on the display device so as to overlap the position in the captured image of the face image that has been repeatedly acquired in the image acquisition step. The game program according to claim 16, wherein the display image is generated by being arranged.
前記ゲーム装置は、非一時的にデータを記憶する記憶手段に記憶されている画像データを利用可能であり、
前記画像取得ステップでは、前記所定のゲーム開始前に前記記憶手段に記憶されている画像データから、少なくとも1つの顔画像が抽出されて前記第1記憶領域に一時的に記憶される、請求項1に記載のゲームプログラム。
The game device can use image data stored in storage means for storing data non-temporarily,
The at least one face image is extracted from the image data stored in the storage unit before the predetermined game is started and temporarily stored in the first storage area in the image acquisition step. The game program described in.
表示装置を接続可能な画像処理装置であって、
所定のゲーム中または当該ゲーム開始前に、顔画像を取得して第1記憶領域に一時的に記憶する画像取得手段と、
前記第1記憶領域に記憶された顔画像を含むキャラクタオブジェクトを作成する手段と、
前記所定のゲームにおいて前記キャラクタオブジェクトに関連するゲームを、前記表示装置に表示してプレイヤの操作に応じて進行させるゲーム処理手段と、
前記キャラクタオブジェクトに関連するゲームでの成功を判定する判定手段と、
前記判定手段においてゲームでの成功が少なくとも判定された場合、前記第1記憶領域に記憶された前記顔画像を、第2記憶領域に蓄積的に保存する手段とを備える、画像処理装置。
An image processing apparatus to which a display device can be connected,
Image acquisition means for acquiring a face image and temporarily storing it in the first storage area during a predetermined game or before the game starts;
Means for creating a character object including a face image stored in the first storage area;
Game processing means for displaying a game related to the character object in the predetermined game on the display device and advancing according to the operation of the player;
Determination means for determining success in a game related to the character object;
An image processing apparatus comprising: a unit that cumulatively saves the face image stored in the first storage area in the second storage area when the determination unit determines at least success in the game.
表示装置と、
所定のゲーム中または当該ゲーム開始前に、顔画像を取得して第1記憶領域に一時的に記憶する画像取得手段と、
前記第1記憶領域に記憶された顔画像を含むキャラクタオブジェクトを作成する手段と、
前記所定のゲームにおいて前記キャラクタオブジェクトに関連するゲームを、前記表示装置に表示してプレイヤの操作に応じて進行させるゲーム処理手段と、
前記キャラクタオブジェクトに関連するゲームでの成功を判定する判定手段と、
前記判定手段においてゲームでの成功が少なくとも判定された場合、前記第1記憶領域に記憶された前記顔画像を、第2記憶領域に蓄積的に保存する手段とを備える、画像処理装置。
A display device;
Image acquisition means for acquiring a face image and temporarily storing it in the first storage area during a predetermined game or before the game starts;
Means for creating a character object including a face image stored in the first storage area;
Game processing means for displaying a game related to the character object in the predetermined game on the display device and advancing according to the operation of the player;
Determination means for determining success in a game related to the character object;
An image processing apparatus comprising: a unit that cumulatively saves the face image stored in the first storage area in the second storage area when the determination unit determines at least success in the game.
画像を含む情報を表示装置に表示する画像処理システムであって、
所定のゲーム中または当該ゲーム開始前に、顔画像を取得して第1記憶領域に一時的に記憶する画像取得手段と、
前記第1記憶領域に記憶された顔画像を含むキャラクタオブジェクトを作成する手段と、
前記所定のゲームにおいて前記キャラクタオブジェクトに関連するゲームを、前記表示装置に表示してプレイヤの操作に応じて進行させるゲーム処理手段と、
前記キャラクタオブジェクトに関連するゲームでの成功を判定する判定手段と、
前記判定手段においてゲームでの成功が少なくとも判定された場合、前記第1記憶領域に記憶された前記顔画像を、第2記憶領域に蓄積的に保存する手段とを有する、画像処理システム。
An image processing system for displaying information including an image on a display device,
Image acquisition means for acquiring a face image and temporarily storing it in the first storage area during a predetermined game or before the game starts;
Means for creating a character object including a face image stored in the first storage area;
Game processing means for displaying a game related to the character object in the predetermined game on the display device and advancing according to the operation of the player;
Determination means for determining success in a game related to the character object;
An image processing system comprising: means for accumulatively storing the face image stored in the first storage area in the second storage area when the determination means determines at least success in the game.
表示装置に画像を表示するコンピュータが実行する画像処理方法であって、前記コンピュータが
所定のゲーム中または当該ゲーム開始前に、顔画像を取得して第1記憶領域に一時的に記憶する画像取得ステップと、
前記第1記憶領域に記憶された顔画像を含むキャラクタオブジェクトを作成するステップと、
前記所定のゲームにおいて前記キャラクタオブジェクトに関連するゲームを、プレイヤの操作に応じて進行させるゲーム処理ステップと、
前記キャラクタオブジェクトに関連するゲームでの成功を判定する判定ステップと、
前記判定ステップにおいてゲームでの成功が少なくとも判定された場合、前記第1記憶領域に記憶された前記顔画像を、第2記憶領域に蓄積的に保存するステップとを実行する、画像処理方法。
An image processing method executed by a computer displaying an image on a display device, wherein the computer acquires a face image during a predetermined game or before the game starts and temporarily stores it in a first storage area Steps,
Creating a character object including a face image stored in the first storage area;
A game processing step of causing a game related to the character object in the predetermined game to progress in accordance with a player's operation;
A determination step of determining success in a game related to the character object;
An image processing method that executes a step of accumulatively storing the face image stored in the first storage area in a second storage area when it is determined that at least the success in the game is determined in the determination step.
JP2010293443A 2010-10-15 2010-12-28 Game program, image processing apparatus, image processing system, and image processing method Active JP5827007B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010293443A JP5827007B2 (en) 2010-10-15 2010-12-28 Game program, image processing apparatus, image processing system, and image processing method
US13/080,989 US20120094773A1 (en) 2010-10-15 2011-04-06 Storage medium having stored thereon game program, image processing apparatus, image processing system, and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010232869 2010-10-15
JP2010232869 2010-10-15
JP2010293443A JP5827007B2 (en) 2010-10-15 2010-12-28 Game program, image processing apparatus, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2012101024A true JP2012101024A (en) 2012-05-31
JP5827007B2 JP5827007B2 (en) 2015-12-02

Family

ID=45934619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010293443A Active JP5827007B2 (en) 2010-10-15 2010-12-28 Game program, image processing apparatus, image processing system, and image processing method

Country Status (2)

Country Link
US (1) US20120094773A1 (en)
JP (1) JP5827007B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093034A (en) * 2012-11-06 2014-05-19 Nintendo Co Ltd Information processing program, information processing device, information processing system and information processing method
JP2015196091A (en) * 2014-04-02 2015-11-09 アップルジャック 199 エル.ピー. Sensor-based gaming system for avatar to represent player in virtual environment
KR20170115093A (en) * 2015-02-26 2017-10-16 가부시키가이샤 사이게임스 Information processing systems and programs, servers, terminals, and media
JP2019042595A (en) * 2017-08-31 2019-03-22 株式会社コナミデジタルエンタテインメント Game managing device, game system, method of managing game, and program

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5627973B2 (en) * 2010-09-24 2014-11-19 任天堂株式会社 Program, apparatus, system and method for game processing
JP5800526B2 (en) * 2011-02-22 2015-10-28 任天堂株式会社 GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5812665B2 (en) * 2011-04-22 2015-11-17 任天堂株式会社 Information processing system, information processing apparatus, information processing method, and information processing program
JP5145444B2 (en) * 2011-06-27 2013-02-20 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing apparatus control method, and program
JP2013050883A (en) * 2011-08-31 2013-03-14 Nintendo Co Ltd Information processing program, information processing system, information processor, and information processing method
JP5791433B2 (en) 2011-08-31 2015-10-07 任天堂株式会社 Information processing program, information processing system, information processing apparatus, and information processing method
JP5620414B2 (en) * 2012-01-18 2014-11-05 株式会社スクウェア・エニックス Game device
JP6021568B2 (en) * 2012-10-02 2016-11-09 任天堂株式会社 Image processing program, image processing apparatus, image processing system, and image processing method
US20140232746A1 (en) * 2013-02-21 2014-08-21 Hyundai Motor Company Three dimensional augmented reality display apparatus and method using eye tracking
CN103489107B (en) * 2013-08-16 2015-11-25 北京京东尚科信息技术有限公司 A kind of method and apparatus making virtual fitting model image
JP6192483B2 (en) * 2013-10-18 2017-09-06 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
US9875573B2 (en) * 2014-03-17 2018-01-23 Meggitt Training Systems, Inc. Method and apparatus for rendering a 3-dimensional scene
GB2528655B (en) 2014-07-24 2020-10-07 Advanced Risc Mach Ltd Graphics Processing Systems
US9659381B2 (en) * 2015-01-26 2017-05-23 Daqri, Llc Real time texture mapping for augmented reality system
US20180053490A1 (en) * 2015-02-27 2018-02-22 Sharp Kabushiki Kaisha Display device and method of displaying image on display device
WO2016135498A1 (en) 2015-02-27 2016-09-01 Arm Limited Graphics processing systems
WO2016152486A1 (en) * 2015-03-20 2016-09-29 株式会社リコー Display apparatus, display control method, display control program, and display system
US10607063B2 (en) * 2015-07-28 2020-03-31 Sony Corporation Information processing system, information processing method, and recording medium for evaluating a target based on observers
GB2541928B (en) * 2015-09-04 2018-01-31 Advanced Risc Mach Ltd Graphics processing systems
GB2543766B (en) 2015-10-26 2018-02-14 Advanced Risc Mach Ltd Graphics processing systems
US20190007536A1 (en) * 2017-07-03 2019-01-03 Essential Products, Inc. Handheld writing implement form factor mobile device
US10462345B2 (en) 2017-08-11 2019-10-29 Essential Products, Inc. Deformable structure that compensates for displacement of a camera module of a camera accessory
JP6591630B1 (en) * 2018-07-23 2019-10-16 株式会社Cygames GAME PROGRAM, GAME SERVER, GAME SYSTEM, AND GAME DEVICE
US11294453B2 (en) * 2019-04-23 2022-04-05 Foretell Studios, LLC Simulated reality cross platform system
US20230015224A1 (en) * 2020-01-14 2023-01-19 Hewlett-Packard Development Company, L.P. Face orientation-based cursor positioning on display screens
CN111420402B (en) * 2020-03-18 2021-05-14 腾讯科技(深圳)有限公司 Virtual environment picture display method, device, terminal and storage medium
US11771991B2 (en) 2021-02-15 2023-10-03 Nintendo Co., Ltd. Non-transitory computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305892A (en) * 1995-05-11 1996-11-22 Sega Enterp Ltd Image processor and game device equipped with the same
JP2000235656A (en) * 1999-02-15 2000-08-29 Sony Corp Image processor, method and program providing medium
JP2002208023A (en) * 2000-11-09 2002-07-26 Sony Computer Entertainment Inc Object formation method, object formation program, recording medium recorded with object formation program, game machine, game method, game program, and recording medium recorded with game program
JP2005006992A (en) * 2003-06-19 2005-01-13 Aruze Corp Game device, game program, and recording medium recording the game program
JP2005196670A (en) * 2004-01-09 2005-07-21 Sony Corp Mobile terminal system and method for generating object
JP2007080057A (en) * 2005-09-15 2007-03-29 Kddi Corp Attribute decision amusement device according to face
JP2008183053A (en) * 2007-01-26 2008-08-14 Taito Corp Game system and game program
JP2010142592A (en) * 2008-12-22 2010-07-01 Nintendo Co Ltd Game program and game device
JP2010220857A (en) * 2009-03-24 2010-10-07 Namco Bandai Games Inc Program, information storage medium, and game device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5595389A (en) * 1993-12-30 1997-01-21 Eastman Kodak Company Method and apparatus for producing "personalized" video games using CD discs
WO2001080057A1 (en) * 2000-04-17 2001-10-25 Igt System and method of capturing a player's image for incorporation into a game
US6863608B1 (en) * 2000-10-11 2005-03-08 Igt Frame buffer capture of actual game play
US7384339B2 (en) * 2000-10-11 2008-06-10 Igt Frame capture of actual game play
US20030100363A1 (en) * 2001-11-28 2003-05-29 Ali Guiseppe C. Method and apparatus for inputting appearance of computer operator into a computer program
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
JP4383140B2 (en) * 2003-09-25 2009-12-16 任天堂株式会社 Image processing apparatus and image processing program
US9171419B2 (en) * 2007-01-17 2015-10-27 Touchtunes Music Corporation Coin operated entertainment system
US20090305782A1 (en) * 2008-06-10 2009-12-10 Oberg Gregory Keith Double render processing for handheld video game device
US20120083330A1 (en) * 2010-10-05 2012-04-05 Zynga Game Network, Inc. System and Method for Generating Achievement Objects Encapsulating Captured Event Playback

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305892A (en) * 1995-05-11 1996-11-22 Sega Enterp Ltd Image processor and game device equipped with the same
JP2000235656A (en) * 1999-02-15 2000-08-29 Sony Corp Image processor, method and program providing medium
JP2002208023A (en) * 2000-11-09 2002-07-26 Sony Computer Entertainment Inc Object formation method, object formation program, recording medium recorded with object formation program, game machine, game method, game program, and recording medium recorded with game program
JP2005006992A (en) * 2003-06-19 2005-01-13 Aruze Corp Game device, game program, and recording medium recording the game program
JP2005196670A (en) * 2004-01-09 2005-07-21 Sony Corp Mobile terminal system and method for generating object
JP2007080057A (en) * 2005-09-15 2007-03-29 Kddi Corp Attribute decision amusement device according to face
JP2008183053A (en) * 2007-01-26 2008-08-14 Taito Corp Game system and game program
JP2010142592A (en) * 2008-12-22 2010-07-01 Nintendo Co Ltd Game program and game device
JP2010220857A (en) * 2009-03-24 2010-10-07 Namco Bandai Games Inc Program, information storage medium, and game device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093034A (en) * 2012-11-06 2014-05-19 Nintendo Co Ltd Information processing program, information processing device, information processing system and information processing method
JP2015196091A (en) * 2014-04-02 2015-11-09 アップルジャック 199 エル.ピー. Sensor-based gaming system for avatar to represent player in virtual environment
KR20170115093A (en) * 2015-02-26 2017-10-16 가부시키가이샤 사이게임스 Information processing systems and programs, servers, terminals, and media
KR101944459B1 (en) 2015-02-26 2019-01-31 가부시키가이샤 사이게임스 Information processing systems and programs, servers, terminals, and media
JP2019042595A (en) * 2017-08-31 2019-03-22 株式会社コナミデジタルエンタテインメント Game managing device, game system, method of managing game, and program

Also Published As

Publication number Publication date
US20120094773A1 (en) 2012-04-19
JP5827007B2 (en) 2015-12-02

Similar Documents

Publication Publication Date Title
JP5827007B2 (en) Game program, image processing apparatus, image processing system, and image processing method
JP5738569B2 (en) Image processing program, apparatus, system and method
JP5602618B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP3904562B2 (en) Image display system, recording medium, and program
JP5627973B2 (en) Program, apparatus, system and method for game processing
JP5675260B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
Xu et al. Pre-patterns for designing embodied interactions in handheld augmented reality games
US20200368625A1 (en) Simulation system, processing method, and information storage medium
JP5939733B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP2013533537A (en) Avatar / gesture display restrictions
JP2010142592A (en) Game program and game device
JP2020044139A (en) Game program, game method, and information processor
JP2020028397A (en) Game program, game method, and information processing device
JP6832381B2 (en) Game programs, game methods, and information terminals
US20220355188A1 (en) Game program, game method, and terminal device
JP6722320B1 (en) Game program, game method, and information terminal device
JP6479874B2 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP2018161439A (en) Game program, method, and information processing device
JP2018161436A (en) Game program, method and information processor
JP6501814B2 (en) Game program, method, and information processing apparatus
KR20220024589A (en) Game program, game method, and information terminal device
JP2020116178A (en) Game program, method and information processor
JP6479875B2 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE
JP2006312036A (en) Image displaying system, information processing system, image processing system and video game system
JP2023126796A (en) Distribution program and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150820

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151015

R150 Certificate of patent or registration of utility model

Ref document number: 5827007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250