JP2008061896A - ゲームプログラムおよびゲーム装置 - Google Patents

ゲームプログラムおよびゲーム装置 Download PDF

Info

Publication number
JP2008061896A
JP2008061896A JP2006244475A JP2006244475A JP2008061896A JP 2008061896 A JP2008061896 A JP 2008061896A JP 2006244475 A JP2006244475 A JP 2006244475A JP 2006244475 A JP2006244475 A JP 2006244475A JP 2008061896 A JP2008061896 A JP 2008061896A
Authority
JP
Japan
Prior art keywords
character
character object
candidate
objects
reference character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006244475A
Other languages
English (en)
Other versions
JP4986279B2 (ja
Inventor
Ryutaro Takahashi
龍太郎 高橋
Takashi Masaoka
隆史 正岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2006244475A priority Critical patent/JP4986279B2/ja
Priority to US11/604,852 priority patent/US9149718B2/en
Priority to EP06025566.8A priority patent/EP1900405B1/en
Publication of JP2008061896A publication Critical patent/JP2008061896A/ja
Priority to US12/717,679 priority patent/US8988455B2/en
Application granted granted Critical
Publication of JP4986279B2 publication Critical patent/JP4986279B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • A63F2300/6018Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content where the game content is authored by the player, e.g. level editor or by game device at runtime, e.g. level is created from music data on CD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】絵心がないユーザでも、思い通りのキャラクタオブジェクトを手軽な操作で作成することのできるゲームプログラムおよびゲーム装置を提供すること。
【解決手段】各部位ごとに予め用意されているパーツオブジェクトを組み合わせて基準キャラクタを生成する。また、基準キャラクタで使用されたパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトを変更した候補キャラクタを1つ以上生成する。そして、基準キャラクタおよび候補キャラクタを表示装置に表示させ、ユーザによる選択入力を受け付ける。次に、選択されたキャラクタと基準キャラクタとの間で異なるパーツオブジェクトが用いられている部位を判別し、当該部位にかかるパーツオブジェクトを優先して変更した新たなキャラクタを生成する。そして、選択されたキャラクタを基準キャラクタとして、新たに生成されたキャラクタを候補キャラクタとして更新して表示する。
【選択図】図19

Description

本発明は、仮想ゲーム空間内に登場するキャラクタオブジェクトを作成するゲームプログラムおよびゲーム装置に関し、より特定的には、キャラクタオブジェクトを構成するための複数の部位毎のパーツオブジェクトを複数組み合わせてキャラクタオブジェクトを作成するゲームプログラムおよびゲーム装置に関する。
従来より、人間の顔を構成する各パーツオブジェクトを組み合わせて顔オブジェクトを作成できる電子手帳が開示されている(例えば、特許文献1)。当該電子手帳では、メモリの記憶容量を抑えるべく、顔の構成要素毎に予め用意された複数のパターンを組み合わせて顔オブジェクトを作成し、名刺やアドレス帳のデータと関連づけて個人の顔データとして記憶している。
特開平3−129572号公報
しかしながら、上述したような上記特許文献1に開示された電子手帳において、顔オブジェクトを作成しようとする場合、従来から以下に示す問題点があった。すなわち、ユーザは、顔オブジェクトを作成するためには、自分の感覚(似ている、あるいは特徴を表していると感じる感性)で各パーツを一つ一つ選ぶ必要がある。そのため、絵心がないユーザにとっては、自分のイメージしたオブジェクトや作成したいと思っている顔オブジェクトを思い通りに作ることが難しいという問題がある。更に、顔の各構成要素毎に各パーツを一つ一つ選ぶ必要があるため、当該選択作業自体が非常に煩わしく、かつ時間のかかる作業となっており、操作性や手軽さ等の観点からして、ユーザの利便性が高いものとはいえなかった。
それ故に、本発明の目的は、絵心がないユーザでも、思い通りのキャラクタオブジェクトを手軽な操作で作成することのできるゲームプログラムを提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係の一例を示したものであって、本発明を何ら限定するものではない。
第1の発明は、仮想ゲーム空間内に登場するキャラクタオブジェクトを構成するための複数の部位毎のパーツオブジェクトを複数組み合わせてキャラクタオブジェクトを作成するゲーム装置のコンピュータに実行させるゲームプログラムであって、基準キャラクタ生成ステップ(S5、S14)と、初期候補キャラクタ生成ステップ(S17)と、表示ステップ(S6、S16、S26)と、選択入力受付ステップ(S3)と、変更部位判別ステップ(S4)と、変更キャラクタ生成ステップ(S25、S26)と、基準キャラクタ更新ステップ(S5)と、候補キャラクタ更新ステップ(S26)とをコンピュータに実行させる。基準キャラクタ生成ステップでは、各部位ごとに予め記憶されている複数種類のパーツオブジェクトの中から各部位ごとに選ばれた各1つのパーツオブジェクトを組み合わせて基準キャラクタオブジェクトを生成する。初期候補キャラクタ生成ステップでは、基準キャラクタオブジェクトで使用されているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトを変更して少なくとも1つ以上の候補キャラクタオブジェクトを生成する。表示ステップでは、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトを表示装置に表示させる。選択入力受付ステップでは、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトのいずれかを選択するための入力を受け付ける。変更部位判別ステップでは、選択されたキャラクタオブジェクトと基準キャラクタオブジェクトとの間で異なるパーツオブジェクトが用いられている部位を判別する。変更キャラクタ生成ステップでは、選択されたキャラクタオブジェクトで使用されているパーツオブジェクトのうち、変更部位判別ステップにおいて判別された部位にかかるパーツオブジェクトを優先して変更することで少なくとも1つ以上の新たなキャラクタオブジェクトを生成する。基準キャラクタ更新ステップでは、選択されたキャラクタオブジェクトを基準キャラクタオブジェクトとして更新する。候補キャラクタ更新ステップでは、変更キャラクタ生成ステップにおいて生成されたキャラクタオブジェクトで候補キャラクタオブジェクトを更新する。
第2の発明は、第1の発明において、基準キャラクタ生成ステップでは、予め定められた複数のパーツオブジェクトの所定の組み合わせに基づいて基準キャラクタオブジェクトを生成する。
第3の発明は、第1の発明において、基準キャラクタ生成ステップは、ユーザに関する所定のパラメータの入力を受け付けるパラメータ入力受付ステップ(S11、S12)を含む。また、基準キャラクタ生成ステップでは、パラメータに応じて予め定められた組み合わせパターンに基づいて基準キャラクタオブジェクトを生成する。
第4の発明は、第3の発明において、パラメータとは、ユーザの性別情報である。
第5の発明は、第1の発明において、基準キャラクタ生成ステップでは、複数のパーツオブジェクトをランダムに組み合わせて基準キャラクタオブジェクトを生成する。
第6の発明は、第1の発明において、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトは、キャラクタオブジェクトの顔のオブジェクトである。
第7の発明は、第1の発明において、変更キャラクタ生成ステップでは、パーツオブジェクトを別の異なるパーツオブジェクトに置き換えることでパーツオブジェクトの変更を行う。
第8の発明は、第1の発明において、変更キャラクタ生成ステップでは、パーツオブジェクトに所定の加工処理を施すことでパーツオブジェクトの変更を行う。
第9の発明は、第1の発明において、初期候補キャラクタ生成ステップおよび変更キャラクタ生成ステップにおいて変更されるパーツオブジェクトの数には、所定の上限値が設けられる。
第10の発明は、仮想ゲーム空間内に登場するキャラクタオブジェクトを構成する複数の部位毎にパーツオブジェクトを組み合わせてキャラクタオブジェクトを作成するゲーム装置のコンピュータに実行させるゲームプログラムであって、基準キャラクタ生成ステップ(S5,S14)と、候補キャラクタ生成ステップ(S17)と、表示ステップ(S6、S16、S26)と、選択入力受付ステップ(S3)と、変更キャラクタ生成ステップ(S7)と、基準キャラクタ更新ステップ(S5)と、候補キャラクタ更新ステップ(S7)とをコンピュータに実行させる。また、各部位別に複数種類のパーツオブジェクトがグループ化されており、かつグループ内の隣合うパーツオブジェクトは類似している順にメモリ(33)に格納されている。また、基準キャラクタ生成ステップでは、上記各グループから部位別にパーツオブジェクトを読み出して基準キャラクタオブジェクトを生成する。候補キャラクタ生成ステップでは、基準キャラクタオブジェクトで用いられているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトについて、当該パーツオブジェクトに近接するような順番で格納されているパーツオブジェクトを読み出して、少なくとも1つ以上の候補キャラクタオブジェクトを生成する。表示ステップでは、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトを表示装置に表示させる。選択入力受付ステップでは、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトのいずれかを選択するための入力を受け付ける。変更キャラクタ生成ステップでは、選択されたキャラクタオブジェクトで用いられているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトについて、当該パーツオブジェクトに近接するような順番で格納されているパーツオブジェクトを読み出して、少なくとも1つ以上の新たなキャラクタオブジェクトを生成する。基準キャラクタ更新ステップでは、選択されたキャラクタオブジェクトで基準キャラクタオブジェクトを更新する。候補キャラクタ更新ステップでは、変更キャラクタ生成ステップにおいて生成されたキャラクタオブジェクトで候補キャラクタオブジェクトを更新する。
第11の発明は、第10の発明において、候補キャラクタ生成ステップでは、パーツオブジェクト内の基準キャラクタオブジェクトで用いられているパーツオブジェクトの格納位置を中心とする所定の範囲内の格納位置からパーツオブジェクトを読み出す。
第12の発明は、第10の発明において、変更キャラクタ生成ステップにおいては、パーツオブジェクト内の選択されたキャラクタオブジェクトで用いられているパーツオブジェクトの格納位置を中心とする所定の範囲内の格納位置からパーツオブジェクトを読み出す。
第13の発明は、第10の発明において、パーツオブジェクトは、部位毎に1次元配列として格納されている。
第14の発明は、第13の発明において、パーツオブジェクトには、部位毎に1次元配列が複数含まれている。
第15の発明は、第14の発明において、候補キャラクタ生成ステップには、基準キャラクタオブジェクトで用いられているパーツオブジェクトを含む前記1次元配列とは別の1次元配列を所定の確率で選択する系統変更ステップ(S35、S36)が含まれる。更に、候補キャラクタ生成ステップでは、選択後の1次元配列に含まれているパーツオブジェクトを用いて候補キャラクタを生成する。
第16の発明は、第14の発明において、変更キャラクタ生成ステップには、選択されたキャラクタオブジェクトで用いられているパーツオブジェクトを含む1次元配列とは別の1次元配列を所定の確率で選択する系統変更ステップ(S35、S36)が含まれる。更に、変更キャラクタ生成ステップでは、選択後の1次元配列に含まれているパーツオブジェクトを用いて新たなキャラクタオブジェクトを生成する。
第17の発明は、仮想ゲーム空間内に登場するキャラクタオブジェクトを構成するための複数の部位毎のパーツオブジェクトを複数組み合わせてキャラクタオブジェクトを作成するゲーム装置(3)であって、基準キャラクタ生成部(30)と、初期候補キャラクタ生成部(30)と、表示出力部(30、37)と、選択入力受付部(30)と、変更部位判別部(30)と、変更キャラクタ生成部(30)と、基準キャラクタ更新部(30)と、候補キャラクタ更新部(30)とを備える。基準キャラクタ生成部は、各部位ごとに予め記憶されている複数種類のパーツオブジェクトの中から各部位ごとに選ばれた各1つのパーツオブジェクトを組み合わせて基準キャラクタオブジェクトを生成する。初期候補キャラクタ生成部は、基準キャラクタオブジェクトで使用されているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトを変更して少なくとも1つ以上の候補キャラクタオブジェクトを生成する。表示出力部は、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトを表示装置に表示する。選択入力受付部は、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトのいずれかを選択するための入力を受け付ける。変更部位判別部は、選択されたキャラクタオブジェクトと基準キャラクタオブジェクトとの間で異なるパーツオブジェクトが用いられている部位を判別する。変更キャラクタ生成部は、選択されたキャラクタオブジェクトで使用されているパーツオブジェクトのうち、変更部位判別部において判別された部位にかかるパーツオブジェクトを優先して変更することで少なくとも1つ以上の新たなキャラクタオブジェクトを生成する。基準キャラクタ更新部は、選択されたキャラクタオブジェクトを基準キャラクタオブジェクトとして更新する。候補キャラクタ更新部は、変更キャラクタ生成部が生成したキャラクタオブジェクトで候補キャラクタオブジェクトを更新する。
第18の発明は、仮想ゲーム空間内に登場するキャラクタオブジェクトを構成する複数の部位毎にパーツオブジェクトを組み合わせてキャラクタオブジェクトを作成するゲーム装置(3)であって、基準キャラクタ生成部(30)と、候補キャラクタ生成部(30)と、表示出力部(30)と、選択入力受付部(30)と、変更キャラクタ生成部(30)と、基準キャラクタ更新部(30)と、候補キャラクタ更新部(30)とを備える。上記複数種類のパーツオブジェクトは各部位別にグループ化されており、かつグループ内の隣合うパーツオブジェクトは類似している順にメモリ(33)に格納される。基準キャラクタ生成部は、当該各グループから部位別にパーツオブジェクトを読み出して基準キャラクタオブジェクトを生成する。候補キャラクタ生成部は、基準キャラクタオブジェクトで用いられているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトについて、当該パーツオブジェクトに近接するような順番で格納されているパーツオブジェクトを読み出して、少なくとも1つ以上の候補キャラクタオブジェクトを生成する。表示出力部は、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトを表示装置に表示する。選択入力受付部は、基準キャラクタオブジェクトおよび候補キャラクタオブジェクトのいずれかを選択するための入力を受け付ける。変更キャラクタ生成部は、選択されたキャラクタオブジェクトで用いられているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトについて、当該パーツオブジェクトに近接するような順番で格納されているパーツオブジェクトを読み出して、少なくとも1つ以上の新たなキャラクタオブジェクトを生成する。基準キャラクタ更新部は、選択されたキャラクタオブジェクトで基準キャラクタオブジェクトを更新する。候補キャラクタ更新部は、変更キャラクタ生成部が生成したキャラクタオブジェクトで候補キャラクタオブジェクトを更新する。
第1の発明によれば、基準キャラクタオブジェクトと候補キャラクタオブジェクトとで異なるパーツオブジェクトが用いられている部位について、優先的にパーツオブジェクトを変更して候補キャラクタオブジェクトを更新する。つまり、ユーザが変更を希望していると考えられる部位について優先的に変更した候補キャラクタを生成し、ユーザに選択させることができる。また、ユーザは、表示される各オブジェクトから単に選択する操作を繰り返すだけでよいため、自らパーツオブジェクトを一つ一つ選んでオブジェクトを作っていく場合に比べ、キャラクタオブジェクト生成操作についての負担が少なくなる。更に、ユーザに絵心がない場合でも、ユーザが希望するようなキャラクタオブジェクトを生成しやすくすることができる。
第2乃至第4の発明によれば、例えばユーザの性別等をパラメータとして入力させ、当該パラメータに応じて予め決められた組み合わせパターンを用いて基準キャラクタオブジェクトを生成する。そのため、最初からある程度ユーザの希望に沿った基準キャラクタオブジェクトを生成することができる。
第5の発明によれば、基準キャラクタオブジェクトをランダムに生成するため、ユーザが基準キャラクタを選択する際の選択の余地を広くすることが可能となる。
第6の発明によれば、人間の最も特徴的な部分である顔部分のオブジェクトについて、簡単な操作で希望する顔を生成することができる。そのため、ユーザの容姿を反映したキャラクタオブジェクトを作成する際等に、特にユーザの利便性を高めることができる。
第7の発明によれば、パーツオブジェクトを全く別のものに置き換えるため、多彩なパーツオブジェクトをユーザに選択させることができ、ユーザに与える選択の余地を広くすることができる。
第8の発明によれば、パーツオブジェクトそのものを加工するため、パーツオブジェクトを記憶するためのメモリ容量を削減しつつ、多彩なパーツオブジェクトを表示することができる。
第9の発明によれば、変更箇所の数を限ることにより、適度に類似したキャラクタオブジェクトを生成、表示することができる。これにより、ユーザの細かい希望に対応したキャラクタオブジェクトを候補として生成することができ、ユーザによる微調整的な選択を可能とすることができる。
第10の発明によれば、パーツオブジェクトはオブジェクトの類似順にメモリに格納されているため、あるパーツオブジェクトに近接するようなパーツオブジェクトを読み出して候補キャラクタを作成するだけで、類似するキャラクタオブジェクトを生成することができる。つまり、比較的簡単なファイルアクセス処理を行うだけで、類似するキャラクタオブジェクトを生成することができる。
第11乃至12の発明によれば、現在のキャラクタオブジェクトに使われているパーツオブジェクトの格納位置を中心とする近接格納位置からパーツオブジェクトを読み出してキャラクタオブジェクトを生成することができる。そのため、簡単なファイルアクセス処理によって、類似するキャラクタオブジェクトを生成することができる。
第13乃至16の発明によれば、一次元配列に沿って類似度の高いキャラクタを作成できると共に、当該1次元配列そのものを別の配列に変更することができる。これにより、類似度の高いキャラクタを作成していく過程で、突発的に非類似のキャラクタを作成することが可能となり、ゲーム内容に変化をもたせて興趣を高めることが可能となる。
第17の発明によれば、上記第1の発明と同様の効果を得ることができる。
第18の発明によれば、上記第10の発明と同様の効果を得ることができる。
以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例により本発明が限定されるものではない。まず、各実施形態の詳細を説明するに先立ち、各実施形態で共通して使用されるゲーム装置の構成について説明する。以下、説明を具体的にするために、当該ゲーム装置の一例の据置型のゲーム装置を含むゲームシステムについて説明する。なお、図1は、据置型のゲーム装置本体3を含むゲームシステム1の外観図であり、図2はゲーム装置本体3のブロック図である。以下、当該ゲームシステム1について説明する。
図1において、ゲームシステム1は、表示手段の一例の家庭用テレビジョン受像機(以下、モニタと記載する)2と、当該モニタを接続コードを介して接続する据置型のゲーム装置本体3とから構成される。モニタは、ゲーム装置本体3から出力された音声信号を音声出力するためのスピーカ2aを備える。また、ゲーム装置本体3は、本願発明の情報処理プログラムの一例のゲームプログラムを記録した光ディスク4と、当該光ディスク4のゲームプログラムを実行してゲーム画面をモニタに表示出力させるためのコンピュータを搭載したゲーム装置本体3と、ゲーム画面に表示されたキャラクタなどのオブジェクトなどのゲームに必要な操作情報をゲーム装置本体3に与えるためのコントローラ7とを備えている。
また、ゲーム装置本体3は、通信ユニット6を内蔵する。通信ユニット6は、コントローラ7から無線送信されるデータを受信し、ゲーム装置本体3からコントローラ7へデータを送信して、コントローラ7とゲーム装置本体3とは無線通信によって接続する。さらに、ゲーム装置本体3には、当該ゲーム装置本体3に対して交換可能に用いられる情報記憶媒体の一例の光ディスク4が脱着される。ゲーム装置本体3の前部主面には、当該ゲーム装置本体3の電源ON/OFFスイッチ、ゲーム処理のリセットスイッチ、光ディスク4を脱着する投入口、およびゲーム装置本体3の投入口から光ディスク4を取り出すイジェクトスイッチ等が設けられている。
また、ゲーム装置本体3には、セーブデータ等のデータを固定的に記憶するバックアップメモリとして機能するフラッシュメモリ38が搭載される。ゲーム装置本体3は、光ディスク4に記憶されたゲームプログラム等を実行することによって、その結果をゲームオブジェクトとしてモニタ2に表示する。さらに、ゲーム装置本体3は、フラッシュメモリ38に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲームオブジェクトをモニタ2に表示することもできる。そして、ゲーム装置本体3のプレイヤは、モニタ2に表示されたゲームオブジェクトを見ながら、コントローラ7を操作することによって、ゲーム進行を楽しむことができる。
コントローラ7は、通信ユニット6を内蔵するゲーム装置本体3へ、例えばBluetooth(ブルートゥース;登録商標)の技術を用いて操作情報などの送信データを無線送信する。コントローラ7は、主にモニタ2の表示画面に表示されるゲーム空間に登場するプレイヤオブジェクト等を操作したりするための操作手段である。コントローラ7は、片手で把持可能な程度の大きさのハウジングと、当該ハウジングの表面に露出して設けられた複数個の操作ボタン(十字キーやスティック等を含む)が設けられている。また、後述により明らかとなるが、コントローラ7は、当該コントローラ7から見たオブジェクトを撮像する撮像情報演算部74を備えている。また、撮像情報演算部74の撮像対象の一例として、モニタ2の表示画面近傍に2つのLEDモジュール(以下、マーカと記載する)8Lおよび8Rが設置される。これらマーカ8Lおよび8Rは、それぞれモニタ2の前方に向かって例えば赤外光を出力する。また、コントローラ7は、ゲーム装置本体3の通信ユニット6から無線送信された送信データを通信部75で受信して、当該送信データに応じた音や振動を発生させることもできる。
図2において、ゲーム装置本体3は、各種プログラムを実行する例えばCPU(セントラルプロセッシングユニット)30を備える。CPU30は、図示しないブートROMに記憶された起動プログラムを実行し、メインメモリ33等のメモリの初期化等を行った後、光ディスク4に記憶されているゲームプログラムの実行し、そのゲームプログラムに応じたゲーム処理等を行うものである。CPU30には、メモリコントローラ31を介して、GPU(Graphics Processing Unit)32、メインメモリ33、DSP(Digital Signal Processor)34、およびARAM(Audio RAM)35などが接続される。また、メモリコントローラ31には、所定のバスを介して、通信ユニット6、ビデオI/F(インターフェース)37、フラッシュメモリ38、オーディオI/F39、およびディスクI/F41が接続され、それぞれのインターフェースにモニタ2、スピーカ2a、およびディスクドライブ40が接続されている。
GPU32は、CPU30の命令に基づいてオブジェクト処理を行うものであり、例えば、3Dグラフィックスの表示に必要な計算処理を行う半導体チップで構成される。GPU32は、図示しないオブジェクト処理専用のメモリやメインメモリ33の一部の記憶領域を用いてオブジェクト処理を行う。GPU32は、これらを用いてモニタ2に表示すべきゲームオブジェクトデータやムービ映像を生成し、適宜メモリコントローラ31およびビデオI/F37を介してモニタ2に出力する。
メインメモリ33は、CPU30で使用される記憶領域であって、CPU30の処理に必要なゲームプログラム等を適宜記憶する。例えば、メインメモリ33は、CPU30によって光ディスク4から読み出されたゲームプログラムや各種データ等を記憶する。このメインメモリ33に記憶されたゲームプログラムや各種データ等がCPU30によって実行される。
DSP34は、ゲームプログラム実行時にCPU30において生成されるサウンドデータ等を処理するものであり、そのサウンドデータ等を記憶するためのARAM35が接続される。ARAM35は、DSP34が所定の処理(例えば、先読みしておいたゲームプログラムやサウンドデータの記憶)を行う際に用いられる。DSP34は、ARAM35に記憶されたサウンドデータを読み出し、メモリコントローラ31およびオーディオI/F39を介してモニタ2に備えるスピーカ2aに出力させる。
メモリコントローラ31は、データ転送を統括的に制御するものであり、上述した各種I/Fが接続される。通信ユニット6は、上記バスを介して、ゲーム装置本体3と接続される。上述したように通信ユニット6は、コントローラ7からの送信データを受信し、当該送信データをCPU30へ出力する。また、通信ユニット6は、CPU30から出力された送信データをコントローラ7の通信部75へ送信する。ビデオI/F37には、モニタ2が接続される。オーディオI/F39にはモニタ2に内蔵されるスピーカ2aが接続され、DSP34がARAM35から読み出したサウンドデータやディスクドライブ40から直接出力されるサウンドデータをスピーカ2aから出力可能に接続される。ディスクI/F41には、ディスクドライブ40が接続される。ディスクドライブ40は、所定の読み出し位置に配置された光ディスク4に記憶されたデータを読み出し、ゲーム装置本体3のバスやオーディオI/F39に出力する。
図3および図4を参照して、コントローラ7について説明する。なお、図3は、コントローラ7の上面後方から見た斜視図である。図4は、コントローラ7を下面前方から見た斜視図である。
図3および図4において、コントローラ7は、ハウジング71と、当該ハウジング71の表面に設けられた複数個の操作ボタンで構成される操作部72とを備える。本実施例のハウジング71は、その前後方向を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさであり、例えばプラスチック成型によって形成されている。
ハウジング71上面の中央前面側に、十字キー72aが設けられる。この十字キー72aは、十字型の4方向プッシュスイッチであり、4つの方向(前後左右)に対応する操作部分が十字の突出片にそれぞれ90°間隔で配置される。プレイヤが十字キー72aのいずれかの操作部分を押下することによって前後左右いずれかの方向を選択される。例えばプレイヤが十字キー72aを操作することによって、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、複数の選択肢から選択指示したりすることができる。
なお、十字キー72aは、上述したプレイヤの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。例えば、十字方向に4つのプッシュスイッチを配設し、プレイヤによって押下されたプッシュスイッチに応じて操作信号を出力する操作部を設けてもかまわない。さらに、上記4つのプッシュスイッチとは別に、上記十字方向が交わる位置にセンタスイッチを配設し、4つのプッシュスイッチとセンタスイッチとを複合した操作部を設けてもかまわない。また、ハウジング71上面から突出した傾倒可能なスティック(いわゆる、ジョイスティック)を倒すことによって、傾倒方向に応じて操作信号を出力する操作部を上記十字キー72aの代わりに設けてもかまわない。さらに、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力する操作部を、上記十字キー72aの代わりに設けてもかまわない。また、タッチパッドを、上記十字キー72aの代わりに設けてもかまわない。
ハウジング71上面の十字キー72aより後面側に、複数の操作ボタン72b〜72gが設けられる。操作ボタン72b〜72gは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン72b〜72gに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン72b〜72dには、1番ボタン、2番ボタン、およびAボタン等としての機能が割り当てられる。また、操作ボタン72e〜72gには、マイナスボタン、ホームボタン、およびプラスボタン等としての機能が割り当てられる。これら操作ボタン72a〜72gは、ゲーム装置本体3が実行するゲームプログラムに応じてそれぞれの操作機能が割り当てられる。なお、図3に示した配置例では、操作ボタン72b〜72dは、ハウジング71上面の中央前後方向に沿って並設されている。また、操作ボタン72e〜72gは、ハウジング71上面の左右方向に沿って操作ボタン72bおよび72dの間に並設されている。そして、操作ボタン72fは、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。
また、ハウジング71上面の十字キー72aより前面側に、操作ボタン72hが設けられる。操作ボタン72hは、遠隔からゲーム装置本体3本体の電源をオン/オフする電源スイッチである。この操作ボタン72hも、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。
また、ハウジング71上面の操作ボタン72cより後面側に、複数のLED702が設けられる。ここで、コントローラ7は、他のコントローラ7と区別するためにコントローラ種別(番号)が設けられている。例えば、LED702は、コントローラ7に現在設定されている上記コントローラ種別をプレイヤに通知するために用いられる。具体的には、コントローラ7から通信ユニット6へ送信データを送信する際、上記コントローラ種別に応じて複数のLED702のうち、種別に対応するLEDが点灯する。
また、ハウジング71上面には、操作ボタン72bおよび操作ボタン72e〜72gの間に後述するスピーカ(図5のスピーカ706)からの音を外部に放出するための音抜き孔が形成されている。
一方、ハウジング71下面には、凹部が形成されている。後述で明らかとなるが、ハウジング71下面の凹部は、プレイヤがコントローラ7の前面をマーカ8Lおよび8Rに向けて片手で把持したときに、当該プレイヤの人差し指や中指が位置するような位置に形成される。そして、上記凹部の後面側傾斜面には、操作ボタン72iが設けられる。操作ボタン72iは、例えばBボタンとして機能する操作部である。
また、ハウジング71前面には、撮像情報演算部74の一部を構成する撮像素子743が設けられる。ここで、撮像情報演算部74は、コントローラ7が撮像したオブジェクトデータを解析してその中で輝度が高い場所を判別してその場所の重心位置やサイズなどを検出するためのシステムであり、例えば、最大200フレーム/秒程度のサンプリング周期であるため比較的高速なコントローラ7の動きでも追跡して解析することができる。この撮像情報演算部74の詳細な構成については、後述する。また、ハウジング70の後面には、コネクタ73が設けられている。コネクタ73は、例えばエッジコネクタであり、例えば接続ケーブルと嵌合して接続するために利用される。
ここで、以下の説明を具体的にするために、コントローラ7に対して設定する座標系について定義する。図3および図4に示すように、互いに直交するxyz軸をコントローラ7に対して定義する。具体的には、コントローラ7の前後方向となるハウジング71の長手方向をz軸とし、コントローラ7の前面(撮像情報演算部74が設けられている面)方向をz軸正方向とする。また、コントローラ7の上下方向をy軸とし、ハウジング71の下面(操作ボタン72iが設けられた面)方向をy軸正方向とする。さらに、コントローラ7の左右方向をx軸とし、ハウジング71の左側面(図3では表されずに図4で表されている側面)方向をx軸正方向とする。
次に、図5および図6を参照して、コントローラ7の内部構造について説明する。なお、図5は、コントローラ7の上ハウジング(ハウジング71の一部)を外した状態を後面側から見た斜視図である。図6は、コントローラ7の下ハウジング(ハウジング71の一部)を外した状態を前面側から見た斜視図である。ここで、図6に示す基板700は、図5に示す基板700の裏面から見た斜視図となっている。
図5において、ハウジング71の内部には基板700が固設されており、当該基板700の上主面上に操作ボタン72a〜72h、加速度センサ701、LED702、およびアンテナ754等が設けられる。そして、これらは、基板700等に形成された配線(図示せず)によってマイコン751等(図6、図7参照)に接続される。マイコン751は本願発明のボタンデータ発生手段の一例として、操作ボタン72a等の種類に応じた操作ボタンデータを発生させるように機能する。この仕組みは公知技術であるが、例えばキートップ下側に配置されたタクトスイッチなどのスイッチ機構による配線の接触/切断をマイコン751が検出することによって実現されている。より具体的には、操作ボタンが例えば押されると配線が接触して通電するので、この通電がどの操作ボタンにつながっている配線で発生したかをマイコン751が検出し、操作ボタンの種類に応じた信号を発生させている。
また、コントローラ7は、図示しない無線モジュール753(図7参照)およびアンテナ754によって、ワイヤレスコントローラとして機能する。なお、ハウジング71内部には図示しない水晶振動子703が設けられており、後述するマイコン751の基本クロックを生成する。また、基板700の上主面上に、スピーカ706およびアンプ708が設けられる。また、加速度センサ701は、操作ボタン72dの左側の基板700上(つまり、基板700の中央部ではなく周辺部)に設けられる。したがって、加速度センサ701は、コントローラ7の長手方向を軸とした回転に応じて、重力加速度の方向変化に加え、遠心力による成分の含まれる加速度を検出することができるので、所定の演算により、検出される加速度データからコントローラ7の回転を良好な感度でゲーム装置本体3等が判定することができる。
一方、図6において、基板700の下主面上の前端縁に撮像情報演算部74が設けられる。撮像情報演算部74は、コントローラ7の前方から順に赤外線フィルタ741、レンズ742、撮像素子743、およびオブジェクト処理回路744によって構成されており、それぞれ基板700の下主面に取り付けられる。また、基板700の下主面上の後端縁にコネクタ73が取り付けられる。さらに、基板700の下主面上にサウンドIC707およびマイコン751が設けられている。サウンドIC707は、基板700等に形成された配線によってマイコン751およびアンプ708と接続され、ゲーム装置本体3から送信されたサウンドデータに応じてアンプ708を介してスピーカ706に音声信号を出力する。
そして、基板700の下主面上には、バイブレータ704が取り付けられる。バイブレータ704は、例えば振動モータやソレノイドである。バイブレータ704は、基板700等に形成された配線によってマイコン751と接続され、ゲーム装置本体3から送信された振動データに応じてその作動をオン/オフする。バイブレータ704が作動することによってコントローラ7に振動が発生するので、それを把持しているプレイヤの手にその振動が伝達され、いわゆる振動対応ゲームが実現できる。ここで、バイブレータ704は、ハウジング71のやや前方寄りに配置されるため、プレイヤが把持している状態において、ハウジング71が大きく振動することになり、振動を感じやすくなる。
次に、図7を参照して、コントローラ7の内部構成について説明する。なお、図7は、コントローラ7の構成を示すブロック図である。
図7において、コントローラ7は、上述した操作部72、撮像情報演算部74、加速度センサ701、バイブレータ704、スピーカ706、サウンドIC707、およびアンプ708の他に、その内部に通信部75を備えている。
撮像情報演算部74は、赤外線フィルタ741、レンズ742、撮像素子743、およびオブジェクト処理回路744を含んでいる。赤外線フィルタ741は、コントローラ7の前方から入射する光から赤外線のみを通過させる。レンズ742は、赤外線フィルタ741を透過した赤外線を集光して撮像素子743へ出射する。撮像素子743は、例えばCMOSセンサやあるいはCCDのような固体撮像素子であり、レンズ742が集光した赤外線を撮像する。したがって、撮像素子743は、赤外線フィルタ741を通過した赤外線だけを撮像してオブジェクトデータを生成する。撮像素子743で生成されたオブジェクトデータは、オブジェクト処理回路744で処理される。具体的には、オブジェクト処理回路744は、撮像素子743から得られたオブジェクトデータを処理して高輝度部分を検知し、それらの位置座標や面積を検出した結果を示す処理結果データを通信部75へ出力する。なお、これらの撮像情報演算部74は、コントローラ7のハウジング71に固設されており、ハウジング71自体の方向を変えることによってその撮像方向を変更することができる。後述により明らかとなるが、この撮像情報演算部74から出力される処理結果データに基づいて、コントローラ7の位置や動きに応じた信号を得ることができる。
コントローラ7は、3軸(x、y、z軸)の加速度センサ701を備えていることが好ましい。この3軸の加速度センサ701は、3方向、すなわち、上下方向、左右方向、および前後方向で直線加速度を検知する。また、他の実施形態においては、ゲーム処理に用いる制御信号の種類によっては、上下および左右方向(または他の対になった方向)のそれぞれに沿った直線加速度のみを検知する2軸の加速度検出手段を使用してもよい。例えば、この3軸または2軸の加速度センサ701は、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能であるタイプのものでもよい。加速度センサ701は、シリコン微細加工されたMEMS(Micro Electro Mechanical Systems:微小電子機械システム)の技術に基づいた静電容量式(静電容量結合式)であってもよい。しかしながら、既存の加速度検出手段の技術(例えば、圧電方式や圧電抵抗方式)あるいは将来開発される他の適切な技術を用いて3軸または2軸の加速度センサ701が提供されてもよい。
当業者には公知であるように、加速度センサ701に用いられるような加速度検出手段は、加速度センサの持つ各軸に対応する直線に沿った加速度(直線加速度)のみを検知することができる。つまり、加速度センサ701からの直接の出力は、その2軸または3軸のそれぞれに沿った直線加速度(静的または動的)を示す信号である。このため、加速度センサ701は、非直線状(例えば、円弧状)の経路に沿った動き、回転、回転運動、角変位、傾斜、位置、または姿勢等の物理特性を直接検知することはできない。
しかしながら、加速度センサ701から出力される加速度の信号に対して追加の処理を行うことによって、コントローラ7に関するさらなる情報を推測または算出することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、静的な加速度(重力加速度)が検知されると、加速度センサ701からの出力を用いて、傾斜角度と検知された加速度とを用いた演算によって重力ベクトルに対する対象(コントローラ7)の傾きをそれぞれ推測することができる。このように、加速度センサ701をマイコン751(または他のプロセッサ)と組み合わせて用いることによって、コントローラ7の傾き、姿勢または位置を決定することができる。同様に、加速度センサ701を備えるコントローラ7が、例えばユーザの手で動的に加速されてそれぞれ動かされる場合に、加速度センサ701によって生成される加速度信号を処理することによって、コントローラ7のさまざまな動きおよび/または位置をそれぞれ算出または推測することができる。他の実施例では、加速度センサ701は、信号をマイコン751に出力する前に内蔵の加速度検出手段から出力される加速度信号に対して所望の処理を行うための、組込み式の信号処理装置または他の種類の専用の処理装置を備えていてもよい。例えば、組込み式または専用の処理装置は、加速度センサが静的な加速度(例えば、重力加速度)を検出するためのものである場合、検知された加速度信号をそれに相当する傾斜角に変換するものであってもよい。加速度センサ701でそれぞれ検知された加速度を示すデータは通信部75に出力される。
通信部75は、マイクロコンピュータ(Micro Computer:マイコン)751、メモリ752、無線モジュール753、およびアンテナ754を含んでいる。マイコン751は、処理の際にメモリ752を記憶領域として用いながら、送信データを無線送信する無線モジュール753を制御する。また、マイコン751は、アンテナ754を介して無線モジュール753が受信したゲーム装置本体3からのデータに応じて、サウンドIC707およびバイブレータ704の動作を制御する。サウンドIC707は、通信部75を介してゲーム装置本体3から送信されたサウンドデータ等を処理する。また、マイコン751は、通信部75を介してゲーム装置本体3から送信された振動データ(例えば、バイブレータ704をONまたはOFFする信号)等に応じて、バイブレータ704を作動させる。
コントローラ7に設けられた操作部72からの操作信号(キーデータ)、加速度センサ701からの加速度信号(x、y、およびz軸方向加速度データ;以下、単に加速度データと記載する)、および撮像情報演算部74からの処理結果データは、マイコン751に出力される。マイコン751は、入力した各データ(キーデータ、加速度データ、処理結果データ)を通信ユニット6へ送信する送信データとして一時的にメモリ752に格納する。ここで、通信部75から通信ユニット6への無線送信は、所定の周期毎に行われるが、ゲームの処理は1/60秒を単位として行われることが一般的であるので、それよりも短い周期で送信を行うことが必要となる。具体的には、ゲームの処理単位は16.7ms(1/60秒)であり、ブルートゥース(Bluetooth;登録商標)で構成される通信部75の送信間隔は例えば5msである。マイコン751は、通信ユニット6への送信タイミングが到来すると、メモリ752に格納されている送信データを一連の操作情報として出力し、無線モジュール753へ出力する。そして、無線モジュール753は、例えばブルートゥース(登録商標)の技術に基づいて、所定周波数の搬送波を用いて操作情報で変調し、その電波信号をアンテナ754から放射する。つまり、コントローラ7に設けられた操作部72からのキーデータ、加速度センサ701からの加速度データ、および撮像情報演算部74からの処理結果データが無線モジュール753で電波信号に変調されてコントローラ7から送信される。そして、ゲーム装置本体3の通信ユニット6でその電波信号を受信し、ゲーム装置本体3で当該電波信号を復調や復号することによって、一連の操作情報(キーデータ、加速度データ、および処理結果データ)を取得する。そして、ゲーム装置本体3のCPU30は、取得した操作情報とゲームプログラムとに基づいて、ゲーム処理を行う。なお、ブルートゥース(登録商標)の技術を用いて通信部75を構成する場合、通信部75は、他のデバイスから無線送信された送信データを受信する機能も備えることができる。
(第1の実施形態)
次に、図8〜図12を用いて、本実施形態で想定するキャラクタオブジェクト生成処理(以下、単にオブジェクト生成処理と呼ぶ)の概要について説明する。本実施形態では、例えばMMORPG(Massively Multiplayer Online Role Playing Game)等において、ユーザの分身となるユーザキャラクタオブジェクトを生成する際の、特に顔部分のオブジェクトを生成する場合を例にして説明する。なお、顔部分のオブジェクトに限らず、キャラクタオブジェクト全身を生成する場合にも本発明は適用できる。
図8〜図12は、本実施形態で想定するオブジェクト生成処理における画面の一例である。本実施形態では、まず、図8に示すような性別選択画面を表示して、性別をユーザに選ばせる。すると、選ばれた性別に基づいて、ランダムで顔オブジェクトが24個生成される。そして、図9に示すような初期オブジェクト選択画面を表示して、ユーザにいずれかの顔オブジェクトを選択させる。ここでは、ユーザが顔オブジェクト91を選択したとして、説明を続ける(選んだ顔オブジェクトは少し大きく表示されている)。次に、図10に示すようなオブジェクト選択画面が表示される。図10においては、画面の中央部に、3×3のマス目が表示され(以下、マトリクスエリア101と呼ぶ)、中央のマスに、先ほどユーザが選択した顔オブジェクト91が表示される。以下、この中央のマスに表示される顔オブジェクトを、基準オブジェクト102と呼ぶ。そして、その周囲8マスに、当該基準オブジェクト102に似た顔オブジェクトが計8個生成されて、表示される(オブジェクト103〜110)。以下、この周囲8マスに表示される顔オブジェクトを、候補オブジェクトと呼ぶ。また、画面右部には、中央のマスの基準オブジェクト102が表示され、その下には決定ボタン111が表示されている。ユーザが、自分の作りたい顔オブジェクトとして上記基準オブジェクト102で問題がないのであれば、当該決定ボタン111を押すことで、当該基準オブジェクト102が最終的な顔オブジェクトとして確定することになる。
一方、ユーザが、基準オブジェクト102ではまだ満足できない場合は、上記周囲8マスに表示されている候補オブジェクト103〜110の中から何れか一つを選ぶ。ここでは、図11に示すように、候補オブジェクト108を選んだとする。すると、図12に示すように、ユーザが選んだ候補オブジェクト108が基準オブジェクト102として中央のマスに表示される。そして、その周囲8マスには、当該基準オブジェクト102を基準として新たに生成された候補オブジェクトが表示される。ユーザは、当該基準オブジェクト102で満足すれば、決定ボタン111を押して、最終的な顔オブジェクトを確定する。また、この基準オブジェクト102でも満足できない場合は、8つの候補オブジェクトのいずれか一つを選択すれば、上記のように、当該選んだ候補オブジェクトが基準オブジェクトとして、マトリクスエリア101の中央のマスに表示され、その周囲には候補オブジェクトが新たに作成されて表示される。以上のような操作を繰り返すことで、ユーザは、自分のイメージしたオブジェクトを生成していく。
つまり、ユーザは、画面に表示される基準オブジェクトと、この基準オブジェクトに類似する候補オブジェクトから、自分が生成したいオブジェクトに近いと感じるオブジェクトを選ぶ。すると、選ばれた候補オブジェクトを基準にして、当該オブジェクトに類似する候補オブジェクトが新たに作成されて表示される。ユーザは、そこから更に候補オブジェクトを選択する。このような選択操作という半受動的な操作を繰り返すことで、画面に表示される顔オブジェクトが、徐々にユーザの希望している顔オブジェクトに近づいていく。その結果、ユーザは、最終的に、自分の希望する顔オブジェクトを選択することが可能となる。
また、上記候補オブジェクトの生成に関して、本実施形態では、基準オブジェクトと候補オブジェクトとの差異点に着目した処理を行っている。具体的には、例えば、図11の基準オブジェクト102と選択した候補オブジェクト108との間では、眉毛と目のパーツオブジェクトが異なっており、他の部位のパーツオブジェクトは同一であると仮定する。この場合は、ユーザが、眉毛・目という部位について積極的に変更したいと考えているものとして、これらの部位のパーツオブジェクトを優先的に変更した候補オブジェクトを生成するようにしている。これによって、ユーザが希望している顔オブジェクトが表示される確率を高くすることができる。
次に、ゲーム装置本体3によって実行されるオブジェクト生成処理の詳細を説明する。まず、図13〜図18を参照して、オブジェクト生成処理において用いられる主なデータについて説明する。図13は、図2に示したメインメモリ33のメモリマップを示す図解図である。図13において、メインメモリ33は、プログラム記憶領域330およびデータ記憶領域334を含む。
プログラム記憶領域330は、CPU30によって実行されるプログラムを記憶し、このプログラムは、メイン処理プログラム331、候補オブジェクト生成プログラム332、変更パーツ決定プログラム333などによって構成される。メイン処理プログラム331は、後述の図19のフローチャートに対応するプログラムである。候補オブジェクト生成プログラム332は、上記候補オブジェクトを生成するためのプログラムで、図21のフローチャートに対応するプログラムである。また、変更パーツ決定プログラム333は、候補オブジェクト生成の際の変更対象パーツを決めるためのプログラムであり、図22のフローチャートに対応するプログラムである。
データ記憶領域334には、部位データ335、パーツオブジェクトデータ336、相違部位データ337、基準パーツデータ338などのデータが記憶される。その他、画面に表示する各種画面の背景オブジェクト等、本処理に必要なデータも記憶される。
部位データ335は、顔オブジェクトを構成する各部位についてのデータであり、部位3351の集合で構成される。例えば、「目」「鼻」「口」等が部位3351に該当する。
パーツオブジェクトデータ336は、図15を用いて後述するが、パーツオブジェクトのデータが、一意となるパーツ番号を割り振られて格納されている。
相違部位データ337は、基準オブジェクトと、ユーザに選ばれた候補オブジェクトとの間で異なるパーツオブジェクトが使われている部位についての情報が格納される。本実施形態では、基準オブジェクトと各候補オブジェクトとの間で異なる部位の数は、3箇所だけであるとする。
基準パーツデータ338は、上記基準オブジェクト102を構成する各パーツについての情報である。
ここで、上記部位データ335の詳細について説明する。各部位3351は、系統と段階とパーツ番号で構成される。図14は、部位3351のデータ構造の詳細を示す図である。部位3351は、複数の系統3352の集合からなる。また、各系統3352は、段階3353およびパーツ番号3354の集合からなる。また、各系統3352自体も、連番が振られる形で管理される(例えば、系統1、系統2、系統3・・・系統n)。
次に、系統3352、および段階3353について、図16〜図17を用いて説明する。本実施形態において、系統3352とは、顔を構成する部位毎について、その部位のパーツオブジェクトをグループ分けするためのものである。例えば、「目」という部位の場合、「つり目」や「たれ目」等の目の形状に着目して、ある程度似たような形状をまとめて1つの「系統」とする。そして、各系統毎に、オブジェクトが類似する順番で整列されてメインメモリ33に格納される。例えば、「鼻」という部位であれば、小さい鼻から順番に大きい鼻へとなるように格納される。つまり、大きさが類似する順番でメインメモリ33に格納されることになる。
各系統3352には、段階3353およびパーツ番号3354が含まれる。段階3353は、各系統毎に格納されたパーツ番号3354の順番を示すものである。換言すれば、各系統において格納されている各パーツ番号3354の格納位置を示すものである。パーツ番号3354は、パーツオブジェクトを特定するためのIDである。図16は、各部位毎の系統および段階の数の一例を示す図である。図16では、例えば、「目」であれば、系統は9つあり、各系統毎に、4〜6の段階数を有している。また、図17は、系統、段階およびパーツ番号の関係の一例を示す図である。つまり、各部位毎に、系統3352と段階3353の組み合わせによって、パーツ番号3354が特定される。
図18は、「目」という部位についての系統と段階の関係の一例を示す図である。なお、図18では、説明をわかりやすくするため、各系統3352・段階3353の組み合わせに対応するパーツ番号3354の代わりに、具体的なパーツオブジェクトの例を記している。ここで、各系統毎に格納される段階に対応する上記各パーツについては、例えば、「つり目」の場合は、上述のように、その目の形状や目の色等が似ている順番で、段階数の昇順に沿って格納されている。つまり、図18の場合であれば、左から右に向かって、似ている順番で格納されている。例えば、段階1の目と段階2の目は、その形状や色が非常に似ている関係にある。しかし、段階1と段階5の目では、同じ「つり目」系統ではあるが、段階1と段階2との関係ほど類似はしていない関係にある。また、類似の順番については、目の形状など、実際のパーツオブジェクトの外観を基準にして判断している。そのため、図17に示すように、パーツ番号の順番とパーツオブジェクトの類似度は一致するものではなく、必ずしもパーツ番号順に並んで格納されるものではない。
ここで、図17、図18に記されている「特殊系統」について説明する。これは、上記いずれの系統にも属さない、極めて個性的・特徴的なパーツオブジェクトが属する系統である。そして、この系統の各オブジェクトは、その形状等が特徴的であるがゆえに、各オブジェクト間の類似度が低いものとなっている。そのため、上記の各系統とは異なり、必ずしも類似順に整列されて格納されていない。
次に、図15を用いて、上記パーツオブジェクトデータ336の詳細について説明する。パーツオブジェクトデータ336は、パーツ番号3354と、モデルデータ3362とテクスチャデータ3363と、属性情報3364の集合からなる。パーツ番号3354は、上記系統3352に含まれるパーツ番号3354と同じものである。すなわち、上記各部位と、そこに表示されるパーツオブジェクトとを関連づけるためのIDとなる。モデルデータ3362は、当該パーツオブジェクトのポリゴンモデルのデータであり、テクスチャデータ3363は、当該ポリゴンモデルに貼り付けられるテクスチャのデータである。換言すれば、画面に表示される1つのパーツオブジェクトはポリゴンモデルとそれに貼り付けられたテクスチャとから構成されている。属性情報3364は、各パーツオブジェクトの属性を示すための情報である。例えば、男性用のパーツであるか女性用のパーツであるかの情報等が属性情報3364として格納される。
次に、図19〜図22を参照して、ゲーム装置本体3によって実行されるオブジェクト生成処理について説明する。ゲーム装置本体3の電源が投入されると、ゲーム装置本体3のCPU30は、図示しないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ33等の各ユニットが初期化される。そして、光ディスク4に記憶された各プログラムがメインメモリ33に読み込まれ、CPU30によって当該プログラムの実行が開始される。図19〜図22に示すフローチャートは、以上の処理が完了した後に行われるオブジェクト生成処理を示すフローチャートである。
図19において、まず、CPU30は、初期設定処理を行う(ステップS1)。図20は、当該ステップS1で示した初期設定処理の詳細を示すフローチャートである。図20において、まず、CPU30は、図8で示したような性別選択画面を表示する(ステップS11)。そして、CPU30は、ユーザからの性別選択入力を待つ(ステップS12)。すなわち、ユーザからの入力があるまで性別選択画面の表示を、例えば1フレーム毎に繰り返す(ステップS12でNO)。そして、ユーザからの入力があれば(ステップS12でYES)、処理を次に進める。
次に、CPU30は、ユーザによって選択された性別が男であるか女であるかについての情報を性別情報としてメインメモリ33に記憶する(ステップS13)。続いて、CPU30は、パーツオブジェクトデータ336から、上記性別情報に基づいて、各部位毎にランダムにパーツオブジェクトを読み出す。例えば、選択された性別が男性の場合は、上記属性情報3364を参照しながら、男性用のパーツの中からランダムにパーツオブジェクト(モデルデータ3362とテクスチャデータ3363とのセット)を選択して読み出す。そして、CPU30は、当該読み出したパーツオブジェクトを組み合わせて顔オブジェクトを計24枚生成する。そして、図9に示したように、当該顔オブジェクトをマトリクス状にして表示する(ステップS14)。そして、CPU30は、ユーザからの選択入力を待つ(ステップS15)。ユーザからの選択入力があれば(ステップS15でYES)、処理を次に進める。
次に、CPU30は、図10に示したオブジェクト選択画面を表示するための処理を行う。まず、ステップS15でユーザに選択された顔オブジェクトを基準オブジェクトとして設定し、上記マトリクスエリア101の中央のマスに描画する(ステップS16)。このとき、当該基準オブジェクトを構成する各パーツ番号をその部位と対応づけて、基準パーツデータ338に格納しておく。
次に、候補オブジェクトを生成して、上記マトリクスエリア101の外周8マスに描画するために、後述する候補オブジェクト生成処理を行う(ステップS17)。以上で、初期設定処理が終了する。初期設定処理が終了すると、図10に示したような画面が表示されることになる。
図19に戻り、ステップS1にかかる初期設定処理が終われば、次に、CPU30は、最終決定の入力があったか否かを判定する(ステップS2)。つまり、図10の画面において、決定ボタン111が押されたか否かを判定する。当該判定の結果、最終決定の入力がまだであれば(ステップS2でNO)、次に、CPU30は、いずれかの候補オブジェクトの選択入力が行われたか否かを判定する(ステップS3)。その結果、候補オブジェクトの選択入力が行われていないときは、ステップS2に戻って、処理を繰り返す。
一方、候補オブジェクトの選択入力が行われたときは、図11に示すような、選択された候補オブジェクトと基準オブジェクトとの間で、両オブジェクトを構成するパーツオブジェクトが異なる部位(以下、相違部位と呼ぶ)を検出する。これは、例えば、部位毎にパーツ番号3361を比較することによって行われる。また、上述したように、本実施形態ではオブジェクトが異なる部位は3カ所までであるため、計3カ所の相違部位が検出されることになる。そして、当該相違部位の情報を、相違部位データ337に格納する(ステップS4)。
次に、選択された候補オブジェクトを構成する各パーツオブジェクトに対応するパーツ番号3361を基準パーツデータ338に格納する(ステップS5)。すなわち、候補オブジェクトを新たな基準オブジェクトとして設定することになる。
次に、選択された候補オブジェクト(つまり、新たな基準オブジェクト)を、上記マトリクスエリア101の中心マスに描画する(ステップS6)。
次に、CPU30は、上記マトリクスエリア101の外周8マスに表示する候補オブジェクトを生成するために、候補オブジェクト生成処理を行う(ステップS7)。当該処理の詳細は後述するが、当該処理は、図20のステップS17にかかる候補オブジェクト生成処理と同じである。この処理の結果、図12に示したような画面が表示されることになる。そして、CPU30は、ステップS2に戻って処理を繰り返す。
一方、ステップS2の判定の結果、最終決定の入力があれば(ステップS2でYES)、上記基準パーツデータ338を参照し、基準オブジェクトを構成しているパーツ(基準パーツ)を用いて、最終的な顔オブジェクトを設定する(ステップS8)。以上で、図19にかかるメイン処理は終了する。
次に、上記ステップS7やS17で示した候補オブジェクト生成処理について説明する。図21は、上記候補オブジェクト生成処理の詳細を示すフローチャートである。本処理では、上記ユーザに選択された顔オブジェクト(基準オブジェクト)を基にして、当該基準オブジェクトに似た顔オブジェクト(候補オブジェクト)を計8つ作成する処理が行われる。上述のように、本実施形態では、基準オブジェクトと各候補オブジェクトとの間の相違部位の数は3カ所である。そのため、候補オブジェクトの作成については、基準オブジェクトを構成する各パーツオブジェクトのうち、3カ所だけ変更したものを1つの候補オブジェクトとして、計8つ生成することになる。
図21において、まず、CPU30は、候補オブジェクトの作成個数をカウントするための変数である候補オブジェクト作成カウンタに0を設定する(ステップS21)。
次に、CPU30は、当該候補オブジェクト作成カウンタが8未満であるか否かを判定する(ステップS22)。つまり、候補オブジェクトを8つ生成したか否かを判定する。
次に、CPU30は、パーツ変更カウンタに0を設定する(ステップS23)。当該パーツ変更カウンタは、後述の変更パーツ決定処理(ステップS25)によって、候補オブジェクト生成における変更対象パーツとして決定されたパーツの数(つまり、変更する部位の数)をカウントするための変数である。
次に、CPU30は、当該パーツ変更カウンタが3未満であるか否かを判定する(ステップS24)。つまり、3カ所の変更対象とする部位(以下、変更対象部位)が決まったか否かを判定する。当該判定の結果、パーツ変更カウンタが3未満であれば(ステップS24でYES)、変更対象部位にかかるパーツオブジェクトを決めるための、後述の変更パーツ決定処理を行う(ステップS25)。
一方、パーツ変更カウンタが3以上であれば(ステップS24でNO)、変更対象部位が3カ所決まったことになるため、当該変更を反映した候補オブジェクトを1つ作成する(ステップS26)。より具体的には、変更パーツ決定処理において決定された変更対象部位については、当該変更パーツ決定処理で決定された変更後のパーツ番号3354に基づいてパーツオブジェクトを読み出す。上記3カ所の変更対象部位以外の部位については、基準オブジェクトと同じパーツオブジェクトを用いて、候補オブジェクトを生成する。つまり、基準オブジェクトと比べて3カ所だけパーツオブジェクトが異なっている候補オブジェクトが生成されることになる。そして、当該候補オブジェクトを、上記マトリクスエリア101の中心マス以外のマスのいずれかに描画する。
次に、CPU30は、候補オブジェクト作成カウンタに1を加算し(ステップS27)、ステップS22の処理に戻る。そして、ステップS22の判定において、候補オブジェクト作成カウンタが8以上になれば(ステップS22でNO)、候補オブジェクト生成処理が終了する。このような処理を行うことにより、図10や図12に示した選択画面における8つの候補オブジェクトが生成・描画されることになる。
次に、上記ステップS25で示した変更パーツ決定処理について説明する。図22は、上記ステップS25で示した変更パーツ決定処理の詳細を示すフローチャートである。この処理では、上記基準オブジェクトを構成する各パーツのうち、3カ所の変更対象部位にかかる変更後のパーツ番号3354(つまり、パーツオブジェクト)を決めるための処理が行われる。その処理概要としては、まず、上記変更対象部位を決定する。そして、当該部位の系統3352を変更するか否かを決定し、最後に、変更する段階数を決定する。
図22において、まず、CPU30は、パーツ変更カウンタが0か否かを判定する(ステップS31)。つまり、少なくとも1カ所、変更対象部位が既に決まっているか否かを判定する。換言すれば、候補オブジェクトを1つ生成するに際して、当該変更パーツ決定処理が3回実行されるところ(変更する部位は3カ所であるため)、その最初にかかる変更パーツ決定処理であるかどうかを判定する。当該判定の結果、0であるとき、つまり、1度目の変更パーツ決定処理となる場合は(ステップS31でYES)、続いてCPU30は、相違部位データ337を参照して、基準オブジェクトと候補オブジェクトとの間でパーツオブジェクトが異なっている部位(上記3カ所の相違部位)があるか否かを判定する(ステップS32)。その結果、相違部位があれば(ステップS32でYES)、当該相違部位の3カ所の中から、変更対象部位を1カ所だけ、ランダムで選択する(ステップS33)。例えば、候補オブジェクトの部位のうち、「目」「鼻」「口」の3カ所の部位が基準オブジェクトに対して異なっていた場合は、当該「目」「鼻」「口」のいずれか1カ所をランダムで変更対象部位として選択することになる。換言すれば、候補オブジェクトを1枚作成するときの、1度目のループにかかる変更パーツ決定処理においては、選択された候補オブジェクトと基準オブジェクトとの相違部位の中から変更対象部位を選択する。これはつまり、ユーザが変更したいと考えている部位について、優先的に変更対象とするための処理である。
一方、ステップS31の判定の結果、パーツ変更カウンタが0ではないとき(ステップS31でNO)、つまり2度目以降のループにかかる変更パーツ決定処理のときは、まだ変更対象部位として選択されていない部位の中から、変更対象部位をランダムで選択する(ステップS39)。例えば、上記1度目のループにかかる変更パーツ決定処理において「目」が変更対象部位として選択されていれば、「目」以外の部位(上記「鼻」や「口」も含む)の中から、変更対象部位をランダムで選択する。更に、2度目のループにおいて、例えば「眉毛」が選択されたとすれば、3度目のループにおいては、「目」「眉毛」以外の部位から変更対象部位をランダムで選択することになる。
また、上記ステップS32の判定の結果、上記相違部位がない場合も、上記ステップS39の処理が行われる。これは、初期設定処理(図19のステップS1)における候補オブジェクト作成処理(つまり、一番最初に表示される候補オブジェクトを作成するとき)や、初期設定処理以降の処理において、基準オブジェクトが選択された場合が該当する。
ここで、上記ステップS39の処理について、補足説明する。上述のように、このステップでは未変更の部位から変更対象部位をランダムで選択するが、このとき、上記性別情報も考慮される。例えば、「ひげ」は男性限定の部位として、上記性別情報が「女性」の場合は、選択されることはない。
上記ステップS33またはS39で、変更対象部位が決まれば、次に、CPU30は、当該変更対象部位のパーツオブジェクト(に対応するパーツ番号3354)が属している系統3352を変更するか否かをランダムで決定する(ステップS34)。例えば、図17を例にすると、現在、系統3の段階4にかかるパーツオブジェクトが用いられているときは、この系統3を別の系統に変更するか否かをランダムで決定する。なお、このステップにおいて、系統が変更されると決定される確率は低めに設定することが好ましい。また、例外的に、図17で示されている特殊系統に関して、変更対象部位のパーツオブジェクトが特殊系統であった場合は、必ず系統を変更するようにすることが好ましい。
次に、ステップS34の処理の結果として、系統3352を変更することになったか否かを判定する(ステップS35)。当該判定の結果、系統3352を変更するときは(ステップS35でYES)、基準オブジェクト102の各部位のうち、ステップS33または39で選択された変更対象部位の系統3352を変更する。このステップS36の処理を、上述の説明で用いた図17を用いてより具体的に説明する。ここでは、現在の基準オブジェクトの部位「目」について、図17の系統5の段階3にかかるパーツオブジェクトが設定されているものと仮定する。この場合、まず、乱数を用いた演算の結果、結果値が0か1になるような式を用いて、結果を算出する。そして、0が出た場合は、系統の番号を1減算する。つまり、系統5の場合は、系統4に変更することになる。逆に、1が出た場合は、系統の番号を1加算する。系統5の場合は系統6に変更する。このようにして、本ステップにおいて、系統が変更されることになる。
図22に戻り、一方、上記ステップS35の判定の結果、系統3352の変更を行わないときは(ステップS35でNO)、CPU30は、ステップS36の処理は行わずに、そのまま処理をステップS37へと進める。
次に、CPU30は、変更対象部位に係るパーツオブジェクトを変更するために、段階3353の変更を行う(ステップS37)。このステップS37の処理を、図17を用いてより具体的に説明すると、まず、上記ステップS35で系統の変更が行われていないときは、現在の段階の番号に対してプラスマイナス2の範囲で段階が変更される。但し、現在の段階は再度選ばれない。図17を例に取ると、まず、現在の段階が段階3であると仮定すれば、段階1、段階2、段階4、段階5の4つの中からランダムで選ばれることになる。例えば、0〜3の数値を乱数を用いて決定するような式を使い、0が出れば段階1、1が出れば段階2、2が出れば段階4、3が出れば段階5が選ばれるようにする。上述したように、パーツ番号3361はパーツオブジェクトの類似順となるように格納されている。そのため、上述のように現在の段階に近接するような段階を選ぶことで、現在のパーツオブジェクトに似ているパーツオブジェクトを選択することが可能となる。
一方、上記ステップS36で系統3352の変更が行われた場合は、変更後の系統3352が有する全ての段階3353の中からランダムで選ぶ。例えば、図17の系統6の場合であれば、段階が7まであるため、段階1〜段階7の中からランダムで一つ選ぶことになる。
段階3353の変更が終われば、次にCPU30は、パーツ変更カウンタに1を加算する(ステップS38)。また、上記変更後の系統3352や段階3353から導出されるパーツ番号3354もメインメモリ33に格納しておく。以上で、変更パーツ決定処理が終了する。この処理によって、候補オブジェクトを生成する際に変更すべき部位と、変更後のパーツオブジェクトを示すパーツ番号3354を決定することができる。
以上で、第1の実施形態にかかるオブジェクト生成処理は終了する。
このように、第1の実施形態では、基準オブジェクトと候補オブジェクトとで異なるパーツオブジェクトが用いられている部位については、少なくとも1つの部位は必ずパーツオブジェクトを変更することにより、ユーザが変更を希望していると考えられる部位について優先的に変更することができ、ユーザが希望するような候補オブジェクトをより生成しやすくすることができる。また、ユーザは、オブジェクト生成操作としては、表示される各オブジェクトから単に選択する操作を繰り返すだけでよいため、自らパーツオブジェクトを一つ一つ選んでオブジェクトを作っていく場合に比べ、オブジェクト生成操作についての負担が少なくなる。更に、ユーザに絵心がない場合でも、ユーザが希望するようなオブジェクトを生成しやすくすることができる。
また、パーツオブジェクトデータについても、図18に示したように、当該オブジェクトの類似順に並べてメインメモリ格納されているので、現在表示されているパーツオブジェクトの格納位置に近接するような格納位置のオブジェクトを読み出すだけで、類似度の高いパーツオブジェクトを表示することができる。
なお、上記ステップS39の変更対象部位の選択において、顔オブジェクトを構成する部位のうち一部の特徴的な部位については、変更対象として選択される確率を高くしてもよい。例えば、「メガネ」や「ひげ」等、顔オブジェクトの構成の中でも、より特徴的・個性的と考えられる部位については、上記ステップS39において、選択される確率を高くしてもよい。これは、このような部位は、キャラクタの特徴をより表現しやすい部位であると考えられるため、ユーザは、他の部位に比べてこれらの部位の変更を望むものと考えられるからである。これにより、ユーザの利便性を高めつつ、ユーザの望むオブジェクトを生成しやすくすることができる。
また、上記変更パーツ決定処理におけるステップS31〜S33の処理では、3カ所の上記相違部位の中から、変更対象部位を1カ所だけ、ランダムで選択していた。これに限らず、相違部位3カ所の中から2カ所、あるいは3カ所全てを選択するようにしてもよい。これにより、ユーザが変更を希望していると考えられる部位について更に優先的に変更することができる。
また、部位毎にパーツオブジェクトが変更された回数を累積しておき、所定の回数以上変更された部位については、当該部位に係るパーツオブジェクトのみを、例えば別ウィンドウ等で別途表示するようにしても良い。この際、当該表示されるパーツオブジェクトは、そのときの基準オブジェクトに表示されている変更対象部位のパーツオブジェクトに対応する段階を中心とした所定範囲内の段階のオブジェクトのみ(つまり、現在のパーツオブジェクトとの類似度が高いものだけ)を表示するようにしてもよい。これにより、変更回数が多い部位については、より優先的に、ユーザの望むパーツオブジェクトを選択させやすくすることができる。
また、上記本実施形態の概要説明においても述べたが、本発明は、顔オブジェクトだけに限らず、胸部オブジェクトや腹部オブジェクトや腕オブジェクトや脚オブジェクト等の、キャラクタオブジェクト全身を構成するオブジェクトを対象として適用できることはいうまでもない。例えば、腕オブジェクトの場合は、腕の太さや、肘パッド、腕輪、手袋等のアクセサリを上記顔オブジェクトにおける輪郭、目、鼻、口等と同様に扱えばよい。
(第2の実施形態)
次に、図23から図24を参照して、本発明の第2の実施形態について説明する。上述の第1の実施形態では、「系統」や「段階」を変更して別のパーツオブジェクトに差し替えることでパーツオブジェクトの変更を行っていた。これに対して、第2の実施形態では、上記系統や段階の変更に加え、そのときのパーツオブジェクトそのものに対して所定の加工を行うことでパーツオブジェクトの変更を行う。この加工の内容としては、例えば、拡大縮小や、パーツオブジェクトの表示位置の上下・左右移動、パーツオブジェクトの回転や色の変更などがある。そして、これらの変更内容の可否を各部位毎に定義したテーブルを作成しておき、メインメモリ33に格納しておく。以下、このテーブルを、変更内容テーブル339と呼ぶ。
図23は、上記変更内容テーブル339の一例を示す図である。図23では、縦方向に部位を列挙し、横方向に変更内容を列挙している。ここで、「形状」の変更とは、上記第1の実施形態で説明したように上記系統や段階を変更して、別のパーツオブジェクトに差し替えることを示す。図23においては、例えば、「輪郭」という部位は、形状の変更と色の変更は可能であるが、その他の要素については変更はできないことが示されている。また、「目」については、いずれの変更内容も可能であるが、「鼻」については、形状の変更、拡大縮小、上下移動のみが可能であることが示されている。そして、第2の実施形態では、この変更内容テーブル339を用いて変更パーツ決定処理が行われる。
以下、第1の実施形態の説明で用いた図19と、図24とを用いて、本発明の第2の実施形態にかかるオブジェクト生成処理を説明する。第2の実施形態においては、図19のメイン処理のフローチャートにおけるステップS4およびS5の処理と、図22の変更パーツ決定処理以外の処理については、第1の実施形態と同様であるため、詳細な説明を省略する。
第2の実施形態では、図19のメイン処理のステップS4において、基準オブジェクトと選択された候補オブジェクトとの差異を検出する際に、形状以外についても相違があるか否かも判断される。つまり、基準オブジェクトと候補オブジェクトとでパーツ番号3354が同じである部位であっても、一方のオブジェクトに拡大縮小などの加工が施されていれば、当該部位には相違があるものとして、相違部位データ337に当該部位の情報と、その変更内容(「形状」の変更か、「拡大縮小」か、等の情報)が格納される。また、続くステップS5において、基準パーツデータ338に格納される情報としては、選択した候補オブジェクトのパーツ番号3354等に加え、上記「拡大縮小」や「回転」等の変更内容についての情報(拡大縮小率や回転角度等)も格納される。
図24は、第2の実施形態にかかる変更パーツ決定処理を示すフローチャートである。図24に示すフローチャートでは、ステップS41〜S43の処理以外の処理については、第1の実施形態の説明において図22で示したフローチャートと同様の処理が行われる。そのため、当該ステップS41〜43以外については詳細な説明は省略する。
図24において、ステップS33またはS39における変更対象部位の決定後、CPU30は、変更内容テーブルを参照して、変更する内容をランダムで決定する(ステップS41)。より具体的には、各部位において変更可能な内容を上記変更対象テーブルを参照して判別する。そして、変更可能である変更内容の中から、ランダムで変更内容を決定する。例えば、変更対象部位が「口」であるときは、「形状」「拡大縮小」「上下移動」「色」の4つの中からランダムで変更内容を決定する。
次に、ステップS41で決定された変更内容が「形状」についての変更であるか否かを判定する(ステップS42)。当該判定の結果、「形状」について変更するときは(ステップS42でYES)、CPU30は、処理をステップS37へ進め、第1の実施形態で上述したような、「系統」や「段階」の変更を行う。ステップS37以降の処理は、上述の第1の実施形態と同様であるので、詳細な説明は省略する。
一方、ステップS42の判定の結果、変更内容が「形状」以外についてのものであれば(ステップS42でNO)、CPU30は、ステップS41で決定された変更内容に基づいて、基準オブジェクトの上記変更対象部位にかかるパーツオブジェクトを加工する(ステップS43)。例えば、変更内容が「拡大縮小」であれば、所定の倍率でパーツオブジェクトの拡大あるいは縮小処理を行う。変更内容が「上下移動」であれば、パーツオブジェクトの表示位置を所定の距離だけ移動させる。変更内容が「色」であれば、パーツオブジェクトの色を所定の色に変更する。そして、CPU30は、処理をステップS38に進める。
以上で、第2の実施形態にかかる変更パーツ決定処理は終了する。この後、図21で示した候補オブジェクト作成処理におけるステップS26で、上記変更内容として設定された内容に基づいて候補オブジェクトが作成されることになる。
このように、第2の実施形態では、現在のパーツオブジェクトを別のオブジェクトに変更するだけでなく、現在のパーツオブジェクト自体を加工して、候補オブジェクトを作成する。そのため、より基準オブジェクトに類似する候補オブジェクトを作成することができ、ユーザが希望するオブジェクトを選びやすくすることが可能となる。また、オブジェクトデータそのものを加工するため、別のオブジェクトデータを別途準備する必要もなく、メモリに格納すべきオブジェクトデータの記憶容量を削減することもできる。
なお、上記第2の実施形態では、変更内容の決定について、変更対象部位の決定後(ステップS33または、S39)、その変更内容を決定する(ステップS41)というように2段階の決定処理を行っていた。これに限らず、ステップS41の処理をステップS33、S39に含めるようにして、決定処理は1度だけですませるようにしても良い。例えば、上記ステップS33またはS39の処理において、「口の形状」「口の拡大縮小」「鼻の形状」「鼻の上下移動」等のように、変更対象部位と変更する内容とをまとめて1度の処理で決定するようにしてもよい。
本発明にかかるゲームプログラムおよびゲーム装置は、手軽な操作でユーザが希望するキャラクタオブジェクトを生成することができ、アバターのようなユーザの容姿を反映したキャラクタオブジェクト等を生成して楽しむネットワークコミュニケーションゲームやMMORPG等の他、各種オブジェクトの生成処理等の用途に有用である。
本発明の一実施形態に係るゲームシステム1を説明するための外観図 図1のゲーム装置本体3の機能ブロック図 図1のコントローラ7の上面後方から見た斜視図 図3のコントローラ7を下面前方から見た斜視図 図3のコントローラ7の上ハウジングを外した状態を示す斜視図 図3のコントローラ7の下ハウジングを外した状態を示す斜視図 図3のコントローラ7の構成を示すブロック図 本実施形態で想定するゲーム画面の一例 本実施形態で想定するゲーム画面の一例 本実施形態で想定するゲーム画面の一例 本実施形態で想定するゲーム画面の一例 本実施形態で想定するゲーム画面の一例 メインメモリ33のメモリマップを示す図解図 部位3351のデータ構造を示す図 パーツオブジェクトデータ336のデータ構造を示す図 各部位毎の系統および段階の数の一例を示す図 系統、段階およびパーツ番号の関係の一例を示す図 「目」についての系統と段階の関係の一例を示す図 本発明の実施形態に係るゲーム処理を示すフローチャート 図19のステップS1で示した初期設定処理の詳細を示したフローチャート 図20のステップS17等で示した候補オブジェクト生成処理の詳細を示したフローチャート 図21のステップS25で示した変更パーツ決定処理の詳細を示したフローチャート 変更内容テーブル339の一例を示す図 第2の実施形態にかかる変更パーツ決定処理の詳細を示すフローチャート
符号の説明
1…ゲームシステム
2…モニタ
2a、706…スピーカ
3…ゲーム装置本体
30…CPU
31…メモリコントローラ
32…GPU
33…メインメモリ
34…DSP
35…ARAM
37…ビデオI/F
38…フラッシュメモリ
39…オーディオI/F
40…ディスクドライブ
41…ディスクI/F
4…光ディスク
6…通信ユニット
7…コントローラ
71…ハウジング
72…操作部
73…コネクタ
74…撮像情報演算部
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…オブジェクト処理回路
75…通信部
751…マイコン
752…メモリ
753…無線モジュール
754…アンテナ
700…基板
701…加速度センサ
702…LED
703…水晶振動子
704…バイブレータ
707…サウンドIC
708…アンプ

Claims (18)

  1. 仮想ゲーム空間内に登場するキャラクタオブジェクトを構成するための複数の部位毎のパーツオブジェクトを複数組み合わせてキャラクタオブジェクトを作成するゲーム装置のコンピュータに実行させるゲームプログラムであって、
    各部位ごとに予め記憶されている複数種類のパーツオブジェクトの中から各部位ごとに選ばれた各1つのパーツオブジェクトを組み合わせて基準キャラクタオブジェクトを生成する基準キャラクタ生成ステップと、
    前記基準キャラクタオブジェクトで使用されているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトを変更して少なくとも1つ以上の候補キャラクタオブジェクトを生成する初期候補キャラクタ生成ステップと、
    前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトを表示装置に表示させる表示ステップと、
    前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトのいずれかを選択するための入力を受け付ける選択入力受付ステップと、
    前記選択されたキャラクタオブジェクトと前記基準キャラクタオブジェクトとの間で異なるパーツオブジェクトが用いられている部位を判別する変更部位判別ステップと、
    前記選択されたキャラクタオブジェクトで使用されているパーツオブジェクトのうち、前記変更部位判別ステップにおいて判別された部位にかかるパーツオブジェクトを優先して変更することで少なくとも1つ以上の新たなキャラクタオブジェクトを生成する変更キャラクタ生成ステップと、
    前記選択されたキャラクタオブジェクトを基準キャラクタオブジェクトとして更新する基準キャラクタ更新ステップと、
    前記変更キャラクタ生成ステップにおいて生成されたキャラクタオブジェクトで前記候補キャラクタオブジェクトを更新する候補キャラクタ更新ステップとを前記コンピュータに実行させる、ゲームプログラム。
  2. 前記基準キャラクタ生成ステップにおいては、前記複数のパーツオブジェクトの予め定められた所定の組み合わせに基づいて前記基準キャラクタオブジェクトを生成する、請求項1に記載のゲームプログラム。
  3. 前記基準キャラクタ生成ステップは、
    ユーザに関する所定のパラメータの入力を受け付けるパラメータ入力受付ステップを含み、
    前記パラメータに応じて予め定められた組み合わせパターンに基づいて前記基準キャラクタオブジェクトを生成する、請求項2に記載のゲームプログラム。
  4. 前記パラメータとは、ユーザの性別情報である、請求項3に記載のゲームプログラム。
  5. 前記基準キャラクタ生成ステップにおいては、前記複数のパーツオブジェクトをランダムに組み合わせて前記基準キャラクタオブジェクトを生成する、請求項1に記載のゲームプログラム。
  6. 前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトは、前記キャラクタオブジェクトの顔のオブジェクトである、請求項1に記載のゲームプログラム。
  7. 前記変更キャラクタ生成ステップにおいては、前記パーツオブジェクトを別の異なるパーツオブジェクトに置き換えることでパーツオブジェクトの変更を行う、請求項1に記載のゲームプログラム。
  8. 前記変更キャラクタ生成ステップにおいては、前記パーツオブジェクトに所定の加工処理を施すことでパーツオブジェクトの変更を行う、請求項1に記載のゲームプログラム。
  9. 前記初期候補キャラクタ生成ステップおよび変更キャラクタ生成ステップにおいて変更されるパーツオブジェクトの数には、所定の上限値が設けられる、請求項1に記載のゲームプログラム。
  10. 仮想ゲーム空間内に登場するキャラクタオブジェクトを構成する複数の部位毎にパーツオブジェクトを組み合わせてキャラクタオブジェクトを作成するゲーム装置のコンピュータに実行させるゲームプログラムであって、
    各部位別に複数種類の前記パーツオブジェクトがグループ化されており、かつグループ内の隣合うパーツオブジェクトは類似している順にメモリに格納され、当該各グループから部位別にパーツオブジェクトを読み出して基準キャラクタオブジェクトを生成する基準キャラクタ生成ステップと、
    前記基準キャラクタオブジェクトで用いられているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトについて、当該パーツオブジェクトに近接するような順番で格納されているパーツオブジェクトを読み出して、少なくとも1つ以上の候補キャラクタオブジェクトを生成する候補キャラクタ生成ステップと、
    前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトを表示装置に表示させる表示ステップと、
    前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトのいずれかを選択するための入力を受け付ける選択入力受付ステップと、
    前記選択されたキャラクタオブジェクトで用いられているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトについて、当該パーツオブジェクトに近接するような順番で格納されているパーツオブジェクトを読み出して、少なくとも1つ以上の新たなキャラクタオブジェクトを生成する変更キャラクタ生成ステップと、
    前記選択されたキャラクタオブジェクトで基準キャラクタオブジェクトを更新する基準キャラクタ更新ステップと、
    前記変更キャラクタ生成ステップにおいて生成されたキャラクタオブジェクトで前記候補キャラクタオブジェクトを更新する候補キャラクタ更新ステップとを前記コンピュータに実行させる、ゲームプログラム。
  11. 前記候補キャラクタ生成ステップにおいては、前記パーツオブジェクト内の前記基準キャラクタオブジェクトで用いられているパーツオブジェクトの格納位置を中心とする所定の範囲内の格納位置から前記パーツオブジェクトを読み出すことを特徴とする、請求項10に記載のゲームプログラム。
  12. 前記変更キャラクタ生成ステップにおいては、前記パーツオブジェクト内の前記選択されたキャラクタオブジェクトで用いられているパーツオブジェクトの格納位置を中心とする所定の範囲内の格納位置から前記パーツオブジェクトを読み出すことを特徴とする、請求項10に記載のゲームプログラム。
  13. 前記パーツオブジェクトは、前記部位毎に1次元配列として格納されていることを特徴とする、請求項10に記載のゲームプログラム。
  14. 前記パーツオブジェクトには、前記部位毎に前記1次元配列が複数含まれていることを特徴とする、請求項13に記載のゲームプログラム。
  15. 前記候補キャラクタ生成ステップは、
    前記基準キャラクタオブジェクトで用いられているパーツオブジェクトを含む前記1次元配列とは別の1次元配列を所定の確率で選択する系統変更ステップを含み、
    前記選択後の1次元配列に含まれているパーツオブジェクトを用いて前記候補キャラクタを生成することを特徴とする、請求項14に記載のゲームプログラム。
  16. 前記変更キャラクタ生成ステップは、
    前記選択されたキャラクタオブジェクトで用いられているパーツオブジェクトを含む前記1次元配列とは別の1次元配列を所定の確率で選択する系統変更ステップを含み、
    前記選択後の1次元配列に含まれているパーツオブジェクトを用いて前記新たなキャラクタオブジェクトを生成することを特徴とする、請求項14に記載のゲームプログラム。
  17. 仮想ゲーム空間内に登場するキャラクタオブジェクトを構成するための複数の部位毎のパーツオブジェクトを複数組み合わせてキャラクタオブジェクトを作成するゲーム装置であって、
    各部位ごとに予め記憶されている複数種類のパーツオブジェクトの中から各部位ごとに選ばれた各1つのパーツオブジェクトを組み合わせて基準キャラクタオブジェクトを生成する基準キャラクタ生成部と、
    前記基準キャラクタオブジェクトで使用されているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトを変更して少なくとも1つ以上の候補キャラクタオブジェクトを生成する初期候補キャラクタ生成部と、
    前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトを表示装置に表示する表示出力部と、
    前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトのいずれかを選択するための入力を受け付ける選択入力受付部と、
    前記選択されたキャラクタオブジェクトと前記基準キャラクタオブジェクトとの間で異なるパーツオブジェクトが用いられている部位を判別する変更部位判別部と、
    前記選択されたキャラクタオブジェクトで使用されているパーツオブジェクトのうち、前記変更部位判別部において判別された部位にかかるパーツオブジェクトを優先して変更することで少なくとも1つ以上の新たなキャラクタオブジェクトを生成する変更キャラクタ生成部と、
    前記選択されたキャラクタオブジェクトを基準キャラクタオブジェクトとして更新する基準キャラクタ更新部と、
    前記変更キャラクタ生成部が生成したキャラクタオブジェクトで前記候補キャラクタオブジェクトを更新する候補キャラクタ更新部とを備える、ゲーム装置。
  18. 仮想ゲーム空間内に登場するキャラクタオブジェクトを構成する複数の部位毎にパーツオブジェクトを組み合わせてキャラクタオブジェクトを作成するゲーム装置であって、
    各部位別に複数種類の前記パーツオブジェクトがグループ化されており、かつグループ内の隣合うパーツオブジェクトは類似している順にメモリに格納され、当該各グループから部位別にパーツオブジェクトを読み出して基準キャラクタオブジェクトを生成する基準キャラクタ生成部と、
    前記基準キャラクタオブジェクトで用いられているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトについて、当該パーツオブジェクトに近接するような順番で格納されているパーツオブジェクトを読み出して、少なくとも1つ以上の候補キャラクタオブジェクトを生成する候補キャラクタ生成部と、
    前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトを表示装置に表示する表示出力部と、
    前記基準キャラクタオブジェクトおよび前記候補キャラクタオブジェクトのいずれかを選択するための入力を受け付ける選択入力受付部と、
    前記選択されたキャラクタオブジェクトで用いられているパーツオブジェクトのうち、少なくとも1つ以上のパーツオブジェクトについて、当該パーツオブジェクトに近接するような順番で格納されているパーツオブジェクトを読み出して、少なくとも1つ以上の新たなキャラクタオブジェクトを生成する変更キャラクタ生成部と、
    前記選択されたキャラクタオブジェクトで基準キャラクタオブジェクトを更新する基準キャラクタ更新部と、
    前記変更キャラクタ生成部が生成したキャラクタオブジェクトで前記候補キャラクタオブジェクトを更新する候補キャラクタ更新部とを備える、ゲーム装置。
JP2006244475A 2006-09-08 2006-09-08 ゲームプログラムおよびゲーム装置 Active JP4986279B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006244475A JP4986279B2 (ja) 2006-09-08 2006-09-08 ゲームプログラムおよびゲーム装置
US11/604,852 US9149718B2 (en) 2006-09-08 2006-11-28 Storage medium having game program stored thereon and game apparatus
EP06025566.8A EP1900405B1 (en) 2006-09-08 2006-12-11 Storage medium having game program stored thereon and game apparatus
US12/717,679 US8988455B2 (en) 2006-09-08 2010-03-04 Storage medium having game program stored thereon and game apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006244475A JP4986279B2 (ja) 2006-09-08 2006-09-08 ゲームプログラムおよびゲーム装置

Publications (2)

Publication Number Publication Date
JP2008061896A true JP2008061896A (ja) 2008-03-21
JP4986279B2 JP4986279B2 (ja) 2012-07-25

Family

ID=38823580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006244475A Active JP4986279B2 (ja) 2006-09-08 2006-09-08 ゲームプログラムおよびゲーム装置

Country Status (3)

Country Link
US (2) US9149718B2 (ja)
EP (1) EP1900405B1 (ja)
JP (1) JP4986279B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061477A (ja) * 2008-09-04 2010-03-18 Square Enix Co Ltd 3次元デザイン支援装置及びプログラム
EP2177251A2 (en) 2008-10-17 2010-04-21 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Three-dimensional design support apparatus and three-dimensional model display system
JP2010118035A (ja) * 2008-10-17 2010-05-27 Square Enix Co Ltd 3次元デザイン支援装置及びプログラム
JP2012073766A (ja) * 2010-09-28 2012-04-12 Uplift Co Ltd ペーパークラフト展開図作成装置およびそのプログラム
JP2012200288A (ja) * 2011-03-23 2012-10-22 Square Enix Co Ltd キャラクタ作成装置及びキャラクタ作成プログラム
JP2013500771A (ja) * 2009-07-29 2013-01-10 マイクロソフト コーポレーション 視覚表示の自動生成方法及びシステム
US8971636B2 (en) 2012-06-22 2015-03-03 Casio Computer Co., Ltd. Image creating device, image creating method and recording medium
US9135726B2 (en) 2012-08-30 2015-09-15 Casio Computer Co., Ltd. Image generation apparatus, image generation method, and recording medium
JP2016114966A (ja) * 2014-12-11 2016-06-23 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
US9437026B2 (en) 2012-03-26 2016-09-06 Casio Computer Co., Ltd. Image creating device, image creating method and recording medium
JP2017150957A (ja) * 2016-02-25 2017-08-31 株式会社 ミックウェア ナビゲーション装置、ナビゲーション方法およびプログラム
WO2019230111A1 (ja) * 2018-05-31 2019-12-05 株式会社セガゲームス プログラム及び情報処理装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5792971B2 (ja) 2011-03-08 2015-10-14 任天堂株式会社 情報処理システム、情報処理プログラム、および情報処理方法
EP2497547B1 (en) 2011-03-08 2018-06-27 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
US9561443B2 (en) 2011-03-08 2017-02-07 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method
EP2497543A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
US9925464B2 (en) 2011-03-08 2018-03-27 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device
US10140758B1 (en) * 2013-06-27 2018-11-27 The Boeing Company Texturing models of structures
KR102374446B1 (ko) * 2014-12-11 2022-03-15 인텔 코포레이션 아바타 선택 메커니즘
JP6590329B1 (ja) * 2019-06-26 2019-10-16 株式会社ラディウス・ファイブ 画像表示システム及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03129572A (ja) * 1989-10-16 1991-06-03 Hudson Soft Co Ltd モンタージュ表示型電子手帳
JPH06274585A (ja) * 1993-03-18 1994-09-30 Casio Comput Co Ltd モンタージュ表示装置
JPH08305873A (ja) * 1995-05-10 1996-11-22 Casio Comput Co Ltd 画像作成装置
JPH10240920A (ja) * 1996-12-25 1998-09-11 Omron Corp 画像作成装置、画像作成方法及び画像作成プログラム記憶媒体

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US765322A (en) 1904-05-02 1904-07-19 George H Reoch Micrometer-gage.
US5111409A (en) * 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
US5537662A (en) * 1992-05-29 1996-07-16 Casio Computer Co., Ltd. Electronic montage composing apparatus
US5375195A (en) * 1992-06-29 1994-12-20 Johnston; Victor S. Method and apparatus for generating composites of human faces
EP0584699B1 (en) * 1992-08-24 2000-05-10 Casio Computer Co., Ltd. Data searching apparatus
US5491777A (en) * 1992-12-14 1996-02-13 Casio Computer Co., Ltd. Image data processor
US5638502A (en) * 1992-12-25 1997-06-10 Casio Computer Co., Ltd. Device for creating a new object image relating to plural object images
JP3206166B2 (ja) * 1992-12-25 2001-09-04 カシオ計算機株式会社 画像表示制御装置および画像表示制御方法
TW359781B (en) * 1993-05-25 1999-06-01 Casio Computer Co Ltd Animal image display controlling devices and method thereof
US6215506B1 (en) * 1993-06-01 2001-04-10 Brother Kogyo Kabushiki Kaisha Portrait drawing apparatus
JP3298242B2 (ja) * 1993-06-07 2002-07-02 カシオ計算機株式会社 顔画像作成装置および顔画像作成方法
US5601487A (en) * 1994-05-31 1997-02-11 Casio Computer Co., Ltd. Electronic game devices and methods
US5808624A (en) * 1994-07-29 1998-09-15 Brother Kogyo Kabushiki Kaisha Picture making apparatus for creating a picture for printing by assembling and positioning component parts
JP2603445B2 (ja) * 1994-11-10 1997-04-23 インターナショナル・ビジネス・マシーンズ・コーポレイション 髪画像適合方法及びコンピュータ・システム
US5649086A (en) * 1995-03-08 1997-07-15 Nfx Corporation System and method for parameter-based image synthesis using hierarchical networks
US6661906B1 (en) * 1996-12-19 2003-12-09 Omron Corporation Image creating apparatus
US5995119A (en) * 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters
US6142876A (en) * 1997-08-22 2000-11-07 Cumbers; Blake Player tracking and identification system
JP3621245B2 (ja) * 1997-12-12 2005-02-16 株式会社東芝 人物認識装置、人物認識方法、および、人物認識プログラムの記録媒体
US6690830B1 (en) * 1998-04-29 2004-02-10 I.Q. Bio Metrix, Inc. Method and apparatus for encoding/decoding image data
US6254477B1 (en) * 1998-06-01 2001-07-03 Sony Computer Entertainment, Inc. Portable electronic device, entertainment system and method of operating the same
JP4338155B2 (ja) * 1998-06-12 2009-10-07 キヤノン株式会社 画像処理装置及びその方法、コンピュータ可読メモリ
SG87837A1 (en) * 1998-10-08 2002-04-16 Sony Computer Entertainment Inc Portable toy, portable information terminal, intertainment system, and recording medium
JP2000357221A (ja) * 1999-06-15 2000-12-26 Minolta Co Ltd 画像処理装置および画像処理方法、ならびに画像処理プログラムを記録した記録媒体
US6738065B1 (en) * 1999-08-10 2004-05-18 Oshri Even-Zohar Customizable animation system
JP3639475B2 (ja) * 1999-10-04 2005-04-20 シャープ株式会社 3次元モデル生成装置および3次元モデル生成方法ならびに3次元モデル生成プログラムを記録した記録媒体
US6525725B1 (en) * 2000-03-15 2003-02-25 Sun Microsystems, Inc. Morphing decompression in a graphics system
JP2001357415A (ja) * 2000-04-13 2001-12-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
EP1518211A2 (en) * 2000-12-22 2005-03-30 Anthropics Technology Limited Image processing system
US7123263B2 (en) * 2001-08-14 2006-10-17 Pulse Entertainment, Inc. Automatic 3D modeling system and method
US7055103B2 (en) * 2001-08-28 2006-05-30 Itzhak Lif Method of matchmaking service
US7634103B2 (en) * 2001-10-01 2009-12-15 L'oreal S.A. Analysis using a three-dimensional facial image
US20030063102A1 (en) * 2001-10-01 2003-04-03 Gilles Rubinstenn Body image enhancement
US6845171B2 (en) * 2001-11-19 2005-01-18 Microsoft Corporation Automatic sketch generation
KR100523742B1 (ko) * 2002-03-26 2005-10-26 김소운 3차원 안경 시뮬레이션 시스템 및 방법
GB0220748D0 (en) 2002-09-06 2002-10-16 Saw You Com Ltd Improved communication using avatars
US9138644B2 (en) * 2002-12-10 2015-09-22 Sony Computer Entertainment America Llc System and method for accelerated machine switching
JP2004199301A (ja) * 2002-12-18 2004-07-15 Renesas Technology Corp 画像加工装置
WO2004102357A2 (en) 2003-05-13 2004-11-25 Electronic Arts Inc. Customizing players in a video game using morphing from morph targets and other elements
US7483553B2 (en) * 2004-03-29 2009-01-27 Microsoft Corporation Caricature exaggeration
US7653220B2 (en) 2004-04-15 2010-01-26 Panasonic Corporation Face image creation device and method
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
US7809172B2 (en) 2005-11-07 2010-10-05 International Barcode Corporation Method and system for generating and linking composite images
JP2007264828A (ja) 2006-03-27 2007-10-11 Fujifilm Corp 画像処理方法及び装置並びにプリンタ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03129572A (ja) * 1989-10-16 1991-06-03 Hudson Soft Co Ltd モンタージュ表示型電子手帳
JPH06274585A (ja) * 1993-03-18 1994-09-30 Casio Comput Co Ltd モンタージュ表示装置
JPH08305873A (ja) * 1995-05-10 1996-11-22 Casio Comput Co Ltd 画像作成装置
JPH10240920A (ja) * 1996-12-25 1998-09-11 Omron Corp 画像作成装置、画像作成方法及び画像作成プログラム記憶媒体

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061477A (ja) * 2008-09-04 2010-03-18 Square Enix Co Ltd 3次元デザイン支援装置及びプログラム
EP2177251A2 (en) 2008-10-17 2010-04-21 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Three-dimensional design support apparatus and three-dimensional model display system
JP2010118035A (ja) * 2008-10-17 2010-05-27 Square Enix Co Ltd 3次元デザイン支援装置及びプログラム
JP4739430B2 (ja) * 2008-10-17 2011-08-03 株式会社スクウェア・エニックス 3次元デザイン支援装置及びプログラム
EP2386336A2 (en) 2008-10-17 2011-11-16 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Three-dimensional design support apparatus and three-dimensional model display system
EP2386335A2 (en) 2008-10-17 2011-11-16 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Three-dimensional design support apparatus and three-dimensional model display system
US8941642B2 (en) 2008-10-17 2015-01-27 Kabushiki Kaisha Square Enix System for the creation and editing of three dimensional models
JP2013500771A (ja) * 2009-07-29 2013-01-10 マイクロソフト コーポレーション 視覚表示の自動生成方法及びシステム
JP2012073766A (ja) * 2010-09-28 2012-04-12 Uplift Co Ltd ペーパークラフト展開図作成装置およびそのプログラム
JP2012200288A (ja) * 2011-03-23 2012-10-22 Square Enix Co Ltd キャラクタ作成装置及びキャラクタ作成プログラム
US9437026B2 (en) 2012-03-26 2016-09-06 Casio Computer Co., Ltd. Image creating device, image creating method and recording medium
US8971636B2 (en) 2012-06-22 2015-03-03 Casio Computer Co., Ltd. Image creating device, image creating method and recording medium
US9135726B2 (en) 2012-08-30 2015-09-15 Casio Computer Co., Ltd. Image generation apparatus, image generation method, and recording medium
JP2016114966A (ja) * 2014-12-11 2016-06-23 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
JP2017150957A (ja) * 2016-02-25 2017-08-31 株式会社 ミックウェア ナビゲーション装置、ナビゲーション方法およびプログラム
WO2019230111A1 (ja) * 2018-05-31 2019-12-05 株式会社セガゲームス プログラム及び情報処理装置
JP2019211820A (ja) * 2018-05-31 2019-12-12 株式会社セガゲームス プログラム及び情報処理装置
JP7180125B2 (ja) 2018-05-31 2022-11-30 株式会社セガ プログラム及び情報処理装置

Also Published As

Publication number Publication date
US20080062198A1 (en) 2008-03-13
JP4986279B2 (ja) 2012-07-25
US8988455B2 (en) 2015-03-24
US20100164987A1 (en) 2010-07-01
US9149718B2 (en) 2015-10-06
EP1900405A2 (en) 2008-03-19
EP1900405B1 (en) 2017-11-22
EP1900405A3 (en) 2013-10-09

Similar Documents

Publication Publication Date Title
JP4986279B2 (ja) ゲームプログラムおよびゲーム装置
US8753205B2 (en) Computer-readable storage medium having game program stored therein and game apparatus for generating a two-dimensional game image representing a three-dimensional game space
JP5522902B2 (ja) 情報処理プログラムおよび情報処理装置
US8884875B2 (en) Information processing apparatus and computer-readable recording medium recording information processing program
JP4895352B2 (ja) 対象選択プログラム、対象選択装置、対象選択システム、および対象選択方法
JP4919887B2 (ja) 画像処理プログラムおよび画像処理装置
JP5814532B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP5429918B2 (ja) 情報処理プログラムおよび情報処理装置
JP2010061545A (ja) 画像処理プログラムおよび画像処理装置
JP2007289413A (ja) ゲームプログラムおよびゲーム装置
JP5230120B2 (ja) 情報処理システム、情報処理プログラム
JP2007257198A (ja) 傾き算出装置および傾き算出プログラムならびにゲーム装置およびゲームプログラム
WO2015162991A1 (ja) 画像融合システム、情報処理装置、情報端末、および情報処理方法
JP5632657B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法
JP5797046B2 (ja) ポインティングシステム、情報処理システム、座標系等の設定方法、情報処理装置、および情報処理プログラム
JP2010142404A (ja) ゲームプログラムおよびゲーム装置
JP2008229188A (ja) 情報処理プログラム、および、情報処理装置
JP5013511B2 (ja) ゲームプログラムおよびゲーム装置
JP5945297B2 (ja) ゲームプログラムおよびゲーム装置
JP6045777B2 (ja) 方向制御システム、方向制御装置、方向制御プログラム、および方向制御方法
JP4964688B2 (ja) 画像処理プログラムおよび画像処理装置
JP2022153479A (ja) アニメーション制作システム
JP2022153478A (ja) アニメーション制作システム
JP6262563B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP7218874B2 (ja) アニメーション制作システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090818

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120423

R150 Certificate of patent or registration of utility model

Ref document number: 4986279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250