JP2010134798A - Program, information storage medium, game device, and game system - Google Patents

Program, information storage medium, game device, and game system Download PDF

Info

Publication number
JP2010134798A
JP2010134798A JP2008311547A JP2008311547A JP2010134798A JP 2010134798 A JP2010134798 A JP 2010134798A JP 2008311547 A JP2008311547 A JP 2008311547A JP 2008311547 A JP2008311547 A JP 2008311547A JP 2010134798 A JP2010134798 A JP 2010134798A
Authority
JP
Japan
Prior art keywords
base
character
unit
player
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008311547A
Other languages
Japanese (ja)
Inventor
Kazuaki Fujimoto
和章 藤本
Taichi Tono
太一 東野
Koichiro Watanabe
耕一郎 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2008311547A priority Critical patent/JP2010134798A/en
Priority to US12/557,960 priority patent/US20100144448A1/en
Publication of JP2010134798A publication Critical patent/JP2010134798A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an information storage medium, a game device and a game system, which are capable of performing various expressions about a hairstyle of a character. <P>SOLUTION: The program makes a computer function as: an object data storage part which stores a plurality of base object BOs to be bases of the hairstyle of the character and a plurality of part object POs which can be attached to the base object BOs; a setting information storage part which stores setting information for associating one base object BO selected by a player and at least one part object PO with the character of the player; an object space setting part which sets the base object BOs and the part object POs into an object space, as components of the character, based on the setting information; and a drawing part which generates an image obtained by viewing the object space from a given viewpoint. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体、ゲーム装置、及びゲームシステムに関する。   The present invention relates to a program, an information storage medium, a game device, and a game system.

従来から、複数のポリゴンが設定されるオブジェクト空間(仮想的な3次元空間)内において、仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。   Conventionally, an image generation system (game system) that generates an image viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which a plurality of polygons are set is known. It is very popular for experiencing so-called virtual reality.

このような画像生成システムでは、キャラクタの各パーツオブジェクトをプレーヤに選択させてキャラクタのカスタマイズを行うものが知られている(例えば、特許文献1)。
特開2006−268406号公報
In such an image generation system, there is known an apparatus for customizing a character by causing a player to select each part object of the character (for example, Patent Document 1).
JP 2006-268406 A

しかしながら、従来の画像生成システムでは、キャラクタの髪型全体を1つのパーツオブジェクトとして扱っており、髪型のカスタマイズのバリエーションに制限があった。   However, in the conventional image generation system, the entire hairstyle of the character is handled as one part object, and there are limitations on variations in customizing the hairstyle.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、キャラクタの髪型について多様な表現を行うことが可能なプログラム、情報記憶媒体、ゲーム装置及びゲームシステムを提供することにある。   The present invention has been made in view of the problems as described above, and an object of the present invention is to provide a program, an information storage medium, a game device, and a game system capable of performing various expressions on a character's hairstyle. It is to provide.

(1)本発明は、
キャラクタの髪型のベースとなる複数のベースオブジェクトと、前記ベースオブジェクトに取り付け可能な複数のパーツオブジェクトとを記憶するオブジェクトデータ記憶部と、
プレーヤによって選択された1の前記ベースオブジェクト及び少なくとも1の前記パーツオブジェクトを、プレーヤのキャラクタに対応付ける設定情報を記憶する設定情報記憶部と、
前記設定情報に基づいて、前記ベースオブジェクト及び前記パーツオブジェクトをキャラクタの構成要素としてオブジェクト空間に設定するオブジェクト空間設定部と、
オブジェクト空間を所与の視点から見た画像を生成する描画部としてコンピュータを機能させることを特徴とする。
(1) The present invention
An object data storage unit that stores a plurality of base objects that serve as a base for the character's hairstyle, and a plurality of part objects that can be attached to the base object;
A setting information storage unit that stores setting information for associating one base object selected by the player and at least one part object with a player character;
Based on the setting information, an object space setting unit that sets the base object and the parts object as object components in an object space;
A computer is made to function as a drawing unit that generates an image of an object space viewed from a given viewpoint.

また本発明は上記各部を含むゲーム装置に関係する。また本発明はコンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a game device including the above-described units. The present invention is also a computer-readable information storage medium, and relates to an information storage medium storing a program that causes a computer to function as each of the above-described units.

本発明によれば、ベースオブジェクトとパーツオブジェクトとの組み合わせによりキャラクタの髪型を表現することができ、キャラクタの髪型について多様な表現を行うことができる。   According to the present invention, a character's hairstyle can be expressed by a combination of a base object and a part object, and various expressions can be made for the character's hairstyle.

(2)また本発明に係るプログラム及び情報記憶媒体では、
前記オブジェクトデータ記憶部が、
前記パーツオブジェクトを取り付ける位置に応じて異なる複数の前記ベースオブジェクトを記憶するようにしてもよい。
(2) In the program and information storage medium according to the present invention,
The object data storage unit
A plurality of different base objects may be stored depending on the position where the part object is attached.

本発明によれば、ベースオブジェクトにパーツオブジェクトを取り付けた場合に不自然な表現となってしまうことを防止することができる。   According to the present invention, it is possible to prevent an unnatural expression when a part object is attached to a base object.

(3)また本発明に係るプログラム及び情報記憶媒体では、
前記オブジェクトデータ記憶部が、
前記ベースオブジェクトをキャラクタ毎に記憶するようにしてもよい。
(3) In the program and information storage medium according to the present invention,
The object data storage unit
The base object may be stored for each character.

本発明によれば、キャラクタの骨格や背の高さに応じて異なるベースオブジェクトを用意することで、キャラクタ毎に自然な髪型の表現を行うことができる。   According to the present invention, a natural hairstyle can be expressed for each character by preparing different base objects according to the character's skeleton and height.

(4)また本発明に係るプログラム及び情報記憶媒体では、
前記オブジェクトデータ記憶部が、
前記パーツオブジェクトをキャラクタ毎に記憶するようにしてもよい。
(4) In the program and information storage medium according to the present invention,
The object data storage unit
The part object may be stored for each character.

本発明によれば、キャラクタの骨格や背の高さに応じて異なるパーツオブジェクトを用意することで、キャラクタ毎に自然な髪型の表現を行うことができる。   According to the present invention, it is possible to express a natural hairstyle for each character by preparing different part objects according to the character's skeleton and height.

(5)また本発明に係るプログラム及び情報記憶媒体では、
前記オブジェクトデータ記憶部が、
所与のキャラクタに対応するベースオブジェクトに設定されたボーンにスケール値を与えることにより当該ベースオブジェクトを変形して作成されたキャラクタ毎の前記ベースオブジェクトと、所与のキャラクタに対応するパーツオブジェクトに設定されたボーンに前記スケール値を反映させることにより当該パーツオブジェクトの位置を変更して作成されたキャラクタ毎の前記パーツオブジェクトとを記憶するようにしてもよい。
(5) In the program and information storage medium according to the present invention,
The object data storage unit
Set the base object for each character created by transforming the base object by giving a scale value to the bone set for the base object corresponding to the given character, and the part object corresponding to the given character The part value for each character created by changing the position of the part object by reflecting the scale value in the created bone may be stored.

本発明によれば、キャラクタ毎のベースオブジェクト及びパーツオブジェクトを簡単に作成して記憶させることができる。   According to the present invention, a base object and a part object for each character can be easily created and stored.

(6)また本発明に係るプログラム及び情報記憶媒体では、
前記描画部が、
プレーヤによって選択された色情報に基づき前記ベースオブジェクト及び前記パーツオブジェクトを描画するようにしてもよい。
(6) In the program and information storage medium according to the present invention,
The drawing unit
The base object and the part object may be drawn based on the color information selected by the player.

本発明によれば、プレーヤによって選択された色情報を用いて多様な髪型の表現を行うことができる。   According to the present invention, various hairstyles can be expressed using the color information selected by the player.

(7)また本発明に係るプログラム及び情報記憶媒体では、
前記パーツオブジェクトに設定された物理シミュレーション情報に基づいて、前記パーツオブジェクトを動作させる処理を行う動作処理部としてさらにコンピュータを機能させるようにしてもよい。
(7) In the program and information storage medium according to the present invention,
The computer may further function as an operation processing unit that performs processing for operating the part object based on physical simulation information set for the part object.

(8)また本発明に係るプログラム及び情報記憶媒体では、
前記描画部が、
キャラクタに対応付けられた前記ベースオブジェクトと前記パーツオブジェクトの組み合わせに応じて、前記パーツオブジェクトの形状、大きさ、色、モーションの少なくとも1つを変化させて前記ベースオブジェクト及び前記パーツオブジェクトを描画するようにしてもよい。
(8) In the program and information storage medium according to the present invention,
The drawing unit
The base object and the part object are drawn by changing at least one of the shape, size, color, and motion of the part object according to the combination of the base object and the part object associated with the character. It may be.

本発明によれば、ベースオブジェクトとパーツオブジェクトとの組み合わせにより髪型の多様な表現を行うことができる。   According to the present invention, various hairstyle expressions can be performed by combining a base object and a part object.

(9)また本発明は、ゲーム装置とサーバと情報処理装置がネットワークを介してデータを送受信することができるゲームシステムであって、
前記情報処理装置が、
キャラクタの髪型のベースとなる複数のベースオブジェクトの中から1のベースオブジェクトを選択し、前記ベースオブジェクトに取り付け可能な複数のパーツオブジェクトの中から少なくとも1のパーツオブジェクトを選択するための選択情報を前記サーバに送信する通信制御部を含み、
前記サーバが、
前記情報処理装置から送信された前記選択情報に基づいて、プレーヤによって選択された1の前記ベースオブジェクト及び少なくとも1の前記パーツオブジェクトを、プレーヤのキャラクタに対応付ける設定情報を生成する設定部と、
前記ゲーム機に前記設定情報を送信する処理を行う通信制御部とを含み、
前記ゲーム装置が、
複数の前記ベースオブジェクトと、複数の前記パーツオブジェクトとを記憶するオブジェクトデータ記憶部と、
前記サーバから送信された前記設定情報に基づいて、前記ベースオブジェクト及び前記パーツオブジェクトをキャラクタの構成要素としてオブジェクト空間に設定するオブジェクト空間設定部と、
オブジェクト空間を所与の視点から見た画像を生成する描画部とを含むことを特徴とする。
(9) The present invention is a game system in which a game device, a server, and an information processing device can transmit and receive data via a network,
The information processing apparatus is
Selection information for selecting at least one part object from among a plurality of part objects that can be attached to the base object is selected from a plurality of base objects that serve as a base for the hairstyle of the character. Including a communication control unit to send to the server,
The server is
A setting unit that generates setting information for associating one base object selected by a player and at least one part object with a player character based on the selection information transmitted from the information processing apparatus;
A communication control unit that performs processing for transmitting the setting information to the game machine,
The game device is
An object data storage unit that stores the plurality of base objects and the plurality of part objects;
Based on the setting information transmitted from the server, an object space setting unit that sets the base object and the part object as object components in an object space;
And a drawing unit that generates an image in which the object space is viewed from a given viewpoint.

本発明によれば、ベースオブジェクトとパーツオブジェクトをそれぞれ選択することができ、キャラクタの髪型について多様なカスタマイズを行うことができる。   According to the present invention, a base object and a part object can be selected, and various customizations can be performed on a character's hairstyle.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態のゲームシステムの構成の一例を示す。
1. Configuration FIG. 1 shows an example of the configuration of the game system of the present embodiment.

本実施形態のゲームシステムは、複数のゲーム装置10とサーバ30と情報処理装置40(プログラム実行可能な携帯電話、携帯型ゲーム装置、PC等)とを含む。ゲーム装置10及び情報処理装置40とサーバ30はインターネット等のネットワーク20を介して接続されている。ネットワーク20は、インターネットや専用回線、移動体通信網でもよいし、有線または無線のLAN回線でもよい。   The game system of the present embodiment includes a plurality of game devices 10, a server 30, and an information processing device 40 (a mobile phone capable of executing a program, a portable game device, a PC, etc.). The game apparatus 10 and information processing apparatus 40 and the server 30 are connected via a network 20 such as the Internet. The network 20 may be the Internet, a dedicated line, a mobile communication network, or a wired or wireless LAN line.

情報処理装置40は、通信制御部42を含む。通信制御部42は、操作部からの操作データに基づき、キャラクタの髪型のベースとなる複数のベースオブジェクトの中から1のベースオブジェクトを選択し、前記ベースオブジェクトに取り付け可能な複数のパーツオブジェクトの中から少なくとも1のパーツオブジェクトを選択するための選択情報をサーバ30に送信する。   The information processing apparatus 40 includes a communication control unit 42. Based on the operation data from the operation unit, the communication control unit 42 selects one base object from among a plurality of base objects that serve as the base of the character's hairstyle, and among the plurality of part objects that can be attached to the base object. Selection information for selecting at least one part object is transmitted to the server 30.

サーバ30は、設定部32、通信制御部34、記憶部36を含む。設定部32は、情報処理装置40から送信された選択情報に基づいて、プレーヤによって選択された1の前記ベースオブジェクト及び少なくとも1の前記パーツオブジェクトを、プレーヤのキャラクタ及びプレーヤIDに対応付ける設定情報を生成し、記憶部36に記憶させる。通信制御部34は、ゲーム機10に前記設定情報を送信する処理を行う。   The server 30 includes a setting unit 32, a communication control unit 34, and a storage unit 36. Based on the selection information transmitted from the information processing apparatus 40, the setting unit 32 generates setting information that associates the one base object selected by the player and at least one part object with the player character and the player ID. And stored in the storage unit 36. The communication control unit 34 performs processing for transmitting the setting information to the game machine 10.

図2に本実施形態のゲーム装置10の機能ブロック図の一例を示す。なお本実施形態のゲーム装置10は図2の構成要素(各部)の一部を省略した構成としてもよい。   FIG. 2 shows an example of a functional block diagram of the game apparatus 10 of the present embodiment. Note that the game apparatus 10 of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 2 are omitted.

操作部160は、プレーヤがオブジェクト(キャラクタ、移動体)の操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data of an object (character, moving object), and its function can be realized by a lever, a button, a steering, a microphone, a touch panel display, or a casing.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶される描画バッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、各オブジェクトに対応付けられたテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 includes a main storage unit 172 that is used as a work area, a drawing buffer 174 that stores final display images, an object data storage unit 176 that stores model data of objects, and each object. A texture storage unit 178 that stores the associated texture and a Z buffer 179 that stores the Z value during the object image generation process are included. Note that some of these may be omitted.

特に本実施形態のオブジェクトデータ記憶部176は、キャラクタの髪型のベースとなる複数のベースオブジェクトと、前記ベースオブジェクトに取り付け可能な複数のパーツオブジェクトとを記憶する。   In particular, the object data storage unit 176 of the present embodiment stores a plurality of base objects that serve as a base for a character's hairstyle and a plurality of part objects that can be attached to the base object.

またオブジェクトデータ記憶部176は、前記パーツオブジェクトを取り付ける位置に応じて異なる複数の前記ベースオブジェクトを記憶するようにしてもよい。   The object data storage unit 176 may store a plurality of the base objects that differ depending on the position where the part object is attached.

またオブジェクトデータ記憶部176は、前記ベースオブジェクトをキャラクタ毎に記憶するようにしてもよい。   The object data storage unit 176 may store the base object for each character.

またオブジェクトデータ記憶部176は、前記パーツオブジェクトをキャラクタ毎に記憶するようにしてもよい。またオブジェクトデータ記憶部176は、キャラクタ毎に記憶された前記パーツオブジェクトを動作させるための物理シミュレーション情報を記憶するようにしてもよい。   The object data storage unit 176 may store the part object for each character. The object data storage unit 176 may store physical simulation information for operating the part object stored for each character.

またオブジェクトデータ記憶部176は、所与のキャラクタに対応するベースオブジェクトに設定されたボーンにスケール値を与えることにより当該ベースオブジェクトを変形して作成されたキャラクタ毎の前記ベースオブジェクトと、所与のキャラクタに対応するパーツオブジェクトに設定されたボーンに前記スケール値を反映させることにより当該パーツオブジェクトの位置を変更して作成されたキャラクタ毎の前記パーツオブジェクトとを記憶するようにしてもよい。   The object data storage unit 176 also provides the base object for each character created by transforming the base object by giving a scale value to the bone set in the base object corresponding to the given character, You may make it memorize | store the said part object for every character produced by changing the position of the said part object by reflecting the said scale value on the bone set to the part object corresponding to a character.

また本実施形態の記憶部170は、設定情報記憶部177を含む。設定情報記憶部177は、プレーヤによって選択された1の前記ベースオブジェクト及び少なくとも1の前記パーツオブジェクトを、プレーヤのキャラクタに対応付ける設定情報を記憶する。   In addition, the storage unit 170 of the present embodiment includes a setting information storage unit 177. The setting information storage unit 177 stores setting information for associating one base object selected by the player and at least one part object with the player character.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えばサーバ30、他のゲーム装置10)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, the server 30 and other game apparatuses 10), and functions thereof are hardware such as various processors or communication ASICs, and programs. It can be realized by.

なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して画像生成システムを機能させる場合も本発明の範囲内に含む。   Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case where the program or data is received and the image generation system is made to function is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied.

この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、通信制御部108、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes a communication control unit 108, an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

通信制御部108は、前記設定情報の送信要求を通信部196を介してサーバ30に送信し、サーバ30から送信された前記設定情報を通信部196を介して受信する処理を行う。また通信制御部108は、操作部160によりプレーヤが入力した操作データを通信部196を介して他のゲーム装置10に送信する処理と、他のゲーム装置10から送信された操作データを通信部196を介して受信する処理を行う。   The communication control unit 108 performs a process of transmitting the setting information transmission request to the server 30 via the communication unit 196 and receiving the setting information transmitted from the server 30 via the communication unit 196. Further, the communication control unit 108 transmits the operation data input by the player through the operation unit 160 to the other game device 10 via the communication unit 196 and the operation data transmitted from the other game device 10. The process to receive via is performed.

オブジェクト空間設定部110は、キャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)や光源をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 is an object composed of various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as characters, buildings, stadiums, cars, trees, pillars, walls, and maps (terrain). ) And setting the light source in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

特に本実施形態のオブジェクト空間設定部110は、設定情報記憶部177に記憶された設定情報に基づいて、前記ベースオブジェクト及び前記パーツオブジェクトをキャラクタの構成要素としてオブジェクト空間に設定する。   In particular, the object space setting unit 110 of the present embodiment sets the base object and the part object in the object space as constituent elements of the character based on the setting information stored in the setting information storage unit 177.

移動・動作処理部112は、オブジェクト(キャラクタ、移動体オブジェクト等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、他のゲーム装置10から送信された操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則(物理シミュレーション情報)などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (character, moving object, etc.). That is, operation data input by the player through the operation unit 160, operation data transmitted from another game apparatus 10, a program (movement / motion algorithm), various data (motion data), a physical law (physical simulation information), etc. Based on the above, a process of moving the object in the object space or moving the object (motion, animation) is performed. Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

また移動・動作処理部112(動作処理部)は、前記パーツオブジェクトに設定された物理シミュレーション情報に基づいて、前記パーツオブジェクトを動作させる処理を行うようにしてもよい。   Further, the movement / motion processing unit 112 (motion processing unit) may perform a process of operating the part object based on physical simulation information set in the part object.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、ワールド座標系における仮想カメラの位置(X、Y、Z)又は回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。例えば、仮想カメラ制御部114は、仮想カメラを移動体オブジェクトの移動に追従させる制御を行うようにしてもよい。すなわち、仮想カメラによりオブジェクト(例えばキャラクタ、移動体オブジェクト)を後方から撮影するために、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, the position (X, Y, Z) or rotation angle of the virtual camera in the world coordinate system (for example, the rotation angle when rotating in the clockwise direction when viewed from the positive direction of each axis of the X, Y, and Z axes). Process to control. In short, processing for controlling the viewpoint position, the line-of-sight direction, and the angle of view is performed. For example, the virtual camera control unit 114 may control the virtual camera to follow the movement of the moving object. That is, in order to shoot an object (for example, a character or a moving object) from behind using a virtual camera, the virtual camera position or rotation angle (virtual camera orientation) is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像(前記ベースオブジェクト及び前記パーツオブジェクトが構成要素として設定されたキャラクタの画像)を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, and thereby images (character images in which the base object and the part object are set as components). Is generated and output to the display unit 190. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(視点を基準とした透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the vertex processing, in accordance with the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (viewpoint conversion) Geometry processing such as perspective conversion, projection conversion), viewport conversion (screen coordinate conversion), and light source calculation is performed, and based on the processing results, the vertex data given to the vertex group that composes the object is changed. (Update, adjust). Object data after the geometry processing (position coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the object data storage unit 176.

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際にテクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs texture mapping, hidden surface removal processing, α blending, and the like when drawing the object.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点やピクセルに設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (applied) to the vertices and pixels of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

また描画部120は、プレーヤによって選択された色情報(設定情報記憶部177に記憶された設定情報に格納された色情報)に基づき前記ベースオブジェクト及び前記パーツオブジェクトを描画するようにしてもよい。すなわちプレーヤによって選択された色情報に基づき前記ベースオブジェクト及び前記パーツオブジェクトを構成するプリミティブの描画ピクセルの色を設定するようにしてもよい。   The drawing unit 120 may draw the base object and the part object based on color information selected by the player (color information stored in the setting information stored in the setting information storage unit 177). That is, the colors of the drawing pixels of the primitives constituting the base object and the part object may be set based on the color information selected by the player.

また描画部120は、設定情報記憶部177に記憶された設定情報を参照して、キャラクタに対応付けられた前記ベースオブジェクトと前記パーツオブジェクトの組み合わせに応じて、前記パーツオブジェクトの形状、大きさ、色、モーションの少なくとも1つを変化させて前記ベースオブジェクト及び前記パーツオブジェクトを描画するようにしてもよい。   Further, the drawing unit 120 refers to the setting information stored in the setting information storage unit 177, and in accordance with the combination of the base object and the part object associated with the character, the shape, size, The base object and the part object may be drawn by changing at least one of color and motion.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2−1.概要
本実施形態のゲームは、オンラインの格闘ゲームであり、各プレーヤは格闘ゲームに登場する自キャラクタの髪型を携帯電話等の情報処理装置40を用いてカスタマイズすることができる。
2-1. Outline The game of the present embodiment is an online fighting game, and each player can customize the hairstyle of his / her character appearing in the fighting game using the information processing apparatus 40 such as a mobile phone.

すなわち、プレーヤが情報処理装置40を用いてサーバ30にアクセスすると情報処理装置40の表示部に、キャラクタをカスタマイズするためのカスタマイズ画面が表示される。プレーヤは、このカスタマイズ画面において、キャラクタの種類、服装、髪型等を複数の選択肢の中から選択することができる。特に髪型については、髪形のベースとなる複数のベースオブジェクトと、ベースオブジェクトに取り付け可能な複数のパーツオブジェクトの中から、1のベースオブジェクトと少なくとも1のパーツオブジェクトを選択することができる。またプレーヤは、カスタマイズ画面において、髪型の色(色情報)を選択することもできる。またプレーヤは、プレーヤIDを記憶するICカードを持っており、当該ICカード表面に印刷されたプレーヤID(カード番号)を前記カスタマイズ画面において入力する。   That is, when the player accesses the server 30 using the information processing apparatus 40, a customization screen for customizing characters is displayed on the display unit of the information processing apparatus 40. The player can select the character type, clothes, hairstyle, and the like from a plurality of options on the customization screen. In particular, for a hairstyle, one base object and at least one part object can be selected from a plurality of base objects serving as a base of the hairstyle and a plurality of part objects that can be attached to the base object. The player can also select a hairstyle color (color information) on the customization screen. The player also has an IC card for storing the player ID, and inputs the player ID (card number) printed on the surface of the IC card on the customization screen.

図3に、プレーヤが選択可能なベースオブジェクトとパーツオブジェクトの一例を示す。図3に示すように、本実施形態では、大きく分けて3つのベースオブジェクト「ポニーテール」「ツインテール」「オールバック」が用意され、各ベースオブジェクトに取り付け可能な複数のパーツオブジェクトが用意されている。なお、各パーツオブジェクトは「後ろ髪」と「前髪」に分類され、それぞれから1つずつ選択することができる。但し、パーツオブジェクト「右前髪」と「左前髪」については同時に選択することもできる。   FIG. 3 shows an example of a base object and a part object that can be selected by the player. As shown in FIG. 3, in this embodiment, three base objects “ponytail”, “twintail”, and “allback” are prepared, and a plurality of part objects that can be attached to each base object are prepared. Each part object is classified into “back hair” and “bangs” and can be selected one by one. However, the part objects “right bangs” and “left bangs” can be selected at the same time.

図4に、本実施形態の設定情報の一例を示す。設定情報200は、サーバ30の記憶部36に記憶され、各プレーヤがカスタマイズ画面において選択したキャラクタ220、1のベースオブジェクト230、少なくとも1のパーツオブジェクト240、髪型の色250等を特定するための情報を、当該プレーヤがカスタマイズ画面において入力したプレーヤID210に対応付けて格納する。   FIG. 4 shows an example of the setting information of this embodiment. The setting information 200 is stored in the storage unit 36 of the server 30, and information for specifying the character 220, the base object 230, the at least one part object 240, the hairstyle color 250, and the like selected by each player on the customization screen. Are stored in association with the player ID 210 input by the player on the customization screen.

プレーヤがゲーム開始時にICカードをゲーム装置10に備わるカードリーダにセットすると、ゲーム装置10はICカードからプレーヤIDを読み取り、読み取ったプレーヤIDをサーバ30に送信する。サーバ30は、ゲーム装置10からプレーヤIDを受信すると、当該プレーヤIDに対応する設定情報をゲーム装置10に送信する。またサーバ30は、当該プレーヤの対戦相手となる他のプレーヤのプレーヤIDに対応する設定情報をゲーム装置10に送信する。そしてゲーム装置10は、サーバ30から送信された設定情報200において特定されるベースオブジェクトとパーツオブジェクトを、設定情報において特定されるキャラクタの構成要素として設定する。なお、キャラクタ(キャラクタオブジェクト)、ベースオブジェクト、パーツオブジェクトの各モデルデータは、予めゲーム装置10のオブジェクトデータ記憶部176に記憶されている。   When the player sets the IC card in the card reader provided in the game apparatus 10 at the start of the game, the game apparatus 10 reads the player ID from the IC card and transmits the read player ID to the server 30. When the server 30 receives the player ID from the game apparatus 10, the server 30 transmits setting information corresponding to the player ID to the game apparatus 10. In addition, the server 30 transmits setting information corresponding to the player ID of another player who is an opponent of the player to the game apparatus 10. Then, the game apparatus 10 sets the base object and the part object specified in the setting information 200 transmitted from the server 30 as the constituent elements of the character specified in the setting information. The model data of the character (character object), base object, and part object is stored in advance in the object data storage unit 176 of the game apparatus 10.

このように本実施形態によれば、プレーヤは、情報処理装置40を用いてキャラクタのカスタマイズを行った後は、サーバ30に接続されたいずれのゲーム装置10においても、自身がカスタマイズしたキャラクタが登場するゲームを行うことができる。   As described above, according to the present embodiment, after the player customizes the character using the information processing apparatus 40, the character customized by himself / herself appears in any game apparatus 10 connected to the server 30. Can play games.

2−2.ベースオブジェクトとパーツオブジェクトの詳細
次に、本実施形態のベースオブジェクトとパーツオブジェクトの詳細について説明する。
2-2. Details of Base Object and Part Object Next, details of the base object and the part object of this embodiment will be described.

本実施形態では、キャラクタの髪型のベースとなるベースオブジェクトとして、パーツオブジェクトを取り付ける位置や数に応じて異なる複数のベースオブジェクトが用意されている。   In the present embodiment, a plurality of base objects that differ depending on the position and number of parts objects to be attached are prepared as base objects that serve as a base for a character's hairstyle.

図5(A)、図5(B)は、本実施形態のベースオブジェクト「ポニーテールA」について説明するための図である。図5(A)は、ベースオブジェクトBOとして「ポニーテールA」が選択され、「ポニーテールA」に取り付けるパーツオブジェクトPOとして「後ろ髪A」、「右前髪A」、「左前髪A」が選択された場合のキャラクタの髪型のカスタマイズ例を示し、図5(B)は、「ポニーテールA」に取り付けるパーツオブジェクトPOとして「後ろ髪B」、「前髪B」が選択された場合のキャラクタの髪型のカスタマイズ例を示す。   FIG. 5A and FIG. 5B are diagrams for explaining the base object “ponytail A” of the present embodiment. FIG. 5A shows a case where “Ponytail A” is selected as the base object BO, and “Back hair A”, “Right bangs A”, and “Left bangs A” are selected as the part objects PO to be attached to “Ponytail A”. FIG. 5B shows an example of customizing the hairstyle of the character when “back hair B” and “front hair B” are selected as the part object PO attached to “ponytail A”. .

図5(A)、図5(B)に示すように、「ポニーテールA」は、1束の後ろ髪を表すパーツオブジェクトPOが後頭部の1箇所において取り付けられるベースオブジェクトBOであり、1束の後ろ髪を表すパーツオブジェクトPOが取り付けられた場合に自然な表現となるように、後ろ髪の取り付け位置(1つの結び目)に向かって髪の毛が集まる態様をしている。また「ポニーテールベースA」には、前髪を表すパーツオブジェクトPOを少なくとも1つ取り付けることができる。   As shown in FIGS. 5 (A) and 5 (B), “Ponytail A” is a base object BO to which a part object PO representing one bundle of back hair is attached at one location on the back of the head. The hair is gathered toward the attachment position (one knot) of the back hair so that a natural expression is obtained when the part object PO to be represented is attached. Further, at least one part object PO representing the bangs can be attached to the “ponytail base A”.

図6は、本実施形態のベースオブジェクト「ポニーテールB」、「ポニーテールC」について説明するための図である。図6に示すように、「ポニーテールB」、「ポニーテールC」は、「ポニーテールA」と同様に、1束の後ろ髪を表すパーツオブジェクトPOが後頭部の1箇所において取り付けられるベースオブジェクトBOであり、後ろ髪の取り付け位置(1つの結び目)に向かって髪の毛が集まる態様をしているが、「ポニーテールB」は、後ろ髪の取り付け位置(結び目)が「ポニーテールA」よりも上に設けられ、「ポニーテールC」は、結び目が「ポニーテールA」よりも下に設けられている。   FIG. 6 is a diagram for explaining the base objects “ponytail B” and “ponytail C” of the present embodiment. As shown in FIG. 6, “Ponytail B” and “Ponytail C” are base objects BO to which a part object PO representing one bundle of back hair is attached at one position on the back of the head, like “Ponytail A”. The hair is gathered toward the attachment position (one knot) of “Ponytail B”, but the attachment position (knot) of the back hair is provided above “Ponytail A” and “Ponytail C”. The knot is provided below “Ponytail A”.

図7(A)、図7(B)は、本実施形態のベースオブジェクト「ツインテールA」について説明するための図である。図7(A)は、ベースオブジェクトBOとして「ツインテールA」が選択され、「ツインテールA」に取り付けるパーツオブジェクトPOとして「後ろ髪D」、「左前髪A」が選択された場合のキャラクタの髪型のカスタマイズ例を示し、図7(B)は、「ツインテールA」に取り付けるパーツオブジェクトPOとして「後ろ髪E」、「前髪B」が選択された場合のキャラクタの髪型のカスタマイズ例を示す。   FIG. 7A and FIG. 7B are diagrams for explaining the base object “twin tail A” of the present embodiment. FIG. 7A shows the customization of the character's hairstyle when “twin tail A” is selected as the base object BO and “back hair D” and “left bang A” are selected as the part objects PO attached to “twin tail A”. FIG. 7B shows an example of customizing the hairstyle of the character when “back hair E” and “bangs B” are selected as the part object PO attached to “twin tail A”.

図7(A)、図7(B)に示すように、「ツインテールA」は、2束の後ろ髪を表すパーツオブジェクトPOが後頭部の2箇所において取り付けられるベースオブジェクトBOであり、2束の後ろ髪を表すパーツオブジェクトPOが取り付けられた場合に自然な表現となるように、後ろ髪の2つの取り付け位置(2つの結び目)のそれぞれに向かって髪の毛が集まる態様をしている。   As shown in FIGS. 7 (A) and 7 (B), “twin tail A” is a base object BO to which part objects PO representing two bundles of back hair are attached at two locations on the back of the head, The hair is gathered toward each of the two attachment positions (two knots) of the back hair so that a natural expression is obtained when the part object PO to be represented is attached.

図8は、本実施形態のベースオブジェクト「ツインテールB」について説明するための図である。図8に示すように、「ツインテールB」は、「ツインテールA」と同様に、2束の後ろ髪を表すパーツオブジェクトPOが後頭部の2箇所において取り付けられるベースオブジェクトBOであり、後ろ髪の2つの取り付け位置(2つの結び目)に向かって髪の毛が集まる態様をしているが、後ろ髪の2つの取り付け位置(2つの結び目)が「ツインテールA」よりも下に設けられている。   FIG. 8 is a diagram for explaining the base object “twin tail B” of the present embodiment. As shown in FIG. 8, “twin tail B” is a base object BO to which two part hairs representing the back hair are attached at two locations on the back of the head, similar to “twin tail A”. The hair is gathered toward (two knots), but two attachment positions (two knots) of the back hair are provided below “Twin tail A”.

図9(A)、図9(B)は、本実施形態のベースオブジェクト「オールバック」について説明するための図である。図9(A)は、ベースオブジェクトBOとして「オールバック」が選択され、「オールバック」に取り付けるパーツオブジェクトPOとして「後ろ髪G」が選択された場合のキャラクタの髪型のカスタマイズ例を示し、図9(B)は、「オールバック」に取り付けるパーツオブジェクトPOとして「後ろ髪H」が選択された場合のキャラクタの髪型のカスタマイズ例を示す。   FIG. 9A and FIG. 9B are diagrams for explaining the base object “all back” of the present embodiment. FIG. 9A shows an example of customizing the character's hairstyle when “all back” is selected as the base object BO and “back hair G” is selected as the part object PO attached to “all back”. (B) shows an example of customizing the hairstyle of the character when “back hair H” is selected as the part object PO attached to “all back”.

図9(A)、図9(B)に示すように、「オールバック」は、後ろ髪を表すパーツオブジェクトPOが後頭部全体に取り付けられるベースオブジェクトBOであり、「ポニーテール」や「ツインテール」のような結び目はなく、髪の毛が後方に向かって流れる態様をしている。   As shown in FIGS. 9A and 9B, the “all back” is a base object BO to which the part object PO representing the back hair is attached to the entire back of the head, such as “pony tail” or “twin tail”. There is no knot, and the hair is flowing backwards.

このように本実施形態によれば、キャラクタの髪型のベースとなる複数のベースオブジェクトと、ベースオブジェクトに取り付け可能な複数のパーツオブジェクトとを記憶しておき、ベースオブジェクトとパーツオブジェクトとの組み合わせによりキャラクタの髪型を表現することにより、髪型全体を表すオブジェクトを複数記憶する場合に比べて、オブジェクトのデータ量を抑えつつ、キャラクタの髪型について多様な表現を行うことができる。   As described above, according to the present embodiment, a plurality of base objects serving as a base for the character's hairstyle and a plurality of part objects that can be attached to the base object are stored, and the character is obtained by combining the base object and the part objects. By expressing this hairstyle, it is possible to perform various expressions on the character's hairstyle while suppressing the data amount of the object, compared to the case where a plurality of objects representing the entire hairstyle are stored.

また本実施形態によれば、後ろ髪を表すパーツオブジェクトを取り付ける位置や数(結び目の位置や数)に応じて態様の異なる複数のベースオブジェクトを用意することにより、ベースオブジェクトに後ろ髪を表すパーツオブジェクトを取り付けた場合に不自然な表現となってしまうことを防止することができる。   In addition, according to the present embodiment, by preparing a plurality of base objects having different aspects according to the position and number (parts and number of knots) to which the part object representing the back hair is attached, the part object representing the back hair is attached to the base object. When attached, it is possible to prevent an unnatural expression.

2−3.ベースオブジェクトとパーツオブジェクトの作成
本実施形態では、オブジェクトデータ記憶部176は、複数種類のベースオブジェクトと各ベースオブジェクトに取り付け可能な複数種類のパーツオブジェクトをキャラクタの種類毎に記憶している。これは、キャラクタ毎に頭部の形状、背の高さ(頭部の位置)が異なるため、ベースオブジェクト及びパーツオブジェクトを取り付けるキャラクタによって、ベースオブジェクトの形状や、ベースオブジェクトとパーツオブジェクトの取り付け位置(キャラクタのローカル座標系での位置)を変える必要があるからである。
2-3. Creation of Base Object and Part Object In this embodiment, the object data storage unit 176 stores a plurality of types of base objects and a plurality of types of part objects that can be attached to each base object for each character type. This is because the shape of the head and the height of the head (head position) are different for each character. Therefore, depending on the character to which the base object and the part object are attached, the shape of the base object and the attachment position of the base object and the part object ( This is because it is necessary to change the position of the character in the local coordinate system.

本実施形態では、1のキャラクタに対応するベースオブジェクトとパーツオブジェクトから、他の複数のキャラクタのそれぞれに対応するベースオブジェクトとパーツオブジェクトを予め作成し記憶しておく。   In this embodiment, a base object and a part object corresponding to each of a plurality of other characters are created and stored in advance from a base object and a part object corresponding to one character.

図10(A)、図10(B)は、ベースオブジェクトとパーツオブジェクトの作成について説明するための図である。   10A and 10B are diagrams for explaining the creation of the base object and the part object.

図10(A)、図10(B)に示すように、ベースオブジェクトBOにはボーンBB(ベース骨)が設定され、パーツオブジェクトPOにはボーンVB(仮想パーツ骨)とボーンPB(パーツ骨)が設定されている。ベースオブジェクトBOと仮想パーツ骨VBは、ベース骨BBに親子関係付けされ、パーツ骨PBは、仮想パーツ骨PBに位置コンストレインされ、パーツオブジェクトPOはパーツ骨PBにスキンバインドされている。パーツ骨PBは、複数のボーンと関節により構成されるスケルトンであり、パーツオブジェクトPOを動作させるために設定されている。   As shown in FIGS. 10A and 10B, a bone BB (base bone) is set in the base object BO, and a bone VB (virtual part bone) and a bone PB (part bone) are set in the part object PO. Is set. The base object BO and the virtual part bone VB are parent-child related to the base bone BB, the part bone PB is constrained to the virtual part bone PB, and the part object PO is skin-bound to the part bone PB. The part bone PB is a skeleton composed of a plurality of bones and joints, and is set to operate the part object PO.

例えばキャラクタA用のベースオブジェクトBOからキャラクタB用のベースオブジェクトBOを作成する際には、キャラクタA用のベースオブジェクトBOに設定されたベース骨BBに対してスケール値を入力することにより、キャラクタBの骨格(頭部の形状)に合せてキャラクタA用のベースオブジェクトBOを変形して、キャラクタB用のベースオブジェクトBOを作成する。なおスケール値はベース骨BBの3軸方向のそれぞれに対して入力することができる。   For example, when the base object BO for the character B is created from the base object BO for the character A, the character B is input by inputting a scale value to the base bone BB set to the base object BO for the character A. The base object BO for the character A is deformed according to the skeleton (head shape) of the character B to create the base object BO for the character B. The scale value can be input for each of the three axial directions of the base bone BB.

ここで、ベース骨BBに入力されたスケール値は仮想パーツ骨VBに反映され、仮想パーツ骨VBの位置と大きさが変化する。またパーツ骨PBは、仮想パーツ骨VBに位置コンストレインされているため、大きさは変化せず位置のみが変化し、パーツオブジェクトPOも同様に位置のみが変化する。   Here, the scale value input to the base bone BB is reflected in the virtual part bone VB, and the position and size of the virtual part bone VB change. Since the part bone PB is constrained to the virtual part bone VB, the size does not change, only the position changes, and the part object PO similarly changes only the position.

すなわち、キャラクタA用のベースオブジェクトBOとパーツオブジェクトPOを図10(B)に示すように関連付けた状態で、当該ベースオブジェクトBOのベース骨BBに対してスケール値を入力することにより、キャラクタA用のベースオブジェクトBOの変形にあわせてキャラクタA用のパーツオブジェクトPOの位置(取り付け位置)を変更して、キャラクタB用のパーツオブジェクトPOを作成する。   That is, in the state where the base object BO for the character A and the part object PO are associated with each other as shown in FIG. 10B, the scale value is input to the base bone BB of the base object BO. The position (attachment position) of the part object PO for the character A is changed in accordance with the deformation of the base object BO to create the part object PO for the character B.

このように本実施形態によれば、1のキャラクタのベースオブジェクトとパーツオブジェクトから、他のキャラクタの骨格に合せて変形させたベースオブジェクトと、当該ベースオブジェクトの変形に合せて取り付け位置を変化させたパーツオブジェクトとを容易に作成することができる。   As described above, according to the present embodiment, the base object deformed according to the skeleton of another character from the base object and the part object of one character, and the attachment position is changed according to the deformation of the base object. Part objects can be easily created.

2−4.パーツオブジェクトの動作
図11は、本実施形態のパーツオブジェクトの動作について説明するための図である。
2-4. Part Object Operation FIG. 11 is a diagram for explaining the operation of the part object of the present embodiment.

図11に示すように、本実施形態では、パーツオブジェクトPOに設定されたボーンPB(パーツ骨)を、パーツオブジェクトPOの重さや慣性力等の物理シミュレーション情報に基づき制御することで、パーツオブジェクトPOを動作(モーション)させる処理を行う。   As shown in FIG. 11, in the present embodiment, the bone PB (part bone) set in the part object PO is controlled based on physical simulation information such as the weight and inertia force of the part object PO. Performs processing to move (motion).

さらに本実施形態では、パーツオブジェクトPOがキャラクタの体にめり込まないようにするために、キャラクタの骨格に沿った形状のヒットオブジェクトHOを、物理シミュレーション情報としてパーツオブジェクトPOに設定し、パーツオブジェクトPOがヒットオブジェクトHOによって弾かれるようにパーツオブジェクトPOの動作を制御している。   Further, in the present embodiment, in order to prevent the part object PO from sinking into the character's body, a hit object HO having a shape along the character's skeleton is set in the part object PO as physical simulation information, and the part object The operation of the part object PO is controlled so that the PO is played by the hit object HO.

ここで、キャラクタの骨格はキャラクタ毎に異なるため、図11に示すように、キャラクタA用のパーツオブジェクトPOに対してはキャラクタAの骨格に合せたヒットオブジェクトHOを設定し、キャラクタB用のパーツオブジェクトPOに対してはキャラクタBの骨格に合せたヒットオブジェクトHOを設定する。このようにすると、キャラクタの骨格に応じてパーツオブジェクトPOの動作を制御することができる。   Here, since the skeleton of the character is different for each character, as shown in FIG. 11, a hit object HO that matches the skeleton of the character A is set for the part object PO for the character A, and the parts for the character B are set. A hit object HO that matches the skeleton of the character B is set for the object PO. In this way, the motion of the part object PO can be controlled according to the skeleton of the character.

2−5.ベースオブジェクトとパーツオブジェクトの組み合わせに応じた描画
図12(A)、図12(B)は、ベースオブジェクトとパーツオブジェクトの組み合わせに応じた描画について説明するための図である。
2-5. Drawing According to Combination of Base Object and Part Object FIGS. 12A and 12B are diagrams for explaining drawing according to a combination of a base object and a part object.

本実施形態では、キャラクタに対応付けられたベースオブジェクトとパーツオブジェクトの組み合わせが所定の組み合わせになった場合には、当該パーツオブジェクトの形状、大きさ、色、モーションの少なくとも1つを変化させる。具体的には、ベースオブジェクトとパーツオブジェクトの所定の組み合わせに対応する形状情報、スケール情報、色情報、モーションデータ等をテーブルデータとして記憶しておき、このテーブルデータを参照してパーツオブジェクトの形状、大きさ、色、モーションを変化させる。   In the present embodiment, when the combination of the base object and the part object associated with the character becomes a predetermined combination, at least one of the shape, size, color, and motion of the part object is changed. Specifically, shape information, scale information, color information, motion data, and the like corresponding to a predetermined combination of the base object and the part object are stored as table data, and the shape of the part object by referring to the table data, Change the size, color, and motion.

例えば図12(A)に示すように、ベースオブジェクトBOとして「オールバック」が選択され、パーツオブジェクトPOとして「前髪C」が選択された場合には、ベースオブジェクトBOに取り付けるパーツオブジェクトPOの形状等を変化させずに描画する。一方、図12(B)に示すように、パーツオブジェクトPOとして「前髪C」に加えて「後ろ髪G」が選択された場合には、ベースオブジェクトBOに取り付ける「前髪C」のパーツオブジェクトPOの形状を前後方向に拡大する処理を行って描画する。このとき、「前髪C」或いは「後ろ髪G」のパーツオブジェクトPOを所定のモーションで動作させるようにしてもよいし、「前髪C」及び「後ろ髪G」のパーツオブジェクトPOとベースオブジェクトBOとを所定の色(テーブルデータに設定された色情報)で描画するようにしてもよい。   For example, as shown in FIG. 12A, when “all back” is selected as the base object BO and “bangs C” is selected as the part object PO, the shape of the part object PO attached to the base object BO, etc. Draw without changing. On the other hand, as shown in FIG. 12B, when “back hair G” is selected in addition to “bangs C” as the part object PO, the shape of the part object PO of “bangs C” attached to the base object BO The image is drawn by performing a process of enlarging in the front-rear direction. At this time, the part object PO of “bangs C” or “back hair G” may be operated in a predetermined motion, or the part objects PO of “bangs C” and “back hair G” and the base object BO are set in advance. It is also possible to draw with the color (color information set in the table data).

このように本実施形態によれば、ベースオブジェクトとパーツオブジェクトとの組み合わせにより髪型の多様な表現を行うことができる。   As described above, according to the present embodiment, various expressions of hairstyles can be performed by combining the base object and the part object.

3.処理
次に、本実施形態のゲーム装置10の処理の一例について図5のフローチャートを用いて説明する。
3. Processing Next, an example of processing of the game apparatus 10 of the present embodiment will be described with reference to the flowchart of FIG.

まず、通信制御部108は、カードリーダにセットされたICカードから読み取った、自機のプレーヤのプレーヤIDをサーバ30に送信する(ステップS10)。次に、通信制御部108は、サーバ30から送信された設定情報200を受信し、設定情報記憶部177に記憶させる(ステップS12)。   First, the communication control unit 108 transmits the player ID of its own player read from the IC card set in the card reader to the server 30 (step S10). Next, the communication control unit 108 receives the setting information 200 transmitted from the server 30 and stores it in the setting information storage unit 177 (step S12).

次に、オブジェクト空間設定部110は、設定情報200に基づいて、自機のプレーヤによって選択されたベースオブジェクト及びパーツオブジェクトであって自機のプレーヤによって選択されたキャラクタ用のベースオブジェクト及びパーツオブジェクトを、自機のプレーヤによって選択されたキャラクタの構成要素として設定する(ステップS14)。   Next, based on the setting information 200, the object space setting unit 110 selects the base object and part object for the character selected by the player of the own device and selected by the player of the own device. Then, it is set as a constituent element of the character selected by the player of the own device (step S14).

次に、オブジェクト空間設定部110は、設定情報200に基づいて、対戦相手となる他機のプレーヤによって選択されたベースオブジェクト及びパーツオブジェクトであって当該他機のプレーヤによって選択されたキャラクタ用のベースオブジェクト及びパーツオブジェクトを、他機のプレーヤによって選択されたキャラクタの構成要素として設定する(ステップS16)。   Next, the object space setting unit 110, based on the setting information 200, is a base object and a part object selected by the player of the other machine that is the opponent, and is a base for the character selected by the player of the other machine. The object and the part object are set as constituent elements of the character selected by the player of the other machine (step S16).

次に、オブジェクト空間設定部110は、自機のプレーヤのキャラクタと他機のプレーヤのキャラクタとをオブジェクト空間に配置する(ステップS18)。   Next, the object space setting unit 110 places the player's player character and the player's player character in the object space (step S18).

次に、移動・動作演算部112は、操作部160からの操作データに基づき自機のプレーヤのキャラクタの移動・動作演算を行い、他のゲーム装置10から送信された操作データに基づき他機のプレーヤのキャラクタの移動・動作演算を行う(ステップS20)。   Next, the movement / motion calculation unit 112 performs the movement / motion calculation of the player's player character based on the operation data from the operation unit 160, and based on the operation data transmitted from the other game apparatus 10, The player's character movement / motion calculation is performed (step S20).

次に、描画部120は、オブジェクト空間を仮想カメラから見た画像であって、自機のプレーヤのキャラクタと他機のプレーヤのキャラクタとを含む画像を生成する(ステップS22)。このとき描画部120は、設定情報200を参照して、各キャラクタに対応する色情報250に基づいて、各キャラクタのベースオブジェクト及びパーツオブジェクトを描画する。   Next, the rendering unit 120 generates an image that is an image of the object space viewed from the virtual camera and includes the player's player character and the player's player character (step S22). At this time, the drawing unit 120 refers to the setting information 200 and draws the base object and the part object of each character based on the color information 250 corresponding to each character.

次に、処理部100は、処理を続けるか否かを判断し(ステップS24)、処理を続ける場合には、ステップ20の処理に進む。   Next, the processing unit 100 determines whether or not to continue the process (step S24), and proceeds to the process of step 20 when the process is continued.

4.変形例
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
4). Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

例えば、本実施形態では、プレーヤが情報処理装置40を用いてサーバ30にアクセスしてキャラクタをカスタマイズする場合について説明したが、ゲーム装置10の表示部190にキャラクタをカスタマイズするためのカスタマイズ画面を表示させ、プレーヤがゲーム装置10においてキャラクタの髪型等をカスタマイズできるようにしてもよい。この場合、ゲーム装置10の処理部100は、操作部160からの操作データに基づき、プレーヤによって選択された1のベースオブジェクト及び少なくとも1のパーツオブジェクトを、プレーヤによって選択されたキャラクタの構成要素として設定する処理を行う設定部を含む。   For example, in the present embodiment, the case where the player customizes the character by accessing the server 30 using the information processing device 40 has been described, but a customization screen for customizing the character is displayed on the display unit 190 of the game device 10. The game device 10 may allow the player to customize the character's hairstyle and the like. In this case, the processing unit 100 of the game apparatus 10 sets one base object selected by the player and at least one part object as constituent elements of the character selected by the player based on the operation data from the operation unit 160. The setting part which performs the process to perform is included.

また本実施形態では、複数種類のベースオブジェクトと各ベースオブジェクトに取り付け可能な複数種類のパーツオブジェクトをキャラクタの種類毎に記憶する場合について説明したが、プレーヤによって選択された1のベースオブジェクト及び少なくとも1のパーツオブジェクトを、プレーヤによって選択されたキャラクタの構成要素として設定する(キャラクタに取り付ける)際に、当該1のベースオブジェクト及び少なくとも1のパーツオブジェクトを、設定されるキャラクタの種類に応じて形状及び位置(キャラクタのローカル座標系での位置)を変更して設定するようにしてもよい。   In this embodiment, a case has been described in which a plurality of types of base objects and a plurality of types of part objects that can be attached to each base object are stored for each character type. However, one base object selected by the player and at least one base object are stored. When the part object is set as a component of the character selected by the player (attached to the character), the shape and position of the one base object and at least one part object are set according to the type of the character to be set. The position of the character in the local coordinate system may be changed and set.

本実施形態のゲームシステムの構成の一例を示す図。The figure which shows an example of a structure of the game system of this embodiment. 本実施形態のゲーム装置10の機能ブロック図の一例を示す図。The figure which shows an example of the functional block diagram of the game device 10 of this embodiment. プレーヤが選択可能なベースオブジェクトとパーツオブジェクトの一例を示す図。The figure which shows an example of the base object and part object which a player can select. 設定情報の一例を示す図。The figure which shows an example of setting information. 図5(A)、図5(B)は、ベースオブジェクト「ポニーテールA」について説明するための図。FIGS. 5A and 5B are diagrams for explaining the base object “Ponytail A”. ベースオブジェクト「ポニーテールB」、「ポニーテールC」について説明するための図。The figure for demonstrating base object "pony tail B" and "pony tail C". 図7(A)、図5(B)は、ベースオブジェクト「ツインテールA」について説明するための図。FIGS. 7A and 5B are diagrams for explaining the base object “twin tail A”. ベースオブジェクト「ツインテールB」について説明するための図。The figure for demonstrating base object "twin tail B". 図9(A)、図9(B)は、ベースオブジェクト「オールバック」について説明するための図。FIGS. 9A and 9B are diagrams for explaining the base object “all back”. 図10(A)、図10(B)は、ベースオブジェクトとパーツオブジェクトの作成について説明するための図。FIG. 10A and FIG. 10B are diagrams for explaining creation of a base object and a part object. パーツオブジェクトの動作について説明するための図である。It is a figure for demonstrating operation | movement of a part object. 図12(A)、図12(B)は、ベースオブジェクトとパーツオブジェクトの組み合わせに応じた描画について説明するための図である。FIG. 12A and FIG. 12B are diagrams for explaining drawing according to a combination of a base object and a part object. 本実施形態のゲーム装置の処理の一例を示すフローチャート図。The flowchart figure which shows an example of the process of the game device of this embodiment.

符号の説明Explanation of symbols

10 ゲーム装置、30 サーバ、32 設定部、34 通信制御部、40 情報処理装置、42 通信制御部、100 処理部、108 通信制御部、110 オブジェクト空間設定部、112 移動・動作処理部、114 仮想カメラ制御部、120 描画部、130 音生成部、160 操作部、170 記憶部、176 オブジェクトデータ記憶部、177 設定情報記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部 10 game devices, 30 servers, 32 setting units, 34 communication control units, 40 information processing devices, 42 communication control units, 100 processing units, 108 communication control units, 110 object space setting units, 112 movement / motion processing units, 114 virtual Camera control unit, 120 drawing unit, 130 sound generation unit, 160 operation unit, 170 storage unit, 176 object data storage unit, 177 setting information storage unit, 180 information storage medium, 190 display unit, 192 sound output unit, 196 communication unit

Claims (11)

キャラクタの髪型のベースとなる複数のベースオブジェクトと、前記ベースオブジェクトに取り付け可能な複数のパーツオブジェクトとを記憶するオブジェクトデータ記憶部と、
プレーヤによって選択された1の前記ベースオブジェクト及び少なくとも1の前記パーツオブジェクトを、プレーヤのキャラクタに対応付ける設定情報を記憶する設定情報記憶部と、
前記設定情報に基づいて、前記ベースオブジェクト及び前記パーツオブジェクトをキャラクタの構成要素としてオブジェクト空間に設定するオブジェクト空間設定部と、
オブジェクト空間を所与の視点から見た画像を生成する描画部としてコンピュータを機能させることを特徴とするプログラム。
An object data storage unit that stores a plurality of base objects that serve as a base for the character's hairstyle, and a plurality of part objects that can be attached to the base object;
A setting information storage unit that stores setting information for associating one base object selected by the player and at least one part object with a player character;
Based on the setting information, an object space setting unit that sets the base object and the parts object as object components in an object space;
A program that causes a computer to function as a drawing unit that generates an image of an object space viewed from a given viewpoint.
請求項1において、
前記オブジェクトデータ記憶部が、
前記パーツオブジェクトを取り付ける位置に応じて異なる複数の前記ベースオブジェクトを記憶することを特徴とするプログラム。
In claim 1,
The object data storage unit
A program that stores a plurality of base objects that differ depending on a position where the part object is attached.
請求項1又は2において、
前記オブジェクトデータ記憶部が、
前記ベースオブジェクトをキャラクタ毎に記憶することを特徴とするプログラム。
In claim 1 or 2,
The object data storage unit
A program for storing the base object for each character.
請求項3において、
前記オブジェクトデータ記憶部が、
前記パーツオブジェクトをキャラクタ毎に記憶することを特徴とするプログラム。
In claim 3,
The object data storage unit
A program for storing the part object for each character.
請求項1乃至4のいずれかにおいて、
前記オブジェクトデータ記憶部が、
所与のキャラクタに対応するベースオブジェクトに設定されたボーンにスケール値を与えることにより当該ベースオブジェクトを変形して作成されたキャラクタ毎の前記ベースオブジェクトと、所与のキャラクタに対応するパーツオブジェクトに設定されたボーンに前記スケール値を反映させることにより当該パーツオブジェクトの位置を変更して作成されたキャラクタ毎の前記パーツオブジェクトとを記憶することを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The object data storage unit
Set the base object for each character created by transforming the base object by giving a scale value to the bone set for the base object corresponding to the given character, and the part object corresponding to the given character A program for storing the part object for each character created by changing the position of the part object by reflecting the scale value on the created bone.
請求項1乃至5のいずれかにおいて、
前記描画部が、
プレーヤによって選択された色情報に基づき前記ベースオブジェクト及び前記パーツオブジェクトを描画することを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
The drawing unit
A program for drawing the base object and the part object based on color information selected by a player.
請求項1乃至6のいずれかにおいて、
前記パーツオブジェクトに設定された物理シミュレーション情報に基づいて、前記パーツオブジェクトを動作させる処理を行う動作処理部としてさらにコンピュータを機能させることを特徴とするプログラム。
In any one of Claims 1 thru | or 6.
A program that further causes a computer to function as an operation processing unit that performs a process of operating the part object based on physical simulation information set in the part object.
請求項1乃至7のいずれかにおいて、
前記描画部が、
キャラクタに対応付けられた前記ベースオブジェクトと前記パーツオブジェクトの組み合わせに応じて、前記パーツオブジェクトの形状、大きさ、色、モーションの少なくとも1つを変化させて前記ベースオブジェクト及び前記パーツオブジェクトを描画することを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
The drawing unit
Rendering the base object and the part object by changing at least one of the shape, size, color, and motion of the part object according to the combination of the base object and the part object associated with the character A program characterized by
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至8のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to claim 1 to 8 is stored. キャラクタの髪型のベースとなる複数のベースオブジェクトと、前記ベースオブジェクトに取り付け可能な複数のパーツオブジェクトとを記憶するオブジェクトデータ記憶部と、
プレーヤによって選択された1の前記ベースオブジェクト及び少なくとも1の前記パーツオブジェクトを、プレーヤのキャラクタに対応付ける設定情報を記憶する設定情報記憶部と、
前記設定情報に基づいて、前記ベースオブジェクト及び前記パーツオブジェクトを、対応するキャラクタの構成要素としてオブジェクト空間に設定するオブジェクト空間設定部と、
オブジェクト空間を所与の視点から見た画像を生成する描画部とを含むことを特徴とするゲーム装置。
An object data storage unit that stores a plurality of base objects that serve as a base for the character's hairstyle, and a plurality of part objects that can be attached to the base object;
A setting information storage unit that stores setting information for associating one base object selected by the player and at least one part object with a player character;
Based on the setting information, an object space setting unit that sets the base object and the part object in the object space as components of the corresponding character;
And a drawing unit that generates an image of the object space viewed from a given viewpoint.
ゲーム装置とサーバと情報処理装置がネットワークを介してデータを送受信することができるゲームシステムであって、
前記情報処理装置が、
キャラクタの髪型のベースとなる複数のベースオブジェクトの中から1のベースオブジェクトを選択し、前記ベースオブジェクトに取り付け可能な複数のパーツオブジェクトの中から少なくとも1のパーツオブジェクトを選択するための選択情報を前記サーバに送信する通信制御部を含み、
前記サーバが、
前記情報処理装置から送信された前記選択情報に基づいて、プレーヤによって選択された1の前記ベースオブジェクト及び少なくとも1の前記パーツオブジェクトを、プレーヤのキャラクタに対応付ける設定情報を生成する設定部と、
前記ゲーム機に前記設定情報を送信する処理を行う通信制御部とを含み、
前記ゲーム装置が、
複数の前記ベースオブジェクトと、複数の前記パーツオブジェクトとを記憶するオブジェクトデータ記憶部と、
前記サーバから送信された前記設定情報に基づいて、前記ベースオブジェクト及び前記パーツオブジェクトをキャラクタの構成要素としてオブジェクト空間に設定するオブジェクト空間設定部と、
オブジェクト空間を所与の視点から見た画像を生成する描画部とを含むことを特徴とするゲームシステム。
A game system in which a game device, a server, and an information processing device can transmit and receive data via a network,
The information processing apparatus is
Selection information for selecting at least one part object from among a plurality of part objects that can be attached to the base object is selected from a plurality of base objects that serve as a base for the hairstyle of the character. Including a communication control unit to send to the server,
The server is
A setting unit that generates setting information for associating one base object selected by a player and at least one part object with a player character based on the selection information transmitted from the information processing apparatus;
A communication control unit that performs processing for transmitting the setting information to the game machine,
The game device is
An object data storage unit that stores the plurality of base objects and the plurality of part objects;
Based on the setting information transmitted from the server, an object space setting unit that sets the base object and the part object as object components in an object space;
And a drawing unit that generates an image of the object space viewed from a given viewpoint.
JP2008311547A 2008-12-05 2008-12-05 Program, information storage medium, game device, and game system Pending JP2010134798A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008311547A JP2010134798A (en) 2008-12-05 2008-12-05 Program, information storage medium, game device, and game system
US12/557,960 US20100144448A1 (en) 2008-12-05 2009-09-11 Information storage medium, game device, and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008311547A JP2010134798A (en) 2008-12-05 2008-12-05 Program, information storage medium, game device, and game system

Publications (1)

Publication Number Publication Date
JP2010134798A true JP2010134798A (en) 2010-06-17

Family

ID=42231711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008311547A Pending JP2010134798A (en) 2008-12-05 2008-12-05 Program, information storage medium, game device, and game system

Country Status (2)

Country Link
US (1) US20100144448A1 (en)
JP (1) JP2010134798A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039619A (en) * 2009-08-07 2011-02-24 Konami Digital Entertainment Co Ltd Image generating device, image generating method, and program
WO2013039321A2 (en) * 2011-09-15 2013-03-21 Kim Bokyung System and method for simulating hairstyles, and a computer-readable recording medium recording a program to implement the simulation method
JP7436464B2 (en) 2018-09-14 2024-02-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Generate and display 3D objects

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202613A (en) * 1992-12-28 1994-07-22 Casio Comput Co Ltd Living body display device
JPH0844898A (en) * 1994-07-29 1996-02-16 Brother Ind Ltd Montage generating device
JPH10240921A (en) * 1996-12-25 1998-09-11 Omron Corp Image forming device, its method and image forming program storage medium
JP2002269580A (en) * 2001-03-07 2002-09-20 Japan Science & Technology Corp Animation creating system
JP2006268406A (en) * 2005-03-24 2006-10-05 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2008188051A (en) * 2007-01-31 2008-08-21 Sega Corp Game image reproduction system and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3926307B2 (en) * 2003-08-06 2007-06-06 株式会社スクウェア・エニックス Three-dimensional image drawing apparatus and method, program, and recording medium
US20070273711A1 (en) * 2005-11-17 2007-11-29 Maffei Kenneth C 3D graphics system and method
GB2450757A (en) * 2007-07-06 2009-01-07 Sony Comp Entertainment Europe Avatar customisation, transmission and reception

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202613A (en) * 1992-12-28 1994-07-22 Casio Comput Co Ltd Living body display device
JPH0844898A (en) * 1994-07-29 1996-02-16 Brother Ind Ltd Montage generating device
JPH10240921A (en) * 1996-12-25 1998-09-11 Omron Corp Image forming device, its method and image forming program storage medium
JP2002269580A (en) * 2001-03-07 2002-09-20 Japan Science & Technology Corp Animation creating system
JP2006268406A (en) * 2005-03-24 2006-10-05 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2008188051A (en) * 2007-01-31 2008-08-21 Sega Corp Game image reproduction system and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039619A (en) * 2009-08-07 2011-02-24 Konami Digital Entertainment Co Ltd Image generating device, image generating method, and program
WO2013039321A2 (en) * 2011-09-15 2013-03-21 Kim Bokyung System and method for simulating hairstyles, and a computer-readable recording medium recording a program to implement the simulation method
WO2013039321A3 (en) * 2011-09-15 2013-06-13 Kim Bokyung System and method for simulating hairstyles, and a computer-readable recording medium recording a program to implement the simulation method
KR101430122B1 (en) * 2011-09-15 2014-09-19 김보경 System, method and computer readable recording medium for simulating hair style
JP7436464B2 (en) 2018-09-14 2024-02-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Generate and display 3D objects

Also Published As

Publication number Publication date
US20100144448A1 (en) 2010-06-10

Similar Documents

Publication Publication Date Title
JP2010033298A (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2007164557A (en) Program, information recording medium and image generation system
JP3748451B1 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2009129167A (en) Program, information storage medium, and image generation system
JP2010029397A (en) Program, information storage medium and image generation system
JP2010134798A (en) Program, information storage medium, game device, and game system
JP2006323512A (en) Image generation system, program, and information storage medium
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4754384B2 (en) Program, information recording medium, and image generation system
JP3297410B2 (en) Image generation system and information storage medium
JP4913399B2 (en) Program, information storage medium, and image generation system
JP2005209217A (en) Game system and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2011215724A (en) Program, information storage medium, and image generation system
JP4592087B2 (en) Image generation system, program, and information storage medium
JP4662260B2 (en) Program, information storage medium, and image generation system
JP2002329213A (en) Image generation system, program, and information storage medium
JP2010231364A (en) Image generation system, program and information recording medium
JP2011209864A (en) Program, information storage medium, and image creation system
JP2010033253A (en) Program, information storage medium, and image generation system
JP2001084393A (en) Picture generation system and information storage medium
JP2003162734A (en) Game system and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120815

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121205