JP7387310B2 - ゲームシステム及びプログラム - Google Patents

ゲームシステム及びプログラム Download PDF

Info

Publication number
JP7387310B2
JP7387310B2 JP2019125405A JP2019125405A JP7387310B2 JP 7387310 B2 JP7387310 B2 JP 7387310B2 JP 2019125405 A JP2019125405 A JP 2019125405A JP 2019125405 A JP2019125405 A JP 2019125405A JP 7387310 B2 JP7387310 B2 JP 7387310B2
Authority
JP
Japan
Prior art keywords
character
images
image
player
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019125405A
Other languages
English (en)
Other versions
JP2021010476A (ja
Inventor
大悟 奥村
稔 指田
広昭 角
行恵 菅野
知佳 石井
隆義 大井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Bandai Namco Games Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.), Namco Ltd, Bandai Namco Games Inc, Bandai Namco Studios Inc filed Critical Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Priority to JP2019125405A priority Critical patent/JP7387310B2/ja
Priority to KR1020227003144A priority patent/KR20220025048A/ko
Priority to PCT/JP2020/025649 priority patent/WO2021002353A1/ja
Priority to CN202080047885.4A priority patent/CN114206456A/zh
Publication of JP2021010476A publication Critical patent/JP2021010476A/ja
Priority to US17/567,523 priority patent/US11980818B2/en
Priority to JP2023194238A priority patent/JP2024003191A/ja
Application granted granted Critical
Publication of JP7387310B2 publication Critical patent/JP7387310B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ゲームシステム及びプログラム等に関する。
従来より、プレーヤがキャラクタを作成し、作成したキャラクタをゲームに登場させることが可能なゲームシステムが知られている。このようなゲームシステムの従来技術としては例えば特許文献1に開示される技術がある。キャラクタ作成はキャラクタメイキングとも呼ばれ、プレーヤは、自身が所望する身体パーツ、衣装パーツ、装備品パーツなどのパーツをキャラクタに取り付けて、オリジナルのキャラクタを作成することができる。
特開2006-230586号公報
キャラクタメイキングにおいては、プレーヤは、他のプレーヤが作成したキャラクタと被らないようなオリジナルのキャラクタの作成を望んでいる。このため、キャラクタに対して、より精細にパーツ設定が可能なことが望ましい。しかしながら、キャラクタに対するパーツ設定には細かな作業が必要であるため、プレーヤの作業効率が低下してしまうという課題がある。
本実施形態の幾つかの態様によれば、キャラクタメイキングにおけるプレーヤのインターフェース環境を向上できるゲームシステム及びプログラム等を提供できる。
本開示の一態様は、プレーヤの操作入力を受け付ける受け付け部と、少なくとも1つのキャラクタが配置される仮想空間の設定処理を行う仮想空間設定部と、複数の仮想カメラの設定処理を行う仮想カメラ設定部と、前記プレーヤの操作入力に基づいて、少なくとも1つの前記キャラクタを構成するパーツの設定処理を行うキャラクタ処理部と、前記仮想空間において前記複数の仮想カメラから少なくとも1つの前記キャラクタを見た画像である複数のキャラクタ画像を生成し、前記複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部に表示する処理を行う表示処理部と、を含み、前記表示処理部は、前記パーツの前記設定処理が行われた場合に、前記設定処理の結果が反映された前記キャラクタメイキング画像を、前記表示部に表示する処理を行うゲームシステムに関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
本開示の一態様では、少なくとも1つのキャラクタが配置される仮想空間において、複数の仮想カメラの設定処理が行われ、プレーヤの操作入力に基づいて、少なくとも1つのキャラクタを構成するパーツの設定処理が行われる。そして複数の仮想カメラからキャラクタを見た複数のキャラクタ画像が配列されるキャラクタメイキング画像が表示され、プレーヤがパーツの設定処理の操作入力を行うと、当該設定処理が反映されたキャラクタメイキング画像が表示されるようになる。このようにすればプレーヤは、パーツの設定処理後のキャラクタ画像が、自身の好みや趣向に合うのかを、キャラクタメイキング画像の複数のキャラクタ画像を見ることで確認できるようになる。この結果、プレーヤの作業効率を向上でき、キャラクタメイキングにおけるプレーヤのインターフェース環境を向上できるようになる。
また本開示の一態様では、前記仮想空間設定部は、少なくとも1つの前記キャラクタとして複数のキャラクタを前記仮想空間に配置し、前記仮想カメラ設定部は、前記複数のキャラクタの各キャラクタに対して前記複数の仮想カメラの各仮想カメラを設定し、前記表示処理部は、前記複数の仮想カメラの各仮想カメラから前記複数のキャラクタの各キャラクタを見た画像を、前記複数のキャラクタ画像の各キャラクタ画像として生成してもよい。
このようにすれば、異なる仮想カメラ方向から見た複数のキャラクタ画像を簡素な処理で生成できるようになり、キャラクタメイキングの作業効率を向上できる。
また本開示の一態様では、前記仮想空間設定部は、前記複数のキャラクタのライティングを行う光源を前記仮想空間に設定し、前記表示処理部は、前記光源に基づく前記複数のキャラクタのシェーディング処理を行って、前記複数のキャラクタ画像を生成してもよい。
このようにすれば光源による陰影づけが行われたキャラクタの画像を生成できるようになり、リアルなキャラクタ画像を生成できるようになる。また1つの光源で複数のキャラクタのライティングを行うことで、仮想カメラの方向とキャラクタの方向との方向関係に依ってキャラクタ画像が暗い画像になってしまうような事態の発生も抑制できるようになる。
また本開示の一態様では、前記キャラクタ処理部は、前記プレーヤの操作入力に基づいて、前記複数の仮想カメラの方向に対する前記複数のキャラクタの方向を設定してもよい。
このようにすることで、プレーヤの操作入力に応じて、キャラクタ画像におけるキャラクタの向く方向を変化させることが可能になり、キャラクタメイキングに好適なキャラクタ画像をプレーヤに表示できるようになる。
また本開示の一態様では、前記キャラクタ処理部は、前記プレーヤの操作入力に基づいて、前記複数のキャラクタに対して前記パーツの前記設定処理を実行してもよい。
このようにすれば、プレーヤの操作入力に基づいて、複数のキャラクタに対してパーツの設定処理が行われて、複数のキャラクタ画像に対してパーツの設定処理の結果が反映されるようになる。これによりプレーヤは、パーツの設定処理後のキャラクタ画像を確認しながら、キャラクタメイキングの作業を行えるようになり、作業効率の高いキャラクタメイキングを実現できるようになる。
また本開示の一態様では、前記表示処理部は、前記複数のキャラクタ画像として、第1の仮想カメラ方向で見た第1のキャラクタ画像と、前記第1の仮想カメラ方向とは異なる第2の仮想カメラ方向で見た第2のキャラクタ画像を生成してもよい。
このようにすれば、第1の仮想カメラ方向から見た第1のキャラクタ画像と第2の仮想カメラから見た第2のキャラクタ画像を含む複数のキャラクタ画像を、キャラクタメイキング画像としてプレーヤに表示できるようになる。
また本開示の一態様では、前記表示処理部は、前記第1のキャラクタ画像と前記第2のキャラクタ画像とで、所定パーツの配置位置を変更してもよい。
このようにすれば、第1のキャラクタ画像と第2のキャラクタ画像とで所定パーツの配置位置が同じ位置であると違和感が生じるような状況においても、所定パーツの配置位置が変更されることで、より違和感のないキャラクタ画像を生成できるようになる。
また本開示の一態様では、前記表示処理部は、前記複数のキャラクタ画像の少なくとも1つのキャラクタ画像について、顔を構成するパーツのモーションデータを変化させることで前記顔の表情を変化させてもよい。
このようにすればモーションデータを変化させるという負荷の軽い処理で、キャラクタの表情を種々に変化させることが可能になり、キャラクタメイキングの処理の軽減や簡素化等を実現できる。
また本開示の一態様では、前記表示処理部は、前記プレーヤの操作入力に基づいて前記パーツの前記設定処理が行われた場合に、前記複数のキャラクタ画像において前記パーツの前記設定処理が行われた前記キャラクタメイキング画像を、前記表示部に表示する処理を行ってもよい。
このようにすれば、プレーヤの操作入力に基づいてパーツの設定処理が行われると、この設定処理の結果が複数のキャラクタ画像に反映されるようになり、キャラクタメイキングに好適なキャラクタメイキング画像をプレーヤに表示できるようになる。
また本開示の一態様では、前記表示処理部は、前記プレーヤの操作入力に基づいて、前記複数のキャラクタ画像を一括して、異なる仮想カメラ方向で見たキャラクタ画像に変化させてもよい。
このようにすればプレーヤは、所定の操作入力を行うことで、キャラクタ画像におけるキャラクタの向く方向を一括して変化させることが可能になり、キャラクタメイキングにおけるプレーヤのインターフェース環境を向上できる。
また本開示の一態様では、前記表示処理部は、前記プレーヤの操作入力に基づいて、前記複数のキャラクタ画像を個別に、異なる仮想カメラ方向で見たキャラクタ画像に変化させてもよい。
このようにすれば、対象となるキャラクタ画像についてだけ、個別に、キャラクタの向く方向を変化させることが可能になり、キャラクタメイキングにおけるプレーヤの種々の要望に応えることが可能になる。
また本開示の一態様では、前記表示処理部は、所定パーツについては前記複数のキャラクタ画像の全てにおいて表示されるように前記複数のキャラクタ画像を生成してもよい。
このようにすれば、所定パーツについては複数のキャラクタ画像において常に表示されるようになるため、当該所定パーツについてのパーツ設定をプレーヤが適切に行えるようになる。
また本開示の一態様では、前記表示処理部は、第1のキャラクタ画像においては第1の部分が表示され、第2のキャラクタ画像においては前記第1の部分が非表示になる前記複数のキャラクタ画像を生成してもよい。
このようにすれば、第1のキャラクタ画像において表示されていた第1の部分が、第2のキャラクタ画像において表示されると不自然になるような状況においても、当該第1の部分を第2のキャラクタ画像において非表示にすることができ、適切な第1、第2のキャラクタ画像を表示できるようになる。
また本開示の一態様では、前記第1のキャラクタ画像は第1の仮想カメラ方向で見たキャラクタ画像であり、前記第2のキャラクタ画像は第2の仮想カメラ方向で見たキャラクタ画像であり、キャラクタを構成する1つのパーツに対して、前記第1の部分を有する第1のパーツと、前記第1の部分を有しない第2のパーツとが用意され、前記表示処理部は、前記第1のパーツを用いて前記第1のキャラクタ画像を生成し、前記第2のパーツを用いて前記第2のキャラクタ画像を生成してもよい。
このようにすれば、第1の仮想カメラ方向で見た第1のキャラクタ画像の生成の際には、第1の部分を有する第1のパーツが用いられ、第2の仮想カメラ方向で見た第2のキャラクタ画像の生成の際には、第1の部分を有しない第2のパーツが用いられるようになる。従って、第1の部分を有する第1のパーツが用いられることで、第1のキャラクタ画像では第1の部分が表示され、第1の部分を有しない第2のパーツが用いられることで、第2のキャラクタ画像では第1の部分が表示されないようになる。
図1(A)~図1(F)は本実施形態のゲームシステムを実現するハードウェア装置の説明図。 本実施形態のゲームシステムの構成例。 本実施形態の全体的な処理を説明するフローチャート。 キャラクタメイキング画像の例。 キャラクタメイキング画像の例。 キャラクタと仮想カメラの配置手法の説明図。 キャラクタと仮想カメラの他の配置手法の説明図。 顔を構成するパーツの説明図。 骨のデータの説明図。 キャラクタのパーツ情報の説明図。 図11(A)、図11(B)は所定パーツの配置位置を変更する手法の説明図。 本実施形態の詳細な処理を説明するフローチャート。 キャラクタメイキング画像の例。 キャラクタメイキング画像の例。 キャラクタメイキング画像の例。 キャラクタの全身画像が表示されるキャラクタメイキング画像の例。 キャラクタの全身画像が表示されるキャラクタメイキング画像の例。 キャラクタの所定部分の表示及び非表示を切り替える手法の説明図。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。
1.ゲームシステム
まず、図1(A)~図1(E)を用いて、本実施形態のゲームシステムを実現するハードウェア装置について説明する。
図1(A)では、サーバシステム500(情報処理システム)が、ネットワーク510を介して端末装置TM1~TMnと通信接続されている。例えばサーバシステム500はホストであり、端末装置TM1~TMnはクライアントである。なお、本実施形態のゲームシステム及びその処理は、サーバシステム500により実現してもよいし、端末装置TM1~TMnにより実現してもよい。或いはサーバシステム500と端末装置TM1~TMnの分散処理により実現してもよい。
また本実施形態のゲームシステム及び処理は、ブロックチェーンの手法により実現することも可能である。例えばイーサリウム(Ethereum)で実行可能なスマートコントラクトと呼ばれるプログラムを用いて、本実施形態のゲームシステムの各処理を実行してもよい。この場合には端末装置TM1~TMnはピア・ツー・ピアで接続されることになる。また端末装置TM1~TMnの間で通信されるゲーム情報等の各種の情報は、ブロックチェーンを用いて転送されることになる。なお、以下では、TM1~TMnの各端末装置を、適宜、端末装置TMと記載する。
サーバシステム500は例えば1又は複数のサーバ(管理サーバ、ゲームサーバ、課金サーバ、サービス提供サーバ、コンテンツ配信サーバ、認証サーバ、データベースサーバ、又は通信サーバ等)により実現できる。このサーバシステム500は、コミュニティ型ウェブサイトやオンラインゲームを運営するための各種サービスを提供し、ゲーム実行に必要なデータの管理や、クライアントプログラム及び各種データ等の配信を行うことができる。これにより、例えば、ユーザ端末である端末装置TMによりSNS(Social Networking Service)などを利用するためにサーバシステム500にアクセスし、当該サーバシステム500から提供されるオンラインゲームやソーシャルゲームや家庭用ゲームなどのネットワークゲームのプレイが可能になる。
ネットワーク510(配信網、通信回線)は、例えばインターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網や無線LAN等の通信網を含むことができる。また通信方法については有線/無線を問わない。
端末装置TM(プレーヤ端末)は、例えばネット接続機能(インターネット接続機能)を有する端末である。これらの端末装置TMとしては、例えば図1(B)に示すパーソナルコンピュータやタブレット型コンピュータなどの情報処理装置、図1(C)に示すスマートフォンや携帯電話機などの携帯型通信端末、図1(D)に示す携帯型ゲーム装置、図1(E)に示す家庭用ゲーム装置(据え置き型)、或いは図1(F)に示す業務用ゲーム装置などの種々の装置を用いることができる。或いは、端末装置TMとして、プレーヤの頭部や腕などの部位に装着されるウェアラブル機器(HMD、ウォッチ型機器等)を用いてもよい。
図2に本実施形態のゲームシステム(キャラクタメイクシステム)の構成例を示す。なお、ゲームシステムの構成は図2に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また本実施形態のゲームシステムにより実現されるゲームは、マルチプレイのゲームであってもよいし、シングルプレイのゲームであってもよい。またゲームのジャンルについても特に限定はなく、RPG(ロールプレイングゲーム)、アクションゲーム、格闘ゲーム、シューティングゲーム、競争ゲーム、リズムゲーム(音楽ゲーム)又はパズルゲームなどの種々のゲームに適用できる。また対戦ゲームである場合は、1対1の対戦でもよいし、多対多の対戦でもよい。或いは、1対多(一人対複数の敵)の対戦や、多対1(複数の味方対複数の敵)の対戦でもよい。また対戦相手は、他のプレーヤでもよいし、NPC(Non Player Character)でもよい。例えば、複数のプレーヤでパーティを組んで協力して、NPCの敵と対戦するゲームでもよい。また、プレーヤがキャラクタを操作せずに、AI(Artificial Intelligence)がプレーヤ側のキャラクタの操作を行うようにしてもよい。AIが操作するプレーヤ側のキャラクタは、全員でもよいし、一部でもよい。
ゲームシステムは、処理部100、操作部160、記憶部170、表示部190、音出力部192、I/F部194、通信部196を含む。
処理部100(プロセッサ)は、記憶部170(データベース)に記憶される各種の情報、プログラム、又は操作情報等に基づいて、ゲーム処理、受け付け処理、仮想空間設定処理、仮想カメラ設定処理、キャラクタ処理、管理処理、表示処理、或いは音処理などを行う。
処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリーにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシタ等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルタ回路等を含んでもよい。メモリー(記憶部170)は、SRAM、DRAM等の半導体メモリーであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリーはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
処理部100は、ゲーム処理部102、受け付け部104、仮想空間設定部106、仮想カメラ設定部108、キャラクタ処理部110、管理部112、表示処理部120、音処理部130を含む。
ゲーム処理部102はプレーヤがゲームをプレイするための種々のゲーム処理を行う。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。ネットワークゲームを例にとれば、ゲーム処理部102は、ユーザ情報をプレーヤごとに管理することで、プレーヤごとにゲームの進行を制御する。プレーヤのユーザ情報はユーザ情報記憶部178に記憶される。
受け付け部104は、操作部160を用いて入力される操作情報の受け付け処理を行う。即ち操作入力を受け付けるインターフェース処理を行う。
仮想空間設定部106は、オブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(車、人、ロボット、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、アイテム、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170の仮想空間情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度又は移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。即ち、オブジェクト情報が仮想空間情報として仮想空間情報記憶部172に記憶される。仮想空間設定部106は、例えば各フレーム毎に、仮想空間情報であるオブジェクト情報の更新処理を行う。
仮想カメラ設定部108は仮想カメラの設定処理を行う。例えば仮想空間での仮想カメラの位置や方向の設定処理を行う。例えばゲーム中においては、仮想カメラ設定部108は、プレーヤの一人称視点又は三人称視点として設定される仮想カメラの制御処理を行う。例えば実空間のプレーヤに対応する仮想空間のキャラクタ(プレーヤキャラクタ)の視点や、或いはキャラクタに追従する視点に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。
キャラクタ処理部110はキャラクタについての種々の処理を行う。例えばキャラクタへのパーツの設定処理などを行う。
管理部112は、例えばプレーヤの認証処理を行う。例えば端末装置を用いてログインしたプレーヤの認証処理を行う。この認証処理は、例えばプレーヤが入力するパスワードやアカウント情報などに基づいて行う。また管理部112は、種々の課金処理を行う。例えば課金の決定処理、課金データの作成処理、保存処理等を行う。また管理部112は、各種の管理処理を行う。例えば各種サービスの管理処理や、各種情報の管理処理を行う。
例えばプレーヤは、図1(A)のサーバシステム500等が提供するサービスを利用するために、所定の手続きを行ってアカウントを取得する。取得したアカウントと対応づけられるパスワードを入力してログインすることで、プレーヤは、ネットワークゲームのプレイや、ゲーム用サイトでのサービスや、アイテム等のオンライショッピングや、プレーヤ間でのメッセージ交換や、フレンドプレーヤの登録などの各種サービスを利用できるようになる。管理部112は、このようなプレーヤのアカウント情報の管理処理等も行う。
表示処理部120は、表示部190に画像を表示するための処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、仮想空間設定処理、仮想カメラ設定処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ176(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間において仮想カメラから見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。
音処理部130は、音出力部192から音を出力するための処理を行う。例えば、当該音(音声、ゲーム音、効果音)を生成するための音生成用データを生成する。
操作部160は、プレーヤ(ユーザ)が、操作情報等の種々の情報を入力するためのものであり、その機能は、操作ボタン、方向指示キー、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。タッチパネル型ディスプレイを用いる場合には、操作部160となるタッチパネルと、ディスプレイとなる表示部190とが一体に設けられることになる。
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能は、半導体メモリー、HDD、SSD、光ディスク装置などにより実現できる。記憶部170は、仮想空間情報記憶部172、キャラクタ情報記憶部174、描画バッファ176、ユーザ情報記憶部178を含む。仮想空間情報記憶部172は、3次元のオブジェクト空間である仮想空間についての情報を記憶する。例えば仮想空間に配置されるオブジェクトの情報などを記憶する。キャラクタ情報記憶部174は、キャラクタの情報を記憶する。例えばキャラクタの形状データ(モデル情報)やモーションデータを記憶する。描画バッファ176は、フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファである。ユーザ情報記憶部178は、ユーザであるプレーヤの個人情報(名前、性別、生年月日、メールアドレス等)をユーザ情報として記憶する。例えば、プレーヤのアカウント情報(ユーザID)もユーザ情報として記憶される。例えば課金処理の対象となる課金情報は、各プレーヤの各アカウント情報(ユーザID)に対応づけられる。
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク、HDD、半導体メモリーなどにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。この情報記憶媒体180に、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶できる。
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、或いはHMDなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、プレーヤが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリーカード)、USBメモリー、或いは磁気カードなどにより実現できる。
通信部196(通信インターフェース)は、外部装置との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバシステム(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバシステムによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。
そして図2に示すように本実施形態のゲームシステムは、受け付け部104と仮想空間設定部106と仮想カメラ設定部108とキャラクタ処理部110と表示処理部120を含む。
受け付け部104は、プレーヤの操作入力を受け付ける。例えばプレーヤが操作部160を用いて種々の操作入力を行った場合に、その操作入力を受け付ける処理を行う。即ち操作部160を用いて入力された操作情報の受け付け処理を行う。
仮想空間設定部106は、オブジェクト空間である仮想空間の設定処理を行う。例えば少なくとも1つのキャラクタが配置される仮想空間の設定処理を行う。キャラクタは、例えば複数のプリミティブ(ポリゴン)により構成される3次元のオブジェクトであり、例えばプレーヤに対応するプレーヤキャラクタである。
仮想カメラ設定部108は、複数の仮想カメラの設定処理を行う。例えば複数の仮想カメラを仮想空間に設定する。例えば仮想空間に配置される少なくとも1つのキャラクタに仮想カメラ方向が向くように複数の仮想カメラを配置する。例えば少なくとも1つのキャラクタとして複数のキャラクタが仮想空間に配置される場合には、仮想カメラ設定部108は、複数のキャラクタの各キャラクタに対応して、複数の仮想カメラの各仮想カメラを設定する。例えば各キャラクタに仮想カメラ方向が向くように各仮想カメラを配置する。或いは1つのキャラクタが仮想空間に配置される場合には、異なる位置に配置される複数の仮想カメラを、各仮想カメラ方向がキャラクタに向くように各仮想カメラを配置する。
キャラクタ処理部110は、キャラクタのパーツの設定処理を行う。例えばプレーヤの操作入力に基づいて、少なくとも1つのキャラクタを構成するパーツの設定処理を行う。例えばキャラクタ処理部110は、プレーヤの操作入力に基づいて、キャラクタに取り付けるパーツを選択・決定して、キャラクタを構成するパーツとして設定する処理を行う。パーツは、例えばキャラクタの身体パーツ(顔、胸、腰、腕、足等)や、衣装パーツや、武器、防具等の装備品パーツなどである。パーツの設定処理は、パーツを別のパーツに差し替える処理や、パーツの設定内容(種類、形状)の変更処理や、或いはパーツのモーションデータの変化処理(設定処理)などである。なお操作入力がコンピュータによる自動操作入力であるような変形実施も可能である。
表示処理部120は、複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部190に表示する処理を行う。例えば表示処理部120は、仮想空間において複数の仮想カメラから少なくとも1つのキャラクタを見た画像である複数のキャラクタ画像を生成する。例えば仮想空間に複数のキャラクタが配置される場合には、複数のキャラクタ画像の各キャラクタ画像は、複数の仮想カメラの各仮想カメラから複数のキャラクタの各キャラクタを見た画像になる。この場合には例えば、各仮想カメラの方向に対する各キャラクタの方向(相対的な方向)が互いに異なるように、複数のキャラクタの方向が設定される。仮想カメラの方向は仮想カメラの視線方向であり、キャラクタの方向はキャラクタの向く方向である。また仮想空間に1つのキャラクタが配置される場合には、複数のキャラクタ画像の各キャラクタ画像は、複数の仮想カメラの各仮想カメラから当該1つのキャラクタを見た画像になる。この場合には例えば、1つのキャラクタに対する各仮想カメラの位置(相対的位置)や方向(相対的な方向)が互いに異なるように、複数の仮想カメラが設定される。そして表示処理部120は、このように生成された複数のキャラクタ画像が配列されたキャラクタメイキング画像を生成して、表示部190に表示する処理を行う。キャラクタメイキング画像は、プレーヤがキャラクタメイキングのために見る画像であり、キャラクタメイキング画面としてプレーヤに表示される。
そして表示処理部120は、パーツの設定処理が行われた場合に、設定処理の結果が反映されたキャラクタメイキング画像を、表示部190に表示する処理を行う。例えばプレーヤの操作入力に基づいてキャラクタに対するパーツの設定処理が行われると、少なくとも1つのキャラクタ画像にパーツの設定処理の結果が反映されたキャラクタメイキング画像が表示される。更に具体的には複数のキャラクタ画像の全てにパーツの設定処理の結果が反映されたキャラクタメイキング画像が表示される。パーツの設定処理の結果が反映されたキャラクタ画像は、キャラクタのパーツが差し替えられたり、パーツの設定内容が変更されたり、或いはパーツに設定されるモーションデータが変更されたキャラクタ画像などである。
また仮想空間設定部106は、少なくとも1つのキャラクタとして複数のキャラクタを仮想空間に配置する。例えば第1~第N(Nは2以上の整数)のキャラクタ画像を生成する場合には、第1~第Nのキャラクタを仮想空間の異なる位置に配置する。そして仮想カメラ設定部108は、複数のキャラクタの各キャラクタに対して複数の仮想カメラの各仮想カメラを設定する。例えば第1~第Nのキャラクタの第i(iは1≦i≦Nとなる整数)のキャラクタに対して、第1~第Nの仮想カメラの第iの仮想カメラを設定する。例えば各仮想カメラ(第iの仮想カメラ)の方向が各キャラクタ(第iのキャラクタ)の方に向くように、複数の仮想カメラの各仮想カメラを配置する。この場合に、第iの仮想カメラの方向と第iのキャラクタの方向のなす角度と、第j(jは、1≦j≦Nとなるiとは異なる整数)の仮想カメラの方向と第jのキャラクタの方向のなす角度とが異なるように、第i、第jのキャラクタと第i、第jの仮想カメラが配置される。そして表示処理部120は、複数の仮想カメラの各仮想カメラから複数のキャラクタの各キャラクタを見た画像を、複数のキャラクタ画像の各キャラクタ画像として生成する。例えば第iの仮想カメラから第iのキャラクタを見た画像を、複数のキャラクタ画像の第iのキャラクタ画像として生成し、第jの仮想カメラから第jのキャラクタを見た画像を、複数のキャラクタ画像の第jのキャラクタ画像として生成する。そしてこれらの第i、第jのキャラクタ画像を含む複数のキャラクタ画像が配置されたキャラクタメイキング画像が表示部190に表示される。
この場合に仮想空間設定部106は、複数のキャラクタのライティングを行う光源を仮想空間に設定する。即ち複数のキャラクタのライティングを行う照明モデルとなる光源を設定する。照明モデルとしては、ランバード(Lambert)、フォン(Phong)、又はブリン(Blinn)などの種々の照明モデルを採用できる。また光源は、例えば複数の仮想カメラのうちの代表となる1つの仮想カメラに対応する位置に設定される。そして表示処理部120は、光源に基づく複数のキャラクタのシェーディング処理を行って、複数のキャラクタ画像を生成する。例えばグーローシェーディング又はフォンシェーディングなどのシェーディング処理により複数のキャラクタのオブジェクトを描画する処理を行って、複数のキャラクタ画像を生成する。これらのシェーディング処理は例えばピクセルシェーダなどにより実現できる。
またキャラクタ処理部110は、プレーヤの操作入力に基づいて、複数の仮想カメラの方向に対する複数のキャラクタの方向を設定する。例えばキャラクタ処理部110は、プレーヤが切替の操作入力を行った場合に、複数の仮想カメラの方向に対する複数のキャラクタの方向の関係である相対的な方向関係を一括して変化させる処理を行う。このようにすることで、複数のキャラクタ画像が一括して、異なる仮想カメラ方向で見たキャラクタ画像に変化するようになる。或いは仮想カメラとキャラクタの方向関係を個別に切り替えてもよい。このようにすれば、複数のキャラクタ画像が個別に、異なる仮想カメラ方向で見たキャラクタ画像に変化するようになる。
またキャラクタ処理部110は、プレーヤの操作入力に基づいて、複数のキャラクタに対してパーツの設定処理を実行する。例えば複数のキャラクタ画像に対してパーツの設定処理が反映されるように、複数のキャラクタに対してパーツの設定処理を実行する。例えばパーツの切替処理、パーツの内容の設定処理又はモーションデータの設定処理を、複数のキャラクタに対して一括に実行する。これにより複数のキャラクタ画像の全てに対してパーツの設定処理が反映されるようになる。なおキャラクタに対して個別にパーツの設定処理を行ってもよい。このようにすれば、キャラクタ画像に対して個別にパーツの設定処理が反映されるようになる。
また表示処理部120は、複数のキャラクタ画像として、第1の仮想カメラ方向(第iの仮想カメラ方向)で見た第1のキャラクタ画像(第iのキャラクタ画像)と、第1の仮想カメラ方向とは異なる第2の仮想カメラ方向(第jの仮想カメラ方向)で見た第2のキャラクタ画像(第jの仮想キャラクタ画像)を生成する。このようにすることで第1のキャラクタ画像と第2キャラクタ画像は、異なる仮想カメラ方向から見たキャラクタ画像になる。
この場合に表示処理部120は、第1のキャラクタ画像と第2のキャラクタ画像とで、所定パーツの配置位置を変更してもよい。即ち第1の仮想カメラ方向でキャラクタを見た第1のキャラクタ画像と、第2の仮想カメラ方向でキャラクタを見た第2のキャラクタ画像とで、所定パーツの配置位置を異ならせる。例えば第1のキャラクタ画像において第1の位置に配置されていた所定パーツを、第2のキャラクタ画像においては第1の位置からシフトした第2の位置に配置する。例えばアニメのキャラクタなどにおいて、アニメの表現に合うように所定パーツの位置を変更する。所定パーツは例えばキャラクタの顔を構成するパーツである。例えば所定パーツは、目パーツ、鼻パーツ、口パーツ又は顎パーツなどである。
また表示処理部120は、複数のキャラクタ画像の少なくとも1つのキャラクタ画像について、顔を構成するパーツのモーションデータを変化させることで顔の表情を変化させる。例えばパーツの骨のデータとして設定されるモーションデータを変化させることで、例えば目パーツ、鼻パーツ、口パーツ又は顎パーツ等の形状を変化させて、キャラクタ画像におけるキャラクタの顔の表情を変化させる。例えば通常の顔から、笑った顔、怒った顔、驚いた顔、明るい顔、嬉しい顔又は困った顔などに顔の表情を変化させる。
また表示処理部120は、プレーヤの操作入力に基づいてパーツの設定処理が行われた場合に、複数のキャラクタ画像においてパーツの設定処理が行われたキャラクタメイキング画像を、表示部190に表示する処理を行う。例えば、プレーヤが、パーツの設定処理を指示する操作入力を行った場合に、複数のキャラクタ画像においてパーツの設定処理が反映されたキャラクタメイキング画像を表示する。例えばパーツの差し替え処理、設定内容の変更処理又はモーションデータの変更処理が一括して反映された複数のキャラクタ画像を生成して、キャラクタメイキング画像として表示する。
また表示処理部120は、プレーヤの操作入力に基づいて、複数のキャラクタ画像を一括して、異なる仮想カメラ方向で見たキャラクタ画像に変化させる。例えばプレーヤがキャラクタ画像の表示の切り替えを指示する操作入力を行った場合に、複数のキャラクタ画像を一括して変化させる。例えば仮想空間に複数のキャラクタを配置して複数のキャラクタ画像を生成する場合には、複数の仮想カメラの方向に対する複数のキャラクタの方向を一括して変化させることで、複数のキャラクタ画像を変化させる。仮想空間に1つのキャラクタを配置して複数のキャラクタ画像を生成する場合には、キャラクタの方向に対する複数の仮想カメラの方向を一括して変化させることで、複数のキャラクタ画像を変化させる。
また表示処理部120は、プレーヤの操作入力に基づいて、複数のキャラクタ画像を個別に、異なる仮想カメラ方向で見たキャラクタ画像に変化させる。例えばプレーヤがキャラクタ画像の表示の切り替えを指示する操作入力を行った場合に、複数のキャラクタ画像のうちの例えば1つのキャラクタ画像を、異なる仮想カメラ方向でキャラクタを見たキャラクタ画像に変化させる。例えば仮想空間に複数のキャラクタを配置して複数のキャラクタ画像を生成する場合には、複数のキャラクタのうちの1つのキャラクタの方向を変化させることで、複数のキャラクタ画像のうち、当該キャラクタに対応するキャラクタ画像を変化させる。仮想空間に1つのキャラクタを配置して複数のキャラクタ画像を生成する場合には、複数の仮想カメラのうちの1つの仮想カメラの方向を変化させることで、複数のキャラクタ画像のうち、当該仮想カメラから見えるキャラクタ画像を変化させる。
また表示処理部120は、所定パーツについては複数のキャラクタ画像の全てにおいて表示されるように複数のキャラクタ画像を生成する。例えばキャラクタ画像としてキャラクタの顔を表示する場合には、顔の主要パーツ(所定パーツ)については複数のキャラクタ画像の全てにおいて表示されるようにする。例えば目パーツ、鼻パーツ、口パーツ、顎パーツなどの主要パーツについては常に表示されるようにする。例えばプレーヤがキャラクタ画像の表示を切り替える操作入力を行うことで、複数のキャラクタ画像を異なった仮想カメラの方向のキャラクタ画像に切り替える場合にも、所定パーツである主要パーツについては複数のキャラクタ画像の全てにおいて表示する。
また表示処理部120は、第1のキャラクタ画像においては第1の部分が表示され、第2のキャラクタ画像においては第1の部分が非表示になる複数のキャラクタ画像を生成する。例えば第1の仮想カメラから見える第1のキャラクタ画像においては表示されているキャラクタの第1の部分を、第2の仮想カメラから見える第2のキャラクタ画像においては表示しないようにする。例えば仮想カメラの視点に応じて、キャラクタを構成する部分において、描画される部分と描画されない部分を設ける。即ち第1の仮想カメラの視点においては、描画した方が望ましい第1の部分を、第2の仮想カメラの視点において描画すると不自然になってしまうような場合には、当該第1の部分については、第2の仮想カメラから見える第2のキャラクタ画像においては表示しないようにする。
この場合に、例えば第1のキャラクタ画像は、第1の仮想カメラ方向で見たキャラクタ画像であり、第2のキャラクタ画像は、第2の仮想カメラ方向で見たキャラクタ画像である。即ち第1のキャラクタ画像と第2のキャラクタ画像とは異なる仮想カメラ方向で見たキャラクタ画像である。そしてキャラクタを構成する1つのパーツに対して、第1の部分を有する第1のパーツと、第1の部分を有しない第2のパーツとが用意される。即ち1つのパーツに対して、形状等が異なる複数種類のパーツである第1のパーツと第2のパーツが用意される。この第1のパーツの情報と第2のパーツの情報は、キャラクタ情報としてキャラクタ情報記憶部174に記憶される。そして表示処理部120は、第1のパーツを用いて第1のキャラクタ画像を生成し、第2のパーツを用いて第2のキャラクタ画像を生成する。即ち第1の仮想カメラ方向から見た第1のキャラクタ画像の生成の際には、第1の部分を有する第1のパーツを用い、第2の仮想カメラ方向から見た第2のキャラクタ画像の生成の際には、第1の部分を有しない第2のパーツを用いるようにする。これにより、第1のキャラクタ画像においては第1の部分が表示され、第2のキャラクタ画像においては当該第1の部分が非表示になる。
なお、以上に説明した図2の本実施形態のゲームシステムや処理は、図1(A)のサーバシステム500により実現したり、端末装置TMにより実現したり、サーバシステム500と端末装置TMの分散処理により実現するなどの種々の変形実施が可能である。また本実施形態のプログラムとしては、パーソナルコンピュータ用のゲームプログラム、スマートフォンのアプリケーションプログラム、家庭用ゲーム装置のゲームプログラム、スマートフォンやパーソナルコンピュータ用のブラウザゲームプログラム、或いは業務用ゲーム装置のプログラムなどの種々のプログラムに適用できる。
2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。
2.1 複数のキャラクタ画像が配列されたキャラクタメイキング画像
本実施形態では、ゲームに登場するキャラクタとして、プレーヤにとってオリジナルなキャラクタを作成できるようにするキャラクタメイキング画像を、プレーヤに表示する。例えば図3は本実施形態の全体的な処理例を示すフローチャートである。
まずタイトル画面が表示され(ステップS1)、その後にユーザ選択、キャラクタ選択が行われる(ステップS2、S3)。そしてキャラクタ選択において、ユーザであるプレーヤが新規のキャラクタを作成する場合には、キャラクタメイキング画面を表示する(ステップS4、S5)。一方、プレーヤが新規のキャラクタを作成しない場合には、作成済みのキャラクタが選択される。そしてキャラクタ選択の後にゲームが開始し(ステップS6)、ゲームを進行させる処理が行われる(ステップS7)。そしてゲームが終了したか否かが判断され(ステップS8)、ゲームが終了したと判断されると処理を終了する。このように本実施形態では、プレーヤがキャラクタメイキングで新規作成したキャラクタをゲームに登場させて、プレーヤは、新規作成したキャラクタを例えばプレーヤキャラクタとして、ゲームプレイを楽しむことが可能になる。
図4は本実施形態のキャラクタメイキング画像(キャラクタメイキング画面)の例である。図4に示すように本実施形態では、複数のキャラクタ画像IM1、IM2、IM3が配列されたキャラクタメイキング画像がプレーヤに表示される。これらのキャラクタ画像IM1、IM2、IM3は、異なった仮想カメラ方向で同じキャラクタを見たキャラクタ画像になっている。即ち本実施形態では、オブジェクト空間である仮想空間にキャラクタを配置し、仮想空間においてキャラクタを複数の仮想カメラから見た画像である複数のキャラクタ画像IM1、IM2、IM3を生成する。そして、これらのキャラクタ画像IM1、IM2、IM3が配列された画像を、キャラクタメイキングを行うための画像として表示する。なお本実施形態では、キャラクタ画像の個数が3個である場合を主に例にとり説明するが、キャラクタ画像の個数は後述の図16、図17に示すように2個であってもよいし、4個以上であってもよい。
プレーヤは図4のA1に示す操作入力領域で、キャラクタのクラス、体型及び性別、顔及び髪型、衣装、音声を選択できる。クラスの項目では、プレーヤは、例えばロールプレイングゲーム(RPG)内でのキャラクタの能力と役割分担を表すクラスを設定できる。クラスはキャラクタの職業とも呼ばれる。体型及び性別の項目では、プレーヤは、後述の図16、図17で説明するようにキャラクタの体型や男女の性別を設定できる。衣装の項目では、プレーヤは、キャラクタに着せる衣装パーツを設定できる。音声の項目では、キャラクタが発する音声を設定できる。そして図4のA1では、プレーヤは顔及び髪型の項目を選択しており、これによりA2に示すように、プレーヤは、キャラクタの顔タイプ、肌の色、髪型、輪郭、眉、目、鼻、口などの設定ができる。プレーヤは、これらについての設定をA3に示す操作入力領域で行うことができる。またA4の切替アイコンを用いることで、プレーヤは各種の表示切り替えが可能になっている。
例えば図4ではキャラクタ画像IM1、IM2、IM3として大人タイプの顔のキャラクタ画像が表示されている。そしてプレーヤが例えば子供タイプを選択すると、図5に示すようにキャラクタ画像IM1、IM2、IM3として子供タイプの顔のキャラクタ画像が表示されるようになる。そしてプレーヤが、例えば肌色、髪型、輪郭、眉、目、鼻又は口などの項目を選択して、キャラクタを構成する各パーツを設定する操作入力を行うと、パーツの設定処理の結果が反映されたキャラクタメイキング画像が表示されるようになる。
以上のように本実施形態では、プレーヤの操作入力が受け付けられ、プレーヤの操作入力に基づいて、キャラクタを構成するパーツの設定処理が行われる。即ちプレーヤは、図4のA1、A2、A3に示す操作入力領域でクリック操作やタッチ操作を行ったり、A4の切替アイコンをクリックしたりタッチする。すると、このプレーヤの操作入力が受け付けられて、キャラクタを構成する身体パーツ、衣装パーツ又は装備品パーツの差し替え処理や変更処理などのパーツの設定処理が行われる。また本実施形態では、少なくとも1つのキャラクタと複数の仮想カメラを仮想空間に配置し、図4に示すように仮想空間において複数の仮想カメラからキャラクタを見た画像である複数のキャラクタ画像IM1、IM2、IM3を生成する。そしてこれらのキャラクタ画像IM1、IM2、IM3が配列されたキャラクタメイキング画像をプレーヤに表示する。そしてプレーヤの操作入力によりパーツの設定処理が行われると、当該設定処理の結果が反映されたキャラクタメイキング画像を表示する。例えば身体パーツや衣装パーツの差し替え処理などのパーツの設定処理が行われると、この設定処理の結果をキャラクタメイキング画像のキャラクタ画像IM1、IM2、IM3に反映させる。
例えばこれまでのキャラクタメイキングでは、キャラクタメイキング画像として1つのキャラクタ画像しか表示していなかった。このためプレーヤは、例えばキャラクタのパーツの差し替え等を行った場合に、その反映結果を1つのキャラクタ画像でしか確認できなかった。このため、パーツの差し替え等を行った後のキャラクタの画像が、プレーヤの趣向や好みに沿ったものであるかを、プレーヤは十分に確認したり吟味することができなかった。
この場合に例えばプレーヤがキャラクタを回転させる操作を行うことで、キャラクタが回転して見えるキャラクタ画像を表示する手法も考えられる。例えばキャラクタを注視する仮想カメラを、キャラクタを中心とした円周上で移動させることで、キャラクタが回転して見えるキャラクタ画像を生成できる。
しかしながら、この手法では、プレーヤは、キャラクタを回転させる操作を行って、色々な方向でのキャラクタの画像の見え方を確認しながら、作業を行う必要があるため、プレーヤの作業効率が低下してしまう。即ちプレーヤは、キャラクタをグルグルと回転させながら、自身が取り付けたパーツが好みに合うかを確認する作業を行う必要があり、煩雑な作業をプレーヤに強いることになってしまう。
特にキャラクタメイキングにおいては、プレーヤは、他のプレーヤが作成したキャラクタと被らないようなオリジナルのキャラクタの作成を望んでいる。このため、キャラクタに対して、より精細にパーツ設定が可能なことが望ましいが、このような細かなパーツ設定の作業において、上記のような煩雑な確認作業をプレーヤに強いてしまうと、キャラクタメイキングにおけるプレーヤの作業が煩雑化してしまい、好適なインターフェース環境をプレーヤに提供できないという問題がある。
そこで本実施形態では図4に示すように、例えば色々な仮想カメラ方向での複数のキャラクタ画像IM1、IM2、IM3が配列されるキャラクタメイキング画像をプレーヤに表示する。そしてプレーヤがパーツの差し替え等の操作入力を行うと、パーツの差し替え等の設定処理が、キャラクタ画像IM1、IM2、IM3に反映されたキャラクタメイキング画像をプレーヤに表示する。このようにすればプレーヤは、パーツの設定後のキャラクタの画像が、自身の好みや趣向に合うのかを、キャラクタメイキング画像の複数のキャラクタ画像IM1、IM2、IM3を例えば1回見るだけで確認できるようになる。この結果、プレーヤの作業効率を向上でき、キャラクタメイキングにおけるプレーヤの作業の繁雑化を抑制できるようになる。従って、プレーヤは、精細なパーツ設定であっても、ストレス無く作業を行うことが可能になり、他のプレーヤと被らないオリジナルのキャラクタを作成することが容易になり、キャラクタメイキングにおけるプレーヤのインターフェース環境を向上できるようになる。
2.2 キャラクタ画像の生成処理
次にキャラクタ画像の生成手法の具体例について説明する。本実施形態では図6に示すように複数のキャラクタCH1、CH2、CH3を仮想空間に配置する。これらのキャラクタCH1、CH2、CH3は、プレーヤのキャラクタメイキングの対象となる同じモデルのキャラクタである。即ち同じ形状モデルのキャラクタである。そして本実施形態では、これらの複数のキャラクタCH1、CH2、CH3に対して複数の仮想カメラVC1、VC2、VC3を設定する。即ちCH1、CH2、CH3の各キャラクタに対応して、VC1、VC2、VC3の各仮想カメラを配置する。例えばキャラクタCH1を注視する仮想カメラとしてVC1を配置し、キャラクタCH2を注視する仮想カメラとしてVC2を配置し、キャラクタCH3を注視する仮想カメラとしてVC3を配置する。そして複数の仮想カメラVC1、VC2、VC3の各仮想カメラから複数のキャラクタCH1、CH2、CH3の各キャラクタを見た画像を、図4の複数のキャラクタ画像IM1、IM2、IM3の各キャラクタ画像として生成する。即ちキャラクタ画像IM1は、仮想カメラVC1からキャラクタCH1を見た画像である。またキャラクタ画像IM2は、仮想カメラVC2からキャラクタCH2を見た画像であり、キャラクタ画像IM3は、仮想カメラVC3からキャラクタCH3を見た画像である。
このようにすれば、異なる仮想カメラ方向から見た複数のキャラクタ画像IM1、IM2、IM3を簡素な処理で生成できるようになる。例えば図6では、仮想カメラVC1の方向DV1(視線方向)に対して、キャラクタCH1の方向DC1は平行になっており、反対方向になっている。これにより図4に示すように、正面顔の画像がキャラクタ画像IM1として生成される。また仮想カメラVC2の方向DV2に対して、キャラクタCH2の方向DC2は左方向(時計回り方向)に向いており、これにより図4に示すように、左横顔の画像がキャラクタ画像IM2として生成される。また仮想カメラVC3の方向DV3に対して、キャラクタCH3の方向DC3は右方向(反時計回り方向)に向いており、これにより図4に示すように、右横顔の画像がキャラクタ画像IM3として生成される。
このように図6の手法によれば、仮想カメラVC1~VC3の方向DV1~DV3に対するキャラクタCH1~CH3の方向を設定することで、複数のキャラクタ画像IM1~IM3として異なる方向から見たキャラクタ画像を生成できるようになる。これによりプレーヤは、色々な方向でのキャラクタ画像を一括して確認できるようになり、キャラクタメイキングの作業効率を向上できる。
また図6ではキャラクタCH1~CH3のライティングを行う光源LSを仮想空間に設定している。例えばランバード、フォン又はブリンなどの照明モデルによる光源LSを設定する。例えば図6では、正面顔の画像用の仮想カメラVC1の付近に光源LSが設定されている。そして、この光源LSに基づくキャラクタCH1~CH3のシェーディング処理を行って、キャラクタ画像IM1~IM3を生成する。例えばグーローシェーディング又はフォンシェーディングなどのシェーディング処理によりキャラクタCH1~CH3のオブジェクト(オブジェクトを構成するポリゴン)を描画する処理を行って、キャラクタ画像IM1~IM3を生成する。これにより光源LSによる陰影づけが施されたキャラクタの画像を生成できるようになり、リアルなキャラクタ画像を生成できる。即ちゲームにキャラクタが登場するときと同様のリアルな陰影づけが施されたキャラクタの画像を生成することが可能になり、より適切でリアルなキャラクタメイキング画像をプレーヤに表示できるようになる。
そして本実施形態では後述の図13等で説明するように、プレーヤの操作入力に基づいて、図6の複数の仮想カメラVC1~VC3の方向DV1~DV3に対する複数のキャラクタCH1~CH3の方向DC1~DC3を設定する。例えばプレーヤの操作入力に応じて、仮想カメラVC1~VC3の方向DV1~DV3とキャラクタCH1~CH3の方向DC1~DC3とのなす角度を変化させる。このようにすることで、プレーヤの操作入力に応じて、キャラクタ画像IM1~IM3におけるキャラクタの向く方向を変化させることが可能になり、キャラクタメイキングに好適なキャラクタ画像IM1~IM3をプレーヤに表示できるようになる。
例えば本実施形態では、プレーヤが画像の切替の操作入力を行った場合に、仮想カメラVC1~VC3の方向DV1~DV3に対するキャラクタCH1~CH3の方向DC1~DC3を一括して切り替える。即ち方向DV1~DV3と方向DC1~DC3のなす角度を一括して切り替える。こうすることで、プレーヤが切替の操作を行うだけで、キャラクタ画像IM1~IM3が、異なる方向から見たキャラクタ画像に一斉に切り替わるようになり、キャラクタメイキングにおけるプレーヤの作業効率を向上できる。
なお図6では複数のキャラクタ画像IM1~IM3に対応する複数のキャラクタCH1~CH3を仮想空間に配置しているが、図7に示すように1つのキャラクタCHを仮想空間に配置して複数のキャラクタ画像IM1~IM3を生成するようにしてもよい。例えば図7では、1つのキャラクタCHを注視する複数の仮想カメラVC1、VC2、VC3を配置する。仮想カメラVC1、VC2、VC3の方向DV1、DV2、DV3(視線方向)は、1つのキャラクタCHの方に向いている。このようにすればキャラクタCHの正面に配置された仮想カメラVC1から見える画像をキャラクタ画像IM1として生成できる。またキャラクタCHの左斜め前方に配置された仮想カメラVC2から見える画像をキャラクタ画像IM2として生成し、キャラクタCHの右斜め前方に配置された仮想カメラVC3から見える画像をキャラクタ画像IM3として生成できる。即ち図4に示すように正面顔、左横顔、右横顔の画像をキャラクタ画像IM1、IM2、IM3として生成できるようになる。
但し図7の手法は、光源LSに基づくシェーディング処理を行った場合に、図6の手法に比べて不利となる。即ち図6の手法によれば、正面顔の画像のみならず、左横顔の画像、右横顔の画像についても、より適切に陰影づけが施された画像を生成できる。これに対して図7の手法では、正面顔のキャラクタ画像IM1は適正な明るさの画像になるが、左横顔のキャラクタ画像IM2や、右横顔のキャラクタ画像IM3が暗い画像になってしまう。即ち仮想カメラVC1の付近に設定された光源LSにより、キャラクタCHの正面側については明るく陰影づけされるが、キャラクタCHの左側面や右側面については、正面方向の光源LSからの光りがあたりにくくなることで、暗い画像になってしまう。従って、この意味においては、図6の手法によりキャラクタ画像IM1~IM3を生成することが望ましい。
図8はキャラクタの顔を構成するパーツについての説明図である。図8ではキャラクタの顔は、目のパーツPE、鼻のパーツPN、口のパーツPM、輪郭パーツである顎のパーツPCにより構成されている。なお図8における点は、モーションデータにおける骨の位置を表しており、具体的には骨の関節位置を表している。これらの骨の位置をモーションデータに基づいて変化させることで、パーツPE、PN、PM、PCの形状が変化する。これによりキャラクタの顔の表情などを変化させることが可能になる。例えば目のパーツPEにおいて、眉について設定された骨の位置(関節位置)を変化させることで、キャラクタの眉を種々の形状を変化させることが可能になる。また目のパーツPEにおいて、瞼の縁(目の穴、眼窩)の形について設定された骨の位置を変化させることで、キャラクタの瞼の縁の形状を種々の形状に変化させることができる。また顎のパーツPCに設定された骨の位置を変化させることで、顎の輪郭形状を種々の形状に変化させることができる。なお口のパーツPMにおいては、口蓋のみならず、舌や歯などについても骨が設定されている、舌のパーツや骨のパーツとしてモデル化されている。
図9はパーツに設定される骨のデータについての説明図である。骨のデータは、キャラクタのモーションデータに対応し、例えば関節位置である骨の位置J1、J2により表すことができる。或いは骨のデータは、親の骨(BM1)に対する子の骨(BM2)のX軸、Y軸、Z軸回りの回転角により表すことができる。また骨のデータは、X軸、Y軸、Z軸の方向でのスケーリングのパラメータを含むことができる。X軸は骨に沿った方向でありY軸、Z軸はX軸に直交する軸である。例えばX軸方向でのスケーリングの値を変化させることで、図16、図17において後述するキャラクタの身長の調整が可能になる。またY軸方向、Z軸方向でのスケーリングの値を変化させることで、キャラクタの身体パーツの太さ(肉付き)の調整が可能になる。
例えばキャラクタを構成するパーツのオブジェクトの頂点に対しては、キャラクタの各パーツの各骨に対するウェイト値が設定されている。そして、このウェイト値に対応する移動量で、パーツのオブジェクトの頂点が骨に追従するようになる。従って、骨のデータをモーションデータとして制御することで、キャラクタの姿勢やパーツの形状(表情)などを設定できるようになる。
そして本実施形態では、プレーヤの操作入力に基づいて、図6の複数のキャラクタCH1~CH3に対してパーツの設定処理を実行する。即ち図6では、キャラクタ画像IM1~IM3を生成するために、同じ形状モデルの複数のキャラクタCH1~CH3を仮想空間に配置している。そしてプレーヤが、キャラクタメイキングを行うために、パーツ切替等の操作入力を行った場合には、これらの複数のキャラクタCH1~CH3に対して、パーツ切替処理等のパーツの設定処理を実行する。例えば第1のパーツを差し替える操作入力が行われた場合には、これらのキャラクタCH1~CH3の全てにおいて、当該第1のパーツの差し替え処理を実行する。こうすることでキャラクタ画像IM1~IM3においても、パーツの差し替えが行われるようになる。これによりプレーヤは、パーツ差し替え後のキャラクタ画像IM1~IM3を確認しながら、キャラクタメイキングの作業を行えるようになり、作業効率の高いキャラクタメイキングを実現できるようになる。
また本実施形態では、複数のキャラクタ画像の少なくとも1つのキャラクタ画像について、顔を構成するパーツのモーションデータを変化させることで顔の表情を変化させる。
例えば図10は、キャラクタのパーツ情報の例を説明する図である。このパーツ情報は、キャラクタ情報として図2のキャラクタ情報記憶部174に記憶される。キャラクタの顔パーツ、胸パーツ、右腕パーツ、左腕パーツなどの身体パーツの動きは、キャラクタの全体的な姿勢を設定するモーションデータMALにより制御される。また図10では、顔パーツは、目、鼻、口、顎のパーツにより構成されている。そして、これらの目、鼻、口、顎のパーツの形状は、各々、モーションデータME、MN、MM、MCにより制御される。即ちこれらのモーションデータME、MN、MM、MCの設定により、キャラクタの顔の表情の設定が可能になる。
例えばキャラクタの顔の表情を、通常の顔から笑った顔に変化させる場合には、目、鼻、口、顎のパーツのモーションデータME、MN、MM、MCを、笑った顔に対応するモーションデータに設定する。即ち、目、鼻、口、顎の形が、笑った時の形になるようにモーションデータを設定する。同様にキャラクタの顔の表情を、通常の顔から怒った顔に変化させる場合には、目、鼻、口、顎のパーツのモーションデータME、MN、MM、MCを、怒った顔に対応するモーションデータに設定する。このようにすれば、モーションデータの設定という負荷の軽い処理で、キャラクタの表情を種々に変化させることが可能になり、キャラクタメイキングの処理の軽減や簡素化等を図れる。
また本実施形態では、複数のキャラクタ画像として、第1の仮想カメラ方向で見た第1のキャラクタ画像と、第1の仮想カメラ方向とは異なる第2の仮想カメラ方向で見た第2のキャラクタ画像を生成する。例えば図4のキャラクタ画像IM1~IM3のうちの1つの画像が、第1のキャラクタ画像であり、他の1つの画像が第2のキャラクタ画像である。例えばキャラクタ画像IM1を第1のキャラクタ画像とし、キャラクタ画像IM2を第2のキャラクタ画像としたとする。この場合に図6においては、第1のキャラクタ画像は、第1の仮想カメラ方向である方向DV1でキャラクタCH1を見た画像になり、第2のキャラクタ画像は、第2の仮想カメラ方向である方向DV2でキャラクタCH2を見た画像になる。また図7においては、第1のキャラクタ画像は、第1の仮想カメラ方向である方向DV1でキャラクタCHを見た画像になり、第2のキャラクタ画像は、第2の仮想カメラ方向である方向DV2でキャラクタCHを見た画像になる。このようにすれば、異なる仮想カメラ方向から見た複数のキャラクタ画像を、キャラクタメイキング画像としてプレーヤに表示できるようになる。
そしてこの場合に、第1の仮想カメラ方向で見た画像である第1のキャラクタ画像と、第2の仮想カメラ方向で見た画像である第2のキャラクタ画像とで、所定パーツの配置位置を変更してもよい。
例えば図11(A)は、キャラクタの下側からキャラクタへと向かう方向に仮想カメラが設定されており、いわゆる煽り顔のキャラクタ画像が生成されている。この場合に、鼻、口、顎のパーツPN、PM、PCの位置や形状を、通常の顔と同様の位置や形状にしてしまうと、不自然な顔画像になってしまうおそれがある。例えば鼻や口の位置が不自然になったり、顎の輪郭が不自然な形状になってしまう。
そこで本実施形態では、このような煽り顔のキャラクタ画像を生成する場合に、図11(B)に示すように、例えば鼻のパーツPNや口のパーツPMの配置位置を、例えば下側に移動する。即ち図11(B)では、図11(A)に比べて、鼻のパーツPNや口のパーツPMの配置位置が、顔の下側方向に移動している。また顎のパーツPCの先端の形状も凸形状が緩和されるように変更している。このようにすることで、例えば仮想カメラ方向が、通常の顔での方向(第1の仮想カメラ方向)から煽り顔での方向(第2の仮想カメラ方向)に変化した場合にも、より自然な煽り顔に見えるキャラクタ画像を生成できるようになる。同様に例えばアニメのキャラクタにおいて横顔のキャラクタ画像を生成する場合に、通常の顔と同様に位置に口のパーツPMを配置すると、アニメとしては不自然なキャラクタ画像になってしまう場合がある。このため、この場合にも、横顔のキャラクタ画像では、口のパーツPMの配置位置を例えば頬側に移動するような処理を行うことが望ましい。
図12は本実施形態の詳細な処理例を説明するフローチャートである。まず仮想空間に複数のキャラクタと複数の仮想カメラを設定する(ステップS11)。即ち図6に示すように、同じ形状モデルの複数のキャラクタCH1~CH3を仮想空間に配置すると共に、これらのキャラクタCH1~CH3用の仮想カメラVC1~VC3を配置する。
次にプレーヤの操作入力に基づいて、複数の仮想カメラの方向に対する複数のキャラクタの方向を設定する(ステップS12)。例えば図6において仮想カメラVC1~VC3の方向DV1~DV3に対するキャラクタCH1~CH3の向く方向DC1~DC3を設定する。例えばプレーヤが画像の切替操作を行った場合には、方向DV1~DV3と方向DC1~DC3との相対的な方向関係を一括して切り替える。
次にプレーヤの操作入力に基づいて、複数のキャラクタに対してパーツの設定処理を実行する(ステップS13)。例えば図6において、プレーヤが所定パーツの差し替えの操作入力を行った場合には、同一モデルのキャラクタを表すキャラクタCH1~CH3の所定パーツを一括して差し替える。
次に光源に基づく複数のキャラクタのシェーディング処理を行って、複数のキャラクタ画像を生成する(ステップS14)。例えば図6において、光源LSに基づいて、キャラクタCH1のシェーディング処理を行って、キャラクタ画像IM1を生成する。同様に光源LSに基づいて、キャラクタCH2、CH3の各々のシェーディング処理を行ってキャラクタ画像IM2、IM3を生成する。そして複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部190に表示する(ステップS15)。即ち図4、図5のように所定の配列態様でキャラクタ画像IM1~IM3が配列されたキャラクタメイキング画像をプレーヤに表示する。
2.3 キャラクタメイキング画像の例
次にキャラクタメイキング画像の種々の例について説明する。図13は例えばプレーヤが切替アイコン等を操作して画像の切替操作を行った場合のキャラクタメイキング画像の例である。例えば図4のキャラクタメイキング画像が表示されている状態で、プレーヤが画像の切替操作を行うと、図13に示すようなキャラクタメイキング画像が表示される。図13では、図4に比べて、キャラクタ画像IM1~IM3におけるキャラクタの向く方向が異なっている。即ち図13では、図4とは異なる仮想カメラ方向で見たキャラクタ画像IM1~IM3が表示されている。このようなキャラクタ画像IM1~IM3の切替は、例えば図6の場合には、仮想カメラVC1~VC3の方向DV1~DV3に対するキャラクタCH1~CH3の方向DC1~DC3を一括して変化させることで実現できる。また図7の場合には、キャラクタCHに対する仮想カメラVC1~VC3の方向DV1~DV3を一括して変化させることで実現できる。
このように本実施形態では、図4、図13に示すように、プレーヤの操作入力に基づいて、複数のキャラクタ画像IM1~IM3を一括して、異なる仮想カメラ方向で見たキャラクタ画像に変化させる。このようにすればプレーヤは、例えば画像の切替操作等の簡素な操作を行うことで、キャラクタ画像IM1~IM3におけるキャラクタの向く方向を一括して変化させることが可能になる。これによりプレーヤは、キャラクタメイキングにおいて行ったパーツ設定等が、自身の好みや趣向に沿ったものであるかを、簡素な操作で確認できるようになり、キャラクタメイキングにおけるプレーヤのインターフェース環境の向上を図れる。
なお図14では、複数のキャラクタ画像IM1~IM3を一括して、異なる仮想カメラ方向で見たキャラクタ画像に変化させているが、本実施形態の手法はこれに限定されない。例えばプレーヤの操作入力に基づいて、複数のキャラクタ画像IM1~IM3を個別に、異なる仮想カメラ方向で見たキャラクタ画像に変化させてもよい。例えばキャラクタ画像IM1~IM3のうちの1つのキャラクタ画像についてだけ、異なる仮想カメラ方向で見たキャラクタ画像に変化させる。例えば図6においてキャラクタ画像IM3だけを個別に変化させる場合には、プレーヤの操作入力に基づいて、仮想カメラVC3の方向DV3に対するキャラクタCH3の方向DC3だけを変化させて、他のキャラクタCH1、CH2の方向DC1、DC2については変化させないようにすればよい。また図7の場合には、キャラクタCHに対する仮想カメラVC3の方向DV3だけを変化させて、他の仮想カメラVC1、VC2の方向DV1、DV2については変化させないようにすればよい。このようにすれば、プレーヤが詳細に確認したいキャラクタ画像についてだけ、個別に、キャラクタの向く方向を変化させることが可能になり、キャラクタメイキングにおけるプレーヤの種々の要望に応えることができ、プレーヤの作業の効率化等を図れる。
図14では、キャラクタ画像IM3におけるキャラクタの顔の表情を変化させている。即ち図4のキャラクタ画像IM3では、キャラクタの表情は通常の表情であるが、図14のキャラクタ画像IM3では、キャラクタの表情を怒った顔の表情に変化させている。具体的には図8~図10で説明したように、顔を構成するパーツのモーションデータを変化させることでキャラクタの顔の表情を変化させいている。例えば目、鼻、口又は顎のパーツにおける骨のデータに対応するモーションデータを変化させることで、これらのパーツの形状を変化させて、キャラクタの顔の表情を変化させる。このように本実施形態では、複数のキャラクタ画像の少なくとも1つのキャラクタ画像について、顔を構成するパーツのモーションデータを変化させることで顔の表情を変化させている。このようにすれば、モーションデータを制御するという簡素な処理で、キャラクタの顔の表情を変化させることができる。例えば顔の表情を変化させる手法として、キャラクタの顔の各パーツの差し替え処理を行う手法も考えられるが、この手法では、各キャラクタについて、各表情に対応するパーツを用意する必要があり、パーツについてのデータ量が膨大になってしまう。この点、顔を構成するパーツのモーションデータを変化させる本実施形態の手法によれば、少ないデータ量でキャラクタの顔の表情を変化させる処理が可能になり、データの使用記憶容量の節約等を図れるようになる。
なお図13においても、図4に対してキャラクタの顔の表情を変化させている。即ち図4での通常の顔の表情から、図14では笑った顔の表情に変化させている。例えばプレーヤの操作入力に基づいて、キャラクタの顔の表情を一括して変化させている。このように顔の表情を変化させる対象となるキャラクタ画像は1つには限定されず、複数のキャラクタ画像での顔の表情を、プレーヤの操作入力等に基づいて一括して変化させてもよい。
また図15では、キャラクタのパーツの差し替え処理を行っている。例えばキャラクタの目のパーツや鼻のパーツを、図4とは異なるパーツに差し替えている。例えば図15では、図4の通常の目のパーツから、つり目を表す目のパーツに差し替えられている。また図15では、図4に比べて、鼻の高さが高い鼻のパーツに差し替えられている。
このように本実施形態では、プレーヤの操作入力に基づいてパーツの差し替え処理等の設定処理が行われた場合に、複数のキャラクタ画像IM1~IM3においてパーツの設定処理が行われたキャラクタメイキング画像を表示する。図6を例にとれば、プレーヤが、所定パーツの差し替えの指示を行うと、全てのキャラクタCH1~CH3において、当該所定パーツの差し替え処理を行う。例えば通常の目のパーツから、つり目のパーツに差し替える指示が行われた場合には、全てのキャラクタCH1~CH3において、通常の目のパーツから、つり目のパーツへの差し替え処理を行う。例えば通常の鼻のパーツから、高い鼻のパーツに差し替える指示が行われた場合には、全てのキャラクタCH1~CH3において、通常の鼻のパーツから、高い鼻のパーツへの差し替え処理を行う。こうすることで、プレーヤの操作入力による指示に基づいて、複数のキャラクタ画像IM1~IM3において一括して、パーツの差し替え処理等のパーツの設定処理を行うことが可能になる。
例えば1つのキャラクタ画像だけをキャラクタメイキング画像として表示する比較例の手法では、キャラクタのパーツ設定を行った後、キャラクタの向きを変更して、キャラクタ画像の見え方を確認するというような作業を、何度も繰り返す必要があり、キャラクタメイキングにおけるプレーヤの作業が煩雑になる。これに対して本実施形態によれば、プレーヤは、パーツの設定処理が、複数のキャラクタ画像IM1~IM3においてどのように反映されたかを、一括で確認できる。従って、比較例の手法に比べて、プレーヤの作業効率を向上でき、キャラクタメイキングにおける好適なインターフェース環境をプレーヤに提供できるようになる。
また本実施形態では、所定パーツについては複数のキャラクタ画像の全てにおいて表示されるように複数のキャラクタ画像を生成する。例えばプレーヤの操作入力に基づいて、仮想カメラ方向が切り替わるなどの画像切替が行われた場合にも、所定パーツについては複数のキャラクタ画像の全てにおいて表示されるようにする。例えば図4、図5、図13~図15の顔のキャラクタ画像IM1~IM3においては、目、口、鼻又は顎のパーツについては、顔のメインパーツである所定パーツとして、画像の切替操作等が行われた場合にも、全てのキャラクタ画像IM1~IM3において表示する。このようにすれば、メインパーツ等の所定パーツについてはキャラクタ画像IM1~IM3において常に表示されるようになるため、当該所定パーツについてのパーツ差し替え等のパーツ設定を、プレーヤが適切に行えるようになる。
なお所定パーツはこのようなメインパーツには限定されず、プレーヤの注目パーツと想定されるパーツであってもよい。例えばプレーヤが、装着したばかりのパーツについては、注目パーツとして常に表示するようにする。具体的には、衣装のパーツや武器、防具等の装備品のパーツをプレーヤが装着した場合に、当該パーツについては注目パーツとして、所定期間の間は常に表示されるようにする。例えば注目パーツ等の所定パーツが、仮想カメラ方向の変化によって見えなくなるような場合には、仮想カメラの方向やキャラクタの方向を逆方向に対応する方向に自動的に切り替えて、所定パーツが常に表示されるようにする。
以上ではキャラクタ画像がキャラクタの顔画像であり、キャラクタメイキング画像に表示されるキャラクタ画像の数が2個である場合について説明したが、本実施形態はこれに限定されない。例えば図16では、キャラクタ画像IM1、IM2としてキャラクタの全身画像が表示されており、キャラクタ画像の個数も2個になっている。図16では、キャラクタ画像IM1は前向きの全身画像となっており、キャラクタ画像IM2は後ろ向きの全身画像になっている。そしてプレーヤの操作入力に基づいて、B1、B2に示すようにキャラクタが回転するキャラクタ画像IM1、IM2が、キャラクタメイキング画像として表示される。具体的にはキャラクタ画像IM1として、キャラクタの右横側の全身画像が表示されているときには、キャラクタ画像IM2として、キャラクタの左横側の全身画像が表示される。またキャラクタ画像IM1として、キャラクタの左横側の全身画像が表示されているときには、キャラクタ画像IM2として、キャラクタの右横側の全身画像が表示される。なおB1、B2に示すようにキャラクタは、時計回り及び反時計回りに回転可能である。
またプレーヤは、2つの異なる体型の男性型と、2つの異なる体型の女性型の中から、キャラクタメイキングの対象となるキャラクタを選択できる。例えば図16は、痩せ型の体型の男性のキャラクタを選択したときのキャラクタメイキング画像の例であり、図17は、ガッチリ型の体型の男性のキャラクタを選択したときのキャラクタメイキング画像の例である。
更に図16、図17では、キャラクタの身長を調整する操作や、肉付きを調整する操作が可能になっている。例えばプレーヤがキャラクタの身長を調整する操作を行うと、前述の図9の骨のデータにおけるX軸方向でのスケーリングの値が調整される。これにより各骨の長さが調整されて、キャラクタの身長が高くなったり、低くなるように調整される。またプレーヤがキャラクタの肉付きを調整する操作を行うと、図9の骨のデータにおけるY軸、Z軸方向でのスケーリングの値が調整される。これにより各骨の太さが調整されて、キャラクタの身体パーツが太くなったり、細くなり、キャラクタの肉付き(身体パーツの太さ)が調整されるようになる。このようにすれば、キャラクタの体型や体格等を細かに調整できるようになり、より精細なキャラクタメイキングを実現することが可能になる。
また本実施形態では、第1のキャラクタ画像においては第1の部分が表示され、第2のキャラクタ画像においては当該第1の部分が非表示になる複数のキャラクタ画像を生成する。例えば仮想カメラ方向との関係に応じて、キャラクタの第1の部分については描画されなかったり、描画されたりする。
例えば図18の横顔のキャラクタ画像IM1では、C1に示すように鼻の輪郭の上側部分である鼻筋の部分が描画されている。一方、正面顔のキャラクタ画像IM2では、C2に示すように鼻筋の部分が描画されていない。このようにキャラクタの鼻筋の部分(第1の部分)は、キャラクタ画像IM1(第1のキャラクタ画像)においては表示されているが、キャラクタ画像IM2(第2のキャラクタ画像)においては非表示になっている。即ち鼻筋の部分が、仮想カメラVC1から見たキャラクタ画像IM1では描画されているが、仮想カメラVC2から見たキャラクタ画像IM2では描画されていない。
例えば正面顔のキャラクタ画像において、鼻筋の部分がハッキリと描画されてしまうと、例えばアニメ等のキャラクタとしては不自然な画像になってしまうおそれがある。この点、図18のC2に示すように正面顔のキャラクタ画像において、鼻筋の部分を非表示にすることで、キャラクタ画像が不自然な画像になってしまうのを防止でき、アニメ等のキャラクタの画像としてより適切な画像を表示できるようになる。
また本実施形態では、第1のキャラクタ画像であるキャラクタ画像IM1は、第1の仮想カメラ方向である仮想カメラVC1から見たキャラクタ画像であり、第2のキャラクタ画像であるキャラクタ画像IM2は、第2の仮想カメラ方向である仮想カメラVC2から見たキャラクタ画像である。即ちキャラクタ画像IM1、IM2は異なる仮想カメラ方向で見たキャラクタ画像である。また本実施形態では、キャラクタを構成する1つのパーツに対して、第1の部分を有する第1のパーツと、第1の部分を有しない第2のパーツとが用意される。図18を例にとれば、キャラクタを構成する1つのパーツは、鼻のパーツであり、この鼻のパーツとして、第1のパーツ(第1の鼻パーツ)と第2のパーツ(第2の鼻パーツ)というように、複数種類のパーツが用意される。そして第1のパーツは、鼻筋の部分(第1の部分)を有するパーツであり、第2のパーツは、鼻筋の部分を有しないパーツである。例えば第1のパーツでは、鼻筋の部分を描画データとして有しているが(輪郭として描画されるが)、第2のパーツでは、鼻筋の部分を描画データとして有していない(輪郭として描画されない)。そして本実施形態では、第1のパーツを用いて第1のキャラクタ画像を生成し、第2のパーツを用いて第2のキャラクタ画像を生成する。例えば図18では、鼻筋の部分を有する第1のパーツを用いて、第1のキャラクタ画像であるキャラクタ画像IM1を生成する一方で、鼻筋の部分を有しない第2のパーツを用いて、第2のキャラクタ画像であるキャラクタ画像IM2を生成する。このようにすれば、仮想カメラVC1の方向である第1の仮想カメラ方向から見たキャラクタ画像IM1では、図18のC1に示すように、鼻筋の部分(第1の部分)が描画されて表示されるようになる。一方、仮想カメラVC2の方向である第2の仮想カメラ方向から見たキャラクタ画像IM2では、図18のC2に示すように、鼻筋の部分が描画されずに非表示になる。これにより、仮想カメラの方向に応じて、第1の部分である鼻筋の部分を表示したり、非表示にすることが可能になる。
なお鼻の輪郭などのパーツの輪郭の描画処理は、例えば公知のトゥーンレンダリング(トゥーンシェーダー)などにより実現できる。例えば通常のモデルと輪郭描画用モデルの両方を描画することで輪郭を描画したり、オブジェクトの法線ベクトルを用いたポストエフェクト処理などにより、キャラクタの輪郭を描画できる。
また正面顔のキャラクタ画像では、細かいパーツ部分まで描画する一方で、横顔のキャラクタ画像では、このような細かいパーツ部分については描画しないようにしてもよい。例えば口の中の舌のパーツや歯のパーツについては正面顔のキャラクタ画像においては描画して表示する一方で、横顔のキャラクタ画像においては描画せずに非表示にする。例えば横顔のキャラクタ画像においては、舌のパーツや歯のパーツの描画データについては用いないようにする。また鼻孔内の細かい部分についても、正面顔のキャラクタ画像では描画する一方で、横顔のキャラクタ画像において描画しないようにする。このようにすることで、仮想カメラの方向とキャラクタの方向との相対的な方向関係に応じた、キャラクタ画像の適切な描画処理を実現できるようになる。なおキャラクタと仮想カメラとの距離が離れた場合に、鼻等のパーツの輪郭が見えにくくなってしまう場合がある。この場合には、キャラクタと仮想カメラとの距離に応じて輪郭の太さを変化させて、キャラクタと仮想カメラとの距離が離れた場合にも、輪郭が適切に表示されるように制御してもよい。
なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また受け付け処理、仮想空間設定処理、仮想カメラ設定処理、パーツの設定処理、キャラクタ画像の生成処理、キャラクタメイキング画像の生成処理等も本実施形態で説明したものに限定されず、これらと均等な手法も本開示の範囲に含まれる。
IM1、IM2、IM3…キャラクタ画像、VC1、VC2、VC3…仮想カメラ、
DV1、DV2、DV3…方向、CH1、CH2、CH3、CH…キャラクタ、
DC1、DC2、DC3…方向、LS…光源、PE、PN、PM、PC…パーツ、
BM1、BM2…骨、MAL、ME、MN、MM、MC…モーションデータ、
TM1~TMn、TM 端末装置、
100…処理部、102…ゲーム処理部、104…受け付け部、
106…仮想空間設定部、108…仮想カメラ設定部、110…キャラクタ処理部、
112…管理部、120…表示処理部、130…音処理部、
160…操作部、170…記憶部、172…仮想空間情報記憶部、
174…キャラクタ情報記憶部、176…描画バッファ、178…ユーザ情報記憶部、
180…情報記憶媒体、190…表示部、192…音出力部、194…I/F部、
195…携帯型情報記憶媒体、196…通信部、
500…サーバシステム、510…ネットワーク

Claims (17)

  1. プレーヤの操作入力を受け付ける受け付け部と、
    少なくとも1つのキャラクタが配置される仮想空間の設定処理を行う仮想空間設定部と、
    複数の仮想カメラの設定処理を行う仮想カメラ設定部と、
    前記プレーヤの操作入力に基づいて、少なくとも1つの前記キャラクタを構成するパーツの設定処理を行うキャラクタ処理部と、
    前記仮想空間において前記複数の仮想カメラから少なくとも1つの前記キャラクタを見た画像である複数のキャラクタ画像を生成し、前記複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部に表示する処理を行う表示処理部と、
    を含み、
    前記表示処理部は、
    前記パーツの前記設定処理が行われた場合に、前記設定処理の結果が反映された前記キャラクタメイキング画像を、前記表示部に表示する処理を行い、
    前記表示処理部は、
    前記プレーヤの操作入力に基づいて、前記複数のキャラクタ画像を一括して、異なる仮想カメラ方向で見たキャラクタ画像に変化させることを特徴とするゲームシステム。
  2. プレーヤの操作入力を受け付ける受け付け部と、
    少なくとも1つのキャラクタが配置される仮想空間の設定処理を行う仮想空間設定部と、
    複数の仮想カメラの設定処理を行う仮想カメラ設定部と、
    前記プレーヤの操作入力に基づいて、少なくとも1つの前記キャラクタを構成するパーツの設定処理を行うキャラクタ処理部と、
    前記仮想空間において前記複数の仮想カメラから少なくとも1つの前記キャラクタを見た画像である複数のキャラクタ画像を生成し、前記複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部に表示する処理を行う表示処理部と、
    を含み、
    前記表示処理部は、
    前記パーツの前記設定処理が行われた場合に、前記設定処理の結果が反映された前記キャラクタメイキング画像を、前記表示部に表示する処理を行い、
    前記表示処理部は、
    前記プレーヤの操作入力に基づいて、前記複数のキャラクタ画像を個別に、異なる仮想カメラ方向で見たキャラクタ画像に変化させることを特徴とするゲームシステム。
  3. プレーヤの操作入力を受け付ける受け付け部と、
    少なくとも1つのキャラクタが配置される仮想空間の設定処理を行う仮想空間設定部と、
    複数の仮想カメラの設定処理を行う仮想カメラ設定部と、
    前記プレーヤの操作入力に基づいて、少なくとも1つの前記キャラクタを構成するパーツの設定処理を行うキャラクタ処理部と、
    前記仮想空間において前記複数の仮想カメラから少なくとも1つの前記キャラクタを見た画像である複数のキャラクタ画像を生成し、前記複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部に表示する処理を行う表示処理部と、
    を含み、
    前記表示処理部は、
    1つの前記キャラクタを、キャラクタ方向に対する仮想カメラ方向が異なる複数の仮想カメラ方向で見た画像を生成する、又は前記プレーヤのキャラクタメイキング対象となる同じモデルの複数のキャラクタを、キャラクタ方向に対する仮想カメラ方向が異なる複数の仮想カメラ方向で見た画像を生成することで、前記複数のキャラクタ画像を生成し、
    前記表示処理部は、
    前記パーツの前記設定処理が行われた場合に、前記設定処理の結果が反映された前記複数のキャラクタ画像による前記キャラクタメイキング画像を、キャラクタメイキング画面において前記表示部に表示する処理を行うことを特徴とするゲームシステム。
  4. 請求項1乃至3のいずれかにおいて、
    前記仮想空間設定部は、
    少なくとも1つの前記キャラクタとして複数のキャラクタを前記仮想空間に配置し、
    前記仮想カメラ設定部は、
    前記複数のキャラクタの各キャラクタに対して前記複数の仮想カメラの各仮想カメラを設定し、
    前記表示処理部は、
    前記複数の仮想カメラの各仮想カメラから前記複数のキャラクタの各キャラクタを見た画像を、前記複数のキャラクタ画像の各キャラクタ画像として生成することを特徴とするゲームシステム。
  5. 請求項4において、
    前記仮想空間設定部は、
    前記複数のキャラクタのライティングを行う光源を前記仮想空間に設定し、
    前記表示処理部は、
    前記光源に基づく前記複数のキャラクタのシェーディング処理を行って、前記複数のキャラクタ画像を生成することを特徴とするゲームシステム。
  6. 請求項4又は5において、
    前記キャラクタ処理部は、
    前記プレーヤの操作入力に基づいて、前記複数の仮想カメラの方向に対する前記複数のキャラクタの方向を設定することを特徴とするゲームシステム。
  7. 請求項4乃至6のいずれかにおいて、
    前記キャラクタ処理部は、
    前記プレーヤの操作入力に基づいて、前記複数のキャラクタに対して前記パーツの前記設定処理を実行することを特徴とするゲームシステム。
  8. 請求項1乃至7のいずれかにおいて、
    前記表示処理部は、
    前記複数のキャラクタ画像として、第1の仮想カメラ方向で見た第1のキャラクタ画像と、前記第1の仮想カメラ方向とは異なる第2の仮想カメラ方向で見た第2のキャラクタ画像を生成することを特徴とするゲームシステム。
  9. 請求項8において、
    前記表示処理部は、
    前記第1のキャラクタ画像と前記第2のキャラクタ画像とで、所定パーツの配置位置を変更することを特徴とするゲームシステム。
  10. 請求項1乃至9のいずれかにおいて、
    前記表示処理部は、
    前記複数のキャラクタ画像の少なくとも1つのキャラクタ画像について、顔を構成するパーツのモーションデータを変化させることで前記顔の表情を変化させることを特徴とするゲームシステム。
  11. 請求項1乃至10のいずれかにおいて、
    前記表示処理部は、
    前記プレーヤの操作入力に基づいて前記パーツの前記設定処理が行われた場合に、前記複数のキャラクタ画像において前記パーツの前記設定処理が行われた前記キャラクタメイキング画像を、前記表示部に表示する処理を行うことを特徴とするゲームシステム。
  12. 請求項1乃至11のいずれかにおいて、
    前記表示処理部は、
    所定パーツについては前記複数のキャラクタ画像の全てにおいて表示されるように前記複数のキャラクタ画像を生成することを特徴とするゲームシステム。
  13. 請求項1乃至12のいずれかにおいて、
    前記表示処理部は、
    第1のキャラクタ画像においては第1の部分が表示され、第2のキャラクタ画像においては前記第1の部分が非表示になる前記複数のキャラクタ画像を生成することを特徴とするゲームシステム。
  14. 請求項13において、
    前記第1のキャラクタ画像は第1の仮想カメラ方向で見たキャラクタ画像であり、前記第2のキャラクタ画像は第2の仮想カメラ方向で見たキャラクタ画像であり、
    キャラクタを構成する1つのパーツに対して、前記第1の部分を有する第1のパーツと、前記第1の部分を有しない第2のパーツとが用意され、
    前記表示処理部は、
    前記第1のパーツを用いて前記第1のキャラクタ画像を生成し、前記第2のパーツを用いて前記第2のキャラクタ画像を生成することを特徴とするゲームシステム。
  15. プレーヤの操作入力を受け付ける受け付け部と、
    少なくとも1つのキャラクタが配置される仮想空間の設定処理を行う仮想空間設定部と、
    複数の仮想カメラの設定処理を行う仮想カメラ設定部と、
    前記プレーヤの操作入力に基づいて、少なくとも1つの前記キャラクタを構成するパーツの設定処理を行うキャラクタ処理部と、
    前記仮想空間において前記複数の仮想カメラから少なくとも1つの前記キャラクタを見た画像である複数のキャラクタ画像を生成し、前記複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部に表示する処理を行う表示処理部として、
    コンピュータを機能させ、
    前記表示処理部は、
    前記パーツの前記設定処理が行われた場合に、前記設定処理の結果が反映された前記キャラクタメイキング画像を、前記表示部に表示する処理を行い、
    前記表示処理部は、
    前記プレーヤの操作入力に基づいて、前記複数のキャラクタ画像を一括して、異なる仮想カメラ方向で見たキャラクタ画像に変化させることを特徴とするプログラム。
  16. プレーヤの操作入力を受け付ける受け付け部と、
    少なくとも1つのキャラクタが配置される仮想空間の設定処理を行う仮想空間設定部と、
    複数の仮想カメラの設定処理を行う仮想カメラ設定部と、
    前記プレーヤの操作入力に基づいて、少なくとも1つの前記キャラクタを構成するパーツの設定処理を行うキャラクタ処理部と、
    前記仮想空間において前記複数の仮想カメラから少なくとも1つの前記キャラクタを見た画像である複数のキャラクタ画像を生成し、前記複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部に表示する処理を行う表示処理部として、
    コンピュータを機能させ、
    前記表示処理部は、
    前記パーツの前記設定処理が行われた場合に、前記設定処理の結果が反映された前記キャラクタメイキング画像を、前記表示部に表示する処理を行い、
    前記表示処理部は、
    前記プレーヤの操作入力に基づいて、前記複数のキャラクタ画像を個別に、異なる仮想カメラ方向で見たキャラクタ画像に変化させることを特徴とするプログラム
  17. プレーヤの操作入力を受け付ける受け付け部と、
    少なくとも1つのキャラクタが配置される仮想空間の設定処理を行う仮想空間設定部と、
    複数の仮想カメラの設定処理を行う仮想カメラ設定部と、
    前記プレーヤの操作入力に基づいて、少なくとも1つの前記キャラクタを構成するパーツの設定処理を行うキャラクタ処理部と、
    前記仮想空間において前記複数の仮想カメラから少なくとも1つの前記キャラクタを見た画像である複数のキャラクタ画像を生成し、前記複数のキャラクタ画像が配列されたキャラクタメイキング画像を表示部に表示する処理を行う表示処理部として、
    コンピュータを機能させ、
    前記表示処理部は、
    1つの前記キャラクタを、キャラクタ方向に対する仮想カメラ方向が異なる複数の仮想カメラ方向で見た画像を生成する、又は前記プレーヤのキャラクタメイキング対象となる同じモデルの複数のキャラクタを、キャラクタ方向に対する仮想カメラ方向が異なる複数の仮想カメラ方向で見た画像を生成することで、前記複数のキャラクタ画像を生成し、
    前記表示処理部は、
    前記パーツの前記設定処理が行われた場合に、前記設定処理の結果が反映された前記複数のキャラクタ画像による前記キャラクタメイキング画像を、キャラクタメイキング画面において前記表示部に表示する処理を行うことを特徴とするプログラム。
JP2019125405A 2019-07-04 2019-07-04 ゲームシステム及びプログラム Active JP7387310B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2019125405A JP7387310B2 (ja) 2019-07-04 2019-07-04 ゲームシステム及びプログラム
KR1020227003144A KR20220025048A (ko) 2019-07-04 2020-06-30 게임 시스템, 처리 방법 및 정보 기억 매체
PCT/JP2020/025649 WO2021002353A1 (ja) 2019-07-04 2020-06-30 ゲームシステム、処理方法及び情報記憶媒体
CN202080047885.4A CN114206456A (zh) 2019-07-04 2020-06-30 游戏系统、处理方法以及信息存储介质
US17/567,523 US11980818B2 (en) 2019-07-04 2022-01-03 Game system, processing method, and information storage medium
JP2023194238A JP2024003191A (ja) 2019-07-04 2023-11-15 ゲームシステム、ゲーム装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019125405A JP7387310B2 (ja) 2019-07-04 2019-07-04 ゲームシステム及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023194238A Division JP2024003191A (ja) 2019-07-04 2023-11-15 ゲームシステム、ゲーム装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2021010476A JP2021010476A (ja) 2021-02-04
JP7387310B2 true JP7387310B2 (ja) 2023-11-28

Family

ID=74100889

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019125405A Active JP7387310B2 (ja) 2019-07-04 2019-07-04 ゲームシステム及びプログラム
JP2023194238A Pending JP2024003191A (ja) 2019-07-04 2023-11-15 ゲームシステム、ゲーム装置及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023194238A Pending JP2024003191A (ja) 2019-07-04 2023-11-15 ゲームシステム、ゲーム装置及びプログラム

Country Status (5)

Country Link
US (1) US11980818B2 (ja)
JP (2) JP7387310B2 (ja)
KR (1) KR20220025048A (ja)
CN (1) CN114206456A (ja)
WO (1) WO2021002353A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7448497B2 (ja) 2021-02-10 2024-03-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009541017A (ja) 2006-06-26 2009-11-26 アイコシステム コーポレーション ビデオゲームにおいてアバター及び他の生物的又は無生物的アイテムを対話的にカスタマイズする方法及びシステム
US20110248992A1 (en) 2010-04-07 2011-10-13 Apple Inc. Avatar editing environment
US20160030839A1 (en) 2014-08-01 2016-02-04 Electronic Arts Inc. Modifying a simulated character by direct manipulation
JP2018108150A (ja) 2016-12-28 2018-07-12 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置、及びサーバ装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2943703B2 (ja) * 1996-07-22 1999-08-30 日本電気株式会社 3次元キャラクタ作成装置および3次元キャラクタ作成方法
JP2006230586A (ja) 2005-02-23 2006-09-07 Taito Corp 個人特有情報によるキャラクタ作成が可能なゲーム機
WO2008151422A1 (en) * 2007-06-11 2008-12-18 Darwin Dimensions Inc. Dynamic user interface for inheritance based avatar generation
US20090079743A1 (en) * 2007-09-20 2009-03-26 Flowplay, Inc. Displaying animation of graphic object in environments lacking 3d redndering capability
US20170312634A1 (en) * 2016-04-28 2017-11-02 Uraniom System and method for personalized avatar generation, especially for computer games
US10452896B1 (en) * 2016-09-06 2019-10-22 Apple Inc. Technique for creating avatar from image data
DK180078B1 (en) * 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009541017A (ja) 2006-06-26 2009-11-26 アイコシステム コーポレーション ビデオゲームにおいてアバター及び他の生物的又は無生物的アイテムを対話的にカスタマイズする方法及びシステム
US20110248992A1 (en) 2010-04-07 2011-10-13 Apple Inc. Avatar editing environment
US20160030839A1 (en) 2014-08-01 2016-02-04 Electronic Arts Inc. Modifying a simulated character by direct manipulation
JP2018108150A (ja) 2016-12-28 2018-07-12 株式会社バンダイナムコエンターテインメント プログラム、ゲーム装置、及びサーバ装置

Also Published As

Publication number Publication date
WO2021002353A1 (ja) 2021-01-07
US20220118361A1 (en) 2022-04-21
JP2024003191A (ja) 2024-01-11
CN114206456A (zh) 2022-03-18
KR20220025048A (ko) 2022-03-03
JP2021010476A (ja) 2021-02-04
US11980818B2 (en) 2024-05-14

Similar Documents

Publication Publication Date Title
US9786082B2 (en) Avatar eye control in a multi-user animation environment
JP7238028B2 (ja) ゲームシステム、ゲーム提供方法及びプログラム
JP7174800B2 (ja) ゲームシステム、ゲーム提供方法及びプログラム
US9839844B2 (en) Sprite strip renderer
JP4668655B2 (ja) プログラム、情報記憶媒体及び画像生成システム
US11238667B2 (en) Modification of animated characters
JP2010033298A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2018075260A (ja) ゲームシステム及びプログラム
JP7355483B2 (ja) ゲームシステム及びプログラム
JP2024003191A (ja) ゲームシステム、ゲーム装置及びプログラム
JP2020018745A (ja) ゲームシステム及びプログラム
JP2010029397A (ja) プログラム、情報記憶媒体及び画像生成システム
US20230298297A1 (en) Layered clothing that conforms to an underlying body and/or clothing layer
WO2021002882A1 (en) Animated faces using texture manipulation
JP2010134798A (ja) プログラム、情報記憶媒体、ゲーム装置、及びゲームシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231115

R150 Certificate of patent or registration of utility model

Ref document number: 7387310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150