JP7293036B2 - 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法 - Google Patents

情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法 Download PDF

Info

Publication number
JP7293036B2
JP7293036B2 JP2019147332A JP2019147332A JP7293036B2 JP 7293036 B2 JP7293036 B2 JP 7293036B2 JP 2019147332 A JP2019147332 A JP 2019147332A JP 2019147332 A JP2019147332 A JP 2019147332A JP 7293036 B2 JP7293036 B2 JP 7293036B2
Authority
JP
Japan
Prior art keywords
parameter
character object
character
vertex
wearable item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019147332A
Other languages
English (en)
Other versions
JP2021028752A (ja
Inventor
卓宏 堂田
竜二 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2019147332A priority Critical patent/JP7293036B2/ja
Priority to US16/930,571 priority patent/US11620801B2/en
Publication of JP2021028752A publication Critical patent/JP2021028752A/ja
Application granted granted Critical
Publication of JP7293036B2 publication Critical patent/JP7293036B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、画像処理技術に関する。
従来、ゲームキャラクタが装着している服を変更可能なゲームが知られている。例えば、非特許文献1には、3次元空間に配置されるキャラクタの服、帽子、アクセサリー等を自由に変更できる機能が記載されている。
"個性を演出 お家やファッションを自分らしくアレンジ!"、[online]、任天堂株式会社(登録商標)、[令和1年7月19日検索]、インターネット<URL: https://www.nintendo.co.jp/3ds/egdj/life/lifebox3.html>
キャラクタが装着する服の形状によっては、キャラクタが特定のモーションをした時に服がキャラクタの素体にめり込んでしまうことが想定される。この場合、服からキャラクタの身体が突き出ることになり、不自然な見た目になる。このような現象に対して服ごとに調整されたキャラクタモデルを用意するなどの対処をする場合、服の種類が多くなると対応が困難になる。
本発明は、このような事情に鑑みてなされたものであり、キャラクタが装着するアイテムを変更しても描画時に違和感を生じさせないための処理を簡易な方法で実現することを目的とする。
上記の課題を解決するため、本発明の一実施形態に係る情報処理装置は、少なくとも1つのプロセッサと少なくとも1つの記憶媒体を備え、前記少なくとも1つの記憶媒体は、キャラクタオブジェクトのデータと、前記キャラクタオブジェクトが装着する複数の装着アイテムオブジェクトのデータと、前記装着アイテムオブジェクトの種類毎に、前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第1パラメータを少なくとも記憶し、前記少なくとも1つのプロセッサは、仮想空間内において、前記複数の装着アイテムオブジェクトから、前記キャラクタオブジェクトに装着させる装着アイテムオブジェクトを設定し、前記仮想空間内において前記キャラクタオブジェクトを制御し、設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位を変形させて、前記装着アイテムオブジェクトを装着した前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成する。
この情報処理装置によれば、適切な第1パラメータを設定することで、例えば、装着アイテムオブジェクトがキャラクタオブジェクトにめり込むことを抑制することができる。そのため、めり込みを回避するために、装着アイテムオブジェクトの種類ごとにキャラクタオブジェクトを生成しなければならないといった不都合が解消される。
上記の情報処理装置において、前記少なくとも1つのプロセッサは、頂点シェーダ機能を有するGPUを含み、前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位に含まれる頂点をオフセットさせることで前記部位を変形させてもよい。
この情報処理装置によれば、変形処理を高速化できる。
上記の情報処理装置において、前記頂点の前記オフセットは、法線方向の正または負方向に行われてもよい。
上記の情報処理装置において、前記記憶媒体はさらに、前記キャラクタオブジェクトの頂点毎に前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第2パラメータを記憶し、前記プロセッサは、前記第1パラメータと前記第2パラメータに基づいた度合いで前記頂点をオフセットさせてもよい。
上記の情報処理装置において、前記記憶媒体は、前記部位を色に対応させて、前記キャラクタオブジェクトの頂点カラー情報の少なくとも1つのチャンネルとして前記第2パラメータを記憶し、前記第1パラメータは、前記頂点カラー情報として記憶される前記第2パラメータのそれぞれの色に対応する値として記憶され、前記プロセッサは、前記第2パラメータを前記キャラクタオブジェクトの色の決定に用いずに、前記部位情報において前記頂点カラーの設定された頂点に対して、当該頂点に対する第2パラメータおよび対応する色の前記第1パラメータに基づいた度合いで頂点を移動させることで色に対応する部位の変形を行ってもよい。
この情報処理装置によれば、既存の画像処理の枠組みを利用して変形処理を実行することができる。
上記の情報処理装置において、前記少なくとも1つの記憶媒体はさらに、複数のキャラクタオブジェクトのデータを記憶し、前記第1パラメータを、前記複数のキャラクタオブジェクトの種類毎かつ前記装着アイテムオブジェクトの種類毎に記憶し、前記少なくとも1つのプロセッサは、対象となる前記キャラクタオブジェクトおよび設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに少なくとも基づいて前記変形度合いを決定し、前記装着アイテムオブジェクトを装着した複数の前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成してもよい。
上記の情報処理装置において、前記装着アイテムオブジェクトは、前記キャラクタオブジェクトが着る服オブジェクトであってもよい。
この情報処理装置は、キャラクタの服の着せ替えに適している。
また、本発明の一実施形態に係る情報処理プログラムは、情報処理装置のコンピュータに、仮想空間内において、キャラクタオブジェクトに装着させる装着アイテムオブジェクトを設定させ、前記仮想空間内において前記キャラクタオブジェクトを制御させ、前記装着アイテムオブジェクトの種類毎に予め設定された、前記キャラクタオブジェクトの少なくとも1つの部位に関連付けられた第1パラメータに基づき決定される度合いで前記キャラクタオブジェクトの当該少なくとも1つの部位を変形させて、前記装着アイテムオブジェクトを装着した前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成させる。
また、本発明の一実施形態に係る情報処理システムは、少なくとも1つのプロセッサと少なくとも1つの記憶媒体を備え、前記少なくとも1つの記憶媒体は、キャラクタオブジェクトのデータと、前記キャラクタオブジェクトが装着する複数の装着アイテムオブジェクトのデータと、前記装着アイテムオブジェクトの種類毎に、前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第1パラメータを少なくとも記憶し、前記少なくとも1つのプロセッサは、仮想空間内において、前記複数の装着アイテムオブジェクトから、前記キャラクタオブジェクトに装着させる装着アイテムオブジェクトを設定し、前記仮想空間内において前記キャラクタオブジェクトを制御し、設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位を変形させて、前記装着アイテムオブジェクトを装着した前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成する。
また、本発明の一実施形態に係る情報処理方法は、少なくとも1つの記憶媒体に、キャラクタオブジェクトのデータと、前記キャラクタオブジェクトが装着する複数の装着アイテムオブジェクトのデータと、前記装着アイテムオブジェクトの種類毎に、前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第1パラメータを少なくとも記憶させ、少なくとも1つのプロセッサに、仮想空間内において、前記複数の装着アイテムオブジェクトから、前記キャラクタオブジェクトに装着させる装着アイテムオブジェクトを設定させ、前記仮想空間内において前記キャラクタオブジェクトを制御させ、設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位を変形させて、前記装着アイテムオブジェクトを装着した前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成させる。
本発明は、キャラクタが装着するアイテムを変更しても描画時に違和感を生じさせないための処理を簡易な方法で実現する。
ゲームシステム1の外観の一例を示す図 本体装置2の内部構成の一例を示すブロック図 左コントローラ3及び右コントローラ4の内部構成の一例を示すブロック図 ゲームのプレイ画面の一例を示す図 仮想カメラの位置及び姿勢の制御について説明するための図 変形処理の結果、特定の部位が変形したキャラクタオブジェクトの一例を示す図 DRAM203のメモリマップの一例を示す図 キャラクタオブジェクトのポリゴンモデルデータの一例を示す図 キャラクタオブジェクトのスケルトンモデルデータの一例を示す図 服オブジェクトのポリゴンモデルデータの一例を示す図 背景オブジェクトのポリゴンモデルデータの一例を示す図 服情報テーブルの一例を示す図 ゲームプログラムにより実現される機能の一例を示す図 描画処理の一例を示すフローチャート 変形処理の一例を示すフローチャート 座標変換処理の一例を示すフローチャート
1.実施形態
1-1.構成
本発明の一実施形態に係るゲームシステム1について説明する。図1は、ゲームシステム1の外観の一例を示す図である。同図に示すゲームシステム1は、本体装置2、左コントローラ3及び右コントローラ4を備える。左コントローラ3及び右コントローラ4(以下、総称して「コントローラ」と呼ぶ場合がある。)は本体装置2に対して着脱可能である。ゲームシステム1は、左コントローラ3及び右コントローラ4を本体装置2に装着した状態であっても取り外した状態であっても利用可能である。
図2は、本体装置2の内部構成の一例を示すブロック図である。同図に示す本体装置2は、プロセッサ201を備える。プロセッサ201は、各種の情報処理を実行する情報処理部であって、CPU51とGPU52を備える。このプロセッサ201は、後述する内部記憶媒体や、スロット204に装着された外部記憶媒体に記憶されるプログラムを実行することによって、各種の情報処理を実行する。
本体装置2は、内部記憶媒体の一例として、フラッシュメモリ202及びDRAM203を備える。フラッシュメモリ202は、各種のデータを記憶するために用いられる不揮発性のメモリである。DRAM203は、各種のデータを一時的に記憶するために用いられる揮発性のメモリである。
本体装置2は、スロット204及びスロットインターフェース(以下、「I/F」と略記する。)205を備える。スロット204は、本体装置2のハウジングの上側面に設けられ、メモリカード等の外部記憶媒体を装着可能な形状を有する。スロットI/F205は、スロット204に装着された外部記憶媒体に対するデータの読み書きを、プロセッサ201の指示に応じて行う。
本体装置2は、ネットワーク通信部206を備える。ネットワーク通信部206は、無線LAN方式により又は赤外線通信により外部装置と無線通信を行う。
本体装置2は、コントローラ通信部207を備える。コントローラ通信部207は、Bluetooth(登録商標)等の近距離無線通信技術を用いて左コントローラ3及び右コントローラ4と無線通信を行う。
本体装置2は、左側端子208、右側端子209及び下側端子210を備える。左側端子208は、本体装置2が左コントローラ3と有線通信を行うための端子である。右側端子209は、本体装置2が右コントローラ4と有線通信を行うための端子である。下側端子210は、本体装置2がクレードルと通信を行うための端子である。本体装置2は、クレードルと接続されると、クレードルを介して外部の据置型モニタに画像や音声を出力することができる。
本体装置2は、ディスプレイ211を備える。ディスプレイ211は、液晶ディスプレイや有機ELディスプレイ等の表示装置である。
本体装置2は、タッチパネル212及びタッチパネルコントローラ213を備える。タッチパネル212は、静電容量方式等のタッチパネルであり、ディスプレイ211上に配置される。タッチパネルコントローラ213は、タッチパネル212を制御する回路である。タッチパネルコントローラ213は、タッチパネル212から出力される信号に基づいて、タッチ入力が行われた位置を示すデータを生成して、プロセッサ201に出力する。
本体装置2は、コーデック回路214、スピーカ215及び音声入出力端子216を備える。コーデック回路214は、スピーカ215および音声入出力端子216に対する音声データの入出力を制御する回路である。
本体装置2は、電力制御部217、バッテリ218及び電源ボタン219を備える。電力制御部217は、プロセッサ201からの指令に基づいて、バッテリ218から本体装置2の各部への電力供給を制御する。
次に、図3は、左コントローラ3及び右コントローラ4の内部構成の一例を示すブロック図である。同図に示す左コントローラ3は、端子31を備える。端子31は、左コントローラ3が本体装置2と有線通信を行うための端子である。
左コントローラ3は、通信制御部32を備える。通信制御部32は、マイクロプロセッサにより構成され、本体装置2との間の通信を制御する。通信制御部32は、本体装置2との間で、端子31を介した有線通信と、端子31を介さない無線通信の両方が可能である。通信制御部32は、左コントローラ3が本体装置2に装着されているときには、端子31を介して本体装置2と有線通信を行う。一方、左コントローラ3が本体装置2に装着されていないときには、本体装置2との間で無線通信を行う。
左コントローラ3は、例えばフラッシュメモリ等のメモリ33を備える。通信制御部32は、メモリ33に記憶されるファームウェアを実行することにより、各種の処理を実行する。
左コントローラ3は、各種の操作ボタン34及びアナログスティック35を備える。操作ボタン34及びアナログスティック35は、自身に対して行われた操作に関するデータを、適宜、通信制御部32へ出力する。通信制御部32は、取得した操作データを本体装置2へ送信する。
左コントローラ3は、電力供給部36を備える。電力供給部36は、バッテリ及び電力制御回路を有する。
次に、右コントローラ4は、端子41を備える。端子41は、右コントローラ4が本体装置2と有線通信を行うための端子である。
右コントローラ4は、通信制御部42を備える。通信制御部42は、マイクロプロセッサにより構成され、本体装置2との間の通信を制御する。通信制御部42は、本体装置2との間で、端子41を介した有線通信と、端子41を介さない無線通信の両方が可能である。通信制御部42は、右コントローラ4が本体装置2に装着されているときには、端子41を介して本体装置2と有線通信を行う。一方、右コントローラ4が本体装置2に装着されていないときには、本体装置2との間で無線通信を行う。
右コントローラ4は、例えばフラッシュメモリ等のメモリ43を備える。通信制御部42は、メモリ43に記憶されるファームウェアを実行することにより、各種の処理を実行する。
右コントローラ4は、各種の操作ボタン44及びアナログスティック45を備える。操作ボタン44及びアナログスティック45は、自身に対して行われた操作に関するデータを、適宜、通信制御部42へ出力する。通信制御部42は、取得した操作データを本体装置2へ送信する。
右コントローラ4は、電力供給部46を備える。電力供給部46は、バッテリ及び電力制御回路を有する。
次に、ゲームシステム1で実行されるゲームの概要について説明する。
ゲームシステム1で実行されるゲームは、プレイヤが3次元の仮想空間内でキャラクタを操作するゲームである。図4は、このゲームのプレイ画面の一例を示す図である。このゲームでは、同図に示すように、3次元の仮想空間が定義され、この仮想空間内の仮想カメラにより撮影された画像がディスプレイ211に表示される。同図に示す仮想空間には、表示オブジェクトとして、プレイヤによって操作されるプレイヤキャラクタE1、プロセッサ201により制御されるノンプレイヤキャラクタE2及びE3、タワーオブジェクトE4並びにビルオブジェクトE5及びE6が配置されている。プレイヤキャラクタE1は、服を着ており、プレイヤキャラクタE1が装着する服はゲーム中において変更可能であるものとする。なお、少なくともいずれかのノンプレイヤキャラクタについても服の変更が可能であってもよい。
この仮想空間内の仮想カメラは、プレイヤの操作に応じて制御される。図5は、仮想カメラの位置及び姿勢の制御について説明するための図である。同図に示す仮想空間には、固定のXYZ直交座標系(以下、「ワールド座標系」という。)が設定される。Y軸は仮想空間の上方向に延びる軸であり、X軸はY軸に対して垂直な軸であり、Z軸はY軸及びX軸に対して垂直な軸である。XZ平面上に地面オブジェクトE7が配置され、地面オブジェクトE7上にプレイヤキャラクタE1等が配置される。
この仮想空間には、仮想カメラVCが配置される。この仮想カメラVCには、仮想カメラVCに固定のXcYcZc直交座標系(以下、「カメラ座標系」という。)が設定される。Xc軸は、仮想カメラVCの右方向の軸であり、Yc軸は仮想カメラVCの上方向の軸であり、Zc軸は、仮想カメラVCの視線方向の軸である。この仮想カメラVCは、プレイヤの操作に応じてZc軸周り(ロール方向)、Yc軸回り(ピッチ方向)又はXc軸回り(ヨー方向)に回転する。また、仮想カメラVCは、プレイヤの操作に応じてズーム設定を変更する。
この仮想空間において、服の装着にかかる各キャラクタオブジェクトに対して変形処理が行われる。この変形処理は、キャラクタオブジェクトが服オブジェクトを装着した場合に、特定のアクション中などにおいて服オブジェクトがキャラクタオブジェクトにめり込むことを抑制するための処理である。
図6は、この変形処理の結果、特定の部位が変形したキャラクタオブジェクトの一例を示す図である。同図において、キャラクタオブジェクトCH1は変形前のキャラクタオブジェクトであり、キャラクタオブジェクトCH2は変形後のキャラクタオブジェクトである。いずれのキャラクタオブジェクトも、半袖の服オブジェクトCLを装着している。同図に示す変形例では、キャラクタオブジェクトCH2の腹周りがキャラクタオブジェクトCH1よりも引っ込められている。
なお、この変形処理は、キャラクタオブジェクトが複数の服オブジェクトを装着している場合には、服オブジェクトごとに実行される。
次に、上記のゲームを実行するために使用されるプログラムとデータについて説明する。
図7は、上記のDRAM203のメモリマップの一例を示す図である。同図に示すDRAM203には、ゲームプログラム、キャラクタデータ、服データ、背景データ、服情報テーブル、使用キャラクタデータ、装着服データ、使用背景データ及び仮想カメラデータが記憶される。
ゲームプログラムは、上記のゲームを実行するためのプログラムである。このゲームプログラムは、フラッシュメモリ202又は外部記憶媒体からDRAM203に読み込まれる。このゲームプログラムは、インターネット等のネットワークや非一時的な記録媒体を介して頒布可能なプログラムである。
次に、キャラクタデータは、ゲームのキャラクタオブジェクトを表すデータである。キャラクタデータは、キャラクタオブジェクトごとに用意される。このキャラクタデータは、ポリゴンモデルデータ、スケルトンモデルデータ及びキャラクタIDにより構成される。
ポリゴンモデルデータは、キャラクタオブジェクトのポリゴンモデルを表すデータである。図8は、このポリゴンモデルデータの一例を示す図である。同図に示すポリゴンモデルデータは、複数の頂点データにより構成される。各頂点データは、座標情報、法線ベクトル情報、カラー情報、UV座標情報及びジョイント情報により構成される。これらの情報のうち特に、座標情報、カラー情報及びジョイント情報について説明する。
座標情報は、ローカル座標系で表される頂点座標の情報である。
カラー情報は、後述するキャラクタオブジェクトの変形処理に用いられるパラメータセットの情報である。ここで、キャラクタオブジェクトの変形処理とは、キャラクタオブジェクトが服オブジェクトを装着した際に、服オブジェクトがキャラクタオブジェクトにめり込みことを抑制するための処理である。詳細については後述する。
このカラー情報は、通常のグラフィックシステムにおいて、頂点ごとにカラーを設定するために用いられるデータであるが、本実施形態においては、当該カラー情報のデータをこの変形処理のパラメータを設定するのに用いて、キャラクタオブジェクトの色の決定には用いない。このように頂点ごとのカラー情報を変形処理に使うことで、既存のデータ構造を用いて頂点ごとに変形を制御することができる。また、たとえば開発ツール等において、変形処理のためのカラー情報によって通常のように頂点に色をつけて表示するようにすれば、変形対象の部位に色がつけられるので、どの部位が変形の対象となっているかを見易く表示させることができる。なお、カラー情報は複数チャンネル設けることができるので、変形処理とは別に、頂点のカラーを設定する場合には、カラー情報のチャンネルを増やせばよい。
カラー情報は、RGBA形式で表現される。RGBAの各色情報は0から1の範囲の値をとる。また、RGBAの各色情報は、キャラクタオブジェクトの特定の部位に対応付けられている。Rは腹周りに対応付けられ、Gは肩周りに対応付けられ、Bは肘周りに対応付けられ、Aは足の付け根周りに対応付けられている。変形処理を行う部位を増やしたい場合には、RGBAのカラー情報のチャンネルをさらに増やしてもよい。
これらの部位のうち、腹周りを変形対象とするときには、腹周りの頂点のR値が0以外の値に設定される。肩周りを変形対象とするときには、肩周りの頂点のG値が0以外の値に設定される。肘周りを変形対象とするときには、肘周りの頂点のB値が0以外の値に設定される。足の付け根周りを変形対象とするときには、足の付け根周りの頂点のA値が0以外の値に設定される。設定される値は、変形の度合いを表す。
次に、ジョイント情報は、ジョイント番号情報とウェイト値情報により構成される。ジョイント番号は、スケルトンモデルの姿勢が変化したときに影響を受けるジョイントの番号を示す情報であり、ウェイト値情報は、その際の影響度を示す情報である。
次に、スケルトンモデルデータは、キャラクタオブジェクトのスケルトンモデルを表すデータである。図9は、このスケルトンモデルデータの一例を示す図である。同図に示すスケルトンモデルデータは、複数のジョイントデータにより構成される。各ジョイントデータは、座標情報とリンク情報により構成される。座標情報は、ローカル座標系で表されるジョイントの座標情報である。リンク情報は、連結されている上位のジョイントの番号を示す情報である。
以上説明したキャラクタデータは、フラッシュメモリ202又は外部記憶媒体からDRAM203に読み込まれる。
次に、服データは、キャラクタオブジェクトが装着する服オブジェクトを表すデータである。服データは、服オブジェクトごとに用意され、各服オブジェクトは、キャラクタオブジェクトごとに用意される。
服データは、ポリゴンモデルデータと服IDにより構成される。ポリゴンモデルデータは、服オブジェクトのポリゴンモデルを表すデータである。図10は、このポリゴンモデルデータの一例を示す図である。同図に示すポリゴンモデルデータは、複数の頂点データにより構成される。各頂点データは、座標情報、法線ベクトル情報、カラー情報、UV座標情報及びジョイント情報により構成される。これらの情報のうち特に、座標情報、カラー情報及びジョイント情報について説明する。
座標情報は、ローカル座標系で表される頂点座標の情報である。
カラー情報は、頂点に割り当てられるカラーを示す情報である。
ジョイント情報は、ジョイント番号情報とウェイト値情報により構成される。ジョイント番号は、スケルトンモデルの姿勢が変化したときに影響を受けるジョイントの番号を示す情報であり、ウェイト値情報は、その際の影響度を示す情報である。ここで、スケルトンモデルとは、服オブジェクトを装着しているキャラクタオブジェクトのスケルトンモデルである。
この服データは、フラッシュメモリ202又は外部記憶媒体からDRAM203に読み込まれる。
次に、背景データは、背景オブジェクトを表すデータである。ここで背景オブジェクトとは、地面オブジェクト、川オブジェクト、家オブジェクトといった背景を構成するオブジェクトである。背景データは、背景オブジェクトごとに用意される。
背景データは、ポリゴンモデルデータと背景IDにより構成される。ポリゴンモデルデータは、背景オブジェクトのポリゴンモデルを表すデータである。図11は、このポリゴンモデルデータの一例を示す図である。同図に示すポリゴンモデルデータは、複数の頂点データにより構成される。各頂点データは、座標情報、法線ベクトル情報、カラー情報及びUV座標情報により構成される。これらの情報のうち特に、座標情報及びカラー情報について説明する。
座標情報は、ローカル座標系で表される頂点座標の情報である。
カラー情報は、頂点に割り当てられるカラーを示す情報である。
この背景データは、フラッシュメモリ202又は外部記憶媒体からDRAM203に読み込まれる。
次に、服情報テーブルは、上記の変形処理で用いられるパラメータセット(以下、「服情報」という。)を格納するテーブルである。図12は、この服情報テーブルの一例を示す図である。同図に示す服情報テーブルは、服情報として、RGBA値と最大縮小量の組を格納する。
これらの情報のうち、RGBA値は、0から1の範囲の値をとる。RGBA値の各色情報は、キャラクタデータのカラー情報と同様に、それぞれ、腹周り、肩周り、肘周り、足の付け根周りに対応付けられている。これらの部位のうち、腹周りを変形対象とするときには、R値が0以外の値に設定され、肩周りを変形対象とするときには、G値が0以外の値に設定され、肘周りを変形対象とするときには、B値が0以外の値に設定され、足の付け根周りを変形対象とするときには、A値が0以外の値に設定される。設定される値は、変形の度合いを表す。一方、最大縮小量は、0から1の範囲の値をとり、設定される値は、変形の度合いを表す。
同図に示す服情報テーブルでは、服オブジェクトの種類IDごとに服情報が設定されている。ここで、服オブジェクトの種類には、袖なし、半袖、長袖及びボトムスが含まれる。また、同図に示す服情報テーブルでは、キャラクタオブジェクトのキャラクタIDごとに服情報が設定されている。
次に、使用キャラクタデータは、仮想空間に配置されているキャラクタオブジェクトを表すデータである。この使用キャラクタデータは、上記のキャラクタデータにより表されるキャラクタオブジェクトのうち、プレイヤの操作に応じて選択されたキャラクタオブジェクトを表すデータである。この使用キャラクタデータは、キャラクタオブジェクトごとに記憶される。この使用キャラクタデータは、上記のキャラクタデータと同様に、ポリゴンモデルデータ、スケルトンモデルデータ及びキャラクタIDにより構成される。ただし、ポリゴンモデルデータを構成する各座標情報とスケルトンモデルデータを構成する各座標情報は、ワールド座標系で表される座標の情報に変換されている。
この使用キャラクタデータは、プレイヤの操作に応じて、後述するゲーム制御部512によりフレーム(例えば、1/60秒)単位で更新される。
装着服データは、仮想空間に配置されているキャラクタオブジェクトに装着されている服オブジェクトを表すデータである。この装着服データは、上記の服データにより表される服オブジェクトのうち、プレイヤの操作に応じて選択された服オブジェクトを表すデータである。この装着服データは、服オブジェクトごとに記憶される。この装着服データは、服データと同様に、ポリゴンモデルデータと服IDにより構成される。ただし、ポリゴンモデルデータを構成する各座標情報は、ワールド座標系で表される位置座標の情報に変換されている。
この装着服データは、プレイヤの操作に応じて、ゲーム制御部512によりフレーム単位で更新される。
使用背景データは、仮想空間に配置されている背景オブジェクトを表すデータである。この使用背景データは、上記の背景データにより表される背景オブジェクトのうち、プレイヤの操作に応じて選択された背景オブジェクトを表すデータである。この使用背景データは、背景オブジェクトごとに記憶される。この使用背景データは、背景データと同様に、ポリゴンモデルデータと背景IDにより構成される。ただし、ポリゴンモデルデータを構成する各座標情報は、ワールド座標系で表される位置座標の情報に変換されている。
この使用背景データは、プレイヤの操作に応じて、ゲーム制御部512によりフレーム単位で更新される。
仮想カメラデータは、仮想空間に配置されている仮想カメラの位置、視線方向及びズーム設定を示すデータである。この仮想カメラデータは、プレイヤの操作に応じて、ゲーム制御部512によりフレーム単位で更新される。
以上が、DRAM203のメモリマップについての説明である。
DRAM203に読み込まれたゲームプログラムは、プロセッサ201により実行される。この実行の結果、図13に示す機能が実現される。同図に示す機能うち、仮想空間設定部511、ゲーム制御部512及び変形情報取得部513は、CPU51により実現され、頂点シェーダ部521、ラスタライズ部522及びピクセルシェーダ部523は、GPU52により実現される。以下、各機能について説明する。
仮想空間設定部511は、ゲーム開始時に、プレイヤの操作に応じて仮想空間を設定する。具体的には、仮想空間に、キャラクタオブジェクト、服オブジェクト、背景オブジェクト及び仮想カメラを配置する。その際、服オブジェクトは、キャラクタオブジェクトにより装着されるように配置される。配置された各オブジェクトのデータは、それぞれ、使用キャラクタデータ、装着服データ、使用背景データ、仮想カメラデータとして、DRAM203に記憶される。
ゲーム制御部512は、ゲーム実行中に、プレイヤの操作に応じて、使用キャラクタデータ、装着服データ、使用背景データ及び仮想カメラデータをフレーム単位で更新する。具体的には、仮想空間に配置されているキャラクタオブジェクト、服オブジェクト、背景オブジェクト及び仮想カメラの位置、姿勢、色等を変更する。
変形情報取得部513は、仮想空間に配置されているキャラクタオブジェクトについて、上記の変形処理に用いられる情報を取得する。具体的には、そのキャラクタオブジェクトの使用キャラクタデータ(特に、ポリゴンモデルデータ)と、そのキャラクタオブジェクトが装着している服オブジェクトの服情報を取得する。
これらの情報のうち、使用キャラクタデータについては、DRAM203から取得する。取得した使用キャラクタデータは、GPU52に渡される。
一方、服情報については、まず、DRAM203に記憶されている装着服データを参照して、そのキャラクタオブジェクトが装着している服オブジェクトの服IDを特定する。そして、図示せぬ変換テーブルを参照して、特定した服IDに対応する種類IDを特定する。種類IDを特定すると、服情報テーブルを参照して、特定した種類IDとそのキャラクタオブジェクトのキャラクタIDとに対応付けられている服情報を取得する。取得した服情報は、GPU52に渡される。
次に、頂点シェーダ部521は、オブジェクトの座標変換を実行する。具体的には、モデル変換処理、変形処理及びビュー変換処理を実行する。
これらの処理のうち、モデル変換処理は、仮想空間に配置されるオブジェクトの座標をローカル座標系からワールド座標系に変換するための処理である。
変形処理は、仮想空間に配置されているキャラクタオブジェクトの特定の部位を変形させるための処理である。この変形処理は、上記の通り、服オブジェクトがキャラクタオブジェクトにめり込みことを抑制するために行われる。
この変形処理を実行する頂点シェーダ部521は、変形処理の対象となるキャラクタオブジェクトの使用キャラクタデータを取得する。この使用キャラクタデータは、上記の変形情報取得部513から取得される。また、そのキャラクタオブジェクトが装着している服オブジェクトの服情報を取得する。この服情報は、上記の変形情報取得部513から取得される。そして、取得したポリゴンモデルデータを構成する各頂点データについて、取得した服情報を用いて、座標変換処理を実行する。
この座標変換処理を実行する頂点シェーダ部521は、処理対象の頂点データについて、カラー情報を特定する。カラー情報を特定すると、特定したカラー情報と、取得した服情報に基づいて、頂点座標の変位量を算出する。具体的には、まず、カラー情報をなすRGBA値と服情報をなすRGBA値の間で、同じ色に対応する値同士を乗算する。例えば、カラー情報をなすRGBA値が(1,0,0,0)であり、服情報をなすRGBA値が(1,0,0,0)である場合、R値の乗算値は1となり、G値、B値及びA値の乗算値は0となる。別の例として、カラー情報をなすRGBA値が(1,0,0,0)であり、服情報をなすRGBA値が(0,0,0,1)である場合には、算出されるすべての乗算値は0となる。この乗算値の計算では、カラー情報と服情報の間で、同じ色に対応する値のいずれもが0以外の値である場合に限り、0以外の乗算値が算出されるようになっている。そのため、頂点データのうち、服情報において変形対象とされている部位に相当するもののみ、0以外の乗算値が算出されるようになっている。
各色情報について乗算値を算出すると、算出した乗算値のうち、0以外の値に、カラー情報をなす最大縮小量を乗じて、変位量を算出する。例えば、算出した乗算値のうち、0以外の値が1であり、最大縮小量が0.35である場合には、算出される変位量は0.35になる。
変位量を算出すると、次に、頂点シェーダ部521は、処理対象の頂点データについて、法線ベクトル情報を特定する。法線ベクトル情報を特定すると、特定した法線ベクトル情報と、算出した変位量に基づいて、変位後の頂点座標を算出する。具体的には、現在の頂点座標を、法線方向の負の方向に、算出した変位量だけ変位させた頂点座標を算出する。算出される頂点座標は、現在の頂点座標よりも内側に引っ込んだ位置の座標となる。
頂点座標の算出後、算出した頂点座標で現在の頂点座標を置換する。その結果、処理対象の頂点がオフセットされることになる。
以上説明した座標変換処理は、ポリゴンモデルデータを構成する各頂点データについて実行される。その結果、キャラクタオブジェクトの特定の部位が、服オブジェクトがめり込まないように変形する。
次に、ビュー変換処理は、仮想空間に配置されているオブジェクトの座標をワールド座標系からカメラ座標系に変換するための処理である。このビュー変換処理を実行する頂点シェーダ部521は、上記の変形処理により座標が変換されたキャラクタデータと、DRAM203に記憶されている装着服データ、使用背景データ及び仮想カメラデータとに基づいて、仮想空間に配置されている各オブジェクトの座標を、ワールド座標系からカメラ座標系に変換する。
以上が、頂点シェーダ部521についての説明である。
次に、ラスタライズ部522は、上記のビュー変換処理により座標が変換されたキャラクタデータ、装着服データ及び使用背景データに基づいて、仮想空間を表すピクセルデータを生成する。
ピクセルシェーダ部523は、ラスタライズ部522により生成されたピクセルデータに基づいて、仮想空間を表す画像をフレームバッファに描画する。
1-2.動作
次に、ゲームシステム1の動作について説明する。以下では特に、ゲームプレイ中に実行される描画処理について説明する。
図14は、この描画処理一例を示すフローチャートである。同図に示す描画処理はフレーム単位で実行される。
この描画処理のステップS1において、頂点シェーダ部521は、仮想空間に配置されている各キャラクタオブジェクトについて、変形処理を実行する。
図15は、この変形処理の一例を示すフローチャートである。
この変形処理のステップS11において、変形情報取得部513は、処理対象のキャラクタオブジェクトの使用キャラクタデータ(特に、ポリゴンモデルデータ)をDRAM203から取得する。使用キャラクタデータを取得すると、次に、変形情報取得部513は、そのキャラクタオブジェクトが装着している服オブジェクトの服IDを、DRAM203に記憶されている装着服データを参照して特定する。そして、図示せぬ変換テーブルを参照して、特定した服IDに対応する種類IDを特定する(ステップS12)。種類IDを特定すると、次に、変形情報取得部513は、服情報テーブルを参照して、そのキャラクタオブジェクトのキャラクタIDと、特定した種類IDとに対応付けられている服情報を取得する(ステップS13)。
服情報が取得されると、頂点シェーダ部521は、取得されたポリゴンモデルデータを構成する各頂点データについて、取得された服情報を用いて、座標変換処理を実行する(ステップS14)。
図16は、この座標変換処理の一例を示すフローチャートである。
この座標変換処理のステップS141において、頂点シェーダ部521は、処理対象の頂点データについて、カラー情報を特定する。カラー情報を特定すると、特定したカラー情報と、取得された服情報に基づいて、頂点座標の変位量を算出する(ステップS142)。具体的には、まず、カラー情報をなすRGBA値と服情報をなすRGBA値の間で、同じ色に対応する値同士を乗算する。そして、各色情報について乗算値を算出すると、算出した乗算値のうち、0以外の値に、カラー情報をなす最大縮小量を乗じて、変位量を算出する。変位量を算出すると、処理対象の頂点データについて、法線ベクトル情報を特定する(ステップS143)。法線ベクトル情報を特定すると、特定した法線ベクトル情報と、算出した変位量に基づいて、変位後の頂点座標を算出する(ステップS144)。具体的には、現在の頂点座標を、法線方向の負の方向に、算出した変位量だけ変位させた頂点座標を算出する。頂点座標を算出すると、算出した頂点座標で現在の頂点座標を置換する(ステップS145)。
以上説明した座標変換処理は、ポリゴンモデルデータを構成する各頂点データについて実行される。その結果、キャラクタオブジェクトの特定の部位が、服オブジェクトがめり込まないように変形する。
仮想空間に配置されているすべてのキャラクタオブジェクトについて、変形処理を実行されると、頂点シェーダ部521は、上記の変形処理により座標が変換されたキャラクタデータと、DRAM203に記憶されている装着服データ、使用背景データ及び仮想カメラデータとに基づいて、仮想空間に配置されている各オブジェクトの座標を、ワールド座標系からカメラ座標系に変換する(ステップS2)。
ビュー変換処理が実行されると、ラスタライズ部522は、上記のビュー変換処理により座標が変換されたキャラクタデータ、装着服データ及び使用背景データに基づいて、仮想空間を表すピクセルデータを生成する(ステップS3)。
ラスタライズ処理が実行されると、ピクセルシェーダ部523は、ラスタライズ部522により生成されたピクセルデータに基づいて、仮想空間を表す画像をフレームバッファに描画する(ステップS4)。このフレームバッファに描画された画像は、ディスプレイ211に表示される。
以上が、描画処理についての説明である。
以上説明した描画処理によれば、キャラクタデータのカラー情報と服情報を適切に設定することで、装着アイテムオブジェクトがキャラクタオブジェクトにめり込むことを抑制することができる。そのため、めり込みを回避するために、装着アイテムオブジェクトの種類ごとにキャラクタオブジェクトを生成しなければならないといった不都合が解消される。
また、上記の描画処理において、頂点シェーダ処理はGPU52により実行されるため、CPU51により実行される場合と比較して処理が高速化される。
また、上記の描画処理では、カラー情報をなすRGBA値を用いて変形処理が実行されるため、既存の画像処理の枠組みを利用して変形処理を実行することができる。
2.変形例
上記の実施形態は、以下に説明するように変形してもよい。なお、以下に説明する2以上の変形例は互いに組み合わせてもよい。
2-1.変形例1
上記の実施形態では、キャラクタオブジェクトが装着する装着アイテムオブジェクトとして、服オブジェクトが想定されている。しかし、他の装着アイテムオブジェクトをキャラクタオブジェクトに装着させてもよい。例えば、帽子、靴、手袋、鎧、武器等の装着アイテムオブジェクトを装着させてもよい。
2-2.変形例2
上記の実施形態では、キャラクタオブジェクトの変形対象部位として、腹周り、肩周り、肘周り及び足の付け根周りが想定されている。しかし、他の部位を変形対象としてもよい。例えば、首周り、手首周り、指の付け根周り等の部位を変形対象としてもよい。
2-3.変形例3
上記の服情報テーブルでは、服オブジェクトの種類ごとに服情報が設定されている。具体的には、袖なし、半袖、長袖、ボトムスという種類ごとに服情報が設定されている。しかし、服オブジェクトの種類の分類の仕方は、これよりも詳細にしてもよいし、逆に粗くしてもよい。例えば、服オブジェクトごとに個別に服情報を設定してもよい。
上記の実施形態では、キャラクタオブジェクトごとに個別に服情報が設定されている。しかし、キャラクタオブジェクトの種類の分類の仕方は、これよりも粗くしてもよい。すなわち、形状が類似するキャラクタオブジェクトの種類ごとに服情報を設定してもよい。
2-4.変形例4
上記の変形処理では、カラー情報と服情報の間で、同じ色に対応する値同士を乗算し、求めた乗算値に最大縮小量を乗じることで頂点座標の変位量を算出している。しかし、この計算で乗算値に乗じられる最大縮小量は、必ずしも用いなくてもよい。
2-5.変形例5
上記の変形処理では、カラー情報と服情報の間で、同じ色に対応する値同士を乗算し、求めた値に最大縮小量を乗じることで頂点座標の変位量を算出している。しかし、これに代えて、同じ色に対応する値同士を加算し、求めた値に最大縮小量を乗じる又は加算することで頂点座標の変位量を算出するようにしてもよい。
2-6.変形例6
上記の変形処理では、頂点座標の変位量の算出後、その頂点座標を法線方向の負の方向に変位させている。しかし、他の実施形態においては、頂点を法線方向の正の方向に変位させるようにしてもよい。すなわち、頂点を元の位置よりも外側に移動させるようにしてもよい。この場合は、変形していない状態のキャラクタオブジェクトは予め細めの形状になるよう設定され、服ごとにどの程度まで法線方向に変形させてよいかという観点で服情報が設定されることになる。ここで、頂点を変位させる方向の正負は、服情報において色情報ごとに設定されてもよい。
2-7.変形例7
上記の実施形態では、カラー情報と服情報がRGBA形式で表現されている。しかし、必ずしもRGBA形式で表現される必要はなく、他の表現形式で表現されてもよい。
2-8.変形例8
上記の実施形態では、頂点シェーダ処理はGPU52により実行されている。しかし、必ずしもGPU52により実行される必要はなく、CPU51により実行されてもよい。
2-9.変形例9
ゲームシステム1は、上記のゲームプログラムを実行可能な情報処理装置の一例である。ゲームプログラムは、スマートフォンやPC等の他の情報処理装置で実行されてもよい。また、ゲームプログラムにより実現される各機能は、ネットワーク接続された複数の情報処理装置に分散して配置されてもよい。
1…ゲームシステム、2…本体装置、3…左コントローラ、4…右コントローラ、31…端子、32…通信制御部、33…メモリ、34…操作ボタン、35…アナログスティック、36…電力供給部、41…端子、42…通信制御部、43…メモリ、44…操作ボタン、45…アナログスティック、46…電力供給部、51…CPU、52…GPU、201…プロセッサ、202…フラッシュメモリ、203…DRAM、204…スロット、205…スロットI/F、206…ネットワーク通信部、207…コントローラ通信部、208…左側端子、209…右側端子、210…下側端子、211…ディスプレイ、212…タッチパネル、213…タッチパネルコントローラ、214…コーデック回路、215…スピーカ、216…音声入出力端子、217…電力制御部、218…バッテリ、219…電源ボタン、511…仮想空間設定部、512…ゲーム制御部、513…変形情報取得部、521…頂点シェーダ部、522…ラスタライズ部、523…ピクセルシェーダ部、CH1、CH2…キャラクタオブジェクト、CL…服オブジェクト、E1…プレイヤキャラクタ、E2、E3…ノンプレイヤキャラクタ、E4…タワーオブジェクト、E5、E6…ビルオブジェクト、E7…地面オブジェクト

Claims (22)

  1. 少なくとも1つのプロセッサと少なくとも1つの記憶媒体を備え、
    前記少なくとも1つの記憶媒体は、
    キャラクタオブジェクトのデータと、
    前記キャラクタオブジェクトが装着する複数の装着アイテムオブジェクトのデータと、
    前記装着アイテムオブジェクトの種類毎に、前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第1パラメータを少なくとも記憶し、
    前記少なくとも1つのプロセッサは、
    仮想空間内において、前記複数の装着アイテムオブジェクトから、前記キャラクタオブジェクトに装着させる装着アイテムオブジェクトを設定し、
    前記仮想空間内において前記キャラクタオブジェクトを制御し、
    設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位の表面の形状変化させて、前記装着アイテムオブジェクトを装着した前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成する、
    情報処理装置。
  2. 前記少なくとも1つのプロセッサは、頂点シェーダ機能を有するGPUを含み、
    前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位に含まれる頂点をオフセットさせることで前記部位の表面の形状変化させる、請求項1記載の情報処理装置。
  3. 前記頂点の前記オフセットは、法線方向の正または負方向に行われる、請求項2記載の情報処理装置。
  4. 前記記憶媒体はさらに、前記キャラクタオブジェクトの頂点毎に前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第2パラメータを記憶し、
    前記プロセッサは、前記第1パラメータと前記第2パラメータに基づいた度合いで前記頂点をオフセットさせる、請求項2または3記載の情報処理装置。
  5. 前記記憶媒体は、前記部位を色に対応させて、前記キャラクタオブジェクトの頂点カラー情報の少なくとも1つのチャンネルとして前記第2パラメータを記憶し、
    前記第1パラメータは、前記頂点カラー情報として記憶される前記第2パラメータのそれぞれの色に対応する値として記憶され、
    前記プロセッサは、前記第2パラメータを前記キャラクタオブジェクトの色の決定に用いずに、前記部位情報において前記頂点カラーの設定された頂点に対して、当該頂点に対する第2パラメータおよび対応する色の前記第1パラメータに基づいた度合いで頂点を移動させることで色に対応する部位の表面の形状を変化させる、請求項4記載の情報処理装置。
  6. 前記少なくとも1つの記憶媒体はさらに、
    複数のキャラクタオブジェクトのデータを記憶し、
    前記第1パラメータを、前記複数のキャラクタオブジェクトの種類毎かつ前記装着アイテムオブジェクトの種類毎に記憶し、
    前記少なくとも1つのプロセッサは、
    対象となる前記キャラクタオブジェクトおよび設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに少なくとも基づいて前記表面の形状の変化度合いを決定し、
    前記装着アイテムオブジェクトを装着した複数の前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成する、請求項1から5のいずれか1項記載の情報処理装置。
  7. 前記装着アイテムオブジェクトは、前記キャラクタオブジェクトが着る服オブジェクトである、請求項1から6のいずれか1項記載の情報処理装置。
  8. 情報処理装置のコンピュータに、
    仮想空間内において、キャラクタオブジェクトに装着させる装着アイテムオブジェクトを設定させ、
    前記仮想空間内において前記キャラクタオブジェクトを制御させ、
    前記装着アイテムオブジェクトの種類毎に予め設定された、前記キャラクタオブジェクトの少なくとも1つの部位に関連付けられた第1パラメータに基づき決定される度合いで前記キャラクタオブジェクトの当該少なくとも1つの部位の表面の形状を変化させて、前記装着アイテムオブジェクトを装着した前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成させる、
    情報処理プログラム。
  9. 前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位に含まれる頂点をオフセットさせることで前記部位の表面の形状変化させる、請求項8記載の情報処理プログラム。
  10. 前記頂点の前記オフセットは、法線方向の正または負方向に行われる、請求項9記載の情報処理プログラム。
  11. 前記第1パラメータと、前記キャラクタオブジェクトの頂点毎に前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第2パラメータとに基づいた度合いで前記頂点をオフセットさせる、請求項9または10記載の情報処理プログラム。
  12. 前記第2パラメータは、前記部位を色に対応させて、前記キャラクタオブジェクトの頂点カラー情報の少なくとも1つのチャンネルとして設定され、
    前記第1パラメータは、前記頂点カラー情報として記憶される前記第2パラメータのそれぞれの色に対応する値として設定され、
    前記第2パラメータを前記キャラクタオブジェクトの色の決定に用いずに、前記部位情報において前記頂点カラーの設定された頂点に対して、当該頂点に対する第2パラメータおよび対応する色の前記第1パラメータに基づいた度合いで頂点を移動させることで色に対応する部位の表面の形状を変化させる、請求項11記載の情報処理プログラム。
  13. 前記第1パラメータは、複数のキャラクタオブジェクトの種類毎かつ前記装着アイテムオブジェクトの種類毎に設定され、
    対象となる前記キャラクタオブジェクトおよび設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに少なくとも基づいて前記表面の形状の変化度合いを決定させ、
    前記装着アイテムオブジェクトを装着した複数の前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成させる、請求項8から12のいずれか1項記載の情報処理プログラム。
  14. 前記装着アイテムオブジェクトは、前記キャラクタオブジェクトが着る服オブジェクトである、請求項8から13のいずれか1項記載の情報処理プログラム。
  15. 少なくとも1つのプロセッサと少なくとも1つの記憶媒体を備え、
    前記少なくとも1つの記憶媒体は、
    キャラクタオブジェクトのデータと、
    前記キャラクタオブジェクトが装着する複数の装着アイテムオブジェクトのデータと、
    前記装着アイテムオブジェクトの種類毎に、前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第1パラメータを少なくとも記憶し、
    前記少なくとも1つのプロセッサは、
    仮想空間内において、前記複数の装着アイテムオブジェクトから、前記キャラクタオブジェクトに装着させる装着アイテムオブジェクトを設定し、
    前記仮想空間内において前記キャラクタオブジェクトを制御し、
    設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位の表面の形状変化させて、前記装着アイテムオブジェクトを装着した前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成する、
    情報処理システム。
  16. 少なくとも1つの記憶媒体に、
    キャラクタオブジェクトのデータと、
    前記キャラクタオブジェクトが装着する複数の装着アイテムオブジェクトのデータと、
    前記装着アイテムオブジェクトの種類毎に、前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第1パラメータを少なくとも記憶させ、
    少なくとも1つのプロセッサに、
    仮想空間内において、前記複数の装着アイテムオブジェクトから、前記キャラクタオブジェクトに装着させる装着アイテムオブジェクトを設定させ、
    前記仮想空間内において前記キャラクタオブジェクトを制御させ、
    設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位の表面の形状変化させて、前記装着アイテムオブジェクトを装着した前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成させる、
    情報処理方法。
  17. 前記少なくとも1つのプロセッサは、頂点シェーダ機能を有するGPUを含み、
    前記第1パラメータに応じた度合いで前記キャラクタオブジェクトの前記部位に含まれる頂点をオフセットさせることで前記部位の表面の形状変化させる、請求項16記載の情報処理方法。
  18. 前記頂点の前記オフセットは、法線方向の正または負方向に行われる、請求項17記載の情報処理方法。
  19. 前記記憶媒体にさらに、前記キャラクタオブジェクトの頂点毎に前記キャラクタオブジェクトの少なくとも1つの部位に関連付けた第2パラメータを記憶させ、
    前記プロセッサは、前記第1パラメータと前記第2パラメータに基づいた度合いで前記頂点をオフセットさせる、請求項17または18記載の情報処理方法。
  20. 前記記憶媒体は、前記部位を色に対応させて、前記キャラクタオブジェクトの頂点カラー情報の少なくとも1つのチャンネルとして前記第2パラメータを記憶し、
    前記第1パラメータは、前記頂点カラー情報として記憶される前記第2パラメータのそれぞれの色に対応する値として記憶され、
    前記プロセッサは、前記第2パラメータを前記キャラクタオブジェクトの色の決定に用いずに、前記部位情報において前記頂点カラーの設定された頂点に対して、当該頂点に対する第2パラメータおよび対応する色の前記第1パラメータに基づいた度合いで頂点を移動させることで色に対応する部位の表面の形状を変化させる、請求項19記載の情報処理方法。
  21. 前記少なくとも1つの記憶媒体にさらに、
    複数のキャラクタオブジェクトのデータを記憶させ、
    前記第1パラメータを、前記複数のキャラクタオブジェクトの種類毎かつ前記装着アイテムオブジェクトの種類毎に記憶させ、
    前記少なくとも1つのプロセッサは、
    対象となる前記キャラクタオブジェクトおよび設定された前記装着アイテムオブジェクトに対応する前記第1パラメータに少なくとも基づいて前記表面の形状の変化度合いを決定し、
    前記装着アイテムオブジェクトを装着した複数の前記キャラクタオブジェクトを含む前記仮想空間の画像を仮想カメラに基づいて生成する、請求項16から20のいずれか1項記載の情報処理方法。
  22. 前記装着アイテムオブジェクトは、前記キャラクタオブジェクトが着る服オブジェクトである、請求項16から21のいずれか1項記載の情報処理方法。
JP2019147332A 2019-08-09 2019-08-09 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法 Active JP7293036B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019147332A JP7293036B2 (ja) 2019-08-09 2019-08-09 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法
US16/930,571 US11620801B2 (en) 2019-08-09 2020-07-16 Information-processing device, storage medium, information-processing system, and information-processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019147332A JP7293036B2 (ja) 2019-08-09 2019-08-09 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2021028752A JP2021028752A (ja) 2021-02-25
JP7293036B2 true JP7293036B2 (ja) 2023-06-19

Family

ID=74499489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019147332A Active JP7293036B2 (ja) 2019-08-09 2019-08-09 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法

Country Status (2)

Country Link
US (1) US11620801B2 (ja)
JP (1) JP7293036B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7089546B2 (ja) * 2020-04-09 2022-06-22 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理制御方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208536A (ja) 2011-02-16 2012-10-25 Square Enix Co Ltd 動作モデリング装置及び方法、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3957363B2 (ja) * 1996-07-03 2007-08-15 株式会社バンダイナムコゲームス 3次元ゲーム装置及び情報記憶媒体
JP3683487B2 (ja) * 2000-09-19 2005-08-17 株式会社ドリームパブリッシング 外殻による3dモデルアニメーション生成方法
JP5002103B2 (ja) * 2001-09-28 2012-08-15 株式会社バンダイナムコゲームス 画像生成システム、画像生成方法及びプログラム
US20070273711A1 (en) * 2005-11-17 2007-11-29 Maffei Kenneth C 3D graphics system and method
JP2015184875A (ja) * 2014-03-24 2015-10-22 株式会社東芝 データ処理装置及びデータ処理プログラム
US9626808B2 (en) * 2014-08-01 2017-04-18 Electronic Arts Inc. Image-based deformation of simulated characters of varied topology

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208536A (ja) 2011-02-16 2012-10-25 Square Enix Co Ltd 動作モデリング装置及び方法、並びにプログラム

Also Published As

Publication number Publication date
US20210038984A1 (en) 2021-02-11
US11620801B2 (en) 2023-04-04
JP2021028752A (ja) 2021-02-25

Similar Documents

Publication Publication Date Title
US11073915B2 (en) Modification of three-dimensional garments using gestures
US10409365B2 (en) Method of providing a virtual space image subjected to blurring processing based on detected displacement, and system therefor
US11353709B2 (en) Sensor fusion for electromagnetic tracking
KR20210011425A (ko) 이미지 처리 방법 및 디바이스, 이미지 장치, 및 저장 매체
JP4668655B2 (ja) プログラム、情報記憶媒体及び画像生成システム
CN108196669B (zh) 游戏角色模型的修正方法、装置、处理器及头戴式显示设备
JP2024045724A (ja) 電磁追跡のための周囲電磁歪み補正
JP2010033298A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2016053900A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2015183302A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US20220230375A1 (en) Three-dimensional avatar generation and customization
JP5002103B2 (ja) 画像生成システム、画像生成方法及びプログラム
JP7293036B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム及び情報処理方法
US10249100B2 (en) Method and system for progressive drape update on avatar morph for virtual fitting
JPH11286817A (ja) 衣服の型紙作成方法及びこの方法を用いた衣服の型紙作成システム
US10621788B1 (en) Reconstructing three-dimensional (3D) human body model based on depth points-to-3D human body model surface distance
CN116982088A (zh) 贴合底层身体和/或服装层的分层服装
JP5229921B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
KR20210130420A (ko) 스마트 삼차원 의류 피팅 시스템 및 이를 이용한 의류 피팅 서비스 제공 방법
JP4786389B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP6104223B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
JP7418677B1 (ja) 情報処理システム、情報処理方法、及び情報処理プログラム
JP5378027B2 (ja) ゲームプログラム、記憶媒体およびコンピュータ装置
JP6049011B2 (ja) 三次元モデルの変形方法
JP2009140025A (ja) オブジェクト設計支援プログラムおよび装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210714

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221109

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221124

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221125

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230106

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230111

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230125

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230303

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230607

R150 Certificate of patent or registration of utility model

Ref document number: 7293036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150