WO2011142084A1 - 画像処理装置、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
WO2011142084A1
WO2011142084A1 PCT/JP2011/002280 JP2011002280W WO2011142084A1 WO 2011142084 A1 WO2011142084 A1 WO 2011142084A1 JP 2011002280 W JP2011002280 W JP 2011002280W WO 2011142084 A1 WO2011142084 A1 WO 2011142084A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion
character
virtual
virtual sphere
motion information
Prior art date
Application number
PCT/JP2011/002280
Other languages
English (en)
French (fr)
Inventor
向井智彦
Original Assignee
株式会社スクウェア・エニックス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社スクウェア・エニックス filed Critical 株式会社スクウェア・エニックス
Priority to EP11731621.6A priority Critical patent/EP2544151B1/en
Priority to CA2798954A priority patent/CA2798954C/en
Priority to JP2012514695A priority patent/JP5303068B2/ja
Priority to CN201180002332.8A priority patent/CN102934145B/zh
Priority to KR1020117015422A priority patent/KR101247930B1/ko
Priority to US13/145,648 priority patent/US8432401B2/en
Publication of WO2011142084A1 publication Critical patent/WO2011142084A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics

Definitions

  • An image processing apparatus is an image processing apparatus that generates a motion of a character by controlling the motion of the character in a virtual space, and stores sample motion information indicating a sample motion that is a basis of the motion of the character.
  • a sample motion information storage unit, and a motion information storage unit that stores motion information indicating the motion of the character, and a plurality of sample motion information stored in the sample motion information storage unit is mixed at an arbitrary mixing ratio.
  • motion information registration means for registering motion information generated by the motion blending means in the motion information storage unit, and motion information generated by the motion blending means
  • Reachable position detecting means for detecting a reachable position of a predetermined part of the character at the end of movement when the character is moved, coordinate information indicating the reachable position detected by the reachable position detecting means
  • a mixing ratio associating means for associating with a mixing ratio
  • a virtual sphere arranging means for arranging a plurality of spheres in a range where the reachable position exists in the virtual space
  • Virtual sphere association means for associating the reachable position with each other, virtual sphere information that is information on the virtual sphere associated with the reachable position by the virtual sphere association means, and virtual sphere information that stores virtual sphere information Based on the virtual sphere information registration means to be registered in the information storage unit, and the motion information stored in the motion information storage unit Character control
  • Output means for outputting the virtual sphere, contact determination means for determining whether there is a virtual sphere that is in contact with a contact-allowable object that is an object that the character can touch among the virtual spheres output by the output means,
  • a selection receiving unit that receives a selection of a virtual sphere determined to be in contact with the contact-allowable object by the contact determination unit, and indicates a reachable position associated with the virtual sphere that has been selected by the selection receiving unit Controlling the motion of the character based on motion information corresponding to the mixing ratio associated with the coordinate information.
  • the motion of the character can be appropriately expressed and the processing load in image processing can be reduced.
  • the character control means includes: a mixing ratio specifying means for specifying a mixing ratio according to the virtual sphere received by the selection receiving means; and the coordinate information associated with the mixing ratio specified by the mixing ratio specifying means; Based on the position of the contact-permitted object in the virtual space, the mixture ratio correction unit corrects the mixture ratio so that motion information corresponding to the mixture ratio satisfies a predetermined condition, and the mixture ratio correction unit corrects the mixture ratio.
  • a motion information specifying means for specifying motion information according to the mixed ratio, wherein the character control means controls the action of the character based on the motion information specified by the motion information specifying means; May be.
  • the image processing method of the present invention is an image processing method for generating a motion of a character by controlling the motion of the character in a virtual space, and includes sample motion information indicating a sample motion that is a basis of the motion of the character.
  • a plurality of sample motion information stored in the sample motion information storage unit to be stored is mixed at an arbitrary mixing ratio to generate motion information, and the motion information generated by the motion blend processing is stored in the character
  • the motion information registration process to be registered in the motion information storage unit that stores the motion information indicating the motion of the character, and the character at the end of the motion when the character is operated based on the motion information generated in the motion blend process
  • Predetermined part A reachable position detecting process for detecting the reachable position, a mixing ratio associating process for associating coordinate information indicating the reachable position detected in the reachable position detecting process with the mixing ratio, and the virtual space in the virtual space
  • a virtual sphere arrangement process for arranging a plurality of spheres in a range where a reachable position exists
  • the virtual sphere information storage unit 12c stores motion information suitable for a plurality of pieces of motion information in accordance with a character state (for example, “stopped” or “moving”), a surrounding environment of the character, an operation input from the user, and the like.
  • This is a storage medium for storing virtual sphere information that is information related to the virtual sphere used to select.
  • the virtual sphere means a predetermined sphere (or a group of spheres) virtually arranged in the virtual space according to the character state.
  • the virtual sphere and the virtual sphere information will be described in detail in the description regarding the virtual sphere generation process and the motion generation process (see FIGS. 3 and 7) described later.
  • FIG. 2 is an explanatory diagram illustrating an example of a storage state of virtual sphere information in the virtual sphere information storage unit 12c.
  • the virtual sphere information includes a sphere number for uniquely identifying a virtual sphere, a character associated with the virtual sphere, a type of motion associated with the virtual sphere, and a virtual space. It includes center coordinates indicating the center position of the virtual sphere corresponding to the position of the character, a radius of the virtual sphere, a mixing ratio of sample motions constituting a motion associated with the virtual sphere, and a contact flag.
  • the environment information storage unit 12d is a storage medium that stores information about the virtual space where the character exists.
  • the environment information storage unit 12d includes information (for example, ground geometry) indicating a contact-allowed object (for example, the ground) that is an object that the character can touch in the virtual space.
  • the display unit 13 is a display device that displays a game screen according to a user operation in accordance with the control of the control unit 11.
  • the display unit 13 is configured by a liquid crystal display device, for example.
  • the sound output unit 14 outputs sound in accordance with the user's operation and the character's action according to the control of the control unit 11.
  • the operation accepting unit 15 accepts an operation signal corresponding to a user operation from a controller composed of a plurality of buttons, a mouse, and the like, and notifies the control unit 11 of the result.
  • the motion processing unit 16 has a function of mixing a plurality of sample motion information at an arbitrary mixing ratio, and a function for executing a mixing ratio correction process in a motion generation process described later (see FIG. 7).
  • the motion processing unit 16 includes a motion blending unit 16a, a virtual sphere information generation unit 16b, a contact determination unit 16c, and a mixing ratio correction unit 16d.
  • the motion blend unit 16a has a function of generating motion information by mixing a plurality of sample motions at an arbitrary mixing ratio, and registering the generated motion information in the motion information storage unit 12b.
  • the sample motion mixing process uses a known motion blending method in which a plurality of motions are synchronized to interpolate the posture of the operation for each time frame, and thus detailed description thereof is omitted here.
  • the virtual sphere information generation unit 16b has a function of executing virtual sphere information generation processing for generating virtual sphere information.
  • the virtual sphere information generation process will be described later in detail (see FIG. 3).
  • the contact determination unit 16c is a function for determining whether or not the virtual sphere arranged in the virtual space is in contact with a boundary line (for example, ground geometry) between a region where the character can move and a region where the character cannot move.
  • a boundary line for example, ground geometry
  • the mixing ratio correction unit 16d has a function of executing a mixing ratio correction process in a motion generation process described later (see FIG. 7).
  • the mixing ratio correction process is a process of correcting the mixing ratio so that, for example, the toe of the character C is accurately grounded to the ground when the motion generated according to the mixing ratio is executed.
  • a method using a known kriging method is used, detailed description thereof is omitted here.
  • the image processing apparatus 100 in this example generates a motion when the 3DCG character moves on a slope or stairs in the virtual space by mixing the sample motion information stored in advance in the sample motion information storage unit 12a at an arbitrary ratio. Process to do.
  • FIG. 3 is an explanatory diagram illustrating an example of virtual sphere information generation processing executed by the image processing apparatus 100 as pre-computation.
  • the virtual sphere information generation process a process for generating virtual sphere information corresponding to the type of motion of the character C is executed.
  • the image processing apparatus 100 In order to generate the virtual sphere information, the image processing apparatus 100, as shown in FIG. 4, from the initial posture FC of the character C, a combination of a plurality of sample motions corresponding to the walking motion at various ratios (that is, a mixing ratio). ) And the reachable positions P1, P2, and P3 of the legs of the character C (character C postures AC1, AC2, and AC3 in FIG. 4) at the respective mixing ratios are derived.
  • FIG. 5 shows a plurality of reachable positions P (including P1, P2, and P3) derived according to the rules stored in the storage unit 12 in advance.
  • the image processing apparatus 100 virtually arranges a plurality of spheres in a range where each reachable position P of the foot of the character C exists, and associates a mixing ratio with each of the arranged spheres (virtual spheres).
  • the mixing ratio can be referred to by a constant time so that the toes are arranged at the position.
  • the control unit 11 uses the rules previously stored in the storage unit 12 by the motion blend unit 16a (for example, “the sample motion corresponding to the walking motion has the largest stride and the most stride Are mixed at a mixing ratio of 10%, 9: 1, 8: 2, 7: 3,..., Etc. Are mixed to generate a plurality of pieces of motion information (step S101).
  • the control part 11 selects the motion information used for a virtual sphere information generation process from the motion information previously memorize
  • the control unit 11 may receive a selection of a plurality of sample motions by the user by the motion blending unit 16a.
  • the control unit 11 is configured to display sample motions that can be blended on the display screen based on, for example, the priority set in advance for each sample motion, so that the user can select the sample motion. It is good also as a structure which supports.
  • the control unit 11 associates information (coordinate information) indicating the reachable position P with respect to the position of the initial posture FC of the character C with the mixing ratio by the virtual sphere information generation unit 16b.
  • a plurality of virtual spheres are arranged in a range 101 (see FIG. 6) that is stored in the storage unit 12 and in which the reachable position P exists (step S103).
  • the virtual sphere information generation unit 16b uniformly arranges virtual spheres having a predetermined radius in a virtual space where the character's feet can reach.
  • the product of the radius of the virtual sphere and the total number of virtual spheres is constant.
  • the amount of data generated by pre-calculation increases linearly as the total number of virtual spheres increases, it is necessary to delete the total number of virtual spheres by increasing the sphere radius.
  • the virtual sphere B in which the reachable position P is not located inside is a virtual sphere that is not associated with a mixing ratio and is not selected in a motion generation process (see FIG. 7) described later.
  • the virtual sphere information generation unit 16b has a mixing ratio associated with the plurality of reachable positions P. The average value may be calculated and stored.
  • the motion generation process executed by the image processing apparatus 100 will be described.
  • the motion generation process will also be described by taking the walking motion of the character C as an example.
  • the image processing apparatus 100 arranges a plurality of virtual spheres B in which the mixing ratio is associated according to the position of the character C in the virtual space, as shown in FIG.
  • a virtual sphere B associated with a mixing ratio related to walking motion is arranged will be described as an example.
  • the arranged virtual sphere is not limited to this, and various motions can be calculated in advance calculation. Any virtual sphere group associated with the corresponding mixing ratio may be used.
  • a plurality of sample motion information stored in the sample motion information storage unit 12a Motion information is generated by mixing at a mixing ratio, the generated motion information is registered in the motion information storage unit 12b, and a predetermined character C at the end of the operation when the character C is moved based on the generated motion information Part (for example, foot, hand) And the like, the coordinate information indicating the detected reachable position P is associated with the mixing ratio, and a plurality of spheres are arranged in a range where the reachable position P exists in the virtual space.
  • a virtual sphere information storage unit 12c that associates virtual sphere B that is a sphere with reachable position P, stores virtual sphere information, and stores virtual sphere information that is information about virtual sphere B with which reachable position P is associated.
  • the sample motion that was not included in the information is specified, and the ratio of the specified sample motion is included so that the motion information satisfies a predetermined condition (for example, the foot of the character C is accurately grounded to the ground) It is good also as a structure which correct
  • the image processing apparatus 100 calculates a plurality of reachable positions P according to the rules stored in advance in the storage unit 12, associates coordinate information with the calculated reachable positions P, and then A case has been described in which a plurality of virtual spheres B are uniformly arranged, and a mixing ratio is associated with each virtual sphere B based on the positional relationship between the arranged virtual spheres B and the reachable positions P.
  • the example of a form is not limited to this.
  • control unit 11 uses the virtual sphere information generation unit 16b to set the character C (for example, the character in FIG. 4 in each mixing ratio) with the toe position of the initial posture FC (see FIG. 4) of the character C as the origin.
  • C's posture AC1) is calculated.
  • the image processing apparatus 100 associates a mixture ratio with a plurality of virtual spheres by blending a plurality of sample motions with various mixture ratios, and the virtual sphere group closest to the uniform arrangement in the motion generation process. It is good also as a structure which selects and arrange
  • the meaning of the word “character” in the present application is not limited to a character as an object appearing in a video game.
  • simulation of a physical phenomenon or virtual space It includes various objects that appear during construction. That is, the present invention is not limited to the conventional method when the image processing apparatus (for example, the image processing apparatus 100) is used not only for the realization of video games but also for the entire technical field related to computer graphics.
  • the processing load on the image processing apparatus can be reduced as compared with the case where the same level of image processing is to be realized.
  • the pend rate is automatically calculated from a small number of explicit control parameters such as moving direction, speed, and ground inclination angle. Since this method requires a small amount of calculation, a walking animation can be generated interactively.
  • interpolation-based algorithms also do not necessarily produce high quality animations. For example, since interpolation calculation involves an error, it is necessary to correct the motion by post-processing such as inverse kinematics. In most cases, the generation calculation does not consider dynamics. Thus, blending-based techniques can obtain many excellent characteristics by allowing some degradation in animation quality.
  • the conventional technique requires redundant post-processing, there is room for calculation efficiency and robustness.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】キャラクタのモーションにおける画像処理の処理負荷を軽減し、キャラクタの所定の部位が接触許容物体に的確に接触している適切なモーション表現を行う。 【解決手段】画像処理装置100が、複数のサンプルモーション情報を任意の混合比率で混合してモーション情報を生成し、生成したモーション情報に基づいてキャラクタCを動作させたときの到達可能位置Pを検出し、検出した到達可能位置Pを示す座標情報と混合比率とを関連付けし、仮想空間において到達可能位置Pが存在する範囲に配置した仮想球体Bと到達可能位置Pとを対応付けし、仮想球体情報に基づいて仮想空間におけるキャラクタCの状態に応じた仮想球体を出力し、接触許容物体と接触する仮想球体の選択を受け付け、選択を受け付けた仮想球体に対応付けされた到達可能位置Pを示す座標情報に関連付けされた混合比率に対応するモーション情報に基づいてキャラクタCの動作を制御する。

Description

画像処理装置、画像処理方法、および画像処理プログラム
 本発明は、例えば3次元又は2次元コンピュータグラフィックスにより表現される画像(ビデオゲームキャラクタなど)のモーションを生成する画像処理装置、画像処理方法、及び画像処理プログラムに関する。
 RPG(ロールプレイングゲーム:プレイヤがゲームの世界の中であるキャラクタの役割を演じ、様々な経験を通じて成長していく過程を楽しみながら、所定の目的を達成していくことを遊戯するゲーム)と呼ばれるビデオゲームやシミュレーションゲームなどの各種のビデオゲームが提供されている。
 従来から、このようなビデオゲーム等において登場するキャラクタのモーションを多様に表現することができるようにした画像処理技術が種々提案されている(例えば、特許文献1-2)。
特開2003-62326号公報 特開2003-67773号公報
 しかしながら、ポリゴンからなるキャラクタのモーションをフィールドの変化に対応してより適切に表現するためには、多くの計算が必要となり、処理負荷が多大なものとなってしまう。このため、従来の画像処理技術では、例えば、地表データについて、予め広範囲に集めておくとともに、事前に計算しておいた計算結果を用いることによって、処理負荷を軽減し、高速化を図るようにしているが、さらなる処理負荷の軽減が望まれていた。
 一方、家庭用ゲーム機などにおいては、その処理能力に限度があり、広範囲に亘る地表の地表データを用いる場合などにおいては、事前計算を行っていたとしても、処理能力を超える処理負荷がかかってしまうおそれがあるという問題があった。
 また、こうした問題は、ビデオゲームに関わる技術分野に限定されず、コンピュータグラフィックスやアニメーションの生成に関わる技術分野全般において問題となっていた。
 本発明は、上記の問題を解決すべく、キャラクタのモーションを適切に表現することができ、かつ画像処理における処理負荷を軽減することができるようにすることを目的とする。
 本発明の画像処理装置は、仮想空間においてキャラクタの動作を制御することによりキャラクタのモーションを生成する画像処理装置であって、前記キャラクタのモーションの基礎となるサンプルモーションを示すサンプルモーション情報を記憶するサンプルモーション情報記憶部と、前記キャラクタの動作を示すモーション情報を記憶するモーション情報記憶部とを備え、前記サンプルモーション情報記憶部に記憶された複数のサンプルモーション情報を任意の混合比率で混合してモーション情報を生成するモーションブレンド手段と、該モーションブレンド手段により生成されたモーション情報を前記モーション情報記憶部に登録するモーション情報登録手段と、前記モーションブレンド手段により生成されたモーション情報に基づいて前記キャラクタを動作させたときの動作終了時のキャラクタの所定の部位の到達可能位置を検出する到達可能位置検出手段と、該到達可能位置検出手段により検出された到達可能位置を示す座標情報と前記混合比率とを関連付ける混合比率関連付け手段と、前記仮想空間において前記到達可能位置が存在する範囲に複数の球体を配置する仮想球体配置手段と、該仮想球体配置手段により配置された球体である仮想球体と前記到達可能位置とを対応付ける仮想球体対応付け手段と、該仮想球体対応付け手段により前記到達可能位置が対応付けされた仮想球体に関する情報である仮想球体情報を、仮想球体情報を記憶する仮想球体情報記憶部に登録する仮想球体情報登録手段と、前記モーション情報記憶部に記憶されたモーション情報に基づいて前記仮想空間における前記キャラクタの動作を制御するキャラクタ制御手段とを含み、該キャラクタ制御手段は、前記仮想球体情報記憶部に記憶された仮想球体情報に基づいて前記仮想空間における前記キャラクタの状態に応じた前記仮想球体を出力する出力手段と、該出力手段により出力された仮想球体のうち、前記キャラクタが接触可能な物体である接触許容物体と接触する仮想球体があるか判定する接触判定手段と、該接触判定手段により前記接触許容物体と接触すると判定された仮想球体の選択を受け付ける選択受付手段とを有し、該選択受付手段により選択を受け付けた仮想球体に対応付けされた到達可能位置を示す座標情報に関連付けされた混合比率に対応するモーション情報に基づいて前記キャラクタの動作を制御することを特徴とする。
 上記の構成としたことで、キャラクタのモーションを適切に表現することができ、かつ画像処理における処理負荷を軽減することができるようになる。
 前記キャラクタ制御手段は、前記選択受付手段により選択を受け付けた仮想球体に応じた混合比率を特定する混合比率特定手段と、該混合比率特定手段により特定された混合比率に関連付けされた前記座標情報と前記仮想空間における前記接触許容物体の位置とに基づいて、当該混合比率に応じたモーション情報が所定の条件を満たすように当該混合比率を補正する混合比率補正手段と、該混合比率補正手段により補正された混合比率に応じたモーション情報を特定するモーション情報特定手段とを有し、前記キャラクタ制御手段は、前記モーション情報特定手段により特定されたモーション情報に基づいて前記キャラクタの動作を制御する構成とされていてもよい。
 前記キャラクタ制御手段は、前記混合比率特定手段により特定された混合比率に関連付けされた前記座標情報が示す到達可能位置から前記仮想空間における前記接触許容物体の位置までの仮想距離を特定する仮想距離特定手段と、該仮想距離特定手段により特定された仮想距離に基づいて前記到達可能位置を前記接触許容物体の位置と一致させるために必要な前記混合比率の補正量を特定する補正量特定手段とを有し、前記混合比率補正手段は、前記補正量特定手段により特定された補正量に従って前記混合比率を補正する構成とされていてもよい。
 また、本発明の画像処理方法は、仮想空間においてキャラクタの動作を制御することによりキャラクタのモーションを生成する画像処理方法であって、前記キャラクタのモーションの基礎となるサンプルモーションを示すサンプルモーション情報を記憶するサンプルモーション情報記憶部に記憶された複数のサンプルモーション情報を任意の混合比率で混合してモーション情報を生成するモーションブレンド処理と、該モーションブレンド処理にて生成されたモーション情報を、前記キャラクタの動作を示すモーション情報を記憶するモーション情報記憶部に登録するモーション情報登録処理と、前記モーションブレンド処理にて生成されたモーション情報に基づいて前記キャラクタを動作させたときの動作終了時のキャラクタの所定の部位の到達可能位置を検出する到達可能位置検出処理と、該到達可能位置検出処理にて検出された到達可能位置を示す座標情報と前記混合比率とを関連付ける混合比率関連付け処理と、前記仮想空間において前記到達可能位置が存在する範囲に複数の球体を配置する仮想球体配置処理と、該仮想球体配置処理にて配置された球体である仮想球体と前記到達可能位置とを対応付ける仮想球体対応付け処理と、該仮想球体対応付け処理にて前記到達可能位置が対応付けされた仮想球体に関する情報である仮想球体情報を、仮想球体情報を記憶する仮想球体情報記憶部に登録する仮想球体情報登録処理と、前記モーション情報記憶部に記憶されたモーション情報に基づいて前記仮想空間における前記キャラクタの動作を制御するキャラクタ制御処理とを含み、該キャラクタ制御処理は、前記仮想球体情報記憶部に記憶された仮想球体情報に基づいて前記仮想空間における前記キャラクタの状態に応じた前記仮想球体を出力する出力処理と、該出力処理にて出力された仮想球体のうち、前記キャラクタが接触可能な物体である接触許容物体と接触する仮想球体があるか判定する接触判定処理と、該接触判定処理にて前記接触許容物体と接触すると判定された仮想球体の選択を受け付ける選択受付処理とを有し、該選択受付処理にて選択を受け付けた仮想球体に対応付けされた到達可能位置を示す座標情報に関連付けされた混合比率に対応するモーション情報に基づいて前記キャラクタの動作を制御することを特徴とする。
 さらに、本発明の画像処理プログラムは、仮想空間においてキャラクタの動作を制御することによりキャラクタのモーションを生成させるための画像処理プログラムであって、コンピュータに、前記キャラクタのモーションの基礎となるサンプルモーションを示すサンプルモーション情報を記憶するサンプルモーション情報記憶部に記憶された複数のサンプルモーション情報を任意の混合比率で混合してモーション情報を生成するモーションブレンド処理と、該モーションブレンド処理にて生成されたモーション情報を、前記キャラクタの動作を示すモーション情報を記憶するモーション情報記憶部に登録するモーション情報登録処理と、前記モーションブレンド処理にて生成されたモーション情報に基づいて前記キャラクタを動作させたときの動作終了時のキャラクタの所定の部位の到達可能位置を検出する到達可能位置検出処理と、該到達可能位置検出処理にて検出された到達可能位置を示す座標情報と前記混合比率とを関連付ける混合比率関連付け処理と、前記仮想空間において前記到達可能位置が存在する範囲に複数の球体を配置する仮想球体配置処理と、該仮想球体配置処理にて配置された球体である仮想球体と前記到達可能位置とを対応付ける仮想球体対応付け処理と、該仮想球体対応付け処理にて前記到達可能位置が対応付けされた仮想球体に関する情報である仮想球体情報を、仮想球体情報を記憶する仮想球体情報記憶部に登録する仮想球体情報登録処理と、前記モーション情報記憶部に記憶されたモーション情報に基づいて前記仮想空間における前記キャラクタの動作を制御するキャラクタ制御処理とを実行させ、該キャラクタ制御処理において、前記仮想球体情報記憶部に記憶された仮想球体情報に基づいて前記仮想空間における前記キャラクタの状態に応じた前記仮想球体を出力する出力処理と、該出力処理にて出力された仮想球体のうち、前記キャラクタが接触可能な物体である接触許容物体と接触する仮想球体があるか判定する接触判定処理と、該接触判定処理にて前記接触許容物体と接触すると判定された仮想球体の選択を受け付ける選択受付処理とを実行させ、該選択受付処理にて選択を受け付けた仮想球体に対応付けされた到達可能位置を示す座標情報に関連付けされた混合比率に対応するモーション情報に基づいて前記キャラクタの動作を制御する処理を実行させるためのものである。
 本発明によれば、キャラクタのモーションを適切に表現することができ、かつ画像処理における処理負荷を軽減することができるようになる。
本発明の一実施の形態における画像処理装置の構成例を示すブロック図である。 仮想球体情報の格納状態の例を示す説明図である。 仮想球体情報生成処理の例を示すフローチャートである。 仮想球体情報生成処理について説明するための説明図である。 仮想球体情報生成処理について説明するための説明図である。 仮想球体情報生成処理について説明するための説明図である。 モーション生成処理の例を示すフローチャートである。 モーション生成処理について説明するための説明図である。 モーション生成処理について説明するための説明図である。
 以下、本発明の一実施の形態の例について図面を参照して説明する。
 図1は、本発明の一実施の形態における画像処理装置100の構成例を示すブロック図である。図1に示すように、画像処理装置100は、プログラム読取部10と、制御部11と、記憶部12と、表示部13と、音声出力部14と、操作受付部15と、モーション処理部16とを含む。
 プログラム読取部10は、各種プログラムが格納された記憶媒体を内蔵する記憶媒体から必要なプログラムを読み出す機能を有する。なお、本例においては、プログラム読取部10は、ゲームプログラムが格納された着脱可能なゲームカートリッジ20を装着する装着部を有する。
 制御部11は、ゲームプログラム読取部10により読み取られたゲームプログラム(画像処理プログラムを含む)を実行し、キャラクタの動作(モーション)を制御する動作制御や、キャラクタが実行したモーションに応じた効果音を出力する音声制御など、各種の制御を実行する。
 記憶部12は、キャラクタの周辺環境(例えば、仮想空間においてキャラクタが位置する地面の傾斜の程度など)に応じたモーションを生成するため(すなわち、モーション情報を生成し、生成したモーション情報に基づいて制御部11がキャラクタを制御することによって仮想空間におけるキャラクタのモーションを生みだすため)に必要なプログラムや各種のデータを記憶する記憶媒体である。記憶部12は、例えばRAMなどの不揮発性のメモリによって構成される。記憶部12には、後述する仮想球体情報生成処理などに従って登録・更新される各種の情報や、ゲームカートリッジ20に内蔵される記憶媒体から読み出されたゲームにおいて使用される各種の情報が格納される。
 本例では、記憶部12は、サンプルモーション情報記憶部12aと、モーション情報記憶部12bと、仮想球体情報記憶部12cと、環境情報記憶部12dとを含む。
 サンプルモーション情報記憶部12aは、キャラクタが実行するモーションの基礎となるサンプルモーションを示すサンプルモーション情報を記憶する記憶媒体である。
 本例においてサンプルモーション情報は、キャラクタの身体情報(身長、体重、外見など)に応じてキャラクタの動作を3次元または2次元の状態で表示画面に表示するための情報であり、キャラクタを構成するポリゴンデータとボーンとを含む情報である。
 モーション情報記憶部12bは、制御部11がキャラクタの動作を制御する際に参照するモーション情報を記憶する記憶媒体である。本例において、モーション情報は、モーションブレンド部16aにより複数のサンプルモーションが混合(ブレンディング)されることにより生成される。
 なお、モーション情報として記憶される情報は複数のサンプルモーションがブレンディングされたものに限定されず、例えばサンプルモーション単体がモーションとして記憶された構成としてもよい。この場合、例えば2つのサンプルモーションが10対0の割合で混合されたものとして取り扱う構成としてもよい。
 仮想球体情報記憶部12cは、キャラクタの状態(例えば、「停止中」や「移動中」など)やキャラクタの周辺環境、ユーザからの操作入力などに応じて複数のモーション情報のうち適したモーション情報を選択するために使用される仮想球体に関する情報である仮想球体情報を記憶する記憶媒体である。ここで、仮想球体とは、キャラクタの状態に応じて仮想空間に仮想的に配置される所定の球体(または球体群)を意味する。仮想球体および仮想球体情報については、後述する仮想球体生成処理とモーション生成処理(図3,7参照)とに関する説明において詳しく説明する。
 図2は、仮想球体情報記憶部12cにおける仮想球体情報の格納状態の例を示す説明図である。図2に示すように、仮想球体情報は、仮想球体を一意に特定するための球体番号と、仮想球体が対応付けされたキャラクタと、仮想球体に対応付けされたモーションの種類と、仮想空間におけるキャラクタの位置に応じた仮想球体の中心位置を示す中心座標と、仮想球体の半径と、仮想球体に対応付けされたモーションを構成するサンプルモーションの混合比率と、接触フラグとを含む。
 環境情報記憶部12dは、キャラクタが存在する仮想空間に関する情報を記憶する記憶媒体である。本例においては、環境情報記憶部12dは、仮想空間においてキャラクタが接触可能な物体である接触許容物体(例えば、地面など)を示す情報(例えば、地面ジオメトリ)を含む。
 表示部13は、制御部11の制御に従って、ユーザの操作に応じたゲーム画面を表示する表示装置である。表示部13は、例えば、液晶表示装置によって構成される。
 音声出力部14は、制御部11の制御に従って、ユーザの操作やキャラクタの動作に応じて音声を出力する。
 操作受付部15は、複数のボタンやマウスなどによって構成されるコントローラからのユーザ操作に応じた操作信号を受け付け、その結果を制御部11に通知する。
 モーション処理部16は、任意の混合比率で複数のサンプルモーション情報を混合する機能や、後述するモーション生成処理における混合比率補正処理などを実行するための機能を有する(図7参照)。
 本例において、モーション処理部16は、モーションブレンド部16aと、仮想球体情報生成部16bと、接触判定部16cと、混合比率補正部16dを備える。
 モーションブレンド部16aは、任意の混合比率で複数のサンプルモーションを混合してモーション情報を生成し、生成したモーション情報をモーション情報記憶部12bに登録する機能を有する。なお、サンプルモーションの混合処理については、複数のモーションを同期させて動作の姿勢を時間フレーム毎に補間する処理などを行う公知のモーションブレンディング方法を用いるので、ここでの詳細な説明は省略する。
 仮想球体情報生成部16bは、仮想球体情報を生成するための仮想球体情報生成処理を実行する機能を有する。仮想球体情報生成処理については後で詳しく説明する(図3参照)。
 接触判定部16cは、仮想空間に配置された仮想球体が、キャラクタが動作可能な領域とそうでない領域との境界線(例えば、地面ジオメトリなど)と接触しているか否かを判定するための機能を有する。なお、本例においては接触判定の方法として、仮想空間における座標を対比する方法を用いる場合を例に説明を行なう。
 混合比率補正部16dは、後述するモーション生成処理にて、混合比率補正処理を実行する機能を有する(図7参照)。ここで、混合比率補正処理とは、混合比率に応じて生成されたモーションを実行するときに、例えばキャラクタCの足先が正確に地面に接地されるように混合比率を補正する処理である。本例においては、公知のクリギング法を利用した方法を用いるので、ここでの詳細な説明は省略する。
 次に、本例の画像処理装置100の動作について説明する。なお、本発明に関係しない動作や処理については、その内容を省略している場合がある。
 本例における画像処理装置100は、あらかじめサンプルモーション情報記憶部12aに記憶されたサンプルモーション情報を任意の比率で混合することで3DCGキャラクタが仮想空間における斜面や階段などを移動するときのモーションを生成するための処理を行う。
 以下、人型のキャラクタCの歩行モーションを例にして説明する。なお、本例においては、キャラクタCの片方の足が地面から離れてから接地するまでの区間を、一歩分の歩行モーションとする。すなわち、「接地、離脱、移動、着地、接地」を一歩行サイクルとして、歩行サイクルごとにキャラクタのモーションを決定する。例えば、画像処理装置100は、キャラクタCの左足が地面に着地した際に次の右足の移動モーションを検索し、右足が着地した際にはその次の左足の移動モーションを計算する。
 また、画像処理装置100が実行する処理は、ユーザによる操作入力を受け付けてキャラクタを動作させる前にあらかじめ必要な情報を作成するために行う事前計算と、ユーザによる操作入力に応じてキャラクタを動作させるときに行う実行時計算の2種類に分けられる。
 図3は、画像処理装置100が事前計算として実行する仮想球体情報生成処理の例を示す説明図である。仮想球体情報生成処理では、キャラクタCのモーションの種類に応じた仮想球体情報を生成するための処理が実行される。
 ここで、先ず、本例における仮想球体情報生成処理にて実行される処理の概念について説明する。図4、図5、及び図6は、仮想球体情報生成処理について説明するための説明図である。なお、図4、図5、及び図6は、簡単のため、2次元の図で示す。
 仮想球体情報を生成するために、画像処理装置100は、図4に示すように、キャラクタCの初期姿勢FCから、歩行モーションに応じた複数のサンプルモーションの組み合わせを様々な比率(すなわち、混合比率)で混合し、それぞれの混合比率でのキャラクタC(図4における、キャラクタCの姿勢AC1,AC2,AC3)の足の到達可能位置P1,P2,P3を導出する。
 図5は、あらかじめ記憶部12に記憶された規則にしたがって導出された複数の到達可能位置P(P1,P2,P3を含む)を示す。このような構成とすることにより、サンプルモーション情報を増やさなくても、混合比率を調節することで細かい違いのあるモーション情報を得ることができる。
 次に、画像処理装置100は、キャラクタCの足の各到達可能位置Pが存在する範囲に複数の球体を仮想的に配置し、配置した球体(仮想球体)それぞれに、混合比率を関連づける。これにより、例えば制御部11が任意の仮想球体を指定したとき、その位置に足先が配置されるように混合比率を定数時間で参照できる。
 次いで、仮想球体情報生成処理における画像処理装置100の動作について説明する(図3参照)。
 仮想球体情報生成処理において、制御部11は、モーションブレンド部16aにより、あらかじめ記憶部12に記憶された規則(例えば、「歩行モーションに応じたサンプルモーションのうち、最も歩幅の広いものと、最も歩幅の狭いものとを、9対1、8対2、7対3、・・・というように、1割ずつ混合比率を変えた混合比率で混合する。」など)に応じて、複数のサンプルモーションを混合することにより、複数のモーション情報を生成する(ステップS101)。なお、制御部11が、予めモーション情報記憶部12bに記憶されたモーション情報の中から、仮想球体情報生成処理に用いるモーション情報を選択する構成としてもよい。また、モーション情報を生成する場合に、制御部11が、モーションブレンド部16aにより、ユーザによる複数のサンプルモーションの選択を受け付ける構成としてもよい。また、制御部11が、例えば予め各サンプルモーションに設定された優先度に基づいて(またはランダムに)、ブレンディング可能なサンプルモーションを表示画面に表示する構成とすることにより、ユーザによるサンプルモーションの選択を支援する構成としてもよい。
 モーションブレンド部16aにより複数のモーション情報を生成すると、制御部11は、仮想球体情報生成部16bにより、生成された各モーション情報におけるキャラクタCの足の到達可能位置P(すなわち、歩行モーションが終了した時点でのキャラクタCの足の位置)を算出する(ステップS102)。
 到達可能位置Pをそれぞれ算出すると、制御部11は、仮想球体情報生成部16bにより、キャラクタCの初期姿勢FCの位置に対する到達可能位置Pを示す情報(座標情報)を、混合比率と対応付けて記憶部12に記憶し、到達可能位置Pが存在する範囲101(図6参照)に複数の仮想球体を配置する(ステップS103)。
 本例においては、仮想球体情報生成部16bは、所定の半径を有した仮想球体を、キャラクタの足が到達しうる仮想空間内に一様に配置する。これにより、仮想球体の半径と仮想球体の総数の積は一定となる。ただし、仮想球体の総数の増加にしたがって事前計算で生成されるデータ量は線形に増加するため、球体半径を大きくすることで仮想球体の総数を削除する必要がある。
 よって、本例においては、図6に示すように、同一半径の複数の仮想球体Bが、到達可能位置Pの存在する範囲101内に敷き詰められる。
 仮想球体Bを配置すると、制御部11は、仮想球体情報生成部16bにより、各仮想球体Bと各到達可能位置Pに対応付けられた混合比率とを関連付ける(すなわち、各到達可能位置Pに混合比率を割り当てる)(ステップS104)。
 本例においては、仮想球体情報生成部16bは、仮想球体Bの内側に位置することとなる到達可能位置Pに対応付けされた混合比率を、仮想球体Bに関連付けて仮想球体情報記憶部12cに記憶する。
 すなわち、仮想球体情報生成部16bは、仮想球体と混合比率とを関連付けすることで、混合比率に関連付けされた到達可能位置Pが対応付けされた仮想球体に関する情報である仮想球体情報を生成して、仮想球体情報記憶部12cに登録する。
 なお、内側に到達可能位置Pが位置しない仮想球体Bについては、混合比率が関連付けされず、後述するモーション生成処理(図7参照)において選択されない仮想球体となる。また、1つの仮想球体Bの内側に複数の到達可能位置Pが位置することとなる場合には、例えば、仮想球体情報生成部16bは、複数の到達可能位置Pに対応付けされた混合比率の平均値を算出して記憶する構成とすればよい。
 各仮想球体と混合比率を関連付けると、制御部11は、仮想球体情報生成部16bにより、混合比率を関連付けした各仮想球体Bを特定する仮想球体情報を仮想球体情報記憶部12cに記憶し(ステップS105)、ここでの処理を終了する。これにより、各仮想球体Bは同一種類のモーション(本例においては、歩行モーション)に対応する仮想球体群に属するものとして記憶されることとなる。
 なお、本例においては同一半径の複数の仮想球体Bを到達可能位置Pの存在範囲101に敷き詰める場合を例に説明をしたが、仮想球体の配置方法はこれに限定されず、例えば各到達可能位置Pを中心とする所定の半径を備えた球体を仮想球体Bとする構成としてもよい。
 また、仮想球体Bの並べ方も、キャラクタCの移動可能領域を全てカバーできるものであればよく、例えば複数の仮想球体Bの一部が重なるように並べられる構成としてもよい。この場合、仮想球体Bの一部が重複する部分に到達可能位置Pが位置するときには、どちらか一方の仮想球体(例えば、到達可能位置Pから仮想球体の中心座標までの距離が近い方など)にのみ到達可能位置Pに応じた混合比率が関連付けされる構成としてもよいし、両方の仮想球体Bに混合比率が関連付けされる構成としてもよい。
 次に、画像処理装置100が実行するモーション生成処理について説明する。なお、モーション生成処理についても、キャラクタCの歩行モーションを例にして説明する。
 図7は、画像処理装置100が実行時計算として実行するモーション生成処理の例を示すフローチャートである。モーション生成処理では、制御部11がモーション情報に応じた処理を実行することによりキャラクタCのモーションを生成するための処理が実行される。
 ここで、先ず、本例におけるモーション生成処理にて実行される処理の概念について説明する。図8,9は、モーション生成処理について説明するための説明図である。なお、図8,9は、簡単のため、2次元の図で示す。
 キャラクタのモーションを生成するために、画像処理装置100は、図8に示すように、仮想空間においてキャラクタCの位置に応じて混合比率が関連付けされた複数の仮想球体Bを配置する。なお、本例においては歩行モーションに関する混合比率が関連付けされた仮想球体Bが配置される場合を例に説明を行なうが、配置される仮想球体はこれに限定されず、事前計算にて各種モーションに応じた混合比率が関連付けされた仮想球体群であればよい。
 複数の仮想球体Bを出力すると、画像処理装置100は、仮想空間においてキャラクタCが接触可能な物体として設定された接触許容物体(本例においては、地面FG)と仮想球体Bとの接触判定を行い、キャラクタCの足を接地させるための混合比率を算出する。このとき、画像処理装置100は、例えば図8に示すように、仮想空間における地面FGと接触している仮想球体Bを接地球BRに変更することで、他の仮想球体Bと識別可能にする。
 このとき、接地球BRに関連付けされたモーションの混合比率を利用することにより、各仮想球体の中心位置にキャラクタCの足が配置されるようなモーションを生成できる。ただしこの段階では、仮想空間における地面FGとキャラクタの足先位置の間には最大で接地球BRの半径に相当する誤差が生じている。この誤差を補正するために、画像処理装置100は、例えばクリギングと呼ばれる空間統計学の手法を利用して、混合比率を半解析的に修正するアプローチをとる。
 混合比率を算出すると、画像処理装置100は、例えばユーザの操作に応じた接地球RBを選択し、図9に示すように、選択された接地球BRに応じたモーションをキャラクタCに実行させることにより、キャラクタCのモーションを生成する。なお、画像処理装置100が、予め設定された選択条件(例えば、キャラクタCから最も近い位置にあること)を満たす接地球RBを選択する構成としてもよい。
 なお、ここでの「モーションを生成する」とは、キャラクタCの動作を示すモーション情報を生成するという意味であり、キャラクタCの動作を生み出すという意味でもある。
 次いで、モーション生成処理における画像処理装置100の動作について説明する(図7参照)。
 モーション生成処理において、制御部11は、仮想球体情報記憶部12cを参照し、キャラクタCの状態(仮想空間においてキャラクタCに許容されたモーションの種類など)に応じた仮想球体を仮想空間に配置する(ステップS201)。
 仮想球体を配置すると、制御部11は、接触判定部16cにより、配置した仮想球体Bのうち地面に接触している仮想球体がある否か判定し、接触している仮想球体(接地球)を判別する(ステップS202)。なお、本例においては、接触判定部16cは、仮想空間において地面を表示する地面ジオメトリと仮想球体Bの存在する座標とを比較することにより、接触判定を行う。ここで、制御部11は、接触判定により接地球であると判定された仮想球体Bに対しては、仮想球体情報における接触フラグを「1」に設定する。
 接地球を判別すると、制御部11は、ユーザ操作や仮想空間におけるキャラクタCの状態(例えば、操作受付部15を介したキャラクタCの速度指示や方向指示)に応じて接地球を選択する(ステップS203)。
 接地球を選択すると、制御部11は、仮想球体情報記憶部12cを参照して、選択した接地球に関連付けされた混合比率を取得する(ステップS204)。
 混合比率を取得すると、制御部11は、モーションブレンド部16aにより、取得した混合比率によって次の一歩分の歩行モーションを生成する(ステップS205)。
 なお、本例においては、歩行モーションを生成する前に、制御部11は、キャラクタCの動作の種類と取得した混合比率とに基づいて、キャラクタCが実行すべきモーションを示すモーション情報が既にモーション情報記憶部12bに記憶されているか否かを判定する。そして、モーション情報が記憶されていると判定した場合には、制御部11は、モーション情報記憶部12bに記憶されたモーション情報に基づいて次の一歩分の歩行モーションを生成する(すなわち、仮想空間においてキャラクタCを動作させる)。
 すなわち、制御部11は、仮想球体情報生成処理において歩行モーションにおけるキャラクタCの足の到達可能位置Pを算出するときに(図3、ステップS101参照)、複数のモーション情報を既に生成している場合には、次の一歩分の歩行モーションを示すモーション情報を生成する必要はなく、取得した混合比率に基づいて必要なモーション情報をモーション情報記憶部12bから読み出すことができる。一方、ステップS101において、キャラクタCのモーションの一部のみを混合して到達可能位置Pを算出していた場合(例えば、複数のサンプルモーションにおけるキャラクタCの足部分のみを所定の混合比率で混合している場合など)には、制御部11は、ステップS205において新たにモーション情報を生成する。ここでは、新たにモーション情報を生成する場合を例にして説明を続ける。
 なお、本例にいおいては、制御部11は、モーション生成処理にて新たに生成したモーション情報をモーション情報記憶部12bに登録するものとする。
 新たにモーション情報を生成すると、制御部11は、キャラクタCの足先が最大で仮想球体の半径分だけ地面から浮いてしまうことを防止するために、混合比率補正部16dにより混合比率補正処理を実行する(ステップS206)。なお、仮想球体の半径を小さくすることによりキャラクタCの足先位置と地面との誤差を小さくする構成としてもよい。
 混合比率補正処理を実行すると、制御部11は、補正後のモーション情報に応じた処理(すなわち、モーション情報に応じて仮想空間内においてキャラクタCを動作させる処理)を実行することによりキャラクタCのモーションを生成し(ステップS207)、ステップS201に移行する。
 なお、本例においては、制御部11は、混合比率補正部16dによる混合比率補正処理により特定される補正後の混合比率に応じて、補正後のモーション情報を特定する。
 本例においては、制御部11は、新たに生成したモーション情報を構成する複数のサンプルモーションを、混合比率補正処理により特定した補正後の混合比率により混合することにより、補正後のモーション情報を生成する。なお、制御部11が、混合比率補正処理により特定した混合比率に応じたモーション情報をモーション情報記憶部12bから検索する構成としてもよい。
 なお、上記の例では、キャラクタの歩行モーションの際の処理について説明したが、例えばキャラクタが壁を登る際のモーションにおける手先の接触に関する処理などについても同様に仮想球体を用いて接触判定を行って適切なモーション表現を行うことが可能である。また、水泳動作など、環境との明確な衝突が発生しないモーションに関しても、例えば仮想球体の大きさを適宜調整などすることにより、適用可能である。
 以上に説明したように、上述した実施の形態では、仮想空間においてキャラクタの動作を制御することによりキャラクタのモーションを生成する画像処理装置100が、キャラクタCのモーションの基礎となるサンプルモーションを示すサンプルモーション情報を記憶するサンプルモーション情報記憶部12aと、キャラクタの動作を示すモーション情報を記憶するモーション情報記憶部12bとを備え、サンプルモーション情報記憶部12aに記憶された複数のサンプルモーション情報を任意の混合比率で混合してモーション情報を生成し、生成したモーション情報をモーション情報記憶部12bに登録し、生成したモーション情報に基づいてキャラクタCを動作させたときの動作終了時のキャラクタCの所定の部位(例えば足先、手先など)の到達可能位置Pを検出し、検出した到達可能位置Pを示す座標情報と混合比率とを関連付けし、仮想空間において到達可能位置Pが存在する範囲に複数の球体を配置し、配置した球体である仮想球体Bと到達可能位置Pとを対応付けし、到達可能位置Pが対応付けされた仮想球体Bに関する情報である仮想球体情報を、仮想球体情報を記憶する仮想球体情報記憶部12cに登録し、モーション情報記憶部12bに記憶されたモーション情報に基づいて仮想空間におけるキャラクタCの動作を制御するキャラクタ制御手段とを含み、仮想球体情報記憶部12cに記憶された仮想球体情報に基づいて仮想空間におけるキャラクタCの状態に応じた仮想球体を出力し、出力した仮想球体のうち、キャラクタCが接触可能な物体である接触許容物体(例えば、仮想空間における地面FG)と接触する仮想球体(例えば、接地球BR)があるか判定し、接触許容物体と接触すると判定された仮想球体の選択を受け付け、選択を受け付けた仮想球体に対応付けされた到達可能位置Pを示す座標情報に関連付けされた混合比率(例えば、各仮想球体Bに関連付けされた混合比率)に対応するモーション情報に基づいてキャラクタCの動作を制御する構成としているので、キャラクタのモーションを適切に表現することができ、かつ画像処理における処理負荷を軽減することができるようになる。
 すなわち、キャラクタの所定の部位の到達可能位置が存在する範囲に仮想的に配置した複数の球体であって、その到達可能位置と対応付けされた球体である仮想球体のうち、接触許容物体と接触すると判定された仮想球体に対応付けされた到達可能位置に関連づけされた混合比率に対応するモーション情報(すなわち、仮想球体に対応したモーション情報)に基づいてキャラクタを制御する構成としているので、キャラクタのモーションにおける画像処理の処理負荷を軽減させることが可能となり、キャラクタの所定の部位が接触許容物体に的確に接触している適切なモーション表現を行うことができるようになる。なお、仮想球体の直径を適切な長さにすることで、接触許容物体に的確に接触している適切なモーション表現をほぼ確実に行うことができるようになる。仮想球体の直径が短ければ短いほど誤差が小さくなるため、処理負荷が許容される範囲で極力直径を短くすることが望ましい。
 なお、上述した実施の形態においては、キャラクタのモーションを出力する処理を実行するために画像処理装置100にかかる処理負荷が、従来の方法によりキャラクタのモーションを出力する場合と比べて軽減されることとなる。
 また、上述した実施の形態において、画像処理装置100が、キャラクタの所定の部位が接触許容物体(例えば、仮想空間における地面FG)に接触することでキャラクタのモーションが終了するようにモーション情報を補正する構成とした場合には、キャラクタの所定の部位が接触許容物体に的確に接触しているように、すなわちより適切にキャラクタのモーション表現を行うことができるようになる。
 また、サンプルモーションを混合することにより生成されたモーション情報を用いてキャラクタを制御するので、キャラクタが動くアニメーションの生成に関して、ユーザの操作に対する一定レベルの即応性、頑健性、および計算効率性を保証することができるようになる。従って、コンシューマゲーム機などを用いる場合(すなわち、計算リソースやメモリリソースが大きく制限される場合)にアニメーションの自然さを向上させるために、生成アニメーションの品質と計算コストのトレードオフを最適化することができるようになる。
 また、多数のモーションデータを切り替えながら再生することでユーザ操作や環境変化に反応したモーションを生成するモーショングラフやムーブツリーに基づく技法を用いたアプローチよりも、フットスライディング(foot sliding)などのビジュアルアーティファクト(visual artifact)の少ないモーションを生成できるようになる。すなわち、画像処理装置100を用いることにより、インタラクティブアプリケーションの作成にあたっての最低限の計算量とメモリ使用量を用いて、周期モーションにおける見た目に重要なビジュアルアーティファクトを軽減することができるようになる。
 また、上述した実施の形態では、画像処理装置100が、選択を受け付けた仮想球体(例えば、接地球BR)に応じた混合比率を特定し(例えば、モーション情報記憶部12bから取得し)、特定した混合比率に関連付けされた(到達可能位置Pの)座標情報と仮想空間における接触許容物体(例えば、仮想空間における地面FG)の位置とに基づいて、混合比率に応じたモーション情報が所定の条件(例えば、キャラクタCの足先が正確に地面に接地されること)を満たすように混合比率を補正し、補正した混合比率に応じたモーション情報を特定し(例えば、混合比率補正処理により特定した補正後の混合比率により混合することにより、補正後のモーション情報を生成することによりモーション情報を特定し)、特定したモーション情報に基づいてキャラクタCの動作を制御する構成としているので、仮想空間におけるキャラクタの動作の不自然さを有効に解消することができるようになる。
 すなわち、仮想空間においてキャラクタの一部が他のオブジェクトに接触する場面を表現する場合に、仮想球体を利用したモーション制御により接触誤差(すなわち、計算上はキャラクタの一部と他のオブジェクトとが接触しているのに、キャラクタと他のオブジェクトとが表示された仮想空間においてはキャラクタの一部と他のオブジェクトとが接触していない場合の、仮想空間におけるキャラクタの一部と他のオブジェクトとの距離)が生じることを防止することができるようになる。
 なお、上述した実施の形態では特に言及していないが、画像処理装置100が、特定した混合比率(例えば、選択した接地球に応じた混合比率)に関連付けされた座標情報が示す到達可能位置Pから仮想空間における接触許容物体(例えば、仮想空間における地面FG)の位置までの仮想距離を特定し(例えば、後述する足先位置修正ベクトルΔpを特定し)、特定した仮想距離に基づいて到達可能位置Pを接触許容物体の位置と一致させるために必要な混合比率の補正量を特定し(例えば、後述する混合比率修正量Δwを特定し)、特定した補正量に従って混合比率を補正する構成としてもよい。
 このような構成とすることにより、サンプルモーションを増やして画像処理装置にかかる処理負荷を増大させることなく、仮想球体を用いて生成するキャラクタのモーションの質を向上させることができるようになる。すなわち、仮想空間におけるキャラクタのモーションの誤差を適切に補正することができるようになる。
 また、仮想空間における接触判定(または、衝突判定)によりサンプルモーションの混合比率を補正する場合(すなわち、混合比率の補正によりキャラクタを制御するためのモーション情報を補正する場合)に、画像処理装置100が、特定の条件が満たされたか判定し(例えば、仮想空間におけるキャラクタCの姿勢や、接触許容物体の種類などが特定の条件を満たすか判定し)、判定結果に応じて、補正前のモーション情報に含まれていなかったサンプルモーションを特定し、モーション情報が所定の条件(例えば、キャラクタCの足先が正確に地面に接地されること)を満たすように、特定したサンプルモーションの比率を含む混合比率となるように混合比率を補正する構成としてもよい。
 すなわち、例えば、画像処理装置100が、2種類の歩行動作を示すサンプルモーションが混合されていたモーションを補正する場合に、キャラクタの一部(例えば、足首に相当する部分)を動かすサンプルモーションを加えた3種類のサンプルモーションの混合比率を示すように混合比率を補正することにより、モーション情報が所定の条件を満たすようにする構成としてもよい。このような構成とすることにより、モーションの微調整を可能にすることができるようになる。
 なお、上述した実施の形態では、仮想球体に混合比率を関連付ける場合について説明したが、混合比率を関連付けるものは球体のものに限定されず、例えば仮想立方体などであってもよい。
 なお、上述した実施の形態では、画像処理装置100が事前計算と実行時計算とを両方実行する場合を例にして説明したが、本発明の実施の形態はこれに限定されず、例えば、通信ネットワークを介して接続されるサーバクライアント型の構成とされていてもよい。この場合、サーバが事前計算を行い、クライアント(または、サーバとクライアントが協力して)実行時計算を行う構成としてもよい。
 なお、上述した実施の形態では、画像処理装置100が、あらかじめ記憶部12に記憶された規則に従って複数の到達可能位置Pを算出し、算出した到達可能位置Pに座標情報を対応付け、その後に複数の仮想球体Bを一様に配置して、配置した仮想球体Bと到達可能位置Pとの位置関係に基づいて各仮想球体Bに混合比率を関連づける場合について説明したが、本発明の実施の形態の例はこれに限定されない。
 すなわち、例えば、仮想球体Bが、キャラクタCの足先位置(すなわち、到達可能位置P)を中心とした一定範囲の半径をもつ球体構造であり、適当な方法でサンプリングされた混合比率によって作成されたモーションにおけるキャラクタCの足先位置に配置される構成としてもよい。以下、この場合における仮想球体情報生成処理(図3参照)の他の例について説明する。なお、本例においても、人型のキャラクタCの歩行モーションを例にして説明する。
 本例において、仮想球体情報生成部16bは、仮想球体Bを、コンタクトフレームで計算する。ここで、コンタクトフレームとは、キャラクタCの歩行モーションにおいて足が接地するフレームをいう。コンタクトフレームの検出は、足先速度についてのテンプレートマッチングを用いた簡単なアルゴリズムを用いるため、ここでの説明は省略する。
 仮想球体情報生成処理において、制御部11は、モーションブレンド部16aにより、さまざまな混合比率によってコンタクトフレームにおけるキャラクタCの姿勢をブレンドする。
 次いで、制御部11は、仮想球体情報生成部16bにより、キャラクタCの初期姿勢FC(図4参照)の足先位置を原点として、それぞれの混合比率でのキャラクタC(例えば、図4における、キャラクタCの姿勢AC1など)の相対的な足先位置を計算する。
 各足先位置の座標を計算すると、制御部11は、仮想球体情報生成部16bにより、計算した相対的足先位置の座標(すなわち、到達可能位置Pの座標)に半径rの仮想球体を生成し、混合比率wを割り当てる。これにより、N個の仮想球体{p,w,r}が生成される(Nは任意の正の整数)。
 なお、混合比率のサンプリング方法にはいくつかの方法があるが、仮想球体情報生成部16bは、均一に仮想空間を充填するような仮想球体を計算するために、本例においては、足先位置をサンプリングした後、不規則配置データの補間法(scattered data interpolation)によって混合比率を計算するアプローチをとる。すなわち、仮想球体情報生成部16bは、コンタクトフレームにおけるキャラクタCの姿勢を、3次元の足先位置ベクトルを指標としてパラメータ化する。本例においては、仮想球体情報生成部16bは、クリギングを簡素化した線形補間を用い、サンプリング点pを入力として混合率wを計算する(数式1参照)。
Figure JPOXMLDOC01-appb-M000001
 ただし、補間計算には誤差を伴うため、仮想球体は実際の足先位置p´に生成し、仮想球体{p´,w,r}を生成する。
 以上のような構成とすることにより、均一に仮想空間を充填するようなモーション群を効率的に生成することができるようになる。
 なお、画像処理装置100が、さまざまな混合比率で複数のサンプルモーションをブレンドすることにより複数の仮想球体に混合比率を対応付けておき、モーション生成処理において、一様配置にもっとも近くなる仮想球体群を選択して配置する構成としてもよい。
 なお、上述した実施の形態では説明を省略したが、クリギング法を利用した混合比率の補正方法について簡単に説明する。
 本例においては、混合比率補正部16dは、データドリブンの反復的なインバースキネマティクス(逆運動学)(inverse kinematics)技術を導入する。すなわち、先ず、混合比率補正部16dは、接地球BRの中心位置から仮想空間において垂直にのびるレイと地面ジオメトリとの交差点を検出する。そして、接地球BRの中心位置から、検出した交差点へのベクトルを足先位置修正ベクトルΔpと表す。この修正量を満たす混合比率修正量Δwを、クリギング方程式に基づいて計算する。なお、上述した数式1の右辺ベクトルの最終要素の「1」は、混合比率の総和に対する制約条件である。すなわち、これを「0」に置き換えることで、エフェクタ位置の移動量Δpに対応する混合比率修正量Δwを、計算する数式2が得られる。なお、一般的なインバースキネマティクスを用いた誤算の解消方法を用いる構成としてもよい。
Figure JPOXMLDOC01-appb-M000002
 なお、数式2により算出した混合比率修正量Δwにも誤差が含まれる場合があり、その場合にはエフェクタと地面との差分を入力してもまだ誤差が残る。この場合には、画像処理装置100が、エフェクタと地面の誤差ベクトルに1.0未満の所定の係数を掛けて、反復計算により誤差を修正する構成としてもよい。このような構成とすることにより、解析計算に基づく反復を行なうこととなるため、非常に頑健かつ少ない回数の反復で収束するという優れた特性を得ることができるようになる。
 なお、上述した実施の形態では特に言及していないが、本願における「キャラクタ」の語の意義は、ビデオゲームに登場するオブジェクトとしてのキャラクタに限定されず、例えば、物理現象のシミュレーションや仮想空間の構築の際に登場する種々のオブジェクトを含むものである。すなわち、本発明は、画像処理装置(例えば、画像処理装置100)がビデオゲームの実現に利用される場合だけでなく、コンピュータグラフィックスに関わる技術分野全般において利用される場合に、従来の方法で同程度の画像処理を実現しようとする場合よりも画像処理装置にかかる処理負荷を軽減させることができるようになる。
 なお、上述した実施の形態においては詳しい説明を省略したが、本発明に係るモーションブレンディングは、少数の類似したサンプルモーションクリップをブレンディングすることで、中間的な新しいモーションクリップを生成する技術を意味する。例えば、連続歩行モーションを生成するためには、補間するサンプル歩行モーションクリップを選択し、そのブレンド率を計算する連続値最適化問題を解く必要がある。従来手法では、先ず、走行や歩行などの類似動作をクラスタリングしてグラフ化することで、サンプルモーションの選択を簡単化する。さらに、散乱データ補間(scattered data interpolation)の技術を用いて、少数の直感的なパラメータによって補間計算を制御する技法が提案されている。歩行モーションでは、移動方向や速度、地面傾斜角度などの明示的な少数の制御パラメータからプレンド率を自動算出する。この方法では計算量が少ないため、インタラクティブに歩行アニメーションを生成できる。しかし、また、補間ベースのアルゴリズムは必ずしも高品質なアニメーションを生成しない。例えば、補間計算には誤差を伴うため、インバースキネマティクスなどの後処理によってモーションを修正する必要がある。また、生成計算ではほとんどの場合、動力学(dynamics)は考慮されない。このように、ブレンディングベースの技法はアニメーション品質の多少の低下を許容することで、多くの優れた特性を得られる。しかし、従来技法では冗長な後処理を必要とするため、計算効率性や頑健性の余地がある。
 そこで、上述した実施の形態では、モーションブレンディングに基づくインタラクティブな歩行コントローラを提案している。
 本発明によれば、キャラクタのモーションにおける画像処理の処理負荷を軽減し、キャラクタの所定の部位が接触許容物体に的確に接触している適切なモーション表現を行うのに有用である。
 10       プログラム読取部
 11       制御部
 12       記憶部
 13       表示部
 14       音声出力部
 15       操作受付部
 16       モーション処理部
 100      画像処理装置

Claims (5)

  1.  仮想空間においてキャラクタの動作を制御することによりキャラクタのモーションを生成する画像処理装置であって、
     前記キャラクタのモーションの基礎となるサンプルモーションを示すサンプルモーション情報を記憶するサンプルモーション情報記憶部と、
     前記キャラクタの動作を示すモーション情報を記憶するモーション情報記憶部とを備え、
     前記サンプルモーション情報記憶部に記憶された複数のサンプルモーション情報を任意の混合比率で混合してモーション情報を生成するモーションブレンド手段と、
     該モーションブレンド手段により生成されたモーション情報を前記モーション情報記憶部に登録するモーション情報登録手段と、
     前記モーションブレンド手段により生成されたモーション情報に基づいて前記キャラクタを動作させたときの動作終了時のキャラクタの所定の部位の到達可能位置を検出する到達可能位置検出手段と、
     該到達可能位置検出手段により検出された到達可能位置を示す座標情報と前記混合比率とを関連付ける混合比率関連付け手段と、
     前記仮想空間において前記到達可能位置が存在する範囲に複数の球体を配置する仮想球体配置手段と、
     該仮想球体配置手段により配置された球体である仮想球体と前記到達可能位置とを対応付ける仮想球体対応付け手段と、
     該仮想球体対応付け手段により前記到達可能位置が対応付けされた仮想球体に関する情報である仮想球体情報を、仮想球体情報を記憶する仮想球体情報記憶部に登録する仮想球体情報登録手段と、
     前記モーション情報記憶部に記憶されたモーション情報に基づいて前記仮想空間における前記キャラクタの動作を制御するキャラクタ制御手段とを含み、
     該キャラクタ制御手段は、
     前記仮想球体情報記憶部に記憶された仮想球体情報に基づいて前記仮想空間における前記キャラクタの状態に応じた前記仮想球体を出力する出力手段と、
     該出力手段により出力された仮想球体のうち、前記キャラクタが接触可能な物体である接触許容物体と接触する仮想球体があるか判定する接触判定手段と、
     該接触判定手段により前記接触許容物体と接触すると判定された仮想球体の選択を受け付ける選択受付手段とを有し、
     該選択受付手段により選択を受け付けた仮想球体に対応付けされた到達可能位置を示す座標情報に関連付けされた混合比率に対応するモーション情報に基づいて前記キャラクタの動作を制御する
     ことを特徴とする画像処理装置。
  2.  前記キャラクタ制御手段は、
     前記選択受付手段により選択を受け付けた仮想球体に応じた混合比率を特定する混合比率特定手段と、
     該混合比率特定手段により特定された混合比率に関連付けされた前記座標情報と前記仮想空間における前記接触許容物体の位置とに基づいて、当該混合比率に応じたモーション情報が所定の条件を満たすように当該混合比率を補正する混合比率補正手段と、
     該混合比率補正手段により補正された混合比率に応じたモーション情報を特定するモーション情報特定手段とを有し、
     前記キャラクタ制御手段は、前記モーション情報特定手段により特定されたモーション情報に基づいて前記キャラクタの動作を制御する
     請求項1記載の画像処理装置。
  3.  前記キャラクタ制御手段は、
     前記混合比率特定手段により特定された混合比率に関連付けされた前記座標情報が示す到達可能位置から前記仮想空間における前記接触許容物体の位置までの仮想距離を特定する仮想距離特定手段と、
     該仮想距離特定手段により特定された仮想距離に基づいて前記到達可能位置を前記接触許容物体の位置と一致させるために必要な前記混合比率の補正量を特定する補正量特定手段とを有し、
     前記混合比率補正手段は、前記補正量特定手段により特定された補正量に従って前記混合比率を補正する
     請求項2記載の画像処理装置。
  4.  仮想空間においてキャラクタの動作を制御することによりキャラクタのモーションを生成する画像処理方法であって、
     前記キャラクタのモーションの基礎となるサンプルモーションを示すサンプルモーション情報を記憶するサンプルモーション情報記憶部に記憶された複数のサンプルモーション情報を任意の混合比率で混合してモーション情報を生成するモーションブレンド処理と、
     該モーションブレンド処理にて生成されたモーション情報を、前記キャラクタの動作を示すモーション情報を記憶するモーション情報記憶部に登録するモーション情報登録処理と、前記モーションブレンド処理にて生成されたモーション情報に基づいて前記キャラクタを動作させたときの動作終了時のキャラクタの所定の部位の到達可能位置を検出する到達可能位置検出処理と、
     該到達可能位置検出処理にて検出された到達可能位置を示す座標情報と前記混合比率とを関連付ける混合比率関連付け処理と、
     前記仮想空間において前記到達可能位置が存在する範囲に複数の球体を配置する仮想球体配置処理と、
     該仮想球体配置処理にて配置された球体である仮想球体と前記到達可能位置とを対応付ける仮想球体対応付け処理と、
     該仮想球体対応付け処理にて前記到達可能位置が対応付けされた仮想球体に関する情報である仮想球体情報を、仮想球体情報を記憶する仮想球体情報記憶部に登録する仮想球体情報登録処理と、
     前記モーション情報記憶部に記憶されたモーション情報に基づいて前記仮想空間における前記キャラクタの動作を制御するキャラクタ制御処理とを含み、
     該キャラクタ制御処理は、
     前記仮想球体情報記憶部に記憶された仮想球体情報に基づいて前記仮想空間における前記キャラクタの状態に応じた前記仮想球体を出力する出力処理と、
     該出力処理にて出力された仮想球体のうち、前記キャラクタが接触可能な物体である接触許容物体と接触する仮想球体があるか判定する接触判定処理と、
     該接触判定処理にて前記接触許容物体と接触すると判定された仮想球体の選択を受け付ける選択受付処理とを有し、
     該選択受付処理にて選択を受け付けた仮想球体に対応付けされた到達可能位置を示す座標情報に関連付けされた混合比率に対応するモーション情報に基づいて前記キャラクタの動作を制御する
     ことを特徴とする画像処理方法。
  5.  仮想空間においてキャラクタの動作を制御することによりキャラクタのモーションを生成させるための画像処理プログラムであって、
     コンピュータに、
     前記キャラクタのモーションの基礎となるサンプルモーションを示すサンプルモーション情報を記憶するサンプルモーション情報記憶部に記憶された複数のサンプルモーション情報を任意の混合比率で混合してモーション情報を生成するモーションブレンド処理と、
     該モーションブレンド処理にて生成されたモーション情報を、前記キャラクタの動作を示すモーション情報を記憶するモーション情報記憶部に登録するモーション情報登録処理と、前記モーションブレンド処理にて生成されたモーション情報に基づいて前記キャラクタを動作させたときの動作終了時のキャラクタの所定の部位の到達可能位置を検出する到達可能位置検出処理と、
     該到達可能位置検出処理にて検出された到達可能位置を示す座標情報と前記混合比率とを関連付ける混合比率関連付け処理と、
     前記仮想空間において前記到達可能位置が存在する範囲に複数の球体を配置する仮想球体配置処理と、
     該仮想球体配置処理にて配置された球体である仮想球体と前記到達可能位置とを対応付ける仮想球体対応付け処理と、
     該仮想球体対応付け処理にて前記到達可能位置が対応付けされた仮想球体に関する情報である仮想球体情報を、仮想球体情報を記憶する仮想球体情報記憶部に登録する仮想球体情報登録処理と、
     前記モーション情報記憶部に記憶されたモーション情報に基づいて前記仮想空間における前記キャラクタの動作を制御するキャラクタ制御処理とを実行させ、
     該キャラクタ制御処理において、
     前記仮想球体情報記憶部に記憶された仮想球体情報に基づいて前記仮想空間における前記キャラクタの状態に応じた前記仮想球体を出力する出力処理と、
     該出力処理にて出力された仮想球体のうち、前記キャラクタが接触可能な物体である接触許容物体と接触する仮想球体があるか判定する接触判定処理と、
     該接触判定処理にて前記接触許容物体と接触すると判定された仮想球体の選択を受け付ける選択受付処理とを実行させ、
     該選択受付処理にて選択を受け付けた仮想球体に対応付けされた到達可能位置を示す座標情報に関連付けされた混合比率に対応するモーション情報に基づいて前記キャラクタの動作を制御する処理を
     実行させるための画像処理プログラム。
PCT/JP2011/002280 2010-05-10 2011-04-19 画像処理装置、画像処理方法、および画像処理プログラム WO2011142084A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP11731621.6A EP2544151B1 (en) 2010-05-10 2011-04-19 Image processing device, image processing method, and image processing program
CA2798954A CA2798954C (en) 2010-05-10 2011-04-19 Image processing apparatus, image processing method, and image processing program
JP2012514695A JP5303068B2 (ja) 2010-05-10 2011-04-19 画像処理装置、画像処理方法、および画像処理プログラム
CN201180002332.8A CN102934145B (zh) 2010-05-10 2011-04-19 图像处理装置及图像处理方法
KR1020117015422A KR101247930B1 (ko) 2010-05-10 2011-04-19 화상처리장치, 화상처리방법 및 화상처리 프로그램
US13/145,648 US8432401B2 (en) 2010-05-10 2011-04-19 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-108844 2010-05-10
JP2010108844 2010-05-10

Publications (1)

Publication Number Publication Date
WO2011142084A1 true WO2011142084A1 (ja) 2011-11-17

Family

ID=44914145

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/002280 WO2011142084A1 (ja) 2010-05-10 2011-04-19 画像処理装置、画像処理方法、および画像処理プログラム

Country Status (8)

Country Link
US (1) US8432401B2 (ja)
EP (1) EP2544151B1 (ja)
JP (1) JP5303068B2 (ja)
KR (1) KR101247930B1 (ja)
CN (1) CN102934145B (ja)
CA (1) CA2798954C (ja)
TW (1) TWI448982B (ja)
WO (1) WO2011142084A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046951A (ja) * 2015-09-02 2017-03-09 株式会社コーエーテクモゲームス 情報処理装置、動作制御方法及び動作制御プログラム
JP2022503776A (ja) * 2018-09-21 2022-01-12 ピナンブラ、インク 視覚ディスプレイの補完的なデータを生成するためのシステム及び方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5118220B2 (ja) 2011-02-16 2013-01-16 株式会社スクウェア・エニックス 動作モデリング装置及び方法、並びにプログラム
JP5190524B2 (ja) 2011-02-16 2013-04-24 株式会社スクウェア・エニックス オブジェクト動作装置及び方法、並びにプログラム
US9786097B2 (en) * 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
JP5734361B2 (ja) 2012-08-01 2015-06-17 株式会社スクウェア・エニックス オブジェクト表示装置
JP5480347B2 (ja) 2012-08-31 2014-04-23 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP6110704B2 (ja) * 2013-03-29 2017-04-05 任天堂株式会社 プログラム、情報処理装置、情報処理方法及び情報処理システム
JP6576544B2 (ja) * 2015-08-20 2019-09-18 株式会社スクウェア・エニックス 情報処理装置、情報処理方法、コンピュータ読み取り可能な記憶媒体
JP6457603B1 (ja) * 2017-09-20 2019-01-23 株式会社スクウェア・エニックス 画像処理プログラム、画像処理装置、及び画像処理方法
CN111291674B (zh) * 2020-02-04 2023-07-14 清华珠三角研究院 一种虚拟人物表情动作的提取方法、系统、装置及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021419A (ja) * 1996-07-05 1998-01-23 Hudson Soft Co Ltd 仮想の連結動作物体及びその変形方法
JP2003062326A (ja) 2001-08-23 2003-03-04 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2003067773A (ja) 2001-08-23 2003-03-07 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2007102503A (ja) * 2005-10-04 2007-04-19 Square Enix Co Ltd 画像生成装置及び方法、プログラム、並びに記録媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6191798B1 (en) 1997-03-31 2001-02-20 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters
US6559845B1 (en) * 1999-06-11 2003-05-06 Pulse Entertainment Three dimensional animation system and method
JP3618298B2 (ja) 2000-01-28 2005-02-09 株式会社スクウェア・エニックス モーション表示方法、ゲーム装置及び記録媒体
EP1365359A1 (en) * 2002-05-24 2003-11-26 BRITISH TELECOMMUNICATIONS public limited company Image processing method and system
JP3974136B2 (ja) * 2005-01-25 2007-09-12 株式会社コナミデジタルエンタテインメント プログラム、ライト配置方法、ならびに、画像生成装置
JP4445449B2 (ja) 2005-10-04 2010-04-07 株式会社スクウェア・エニックス 画像生成装置
JP2007143684A (ja) * 2005-11-25 2007-06-14 Konami Digital Entertainment:Kk ゲーム装置、ゲーム用画像処理方法及びプログラム
US8144148B2 (en) * 2007-02-08 2012-03-27 Edge 3 Technologies Llc Method and system for vision-based interaction in a virtual environment
JP4519883B2 (ja) 2007-06-01 2010-08-04 株式会社コナミデジタルエンタテインメント キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
JP4339908B2 (ja) * 2007-11-28 2009-10-07 株式会社コナミデジタルエンタテインメント ゲーム装置、画像生成方法、および、プログラム
US8363057B2 (en) 2008-05-28 2013-01-29 Autodesk, Inc. Real-time goal-directed performed motion alignment for computer animated characters
US8942428B2 (en) * 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US20120049450A1 (en) * 2010-08-27 2012-03-01 Mosen Agamawi Cube puzzle game

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021419A (ja) * 1996-07-05 1998-01-23 Hudson Soft Co Ltd 仮想の連結動作物体及びその変形方法
JP2003062326A (ja) 2001-08-23 2003-03-04 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2003067773A (ja) 2001-08-23 2003-03-07 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2007102503A (ja) * 2005-10-04 2007-04-19 Square Enix Co Ltd 画像生成装置及び方法、プログラム、並びに記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2544151A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046951A (ja) * 2015-09-02 2017-03-09 株式会社コーエーテクモゲームス 情報処理装置、動作制御方法及び動作制御プログラム
JP2022503776A (ja) * 2018-09-21 2022-01-12 ピナンブラ、インク 視覚ディスプレイの補完的なデータを生成するためのシステム及び方法
US11586276B2 (en) 2018-09-21 2023-02-21 Penumbra, Inc. Systems and methods for generating complementary data for visual display

Also Published As

Publication number Publication date
US20110316860A1 (en) 2011-12-29
EP2544151A1 (en) 2013-01-09
CA2798954C (en) 2016-05-24
JPWO2011142084A1 (ja) 2013-07-22
KR101247930B1 (ko) 2013-03-26
KR20110128794A (ko) 2011-11-30
TW201207766A (en) 2012-02-16
EP2544151A4 (en) 2013-03-13
US8432401B2 (en) 2013-04-30
CN102934145A (zh) 2013-02-13
JP5303068B2 (ja) 2013-10-02
CN102934145B (zh) 2015-08-05
CA2798954A1 (en) 2011-11-17
EP2544151B1 (en) 2014-05-21
TWI448982B (zh) 2014-08-11

Similar Documents

Publication Publication Date Title
JP5303068B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US9050538B2 (en) Collision detection and motion simulation in game virtual space
CN102221975B (zh) 使用运动捕捉数据的项目导航
Zhao et al. Achieving good connectivity in motion graphs
CN107847799A (zh) 终端装置
JP2011508290A (ja) 運動アニメーション方法及び装置
US8909506B2 (en) Program, information storage medium, information processing system, and information processing method for controlling a movement of an object placed in a virtual space
CN109758760B (zh) 足球游戏中射门控制方法、装置、计算机设备及存储介质
CN111135556A (zh) 一种虚拟相机控制的方法及装置、电子设备、存储介质
CN107213636A (zh) 镜头移动方法、装置、存储介质和处理器
WO2010016189A1 (ja) ゲームプログラムおよびゲーム装置
US9652879B2 (en) Animation of a virtual object
Beacco et al. Footstep parameterized motion blending using barycentric coordinates
JP5088972B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、及び半導体装置
CN112090076B (zh) 游戏角色动作控制方法、装置、设备和介质
JP5089147B2 (ja) カメラ制御方法および該カメラ制御を取り入れたcgゲーム装置
JP2018128851A (ja) プログラム、オブジェクト配置システム及びオブジェクト配置方法
Laszlo et al. Predictive feedback for interactive control of physics-based characters
JP2009251887A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP2005122558A (ja) 画像表示装置、画像表示方法、画像表示プログラム及び画像表示プログラムを記録したコンピュータ読み取り可能な記録媒体
US11138783B2 (en) Image processing apparatus, image processing method, and image prodessing program for aligning a polygon model with a texture model
JP5378027B2 (ja) ゲームプログラム、記憶媒体およびコンピュータ装置
JP5957278B2 (ja) 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な記憶媒体
CN117101138A (zh) 虚拟角色的控制方法、装置、电子设备以及存储介质
JP5328841B2 (ja) プログラム、情報記憶媒体、情報処理システム及び情報処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180002332.8

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 20117015422

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011731621

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13145648

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11731621

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012514695

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 2798954

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE