JP2006196017A - アニメーション作成装置および方法、記憶媒体 - Google Patents

アニメーション作成装置および方法、記憶媒体 Download PDF

Info

Publication number
JP2006196017A
JP2006196017A JP2006061638A JP2006061638A JP2006196017A JP 2006196017 A JP2006196017 A JP 2006196017A JP 2006061638 A JP2006061638 A JP 2006061638A JP 2006061638 A JP2006061638 A JP 2006061638A JP 2006196017 A JP2006196017 A JP 2006196017A
Authority
JP
Japan
Prior art keywords
image
character
information
motion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006061638A
Other languages
English (en)
Inventor
Katsuyuki Murata
克之 村田
Takashi Ida
孝 井田
Miwako Doi
美和子 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006061638A priority Critical patent/JP2006196017A/ja
Publication of JP2006196017A publication Critical patent/JP2006196017A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 複数の特定オブジェクト画像およびこのオブジェクト画像の背面画像を、周期
的または前記物体キャラクタの向きに応じて切り替えて、前記物体キャラクタに合成する
ことにより、ユーザ自身がキャラクタといっしょに踊っているような臨場感を簡易に生成
できるアニメーション作成装置を提供することを目的とする。
【解決手段】 本発明は、複数の図形に関連づけられた動き情報に応じて図形を動作させ
るアニメーション作成装置において、複数の特定オブジェクト画像とその背面画像とを周
期的または図形の向きに応じて切り替えて図形に合成させ、図形の動作に加えて合成画像
の変化をもたせることを特徴とする。
【選択図】 図33

Description

この発明は、音情報によって映像を制御するアニメーション作成装置および方法、記憶
媒体に関するものである。
パーソナルコンピュータの普及と性能向上により、個人でも手軽にコンピュータ・ミュ
ージックやコンピュータ・グラフィックスを楽しんだり、操作することができるようにな
りつつある。
このような状況で、誰もが自分の感性によって、音と映像を同時に楽しんだり、音に合
ったオリジナルなアニメーションを容易に作成したりすることの出来る、対話的なツール
が求められている。
音と映像によってコンピュータ・アートを作成する装置で、楽器の演奏情報からグラフ
ィック情報を決定するものがある(例えば、特許文献1参照)。
この発明は、MIDI規格などのデジタル音源の演奏情報から図形の位置、色、形状、
大きさ、向きとこれらの変化速度を自動的に決定して、コンピュータ・アートの作成を行
おうとするものである。
また、音と映像によってコンピュータ・アニメーションを作成する装置で、対話的に音
と図形および動きを関連づけ、変化する音の情報に応じて関連づけられた動き情報を変化
させて図形を動作させるものがある(例えば、特許文献2参照)。
この発明は、音楽再生中に音と図形および動きの関係を変更したり追加・削除するとい
った編集を可能とし、一つの音楽に対して様々なアニメーションの作成を行おうとするも
のである。
特開平6−110452号公報 特開平9−91465号公報
従来の装置では、音情報と図形情報および動き情報の関係は、あらかじめ用意された計
算式または対応つけテーブルによって固定されており、演奏方法が変わらない限り、一つ
の音楽に対して一つの映像しか作成できなかった。
また、表示する複数の図形は、音に応じて振り付けられた動きでそれぞれ独立に動作す
るだけなので、図形間に協調性をもたせたアニメーションを作成することはできなかった
このような理由から従来のような、音と映像を用いたアニメーション作成装置では、作
成者の感性にもとづいて対話的に様々なアニメーションを編集・作成できなかった。また
、音楽にあわせて複数の個体が協調的に動作するような、組織的ダンスの映像を作成する
ことができず、編集の自由度および表現力の低いアニメーション作成環境しか提供出来な
かった。
本発明はこれらの欠点を解消し、複数の図形を音楽にあわせて空間的および時間的な協
調性をもたせて動作させ、例えば、複数の図形による組織的ダンスを表現するような映像
を対話的に編集・作成できるアニメーション作成装置を提供することを目的とする。
これらの課題を解決するために、本願発明は、音情報から所望のパラメータを抽出する
音情報抽出手段と、動作させるべき少なくとも1つの図形を記憶してなる図形記憶手段と
、この図形記憶手段に記憶され表示すべき複数の図形の動き情報を記憶してなる動き情報
記憶手段と、表示すべき複数の図形の空間上での位置関係を記憶してなる配置情報記憶手
段と、配置記憶手段に記憶された図形の位置関係を変更させるための指示を与えるための
指示手段と、この指示手段によって変更された図形の位置関係および前記音情報抽出手段
によって抽出されたパラメータに応じて、前記動き情報記憶手段に記憶された動き情報を
変化させ、表示すべき複数の図形を協調させて動作させるための動作生成手段とを有する
ことを特徴とする
つまり、表示すべき複数の図形に関連づけられた動き情報を音の情報に応じて変化させ
て図形を動作させるアニメーション作成装置において、複数の図形の空間的配置を変化さ
せ、変化させた複数の図形の空間的配置に応じて図形の動き情報を変化させて、空間的な
協調性をもたせて複数の図形を動作させることを特徴とする。
また、複数の図形に関連づけられた動き情報の変化を時間的に同期またはずらして、時
間的な協調性をもたせて複数の図形を動作させることを特徴とする。
この結果、本発明によれば、音と図形および動きとの関係を、音と映像を確かめながら
対話的に編集することができるので、一つの音楽に対して様々な映像を作成することが出
来るようになる。
また、本発明によれば、複数の図形の空間的配置に応じて、各図形の動きを制御できる
ので、複数の人間が音楽にあわせて陣形を変えたり、陣形に応じて各人間が動作を変えて
行動するといった、組織的ダンスにおける空間的な協調性をアニメーションとして表現す
ることも出来るようになる。
また、本発明によれば、複数の図形に関連づけられた動き情報の変化を時間的に同期ま
たはずらすので、複数の人間が同じ動作を一致して行ったり、動作を伝播しあうなどの、
組織的ダンスにおける時間的な協調性をアニメーションとして表現することも出来るよう
になる。
このことによって、従来の装置では出来なかった、作成者の感性にもとづいた対話的な
様々なアニメーションの編集・作成を可能とし、さらに、音楽にあわせて複数の個体が協
調的に動作する組織的ダンスの映像を作成することが出来る、編集の自由度および表現力
の高いアニメーション作成環境を提供することができる。
また、本発明は、複数の特定オブジェクト画像およびこのオブジェクト画像の背面画像
を、周期的または前記物体キャラクタの向きに応じて切り替えて、前記物体キャラクタに
合成する。これにより、切り出された複数の顔画像とその後頭部画像を前記物体キャラク
タの頭部に切り替えて合成することができるので、前記物体キャラクタの動きに加えて顔
の表情変化のついたアニメーションを作成することが可能である。
また、本発明によれば、顔画像および後頭部画像はビデオなどの動画から自動的に生成
されるので、顔画像および後頭部画像の作成の手間が省け、表情変化のついた動作アニメ
ーションを容易に作成することが可能である。
以上のように本願発明では、従来の装置では出来なかった、作成者の感性にもとづいた
対話的な様々なアニメーションの編集・作成を可能とし、さらに、音楽にあわせて複数の
個体が協調的に動作する組織的ダンスの映像を作成することが出来る、編集の自由度およ
び表現力の高いアニメーション作成環境を提供することができる。
[第1の実施例]
以下、図面を参照しつつ本発明によるアニメーション作成装置の一実施例を説明する。図
1は本発明によるアニメーション作成装置の一実施例を示すブロック図である。この協調
型のアニメーション作成装置は、音情報抽出部1,図形情報記憶部5,動き情報作成部8
,ポーズ情報記憶部7,動き情報記憶部6,配置情報記憶部3,編集部4,描画部9,音
情報再生部2,呈示部10及び指示部11を有する。
音情報抽出部1は、例えばMIDI規格に基づいたデジタル音源に入力されるMIDI
信号を後述する音情報再生部2へ送るとともに、楽曲演奏情報などの音情報を抽出し、後
述の編集装置以下の構成ブロックへ分配するものである。
ここにMIDI信号とは、デジタル音源を駆動するための情報をシリアルの二進符号で
表現したものであり、音楽の進行に関するテンポデータ、音色に関するチャンネルデータ
、音の高さに関する音程データ、音の強弱に関する音強度データ、音楽効果に関する効果
音データなどによって構成されている。
本実施例では、これらのデータのうちから、テンポデータを利用した例について述べる
。図形情報記憶部5は、表示する図形情報を記憶しておくものである。
図形情報には2次元図形データのみならず、3次元図形データも含まれる。
3次元図形データのフォーマットとしてはいろいろなものがあるが、本実施例では、パ
ーソナル・コンピュータ上の3次元コンピュータ・グラフィックスAPIとして標準規格
となりつつあるDirect3D(Microsoft社が提唱)のXファイル形式を利
用した例を示す。
本実施例では、3次元図形の形状として人体キャラクタを使用するが、人体キャラクタ
の頭、腕、足などのオブジェクトをXファイル形式のファイルで用意し、これらを人体と
して再構築するための人体ファイル(.chr)をさらに用意する。本実施例で使用する人体
キャラクタは、15個のオブジェクトから構成されており、図2に示す階層構造を構築す
る。
ここでは、人体キャラクタの腰(hip )をルートにして、人体キャラクタの中心として
定めている。この階層構造により、例えば腰に回転などの変換をかけると、腰以下の従属
する子供オブジェクトが追従して回転し、人体キャラクタ全体が回転することになる。図
3に人体ファイル(model#1.chr)の例を、図4に実際に描画された表示例を示す。
図3について以下に説明を行う。人体ファイルには、人体キャラクタの15個の各オブ
ジェクトについて、Xファイル名と再構築のための原点位置変換データが記述されている
。図3の1行目には、人体キャラクタの腰(hip )について記述されており、対応するX
ファイル名が hip.x、原点位置変換データが(0.0, 5.35, 0.0)であることを示している
また、2行目の記述では、左足1(Xファイル名はlegL1.x )がその親オブジェクトで
ある腰の原点位置を基準として、原点位置変換データ(0.5, -0.85, 0.0 )で移動され腰
に接続されることが示されている。
また、3行目の記述では、左足2(Xファイル名はlegL2.x )がその親オブジェクトで
ある左足1の原点位置を基準として、原点位置変換データ(0.0, -2, 0.0)で移動され左
足1に接続されることが示されている。
本実施例は、3次元図形のデータとしてXファイル形式に限定するものではなく、CA
D分野でのDXF形式や、様々なモデリング・ソフトで作成された3次元図形データ形式
をXファイル形式に変換することで利用が可能である。
動き情報作成部8は、図形情報記憶部5に記憶された図形の動き情報を作成するもので
ある。本実施例では、後述するように図形の動きをキーフレーム・アニメーションの手法
を用いて生成するので、図形の異なったポーズをキーフレームとして複数作成し、作成し
たポーズを順番にならべて連結し、後述のモーション・ファイルとして保存するものとす
る。
本実施例における動き情報作成部8の具体的な構成は、図5のようになる。図5のポー
ズ作成部81は、図形情報記憶部5に記憶された図形を読み込んで、それにポーズを振り
付けするものである。
図6は、ポーズ作成部81において人体キャラクタへのポーズ振付を行う際の表示例で
ある。作成者は、マウスを用いて人体キャラクタの各オブジェクトを選択することが可能
で、選択したオブジェクトを指示部11の矢印キーとシフト・キーなどのキー入力操作に
よって、x,y,zの各軸に関して回転、移動の変換をかけるて人体キャラクタにポーズ
を振付する。ここで、指示部11のマウスによるオブジェクト選択は、マウスによる視点
追跡と図形のバウンディングボックスとの交点検出によるピッキング操作で行っている。
図6では、人体キャラクタの左腕1を選択して(枠の四角部分)、z軸に関する回転を
かけている様子を示している。前述したように、人体キャラクタは各オブジェクトが階層
構造を持って接続されているので、図6のように左腕1に回転をかけると、その子供オブ
ジェクトである左腕2、左手も追従して回転する。
上述の操作によって作成されたポーズの情報は、後述するポーズ情報記憶部7において
、拡張子が.pseのポーズ・ファイルとして保存される。作成者は、すでに作成されたポー
ズ・ファイルを読み込んで、指示部11からの指示により再度ポーズを作成し直すことも
可能である。
図5の動き情報編集部82は、作成した複数のポーズを順番に連結させて図形の一連の
動き情報を作成するものである。
図7は、動き情報編集部82におけるインタフェースの表示例である。このインタフェ
ースでは、人体キャラクタの動きをキーフレーム・アニメーションするための情報を指定
することができ、一連の動きを構成するポーズ・ファイル名と、ポーズとポーズの補間の
分割数を入力することが可能である。
図7では、ワップというダンスの動きを構成する9個のポーズ・ファイルが順番になら
べられており、一番目のポーズはwap1.pseで、次のポーズはwap2.pseで、その次はwap3.p
seでと一連の動き情報が指定されている。また、実際にアニメーションさせる場合、各ポ
ーズとポーズの間の補間を、インタフェースの右側で指定された分割数「4」で行う。
インタフェースにある[OK]のボタンを押すと、入力されたポーズ間を補間する動き
のアニメーションを実行でき、動きを確かめることができる。
図8は、ワップのダンスを構成する各ポーズを表示したものをならべたものである。本
実施例では、キーフレーム・アニメーションを、各ポーズとポーズの間を、腰、腕などの
各オブジェクトについて、上述したポーズ・ファイルに記述されているdir(オブジェ
クトの3次元的な向きベクトル)、pos(オブジェクトの位置)、up(オブジェクト
のy軸に関するずれベクトル)のデータを線形補間することにより実現する。
補間の際の分割数はこのインターフェースで変更可能であり、分割数を多くすることに
より動きのスピードをあげたり、分割数を少なくすることにより動きのスピードを遅くす
ることが可能である。
また、ここで作成した動き情報は、図2の構成に基づく人体キャラクタであれば、どん
な人体キャラクタにも適用することが可能である。また、このインターフェースでは、ポ
ーズ・ファイル名を作成した他のポーズ・ファイル名に変更して指定することが可能なの
で、違う動きの編集を容易に行うことが出来る。さらに、後述のモーション・ファイルを
読み込んで、上述の編集を行うことも可能である。
ポーズ情報記憶部7は、前述の動き情報作成部8によって作成されたポーズを、拡張子
が.pseのポーズ・ファイルとして保存するものである。
図9にポーズ・ファイル(wap1.pse)の例を示す。以下に図9の説明をする。
1行目は、ポーズ・ファイルであることを示すヘッダーである。2行目のBodyには、この
ファイルが15個のオブジェクト(パーツ)から構成された人体キャラクタに対応するこ
とが示されている。
以下、15個のPartには、オブジェクトの識別子(id)、オブジェクトの3次元
的な向きベクトル(dir)、オブジェクトのy軸に関するずれベクトル(up)、オブ
ジェクトの位置(pos)が記述されている。
ここで、識別子0が腰のオブジェクトを示しており、以下、1,2,・・・が左足1,
左足2と対応している。また、dir,pos,upのデータは、作成者が各オブジェク
トに回転や移動をかけてポーズを決定したときに得られるものである。
動き情報記憶部6は、動き情報作成部8で作成された図形の動き情報を記憶しておくも
のである。図形の動き情報は、拡張子が.mtnのモーション・ファイルに保存される。モー
ション・ファイルには、前述した動き情報作成部8の動き情報編集部82において指定さ
れた複数のポーズ・ファイル名および分割数が記述される。
図10は、モーション・ファイル(wap.mtn )の記述例を示す。1行目は、モーション
・ファイルであることを示すヘッダーである。2行目のMotionでは、このモーション・フ
ァイルで記述される動きが9個のポーズによって構成されていることが示されている。
以下、9個のポーズ(Pose)では、ポーズの順番(id)、補間の分割数(div
)、ポーズ・ファイル名(fname)が記述されている。
ここで、例えばidが0、すなわち一連の動きにおける最初のポーズは、ポーズ・ファ
イルwap1.pseで保存されているポーズであり、そして、次のポーズとの補間を分割数4で
行うことが記述されている。以上のように本実施例ではポーズ情報と動き情報を用いてオ
ブジェクトの動きを生成する。
配置情報記憶部3は、複数の図形の空間的配置情報を記憶するものである。本実施例で
は、複数の図形を2次元の格子上に配置する例を説明する。
図11は、5×5の2次元格子を示している。ここで実際に図形が配置可能な領域は内
側の3×3の領域であり、外側の領域は配置不可能な領域(×印)とする。外側の領域は
、後述する近接点の処理で利用する。
この2次元格子上での図形の配置状態を、2次元配列array [x][y]であらわし、コンピ
ュータのメモリ空間で記憶させ、図形の配置情報として使用する。
図12は、3個の図形A,B,Cを、Aを真ん中にして横一列に配置させた場合の2次
元配列array [x][y]に格納される値を2次元格子であらわしたものである。前述の図形が
配置不可能な外側の領域はすべて−1であり、その内側の領域は図形が存在しなければ0
である。図形Aが存在する格子は1、図形Bが存在する格子は2、図形Cが存在する格子
は3とする。すなわち、ここでは、図形の存在する2次元配列array [x][y]は、array [1
][2]=2, array [2][2]=1, array [3][2]=3のようになる。
ここで、例えば、図形Aがarray [2][1]に移動して配置が変わった場合、2次元配列ar
ray [x][y]は以下のように元の格子が0に、新たな格子が1に変更され、array [2][2]=
0, array [2][1]=1が再度記憶される。
編集部4は、指示部11からの指示に従い、図形情報記憶部5から希望する図形情報を
複数選択したり、動き情報記憶部8から希望する動き情報を選択して、図形の配置情報と
関連付けしたり、その関連を変更したり、図形の配置情報を変更したり、音情報抽出部1
から入力された音楽のテンポデータを図形の動き情報に関係づけして、複数の図形の様々
な動作を編集・生成するものである。
本実施例における編集部4の具体的な構成は、図13のようになる。図13の図形情報
選択部41では、図形情報記憶部5に格納されている図形情報のうちから表示装置に表示
する図形情報を選択するものである。図形情報としては、ダンサーとなる人体キャラクタ
の前記人体ファイルを複数用意し、これら人体ファイルの中から例えば3体を選択して読
み込む。
図13の配置情報/動き情報関連付け部42では、動き情報記憶部8に格納されている
動き情報のうちから、読み込んだ図形すなわち人体キャラクタにダンスさせるための動き
情報を選択して、人体キャラクタの配置情報と関連付けするものである。人体キャラクタ
の配置情報と動き情報との関連付けの例として、局所的な配置情報によるものと、大局的
な配置情報によるものと2通りを説明する。
局所的な配置情報による場合では、各人体キャラクタのダンスは、後述の動き情報変更部
44において以下の3パターンに選別される。
(1)すべてが同一のダンスをする。
(2)ソロのダンスをする
(3)ソロのダンサーに合いの手をする。
図14は、局所的な配置情報による場合の配置情報と動き情報の関連付けを行うインタ
フェースの例である。ここでは、人体キャラクタが同一のダンスをする場合について3種
類、ソロのダンスをする場合について3種類(人体キャラクタA,B,Cについて)、ソ
ロのダンサーに合いの手をする場合について2種類のダンスを、前述の動き情報作成部8
で作成されたモーション・ファイル名(***.mtn )を入力することにより指定する。
ここで指定されたダンスの3パターンとモーション・ファイルの関連づけ情報は、メモ
リ空間内で記憶する。大局的な配置情報による場合では、あらかじめ人体キャラクタの配
置パターンを複数個用意し、各配置パターンに動き情報を関連付けする。
図15は、大局的な配置情報による場合の配置情報と動き情報の関連づけを行うインタ
フェースの例である。ここでは、あらかじめ用意した3つの配置パターンに対して、A、
B、Cの各人体キャラクタのダンスを、モーション・ファイル名(***.mtn )を入力する
ことにより指定する。また、用意した配置パターン以外の配置パターンが出現した場合の
ために、その他の配置パターンとして、A,B,Cの各人体キャラクタのダンスを、モー
ション・ファイル名(***.mtn )を入力することにより指定する。
各配置パターンにおいて、A,B,Cの各人体キャラクタのモーション・ファイルを同
一のファイルにすると、対応する配置パターンが出現した場合に、各人体キャラクタは一
致して同一のダンスを踊る。ここで指定された配置パターンとモーション・ファイルの関
連づけ情報は、メモリ空間内で記憶する。
図13の配置変更部43は、図形すなわち人体キャラクタの空間的配置を変更するもの
で、前述の配置情報記憶部3で記憶された2次元配列array [x][y]の内容を変更するとと
もに、2次元配列で記述された配置情報から、実際に人体キャラクタを表示する3次元空
間の位置座標へマッピングを行うものである。
本実施例では、人体キャラクタの配置変更を作成者がキー入力で対話的に行う例を説明
する。作成者は、一つの人体キャラクタをキーボードの矢印キーを用いて2次元格子上を
移動させる。
図16は、2次元格子上で人体キャラクタAを指示部11の矢印キーで移動させる例を
示している。2次元配列array [x][y]では、→キーがx方向に+1,←キーがx方向に−
1,↑キーがy方向に+1,↓キーがy方向に−1に対応させている。
例えば、図16(a)のように2次元配列array [2][2]=1で配置されている人体キャ
ラクタAに対して、↓キーが押されると、2次元配列はarray [2][2]=0,array [2][1]
=1のように変更され配置情報が変わる(図16(b))。
人体キャラクタAを上述の方法で移動させると、人体キャラクタB,Cも移動し、全体
の配置情報が変化する。
図17の流れ図は、一つの人体キャラクタを作成者の指示にしたがって移動させ、他の
人体キャラクタの配置情報を確率的に変化させる例を示したものである。ここで、図形i
d=1が人体キャラクタAを、図形id=2が人体キャラクタBを、図形id=3が人体
キャラクタCをあらわしている。
まず、id=1(キャラクタA)の場合キャラクタAを移動させると、移動した位置が
1となり、キャラクタAが移動前の位置を0とする(S171)。ここで、x#org[id],y
#org[id]は各人体キャラクタの2次元格子上での元の位置を示すものである。
次に、id=2(キャラクタB)として(S172)、キャラクタBの近接点で移動可
能な格子点の数を算出する(S173)。ここでは、近接点とは一つの格子点を囲む8カ
所を指しており、確率的に人体キャラクタを移動させる場合、他の人体キャラクタが配置
されている所へは移動できないことにする。つまり、図16(b)の例では、array [1][
2]にいるキャラクタBは、array [1][1],array [2][2],array [1][3],array [2][2]の
4ヶ所のいずれかに移動することができる。
次に、id=2(キャラクタB)が移動できる格子点の確率を決定する(S174)。
ここでは、4ヶ所に移動できるのでその確率は1/4である。そして、その確率と所定の
乱数をもとにキャラクタBを移動させる(S175)。
次に、キャラクタBが残っているので(S176)、ステップ172にもどり、同様に
id=3(キャラクタC)の移動の制御を行う。
次に、2次元配列array [x][y]で記述された配置情報から、実際に人体キャラクタを表
示する3次元空間の位置座標へマッピングを行う方法について説明する。実際に人体キャ
ラクタを表示する3次元空間は、図18に示すxz平面を地面とした空間である。ここで
、人体キャラクタの高さ方向は、y軸に平行な方向である。
そこで、2次元配列(x,y)から実際の表示空間(X,Y,Z)へのマッピングは、
移動とスケール変換を用いた以下の式で行う。
X=(x−2)*5
Y=0
Z=(y−2)*5
人体キャラクタの配置変更は、上述の作成者のキー入力によるやり方に限定するもので
はなく、例えば音情報すなわちMIDI信号中のタイムデータを利用して、周期的に配置
変更のタイミングを得たり、あるチャンネルデータに注目して、そのチャンネルデータの
音強度あるいは音程の変化をキーとして配置変更を行うなど、音情報から配置変更のタイ
ミングを自動的に得ることも可能である。
図13の動き情報変更部44は、図形すなわち人体キャラクタの空間的配置が上述の配
置変更部43において変更された場合、変更された配置情報を評価し、前述の配置情報/
動き情報関連づけ部42において関連づけられた動き情報に従って、人体キャラクタに振
り付けるダンスすなわち動きを変更させるものである。
配置変更部43で変更された人体キャラクタの空間的配置の評価方法として、前述した
、局所的な配置情報によるものと、大局的な配置情報によるものの2つを例にあげて説明
する。
図19は、局所的な配置情報による評価処理の流れを示したものである。この方法では
、2次元格子上で人体キャラクタが配置されている格子点の近接点に他の人体キャラクタ
が配置されているかどうかを判定する。
まず、各キャラクタの近接点に他の図形があるかを判断し(S191)、近接点に他の
図形がある場合はパラメータeの値を増やし(S192)、近接点に他の図形が無い場合
は、id#solo (ソロダンスをする)というパラメータを与える(S193)。その結果、
パラメータeの値に応じ各キャラクター動きを決定する(S194)。
ここでは、図20のように、全ての人体キャラクタが互いに近接点で接している状況で
は、e=3となるため、全ての人体キャラクタに同一のダンスを振り付け、一定の空間隊
形を保ち同一の振りでダンスをする空間的同期による協調性を表現する。ここで、振り付
ける同一のダンスの種類は、前述の配置情報/動き情報関連付け部42で指定した3種類
のモーション・ファイルからランダムに一つを選択して決定する。
また、図21のように、近接点に他の人体キャラクタが配置されていないキャラクタA
にはソロのダンスをさせ、他の2つの人体キャラクタが互いに近接点で接しているキャラ
クタBとCは、e=2となるため、それらをソロのダンスに対して合いの手を入れるよう
なダンスをさせて、空間的なずれのもとに協調するダンスを表現する。ここで、振り付け
るソロのダンスの種類は、前述の配置情報/動き情報関連付け部42で指定した各人体キ
ャラクタに対応付けたモーション・ファイルにより決定する。また、振り付ける合いの手
のダンスも、配置情報/動き情報関連付け部42で指定した2種類のモーション・ファイ
ルからランダムに一つを選んで決定する。
また、図22のように、全ての人体キャラクタが互いに近接点で接していない状態であ
れば、e=0となるため、全ての人体キャラクタをソロでダンスさせ、ダンスの協調性に
アクセントをつける効果を表現する。ここで、振り付けるソロのダンスの種類は、前述の
配置情報/動き情報関連付け部42で指定した各人体キャラクタに対応付けたモーション
・ファイルにより決定する。
一方、大局的な配置情報による評価の仕方は、配置情報/動き情報関連付け部42で用
意された配置パターンと、変更された配置における2次元配列array [x][y]の状態とのマ
ッチングによる方法をとる。
すなわち、人体キャラクタがどこに配置されているかを、2次元配列array [x][y]のx
z空間で探査し、用意された配置パターンと同じ配置状態であれば、その配置パターンに
関連づけられたモーション・ファイルを各人体キャラクタに適応させる。
図13の動き生成部45は、音情報抽出部1から入力される音情報から音楽のテンポデ
ータを取得し、取得したテンポデータに応じて各人体キャラクタを振り付けられたダンス
の動き情報に基づいて動作させるものである。
図23は、動き生成部45における処理の流れを示したものである。前述の動き情報作
成部8で説明したように、本実施例では、人体キャラクタの動きをキーフレーム・アニメ
ーションの手法を用いて生成する。まず、テンポデータを取得し(S231)、人体キャ
ラクタの動きを音楽のテンポに同期させるために、人体キャラクタの各ポーズとポーズの
補間の分割数を、音情報抽出部から入力される音情報中のテンポデータにより算出する(
S232)。
そして、この補間の分割数で、モーション・ファイルに記述されたポーズとポーズの間
の補間ポーズを逐次算出して(S233)描画更新を行い、モーション・ファイルであら
わされる一つの動きを周期的に繰り返すアニメーションを生成する(S234)。
また、本動き生成部の処理は、40msの時間間隔のタイマーを用いて、各時間間隔ごと
にタイマーイベントを発生させて行うようにする。
以下に、テンポデータから補間の分割数を算出する方法について説明する。MIDI信
号で得られるテンポデータは、例えば120といった数値で、これは1分間に120回テ
ンポを打つことを意味している。従って、1テンポの時間間隔は60000(ms)/120
=500(ms)である。
本実施例では、モーション・ファイルに記述されたポーズ間の時間間隔を、上記の1テ
ンポの時間間隔で規定し、動きをテンポに同期させるようにする。
図24は、テンポが120の場合での、モーション・ファイルに記述される一連のポー
ズを時間軸上で示した例である。動きの一周期は、最初のポーズP1から始まってポーズP8
に至り再びポーズP1に戻る、合計8区間であらわされる。ここで、1テンポの時間間隔(
500ms)を、P1−P3、P3−P5、P5−P7、P7−P1のポーズ2区間の時間間隔であると決め
る。
すると、ポーズ1区間(例えばP1−P2)の補間の分割数Nは、テンポ(tempo )および
タイマーの時間間隔(40ms)を用いて以下の式で得られる。
N=((60000/tempo )/2)/40
上述のように、各人体キャラクタを音楽のテンポに同期して動かすことにより、各人体
キャラクタが一致してダンスを行う、時間的な同期による協調性を表現することができる
次に、編集部4の第一の変形例について説明する。編集部4の第一の変形例は、前述の
編集部4の編集機能に加え、音情報抽出部1から入力された音情報であるMIDI信号の
チャンネル(演奏楽器に対応)と動き情報を図形に関連づけたり、関連づけを変更したり
して、関連づけたチャンネルが演奏されるタイミングで、前述のテンポに同期した図形の
動きの合間に、図形に関連づけた動きを新たに派生させて、複数の図形の様々な動作を編
集・生成するものである。
本変形例における編集部4の具体的な構成は、図25のようになる。配置情報/動き情
報関連づけ部42、図形情報選択部41、配置変更部43、動き情報変更部44は、前述
の編集装置におけるものと同じである。
音情報/動き情報関連づけ部46は、MIDIのチャンネルと動き情報記憶装置で記憶
された動き情報を図形に関連づけさせるものである。
図26は、音情報/動き情報関連づけ部46におけるインタフェースの一例である。こ
こでは、図形すなわち人体キャラクタに対し、MIDIチャンネル(番号)と動き情報で
あるモーション・ファイル名(***.mtn )を入力して指定し、これらを人体キャラクタに
関連づけする。ここで指定された関連づけ情報は、メモリ空間で記憶させる。
MIDIチャンネルは1〜16番まであり、演奏楽曲で使われる楽器に対応し、それぞ
れのチャンネルは演奏中、時間的に異なるタイミングで鳴らされる。
上記インタフェースにおいて、各人体キャラクタに異なるチャンネルを指定すると、後
述するように、テンポに同期した動きの合間に、各人体キャラクタが時間的に異なるタイ
ミングで、すなわち時間的なずれをもって、上で指定された動きをアドリブ的に行う。
また、同じチャンネルを指定すると、テンポに同期した動きの合間に、各人体キャラク
タは時間的に一致して、上で指定された動きをアドリブ的に行う。本変形例では、各人体
キャラクタがアドリブ的なダンスや身振りを行う際の、動きの時間的な同期やずれによる
協調性を表現する。
本変形例における動き生成部45での処理の流れを図27に示す。ここでは、入力され
る音情報からテンポデータを取得する以外に、演奏音としてどのチャンネルを鳴らすかが
指定されたチャンネルデータ(ノートオン)も取得する(S271)。
音情報/動き情報関連づけ部46において人体キャラクタ(A,B,Cをidで示す)
に関連づけられたチャンネルがオンの場合(例えば、人体キャラクタAに関連づけられた
チャンネル4番がオンの場合)(S272)、前述のテンポに応じた動きから新たな動き
を派生させる(S273)。派生させる動きは、音情報/動き情報関連づけ部において人
体キャラクタに関連づけられた動き(モーション・ファイル)を用いる。また、関連付け
たれたチャンネルがオフの場合、図23の処理と同様に補間の分割数を算出し(S274
)、補間ポーズを算出する(S275)。
図28は、前述のテンポに同期した動きに、新たな動きを割り込ませて派生させる方法
を示している。ここでは、派生させる動きが4個のポーズ(Pd1,Pd2,Pd3,Pd4)か
ら成る例を示す。指定されたチャンネルがオンになったタイミングで、テンポに同期した
動きの最終ポーズPeと派生させる動きの最初のポーズPd1を、分割数2の補間でキーフレ
ーム・アニメーションする(補間A)。
次に、派生させる動きの各ポーズ間(Pd1−Pd1,Pd2−Pd3,Pd3−Pd4)を分割数
2の補間でキーフレーム・アニメーションする。
最後に、派生させる動きの最終ポーズPd4と、テンポに同期した動きの開始ポーズPsと
を、分割数2の補間でキーフレーム・アニメーションする(補間B)。ここで開始ポーズPs
は、最終ポーズPeから10回分(分割数2×5回)を補間した後のポーズである。補間A
とBのように、派生させる動きの始まりと終わりで、テンポに同期した動きのポーズと補
間するアニメーションを生成することにより、スムーズな動きのつながりを実現する。
また、上述のように開始ポーズPsを、最終ポーズPeから派生させる動きにかかる補間数
(時間)分を仮想的に進めた後のポーズとすることにより、派生させる動きの前と後で、
テンポに同期した動きが時間的にずれないように連続性を保つことができる。これはすな
わち、ある一つの人体キャラクタが派生の動きをした場合でも、他の人体キャラクタとの
テンポに同期した動きが常に一致することを保証している。
次に、編集部4の第二の変形例について説明する。編集部4の第二の変形例は、上述の
第一の変形例での編集機能に加え、作成者が一つの図形の動き情報を対話的に操作して変
化させ、変化させた一つの図形の動き情報に応じて他の図形の動き情報を変化させて、複
数の図形の動作を編集・生成するものである。
本変形例における編集装置の具体的な構成は、図29のようになる。図形情報選択部4
1、配置情報/動き情報関連づけ部42、配置変更部43、音情報/動き情報関連づけ部
46は、前述の編集部4におけるものと同じである。
操作/動き情報関連づけ部47は、作成者の対話的な操作手段と図形すなわち人体キャ
ラクタの動き情報を関連づけするためのものである。本実施例では、キーボードによるキ
ー入力を、作成者の対話的な操作手段として実現する例を説明する。
図30は、キーボードのキーと動き情報を関連づけするためのインタフェースの例であ
る。ここでは、H,J,K,Lの4つのキーに対して、前述のモーション・ファイル(**
*.mtn )を入力し、各キーに動き情報を関連づけすることができる。
動き操作部48は、作成者が一つの図形すなわち人体キャラクタの動き情報を対話的に
変化させるためのものである。ここでは、前述の操作/動き情報関連づけ部47で関連づ
けられたH,J,K,Lの4つのキーを入力可能とする。
また、キーボードによるキー入力だけではなく、前記操作/動き情報関連づけ部47に
おいて、実際の人の動きやジェスチャの画像を動き情報に関連づけし、CCDカメラなど
による画像取得を介した画像認識(例えば、テンプレートマッチング)を行えば、人の動
きやジェスチャの入力による対話操作も可能である。
本変形例における動き情報変更部44では、前記動き操作部48で入力された操作に対
して前記操作/動き情報関連づけ部47において関連づけられた動き情報を、一つの図形
すなわち一つの人体キャラクタに振り付け、図形の配置状態を判定した後、他の図形の動
き情報を変更して振り付けるものである。
前記動き操作部48において入力操作があった場合の、動き情報変更部44における処
理の流れを図31に示す。
まず、図形id=1すなわち人体キャラクタAに、入力キーに関連づけられた動き(モ
ーション・ファイル)Xを振り付ける(S311)。
次に、2次元格子上で、図形id=2すなわち人体キャラクタBの近接点に人体キャラ
クタAがあるかどうか判定する(S312,S313)。
横方向(X方向)にある場合は、人体キャラクタBをdelay =0すなわち人体キャラク
タAと同時におこなう動きXを振り付ける(S314)。
これ以外にある場合は、人体キャラクタBをdelay =1すなわち人体キャラクタAの動
きに対して時間的遅れをもたせて、動きXを振り付ける(S315)。
以下、図形id=3すなわち人体キャラクタCに対して配置状態を判定した後、動きを
振り付ける。
このように、本変形例では、人体キャラクタB,Cを、作成者が操作する人体キャラク
タAの動きと同じ動きXで、配置状態に応じて、同時におこなわせたり、遅れておこなわ
せるようにする。これにより、組織的なダンスにおける時間的な同期やずれによる協調性
を、前述の変形例に加えてさらに表現できるようになる。
本変形例における動き生成部45では、前述の第一の変形例において説明した、テンポ
に同期した動きから新たな動きを派生させる手法と同じように、上記動き情報変更部44
における振り付けで(あるものは時間的に遅らせて)各人体キャラクタの動きを生成する
ここで、図28のチャンネル・オンのタイミングが、作成者のキー入力のタイミングに
置き換わる。
また、前記動き情報変更部においてdelay =0の人体キャラクタの動きは、キー入力と
同じタイミングで生成し、delay =1の人体キャラクタの動きは、キー入力から数フレー
ム遅らせたタイミングで生成を開始させて動きの遅れを実現する。
図1の描画部9は、編集部4において図形の配置情報および音情報と関係づけられた図
形情報、および動き情報によって描画を行い、表示タイミングに従って描画内容を呈示部
10へ送出する。
図1の音情報再生部2は、音情報抽出部から出力されたMIDI信号から楽曲演奏情報
などの音情報を抽出し、再生するものである。
図1の呈示部10は、描画部9で描画、更新された描画内容をビデオ信号に変換し、C
RTなどのディスプレイにアニメーションを表示する。図32に、本実施例で呈示される
アニメーションの1シーンを示す。
この結果、本発明によれば、音と図形および動きとの関係を、音と映像を確かめながら
対話的に編集することができるので、一つの音楽に対して様々な映像を作成することが出
来るようになる。
また、本発明によれば、複数の図形の空間的配置に応じて、各図形の動きを制御できる
ので、複数の人間が音楽にあわせて陣形を変えたり、陣形に応じて各人間が動作を変えて
行動するといった、組織的ダンスにおける空間的な協調性をアニメーションとして表現す
ることも出来るようになる。
また、本発明によれば、複数の図形に関連づけられた動き情報の変化を時間的に同期ま
たはずらすので、複数の人間が同じ動作を一致して行ったり、動作を伝播しあうなどの、
組織的ダンスにおける時間的な協調性をアニメーションとして表現することも出来るよう
になる。
[第2の実施例]
以下、図面を参照しつつ本発明によるアニメーション作成装置の一実施例を説明する。図
33は本発明によるアニメーション作成装置の一実施例を示すブロック図である。
このアニメーション作成装置は大きく顔画像記憶部50、音情報抽出部1、図形情報記
憶部5、動き情報作成部8、ポーズ情報記憶部7、動き情報記憶部6、配置情報記憶部3
、編集部4、描画部9、音情報再生部2、呈示部10を有する。ここでは、顔画像記憶部
50および編集部4以外の部分は、第1の実施例と同じであるので説明は省略する。
顔画像記憶部50は、人体キャラクタの頭部に合成するための、顔画像および後頭部画
像を記憶しておくものである。顔画像は、デジタルカメラで撮影された人物の顔画像、ス
キャナから取り込まれた人物の顔画像、またはペイントツールによって描かれた顔画から
、背景画像を取り去った画像である。ここで、背景画像が取り去られた顔画像とは、たと
えばペイントツールによってユーザが顔領域(髪の部分も含む)以外の背景画像を白色(
RGB記述では、R:255、G:255、B:255)で塗りつぶすことによって得ら
れた画像である。
後頭部画像は、顔画像の顔領域を髪の毛の色で塗りつぶした画像、デジタルカメラで撮
影された人物の後頭部画像、スキャナから取り込まれた人物の後頭部画像、またはペイン
トツールによって描かれた後頭部画から、背景画像を取り去った画像である。
図34に示すように顔画像記憶部50では、上述の顔画像複数枚を一連のものとして保
持し(000.bmp,001.bmp,・・・)、さらに、これら顔画像に対する1枚の後頭部画像を加
えたものを1セットとして保持する(Back000.bmp )。ここで、それぞれの顔画像および
後頭部画像はビットマップ(BMP )形式などの静止画像ファイルである。一連の顔画像は
、それぞれ顔の表情の異なるものを10枚保持するようにする。
図35は、上述の顔画像および後頭部画像を1セットとして保持するファイルの一例で
ある。記述 #FACE MOVIE FILE は、このファイルが一連の顔画像および後頭部画像が記
述されたファイルであることを示す。記述 FMV [ nframe 10 ] は、一連の顔画像が10
枚で構成されることを示す。記述 Frame [ id 0 fname "000.bmp" ] では、1番目の顔
画像ファイルが指定され、以下のFrame の記述では、一連の顔画像ファイルの指定が行わ
れる。最後の記述 BackFrame [ id 0 fname "Back000.bmp" ] では、後頭部画像ファイ
ルが指定される。本実施例では、上述のファイルを.fmvという拡張子を付けて、以下、F
MVファイルと呼ぶ。
本実施例の編集部4は、顔画像記憶部50から希望するFMVファイルを選択してCG
キャラクタの頭部に貼り付けたり、CGキャラクタを変更したり、音情報と動き情報の関
連づけを変更したりして、表示内容およびCGキャラクタの様々な動作を編集・生成する
ものである。本実施例における編集部4の具体的な構成は、図36のようになる。ここで
、図形情報選択部41、図形変更部51、および動画像貼り付け部52以外の部分は、第
1の実施例と同じであるので説明は省略する。
図36の図形情報選択部41は、ユーザが指定するCGキャラクタの種類およびCGキ
ャラクタの頭部に貼り付ける顔画像すなわちFMVファイルを選択するものである。図形
情報選択部41でのCGキャラクタおよびFMVファイルの選択は、図37に示すキャラ
クタ選択用のダイアログボックスを用いて行う。
このダイアログボックスは、ユーザが指定するCGキャラクタにマウス・カーソルをあ
て左クリックすることにより起動される。CGキャラクタは、図37のキャラクタ・ファ
イルの欄において、希望するCGキャラクタのファイル名を記述して選択する。FMVフ
ァイルは、図37のFMVファイルの欄において、希望するFMVファイル名を記述して
選択する。
図36の図形変更部51は、指定されたCGキャラクタを、図形情報選択部41におい
て選択されたCGキャラクタおよびFMVファイルで置き換えまたは貼り替えるものであ
る。指定されたCGキャラクタに顔画像を貼り付ける一例を図38に示す。図6(a)は
、指定されたCGキャラクタである。
まず、図38(b)に示すように、CGキャラクタの頭部オブジェクトを一枚の平面プ
レートに置き換える。次に、図38(c)に示すように、置き換えた平面プレートに、選
択されたFMVファイルの一番目の顔画像をテクスチャマッピングする。
ここで、顔画像の白色で塗られた背景部分は透明化する。透明化は、たとえば3次元C
GのAPIであるDirect3Dのテクスチャ機能を用いて、白色部分のTransp
arencyを有効にして行う。これにより、背景が透明で顔領域だけの顔画像がCGキ
ャラクタの頭部にマッピングされる。
次に、図36の顔画像貼り付け部52は、図形変更部51において置き換えられたCG
キャラクタの頭部の平面プレートに対して、図形情報選択部41において選択されたFM
Vファイルの一連の顔画像および後頭部画像を周期的に切り替えて貼り付けるものである
図39は顔画像貼り付け部52における処理の流れを示すものである。顔画像貼り付け
部52では、動き生成部45において生成されたCGキャラクタのポーズ・データおよび
3次元シーンを見る位置/方向を決める表示画面の正面(視線方向)に対応するカメラ・
データにより(S391)、顔画像および後頭部画像の貼り付け方を決める。ここで、ポ
ーズ・データは、CGキャラクタの各部品(頭、胸等)の位置と向きである。100ms
間隔のタイマにより10枚の顔画像を周期的に切り替えて貼り付けを行うのが処理の基本
的な流れである。
10番目の顔画像が貼り付けされたら(S392)、次は1番目の顔画像を貼り付ける
ように10枚の顔画像の切り替えはループ状におこなう(S393)。
次に、CGキャラクタが背を向けているかどうかの判定を行う。CGキャラクタの胸の
向きベクトルVaとCGキャラクタの胸の位置から表示画面の正面へと結んだベクトルV
bとの内積の正負で行う。すなわち、Va・Vb>=0ならCGキャラクタは表示画面方
向を向いており、Va・Vb<0ならCGキャラクタは表示画面に対して背を向いている
と判定する(S394)。
表示画面に対して背を向けていない場合、そのまま頭部の平面プレートにc番目の画像
をマッピングする(S395)。
CGキャラクタの向きが表示画面の方向に対して反対側、すなわちCGキャラクタが表
示画面に対して背を向けている場合、頭部の平面プレートにはFMVファイルで記述され
た後頭部画像を貼り付ける(S396)。
また、CGキャラクタの表示画面に対する向きに応じて、貼り付けを行う頭部の平面プ
レートの向きを変更する(S397)。ここでは、常に顔画像が表示画面方向を向くよう
に、頭部の平面プレートの向きをCGキャラクタ頭部の位置と表示画面に対し正面の位置
とを結んだベクトルにする。
図40は、CGキャラクタが背を向けている場合に、後頭部画像が頭部に貼り付けされ
た一例である。上述の処理により、CGキャラクタ自身の動きと同時に、異なる表情の顔
画像が周期的に切り替えられ、さらに、CGキャラクタの向きに応じて後頭部画像に切り
替えられる。
本実施例では、図形情報選択部41において一つのFMVファイルを一つのCGキャラ
クタに対して関連づけを行ったが、変形例として、複数のFMVファイルを関連づけし、
ユーザのキー操作や音情報に応じてFMVファイルを切り替えることも可能である。この
場合、たとえば笑いの表情変化をセットしたFMVファイルと驚きの表情変化をセットし
たFMVファイルを用意し、音情報により動き情報を変更させる動き情報変更部44にお
ける方法と同様に、ある音が発せられたタイミングでFMVファイルを切り替えることに
より、笑いから驚きへの顔表情のダイナミックな変化を行うことができる。
また、本実施例では、CGキャラクタ頭部への顔画像の貼り付けを示したが、人物の上
半身画像から服の部分を切り出し(背景画像は白色で塗りつぶし)、顔画像同様、切り出
された服の画像をCGキャラクタの胸部分に貼り付けることも可能である(図41)。
後頭部画像と同様に、切り出された服の画像の服領域を服の色で塗りつぶし、これを背
面画像として用い、CGキャラクタがカメラに背を向けた場合は、この背面画像に切り替
えて貼り付けを行う。
[第3の実施例]
次に、本発明の第3の実施例を説明する。図42は、本発明による協調対話型アニメーシ
ョン作成装置の第3の実施例を示すブロック図である。
この協調動作アニメーション作成装置は大きく顔画像記憶部50、顔画像抽出部60、
後頭部画像生成部61、音情報抽出部1、図形情報記憶部5、ポーズ情報記憶部7、動き
情報記憶部6、配置情報記憶部3、編集部4、描画部9、音情報再生部2、呈示部10を
有する。
この協調動作アニメーション作成装置は、顔画像抽出部60と後頭部画像生成部61に
より自動的に顔画像および後頭部画像を生成し、音楽に応じて協調動作するCGキャラク
タにこれらの画像を切り替えて貼り付けるものである。
顔画像抽出部60と後頭部画像生成部61以外の部分については、第1の実施例と同じ
であるので説明は省略する。顔画像記憶部50は、本発明による第2の実施例で説明した
ものと同じである。顔画像抽出部60は、ビデオ映像等の人物の動画から、人物の顔部分
を自動的に切り出すものである。動画像から顔画像を自動的に切り出すオブジェクト抽出
の方法として、たとえばフラクタル抽出法を用いる。
フラクタル抽出法では、毎秒10枚の処理速度で背景画像を取り去った顔画像(髪の毛
部分も含む)の切り出しが行え、ここでは一秒分すなわち10枚の一連の顔画像を抽出す
る。それぞれの顔画像は、取り去った背景部分を白色(RGB記述では、R:255、G
:255、B:255)とし、それぞれ1枚の静止画ファイル(BMP )として保存される
後頭部画像生成部61は、顔画像抽出部61で切り出された顔画像の一枚を基に、人物
の後頭部画像を自動的に生成するものである。後頭部画像生成部61では、10枚のうち
一番目の顔画像に対し、切り出された顔領域を髪の毛の色で塗りつぶす。ここで、髪の毛
の色は顔画像において一番濃い色を用いる。
また、耳などの出っぱりにより後頭部の輪郭が不具合になるのを防ぐため、輪郭の平滑
化を行う。さらに、うなじ部分の処理として、後頭部領域の下部分の数ビット列分を白色
で塗って水平に切断を行う。以上の処理により生成された後頭部画像は顔画像同様に静止
画ファイル(BMP )として保存される。
また、このようにして得られた10枚の顔画像および後頭部画像は、前述の顔画像記憶
部50において前述のFMVファイルにそれらのファイル名が記述された形で、一つのフ
ァイルに保存される。
この例では、動作としては、ダンスをするものを紹介したが、必ずしもこれに限定され
るものではない。例えば、チャットやバーチャルモールなどのように遠隔地からユーザが
一つの仮想空間を共有するようなものにも利用できる。例えば、各ユーザの代理人(アバ
ター)の3次元キャラクタにおしゃべりや歩行のような動作がついているが、それに抽出
した顔と後頭部の画像を合成し、あたかもユーザ自身が仮想空間でおしゃべりしたり、歩
行したりするようにもできる。この場合、顔は、ユーザから入力されたおしゃべりのテキ
ストや歩行に合わせて動かしたりすることで、ユーザ毎に異なる動きを簡単につけられる
また、音楽配信の際に、音楽データといっしょに歌手の顔画像をつけたキャラクタを配
信する。ユーザは自分の顔画像を追加すれば、そこで、歌手といっしょに踊る状況を簡単
に作りだして楽しむことができる。あるいは、コンサートなどのときに、遠隔地にいる、
あるいは会場にいる聴衆の顔を切り出して、ステージの背景で、歌手の音楽にあわせてい
っしょに、踊らせるころで、新しいパフォーマンスを実現できる。
以上のように、複数の特定オブジェクト画像およびこのオブジェクト画像の背面画像を
、周期的または前記物体キャラクタの向きに応じて切り替えて、前記物体キャラクタに合
成することにより、ユーザ自身がキャラクタといっしょに踊っているような臨場感を簡易
に生成できる。
これにより、切り出された複数の顔画像とその後頭部画像を前記物体キャラクタの頭部
に切り替えて合成することができるので、前記物体キャラクタの動きに加えて顔の表情変
化のついたアニメーションを作成することが可能である。
また、バレリーナが回転するときのように、顔がほとんど正面を向き、一瞬だけ後頭部
が正面を向く回転動作を簡易に実現できるので、より臨場感を増すことができる。
また、本発明によれば、顔画像および後頭部画像はビデオなどの動画から自動的に生成
されるので、顔画像および後頭部画像の作成の手間が省け、表情変化のついた動作アニメ
ーションを容易に作成することが可能である。
さらに顔だけでなく上半身を切り出し用いることで、より臨場感のある仮想空間にユー
ザの手間なく簡易に実現できるので、その効果は絶大である。
[記憶媒体による実施形態]
また、本願発明の実施例における処理をコンピュータで実行可能なプログラムで実現し、
このプログラムをコンピュータで読み取り可能な記憶媒体として実現することも可能であ
る。
なお、本願発明における記憶媒体としては、磁気ディスク、フロッピー(登録商標)デ
ィスク、ハードディスク、光ディスク(CD−ROM,CD−R,DVD等)、光磁気デ
ィスク(MO等)、半導体メモリ等、プログラムを記憶でき、かつコンピュータが読み取
り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。
また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコン
ピュータ上で稼動しているOS(オペレーションシステム)や、データベース管理ソフト
、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部
を実行してもよい。
さらに、本願発明における記憶媒体は、コンピュータと独立した媒体に限らず、LAN
やインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶
した記憶媒体も含まれる。
また、記憶媒体は1つに限らず、複数の媒体から本実施形態における処理が実行される
場合も、本発明における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本願発明におけるコンピュータは、記憶媒体に記憶されたプログラムに基づき、
本実施形態における各処理を実行するものであって、パソコン等の1つからなる装置、複
数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本願発明におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれ
る演算処理装置、マイコン等も含み、プログラムによって本願発明の機能を実現すること
が可能な機器、装置を総称している。
第1の実施例の概略構成図 第1の実施例中の図形情報記憶部5の記憶形式の一例 第1の実施例中の図形情報記憶部5の記憶形式の一例 第1の実施例中の図形情報の描画の一例 第1の実施例の動き情報作成部8の構成 第1の実施例中の図形情報の描画の一例 第1の実施例中の動き情報編集部82の画面の一例 動き情報編集部82により作成された動きの表示の一例 作成されたポーズの一例 作成された動きの一例 配置の一例 配置の一例 第1の実施例中の編集部4の構成の一例 第1の実施例中の動き情報関連づけインタフェースの一例 第1の実施例中の動き情報関連づけインタフェースの一例 配置の移動の一例 配置変更の処理の流れ図 3次元的な配置の一例 第1の実施例中の動き情報変更部44の処理の流れ図 異なる配置の例 異なる配置の例 異なる配置の例 第1の実施例中の動き生成部45における処理の流れ 第1の実施例中の動き生成部45における動きとテンポの同期方法の一例 第1の実施例の変形例1における編集部4の構成の一例 音情報/動き情報関連づけ部46におけるインタフェースの一例 第1の実施例の変形例1における動き生成部45における処理の流れ 第1の実施例の変形例1における動きの派生方法の一例 第1の実施例の変形例2における編集部4の構成の一例 操作/動き情報関連づけ部47におけるインタフェースの一例 第1の実施例の変形例2における動き情報変更部44における処理の流れ 第1の実施例による呈示画像の一例 第2の実施例の概略構成図 第2の実施例中の顔画像記憶部50における記憶内容の一例 第2の実施例中の顔画像記憶部50における記憶形式の一例 第2の実施例中の編集部4における構成 第2の実施例中の図形情報選択部41におけるインタフェースの一例 第2の実施例中の図形変更部51における顔画像貼り付けの一例 第2の実施例中の図形変更部51における顔画像貼り付けの一例 第2の実施例中の後頭部画像貼り付けの一例 第2の実施例中の服画像貼り付けの一例 第3の実施例の概略構成図
符号の説明
1…音情報抽出部
2…音情報再生部
3…配置情報記憶部
4…編集部
5…図形情報記憶部
6…動き情報記憶部
7…ポーズ情報記憶部
8…動き情報作成部
9…描画部
10…呈示部
11…指示部
41…図形情報選択部
42…配置情報/動き情報関連づけ部
43…配置変更部
44…動き情報変更部
45…動き生成部
46…音情報/動き情報関連づけ部
47…操作/動き情報関連づけ部
48…動き操作部
81…ポーズ作成部
82…動き情報編集部

Claims (5)

  1. 動作させる図形を記憶する図形記憶手段と、
    この図形記憶手段に記憶された図形に対し、表示すべき図形の動き情報を記憶してなる
    動き情報記憶手段と、
    表示すべき複数の図形を動作させるための指示を入力させるための指示手段と、
    この指示手段から入力された指示に応じて、前記動き情報を変化させ前記図形に動作を
    させるための動作生成手段と、
    前記図形に合成すべきオブジェクト画像を切り出すためのオブジェクト抽出手段と、
    このオブジェクト抽出手段により切り出された画像の背面画像を生成するための背面画
    像生成手段と、
    前記オブジェクト抽出手段で抽出されたオブジェクト画像および前記背面生成手段によ
    り生成された背面画像を記憶しておくための画像記憶手段と、
    前記図形に前記オブジェクト画像および前記背面画像を切り替えて合成するための画像
    合成手段と、
    前記動作生成手段により生成された動作および前記画像合成手段によって合成された合
    成画像をアニメーションとして呈示するための呈示手段とを具備したことを特徴とするア
    ニメーション作成装置。
  2. 前記動作生成手段は、特定オブジェクト画像あるいはオブジェクト画像の背面画像を、
    周期的に切り替えて、前記図形に合成することを特徴とする請求項1に記載のアニメーシ
    ョン作成装置。
  3. 前記動作生成手段は、特定オブジェクト画像あるいはオブジェクト画像の背面画像を、
    前記図形の向きとカメラ方向とが成す角度に応じて切り替え、前記図形に合成することを
    特徴とする請求項1に記載のアニメーション作成装置。
  4. 図形を動作させるための指示に応じて、あらかじめ記憶された複数の図形の動き情報を
    変化させて動作生成手段により前記図形を動作させ、
    前記図形に合成すべきオブジェクト画像をオブジェクト抽出手段により抽出し、
    この抽出されたオブジェクト画像の背面画像を背面画像生成手段で生成し、
    抽出されたオブジェクト画像と生成された背面画像を画像記憶手段に記憶し、
    画像合成手段により前記図形に前記オブジェクト画像および前記背面画像を切り替えて
    合成し、
    呈示手段により合成された合成画像をアニメーションとして呈示することを特徴とする
    アニメーション作成方法。
  5. 図形を動作させるようなアニメーションを作成するためのプログラムをコンピュータで
    読み取り可能なように記憶させた記憶媒体であって、
    図形を動作させるための指示に応じて、あらかじめ記憶された複数の図形の動き情報を
    変化させて動作生成手段により前記図形を動作させ、
    この抽出されたオブジェクト画像の背面画像を背面画像生成手段で生成させ、
    抽出されたオブジェクト画像と生成された背面画像を画像記憶手段に記憶させ、
    画像合成手段により前記図形に前記オブジェクト画像および前記背面画像を切り替えて
    合成させ、
    呈示手段により合成された合成画像をアニメーションとして呈示させるプログラムをコ
    ンピュータで読み取り可能なように記憶させたことを特徴とする記憶媒体。
JP2006061638A 1999-02-26 2006-03-07 アニメーション作成装置および方法、記憶媒体 Pending JP2006196017A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006061638A JP2006196017A (ja) 1999-02-26 2006-03-07 アニメーション作成装置および方法、記憶媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP5093199 1999-02-26
JP2006061638A JP2006196017A (ja) 1999-02-26 2006-03-07 アニメーション作成装置および方法、記憶媒体

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP11290890A Division JP2000311251A (ja) 1999-02-26 1999-10-13 アニメーション作成装置および方法、記憶媒体

Publications (1)

Publication Number Publication Date
JP2006196017A true JP2006196017A (ja) 2006-07-27

Family

ID=36801986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006061638A Pending JP2006196017A (ja) 1999-02-26 2006-03-07 アニメーション作成装置および方法、記憶媒体

Country Status (1)

Country Link
JP (1) JP2006196017A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008148020A2 (en) * 2007-05-25 2008-12-04 Thinking Moves, Llc Method and system of purposeful movement to a steady beat
JP2008299693A (ja) * 2007-06-01 2008-12-11 Konami Digital Entertainment:Kk キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
JP2010020781A (ja) * 2008-07-14 2010-01-28 Samsung Electronics Co Ltd アニメーション製作方法及び装置
JP2013045341A (ja) * 2011-08-25 2013-03-04 Casio Comput Co Ltd 画像生成方法、画像生成装置及びプログラム
US8687005B2 (en) 2007-06-26 2014-04-01 Samsung Electronics Co., Ltd. Apparatus and method for synchronizing and sharing virtual character

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008148020A2 (en) * 2007-05-25 2008-12-04 Thinking Moves, Llc Method and system of purposeful movement to a steady beat
WO2008148020A3 (en) * 2007-05-25 2009-01-29 Thinking Moves Llc Method and system of purposeful movement to a steady beat
US8237040B2 (en) 2007-05-25 2012-08-07 Thinking Moves, Llc Method and system of purposeful movement to a steady beat
JP2008299693A (ja) * 2007-06-01 2008-12-11 Konami Digital Entertainment:Kk キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
JP4519883B2 (ja) * 2007-06-01 2010-08-04 株式会社コナミデジタルエンタテインメント キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
US8687005B2 (en) 2007-06-26 2014-04-01 Samsung Electronics Co., Ltd. Apparatus and method for synchronizing and sharing virtual character
JP2010020781A (ja) * 2008-07-14 2010-01-28 Samsung Electronics Co Ltd アニメーション製作方法及び装置
JP2013045341A (ja) * 2011-08-25 2013-03-04 Casio Comput Co Ltd 画像生成方法、画像生成装置及びプログラム

Similar Documents

Publication Publication Date Title
JP2000311251A (ja) アニメーション作成装置および方法、記憶媒体
US9626788B2 (en) Systems and methods for creating animations using human faces
KR100496718B1 (ko) 컴퓨터 상의 캐릭터의 애니메이션 시스템, 방법 및 장치와, 애니메이션 파일 다운로드용 서버 컴퓨터, 및 애니메이션 캐릭터 발생용 컴퓨터 구현 시스템
CN112598785B (zh) 虚拟形象的三维模型生成方法、装置、设备及存储介质
CN107430781B (zh) 计算机图形的数据结构、信息处理装置、信息处理方法以及信息处理系统
JP5055223B2 (ja) 映像コンテンツ生成装置及びコンピュータプログラム
JP5375897B2 (ja) 画像生成方法、画像生成装置及びプログラム
CN114363712A (zh) 基于模板化编辑的ai数字人视频生成方法、装置及设备
JP5232129B2 (ja) 仮想キャラクタ生成装置及び仮想キャラクタ生成プログラム
JP2006196017A (ja) アニメーション作成装置および方法、記憶媒体
JP5408205B2 (ja) 制御点設定方法、制御点設定装置及びプログラム
KR101977893B1 (ko) 영상컨텐츠 적용 디지털액터의 운용방법
JP6313003B2 (ja) カラオケ装置、画像出力方法、およびプログラム
Iwamoto et al. DanceDJ: A 3D dance animation authoring system for live performance
KR101780496B1 (ko) 컴퓨터그래픽 툴에 의한 캐릭터 모델링 기반 3d 디지털액터 영상 구현방법
JPH10307930A (ja) アニメーション作成システム
KR101560354B1 (ko) 3d 디지털 캐릭터 생성을 위한 복합 편집 시스템 및 방법
KR20070025384A (ko) 춤추는 아바타를 생성하는 방법 및 서버와 춤추는 아바타를이용한 응용 서비스 제공 방법
US9299180B2 (en) Image creation method, image creation apparatus and recording medium
JPH10312469A (ja) アニメーション作成システム
JP2005228297A (ja) 実物キャラクター型動画像情報物の制作方法,実物キャラクター型動画像情報物の再生方法,記録媒体
KR100885996B1 (ko) 대규모 가상 군중 동작의 획득 및 편집 방법 및 그 장치
JPH11133987A (ja) 振り付け動画表示に特徴を有するカラオケ装置
JPH117539A (ja) アニメーション作成装置およびアニメーション作成方法
JP5906897B2 (ja) 動き情報生成方法、動き情報生成装置及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080718

A02 Decision of refusal

Effective date: 20081111

Free format text: JAPANESE INTERMEDIATE CODE: A02