JP2007018388A - モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム - Google Patents

モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム Download PDF

Info

Publication number
JP2007018388A
JP2007018388A JP2005200922A JP2005200922A JP2007018388A JP 2007018388 A JP2007018388 A JP 2007018388A JP 2005200922 A JP2005200922 A JP 2005200922A JP 2005200922 A JP2005200922 A JP 2005200922A JP 2007018388 A JP2007018388 A JP 2007018388A
Authority
JP
Japan
Prior art keywords
motion
music
component
predetermined
motions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005200922A
Other languages
English (en)
Inventor
Katsushi Ikeuchi
克史 池内
Takaaki Shiratori
貴亮 白鳥
Atsushi Nakazawa
篤志 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Kansai Technology Licensing Organization Co Ltd
University of Tokyo NUC
Original Assignee
Osaka University NUC
Kansai Technology Licensing Organization Co Ltd
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Kansai Technology Licensing Organization Co Ltd, University of Tokyo NUC filed Critical Osaka University NUC
Priority to JP2005200922A priority Critical patent/JP2007018388A/ja
Publication of JP2007018388A publication Critical patent/JP2007018388A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】音楽にあったモーションをリアルタイムに作成する。
【解決手段】人体画像の複数のモーションを手の止め動作を示すキーフレーム成分と手の動きの盛り上がりを示す動き盛り上がり成分とを関連付けてモーショングラフとしてデータベースに登録しておく。そして、音楽データを入力すると共にそれを解析して音楽のコード変化が生じるビート時刻を抽出してビート特徴成分を設定すると共に音楽に盛り上がりが生じる部分を抽出して音楽盛り上がり成分を設定し、モーショングラフ上の選択可能なパスの中からビート特徴成分とキーフレーム成分との相関値が高いN個のパスを選択し(S300,S310)、選択したN個のパスの中から音楽盛り上がり成分と動き盛り上がり成分との相関値が最大のパスを実行パスに設定して(S320,S330)、ディスプレイに表示出力する。この結果、音楽にあったモーションをリアルタイムに作成できる。
【選択図】 図10

Description

本発明は、音楽にあわせて対象物または対象画像のモーションを作成するモーション作成装置およびモーション作成方法並びにこれらに用いるプログラムに関する。
近年、コンピュータの高性能化に伴って人体アニメーションを自動的に作成する試みが世界各地で行なわれている。人体アニメーションを作成する手法としては、ダイナミクスシミュレーションによって動作を生成するものや複数のモーションキャプチャーデータを連結して動作を生成するものなどが知られている。
ところで、音楽を聞いてそれにあわせて踊る能力は人に備わった能力である。その際、舞踊者は音楽にあわせて全くゼロの状態から動きを生成しているわけではなく、既存の複数の動きを組み合わせて新たな動きを生成していると考えられる。したがって、上述したモーションキャプチャーデータから複数のモーションパターンを予め作成してデータベースに記憶しておけば、音楽を入力すると共にそれを解析し、解析結果に基づいてデータベースから音楽にあった最適なモーションパターンを選択することによりあたかも音楽を聞きながら人が踊っているかのような人体アニメーションをリアルタイムに作成することも可能となる。ここで、音楽を解析する手法としては、発音成分やそれに関連するパワーの変化などを用いる手法や、発音成分だけではなくコードの変化や打楽器の発音時刻も推定してビート間隔のみならずビート構造の把握も可能な手法(非特許文献1参照)など様々な手法が提案されている。
M.Goto, An Audio-based Real-time Beat Tracking System for Music With or Without Drum-sounds, Journal or New Music Research,Vol.30,No.2,pp.159-171(2001).
しかしながら、音楽を解析してその特徴を把握したとしても、音楽の特徴にあった動きを選択しなければならないから、モーション(動き)の特徴を解明すると共に音楽の特徴とモーションの特徴との関係を明らかにする必要があり、音楽にあった違和感のない自然なモーションを作成することは必ずしも容易なことではない。こうした問題は、人体アニメーションを作成するものに限られず、たとえば人体ロボットのモーションを作成する場合にも同様の問題として考えることができる。
本発明のモーション作成装置およびモーション作成方法並びにこれらに用いるプログラムは、対象物や対象画像を音楽にあったモーションでより適切に動作させることを目的の一つとする。また、本発明のモーション作成装置およびモーション作成方法並びにこれらに用いるプログラムは、対象物や対象画像を音楽の盛り上がりの程度にあったモーションでより適切に動作させることを目的の一つとする。
本発明のモーション作成装置およびモーション作成方法並びにこれらに用いるプログラムは、上述の目的の少なくとも一部を達成するために以下の手段を採った。
本発明のモーション作成装置は、
音楽にあわせて対象物または対象画像のモーションを作成するモーション作成装置であって、
前記対象物または対象画像の複数のモーションと少なくとも該複数のモーションが各々もつ動きのリズムに関する成分を含む所定の動き特徴成分とを関連付けて記憶する記憶手段と、
音楽データを入力する音楽データ入力手段と、
該入力された音楽データに基づいて少なくとも音楽のリズムに関する成分を含む所定の音楽特徴成分を推定する音楽特徴成分推定手段と、
前記記憶手段に記憶されている複数のモーションのうち、前記推定された音楽特徴成分と相関を有する前記動き特徴成分をもつモーションを選択するモーション選択手段と、
該選択されたモーションを前記対象物または対象画像のモーションとして出力するモーション出力手段と、
を備えることを要旨とする。
この本発明のモーション作成装置では、対象物や対象画像の複数のモーションと少なくともその複数のモーションが各々もつ動きのリズムに関する成分を含む所定の動き特徴成分とを関連付けて記憶しておき、音楽データを入力し、入力された音楽データに基づいて少なくとも音楽のリズムに関する成分を含む所定の音楽特徴成分を推定し、記憶されている複数のモーションのうち推定された音楽特徴成分と相関を有する動き特徴成分をもつモーションを選択し、選択されたモーションを対象物や対象画像のモーションとして出力する。したがって、音楽のリズムと動きのリズムとが相関するモーションで対象物や対象画像を動作させることができる。この結果、音楽にあわせて対象物や対象画像をより適切に動作させることができる。ここで、「対象物」には、人体ロボットや人以外の動物型のロボット,その他のキャラクターロボットなどが含まれ、「対象画像」には、人体画像や人以外の動物画像,その他のキャラクター画像などが含まれる。
こうした本発明のモーション作成装置において、前記対象物または対象画像は、人体ロボットまたは人体画像であり、前記記憶手段は、前記動きのリズムに関する成分として前記人体ロボットまたは人体画像における所定部位の所定の止め動作成分を前記複数のモーションに関連付けて記憶する手段であり、前記音楽特徴成分推定手段は、前記音楽のリズムに関する成分としてビートタイミングを推定する手段であり、前記モーション選択手段は、前記記憶手段に記憶されている複数のモーションのうち、前記所定の止め動作成分が生じるタイミングが前記推定されたビートタイミングに一致する傾向にあるモーションを選択する手段であるものとすることもできる。これは、所定部位の止めの動作が生じるタイミングがビートタイミングにあわせて出現する傾向にあることが確かめられたことに基づく。ここで、「人体ロボットまたは人体画像の所定部位」は、手部または腕部であるものとすることもできる。この態様の本発明のモーション作成装置において、前記音楽特徴成分推定手段は、前記音楽のリズムに関する成分として、音楽のコードに変化が生じるビートタイミングを推定する手段であり、前記モーション選択手段は、前記記憶手段に記憶されている複数のモーションのうち、前記所定の止め動作成分が生じるタイミングが前記推定されたコードに変化が生じるビートタイミングに一致する傾向にあるモーションを選択する手段であるものとすることもできる。これは、特に、所定部位の止めの動作が生じるタイミングが音楽のコードに変化が生じるビートタイミングにあわせて出現する傾向にあることが確かめられたことに基づく。これらの場合、前記所定の止め動作成分は、前記人体ロボットまたは人体画像における所定部位の動作速度が極小近傍となるタイミングで生じるよう予め定められた成分であるものとすることもできる。
また、本発明のモーション作成装置において、前記対象物または対象画像は、人体ロボットまたは人体画像であり、前記記憶手段は、前記所定の動き特徴成分として前記人体ロボットまたは人体画像における所定部位の動きの盛り上がりに関する所定の動き盛り上がり成分を前記複数のモーションに関連付けて記憶する手段であり、前記音楽特徴成分推定手段は、前記所定の音楽特徴成分として音楽の盛り上がりに関する音楽盛り上がり成分を推定する手段であり、前記モーション選択手段は、前記記憶手段に記憶されている複数のモーションのうち、前記推定された音楽盛り上がり成分と相関を有する前記動き盛り上がり成分をもつモーションを選択する手段であるものとすることもできる。こうすれば、音楽が盛り上がっているときとそうでないときとで異なるモーションを選択するから、音楽の盛り上がりにあったモーションで人体ロボットや人体画像をより適切に動作させることができる。この場合、前記所定の動き盛り上がり成分は、前記人体ロボットまたは人体画像における所定部位の動作速度が大きくなるタイミングで生じるよう予め定められた成分であるものとすることもできる。これらの場合、前記音楽特徴成分推定手段は、前記入力された音楽データをスペクトル解析して得られる所定周波数領域におけるスペクトルパワーの大きさに基づいて前記音楽盛り上がり成分を推定する手段であるものとすることもできる。こうすれば、より正確に音楽盛り上がり成分が生じているか否かを推定することができる。
本発明のモーション作成方法は、
対象物または対象画像の複数のモーションと少なくとも該複数のモーションが各々もつ動きのリズムを含む所定の動き特徴成分とを関連付けて記憶する記憶手段を備えて音楽にあわせて前記対象物または対象画像のモーションを作成するモーション作成装置に用いられるモーション作成方法であって、
(a)音楽データを入力し、
(b)該入力された音楽データに基づいて少なくとも音楽のリズムを含む所定の音楽特徴成分を推定し、
(c)前記記憶手段に記憶されている複数のモーションのうち、前記推定された音楽特徴成分と相関を有する前記動き特徴成分をもつモーションを選択し、
(d)該選択されたモーションを前記対象物または対象画像のモーションとして出力する
ことを要旨とする。
この本発明のモーション作成方法によれば、対象物や対象画像の複数のモーションと少なくともその複数のモーションが各々もつ動きのリズムに関する成分を含む所定の動き特徴成分とを関連付けて記憶しておき、音楽データを入力し、入力された音楽データに基づいて少なくとも音楽のリズムに関する成分を含む所定の音楽特徴成分を推定し、記憶されている複数のモーションのうち推定された音楽特徴成分と相関を有する動き特徴成分をもつモーションを選択し、選択されたモーションを対象物や対象画像のモーションとして出力する。したがって、音楽のリズムと動きのリズムとが相関するモーションで対象物や対象画像を動作させることができる。この結果、音楽にあわせて対象物や対象画像をより適切に動作させることができる。
本発明のプログラムは、
対象物または対象画像の複数のモーションと少なくとも該複数のモーションが各々もつ動きのリズムを含む所定の動き特徴成分とを関連付けて記憶する記憶手段を備えるコンピュータを、音楽にあわせて前記対象物または対象画像のモーションを作成するモーション作成装置として機能させるプログラムであって、
音楽データを入力し、該入力された音楽データに基づいて少なくとも音楽のリズムを含む所定の音楽特徴成分を推定し、前記記憶手段に記憶されている複数のモーションのうち、前記推定された音楽特徴成分と相関を有する前記動き特徴成分をもつモーションを選択し、該選択されたモーションを前記対象物または対象画像のモーションとして出力することを特徴とする。
この本発明のプログラムでは、このプログラムをコンピュータにインストールすると共に起動することにより、コンピュータを上述したモーション作成装置として機能させることができる。即ち、対象物や対象画像の複数のモーションと少なくともその複数のモーションが各々もつ動きのリズムに関する成分を含む所定の動き特徴成分とを関連付けて記憶しておき、音楽データを入力し、入力された音楽データに基づいて少なくとも音楽のリズムに関する成分を含む所定の音楽特徴成分を推定し、記憶されている複数のモーションのうち推定された音楽特徴成分と相関を有する動き特徴成分をもつモーションを選択し、選択されたモーションを対象物や対象画像のモーションとして出力する。したがって、音楽のリズムと動きのリズムとが相関するモーションで対象物や対象画像を動作させることができる。この結果、音楽にあわせて対象物や対象画像をより適切に動作させることができる。
次に、本発明を実施するための最良の形態を実施例を用いて説明する。
図1は、本発明の一実施形態としてのモーション作成装置20の構成の概略を示す構成図である。実施例のモーション作成装置20は、図示するように、汎用のコンピュータにモーション作成処理用のプログラムをインストールすると共に起動することにより図示しないCPUやROM,RAM,入出力ポートなどのハードウエアとソフトウエアとが一体となって機能するものとして構成されており、その機能ブロックとしては、音楽データを入力する音楽データ入力部22と、入力した音楽データを解析する処理を行なう音楽データ解析部24と、音楽データの解析結果に基づいて人体画像のモーションを作成する処理を行なうモーション作成処理部26と、作成したモーションで人体画像が動作するようディスプレイ21に表示する処理を行なう表示処理部28と、人体画像の複数のモーションをモーショングラフとして登録するモーションデータベース(以下、モーションDBと呼ぶ)30とを備える。なお、実施例のモーション作成装置20は、汎用のコンピュータとして構成されているから、キーボードやマウスなどの入力部なども備えているがそれらの図示については省略した。
図2は、人体画像の一フレームを構成する人体モデルの一例を示す説明図である。人体モデルは、図示するように、人体の向きを示すベクトルR(={rx,ry,rz})と人体の空間上の位置を示すベクトルt(={tx,ty,tz})と人体の腰(waist)を中心とした体中心座標系{R,t}における人体モデルの各要素を連結するリンクの向きを示す17個の姿勢ベクトル(単位ベクトル)v0〜v16と各リンクの長さを示す9個のスカラー値l0〜l8とからなる人体姿勢S(f)(fはフレーム番号)として構成されている(次式(1)〜(3)参照)。ここで、体中心座標系{R,t}は、腰(waist)の位置を原点としてz軸が腰から腹部へ向かう方向,y軸が正面方向,x軸がz軸およびy軸に直交する方向となるよう定めた。また、スカラー値l0〜l8を9個としているのは右腕v1,v2,v3と左腕v5,v6,v7の長さや右手v4と左手v8の長さ,右足v9,v10,v11,v12と左足v13,v14,v15,v16の長さを左右同一としたためである。
図3は、モーションDB30に登録されるモーショングラフの一例を示す説明図である。モーショングラフは、図示するように、モーションキャプチャーにより取り込まれた複数のモーションデータ(図中にはモーションデータ1〜6と表示)上の各フレームのうち人体姿勢S(f)が互いに類似する2つのフレーム(ノード)間を連結した有向性グラフとして構成されている。人体姿勢S(f)が互いに類似するフレーム間の連結は、例えば、モーションデータ1〜6上の任意の2つのフレームに対して次式(4)により相関値を計算し、計算した相関値がしきい値よりも大きいものを人体姿勢SA(fA),SB(fB)が類似しているフレームfA,fBとして決定し、決定した2つのフレームfA,fB間を次式(5)を含む三次補間の関係式を用いて生成されるフレームによって連結することにより行なうことができる。ここで、式(4)中の右辺第1項は2つのフレームfA,fB間の姿勢ベクトルv(fA),v(fB)(iは姿勢ベクトルの番号)の相関を示し、右辺第2項は2つのフレームfA,fB間の姿勢ベクトルv(fA),v(fB)の微分(動き)の相関を示す。なお、「αi」「βi」は、定数である。また、式(5)中の「T」は遷移時間(フレームfA,fB間に挿入するフレーム数)を示す。式(5)では、姿勢ベクトルv(fA),v(fB)についてのみ記述したが、ベクトルRやベクトルtについても同様の三次補間の関係式を用いることによりフレームfA,fB間を連結するためのフレームを生成することができる。こうしてモーショングラフを構築すると、モーショングラフ上のノード間を遷移することによりあらゆるパターンのモーションを少ないデータ量で実現することができる。
また、モーショングラフは、フレーム毎にキーフレーム成分MCkeyframeと動き盛り上がり成分MCintensityとが関連付けられてモーションDB30に登録されている。ここで、キーフレーム成分MCkeyframeは、右手v4,左手v8の動作速度が極小となるフレームをキーフレームf,f(i,jはキーフレームの番号)としてそれぞれ登録しておき、フレームfに対してキーフレームfの時刻を中心とした時間幅Kをもたせたガウス関数を適用して得られる値と、フレームfに対して同様にキーフレームfの時刻を中心とした時間幅Kをもたせたガウス関数を適用して得られる値とを足し合わせたものを設定するものとした(次式(6)参照)。なお、式(6)中の「σ」は分散を示す。キーフレーム成分MCkeyframeを設定する様子の一例を図4に示す。図示するように、キーフレーム成分MCkeyframeは、キーフレームf,fに近いフレームfほど値が大きくなるよう設定され、その値が大きいほど後述する音楽のリズム(ビート特徴成分ASCbeat)との相関が大きく現われる。これは、踊りの中で手の動きが止まる場面(止め動作)は音楽のリズムにあわせて出現される傾向があることが出願人によって確認されたことに基づく。なお、キーフレーム成分MCkeyframeに時間的な幅Kをもたせているのは、人は音楽のリズムに完全にあわせて踊っているわけではなく、ある程度のズレが生じることがあることを考慮したものである。また、動き盛り上がり成分MCintensityは、フレームfに対して隣接するキーフレームf,f間の中央時刻を中心としてキーフレームf,f間の時間幅をもたせたガウス関数を適用して得られる値と、フレームfに対して同様に隣接するキーフレームf,f間の中央時刻を中心としてキーフレームf,f間の時間幅をもたせたガウス関数を適用して得られる値とを足し合わせたものを設定するものとした(次式(7)参照)。なお、式(7)中の「v(i)」は隣接するキーフレームf,f間における右手v4の最大速度を示し、「v(i)」は左手v8において隣接するキーフレームf,f間における左手v8の最大速度を示す。動き盛り上がり成分MCintensityを設定する様子の一例を図5に示す。図示するように、動き盛り上がり成分MCintensityは、隣接するキーフレームf,f間の中央時刻(フレーム),隣接するキーフレームf,f間の中央時刻(フレーム)に近いフレームfほど値が大きくなり且つ隣接するキーフレームf,f間における右手v4の最大速度v(i),隣接するキーフレームf,f間における左手v8の最大速度v(i)が大きいほど大きくなるよう設定され、後述する音楽盛り上がり成分ASCintensityとの相関が大きく現われる。これは、音楽が盛り上がっているときには手も速く動かされており、そうでないときには手もゆっくりとしか動かされていないことが出願によって確認されたことに基づく。
次に、こうして構成された実施例のモーション作成装置20の動作について説明する。図6は、実施例のモーション作成装置20により実行されるメインルーチンの一例を示すフローチャートである。このルーチンは、操作者によりモーション作成開始の指示がなされたときに所定時間毎(例えば3秒毎)に繰り返し実行される。
メインルーチンが実行されると、モーション作成装置20のCPUは、まず、音楽データを入力する(ステップS100)。音楽データは、WAVEデータやMIDIデータなどの他の如何なる形式のデータを入力するものとしてもよい。また、音楽データは、音楽CDなどの記録媒体からデータを直接読み込むことにより入力するものとしてもよいし、演奏されている音楽をマイクから取り込むことにより入力するものとしてもよい。続いて、入力した音楽データを解析し(ステップS110)、その解析結果に基づいてモーションDB30のモーショングラフから実行パスPathexec(モーショングラフ上の軌跡)を選択することによりモーションを作成し(ステップS120)、作成したモーションをディスプレイ21に表示出力する(ステップS130)。こうしたステップS100〜S130の処理を音楽が終了するまで繰り返し実行して(ステップS140)、本ルーチンを終了する。
ステップS110における音楽データの解析は、実施例では、図7に例示する音楽データ解析処理により実行される。音楽データ解析処理は、まず、入力した音楽データをスペクトル解析する(ステップS200)。スペクトル解析は、実施例では、窓関数として音楽データの処理に適していると言われているガウス関数を用いてフーリエ変換することにより行なうものとした。これにより、時間成分t毎,周波数成分f毎のスペクトルパワーp(t,f)が導出される。
続いて、スペクトル解析の結果に基づいて入力した音楽のビート間隔とビート時刻とを推定する(ステップS210)。ビート間隔の推定は、次式(8)により時間成分t毎,周波数成分f毎のスペクトルパワー増分d(t,f)を算出し、次式(9)により全ての周波数成分におけるスペクトルパワー増分d(t,f)を合計してスペクトルパワー増分D(t)を算出し、式(10)によりスペクトルパワー増分D(t)の自己相関関数RDD(τ)を求めてそれが最初にピークを示すときの時間τ_peakを抽出することにより推定することができる。図8に、スペクトルパワー増分d(t,f)を算出する様子を示す。なお、式(8)において前回スペクトルパワーPrevPowに対象とする周波数fの上下(f±1)のスペクトルパワーも含めているのは、ある音が発音されているときに必ずしも一定の音程で発音されるわけではなく多少音程が上下することを考慮したことに基づく。式(10)に示す自己相関関数RDD(τ)は、最初にピークが到来する時間τ_peakがスペクトルパワー増分D(t)の周期をあらわすから、この時間τ_peakは発音間隔をあらわし、これをビート間隔とみなすことができる。ビート時刻の推定は、実施例では、まず、推定したビート間隔を周期としたパルスを発生するパルス列P(t)を設定し、次式(11)によりパルス列P(t)と上述したスペクトルパワーの増分D(t)との相互相関関数RDP(τ)を求めてそれが最初にピークを示すときの時間τ_peakを抽出し、この時間τ_peakを仮のビート時刻として設定する。式(11)に示す相互相関関数RDP(τ)では、最初にピークが到来する時間τ_peakだけパルス列P(t)をずらしたパルス列P(t+τ_peak)がスペクトルパワーの増分D(t)と類似することを意味するから、この時間τ_peakによりある程度のビート時刻を把握することができる。そして、設定した仮のビート時刻を中心とした所定時間幅(例えばビート間隔の1/10程度の時間幅)でのスペクトルパワー増分D(t,f)のピークを抽出し、そのピークを示すときの時刻をビート時刻として設定することによりより正確なビート時刻を把握することができる。
こうしてビート時刻を推定すると、ビート時刻tから次のビート時刻t+1までの周波数成分のヒストグラムPhist(t,f)を設定する(ステップS220)。実施例では、周波数成分f毎にビート時刻tから次のビート時刻t+1まで即ち一拍間を積分区間としてスペクトルパワーp(t,f)を時間積分し、その積分値を周波数成分の順に並べたときの積分値のピークを抽出し、抽出したピークをその周波数成分f,ビート時刻tにおけるヒストグラムPhist(t,f)として設定するものとした。周波数成分のヒストグラムPhist(t,f)の一例を図9に示す。
周波数成分のヒストグラムPhist(t,f)を設定すると、設定したヒストグラムPhist(t,f)に基づいてビート特徴成分ASCbeat(t)を設定する(ステップS230)。ビート特徴成分ASCbeat(t)の設定は、次式(12)および次式(13)を用いて行なわれる。即ち、周波数成分f毎に式(12)により連続するビート時刻t,t+1における周波数成分のヒストグラムPhist(t,f),Phist(t+1,f)の差分Pdiff(t,f)をとり、これを式(13)により周波数成分0〜1kHzに亘って合計したものをビート特徴成分ASCbeat(t)として設定するものとした。通常、音楽のコードが変わる時刻で小節線(拍節の区切れ)が現われる可能性が高く、また、コードが変わるときには周波数成分が大きく変化しコードが変わらないときには周波数成分もほとんど変化がないことが知られている。したがって、周波数成分のヒストグラムPhist(t,f)の時間的な変化の度合いとして算出されるビート特徴成分ASCbeat(t)は、ビート時刻tにおけるコードの変化度として考えることができる。
ビート特徴成分ASCbeat(t)を設定すると、上述した周波数成分のヒストグラムPhist(t,f)に基づいて音楽盛り上がり成分ASCintensity(t)を設定して(ステップS240)、本ルーチンを終了する。音楽盛り上がり成分ASCintensity(t)の設定は、式(14)を用いて行なわれる。式(14)では、可聴領域のメロディラインが400〜600Hz程度と考えられることから、その倍音成分も考慮して周波数成分のヒストグラムPhist(t,f)を400〜1500Hzにわたって合計したものを音楽盛り上がり成分ASCintensity(t)に設定するものとした。音楽盛り上がり成分ASCintensity(t)を周波数成分のヒストグラムPhist(t,f)に基づいて設定するのは、一般に音楽が盛り上がるにつれて楽曲のメロディーラインのスペクトルパワーも大きくなることに基づく。
ステップS120におけるモーション作成処理は、図10に例示するモーション作成処理により実行される。モーション作成処理では、まず、モーショングラフ上の現在のポイントから選択可能なパスPathに沿って現在のビート時刻tからT時間後(実施例では3秒すなわちフレームレートを120Hzとすると360フレーム分)までに亘ってビート特徴成分ASCbeat(t+τ)(0≦τ≦T)と上述したキーフレーム成分MCkeyframeとの相関値MatchEvalbeatを次式(15)を用いて計算し(ステップS300)、選択可能なパスPathの中から相関値MatchEvalbeatが大きい順にN個(例えば5個)のパスPathbeatを選択する処理を行なう(ステップS310)。この処理は、相関値MatchEvalbeatがビート特徴成分ASCbeat(t)が生じるポイントとキーフレーム成分MCkeyframeが生じるポイントとが一致するほど大きな値として計算されることから、音楽のコード変化が生じるビート時刻で手の動きが止まる場面(止め動作)が生じるようにパスPathbeatを選択する処理と言える。
こうしてN個のパスPathbeatを選択すると、N個のパスPathbeat毎に音楽盛り上がり成分ASCintensity(t+τ)と上述した動き盛り上がり成分MCintensity(t+τ)との相関値を次式(16)により計算すると共に(ステップS320)、選択したN個のパスPathbeatのうち計算した相関値が最も大きいパスを実行パスPathexecに設定して(ステップS330)、本ルーチンを終了する。
図11に、実施例のモーション作成装置20の実行例を示す。この例では、モーショングラフに関しては、光学式モーションキャプチャーを用いて人体に取り付けられた33個のマーカの位置データを120Hzのサンプリングレートで取り込んで図2に例示する人体モデルに変換したものを用いた。また、音楽データに関しては、44100Hzのサンプリングレートに設定して音楽CDからWAVEデータに変換したものを用いた。さらに、音楽データの周波数成分への変換は、ガウス関数を窓関数としその大きさは1024サンプル,シフト数は256サンプルにて行なった。図11の例では、曲名「La Bamba」を用いて実験を行なったが、音楽に良好にマッチするモーションがリアルタイムに作成されていることを確認した。
以上説明した実施例のモーション作成装置20によれば、人体画像のモーションを構成する各フレームをキーフレーム成分MCkeyframeに関連付けてモーションDB30に登録し、音楽データを入力すると共に入力した音楽データを解析してビート特徴成分ASCbeatを抽出し、抽出したビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが大きいパスPathbeatを選択してモーションを作成して表示出力するから、音楽のリズムにあったより適切なモーションをリアルタイムに作成することができる。しかも、キーフレーム成分MCkeyframeに加えて動き盛り上がり成分MCintensityも各フレームに関連付けてモーションDB30に登録し、入力した音楽データから音楽盛り上がり成分ASCintensityを抽出して動き盛り上がり成分MCintensityと音楽盛り上がり成分ASCintensityとの相関値が最も大きいパスを選択するから、音楽に盛り上がりの大小にも対応したモーションを作成することができる。
実施例のモーション作成装置20では、ビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが大きいN個のパスPathbeatの中から、音楽盛り上がり成分ASCintensityと動き盛り上がり成分MCintensityとの相関値が最も大きいパスを実行パスPathexecに設定するものとしたが、音楽の盛り上がりに関係なく、ビート特徴成分ASCbeatとキーフレーム成分MCkeyframeとの相関値MatchEvalbeatが最も大きいパスを実行パスPathexecに設定するものとしてもよい。
実施例のモーション作成装置20では、音楽のコードに変化が生じるビート時刻が到来するときにキーフレーム成分MCkeyframeとの相関が大きく現われるようにビート特徴成分ASCbeatを設定するものとしたが、コード変化に関係なく、単にビート時刻が到来するときに値がキーフレーム成分MCkeyframeとの相関が大きく現われるようにビート特徴成分ASCbeatを設定するものとしてもよいし、ビートの特徴を示す他の如何なるパラメータを用いてビート特徴成分ASCbeatを設定するものとしてもよい。
実施例のモーション作成装置20では、手v4,v8の動作速度に基づいてキーフレーム成分MCkeyframeや動き盛り上がり成分MCintensityを設定するものとしたが、手v4,v8に限られず腕v1〜v3,v5〜v7の動作速度に基づいてキーフレーム成分MCkeyframeや動き盛り上がり成分MCintensityを設定するものとしてもよいし、さらに他の部位の動作速度も考慮するものとしてもよい。
実施例のモーション作成装置20では、人体画像のモーション(アニメーション)を作成するものとしたが、人体画像に限られず、人体ロボットのモーションの作成に適用するものとしてもよい。また、犬や猫などの人以外の動物画像やその他のアニメキャラクター画像のモーションの作成に適用するものとしても差し支えないし、犬や猫などの人以外の動物型のロボットやその他のキャラクターロボットのモーションの作成に適用するものとしても差し支えない。なお、画像によりモーションを作成する場合、用いる画像は二次元画像であってもよいし三次元画像であってもよい。
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々なる形態で実施し得ることは勿論である。
本発明は、アニメーション産業やロボット産業に利用可能である。
本発明の一実施形態としてのモーション作成装置20の構成の概略を示す構成図である。 人体モデルの一例を示す説明図である。 モーショングラフの一例を示す説明図である。 キーフレーム成分MCkeyframeを設定する様子の一例を示す説明図である。 動き盛り上がり成分MCintensityを設定する様子の一例を示す説明図である。 実施例のモーション作成装置20により実行されるメインルーチンの一例を示すフローチャートである。 音楽データ解析処理の一例を示すフローチャートである。 スペクトルパワー増分d(t,f)を算出する様子を示す説明図である。 周波数成分のヒストグラムPhist(t,f)の一例を示す説明図である。 モーション作成処理の一例を示すフローチャートである。 実施例のモーション作成装置20の実行例を示す説明図である。
符号の説明
20 モーション作成装置、21 ディスプレイ、22 音楽データ入力部、24 音楽データ解析処理部、26 モーション作成処理部、28 表示処理部、30 モーションデータベース(モーションDB)。

Claims (10)

  1. 音楽にあわせて対象物または対象画像のモーションを作成するモーション作成装置であって、
    前記対象物または対象画像の複数のモーションと少なくとも該複数のモーションが各々もつ動きのリズムに関する成分を含む所定の動き特徴成分とを関連付けて記憶する記憶手段と、
    音楽データを入力する音楽データ入力手段と、
    該入力された音楽データに基づいて少なくとも音楽のリズムに関する成分を含む所定の音楽特徴成分を推定する音楽特徴成分推定手段と、
    前記記憶手段に記憶されている複数のモーションのうち、前記推定された音楽特徴成分と相関を有する前記動き特徴成分をもつモーションを選択するモーション選択手段と、
    該選択されたモーションを前記対象物または対象画像のモーションとして出力するモーション出力手段と、
    を備えるモーション作成装置。
  2. 請求項1記載のモーション作成装置であって、
    前記対象物または対象画像は、人体ロボットまたは人体画像であり、
    前記記憶手段は、前記動きのリズムに関する成分として前記人体ロボットまたは人体画像における所定部位の所定の止め動作成分を前記複数のモーションに関連付けて記憶する手段であり、
    前記音楽特徴成分推定手段は、前記音楽のリズムに関する成分としてビートタイミングを推定する手段であり、
    前記モーション選択手段は、前記記憶手段に記憶されている複数のモーションのうち、前記所定の止め動作成分が生じるタイミングが前記推定されたビートタイミングに一致する傾向にあるモーションを選択する手段である
    モーション作成装置。
  3. 請求項2記載のモーション作成装置であって、
    前記音楽特徴成分推定手段は、前記音楽のリズムに関する成分として、音楽のコードに変化が生じるビートタイミングを推定する手段であり、
    前記モーション選択手段は、前記記憶手段に記憶されている複数のモーションのうち、前記所定の止め動作成分が生じるタイミングが前記推定されたコードに変化が生じるビートタイミングに一致する傾向にあるモーションを選択する手段である
    モーション作成装置。
  4. 前記所定の止め動作成分は、前記人体ロボットまたは人体画像における所定部位の動作速度が極小近傍となるタイミングで生じるよう予め定められた成分である請求項2または3記載のモーション作成装置。
  5. 請求項1ないし4いずれか記載のモーション作成装置であって、
    前記対象物または対象画像は、人体ロボットまたは人体画像であり、
    前記記憶手段は、前記所定の動き特徴成分として前記人体ロボットまたは人体画像における所定部位の動きの盛り上がりに関する所定の動き盛り上がり成分を前記複数のモーションに関連付けて記憶する手段であり、
    前記音楽特徴成分推定手段は、前記所定の音楽特徴成分として音楽の盛り上がりに関する音楽盛り上がり成分を推定する手段であり、
    前記モーション選択手段は、前記記憶手段に記憶されている複数のモーションのうち、前記推定された音楽盛り上がり成分と相関を有する前記動き盛り上がり成分をもつモーションを選択する手段である
    モーション作成装置。
  6. 前記所定の動き盛り上がり成分は、前記人体ロボットまたは人体画像における所定部位の動作速度が大きくなるタイミングで生じるよう予め定められた成分である請求項5記載のモーション作成装置。
  7. 前記音楽特徴成分推定手段は、前記入力された音楽データをスペクトル解析して得られる所定周波数領域におけるスペクトルパワーの大きさに基づいて前記音楽盛り上がり成分を推定する手段である請求項5または6記載のモーション作成装置。
  8. 前記人体ロボットまたは人体画像の所定部位は、手部または腕部である請求項2ないし7いずれか記載のモーション作成装置。
  9. 対象物または対象画像の複数のモーションと少なくとも該複数のモーションが各々もつ動きのリズムを含む所定の動き特徴成分とを関連付けて記憶する記憶手段を備えて音楽にあわせて前記対象物または対象画像のモーションを作成するモーション作成装置に用いられるモーション作成方法であって、
    (a)音楽データを入力し、
    (b)該入力された音楽データに基づいて少なくとも音楽のリズムを含む所定の音楽特徴成分を推定し、
    (c)前記記憶手段に記憶されている複数のモーションのうち、前記推定された音楽特徴成分と相関を有する前記動き特徴成分をもつモーションを選択し、
    (d)該選択されたモーションを前記対象物または対象画像のモーションとして出力する
    モーション作成方法。
  10. 対象物または対象画像の複数のモーションと少なくとも該複数のモーションが各々もつ動きのリズムを含む所定の動き特徴成分とを関連付けて記憶する記憶手段を備えるコンピュータを、音楽にあわせて前記対象物または対象画像のモーションを作成するモーション作成装置として機能させるプログラムであって、
    音楽データを入力し、該入力された音楽データに基づいて少なくとも音楽のリズムを含む所定の音楽特徴成分を推定し、前記記憶手段に記憶されている複数のモーションのうち、前記推定された音楽特徴成分と相関を有する前記動き特徴成分をもつモーションを選択し、該選択されたモーションを前記対象物または対象画像のモーションとして出力することを特徴とするプログラム。
JP2005200922A 2005-07-08 2005-07-08 モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム Pending JP2007018388A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005200922A JP2007018388A (ja) 2005-07-08 2005-07-08 モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005200922A JP2007018388A (ja) 2005-07-08 2005-07-08 モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム

Publications (1)

Publication Number Publication Date
JP2007018388A true JP2007018388A (ja) 2007-01-25

Family

ID=37755490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005200922A Pending JP2007018388A (ja) 2005-07-08 2005-07-08 モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム

Country Status (1)

Country Link
JP (1) JP2007018388A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310138A (ja) * 2007-06-15 2008-12-25 Toshiba Corp シーン分類装置
JP2010044484A (ja) * 2008-08-11 2010-02-25 Kddi Corp 映像コンテンツ生成装置及びコンピュータプログラム
KR100953369B1 (ko) 2007-11-28 2010-04-20 인스티튜트 포 인포메이션 인더스트리 실시간으로 가상 인물의 응답 움직임을 동적으로 생성하기 위한 장치 및 방법과, 그에 대한 컴퓨터 판독가능 기록 매체
JP2010134790A (ja) * 2008-12-05 2010-06-17 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2010157061A (ja) * 2008-12-26 2010-07-15 Kddi Corp 多次元時系列データ分析装置及びコンピュータプログラム
US20100290538A1 (en) * 2009-05-14 2010-11-18 Jianfeng Xu Video contents generation device and computer program therefor
JP2011204113A (ja) * 2010-03-26 2011-10-13 Kddi Corp 映像コンテンツ生成システム、メタデータ構築装置、映像コンテンツ生成装置、携帯端末、映像コンテンツ配信装置及びコンピュータプログラム
JP2012083862A (ja) * 2010-10-07 2012-04-26 Kddi Corp 映像コンテンツ生成システム、映像コンテンツ生成装置及びコンピュータプログラム
US20120237186A1 (en) * 2011-03-06 2012-09-20 Casio Computer Co., Ltd. Moving image generating method, moving image generating apparatus, and storage medium
JP2012212245A (ja) * 2011-03-30 2012-11-01 Kddi Corp 映像コンテンツ生成装置およびコンピュータプログラム
JP2020123277A (ja) * 2019-01-31 2020-08-13 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310138A (ja) * 2007-06-15 2008-12-25 Toshiba Corp シーン分類装置
KR100953369B1 (ko) 2007-11-28 2010-04-20 인스티튜트 포 인포메이션 인더스트리 실시간으로 가상 인물의 응답 움직임을 동적으로 생성하기 위한 장치 및 방법과, 그에 대한 컴퓨터 판독가능 기록 매체
JP2010044484A (ja) * 2008-08-11 2010-02-25 Kddi Corp 映像コンテンツ生成装置及びコンピュータプログラム
US8706274B2 (en) 2008-12-05 2014-04-22 Sony Corporation Information processing apparatus, information processing method, and program
JP2010134790A (ja) * 2008-12-05 2010-06-17 Sony Corp 情報処理装置、情報処理方法、及びプログラム
EP2204774A2 (en) 2008-12-05 2010-07-07 Sony Corporation Information processing apparatus, information processing method, and program
US9557956B2 (en) 2008-12-05 2017-01-31 Sony Corporation Information processing apparatus, information processing method, and program
JP2010157061A (ja) * 2008-12-26 2010-07-15 Kddi Corp 多次元時系列データ分析装置及びコンピュータプログラム
US20100290538A1 (en) * 2009-05-14 2010-11-18 Jianfeng Xu Video contents generation device and computer program therefor
JP2010267069A (ja) * 2009-05-14 2010-11-25 Kddi Corp 映像コンテンツ生成装置及びコンピュータプログラム
JP2011204113A (ja) * 2010-03-26 2011-10-13 Kddi Corp 映像コンテンツ生成システム、メタデータ構築装置、映像コンテンツ生成装置、携帯端末、映像コンテンツ配信装置及びコンピュータプログラム
US8896609B2 (en) 2010-10-07 2014-11-25 Kddi Corporation Video content generation system, video content generation device, and storage media
JP2012083862A (ja) * 2010-10-07 2012-04-26 Kddi Corp 映像コンテンツ生成システム、映像コンテンツ生成装置及びコンピュータプログラム
US20120237186A1 (en) * 2011-03-06 2012-09-20 Casio Computer Co., Ltd. Moving image generating method, moving image generating apparatus, and storage medium
JP2012212245A (ja) * 2011-03-30 2012-11-01 Kddi Corp 映像コンテンツ生成装置およびコンピュータプログラム
CN102811352A (zh) * 2011-06-03 2012-12-05 卡西欧计算机株式会社 运动图像生成方法及运动图像生成装置
JP2020123277A (ja) * 2019-01-31 2020-08-13 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP7160707B2 (ja) 2019-01-31 2022-10-25 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法

Similar Documents

Publication Publication Date Title
JP2007018388A (ja) モーション作成装置およびモーション作成方法並びにこれらに用いるプログラム
JP5967838B2 (ja) 人間型ロボットのジェスチャと音声の同期
Smith et al. Efficient neural networks for real-time motion style transfer
US8896609B2 (en) Video content generation system, video content generation device, and storage media
US6999601B2 (en) Method for visual tracking using switching linear dynamic systems models
US6462742B1 (en) System and method for multi-dimensional motion interpolation using verbs and adverbs
JP2019079436A5 (ja)
JP5238602B2 (ja) 映像コンテンツ生成装置及びコンピュータプログラム
EP1788525A3 (fr) Procédé d'imagerie radiographique pour la reconstruction tridimensionnelle, dispositif et programme d'ordinateur pour mettre en oeuvre ce procédé
WO2010087778A1 (en) Method and system for rendering an entertainment animation
JP2004127126A (ja) 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
JP5055223B2 (ja) 映像コンテンツ生成装置及びコンピュータプログラム
Pan et al. A hybrid approach for simulating human motion in constrained environments
Zhou et al. Generative tweening: Long-term inbetweening of 3d human motions
Shiratori et al. Synthesizing dance performance using musical and motion features
JP6408729B1 (ja) 画像評価装置、画像評価方法及びプログラム
Wallace et al. Towards movement generation with audio features
CN114155325A (zh) 一种虚拟角色动画生成方法和系统
JP2008015713A (ja) 動作変形システム及びその方法
JP2004066367A (ja) 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム
JPH08293039A (ja) 音楽画像変換装置
Liu et al. Motion improvisation: 3d human motion synthesis with a transformer
Voß et al. Augmented Co-Speech Gesture Generation: Including Form and Meaning Features to Guide Learning-Based Gesture Synthesis
JP5061808B2 (ja) 感情判定方法
JP2006243215A (ja) 調音パラメータ補間用データ生成装置、音声合成装置、及びコンピュータプログラム