JP2005071182A - 3次元アニメーション作成支援装置 - Google Patents

3次元アニメーション作成支援装置 Download PDF

Info

Publication number
JP2005071182A
JP2005071182A JP2003301905A JP2003301905A JP2005071182A JP 2005071182 A JP2005071182 A JP 2005071182A JP 2003301905 A JP2003301905 A JP 2003301905A JP 2003301905 A JP2003301905 A JP 2003301905A JP 2005071182 A JP2005071182 A JP 2005071182A
Authority
JP
Japan
Prior art keywords
character
motion
joint
articulated robot
defining means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003301905A
Other languages
English (en)
Inventor
Kenji Nakakita
賢二 中北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2003301905A priority Critical patent/JP2005071182A/ja
Publication of JP2005071182A publication Critical patent/JP2005071182A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】ポーズの入力を容易にして作業量を低減し、しかも広い空間が不要でありキャラクタの動きの制約が少ない3次元アニメーション作成支援装置を提供する。
【解決手段】モデル定義手段10は、3次元仮想空間において動くキャラクタの骨格を、長さを属性に持つ複数のリンクとリンク間を結合する関節とを用いて表される骨格モデルを用いて定義する。動作定義手段20は、キーフレームとなる複数のポーズを補間することによりキャラクタの関節の角度に関する時系列データを定義する。統合演算手段30は、動作定義手段20で定義された関節の角度をモデル定義手段10により定義されたキャラクタの骨格モデルに適用する。動作定義手段20に与えるポーズは、リンクと関節とがキャラクタと同じ結合関係であって各関節の角度変位を検出する角度センサ2aを備えた多関節ロボット2から与える。
【選択図】 図1

Description

本発明は、コンピュータグラフィックスにより表現される3次元仮想空間において人体などを模擬するキャラクタに動きを付与するためのデータを作成する際に用いる3次元アニメーション作成支援装置に関するものである。
近年、コンピュータグラフィックスに関する技術が向上し、コンピュータグラフィックスにより表現される3次元仮想空間において人体や動物などを模擬するキャラクタが動くアニメーションの需要が増加してきている。この種のアニメーションは、映画やテレビジョンのような映像、ディスプレイ装置を用いるゲーム、自動車や建築物やプラントなどの設計における種々のシミュレーションなど多岐にわたる分野で用いられている。
一般にこの種のキャラクタに動きを与える技術としては、キャラクタの骨格を骨に相当するリンクとリンク間を結合する関節とを用いた骨格モデルで表し、骨格モデルにより表される複数のポーズをキーフレームとして、キーフレーム間の動きを補間する技術が知られている(たとえば、特許文献1参照)。上述の技術を用いることにより、ディスプレイ装置に表示されるキャラクタに自然な動きを付与することが可能になっている。
ところで、キーフレームとなるポーズを与えるには、ディスプレイ装置の画面上で骨格モデルを操作する技術があるが、3次元の骨格モデルに対してディスプレイ装置の画面上で所望のポーズを与えるには熟練を要し、また画面内では3次元のポーズを把握することは難しいものである。しかも、この作業によってキャラクタに自然な動きが得られるようにしようとすれば試行錯誤が必要であって、最終的に自然な動きが得られるまでは多大な時間を要することになる。すなわち、キャラクタの動きを伴うアニメーションを作成する作業は作業量が多く高コストになっている。
一方、キャラクタのアニメーションを作成するためにモーションキャプチャを用いて主要な関節の位置の軌跡情報を得る技術や(たとえば、特許文献2参照)、ステレオカメラによる実写画像から3次元モデルデータを作成する技術(たとえば、特許文献3参照)が提案されている。
特開2002−74382号公報 特開平9−138863号公報 特開2002−58045号公報
しかしながら、モーションキャプチャやステレオカメラを用いる技術では、キャラクタに対応する人体や動物を離れた場所から撮像する必要があるから、比較的広い空間が必要になるという問題があり、またキャラクタに与えようとする動きやポーズを人体や動物に要求するから、キャラクタの動きに種々の制約を生じる可能性がある。
本発明は上記事由に鑑みて為されたものであり、その目的は、ポーズの入力を容易にすることによりキャラクタに所望の動きを与えるための作業量を低減し、しかも広い空間を必要とせずキャラクタの動きの制約が少ない3次元アニメーション作成支援装置を提供することにある。
請求項1の発明は、3次元仮想空間において動くキャラクタの骨格を、長さを属性に持つ複数のリンクとリンク間を結合する関節とを用いて表される骨格モデルを用いて定義したモデル定義手段と、キャラクタの関節の角度を定義する動作定義手段と、前記動作定義手段で定義された関節の角度を前記モデル定義手段により定義されたキャラクタの骨格モデルに適用する統合演算手段と、前記統合演算手段で関節の角度が決められたキャラクタを含む3次元仮想空間を表示するディスプレイ装置と、リンクと関節とがキャラクタと同じ結合関係であって各関節の角度変位を検出する角度センサを備え3次元実空間において動く多関節ロボットとを備え、前記動作定義手段は、前記多関節ロボットの操作により前記角度センサから得られる角度をキャラクタの関節の角度として記憶するとともに統合演算手段に与える機能を有することを特徴とする。
この構成によれば、多関節ロボットに所望のポーズをとらせることによってキャラクタの関節の角度を付与することができるから、ポーズの入力が容易であってキャラクタに所望の動きを与えるための作業量が従来方法に比較して大幅に低減される。また、多関節ロボットはリンクおよび関節がキャラクタと同じ結合関係であるから、多関節ロボットの3次元実空間でのポーズによってキャラクタのポーズを3次元で把握することができ、キャラクタに与えようとするポーズを容易に決めることができる。しかも、ポーズを入力する装置として多関節ロボットを用いるから、多関節ロボットに所望のポーズをとらせることができる空間があればよく、モーションキャプチャやステレオカメラを用いる場合のような広い空間を必要とせず、その上、多関節ロボットは実際の人体や動物に比較してポーズの制約が少ないから、多関節ロボットに対応してディスプレイ装置に提示されるキャラクタの動きにも制約が少なくなる。ここに、多関節ロボットは何らかの作業が可能であることは必須ではなく、関節の角度変位が可能であれば構造は問わない。さらに、多関節ロボットの関節の角度変位は駆動源によって与えなくてもよく、手操作によって関節の角度変位を与えるようにしてもよい。言わば、関節が可動である人形で遊ぶようにしてキャラクタに所望のポーズを与えることができる。さらに言えば、ポーズの入力のみを行う場合には多関節ロボットに駆動源が不要であるから、机の上などに置いて使用する小型の入力装置として用いることも可能である。ここに、多関節ロボットの関節の角度は統合演算手段に与えられ、統合演算手段は与えられた関節の角度を骨格モデルに適用したキャラクタをディスプレイ装置に表示するから、多関節ロボットに与えたポーズがディスプレイ装置にどのように表示されるかを、ただちに確認することができ、この点でもキャラクタにポーズを与える作業が容易になる。
請求項2の発明は、請求項1の発明において、前記動作定義手段が、前記多関節ロボットの複数のポーズをそれぞれキーフレームとし、キーフレーム間の動きを補間する時系列データとして関節の角度を求める補間処理部と、補間処理部で求めた関節の角度の時系列データを記憶する動作記憶部とを備えることを特徴とする。
この構成によれば、多関節ロボットにより与えられる複数のポーズによってキーフレームを設定し、キーフレーム間の動きを補間することによってキャラクタの動きを生成するから、ディスプレイ装置に表示する際のフレーム毎のキャラクタのポーズを生成するにあたって、多関節ロボットを連続的に動作させる必要がなく、キーフレームとなる少数のポーズのみを多関節ロボットで与えるだけでキャラクタに連続した動きを与えることができる。その結果、キャラクタに動きを与えるためのデータの入力作業が大幅に軽減される。
請求項3の発明は、請求項2の発明において、前記補間処理部が、補間すべき複数のポーズにおける前記多関節ロボットの特定部位の動作軌跡をBスプライン曲線により近似することを特徴とする。
この構成によれば、補間演算にBスプライン曲線を用いることによって直線補間の場合に比較すると滑らかな動きに見える補間が可能になる。
請求項4の発明では、請求項2または請求項3の発明において、前記動作記憶部は関節の角度の複数種類の時系列データを格納しており、前記動作定義手段は、前記動作記憶部に格納された時系列データを選択する動作選択部を備えることを特徴とする。
この構成によれば、動作記憶部に一連の動作に関する関節の角度の時系列データを複数種類の動作について格納しておくことによって、所望の動作を選択するだけでキャラクタが一連の動作を行うことになり、このような一連の動作を適宜に組み合わせることで、キャラクタに連続した動きを与えることができる。たとえば、「右手を挙げる」際の一連の動作と、「右手を振る」際の一連の動作とを時系列データによって与えておけば、「右手を挙げて、手を振る」という連続した動きを時系列データの選択のみで行うことが可能になる。
請求項5の発明は、請求項2ないし請求項4の発明において、前記動作定義手段が、前記時系列データに従って前記ディスプレイ装置に表示されるキャラクタを動かす際に時系列データを前記多関節ロボットの各関節の角度を変位させる駆動源に与えて前記多関節ロボットをキャラクタに同期させて動かすロボット制御部を備えることを特徴とする。
この構成によれば、キャラクタの動きと多関節ロボットの動きとが連動するから、多関節ロボットの動きとキャラクタの動きとの一方によって他方を知ることが可能であり、たとえば作業用の多関節ロボットの動作をディスプレイ装置の画面上に表示されるキャラクタによって遠方から監視することが可能になる。あるいはまた、キャラクタがどのように動作するかを多関節ロボットの動作によって確認するとともに、必要ならば多関節ロボットの関節の回転変位に補正を加えることにより、キャラクタの動作を修正することが可能になる。
請求項6の発明では、請求項1ないし請求項5の発明において、前記モデル定義手段は前記骨格モデルのリンクの長さが変更可能であることを特徴とする。
この構成によれば、リンクの長さを変更することによって、多関節ロボットの形状にかかわらず、種々の身長や体形のキャラクタをディスプレイ装置に表示することが可能になる。
請求項7の発明は、請求項1ないし請求項6の発明において、前記統合演算手段が、前記ディスプレイ装置に表示されるキャラクタの顔部位に顔画像をテクスチャとしてマッピングする機能を有することを特徴とする。
この構成によれば、所望の顔画像をキャラクタの顔部位にマッピングすることによって、キャラクタに顔を与えることができ、キャラクタを当該顔を有した人のアバター(化身ないし分身)として3次元仮想空間に表示することが可能になる。このようにキャラクタに顔を与えることによって、たとえば、道案内や操作指針を与えるためにディスプレイ装置にキャラクタを表示する用途や、通信の際に通信相手の顔を持つキャラクタをディスプレイ装置に表示する用途などに用いることが可能になる。
請求項8の発明は、請求項1ないし請求項7の発明において、前記モデル定義手段と前記動作定義手段と前記統合演算手段とを設けたサーバと、前記ディスプレイ装置を備える複数台の端末との間がネットワークを介して接続され、前記端末からネットワークを通して前記動作定義手段にキャラクタの動作を指示することにより前記サーバが前記端末のいずれかに設けた前記ディスプレイ装置にキャラクタを表示させることを特徴とする。
この構成によれば、ネットワークを用いて複数の端末間でキャラクタの共有が可能になる。また、ネットワークを用いて端末間で通信する際に、通信相手のアバターとしてキャラクタを用いることによって、テレビ電話のように通信相手を実際に表示するのではなく通信相手の代理人としてキャラクタを用いることが可能になる。
請求項9の発明は、請求項8の発明において、前記端末が前記多関節ロボットを備えることを特徴とする。
この構成によれば、キャラクタの動きを多関節ロボットにも与えることが可能であり、キャラクタと同じ動作を多関節ロボットに与えることによって多関節ロボットの遠方操作が可能になる。
本発明の構成によれば、多関節ロボットに所望のポーズをとらせることによってキャラクタの関節の角度を付与することができるから、ポーズの入力が容易であってキャラクタに所望の動きを与えるための作業量が従来方法に比較して大幅に低減されるという利点がある。また、多関節ロボットはリンクおよび関節がキャラクタと同じ結合関係であるから、多関節ロボットの3次元実空間でのポーズによってキャラクタのポーズを3次元で把握することができ、キャラクタに与えようとするポーズを容易に決めることができるという利点がある。しかも、ポーズを入力する装置として多関節ロボットを用いるから、多関節ロボットに所望のポーズをとらせることができる空間があればよく、モーションキャプチャやステレオカメラを用いる場合のような広い空間を必要とせず、その上、多関節ロボットは実際の人体や動物に比較してポーズの制約が少ないから、多関節ロボットに対応してディスプレイ装置に提示されるキャラクタの動きにも制約が少なくなるという利点がある。
以下に説明する実施形態では、人体を模擬するキャラクタを3次元仮想空間で動かすためのデータを作成する場合を例として説明するが、人体以外の動物などであっても骨格モデルを用いて動きを表すことができるキャラクタであれば、本発明の技術思想を適用することが可能である。
本実施形態は、パーソナルコンピュータに3次元グラフィックスの処理を高速化する専用の回路(ボードないしカードの形で提供される)を内蔵したコンピュータにより、以下で説明する機能を実現するプログラムを実行することを想定しており、プログラムの記憶媒体としてはパーソナルコンピュータにおいて読取可能なCD−ROM、DVD−ROMなどを用いるものとする。ただし、コンピュータとしてパーソナルコンピュータのような汎用型のものではなく専用装置を用いることも可能である。また、コンピュータをネットワークに接続している場合やコンピュータによって衛星データ放送の受信を可能としている場合のように電気通信が可能である場合には、電気通信によってプログラムを取得するようにしてもよい。
キャラクタを含む3次元仮想空間は、コンピュータ1に付設したCRTや液晶表示器からなるディスプレイ装置3に表示され、さらに本実施形態では、キャラクタに音声を付与することによってコンピュータ1に付設したスピーカ4からキャラクタの音声を出力することも可能にしてある。
本実施形態では、キーフレームとなる複数のポーズ間の動きを補間することによって、キャラクタに滑らかな動きを与えるような時系列データを生成する技術を採用しており、キャラクタの動きは骨格モデルに対する関節の角度を与えることによって実現している。キャラクタの骨格モデルは、図2に示すように、長さを属性に持つ複数のリンクLと、リンクL間を結合する関節Jとを用いて表され、各関節Jは部位に応じて適宜の自由度で回転可能になっている。また、本実施形態ではキャラクタが人体を模擬するから各関節Jには可動域を与えて、回転範囲を制限することも可能になっている。したがって、各関節Jに対応する部位で、屈曲・伸展、内転・外転のような回転変位が可能になっている。図2に示す骨格モデルでは、関節J(丸印の部位)を19点設けているが、関節Jの個数や位置は適宜に変更可能である。
上述のように、キャラクタの動きは骨格モデルにおける関節Jの角度を変化させることによって付与することができるが、キャラクタとしてディスプレイ装置3に表示するために、皮膚や衣服のようなスキンが骨格モデルにテクスチャとして貼り付けられる。とくに、顔部位には、デジタルカメラなどによって撮影された顔画像をテクスチャとして貼り付けることが可能になっている。顔画像は、顔を含む部位のデジタル画像から、顔部位を抽出することによって切り出し、顔の各部位の座標を骨格モデルの座標に位置合わせしてマッピングすることによって、キャラクタに対して実写に基づく顔を付与することが可能になっている。たとえば、利用者自身の顔画像をキャラクタに与えるようにすれば、キャラクタを利用者のアバターとして3次元仮想空間に配置することが可能になる。
骨格モデルやスキンは、モデル定義手段10に設けたモデル記憶部11に複数種類が登録されており、モデル選択部12により所望の骨格モデルおよびスキンがモデル記憶部11から抽出される。スキンとしては皮膚色、筋肉の質、衣服などについて選択することが可能であり、骨格モデルとしてはリンクLの長さの比率が異なる複数種類の体形を選択することが可能になっている。ただし、骨格モデルの属性であるリンクLの長さをモデル選択部12において任意に変更可能としてもよい。モデル選択部12への指示には、コンピュータ1に付設したキーボードやマウスのような入力装置(図示せず)を用いる。
モデル定義手段10により選択されたキャラクタに対して動きを付与するための各関節Jの角度は、動作定義手段20から与えられる。動作定義手段20は、キャラクタの種々動作における一連の動きを各関節Jの角度の時間変化を時系列データとして記憶した動作記憶部21を備える。たとえば、「右手を挙げる」という動作に対応付けて、関与する各関節Jの角度が時系列データとして動作記憶部21に格納される。動作記憶部21に格納された動作は、動作選択部22において選択され、動作選択部22において選択された動作は、モデル選択部12において選択されたキャラクタとともに統合演算手段30に与えられる。動作選択部22への指示はモデル選択部12への指示と同様にコンピュータ1に付設した入力装置が用いられる。ここで、動作選択部22で選択可能な各動作に対応する時系列データには、時系列データの登録時に動作名を付与してあり、動作選択部22で選択可能な動作名の文字がディスプレイ装置3にリストとして一覧表示され、当該リストから動作名を選択することによって所望の動作を選択することが可能になっている。
統合演算手段30ではキャラクタの骨格モデルにおける各関節Jに動作選択部22で選択された角度の時系列データが適用される。したがって、統合演算手段30に表示駆動部31を介して接続されたディスプレイ装置3の画面に表示されるキャラクタに対して、動作選択部22で選択された動作が付与される。
さらに、キャラクタに音声を付与するために、音声定義手段40がコンピュータ1に設けられ、音声定義手段40には種々の音声データを格納した音声記憶部41と、音声記憶部41から所望の音声データを選択するための音声選択部42とが設けられる。音声データは、キャラクタの使用目的に応じて設定され、たとえばキャラクタを道案内のエージェントとして用いるような場合には、道案内のメッセージが音声データとして格納される。音声選択部42への指示はコンピュータ1に付設した入力装置から与える。音声選択部42で選択された音声データは、統合演算部30に入力されてキャラクタの動作に結びつけられ、D/A変換器や増幅器を含む音声出力部32を通してコンピュータ1に付設されたスピーカ4から音声として出力される。
ところで、本発明はアニメーションの作成を容易にすることが目的であって、言い換えると動作記憶部21に格納される時系列データの生成を容易にすることに特徴を有している。上述のように、時系列データは、キーフレームとなる複数のポーズの間の動きを補間することによって生成されるのであって、本発明では、キーフレームとなるポーズを入力するために3次元実空間に配置した多関節ロボット2を用いる点に特徴を有している。多関節ロボット2は、リンクとジョイントとの結合関係がキャラクタと同じであるものを用いており、本実施形態ではキャラクタが人体を模擬するから多関節ロボット2にも人体形状のものを用いる。多関節ロボット2には、各関節の角度変位を検出するための複数個の角度センサ2aが設けられ、また各関節の角度を外部からの指示によって変化させることができるモータのような複数個の駆動源2bが設けられる。ただし、キーフレームとなるポーズを入力する目的にのみ用いる多関節ロボット2であれば、駆動源2bは不要であって、角度センサ2aのみを備える多関節ロボット2を用いることも可能である。このような多関節ロボットは、外見は人体形状であるがロボットとしての動作はしないから、多関節型入力装置と言うことができ、駆動源2bが不要であるから比較的小型の入力装置とすることが可能である。
角度センサ2aにより検出された各関節の角度は、入力I/O23を通してコンピュータ1に取り込まれ、順キネマティック変換部24において関節の角度に基づいて、3次元実空間における多関節ロボット2の特定部位の位置座標を求める。順キネマティック変換は周知の技術であって、多関節ロボット2のリンクは長さが既知であるから、各関節の角度に対して順キネマティック変換を施すことによって、リンクの端部の空間位置を求めることができる。すなわち、多関節ロボット2に適宜のポーズを与えると、角度センサ2aにより検出される各関節の角度から当該ポーズでの各リンクの空間位置を求めることができる。
多関節ロボット2に所望のポーズを与えた状態において順キネマティック変換部24で求めた各リンクの空間位置および関節の角度はキーフレーム生成部25に与えられ、キーフレーム生成部25においてキーフレームとなるポーズが保持される。多関節ロボット2のポーズは、手操作によって与えることができ、また駆動源2bを動作させて与えることも可能である。キーフレーム生成部25には複数のキーフレームが保持され、一連の動きに関するキーフレームがキーフレーム生成部25に保持されると、これらのキーフレームを用いて補間演算部27において動きが補間される。ただし、キーフレーム間において連続させることができない不自然な動きが生じるのを除くために、キーフレーム生成部25と補間演算部27との間には、キーフレーム最適化部26が設けられ、関節の可動域による制約や関節の連動関係に関する経験則を用いて、あり得ない動きに対してはキーフレームにおける関節の角度を補正する。
補間演算部27では、複数のキーフレームにおいて各リンクの端部位置の動作軌跡をBスプライン曲線に近似するように補間する。複数のキーフレーム間の動きを補間するリンクの位置関係のデータは時系列で与えられ、逆キネマティック変換部28において関節の角度に変換される。つまり、補間演算部27と逆キネマティック変換部28とにより、キーフレーム間の動きを補間する時系列データとして関節の角度を求める補間処理部が構成される。こうして求めた関節の角度に関する時系列データは動作記憶部21に格納される。
ここに、キーフレーム生成部25に保持されるキーフレームは、補間処理部において補間演算を行う前には、逆キネマティック変換部28を通して関節の角度が求められた後に、統合演算手段30に入力されてキャラクタと統合され、ディスプレイ装置3に表示される。つまり、コンピュータ1は、キーフレームを取り込む動作と、キーフレームから時系列データを生成する動作とを切り換えることができ、キーフレームを取り込む動作では、取り込んだキーフレームがそのままディスプレイ装置3に表示される。したがって、多関節ロボット2に与えたポーズが、ディスプレイ装置3の画面に表示されるキャラクタではどのようなポーズになるかを、ただちに確認することができる。
また、上述の例ではキーフレーム間の動きをBスプライン曲線に近似するように補間することによって時系列データを生成しているが、多関節ロボット2にポーズを与える際に、ポーズ間での各関節の角度変位を十分に小さくする場合には、補間演算を行わずに各キーフレームを時系列データに用いるようにしてもよい。この場合、キャラクタの動作を滑らかにすることは難しいが、キャラクタの動作にコマ落ちを生じたかのような特別の効果を与えることが可能になる。また、キャラクタの動作が走る動作のような複雑な動作の場合には、ポーズ間の角度変位を小さくし、かつ補間も併せて行うのが望ましい。
さらに、ディスプレイ装置3にキャラクタを表示する際に、ロボット制御部33を介して多関節ロボット2の駆動源2bに対しても時系列データを与えることが可能であって、このような動作を選択した場合には、ディスプレイ装置3の画面に表示されるキャラクタと多関節ロボット2との動きを連動させることが可能になる。つまり、3次元仮想空間におけるキャラクタの動きを3次元実空間における多関節ロボット2の動きによって確認することが可能になる。このとき、多関節ロボット2の動きが所望の動きではなければ、時系列データを作成する動作に切り換え、多関節ロボット2の手や足を手操作して多関節ロボット2の動きを補正することで、キャラクタの動きを補正することが可能である。
上述したアニメーションを作成する際の一連の処理をまとめると図3のようになる。すなわち、アニメーションを作成する際には、多関節ロボット2に手操作などによって所望のポーズを与え(S1)、キーフレーム生成部25ではポーズをキーフレームとして一時的に記憶する(S2)。このようにして、キャラクタに付与しようとする動作の一連の動きに関するすべてのポーズの入力が終了し、コンピュータ1にポーズの入力の終了を指示すると(S3)、一連のキーフレームから補間演算部27および逆キネマティック演算部28での補間演算が開始され、各関節の角度に関する時系列データが求められる(S4)。時系列データは動作記憶部21に格納され、動作記憶部21から所望の時系列データが選択されると、統合演算手段30ではモデル定義手段10で選択されたキャラクタの骨格モデルに時系列データを適用するとともに、キャラクタにテクスチャを貼り付け、さらに必要に応じて音声定義手段40で選択された音声データを結合し(S5)、ディスプレイ装置3およびスピーカ4に出力する(S6)。
上述した構成では単独で用いるコンピュータ1を想定していたが、図4に示すように、上述したコンピュータ1と同様の機能をサーバXに持たせ、サーバXに対してネットワークNTを介して接続されクライアントとしての端末Yに、多関節ロボット2とディスプレイ装置3との少なくとも一方を設けることによって、機能を分散させるようにしてもよい。ネットワークNTは、インターネット、イントラネット、LANなどのいずれの形態でもよく、またインターネットを用いる場合にはダイアルアップを行うものでも常時接続のものでもよい。アニメーションの作成に用いる多関節ロボット2を設ける端末Yと、キャラクタを表示するディスプレイ装置3を設ける端末Yとは同じでも異なっていてもよい。また、端末Yにおいて多関節ロボット2の駆動源2bに指示を与えて多関節ロボット2を動かす場合に、当該端末Yとは異なる端末Yにおいてディスプレイ装置3にキャラクタを表示すれば、キャラクタの動作によって多関節ロボット2の動作を遠方から監視していることになる。
あるいはまた、サーバXを経由して互いに通信する2台の端末Yにそれぞれ多関節ロボット2を設けておけば、互いに他の端末Yから相手側の端末Yに設けた多関節ロボット2の動作を指示する(サーバXに動作を指示する)ことが可能であり、多関節ロボット2をアバターに用いた対話が可能になる。この場合に、メッセージを電子メールの形でサーバXに伝送し、サーバXに設けた音声定義手段40によって電子メールに対応する音声を相手側の端末Yに送信すれば、相手側の多関節ロボット2による動作に加えて、メッセージに対応する音声データを多関節ロボット2から送出させることが可能になる。
サーバXを経由して互いに通信する端末Yにそれぞれディスプレイ装置3を設けてキャラクタをディスプレイ装置3に表示する場合には、キャラクタをアバターに用いて電子メールによるメッセージを相手側に伝達することが可能である。この場合、互いの顔画像をキャラクタの顔部位にマッピングしておけば、キャラクタを通信の際のアバターに用いる際に現実味を持たせることができ、テレビ電話で対話しているかのようなコミュニケーションが可能になる。キャラクタに顔画像をマッピングする統合演算手段30はサーバXに設けられているから、あらかじめ端末Yから顔画像をサーバXに転送しておき、サーバXにおいて顔画像から顔部位を抽出してマッピングを行えばよい。
上述のように、多関節ロボット2やキャラクタをアバターとして端末Y間で通信を行うようにすれば、ボディランゲージやジェスチャを伴う対面のコミュニケーションのように感情を伝達する情報量を増すことになるから、文字のみの電子メールによる意思伝達の誤謬を低減することが可能になる。とくに、遠隔地間で協調作業を行う場合には、上述したアバターを用いることによって遠隔地の相手とのコミュニケーションを行う際に、文字や音声だけではない情報の伝達が可能になり、意思疎通が容易になることが期待できる。
実施形態を示すブロック図である。 同上に用いる骨格モデルの一例を示す図である。 同上の動作説明図である。 同上の応用例を示すブロック図である。
符号の説明
1 コンピュータ
2 多関節ロボット
2a 角度センサ
2b 駆動源
3 ディスプレイ装置
10 モデル定義手段
20 動作定義手段
21 動作記憶部
22 動作選択部
27 補間演算部
28 逆キネマティック変換部
30 統合演算手段
33 ロボット制御部
J 関節
L リンク
NT ネットワーク
X サーバ
Y 端末

Claims (9)

  1. 3次元仮想空間において動くキャラクタの骨格を、長さを属性に持つ複数のリンクとリンク間を結合する関節とを用いて表される骨格モデルを用いて定義したモデル定義手段と、キャラクタの関節の角度を定義する動作定義手段と、前記動作定義手段で定義された関節の角度を前記モデル定義手段により定義されたキャラクタの骨格モデルに適用する統合演算手段と、前記統合演算手段で関節の角度が決められたキャラクタを含む3次元仮想空間を表示するディスプレイ装置と、リンクと関節とがキャラクタと同じ結合関係であって各関節の角度変位を検出する角度センサを備え3次元実空間において動く多関節ロボットとを備え、前記動作定義手段は、前記多関節ロボットの操作により前記角度センサから得られる角度をキャラクタの関節の角度として記憶するとともに統合演算手段に与える機能を有することを特徴とする3次元アニメーション作成支援装置。
  2. 前記動作定義手段は、前記多関節ロボットの複数のポーズをそれぞれキーフレームとし、キーフレーム間の動きを補間する時系列データとして関節の角度を求める補間処理部と、補間処理部で求めた関節の角度の時系列データを記憶する動作記憶部とを備えることを特徴とする請求項1記載の3次元アニメーション作成支援装置。
  3. 前記補間処理部は、補間すべき複数のポーズにおける前記多関節ロボットの特定部位の動作軌跡をBスプライン曲線により近似することを特徴とする請求項2記載の3次元アニメーション作成支援装置。
  4. 前記動作記憶部は関節の角度の複数種類の時系列データを格納しており、前記動作定義手段は、前記動作記憶部に格納された時系列データを選択する動作選択部を備えることを特徴とする請求項2または請求項3記載の3次元アニメーション作成支援装置。
  5. 前記動作定義手段は、前記時系列データに従って前記ディスプレイ装置に表示されるキャラクタを動かす際に時系列データを前記多関節ロボットの各関節の角度を変位させる駆動源に与えて前記多関節ロボットをキャラクタに同期させて動かすロボット制御部を備えることを特徴とする請求項2ないし請求項4のいずれか1項に記載の3次元アニメーション作成支援装置。
  6. 前記モデル定義手段は前記骨格モデルのリンクの長さが変更可能であることを特徴とする請求項1ないし請求項5のいずれか1項に記載の3次元アニメーション作成支援装置。
  7. 前記統合演算手段は、前記ディスプレイ装置に表示されるキャラクタの顔部位に顔画像をテクスチャとしてマッピングする機能を有することを特徴とする請求項1ないし請求項6のいずれか1項に記載の3次元アニメーション作成支援装置。
  8. 前記モデル定義手段と前記動作定義手段と前記統合演算手段とを設けたサーバと、前記ディスプレイ装置を備える複数台の端末との間がネットワークを介して接続され、前記端末からネットワークを通して前記動作定義手段にキャラクタの動作を指示することにより前記サーバが前記端末のいずれかに設けた前記ディスプレイ装置にキャラクタを表示させることを特徴とする請求項1ないし請求項7のいずれか1項に記載の3次元アニメーション作成支援装置。
  9. 前記端末が前記多関節ロボットを備えることを特徴とする請求項8記載の3次元アニメーション作成支援装置。
JP2003301905A 2003-08-26 2003-08-26 3次元アニメーション作成支援装置 Withdrawn JP2005071182A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003301905A JP2005071182A (ja) 2003-08-26 2003-08-26 3次元アニメーション作成支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003301905A JP2005071182A (ja) 2003-08-26 2003-08-26 3次元アニメーション作成支援装置

Publications (1)

Publication Number Publication Date
JP2005071182A true JP2005071182A (ja) 2005-03-17

Family

ID=34406399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003301905A Withdrawn JP2005071182A (ja) 2003-08-26 2003-08-26 3次元アニメーション作成支援装置

Country Status (1)

Country Link
JP (1) JP2005071182A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008299429A (ja) * 2007-05-29 2008-12-11 Canon Inc 情報処理装置、情報処理方法
JP2011113135A (ja) * 2009-11-24 2011-06-09 Nippon Hoso Kyokai <Nhk> 仮想キャラクタ生成装置及び仮想キャラクタ生成プログラム
JP2011183509A (ja) * 2010-03-09 2011-09-22 Jun Kuchii 回転角度検出装置、有関節構造体および態様取込装置
CN102708582A (zh) * 2012-05-08 2012-10-03 电子科技大学 一种面向异构拓扑的角色运动重定向方法
JP2013033316A (ja) * 2011-08-01 2013-02-14 Nippon Hoso Kyokai <Nhk> Cgキャラクタ生成装置及びcgキャラクタ生成プログラム
WO2015141893A1 (ko) * 2014-03-19 2015-09-24 주식회사 로보티즈 로봇 모션을 편집 및 재생하기 위한 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
JP2015210547A (ja) * 2014-04-23 2015-11-24 博司 佐久田 遠隔見守りシステム
JP2016049433A (ja) * 2014-08-28 2016-04-11 岡崎 章 感情表現方法と感情表現装置とコンピュータプログラム
US10366499B2 (en) 2016-09-23 2019-07-30 Robotis Co., Ltd. Device, method, and computer-readable recording medium for editing and playing robot motion
JP2020034983A (ja) * 2018-08-27 2020-03-05 富士通株式会社 情報処理装置、動作制御プログラム、及び動作制御方法
CN111696183A (zh) * 2020-05-09 2020-09-22 北京农业信息技术研究中心 投影互动方法、系统及电子设备
JP2021086415A (ja) * 2019-11-28 2021-06-03 有限会社クロマニヨン 仮想人物対話システム、映像生成方法、映像生成プログラム
CN114697635A (zh) * 2020-12-31 2022-07-01 三一汽车制造有限公司 臂架设备的场景再现方法、系统、电子设备及存储介质
WO2023095667A1 (ja) * 2021-11-29 2023-06-01 ソニーセミコンダクタソリューションズ株式会社 データ処理装置およびデータ処理方法、並びにプログラム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008299429A (ja) * 2007-05-29 2008-12-11 Canon Inc 情報処理装置、情報処理方法
JP2011113135A (ja) * 2009-11-24 2011-06-09 Nippon Hoso Kyokai <Nhk> 仮想キャラクタ生成装置及び仮想キャラクタ生成プログラム
JP2011183509A (ja) * 2010-03-09 2011-09-22 Jun Kuchii 回転角度検出装置、有関節構造体および態様取込装置
JP2013033316A (ja) * 2011-08-01 2013-02-14 Nippon Hoso Kyokai <Nhk> Cgキャラクタ生成装置及びcgキャラクタ生成プログラム
CN102708582A (zh) * 2012-05-08 2012-10-03 电子科技大学 一种面向异构拓扑的角色运动重定向方法
CN106462992A (zh) * 2014-03-19 2017-02-22 株式会社乐博特思 用于对机器人运动进行编辑及再生的装置、方法及计算机可读记录介质
WO2015141893A1 (ko) * 2014-03-19 2015-09-24 주식회사 로보티즈 로봇 모션을 편집 및 재생하기 위한 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
CN106462992B (zh) * 2014-03-19 2019-12-10 株式会社乐博特思 用于对机器人运动进行编辑及再生的装置、方法及记录介质
JP2015210547A (ja) * 2014-04-23 2015-11-24 博司 佐久田 遠隔見守りシステム
JP2016049433A (ja) * 2014-08-28 2016-04-11 岡崎 章 感情表現方法と感情表現装置とコンピュータプログラム
US10366499B2 (en) 2016-09-23 2019-07-30 Robotis Co., Ltd. Device, method, and computer-readable recording medium for editing and playing robot motion
JP7070245B2 (ja) 2018-08-27 2022-05-18 富士通株式会社 情報処理装置、動作制御プログラム、及び動作制御方法
JP2020034983A (ja) * 2018-08-27 2020-03-05 富士通株式会社 情報処理装置、動作制御プログラム、及び動作制御方法
JP2021086415A (ja) * 2019-11-28 2021-06-03 有限会社クロマニヨン 仮想人物対話システム、映像生成方法、映像生成プログラム
CN111696183A (zh) * 2020-05-09 2020-09-22 北京农业信息技术研究中心 投影互动方法、系统及电子设备
CN111696183B (zh) * 2020-05-09 2023-12-05 北京农业信息技术研究中心 投影互动方法、系统及电子设备
CN114697635A (zh) * 2020-12-31 2022-07-01 三一汽车制造有限公司 臂架设备的场景再现方法、系统、电子设备及存储介质
CN114697635B (zh) * 2020-12-31 2023-11-10 三一汽车制造有限公司 臂架设备的场景再现方法、系统、电子设备及存储介质
WO2023095667A1 (ja) * 2021-11-29 2023-06-01 ソニーセミコンダクタソリューションズ株式会社 データ処理装置およびデータ処理方法、並びにプログラム

Similar Documents

Publication Publication Date Title
KR102055995B1 (ko) 시점 변환을 위한 현실적 리그드 3차원(3d) 모델 애니메이션을 생성하는 장치 및 방법
JP4579904B2 (ja) オブジェクトで行動を生成するための装置及び方法
AU718608B2 (en) Programmable computer graphic objects
JP2005071182A (ja) 3次元アニメーション作成支援装置
KR20170083091A (ko) 통합된 사용자 환경
EP1669932A1 (en) Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer readable recording medium where the program is recorded
US6628286B1 (en) Method and apparatus for inserting external transformations into computer animations
JP2002298155A (ja) 感情による3dコンピュータグラフィックス表情モデル形成システム
JP3337938B2 (ja) 3次元骨格構造の動き送受信装置、および動き送受信方法
CN110568923A (zh) 基于Unity3D的虚拟现实交互方法、装置、设备及存储介质
JP2010257081A (ja) 画像処理方法及び画像処理装置
JP6596919B2 (ja) 計算実行方法、計算処理システム及びプログラム
Fu et al. Real-time multimodal human–avatar interaction
JPH0970030A (ja) 仮想会議システムの画像表示方法並びに仮想会議用端末装置
JPH09147134A (ja) アニメーション作成装置
Camporesi et al. Interactive motion modeling and parameterization by direct demonstration
JP3209196B2 (ja) 多関節物体の表示方法及び表示装置
JPH10326353A (ja) 3次元キャラクタアニメーション表示装置および3次元動きデータ伝送システム
TWI799195B (zh) 利用虛擬物件實現第三人稱視角的方法與系統
Goebbels et al. Supporting team work in collaborative virtual environments
JP2023044151A (ja) モーション作成装置、モーション作成方法及びモーション作成プログラム
Arita et al. Real-time human proxy: An avatar-based communication system
JP2024054896A (ja) ロボット、制御プログラムおよび制御方法
CN116485954A (zh) 虚拟骨骼的修型方法和装置、存储介质及电子设备
JP2022093079A (ja) インストラクションシステム、プログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107