JPH1049701A - 多関節構造体の動作取り込み方法 - Google Patents

多関節構造体の動作取り込み方法

Info

Publication number
JPH1049701A
JPH1049701A JP20686896A JP20686896A JPH1049701A JP H1049701 A JPH1049701 A JP H1049701A JP 20686896 A JP20686896 A JP 20686896A JP 20686896 A JP20686896 A JP 20686896A JP H1049701 A JPH1049701 A JP H1049701A
Authority
JP
Japan
Prior art keywords
data
joint
posture
registered
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20686896A
Other languages
English (en)
Inventor
Kiyoshi Arai
清志 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP20686896A priority Critical patent/JPH1049701A/ja
Publication of JPH1049701A publication Critical patent/JPH1049701A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 (修正有) 【課題】 多関節構造体の動作取り込みにおいて、後処
理を行なわずに高品質な動作データを生成できる方法を
提供することである。 【解決手段】 ユーザがプログラムを対話的に操作する
ための入力装置112と、実際の演技者や人形の動きを測
定する関節情報入力装置121の他に、混合比率入力装置1
23、姿勢番号入力装置125、関節番号入力装置127を用い
る。まず、装置121、装置125、装置127を用いて、多関
節構造体姿勢データ群104に姿勢を登録しておく。次
に、装置121、装置123、装置125を用いて、データ群104
に登録した姿勢と、リアルタイムで入力された関節角度
データ102とを混合して、修正された関節角度データ106
を生成する。データ106と多関節構造体形状データ108と
を用いて生成されるアニメーション映像がディスプレイ
114に表示される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はコンピュータグラフ
ィックスの分野において、複数の関節を持つ形状モデル
である多関節構造体に動作データを与えてアニメーショ
ン映像を生成する方法に係り、特に動作取り込みを行な
う場合、すなわち実際の演技者や人形の動きを測定して
動作データとする場合に好適な方法に関する。
【0002】
【従来の技術】コンピュータグラフィックスの分野にお
いて、複数の関節を持つ形状モデルである多関節構造体
は、人物のアニメーション映像生成等に役立つモデルで
ある。多関節構造体に動作データを与えてアニメーショ
ン映像を生成する際に、リアルな、あるいは複雑な動作
データを効率良く作成することを目的として、実際の演
技者や人形の動きを測定して動作データとする、動作取
り込みと呼ばれる処理を行なうことがある。一般に、演
技者と多関節構造体、あるいは人形と多関節構造体との
間では、腕の長さや頭の大きさ等が互いに異なっている
ことが多い。このような差異があると、例えば多関節構
造体の手を顔に触れさせる姿勢を作る時、演技者あるい
は人形の手は、ちょうど顔に触れる位置ではなく、そこ
から離れた特定の位置にある必要がある。動作取り込み
の際に、演技者あるいは人形の操作者は、このような位
置を探りながら多関節構造体を操るという困難な作業を
行なっていた。
【0003】
【発明が解決しようとする課題】演技者あるいは人形の
操作者の作業が困難であったため、動作取り込みによっ
て得られた多関節構造体の動作データには、映像制作者
の意図に反した動きが含まれていることが多く、このよ
うな動きを手作業で修正する後処理が必要だった。この
ため、テレビの生番組でのアドリブのように後処理が不
可能な場合、あるいは非常に長いアニメーションを短時
間で制作しなければならず、後処理を行なう時間が無い
場合には、動作取り込みによって、映像制作者の意図に
反する動きを含まない高品質なアニメーション映像を生
成することは不可能だった。
【0004】本発明の目的は、後処理を行なわずに高品
質な動作データを得ることができる、多関節構造体の動
作取り込み方法を提供することにある。
【0005】
【課題を解決するための手段】上記目的を達成するた
め、動作取り込みシステムの入力装置として、ユーザが
プログラムを対話的に操作するための入力装置と、実際
の演技者や人形の動きを測定する関節情報入力装置の他
に、混合比率入力装置、姿勢番号入力装置、関節番号入
力装置を用いる。本システムを用いた動作取り込み作業
は、収録前処理とリアルタイム動作収録処理とによって
実行する。まず、収録前処理では、関節情報入力装置、
姿勢番号入力装置、関節番号入力装置を用いて、特定の
関節の角度値から成る特定の姿勢データを登録してお
く。次に、リアルタイム動作収録処理では、関節情報入
力装置、混合比率入力装置、姿勢番号入力装置を用い
て、収録前処理で登録した姿勢と、リアルタイムで入力
される関節情報とを混合して、動作データを生成する。
【0006】
【発明の実施の形態】 [1]システム構成 本発明の方法を用いた多関節構造体の動作取り込みシス
テムの構成を図1に示す。中央処理装置(113)に、本
システムの処理に必要なプログラム(101,103,105,10
7)とデータ(102,104,106,108,122,124,126,128)を置
くための記憶装置(111)、ユーザがプログラム101,10
3,105,107を対話的に操作するための入力装置(112)、
多関節構造体を表示するためのディスプレイ(114)を
接続する。さらに、データ122,124,126,128を入力する
ための特別な入力装置(121,123,125,127)を用意す
る。関節情報入力装置(121)は、実際の演技者や人形
の動きを測定するための装置である。装置121によって
関節情報の入力データ(122)が入力される。データ122
は、関節情報変換プログラム(101)によって多関節構
造体の関節角度を表わす入力データ、すなわち入力され
た関節角度データ(102)に変換される。データ102と、
多関節構造体形状データ(108)とを、多関節構造体描
画プログラム(107)に入力することによって、入力装
置121からの入力のみを反映した多関節構造体がディス
プレイ(114)に表示される。混合比率入力装置(123)
は、0以上1以下の1次元の実数値で表わされる混合比
率の入力データ(124)を入力するための装置であり、
ペダル、スライダ、ボリューム、ジョイスティック等の
形態が適している。姿勢番号入力装置(125)および関
節番号入力装置(127)は、それぞれ1次元の整数値で
表わされる姿勢番号の入力データ(126)および関節番
号の入力データ(128)を入力するための装置であり、
スイッチ、キーボード、タッチパネル等の形態が適して
いる。
【0007】本発明の方法を用いた多関節構造体の動作
取り込み作業は、収録前処理とリアルタイム動作収録処
理から成る。収録前処理において、データ126、データ1
28、およびデータ102を、姿勢情報登録プログラム(10
3)に入力することによって、多関節構造体姿勢データ
群(104)の中に入力装置121、入力装置125、および入
力装置127からの入力を反映した姿勢データが登録され
る。リアルタイム動作収録処理において、データ124、
データ126、データ102、およびデータ104を、関節角度
混合プログラム(105)に入力することによって、デー
タ102と、データ群104の中の1つの姿勢データとが混合
され、修正された関節角度データ(106)が生成され
る。データ106と、多関節構造体形状データ(108)と
を、多関節構造体描画プログラム(107)に入力するこ
とによって、入力装置121、入力装置123、および入力装
置125からの入力を反映した多関節構造体がディスプレ
イ(114)に表示される。
【0008】[2]姿勢データ群のデータ構造 本発明の方法を用いた多関節構造体の動作取り込みシス
テムにおいて、特徴的なデータ構造を持つ多関節構造体
姿勢データ群(104)は、図2に示すような表形式にな
っている。各々の行は関節番号(200)、各々の列は姿
勢番号(250)を表わす。図2では、説明のため、関節
番号(200)の欄には、各々の関節番号に対応する具体
的な関節および回転軸の名前も記してある。図2の例で
は、多関節構造体は人物の上半身を表わすモデルであ
り、その姿勢が3つ登録されている。収録前処理の際に
姿勢データが登録される場所は、姿勢番号の入力データ
(126)に基づいて決定される。データ126が表わす姿勢
番号に対応する列に、姿勢データが登録される。
【0009】特定の姿勢番号(251〜253)と特定の関節
番号(201〜218)の組み合わせに対応する、特定の姿勢
における特定の関節の回転軸に関する情報は、関節角度
混合プログラム(105)がその角度を利用するか否かを
1か0かで表わす判別値(260)と、関節情報入力装置
(121)を介して入力された実数値の関節角度(270)か
ら成る。判別値(260)は、関節番号の入力データ(12
8)に基づいて決定される。データ128に含まれる関節番
号における判別値が1となり、それ以外の関節番号にお
ける判別値が0となる。プログラム105は、判別値が1
である関節番号に対応する関節角度だけを、装置121か
らの入力と混合する。したがって、ある姿勢に必要な関
節番号、すなわちある姿勢を作る場合に特定の角度にな
っている必要がある関節番号に対応する判別値だけを1
にする。
【0010】姿勢番号1(251)のデータは、多関節構
造体の左手が顔に触れる姿勢を表わしている。したがっ
て、この姿勢に必要な関節番号、すなわち首(201,202,
203)、左肩(210,211,212)、左ひじ(213)、および
左手首(214,215)を表わす関節番号の判別値が1にな
っている。姿勢番号2(252)のデータは、多関節構造
体の右手で特定の場所に固定されている物体に触れる姿
勢を表わしている。したがって、右肩(204,205,20
6)、右ひじ(207)、右手首(208,209)、および腰(2
16,217,218)を表わす関節番号の判別値が1になってい
る。姿勢番号3(253)のデータは、多関節構造体の両
手を合わせる姿勢を表わしている。したがって、右肩
(204,205,206)、右ひじ(207)、右手首(208,20
9)、左肩(210,211,212)、左ひじ(213)、および左
手首(214,215)を表わす関節番号の判別値が1になっ
ている。
【0011】なお、データ群104の各々の姿勢データに
おいて、関節角度(270)を時系列に複数個格納するよ
うにデータ群104のデータ構造を拡張すれば、データ群1
04から「姿勢」ではなく「動き」を取り出し、これを装
置121からの入力と混合することも可能である。
【0012】[3]収録前処理の流れ 本発明の方法を用いた多関節構造体の動作取り込み作業
における、収録前処理の流れを図3に示す。本処理の際
に用いる収録前処理用プログラム群(301)は、関節情
報変換プログラム(101)、多関節構造体描画プログラ
ム(107)、および姿勢情報登録プログラム(103)から
成る。
【0013】関節情報の入力データ(122)は、関節情
報入力装置(121)からの入力によってリアルタイムで
変化し、プログラム101によって多関節構造体の関節角
度を表わす入力データ、すなわち入力された関節角度デ
ータ(102)にリアルタイムで変換される。プログラム1
07は、データ102と多関節構造体形状データ(108)とを
用いて、入力データ122を反映した多関節構造体をリア
ルタイムで表示し、ユーザはこの表示を見て、データ10
2がプログラム103によって多関節構造体姿勢データ群
(104)に登録されるタイミングを決定する。プログラ
ム103には、データ102の他に姿勢番号の入力データ(12
6)、および関節番号の入力データ(128)も入力する。
データ群104の中の、データ126が表わす姿勢番号に対応
する列に、データ102の内容が姿勢データとして登録さ
れる。そして、データ128に含まれる関節番号における
判別値が1となり、それ以外の関節番号における判別値
が0となる。
【0014】このような収録前処理によって、演技者あ
るいは人形の操作者が位置を探りながら作らなければな
らない多関節構造体の難しい姿勢を、リアルタイム動作
収録を行なう前に全て登録しておく。
【0015】[4]リアルタイム動作収録処理の流れ 本発明の方法を用いた多関節構造体の動作取り込み作業
における、リアルタイム動作収録処理の流れを図4に示
す。本処理の際に用いるリアルタイム動作収録処理用プ
ログラム群(401)は、関節情報変換プログラム(10
1)、関節角度混合プログラム(105)、および多関節構
造体描画プログラム(107)から成る。
【0016】関節情報の入力データ(122)は、関節情
報入力装置(121)からの入力によってリアルタイムで
変化し、プログラム101によって多関節構造体の関節角
度を表わす入力データ、すなわち入力された関節角度デ
ータ(102)にリアルタイムで変換される。ここまでは
収録前処理と同じであるが、リアルタイム動作収録処理
の際には、データ102をプログラム107に直接入力せず、
まずプログラム105に入力する。プログラム105には、デ
ータ102の他に姿勢番号の入力データ(126)、混合比率
の入力データ(124)、および収録前処理で作成した多
関節構造体姿勢データ群(104)も入力する。データ群1
04の中の、データ126が表わす姿勢番号に対応する列に
格納された判別値と関節角度が参照される。データ群10
4の中で判別値が1である関節番号に対応する関節角度
が、データ124が表わす混合比率を用いて、データ102の
中の対応する関節角度とリアルタイムで混合され、混合
結果をその関節の関節角度としたものが、修正された関
節角度データ(106)となる。このような手順によっ
て、プログラム105はデータ102をデータ106にリアルタ
イムで変換する。プログラム107は、データ106と多関節
構造体形状データ(108)とを用いて、入力データ122、
入力データ124、および入力データ126を反映した多関節
構造体をリアルタイムで表示する。
【0017】このようなリアルタイム動作収録処理によ
って、後処理を必要としない多関節構造体の高品位なア
ニメーション映像を生成することができる。
【0018】[5]関節角度データと姿勢データの混合 リアルタイム動作収録処理の際に関節角度混合プログラ
ム(105)がリアルタイムで実行する、入力された関節
角度データと登録された姿勢データとの混合処理の流れ
を図5に示す。この混合処理は以下の手順で行なう。
【0019】(1)混合比率の入力データ(124)の内
容、すなわち現在入力されている混合比率をWとする
(510)。Wは0以上1以下の1次元の実数値であり、
登録された姿勢データの中で、判別値が1である関節番
号に対応する関節角度に対して与える重みを表わす。
【0020】(2)姿勢番号の入力データ(126)の内
容、すなわち現在入力されている姿勢番号をPとする
(520)。Pは1次元の整数値である。
【0021】(3)現在登録されている姿勢の総数をN
とする。Pが1以上N以下のとき(530がYesのとき)は
混合処理を行なう場合の処理540に進み、それ以外のと
き(530がNoのとき)は混合処理を行なわない場合の処
理550に進む。したがって、Pがゼロのときは、混合処
理が行なわれず、入力された関節角度データ(102)と
修正された関節角度データ(106)は全く同じデータに
なる。
【0022】(4)混合処理を行なう場合は、全ての関
節番号に対して(540)、以下の手順で対応する関節角
度を求める。
【0023】(4−1)入力された関節角度データ(10
2)の中で、現在着目している関節番号に対応する関節
の角度値をAとする(541)。Aは1次元の実数値であ
る。
【0024】(4−2)多関節構造体姿勢データ群(10
4)に登録された姿勢番号Pの姿勢データにおいて、現
在着目している関節番号に対応する判別値が1であれば
(542が1ならば)、この関節番号に対応する登録され
た関節角度をRとする(543)。Rは1次元の実数値で
ある。そして、Aの(1−W)倍の値とRのW倍の値の
和を求め、これを修正された関節角度データ(106)の
中で、現在着目している関節番号に対応する関節の角度
値Mとする(544)。Mは1次元の実数値である。
【0025】(4−3)データ群104に登録された姿勢
番号Pの姿勢データにおいて、現在着目している関節番
号に対応する判別値が0であれば(542が0ならば)、
この関節番号に対応する登録された関節角度は参照せ
ず、修正された関節角度データ(106)の中で、現在着
目している関節番号に対応する関節の角度値Mに、Aを
代入する(545)。
【0026】(5)混合処理を行なわない場合は、全て
の関節番号に対して(550)、以下の手順で対応する関
節角度を求める。
【0027】(5−1)入力された関節角度データ(10
2)の中で、現在着目している関節番号に対応する関節
の角度値をAとする(551)。Aは1次元の実数値であ
る。
【0028】(5−2)修正された関節角度データ(10
6)の中で、現在着目している関節番号に対応する関節
の角度値Mに、Aを代入する(552)。
【0029】[6]入力データとディスプレイ上の多関
節構造体との関係 収録前処理、およびリアルタイム動作収録処理の際の、
関節情報入力装置(121)の状態と、そのときディスプ
レイ(114)に表示される多関節構造体の映像との関係
を図6に示す。図6の例では、多関節構造体は人物の上
半身を表わすモデルであり、関節情報入力装置(121)
としては、人形型入力装置を用いている。人形の状態60
1は、収録前処理において、図2に示した多関節構造体
姿勢データ群(104)の中の姿勢番号1(251)のデー
タ、すなわち多関節構造体の左手が顔に触れる姿勢を登
録する瞬間の人形型入力装置の姿勢を表わしている。映
像602は、このときの多関節構造体の映像を表わしてい
る。姿勢番号1においては、首(201,202,203)、左肩
(210,211,212)、左ひじ(213)、および左手首(214,
215)を表わす関節番号の判別値が1である。したがっ
て、人形の首の関節(611)から測定されてデータ群104
の首(201,202,203)の行に登録される関節角度、左肩
の関節(615)から測定されて左肩(210,211,212)の行
に登録される関節角度、左ひじの関節(616)から測定
されて左ひじ(213)の行に登録される関節角度、およ
び左手首の関節(617)から測定されて左手首(214,21
5)の行に登録される関節角度だけが、リアルタイム動
作収録処理の際に混合処理の対象となる。関節612、関
節613、関節614、および関節618から測定されて登録さ
れた関節角度は、混合処理の際には参照されない。しか
し、データ群104には判別値が1の場合と同様に登録さ
れているので、後で判別値だけを0から1に変更すれ
ば、混合処理の対象として用いることができる。
【0030】人形の状態603は、リアルタイム動作収録
処理の際の、ある瞬間における人形型入力装置の姿勢を
表わしている。姿勢番号入力装置(125)によって、図
2に示した多関節構造体姿勢データ群(104)の中の姿
勢番号1(251)のデータが選ばれているものとする。
混合比率入力装置(123)から与えられる値の変化に応
じて、姿勢番号1の姿勢データと、人形の状態603によ
ってリアルタイム入力されている姿勢データとの混合比
率が変化し、多関節構造体の映像が変化する。映像604
は、混合比率、すなわち姿勢番号1の姿勢データの中
で、判別値が1である関節番号に対応する関節角度に対
して与える重みがゼロのときの映像である。映像605
は、混合比率が0.5のときの映像であり、映像606は、混
合比率が1のときの映像である。姿勢番号1において
は、首(201,202,203)、左肩(210,211,212)、左ひじ
(213)、および左手首(214,215)の判別値が1である
から、状態603における人形の首(621)、左肩(62
5)、左ひじ(626)、および左手首(627)の関節から
測定される関節角度は、姿勢番号1の中の関節角度、す
なわち状態601のとき人形の首(611)、左肩(615)、
左ひじ(616)、および左手首(617)の関節から測定さ
れて姿勢番号1に登録された関節角度と混合され、混合
結果が映像604、映像605、映像606に反映される。状態6
03における関節622、関節623、関節624、および関節628
から測定される関節角度は、混合処理の対象外であり、
そのまま映像604、映像605、映像606に反映される。人
形型入力装置の操作者は、リアルタイム動作収録処理の
際には、人形の首(621)、左肩(625)、左ひじ(62
6)、および左手首(627)の関節を精密に動かす必要は
なく、その他の関節(622,623,624,628)の操作を行な
いながら、あらかじめ登録した多関節構造体の左手が顔
に触れる姿勢を確実に再現することができる。
【0031】[7]入力された関節角度データと修正さ
れた関節角度データとの関係 リアルタイム動作収録処理の際に、多関節構造体姿勢デ
ータ群(104)の中から現在選ばれている姿勢番号のデ
ータの中で、判別値が1である関節番号の中の1つに着
目する。図7は、この関節番号に対応する登録された関
節角度R(702)、入力された関節角度データ(102)の
中でこの関節番号に対応する関節角度A(701)、およ
び修正された関節角度データ(106)の中でこの関節番
号に対応する関節角度M(703)の典型的な関係を示す
グラフである。グラフの横軸は時刻t(719)、縦軸は
関節角度θ(724)を表わす。混合比率の入力データ(1
24)は、区間[t0,t1](710,711)、[t1,t2](7
11,712)では0で一定であり、区間[t2,t3](712,7
13)では0から1に変化し、区間[t3,t4](713,71
4)、[t4,t5](714,715)、[t5,t6](715,71
6)では1で一定であり、区間[t6,t7](716,717)
では1から0に変化し、区間[t7,t8](717,718)で
は再び0で一定であったとする。
【0032】区間[t1,t2]は、混合比率が変化を始
める直前の区間なので、ここでA(701)を一定の値θ2
(722)にしておき、以後混合比率が1になる時刻t
3(713)までこの値を保持する。すると、区間[t2,t
3]でのM(703)を決定するR(702)とA(701)はい
ずれも定数となり、Mの変化は混合比率の変化だけで制
御され、滑らかな動作を生成しやすくなる。また、Rの
値θ3(723)と区間[t1,t3]におけるAの値θ2(72
2)の差が小さいほど、混合比率の変化に伴うMの変化
は小さいので、リアルタイムで入力されている動作に、
あらかじめ登録された姿勢が混入してくることが目立た
なくなり、自然な動作が生成できる。区間[t3,t6
では、混合比率が1で一定であるから、Mの値はθ3(7
23)で一定であり、Aの値に依存しない。したがってこ
のとき、Aは区間[t4,t5]のようにθ3(723)と大
きく異なる値θ0(720)になっていてもよい。人形型入
力装置を用いる場合は、このときAに対応する人形の関
節を操作しなくてよい、ということになる。区間[t6,
7]は、混合比率が再び変化を始める区間なので、こ
こでAを一定の値θ1(721)にしておき、以後混合比率
が0になったことが確認できる時刻t8(718)までこの
値を保持する。区間[t6,t7]でのMを決定するRと
Aはいずれも定数となり、Mの変化は混合比率の変化だ
けで制御され、滑らかな動作を生成しやすくなる。Rの
値θ3(723)と区間[t6,t7]におけるAの値θ1(72
1)の差が小さいほど、混合比率の変化に伴うMの変化
は小さいので、あらかじめ登録された姿勢の影響が小さ
くなってゆくことが目立たなくなり、自然な動作が生成
できる。
【0033】以上のようにして、あらかじめ登録された
姿勢を、リアルタイムで入力されている動作と自然に混
ぜ合わせることができる。本発明の方法を用いることに
より、高品質な動きを後処理無しで生成する多関節構造
体の完全なリアルタイムアニメーションを実現できる。
【0034】
【発明の効果】本発明により、動作取り込みにおいて後
処理発生の原因となる難しい姿勢はあらかじめ登録さ
れ、その姿勢に必要な関節角度だけが、混合比率の変化
によってリアルタイムでの入力と自然に混合される。そ
の結果、高品質な動きを後処理無しで生成する多関節構
造体の完全なリアルタイムアニメーションを実現でき
る。
【図面の簡単な説明】
【図1】本発明の方法を用いた多関節構造体の動作取り
込みシステムの構成図である。
【図2】本発明の方法を用いた多関節構造体の動作取り
込みシステムにおいて、特徴的なデータ構造を持つ多関
節構造体姿勢データ群の内容の説明図である。
【図3】本発明の方法を用いた多関節構造体の動作取り
込み作業における、収録前処理の流れの説明図である。
【図4】本発明の方法を用いた多関節構造体の動作取り
込み作業における、リアルタイム動作収録処理の流れの
説明図である。
【図5】入力された関節角度データと登録された姿勢デ
ータとを混合する処理の流れの説明図である。
【図6】入力データとディスプレイ上の多関節構造体と
の関係を示す説明図である。
【図7】入力された関節角度データと修正された関節角
度データとの関係を示す説明図である。
【符号の説明】
101…関節情報変換プログラム、102…入力された
関節角度データ、103…姿勢情報登録プログラム、1
04…多関節構造体姿勢データ群、105…関節角度混
合プログラム、106…修正された関節角度データ、1
07…多関節構造体描画プログラム、108…多関節構
造体形状データ、111…記憶装置、112…入力装
置、113…中央処理装置、114…ディスプレイ、1
21…関節情報入力装置、122…関節情報の入力デー
タ、123…混合比率入力装置、124…混合比率の入
力データ、125…姿勢番号入力装置、126…姿勢番
号の入力データ、127…関節番号入力装置、128…
関節番号の入力データ。

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】あらかじめ登録された姿勢データと、リア
    ルタイムで入力される関節角度データとの混合処理をリ
    アルタイムで行ないながら、動作データを生成すること
    を特徴とする多関節構造体の動作取り込み方法。
  2. 【請求項2】前記姿勢データの登録は、多関節構造体の
    関節角度情報をリアルタイムで入力する装置、登録する
    姿勢データに割り当てる姿勢番号を入力する装置、登録
    する姿勢データの中で、各々の関節に割り当てる関節番
    号を入力する装置を用いて行なうことを特徴とする請求
    項1記載の多関節構造体の動作取り込み方法。
  3. 【請求項3】前記混合処理は、多関節構造体の関節角度
    情報をリアルタイムで入力する装置、登録された姿勢デ
    ータに割り当てられた姿勢番号を入力する装置、登録さ
    れた姿勢データとリアルタイムで入力される関節角度デ
    ータとの混合比率を入力する装置を用いて行なうことを
    特徴とする請求項1記載の多関節構造体の動作取り込み
    方法。
  4. 【請求項4】前記姿勢データの登録の際に、関節番号に
    対応するデータは判別値と関節角度値の組で保持し、判
    別値の値によって、その関節番号に対応する関節が前記
    混合処理の対象となるか否かが決定され、判別値の値
    は、後で変更することも可能であることを特徴とする請
    求項1記載の多関節構造体の動作取り込み方法。
  5. 【請求項5】前記姿勢番号を入力する装置、および前記
    関節番号を入力する装置は、1次元の整数値で表わされ
    るデータを入力するための装置であり、スイッチ、キー
    ボード、タッチパネル等によって実現することが好適で
    あることを特徴とする請求項1記載の多関節構造体の動
    作取り込み方法。
  6. 【請求項6】前記混合比率を入力する装置は、0以上1
    以下といった、一定の区間内の1次元の実数値で表わさ
    れるデータを入力するための装置であり、ペダル、スラ
    イダ、ボリューム、ジョイスティック等によって実現す
    ることが好適であることを特徴とする請求項1記載の多
    関節構造体の動作取り込み方法。
  7. 【請求項7】前記あらかじめ登録された姿勢データの代
    わりに、前記姿勢データと同じ手段であらかじめ登録さ
    れた動作データと、リアルタイムで入力される関節角度
    データとを混合して、動作データを生成することを特徴
    とする請求項1記載の多関節構造体の動作取り込み方
    法。
JP20686896A 1996-08-06 1996-08-06 多関節構造体の動作取り込み方法 Pending JPH1049701A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20686896A JPH1049701A (ja) 1996-08-06 1996-08-06 多関節構造体の動作取り込み方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20686896A JPH1049701A (ja) 1996-08-06 1996-08-06 多関節構造体の動作取り込み方法

Publications (1)

Publication Number Publication Date
JPH1049701A true JPH1049701A (ja) 1998-02-20

Family

ID=16530377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20686896A Pending JPH1049701A (ja) 1996-08-06 1996-08-06 多関節構造体の動作取り込み方法

Country Status (1)

Country Link
JP (1) JPH1049701A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100370369B1 (ko) * 2000-08-21 2003-01-30 한국과학기술원 가상 캐릭터의 실시간 동작변환방법
JP2003067773A (ja) * 2001-08-23 2003-03-07 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2005337983A (ja) * 2004-05-28 2005-12-08 Spice:Kk モーションキャプチャー方法及びシステム
KR100701010B1 (ko) * 2005-12-09 2007-03-29 한국전자통신연구원 가상 스튜디오를 이용한 인터넷 연동형 데이터 방송 시스템및 그 방법
KR100961716B1 (ko) * 2007-12-17 2010-06-10 한국전자통신연구원 디지털 캐릭터 간의 자세 변환 방법 및 그 장치

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100370369B1 (ko) * 2000-08-21 2003-01-30 한국과학기술원 가상 캐릭터의 실시간 동작변환방법
JP2003067773A (ja) * 2001-08-23 2003-03-07 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP4656622B2 (ja) * 2001-08-23 2011-03-23 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP2005337983A (ja) * 2004-05-28 2005-12-08 Spice:Kk モーションキャプチャー方法及びシステム
KR100701010B1 (ko) * 2005-12-09 2007-03-29 한국전자통신연구원 가상 스튜디오를 이용한 인터넷 연동형 데이터 방송 시스템및 그 방법
KR100961716B1 (ko) * 2007-12-17 2010-06-10 한국전자통신연구원 디지털 캐릭터 간의 자세 변환 방법 및 그 장치

Similar Documents

Publication Publication Date Title
US5953693A (en) Sign language generation apparatus and sign language translation apparatus
Sturman et al. A survey of glove-based input
Mackinlay et al. A semantic analysis of the design space of input devices
US11871109B2 (en) Interactive application adapted for use by multiple users via a distributed computer-based system
JP3906729B2 (ja) 手話教育用システム及び該システムを実現するためのプログラム
Kojima et al. Labaneditor: Graphical editor for dance notation
Zenner et al. Hart-the virtual reality hand redirection toolkit
WO2024027661A1 (zh) 数字人驱动方法、装置、设备及存储介质
CN107096223A (zh) 虚拟现实场景中的移动控制方法、装置及终端设备
Zaldívar-Colado et al. A mixed reality for virtual assembly
Muangmoon et al. Dance training tool using kinect-based skeleton tracking and evaluating dancer’s performance
Zlatintsi et al. A web-based real-time kinect application for gestural interaction with virtual musical instruments
JPH1049701A (ja) 多関節構造体の動作取り込み方法
Mine Exploiting proprioception in virtual-environment interaction
Steed Defining interaction within immersive virtual environments
Liu et al. COMTIS: Customizable touchless interaction system for large screen visualization
JP2012008862A (ja) 動作制御装置、その方法、及びプログラム
Schreiber et al. New interaction concepts by using the wii remote
JPH10302085A (ja) Cgモデルの動作記録システム
Jennings et al. Computergraphic modeling and analysis II: three-dimensional reconstruction and interactive analysis
Kirakosian et al. Immersive simulation and training of person-to-3d character dance in real-time
JP4202276B2 (ja) 操作対象の動作指令装置、操作対象の動作指令用プログラム、およびそのプログラムを記録した記録媒体
TWI286719B (en) System of simulating flight navigation and the method of using the same
JP7195015B2 (ja) インストラクションシステム、プログラム
JP4787681B2 (ja) 画像合成装置および画像合成プログラム