JP3519537B2 - 身体動作生成装置及び身体動作制御方法 - Google Patents
身体動作生成装置及び身体動作制御方法Info
- Publication number
- JP3519537B2 JP3519537B2 JP05796796A JP5796796A JP3519537B2 JP 3519537 B2 JP3519537 B2 JP 3519537B2 JP 05796796 A JP05796796 A JP 05796796A JP 5796796 A JP5796796 A JP 5796796A JP 3519537 B2 JP3519537 B2 JP 3519537B2
- Authority
- JP
- Japan
- Prior art keywords
- command
- motion
- control
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Digital Computer Display Output (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
raphics )やロボットを用いて人間や動物の身体動作を
人工的に模擬するための身体動作生成装置に係り、特に
視線/まぶた/瞳孔等の動作制御技術に特徴を有する身
体動作生成装置及び身体動作制御方法に関する。
作をCGやロボットを用いて可視化する方式が種々提案
あるいは実用化されている。このような可視化方式の中
でも、身体動作を自動的に生成する方式は人手による動
作データ入力コストを削減して、身体動作の可視化を省
力化するものとして非常に重要である。
ば「A地点からB地点まで歩け」といったように、人間
が非常に簡単な動作の指示を与えるだけで、機械が強力
な動作生成エンジン(知識処理による自動処理系)を用
いて自動的に細部を具体化していた。この動作生成エン
ジンは、身体各部の座標変換量が身体全体として要求さ
れる動作を構成するように、全てを細かく計算して最終
的な動作制御情報を決定する。これを中央集権的制御と
呼ぶ。
に基づく身体動作生成方式では、まず、第1に上記動作
生成エンジンが最終的な動作制御情報を全ての身体部位
について計算しなければならないため、考慮すべき知識
が膨大になるという問題点が指摘できる。特に、表現可
能な動作を新たな知識として追加する場合には、知識の
整合性を調整するのに多大な労力が要求される。
能であればあるほど、該エンジンは複雑精妙化する。こ
のため、エンジン性能の向上に伴って開発コストがかか
るという問題点が挙げられる。
とりわけ表情の自動生成手法も種々提案あるいは実用化
されている。例えば、特開平2−16681公報に開示
される手法は、発声時と非発声時で瞬きの頻度を変える
ことで自然な感じを生成しようとしている。また、特開
平5−298425公報に開示される手法には、喜怒哀
楽に応じて瞬き頻度を変えることも提案されている。こ
のように、自然で生きているように見える表情動作を生
成するためには、目を中心とした部位の細かい動作が重
要である。
は、瞬きに関して単純な自動生成を行っているにすぎ
ず、例えば見つめる/視線を流す/目を見はるなどの視
線/まぶた開度/瞳開度といったように、目が持つ複雑
な表現要素に関しては全く考慮されていない。したがっ
て、依然としてこれらの考慮外の動作は人手によりデー
タ化されて生成されているのが現状である。
うに、従来のような中央集権的制御に基づく身体動作生
成方式では、動作生成エンジンが最終的な動作制御情報
を全ての身体部位について計算する必要があり、考慮す
べき知識が膨大になるという問題や、該エンジンの性能
向上に伴い開発コストがかかる等の問題があった。
表情手法では、見つめる/視線を流す/目を見はるなな
どの視線/まぶた開度/瞳開度といったような複雑な表
現要素に関しては全く考慮されておらず、これらの動作
は人手によりデータ化されて生成されているのが現状で
あった。
ので、身体各部を担当する各動作制御手段が分散自律協
調的に要求に適う身体動作を生成可能とし、これによ
り、動作要求を簡単かつ大ざっぱに与えるだけで身体細
部における動作を簡単かつ高精度に具体化することがで
き、また、身体動作の中でも特に目周辺部の自然な動作
を自動生成することのできる身体動作生成装置及び身体
動作制御方法を提供することを目的とする。
置は、画面に表示された模擬身体各部を動かすため、目
的に応じた動作指令をする動作指令手段と、この動作指
令手段の動作指令を共通に受けて、それぞれが独立に上
記模擬身体各部の動作を制御するものであって、動作指
令を受けたとき、当該動作指令を解釈し、その動作指令
から自身の動作制御に応じた中間指令情報を生成し、そ
の中間指令情報から実時間で変化する制御情報を生成す
ると共に、その制御情報に応じた同期情報を互いに交換
可能とし、その同期情報に基づいて他の動作制御を自身
の動作制御に適宜同期させる複数の動作制御手段と、こ
の各動作制御手段によって個別に生成された制御情報に
基づいて上記模擬身体各部の動作を可視化する動作生成
手段とを具備したものである。
るような手段を特徴とする。 (1)視線を制御する視線制御手段を具備することによ
り、注視制御中に視線を揺らすことを特徴とする。
を制御する頭部制御手段ちを具備することにより、所定
の目標を視線により追尾するに際して、頭部回転による
追尾に先行して視線回転による追尾が開始されることを
特徴とする。
することにより、集中/放心時に視線の揺れを低下させ
ること、緊張/驚き/照れ時に視線の揺れを増大させる
こと、思案時に視線を泳がせることのいずれかを行うこ
とを特徴とする。
たを制御するまぶた制御手段とを具備し、視線の動きに
応じてまぶたの開度を変化させることを特徴とする。 (5)まぶたを制御するまぶた制御手段を具備すること
により、驚き時に目を見開かせることを特徴とする。
具備することにより、注視/集中/凝視/思案/放心時
に瞬き頻度を低下させることを特徴とする。 (7)まぶたを制御するまぶた制御手段を具備すること
により、緊張時の瞬き頻度を増大させることを特徴とす
る。
具備することにより、驚き時に瞬きを中止させ、該驚き
から回復後に逆に瞬き頻度を増大させることを特徴とす
る。 (9)まぶたを制御するまぶた制御手段を具備すること
により、驚き時に瞳孔を開放させることを特徴とする。
備することにより、1対1対話時の相手の顔・目・口へ
の注視を巡回させることを特徴とする。 (11)視線を制御する視線制御手段を具備することに
より、1対多対話時の複数相手の顔・目・口への注視を
巡回させることを特徴とする。
手段が目的に応じた動作指令を共通に受けて、それぞれ
が独立に模擬身体各部の動作を制御する。すなわち、動
作指令を受けたとき、当該動作指令を解釈し、その動作
指令から自身の動作制御に応じた中間指令情報を生成
し、その中間指令情報から実時間で変化する制御情報を
生成すると共に、その制御情報に応じた同期情報を互い
に交換可能とし、その同期情報に基づいて他の動作制御
を自身の動作制御に適宜同期させる。このようにして個
別に生成された制御情報に基づいて模擬身体各部の動作
が可視化される。
実施形態を説明する。図1は発明の一実施形態に係る身
体動作生成装置の構成を示すブロック図である。本装置
は、目標動作指令部1、複数の動作制御部2〜8、動作
生成部9を有する。
に対して生成すべき身体動作を指令する。この各動作制
御部2〜8は、目標動作指令部1から送られてきた動作
指令を共通に受けて、それぞれが独立に画面に表示され
た模擬身体各部の動作を制御するものである。
球運動)を制御するものであって、ここでは動作指令部
1からの動作指令に基づいて自己生成した視線方向情報
を身体動作制御に必要な制御情報の1つとして動作生成
部9に与える。
であって、ここでは動作指令部1からの動作指令に基づ
いて自己生成したまぶた開度情報を身体動作制御に必要
な制御情報の1つとして動作生成部9に与える。
るものであって、ここでは動作指令部1からの動作指令
に基づいて自己生成した瞳孔開度情報を身体動作制御に
必要な制御情報の1つとして動作生成部9に与える。
あって、ここでは動作指令部1からの動作指令に基づい
て自己生成した顔向き情報を身体動作制御に必要な制御
情報の1つとして動作生成部9に与える。
御するものであって、ここでは動作指令部1からの動作
指令に基づいて自己生成したまゆげ形状情報を身体動作
制御に必要な制御情報の1つとして動作生成部9に与え
る。
制御するものであって、ここでは動作指令部1からの動
作指令に基づいて自己生成した鼻形状情報を身体動作制
御に必要な制御情報の1つとして動作生成部9に与え
る。
あって、ここでは動作指令部1からの動作指令に基づい
て自己生成した耳動き情報を身体動作制御に必要な制御
情報の1つとして動作生成部9に与える。
の動作制御を後述する同期情報によって互いに情報交換
し、これにより他の動作制御を自身の動作制御に適宜同
期させるような処理を行う。
〜8によって個別に生成された制御情報を統合し、CG
モデルやロボットモジュールを実際に変形させて身体各
部の動作を可視化する。
置の構成である。そして、図中の10は本装置を生成身
体動作利用システムと成すためのアプリケーシヨン部で
ある。このアプリケーション部10はその目的に適った
動作指令を目標動作指令部1に要求することにより、上
記身体動作生成装置がシステムとして何らかの用途に供
されることになる。
令部1から動作指令を受ける。この動作指令は目標動作
指令部1から全ての動作制御部2〜8に対してブロード
キャスティングされるが、これを受理できる動作制御部
のみが当該指令に反応し、他はこれを無視する。この場
合、ある動作指令を受理して反応すべきか無視すべきか
は各動作制御部2〜8のそれぞれが知っており、目標動
作指令部1は各動作制御部2〜8の性能を詳細に知る必
要はない。これにより、身体の各部を独立に開発/調整
/追加/削除/拡張/入れ替えが可能となり、高いメン
テナンス性が実現される。
は、例えば以下のような簡単かつ大ざっばなものであ
る。 (1)どこそこを注視せよ (2)驚きながら、どこそこに目を向けよ (3)どこそこを見て、そして驚け 上記(1)のような指令の場合、そのときの動作指令は
視線制御部2とまぶた制御部3と頭部制御部5に受理さ
れる。最終的に指定箇所を注視するために、まず視線制
御部2が眼球を回転させ始める。眼球が回転を始める
と、視線制御部2は眼球回転が開始されたことと眼球向
きを他の動作制御部に通達する。この通達情報を同期情
報と呼ぶ。なお、視線制御部2による眼球回転は一般に
サッケードと呼ばれる離散的な回転を模擬可能なよう
に、所定角度ずつ離散的に回転される。
球向きを知り、それに従って上下まぶたの開度を制御す
る。この制御は視線を遮らないようにまぶたを開けてお
くように行われる。具体的には、上を見れば上まぶたが
開き、下を見れば上まぶたと下まぶたが下がるように行
われる。
上で視線方向を変える動作が完了する。眼球回転可能範
囲を超える場合には、眼球回転は限界まで行われ、その
旨が視線制御部2から頭部制御部5に同期情報として伝
達される。頭部制御部5は同期情報を検出すると、眼球
回転を追うように頭部を回転させ始める。
箇所を向くように固定され、頭部回転が追随し終わるの
を待つ。頭部向きが視線向きに一致したところで頭部回
転動作が終了し、視線制御部2による注視維持動作が開
始される。
に従って視線を僅かに揺らし続ける。このように視線を
僅かに揺らすことにより、あたかも生命あるもののよう
に目に表情を付けることが可能となる。
という単純な動作指令を与えるのみで、その動作指令に
反応する各動作制御部の分散自律協調動作により、指定
箇所を注視する際に頭部回転に先駆けて眼球回転が先行
したり、視線に応じてまぶたが開閉したり、注視中に視
線が揺れたりといったような自然で複雑な現象を自動的
に生成することができる。
携動作を生成するためには、動作生成エンジンが各動作
を一手に計算し、動作情報としてこと細かく動作生成手
段9に与えなければならず、そのような細かな動作を生
成するための知識を一手に保持蓄積しておかなければな
らなかった。
ときの動作指令は視線制御部2、まぶた制御部3、瞳孔
制御部4、頭部制御部5に受理される。まぶた制御部3
は上記動作指令を受けると、まぶた開度を増大させると
同時に瞬きを中止させ、同期情報を通達する。これを受
けて瞳孔制御部4は瞳を開放させる。同じく視線制御部
2は上記同期情報を受けて眼球を回転させ始め、上記
(1)と同様に頭部制御部5がこれに追従する。
されると、驚きから回復する動作としてまぶた制御部3
により瞬き頻度が増大されて、目をパチクリさせる様子
が自動生成される。
(1)と同様にして視線が指定箇所に向けられる。動作
が完了すると、視線制御部2が注視維持を同期情報とし
て通達し、これを受けたまぶた制御部3と瞳孔制御部4
が上記(2)と同様にして驚きの表情を生成する。
構成を示したブロック図である。各動作制御部2〜8
は、指令解釈部11、同期情報通信部12、制御情報出
力部13によって構成されている。
の動作指令を受けて解釈する。この指令解釈部11は当
該動作指令を受理すべきか無視すべきかを判断し、受理
すべきと判断した際には当該動作指令を解釈して生成し
た中間指令情報を制御情報出力部13にバッファリング
させる。
と、同期情報通信部12はこれを制御情報出力部13に
送る。これを受理した制御情報出力部13はバッファリ
ングされた中間指令情報を実時間で変化する制御情報に
変換し、これを動作生成部6に転送し、同時に自身の同
期情報を生成して同期情報通信部12に与える。同期情
報通信部12はこれを他の動作制御部に送信する。
通に送られる動作指令を指令解釈部11が各動作制御部
に応じた中間指令情報に変換し、さらに制御情報出力部
13が実時間で変化する制御情報に変換することで動作
が実行される。
では、図3および図4を参照して各動作制御部2〜8の
共通の処理動作について説明する。
を示すフローチャートである。アプリケーション部10
からの指令要求があると、目標動作指令部1はその目的
に応じた動作指令を各動作制御部2〜8に対して出す。
これにより、各動作制御部2〜8の指令解釈部11は以
下のような処理を実行する。
作司令部1から各動作制御部2〜8に対して共通に送ら
れてくる動作指令を待つ(ステップA11)。動作指令
があると、指令解釈部11はその動作指令を評価する
(ステップA12)。この評価は、例えば動作指令に含
まれる「注視せよ」、「見ろ」、「向け」、「驚け」な
どの動作を表わす何らかの記号(キーワード)を各動作
制御部2〜8毎に登録されている記号リストと対照する
ことで行われる。自分の記号リストに登録されている記
号が動作指令に含まれていれば、当該動作制御部はこの
動作指令を実行しなければならない。
令を無視すべきと判定した場合には(ステップA13の
無視)、ステップA11の動作指令待ち受け処理に処理
が戻される。一方、受理すべきと判定した場合には(ス
テップA13の受理)、指令解釈部11はそのときの動
作指令を自身(当該動作制御部)の動作制御に応じた中
間指令情報に変換し、これを制御情報出力部13に出力
する(ステップA14)。
動作指令より詳細な指令である。例えば「どこそこを見
ろ」という動作指令の場合、視線制御部2であれば、
「どこそこに視線を向けろ」と「視線が向いたらそこを
注視せよ」という時系列的に2段階の中間指令情報に変
換されて制御情報出力部13にバッファリングされるこ
とになる。
いたらそこを注視せよ」という2つの中間指令情報は、
各々に対応したプロシージャを起動することと、その初
期化の条件を与える命令である。例えば「どこそこに視
線を向けろ」という中間指令情報に対応したプロシージ
ャは注視変更プロシージャであり、その初期化条件は
「どこそこ」という目標値である。また、「視線が向い
たらそこを注視せよ」という中間指令情報は注視変更プ
ロシージャが終了したら注視維持プロシージャが起動さ
れることを意味し、その初期化条件は注視箇所を中心に
視線をランダムに揺らすことを示している。
いう動作指令は、頭部制御部6では、「もし眼球回転範
囲を超えたら頭部回転で補え」と「視線が向いたら頭部
姿勢を維持しろ」という2段階の中間指令情報に変換さ
れる。前者に対応して起動される頭部姿勢変更プロシー
ジャは注視変更プロシージャが流す同期情報から眼球回
転可能範囲を超えたことを知ると初めて頭部を回転させ
る。また、後者に対応した頭部姿勢維持プロシージャは
視線固定後の視線に対する頭部姿勢を維持させる。
姿勢が変わって頭部の位置がずれた場合には同期情報か
らそれを知り、視線に対する姿勢を維持するように頭部
を自動的に回転させる。
部12で実行される。したがって、正確にはプロシージ
ャは直接眼球を回転させたり頭部を回転させるわけでは
ない。すなわち、これらは動作生成部9がその動作を生
成できるような制御情報を演算するのである。
流れを示すフローチャートである。上述したように、指
令解釈部11が目標動作指令部1からの動作指令を受理
すべきと判定すると、その動作指令を自身(当該動作制
御部)の動作制御に応じた中間指令情報に変換し、これ
を制御情報出力部13に出力する。
11から送られる中間指令情報を図示せぬバッファ(メ
モリ)に一時的に蓄える(ステップB11)。この後、
制御情報出力部13はバッファ読み出し処理を実行し、
上記バッファに蓄えられた中間指令情報の読み出し処理
を行う(ステップB12)。
わち、中間指令情報が生成されていなければ(ステップ
B13のYes)、処理はステップB11に戻る。ま
た、バッファが空でなく、そこに中間指令情報が生成さ
れていれば(ステップB13のNo)、制御情報出力部
13はバッファから当該中間指令情報を読み出し、その
当該中間指令情報に対応したプロシージャを所定の初期
化条件で起動する(ステップB14)。ここでのプロシ
ージャ実行処理により、中間指令情報が実時間で変化す
る制御情報に変換される。変換生成された制御情報は、
例えば視線制御部2であれば、視線方向情報として動作
生成部9に送られる。
ら、各々の動作制御部2〜8に含まれる指令解釈部11
が独立にそれを解釈してより具体的な中間指令情報を生
成し、これを各々の制御情報出力部13が最も具休的な
実時間の制御情報に変換して動作生成部9に送り、該動
作生成部9が実際の動作を可視化する。
同期しつつ影響を及ぼしあう状況を実現するために、同
期情報が全ての動作制御部2〜8によって共有される。
この同期情報によって、他の動作制御を自身の動作制御
に適宜同期させることができる。
は各動作制御部2〜8をバス結合することで実現され、
ソフトウェア的にはブラックボードシステム、共有メモ
リ、メッセージキューなどの手段で実現される。
生成する中間指令情報は、各動作制御部2〜8毎に独立
に開発/修正/追加/削除が可能であり、各中間指令を
実行するプロシージャもまた独立に開発/調整が可能で
あることから、高いメンテナンス性を実現する。
身体動作制御方法は、以上の例の他にも目周辺の表情付
けとして以下のことが可能である。これらは全て本発明
により分散自律協調的に自動生成可能である。
の頻度と振幅を低下させる。 (2)緊張/驚き/照れ時に自動的に視線揺らぎの頻度
と振幅を増大させる。 (3)思案時に自動的に視線を泳がせる。
として大小のゆらぎ振幅を与えることにより実現する。 (4)注視/集中/凝視/思案/放心時に自動的に瞬き
頻度を低下させる。
せる。 以上は瞬きプロシージヤが注視維持プロシージャの同期
情報を参照し、初期化条件に瞬き頻度を与えれば良い。
目・口への注視を巡回させる。 (7)1対多対話時に自動的に複数相手の顔・目・口へ
の注視を巡回させる。 以上はアプリケーション部10から目標動作生成部1に
多点を目標とする注視要求が目標点のリストと共に出さ
れ、目標動作指令部1が「どこと、どこと、どことを見
ろ」という動作指令にこれを編集して送ることで実現で
きる。
り、さらに、このような表情付けは上述した視線、まぶ
た、瞳孔、頭部の部分に限らず、まゆげ、鼻、耳の部分
に関しても、動作指令に応じた中間指令情報とプロシー
ジャを適宜追加することで容易に実現することができ
る。
を制御する口制御部を設け、その制御に上記同様の手法
を適用すれば、さらに複雑な表情付けが可能となり、よ
り自然な動きを実現することができる。
に、本発明では分散自律協調的な制御方式を用いてい
る。このため、従来の中央集権的な制御方式に比べ、簡
単かつ大ざっぱな動作要求にて身体細部における動作を
簡単かつ高精度に具体化することができ、さらには、身
体各部毎に独立した制御が行われることから、他の制御
部に影響を与えず、任意の制御部を適宜バージョンアッ
プするなどの作業を容易に行うことができる。
を担当する各動作制御手段が分散自律協調的に要求に適
う身体動作を生成可能とし、もって動作要求を簡単かつ
大ざっぱに与えるだけで身体細部における動作を具体化
する。この結果、従来の中央集権的制御を行う動作自動
生成方式に比べて、動作生成時の省力化を実現すること
ができ、さらに開発/調整/拡張/メンテナンス時の省
コスト化も実現することができる。
視線を流す/目を見はるななどの視線/まぶた開度/瞳
開度といったような複雑な表現要素を考慮して、目周辺
の自然な動作を自動生成することができる。
構成を示すブロック図。
すブロック図。
流れを示すフローチャート。
理の流れを示すフローチャート。
Claims (2)
- 【請求項1】 画面に表示された模擬身体各部を動かす
ため、目的に応じた動作指令をする動作指令手段と、 この動作指令手段の動作指令を共通に受けて、それぞれ
が独立に上記模擬身体各部の動作を制御するものであっ
て、動作指令を受けたとき、当該動作指令を解釈し、そ
の動作指令から自身の動作制御に応じた中間指令情報を
生成し、その中間指令情報から実時間で変化する制御情
報を生成すると共に、その制御情報に応じた同期情報を
互いに交換可能とし、その同期情報に基づいて他の動作
制御を自身の動作制御に適宜同期させる複数の動作制御
手段と、 この各動作制御手段によって個別に生成された制御情報
に基づいて上記模擬身体各部の動作を可視化する動作生
成手段とを具備したことを特徴とする身体動作生成装
置。 - 【請求項2】 画面に表示された模擬身体各部を制御す
る複数の動作制御部が目的に応じた動作指令を共通に受
けて、それぞれが独立に上記模擬身体各部の動作を制御
する方法であって、 動作指令を受けたとき、当該動作指令を解釈し、 その動作指令から上記各動作制御部自身の動作制御に応
じた中間指令情報を生成し、 その中間指令情報から実時間で変化する制御情報を生成
すると共に、 その制御情報に応じた同期情報を上記各動作制御部間で
互いに交換可能とし、その同期情報に基づいて他の動作
制御を自身の動作制御に適宜同期させることにより、 この個別に生成された制御情報に基づいて身体各部の動
作を可視化するようにしたことを特徴とする身体動作制
御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05796796A JP3519537B2 (ja) | 1996-03-14 | 1996-03-14 | 身体動作生成装置及び身体動作制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05796796A JP3519537B2 (ja) | 1996-03-14 | 1996-03-14 | 身体動作生成装置及び身体動作制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09251553A JPH09251553A (ja) | 1997-09-22 |
JP3519537B2 true JP3519537B2 (ja) | 2004-04-19 |
Family
ID=13070794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP05796796A Expired - Fee Related JP3519537B2 (ja) | 1996-03-14 | 1996-03-14 | 身体動作生成装置及び身体動作制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3519537B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3673719B2 (ja) * | 2001-01-26 | 2005-07-20 | 日本電信電話株式会社 | 擬人化インタフェース装置とその方法及び擬人化インタフェースプログラム及び擬人化インタフェースプログラムを記録した記録媒体 |
JP4869430B1 (ja) * | 2010-09-24 | 2012-02-08 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法 |
JP6792831B2 (ja) * | 2012-05-08 | 2020-12-02 | Linfops有限会社 | 脳型感情表現ロボットの制御方法 |
-
1996
- 1996-03-14 JP JP05796796A patent/JP3519537B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09251553A (ja) | 1997-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6657628B1 (en) | Method and apparatus for specification, control and modulation of social primitives in animated characters | |
Kopp et al. | Synthesizing multimodal utterances for conversational agents | |
US6249292B1 (en) | Technique for controlling a presentation of a computer generated object having a plurality of movable components | |
Shapiro | Building a character animation system | |
Hashimoto et al. | Development of the face robot SAYA for rich facial expressions | |
JP7177497B2 (ja) | 相手を見つめる自律行動型ロボット | |
US20230305530A1 (en) | Information processing apparatus, information processing method and program | |
JP2003265869A (ja) | ロボットの目・眉機構 | |
US20190389075A1 (en) | Robot system and robot dialogue method | |
US6975970B2 (en) | Method for designing an interactive system | |
CN109773807B (zh) | 运动控制方法、机器人 | |
CN110837294A (zh) | 一种基于眼球追踪的面部表情控制方法及系统 | |
Sakai et al. | Speech driven trunk motion generating system based on physical constraint | |
JP3519537B2 (ja) | 身体動作生成装置及び身体動作制御方法 | |
Thiebaux et al. | Real-time expressive gaze animation for virtual humans | |
Desmurget et al. | Are reaching movements planned to be straight and invariant in the extrinsic space? Kinematic comparison between compliant and unconstrained motions | |
JP2014064248A (ja) | 画像投影装置及び画像投影方法 | |
EP3664425A1 (en) | Method and device for generating and displaying an electronic avatar | |
Hashimoto et al. | Development of face robot for emotional communication between human and robot | |
Schulz et al. | Humotion: A human inspired gaze control framework for anthropomorphic robot heads | |
CN210121851U (zh) | 一种机器人 | |
Takanishi | An anthropomorphic robot head having autonomous facial expression function for natural communication with humans | |
Kozima et al. | Communicative criteria for processing time/space-varying information | |
Fukuda et al. | Human-robot mutual communication system | |
CN211806165U (zh) | 一种机器人表情模拟机构 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040129 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080206 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090206 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100206 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |