JP3519537B2 - 身体動作生成装置及び身体動作制御方法 - Google Patents

身体動作生成装置及び身体動作制御方法

Info

Publication number
JP3519537B2
JP3519537B2 JP05796796A JP5796796A JP3519537B2 JP 3519537 B2 JP3519537 B2 JP 3519537B2 JP 05796796 A JP05796796 A JP 05796796A JP 5796796 A JP5796796 A JP 5796796A JP 3519537 B2 JP3519537 B2 JP 3519537B2
Authority
JP
Japan
Prior art keywords
command
motion
control
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05796796A
Other languages
English (en)
Other versions
JPH09251553A (ja
Inventor
薫 鈴木
尚明 倉立
夏子 松田
英治 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP05796796A priority Critical patent/JP3519537B2/ja
Publication of JPH09251553A publication Critical patent/JPH09251553A/ja
Application granted granted Critical
Publication of JP3519537B2 publication Critical patent/JP3519537B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、CG(Computer G
raphics )やロボットを用いて人間や動物の身体動作を
人工的に模擬するための身体動作生成装置に係り、特に
視線/まぶた/瞳孔等の動作制御技術に特徴を有する身
体動作生成装置及び身体動作制御方法に関する。
【0002】
【従来の技術】従来、人間や動物等の表情を含む身体動
作をCGやロボットを用いて可視化する方式が種々提案
あるいは実用化されている。このような可視化方式の中
でも、身体動作を自動的に生成する方式は人手による動
作データ入力コストを削減して、身体動作の可視化を省
力化するものとして非常に重要である。
【0003】(a)従来の身体動作生成方式では、例え
ば「A地点からB地点まで歩け」といったように、人間
が非常に簡単な動作の指示を与えるだけで、機械が強力
な動作生成エンジン(知識処理による自動処理系)を用
いて自動的に細部を具体化していた。この動作生成エン
ジンは、身体各部の座標変換量が身体全体として要求さ
れる動作を構成するように、全てを細かく計算して最終
的な動作制御情報を決定する。これを中央集権的制御と
呼ぶ。
【0004】しかしながら、このような中央集権的制御
に基づく身体動作生成方式では、まず、第1に上記動作
生成エンジンが最終的な動作制御情報を全ての身体部位
について計算しなければならないため、考慮すべき知識
が膨大になるという問題点が指摘できる。特に、表現可
能な動作を新たな知識として追加する場合には、知識の
整合性を調整するのに多大な労力が要求される。
【0005】また、第2に上記動作生成エンジンが高性
能であればあるほど、該エンジンは複雑精妙化する。こ
のため、エンジン性能の向上に伴って開発コストがかか
るという問題点が挙げられる。
【0006】(b)一方、このような動作の自動生成、
とりわけ表情の自動生成手法も種々提案あるいは実用化
されている。例えば、特開平2−16681公報に開示
される手法は、発声時と非発声時で瞬きの頻度を変える
ことで自然な感じを生成しようとしている。また、特開
平5−298425公報に開示される手法には、喜怒哀
楽に応じて瞬き頻度を変えることも提案されている。こ
のように、自然で生きているように見える表情動作を生
成するためには、目を中心とした部位の細かい動作が重
要である。
【0007】しかしながら、ここに例示した従来技術
は、瞬きに関して単純な自動生成を行っているにすぎ
ず、例えば見つめる/視線を流す/目を見はるなどの視
線/まぶた開度/瞳開度といったように、目が持つ複雑
な表現要素に関しては全く考慮されていない。したがっ
て、依然としてこれらの考慮外の動作は人手によりデー
タ化されて生成されているのが現状である。
【0008】
【発明が解決しようとする課題】上記(a)で述べたよ
うに、従来のような中央集権的制御に基づく身体動作生
成方式では、動作生成エンジンが最終的な動作制御情報
を全ての身体部位について計算する必要があり、考慮す
べき知識が膨大になるという問題や、該エンジンの性能
向上に伴い開発コストがかかる等の問題があった。
【0009】また、上記(b)で述べたように、従来の
表情手法では、見つめる/視線を流す/目を見はるなな
どの視線/まぶた開度/瞳開度といったような複雑な表
現要素に関しては全く考慮されておらず、これらの動作
は人手によりデータ化されて生成されているのが現状で
あった。
【0010】本発明は上記のような点に鑑みなされたも
ので、身体各部を担当する各動作制御手段が分散自律協
調的に要求に適う身体動作を生成可能とし、これによ
り、動作要求を簡単かつ大ざっぱに与えるだけで身体細
部における動作を簡単かつ高精度に具体化することがで
き、また、身体動作の中でも特に目周辺部の自然な動作
を自動生成することのできる身体動作生成装置及び身体
動作制御方法を提供することを目的とする。
【0011】
【課題を解決するための手段】本発明の身体動作生成装
置は、画面に表示された模擬身体各部を動かすため、目
的に応じた動作指令をする動作指令手段と、この動作指
令手段の動作指令を共通に受けて、それぞれが独立に上
記模擬身体各部の動作を制御するものであって、動作指
令を受けたとき、当該動作指令を解釈し、その動作指令
から自身の動作制御に応じた中間指令情報を生成し、そ
の中間指令情報から実時間で変化する制御情報を生成す
ると共に、その制御情報に応じた同期情報を互いに交換
可能とし、その同期情報に基づいて他の動作制御を自身
の動作制御に適宜同期させる複数の動作制御手段と、こ
の各動作制御手段によって個別に生成された制御情報に
基づいて上記模擬身体各部の動作を可視化する動作生成
手段とを具備したものである。
【0012】上記各動作制御手段としては、以下に挙げ
るような手段を特徴とする。 (1)視線を制御する視線制御手段を具備することによ
り、注視制御中に視線を揺らすことを特徴とする。
【0013】(2)視線を制御する視線制御手段と頭部
を制御する頭部制御手段ちを具備することにより、所定
の目標を視線により追尾するに際して、頭部回転による
追尾に先行して視線回転による追尾が開始されることを
特徴とする。
【0014】(3)視線を制御する視線制御手段を具備
することにより、集中/放心時に視線の揺れを低下させ
ること、緊張/驚き/照れ時に視線の揺れを増大させる
こと、思案時に視線を泳がせることのいずれかを行うこ
とを特徴とする。
【0015】(4)視線を制御する視線制御手段とまぶ
たを制御するまぶた制御手段とを具備し、視線の動きに
応じてまぶたの開度を変化させることを特徴とする。 (5)まぶたを制御するまぶた制御手段を具備すること
により、驚き時に目を見開かせることを特徴とする。
【0016】(6)まぶたを制御するまぶた制御手段を
具備することにより、注視/集中/凝視/思案/放心時
に瞬き頻度を低下させることを特徴とする。 (7)まぶたを制御するまぶた制御手段を具備すること
により、緊張時の瞬き頻度を増大させることを特徴とす
る。
【0017】(8)まぶたを制御するまぶた制御手段を
具備することにより、驚き時に瞬きを中止させ、該驚き
から回復後に逆に瞬き頻度を増大させることを特徴とす
る。 (9)まぶたを制御するまぶた制御手段を具備すること
により、驚き時に瞳孔を開放させることを特徴とする。
【0018】(10)視線を制御する視線制御手段を具
備することにより、1対1対話時の相手の顔・目・口へ
の注視を巡回させることを特徴とする。 (11)視線を制御する視線制御手段を具備することに
より、1対多対話時の複数相手の顔・目・口への注視を
巡回させることを特徴とする。
【0019】このような構成によれば、上記各動作制御
手段が目的に応じた動作指令を共通に受けて、それぞれ
が独立に模擬身体各部の動作を制御する。すなわち、動
作指令を受けたとき、当該動作指令を解釈し、その動作
指令から自身の動作制御に応じた中間指令情報を生成
し、その中間指令情報から実時間で変化する制御情報を
生成すると共に、その制御情報に応じた同期情報を互い
に交換可能とし、その同期情報に基づいて他の動作制御
を自身の動作制御に適宜同期させる。このようにして個
別に生成された制御情報に基づいて模擬身体各部の動作
が可視化される。
【0020】
【発明の実施の形態】以下、図面を参照して本発明の一
実施形態を説明する。図1は発明の一実施形態に係る身
体動作生成装置の構成を示すブロック図である。本装置
は、目標動作指令部1、複数の動作制御部2〜8、動作
生成部9を有する。
【0021】目標動作指令部1は、各動作制御部2〜8
に対して生成すべき身体動作を指令する。この各動作制
御部2〜8は、目標動作指令部1から送られてきた動作
指令を共通に受けて、それぞれが独立に画面に表示され
た模擬身体各部の動作を制御するものである。
【0022】このうち、視線制御部2は、視線方向(眼
球運動)を制御するものであって、ここでは動作指令部
1からの動作指令に基づいて自己生成した視線方向情報
を身体動作制御に必要な制御情報の1つとして動作生成
部9に与える。
【0023】まぶた制御部3は、まぶたを制御するもの
であって、ここでは動作指令部1からの動作指令に基づ
いて自己生成したまぶた開度情報を身体動作制御に必要
な制御情報の1つとして動作生成部9に与える。
【0024】瞳孔制御部4は、瞳孔の開き具合を制御す
るものであって、ここでは動作指令部1からの動作指令
に基づいて自己生成した瞳孔開度情報を身体動作制御に
必要な制御情報の1つとして動作生成部9に与える。
【0025】頭部制御部5は、顔向きを制御するもので
あって、ここでは動作指令部1からの動作指令に基づい
て自己生成した顔向き情報を身体動作制御に必要な制御
情報の1つとして動作生成部9に与える。
【0026】まゆげ制御部6は、まゆげの上げ下げを制
御するものであって、ここでは動作指令部1からの動作
指令に基づいて自己生成したまゆげ形状情報を身体動作
制御に必要な制御情報の1つとして動作生成部9に与え
る。
【0027】鼻制御部7は、鼻孔の開き具合や鼻の皺を
制御するものであって、ここでは動作指令部1からの動
作指令に基づいて自己生成した鼻形状情報を身体動作制
御に必要な制御情報の1つとして動作生成部9に与え
る。
【0028】耳制御部8は、耳の動きを制御するもので
あって、ここでは動作指令部1からの動作指令に基づい
て自己生成した耳動き情報を身体動作制御に必要な制御
情報の1つとして動作生成部9に与える。
【0029】また、上述した各動作制御部2〜8は自身
の動作制御を後述する同期情報によって互いに情報交換
し、これにより他の動作制御を自身の動作制御に適宜同
期させるような処理を行う。
【0030】動作生成部9は、これらの各動作制御部2
〜8によって個別に生成された制御情報を統合し、CG
モデルやロボットモジュールを実際に変形させて身体各
部の動作を可視化する。
【0031】以上の構成が本発明に係る身休動作生成装
置の構成である。そして、図中の10は本装置を生成身
体動作利用システムと成すためのアプリケーシヨン部で
ある。このアプリケーション部10はその目的に適った
動作指令を目標動作指令部1に要求することにより、上
記身体動作生成装置がシステムとして何らかの用途に供
されることになる。
【0032】ここで、各動作制御部2〜8は目標動作指
令部1から動作指令を受ける。この動作指令は目標動作
指令部1から全ての動作制御部2〜8に対してブロード
キャスティングされるが、これを受理できる動作制御部
のみが当該指令に反応し、他はこれを無視する。この場
合、ある動作指令を受理して反応すべきか無視すべきか
は各動作制御部2〜8のそれぞれが知っており、目標動
作指令部1は各動作制御部2〜8の性能を詳細に知る必
要はない。これにより、身体の各部を独立に開発/調整
/追加/削除/拡張/入れ替えが可能となり、高いメン
テナンス性が実現される。
【0033】目標動作指令部1から送られる動作指令
は、例えば以下のような簡単かつ大ざっばなものであ
る。 (1)どこそこを注視せよ (2)驚きながら、どこそこに目を向けよ (3)どこそこを見て、そして驚け 上記(1)のような指令の場合、そのときの動作指令は
視線制御部2とまぶた制御部3と頭部制御部5に受理さ
れる。最終的に指定箇所を注視するために、まず視線制
御部2が眼球を回転させ始める。眼球が回転を始める
と、視線制御部2は眼球回転が開始されたことと眼球向
きを他の動作制御部に通達する。この通達情報を同期情
報と呼ぶ。なお、視線制御部2による眼球回転は一般に
サッケードと呼ばれる離散的な回転を模擬可能なよう
に、所定角度ずつ離散的に回転される。
【0034】まぶた制御部3は、同期情報によって該眼
球向きを知り、それに従って上下まぶたの開度を制御す
る。この制御は視線を遮らないようにまぶたを開けてお
くように行われる。具体的には、上を見れば上まぶたが
開き、下を見れば上まぶたと下まぶたが下がるように行
われる。
【0035】眼球回転可能範囲を超えない場合には、以
上で視線方向を変える動作が完了する。眼球回転可能範
囲を超える場合には、眼球回転は限界まで行われ、その
旨が視線制御部2から頭部制御部5に同期情報として伝
達される。頭部制御部5は同期情報を検出すると、眼球
回転を追うように頭部を回転させ始める。
【0036】視線が指定箇所に向くと、眼球回転は指定
箇所を向くように固定され、頭部回転が追随し終わるの
を待つ。頭部向きが視線向きに一致したところで頭部回
転動作が終了し、視線制御部2による注視維持動作が開
始される。
【0037】注視維持中の視線制御部2は、所定の条件
に従って視線を僅かに揺らし続ける。このように視線を
僅かに揺らすことにより、あたかも生命あるもののよう
に目に表情を付けることが可能となる。
【0038】このように、ただ「どこそこを注視せよ」
という単純な動作指令を与えるのみで、その動作指令に
反応する各動作制御部の分散自律協調動作により、指定
箇所を注視する際に頭部回転に先駆けて眼球回転が先行
したり、視線に応じてまぶたが開閉したり、注視中に視
線が揺れたりといったような自然で複雑な現象を自動的
に生成することができる。
【0039】従来の中央集権的制御では、このような連
携動作を生成するためには、動作生成エンジンが各動作
を一手に計算し、動作情報としてこと細かく動作生成手
段9に与えなければならず、そのような細かな動作を生
成するための知識を一手に保持蓄積しておかなければな
らなかった。
【0040】上記(2)のような指令の場合には、その
ときの動作指令は視線制御部2、まぶた制御部3、瞳孔
制御部4、頭部制御部5に受理される。まぶた制御部3
は上記動作指令を受けると、まぶた開度を増大させると
同時に瞬きを中止させ、同期情報を通達する。これを受
けて瞳孔制御部4は瞳を開放させる。同じく視線制御部
2は上記同期情報を受けて眼球を回転させ始め、上記
(1)と同様に頭部制御部5がこれに追従する。
【0041】次の動作指令が目標動作指令部1から送出
されると、驚きから回復する動作としてまぶた制御部3
により瞬き頻度が増大されて、目をパチクリさせる様子
が自動生成される。
【0042】上記(3)のような指令の場合には、上記
(1)と同様にして視線が指定箇所に向けられる。動作
が完了すると、視線制御部2が注視維持を同期情報とし
て通達し、これを受けたまぶた制御部3と瞳孔制御部4
が上記(2)と同様にして驚きの表情を生成する。
【0043】図2は各動作制御部2〜8に共通する内部
構成を示したブロック図である。各動作制御部2〜8
は、指令解釈部11、同期情報通信部12、制御情報出
力部13によって構成されている。
【0044】指令解釈部11は、目標動作指令部1から
の動作指令を受けて解釈する。この指令解釈部11は当
該動作指令を受理すべきか無視すべきかを判断し、受理
すべきと判断した際には当該動作指令を解釈して生成し
た中間指令情報を制御情報出力部13にバッファリング
させる。
【0045】他の動作制御部から同期情報が通達される
と、同期情報通信部12はこれを制御情報出力部13に
送る。これを受理した制御情報出力部13はバッファリ
ングされた中間指令情報を実時間で変化する制御情報に
変換し、これを動作生成部6に転送し、同時に自身の同
期情報を生成して同期情報通信部12に与える。同期情
報通信部12はこれを他の動作制御部に送信する。
【0046】このように、全ての動作制御部に対して共
通に送られる動作指令を指令解釈部11が各動作制御部
に応じた中間指令情報に変換し、さらに制御情報出力部
13が実時間で変化する制御情報に変換することで動作
が実行される。
【0047】次に、同実施形態の動作を説明する。ここ
では、図3および図4を参照して各動作制御部2〜8の
共通の処理動作について説明する。
【0048】図3は指令解釈部11における処理の流れ
を示すフローチャートである。アプリケーション部10
からの指令要求があると、目標動作指令部1はその目的
に応じた動作指令を各動作制御部2〜8に対して出す。
これにより、各動作制御部2〜8の指令解釈部11は以
下のような処理を実行する。
【0049】すなわち、まず、指令解釈部11は目標動
作司令部1から各動作制御部2〜8に対して共通に送ら
れてくる動作指令を待つ(ステップA11)。動作指令
があると、指令解釈部11はその動作指令を評価する
(ステップA12)。この評価は、例えば動作指令に含
まれる「注視せよ」、「見ろ」、「向け」、「驚け」な
どの動作を表わす何らかの記号(キーワード)を各動作
制御部2〜8毎に登録されている記号リストと対照する
ことで行われる。自分の記号リストに登録されている記
号が動作指令に含まれていれば、当該動作制御部はこの
動作指令を実行しなければならない。
【0050】しかして、評価の結果、このときの動作指
令を無視すべきと判定した場合には(ステップA13の
無視)、ステップA11の動作指令待ち受け処理に処理
が戻される。一方、受理すべきと判定した場合には(ス
テップA13の受理)、指令解釈部11はそのときの動
作指令を自身(当該動作制御部)の動作制御に応じた中
間指令情報に変換し、これを制御情報出力部13に出力
する(ステップA14)。
【0051】このようにして生成された中間指令情報は
動作指令より詳細な指令である。例えば「どこそこを見
ろ」という動作指令の場合、視線制御部2であれば、
「どこそこに視線を向けろ」と「視線が向いたらそこを
注視せよ」という時系列的に2段階の中間指令情報に変
換されて制御情報出力部13にバッファリングされるこ
とになる。
【0052】「どこそこに視線を向けろ」と「視線が向
いたらそこを注視せよ」という2つの中間指令情報は、
各々に対応したプロシージャを起動することと、その初
期化の条件を与える命令である。例えば「どこそこに視
線を向けろ」という中間指令情報に対応したプロシージ
ャは注視変更プロシージャであり、その初期化条件は
「どこそこ」という目標値である。また、「視線が向い
たらそこを注視せよ」という中間指令情報は注視変更プ
ロシージャが終了したら注視維持プロシージャが起動さ
れることを意味し、その初期化条件は注視箇所を中心に
視線をランダムに揺らすことを示している。
【0053】このとき、上記した「どこそこを見ろ」と
いう動作指令は、頭部制御部6では、「もし眼球回転範
囲を超えたら頭部回転で補え」と「視線が向いたら頭部
姿勢を維持しろ」という2段階の中間指令情報に変換さ
れる。前者に対応して起動される頭部姿勢変更プロシー
ジャは注視変更プロシージャが流す同期情報から眼球回
転可能範囲を超えたことを知ると初めて頭部を回転させ
る。また、後者に対応した頭部姿勢維持プロシージャは
視線固定後の視線に対する頭部姿勢を維持させる。
【0054】なお、ここでは例示していないが、身体の
姿勢が変わって頭部の位置がずれた場合には同期情報か
らそれを知り、視線に対する姿勢を維持するように頭部
を自動的に回転させる。
【0055】このような各プロシージャは制御情報出力
部12で実行される。したがって、正確にはプロシージ
ャは直接眼球を回転させたり頭部を回転させるわけでは
ない。すなわち、これらは動作生成部9がその動作を生
成できるような制御情報を演算するのである。
【0056】図4は制御情報出力部12における処理の
流れを示すフローチャートである。上述したように、指
令解釈部11が目標動作指令部1からの動作指令を受理
すべきと判定すると、その動作指令を自身(当該動作制
御部)の動作制御に応じた中間指令情報に変換し、これ
を制御情報出力部13に出力する。
【0057】制御情報出力部13では、この指令解釈部
11から送られる中間指令情報を図示せぬバッファ(メ
モリ)に一時的に蓄える(ステップB11)。この後、
制御情報出力部13はバッファ読み出し処理を実行し、
上記バッファに蓄えられた中間指令情報の読み出し処理
を行う(ステップB12)。
【0058】その際、もしバッファが空であれば、すな
わち、中間指令情報が生成されていなければ(ステップ
B13のYes)、処理はステップB11に戻る。ま
た、バッファが空でなく、そこに中間指令情報が生成さ
れていれば(ステップB13のNo)、制御情報出力部
13はバッファから当該中間指令情報を読み出し、その
当該中間指令情報に対応したプロシージャを所定の初期
化条件で起動する(ステップB14)。ここでのプロシ
ージャ実行処理により、中間指令情報が実時間で変化す
る制御情報に変換される。変換生成された制御情報は、
例えば視線制御部2であれば、視線方向情報として動作
生成部9に送られる。
【0059】このように、1つの共通した動作指令か
ら、各々の動作制御部2〜8に含まれる指令解釈部11
が独立にそれを解釈してより具体的な中間指令情報を生
成し、これを各々の制御情報出力部13が最も具休的な
実時間の制御情報に変換して動作生成部9に送り、該動
作生成部9が実際の動作を可視化する。
【0060】また、このとき各動作が他の動作に相互に
同期しつつ影響を及ぼしあう状況を実現するために、同
期情報が全ての動作制御部2〜8によって共有される。
この同期情報によって、他の動作制御を自身の動作制御
に適宜同期させることができる。
【0061】このような共有機能は、ハードウェア的に
は各動作制御部2〜8をバス結合することで実現され、
ソフトウェア的にはブラックボードシステム、共有メモ
リ、メッセージキューなどの手段で実現される。
【0062】また、動作指令に対して指令解釈部11が
生成する中間指令情報は、各動作制御部2〜8毎に独立
に開発/修正/追加/削除が可能であり、各中間指令を
実行するプロシージャもまた独立に開発/調整が可能で
あることから、高いメンテナンス性を実現する。
【0063】なお、本発明に係る身体動作生成装置及び
身体動作制御方法は、以上の例の他にも目周辺の表情付
けとして以下のことが可能である。これらは全て本発明
により分散自律協調的に自動生成可能である。
【0064】(1)集中/放心時に自動的に視線揺らぎ
の頻度と振幅を低下させる。 (2)緊張/驚き/照れ時に自動的に視線揺らぎの頻度
と振幅を増大させる。 (3)思案時に自動的に視線を泳がせる。
【0065】以上は注視維持プロシージャの初期化条件
として大小のゆらぎ振幅を与えることにより実現する。 (4)注視/集中/凝視/思案/放心時に自動的に瞬き
頻度を低下させる。
【0066】(5)緊張時に自動的に瞬き頻度を増大さ
せる。 以上は瞬きプロシージヤが注視維持プロシージャの同期
情報を参照し、初期化条件に瞬き頻度を与えれば良い。
【0067】(6)1対1対話時に自動的に相手の顔・
目・口への注視を巡回させる。 (7)1対多対話時に自動的に複数相手の顔・目・口へ
の注視を巡回させる。 以上はアプリケーション部10から目標動作生成部1に
多点を目標とする注視要求が目標点のリストと共に出さ
れ、目標動作指令部1が「どこと、どこと、どことを見
ろ」という動作指令にこれを編集して送ることで実現で
きる。
【0068】この他にも多種多様な表情付けが可能であ
り、さらに、このような表情付けは上述した視線、まぶ
た、瞳孔、頭部の部分に限らず、まゆげ、鼻、耳の部分
に関しても、動作指令に応じた中間指令情報とプロシー
ジャを適宜追加することで容易に実現することができ
る。
【0069】また、特に図示はしなかったが、口の動き
を制御する口制御部を設け、その制御に上記同様の手法
を適用すれば、さらに複雑な表情付けが可能となり、よ
り自然な動きを実現することができる。
【0070】また、このような表情付けを実現するため
に、本発明では分散自律協調的な制御方式を用いてい
る。このため、従来の中央集権的な制御方式に比べ、簡
単かつ大ざっぱな動作要求にて身体細部における動作を
簡単かつ高精度に具体化することができ、さらには、身
体各部毎に独立した制御が行われることから、他の制御
部に影響を与えず、任意の制御部を適宜バージョンアッ
プするなどの作業を容易に行うことができる。
【0071】
【発明の効果】以上のように本発明によれば、身体各部
を担当する各動作制御手段が分散自律協調的に要求に適
う身体動作を生成可能とし、もって動作要求を簡単かつ
大ざっぱに与えるだけで身体細部における動作を具体化
する。この結果、従来の中央集権的制御を行う動作自動
生成方式に比べて、動作生成時の省力化を実現すること
ができ、さらに開発/調整/拡張/メンテナンス時の省
コスト化も実現することができる。
【0072】また、本発明によれば、例えば見つめる/
視線を流す/目を見はるななどの視線/まぶた開度/瞳
開度といったような複雑な表現要素を考慮して、目周辺
の自然な動作を自動生成することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る身体動作生成装置の
構成を示すブロック図。
【図2】同実施形態における動作制御部の内部構成を示
すブロック図。
【図3】同実施形態における指令解釈部における処理の
流れを示すフローチャート。
【図4】同実施形態における制御情報出力部における処
理の流れを示すフローチャート。
【符号の説明】
1…目標動作指令部 2…視線制御部 3…まぶた制御部 4…瞳孔制御部 5…頭部制御部 6…まゆげ制御部 7…鼻制御部 8…耳制御部 9…動作生成部 10…アプリケーション部 11…指令解釈部 12…同期情報通信部 13…制御情報出力部
フロントページの続き (72)発明者 田中 英治 大阪府大阪市北区大淀中一丁目1番30号 株式会社東芝関西支社内 (56)参考文献 特開 平2−42581(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 13/00,15/70

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】 画面に表示された模擬身体各部を動かす
    ため、目的に応じた動作指令をする動作指令手段と、 この動作指令手段の動作指令を共通に受けて、それぞれ
    が独立に上記模擬身体各部の動作を制御するものであっ
    て、動作指令を受けたとき、当該動作指令を解釈し、そ
    の動作指令から自身の動作制御に応じた中間指令情報を
    生成し、その中間指令情報から実時間で変化する制御情
    報を生成すると共に、その制御情報に応じた同期情報を
    互いに交換可能とし、その同期情報に基づいて他の動作
    制御を自身の動作制御に適宜同期させる複数の動作制御
    手段と、 この各動作制御手段によって個別に生成された制御情報
    に基づいて上記模擬身体各部の動作を可視化する動作生
    成手段とを具備したことを特徴とする身体動作生成装
    置。
  2. 【請求項2】 画面に表示された模擬身体各部を制御す
    る複数の動作制御部が目的に応じた動作指令を共通に受
    けて、それぞれが独立に上記模擬身体各部の動作を制御
    する方法であって、 動作指令を受けたとき、当該動作指令を解釈し、 その動作指令から上記各動作制御部自身の動作制御に応
    じた中間指令情報を生成し、 その中間指令情報から実時間で変化する制御情報を生成
    すると共に、 その制御情報に応じた同期情報を上記各動作制御部間で
    互いに交換可能とし、その同期情報に基づいて他の動作
    制御を自身の動作制御に適宜同期させることにより、 この個別に生成された制御情報に基づいて身体各部の動
    作を可視化するようにしたことを特徴とする身体動作制
    御方法。
JP05796796A 1996-03-14 1996-03-14 身体動作生成装置及び身体動作制御方法 Expired - Fee Related JP3519537B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05796796A JP3519537B2 (ja) 1996-03-14 1996-03-14 身体動作生成装置及び身体動作制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05796796A JP3519537B2 (ja) 1996-03-14 1996-03-14 身体動作生成装置及び身体動作制御方法

Publications (2)

Publication Number Publication Date
JPH09251553A JPH09251553A (ja) 1997-09-22
JP3519537B2 true JP3519537B2 (ja) 2004-04-19

Family

ID=13070794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05796796A Expired - Fee Related JP3519537B2 (ja) 1996-03-14 1996-03-14 身体動作生成装置及び身体動作制御方法

Country Status (1)

Country Link
JP (1) JP3519537B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3673719B2 (ja) * 2001-01-26 2005-07-20 日本電信電話株式会社 擬人化インタフェース装置とその方法及び擬人化インタフェースプログラム及び擬人化インタフェースプログラムを記録した記録媒体
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP6792831B2 (ja) * 2012-05-08 2020-12-02 Linfops有限会社 脳型感情表現ロボットの制御方法

Also Published As

Publication number Publication date
JPH09251553A (ja) 1997-09-22

Similar Documents

Publication Publication Date Title
US6657628B1 (en) Method and apparatus for specification, control and modulation of social primitives in animated characters
Kopp et al. Synthesizing multimodal utterances for conversational agents
US6249292B1 (en) Technique for controlling a presentation of a computer generated object having a plurality of movable components
Shapiro Building a character animation system
Hashimoto et al. Development of the face robot SAYA for rich facial expressions
JP7177497B2 (ja) 相手を見つめる自律行動型ロボット
US20230305530A1 (en) Information processing apparatus, information processing method and program
JP2003265869A (ja) ロボットの目・眉機構
US20190389075A1 (en) Robot system and robot dialogue method
US6975970B2 (en) Method for designing an interactive system
CN109773807B (zh) 运动控制方法、机器人
CN110837294A (zh) 一种基于眼球追踪的面部表情控制方法及系统
Sakai et al. Speech driven trunk motion generating system based on physical constraint
JP3519537B2 (ja) 身体動作生成装置及び身体動作制御方法
Thiebaux et al. Real-time expressive gaze animation for virtual humans
Desmurget et al. Are reaching movements planned to be straight and invariant in the extrinsic space? Kinematic comparison between compliant and unconstrained motions
JP2014064248A (ja) 画像投影装置及び画像投影方法
EP3664425A1 (en) Method and device for generating and displaying an electronic avatar
Hashimoto et al. Development of face robot for emotional communication between human and robot
Schulz et al. Humotion: A human inspired gaze control framework for anthropomorphic robot heads
CN210121851U (zh) 一种机器人
Takanishi An anthropomorphic robot head having autonomous facial expression function for natural communication with humans
Kozima et al. Communicative criteria for processing time/space-varying information
Fukuda et al. Human-robot mutual communication system
CN211806165U (zh) 一种机器人表情模拟机构

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090206

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100206

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees