JP2010253640A - 姿勢データ入力装置 - Google Patents

姿勢データ入力装置 Download PDF

Info

Publication number
JP2010253640A
JP2010253640A JP2009108270A JP2009108270A JP2010253640A JP 2010253640 A JP2010253640 A JP 2010253640A JP 2009108270 A JP2009108270 A JP 2009108270A JP 2009108270 A JP2009108270 A JP 2009108270A JP 2010253640 A JP2010253640 A JP 2010253640A
Authority
JP
Japan
Prior art keywords
joint
posture
data
user
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009108270A
Other languages
English (en)
Other versions
JP5464406B2 (ja
Inventor
Chiou Albert
チョー アルバート
Yuta Sugiura
裕太 杉浦
Sunao Hashimoto
直 橋本
Masahiko Inami
昌彦 稲見
Tateo Igarashi
建夫 五十嵐
Katsuaki Kawachi
克明 川地
Satoshi Kagami
聡 加賀美
Masaaki Mochimaru
正明 持丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Japan Science and Technology Agency
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Advanced Industrial Science and Technology AIST filed Critical Japan Science and Technology Agency
Priority to JP2009108270A priority Critical patent/JP5464406B2/ja
Publication of JP2010253640A publication Critical patent/JP2010253640A/ja
Application granted granted Critical
Publication of JP5464406B2 publication Critical patent/JP5464406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】より自然な姿勢データを簡易に入力できる技術を提供する。
【解決手段】姿勢データ入力装置は、ユーザが操作可能な複数の関節部を備えるロボット人形と、複数の関節部を駆動する制御手段と、ユーザ操作と制御手段による駆動が加えられた後の各関節部の角度データを姿勢データとして取得する取得手段を備える。各関節部の可動範囲を記憶しておき、制御手段によって各関節部がこの可動範囲内に収まるようにフィードバック制御することが好ましい。また、姿勢データを複数記憶しておき、ユーザが一部の関節部を操作すると、それに対応する姿勢データを抽出して、ロボット人形が抽出された姿勢データに従うようにフィードバック制御することも好ましい。さらに、既存の動作データをロボット人形で再生しつつ、その際に関節部の姿勢変化を許容して、動作データの編集を行うことも好ましい。
【選択図】図2

Description

本発明は、人体や生体などの3次元モーションデータを入力するための技術に関する。
3次元コンピュータグラフィクスにおいて、人体の動作を表すモーションデータを生成する手法には、次のようなものがある。
まず、マウスやキーボードなどの入力装置を用いてキーフレームの姿勢データを入力し、キーフレーム間の姿勢をInverse Kinematics(逆運動学)法などによって補間する手法がある。また、モーションキャプチャでは、人体にセンサーをつけて実際に動作を行い、それをカメラ撮影によって取り込む。さらに別の手法として、ロボット人形(多関節体)をインタフェースに使った手法がある。たとえば、ハンドパペット型のロボットを手に装着して動かすことでコンピュータの中で生成されたCGアバターを操作する研究が行われている。また、関節部にセンサーを有するロボット人形をインタフェースに用いる研究も行われている。操作者が人形の関節を動かすと、その姿勢がセンサーによって読み取られて入力として処理される(非特許文献1,2)。
M. P. Weller, et. al., "Posey: instrumenting a poseable hub and strut construction toy", Proceedings of the 2nd internatinal conference on Tnagible and embedded interaction, TEI 2008, ACM, pp. 39-46, 2008. B. Knep, et. al. "Dinosaur input device", Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, ACM, pp. 304-309, 1995.
マウスやキーボードなどの2次元入力装置を用いて3次元の姿勢データを作成するのは煩雑で時間を要する。したがって、リアルタイムにモーションデータを生成することは困難である。
モーションキャプチャは、装置が大がかりになる点と、実際に人間が動作をしなければならない点で困難がある。たとえば、動作の一部を間違えた場合に、全ての動作を一から撮影し直さなければならない。モーションキャプチャはあらかじめ定められた動作を記録するには適していると言えるが、一部の動作を修正したりする目的には適していない。
人形型のインタフェース装置を用いる手法では、ユーザが3次元の人形を動かすことでモーションデータを入力できるため、直感的な操作が可能となる。また、実際に人間が身体を動かす必要がなく、また、装置も小規模ですむという利点もある。ただし、ハンドパペット型の装置では入力できる情報(姿勢)が限られてしまう。また、ロボット人形を用いる場合には、より自然な姿勢や動作を入力するためには全ての関節の角度を適切に設定する必要があり、この点で操作が困難である。
本発明は上記のような従来技術の問題点を考慮してなされたものであって、その目的は、より自然な姿勢データを簡易に入力することのできる技術を提供することにある。
本発明に係る姿勢データ入力装置は、ユーザが角度を変更可能な複数の関節部と、複数の関節部を駆動する制御手段と、ユーザ操作と制御手段による駆動が加えられた後の各関節部の角度データを姿勢データとして取得する取得手段と、を備える。
このように、ユーザが関節部を動かして姿勢データを入力する姿勢データ入力装置において、ユーザ操作とは別に関節部を駆動する制御手段を設けたことで、ユーザは全ての関節を操作する必要がなくなる。つまり、簡易な操作でより適切な姿勢データを入力することができる。
より具体的には、各関節部の可動範囲が格納された可動範囲記憶手段をさらに有し、制御手段は、各関節部が可動範囲内に収まるように制御することが好ましい。人間や動物の各関節部は、それぞれ動作可能な範囲が決まっており、通常はそれを越えて動かせない。関節部がこの可動範囲を超える角度になってしまうと、その姿勢は実際にはあり得ない不自然な姿勢となってしまう。自然な姿勢を再現するために、制御手段は可動範囲を超えて関節部が動かないように固定することが好ましい。これにより、自然な姿勢を入力することができる。
また、複数の関節部の関係を格納する可動範囲記憶手段をさらに有し、制御手段は、一部の関節部が動かされたときに、他の関節部を可動範囲内に収まるように制御することも好ましい。人間や動物の関節においては、関節部の可動範囲はそれぞれ独立に決まるだけでなく、他の関節部の姿勢の影響も受ける。たとえば、人体においては膝関節を伸ばしたままでは股関節を上方に90度以上曲げるのは困難であり、それ以上曲げる場合には膝関節を曲げる必要がある。このように複数の関節部の可動範囲は互いに関連している。そこで、複数の関節部が可動範囲内に収まるように制御手段が制御を行うことで、ユーザは一部の関節部を動かすだけでも全体的に自然な姿勢が得られることになる。
また、姿勢データを記憶する姿勢データ記憶手段をさらに有し、制御手段は、一部の関節部がユーザによって動かされたときに、この関節部の姿勢と一致する姿勢データを姿勢データ記憶手段から抽出し、動かされた関節以外の関節部を抽出された姿勢データに応じて制御することも好ましい。このようにすれば、ユーザは一部の関節部を操作するだけで、自然な全体姿勢を得ることができる。また、この処理を連続的に行うことで、自然な動作の動作データ(時系列的な姿勢データ)を、一部の関節部を操作するだけで得ることができる。
また、動作データを記憶する動作データ記憶手段をさらに有し、制御手段は、動作データに基づいて各関節部を駆動するとともに、動作データの再生中にユーザ操作による関節部の姿勢変化を許容し、変化された姿勢と記憶されている動作データに基づいて各関節部を駆動することも好ましい。関節部は制御手段によって駆動できるので、本発明に係る姿勢データ入力装置は既存の動作データを再生するための出力装置として利用可能である。このとき、再生中の動作において一部の関節の姿勢を変化させることで、部分的に姿勢が変化された動作が再生される。たとえば、肘関節を伸ばしたまま腕(肩関節)を揺らす動作を再生しているときに、肘関節を曲げると肘を曲げて腕を揺らす動作を得ることができる。つまり、このような構成によれば既存の動作データを容易に修正(編集)可能となる。
本発明によれば、簡易な操作で自然な姿勢データを得ることが可能となる。
ロボット人形の概要を示す図であり、図1Aは外観を示し、図1Bはサーボモータの配置を示す図である。 第1の実施形態に係る姿勢データ入力装置の機能ブロック図である。 各関節部の可動範囲を記憶するテーブルの例である。 図4Aは関節間の可動範囲の関係を記憶するテーブルの例であり、図4B,Cはフィードバック制御の例を説明する図である。 第2の実施形態に係る姿勢データ入力装置の機能ブロック図である。 第2の実施形態における動作データ入力処理のフローチャートである。 第3の実施形態に係る姿勢データ入力装置の機能ブロック図である。 第3の実施形態における動作データ編集処理のフローチャートである。
(第1の実施形態)
本実施形態に係る姿勢データ入力装置は、人間の形状を模擬したロボット人形1を利用する。図1A,Bに、このロボット人形1の概要を示す。図1Aは、ロボット人形1の外観を示す。ロボット人形1は、胴体部、頭部、左右の腕部、左右の脚部が設けられている。図1Bに示すように、このロボット人形1は、頭部が3自由度、胴体部が2自由度、腕部がそれぞれ6自由度(肩関節:3自由度、肘関節:1自由度、手根関節:2自由度)、脚部がそれぞれ6自由度(股関節:3自由度、膝関節:1自由度、足関節:2自由度)の合計29自由度の多関節体として構成されている。ロボット人形1の各関節部には、関節を駆動するため、および、関節の状態を取得するために、サーボモータが用いられている。なお、このロボット人形1はユーザが手に持って各関節部を操作するため、その目的にかなった大きさ・重さで作成することが好ましい。たとえば、全長40cm程度、幅20cm程度、重さ1kg程度、あるいはそれより小型に設計すると取り扱いが簡単となる。ただし、ロボット人形の関節の数やその自由度、寸法、重量などは用途に応じて適宜設計すれば良く、上記の説明は本発明を限定するものではない。
図2は、本実施形態に係る姿勢データ入力装置の機能ブロックを示す図である。ロボット人形1はPC2に接続されている。PC2は、ロボット人形1の各関節部を構成するサーボモータ11のパラメータを取得するとともに、サーボモータ11の設定値を指定するフィードバック制御を行う。PC2がロボット人形1から取得した各関節部の角度データは、ロボット人形1を利用した姿勢データの入力値として、3次元可視化システム(プログラム)3に送られる。たとえば、3次元可視化システム3では、入力された姿勢データに基づいてCGアバターを表示したりする。また、CGアバターが3次元仮想空間内で移動したときに仮想物体と接触した場合に、力覚刺激を与えるためにPC2を介してロボット人形1にフィードバック制御を行う。
PC2は、ロボット人形1から各サーボモータの位置(角度)や加速度などを取得するパラメータ取得部21、各サーボモータの設定値を変更する設定値制御部22、各サーボモータの可動範囲を記憶する可動範囲記憶部23を備える。通信規格として任意のものを採用可能であるが、ここではロボット人形1内の各関節部を構成するサーボモータはRS485規格のシリアルバスに接続され、RS485/USB変換器を介してPC2と接続される。PC2はUSBポートからコマンドを送信してサーボを制御可能である。なお図示は省略しているが、PC2はさらに、ディスプレイやスピーカーなどの出力装置や、マウスやキーボードなどの入力装置などを有し、ユーザに情報を提示した入り、ユーザから指示入力を受け付けたりする。PC2内の各機能部はユーザからの指示入力によって、機能の有効無効を切り替えたり、動作設定を変更可能である。
サーボモータ11は、サーボ電機子11bが設定値制御部22から指定された設定値を取るようにマイクロコントローラ11aによってフィードバック制御される。このように
、サーボモータ11はハードウェアとソフトウェアの二重のフィードバック制御を受ける。ここでは、これら2つの制御系は以下のように最小限のインタラクションを有する。まず、関節部(サーボモータ)の角度が設定値から閾値を越えて変化した場合には、設定値制御部22が変化後の値を新たな設定値として設定する。また、関節部の角速度が所定値以上となった場合にはトルク抵抗を解放し、また角速度が所定値未満となった場合にトルク抵抗を回復させる。これらの機構により、関節部の大きな角度変化にも小さな角度変化にも対応可能となる。
このように、ロボット人形1の各関節部をユーザが操作することで、PC2から3次元仮想化システム3に姿勢データを入力することができる。ここで、人間が自然に取ることのできる姿勢は人体の構造上限られている。自然な姿勢となるようにユーザが全ての関節部を制御することは煩雑であるため、本実施形態における姿勢データ入力装置では、PC2からのフィードバック制御によって自然な姿勢となるように各関節部を制御する。
・自然な姿勢を実現するための構成1
このような制御を実現するために、可動範囲記憶部23に各関節部のサーボモータが取りうる角度の範囲(可動範囲)が情報として記憶される。図3は、可動範囲記憶部23に記憶されるテーブルの例を示す図である。パラメータ設定部22は、サーボモータの設定値がこの可動範囲内に収まるように制御する。具体的には、各関節が可動範囲の限界に近くなるとトルク抵抗を大きくすることでそれ以上の関節の姿勢変化を抑制し、各関節部をテーブルに格納された可動範囲内に収めることができる。また、たとえば、関節が可動範囲の限界に近くになるにつれて、音(音声)や光などでユーザに対して報知することも好ましい。
このようにフィードバック制御を用いることで、各関節部が自然な姿勢を取るように制御することが可能となる。したがって、3次元可視化システム3に対して自然な姿勢を入力することができ、この際ユーザに対してそれほど負担を掛けることもない。
なお、各関節部の可動範囲制御は、関節部の機械的構成を工夫することでも実現できるが、本実施形態のようにフィードバック制御を用いる実現手法には次のような利点がある。つまり、可動範囲は可動範囲記憶部23に記憶されているテーブルによって決定されるので、このテーブルを書き換えることで異なる特性を持つ人体モデルの姿勢データを得ることができる。可動範囲記憶部23に複数の人体モデルに対応する各関節部の可動範囲を複数格納しておき、設定値制御部22は指定された人体モデルに対応する可動範囲内に収まるように各関節部を制御することも好ましい。
・自然な姿勢を実現するための構成2
人体の関節は連動して動作するものであり、個々の関節は完全に独立して動作できるものではない。たとえば、股関節を曲げて脚部を持ち上げると、膝関節が曲がり始める。つまり、股関節の角度によって、膝関節が取りうる角度が制限されて完全に真っ直ぐにできなくなる。このような関係は、膝関節と股関節の間でだけ成り立つものではなく、その他の関節の間でも成り立つ。
このような制御を実現するために、可動範囲記憶部23に、複数の関節部が取りうる可動範囲の関係を記憶する。図4Aは、膝関節と股関節の取りうる角度の関係を示す図である。図の横軸は膝関節の角度を示し、縦軸は股関節の角度を示す。点線で示される範囲41は、それぞれの関節部に独立に可動範囲が設定された場合の、両関節が取りうる範囲を示す。これに対して、太線で示される範囲42は膝関節と股関節の取りうる角度の関係を示している。図に示すように、膝関節が伸びた状態では、股関節の取りうる角度の上限が小さく設定される。
設定値制御部22は、各関節部が可動範囲記憶部23に格納されている可動範囲の中に収まるように各関節部をフィードバック制御する。具体的には、たとえば、膝関節を伸ばしたまま股関節を曲げる動きをユーザが行った場合を考える。股関節の角度が小さい間(矢印44a)は、図4Bに示すように、ユーザの操作により股関節が曲がるだけであり、膝関節は伸びたままである。股関節の角度を大きくしていくと、そのままでは、図4Aに示される可動範囲から外れる動きとなる(矢印43)。この場合は、設定値制御部22は膝関節を屈曲させるようにサーボモータの設定値を変更する。これにより、膝関節と股関節の動きは、図4Aの矢印44aに示す動きとなり、図4Cに示すように股関節を持ち上げるにしたがって膝関節が曲がるという自然な姿勢が実現される。
このように、複数の関節が適切な関係を保った自然な姿勢データの入力が可能となる。この際、ユーザは全ての関節を意識的に正しい角度に調整しなくても、PC2がフィードバック制御によって各関節部の角度を調整するため、ユーザの負担が少なくて済む。
なお、ここでは2関節の関係を規定する場合を例に説明したが、3つ以上の関節(サーボモータ)の角度関係を規定する場合も、同様に実現できることは明らかであろう。
この制御もフィードバック制御によって実現しているため、可動範囲情報を変更することで、異なる人体モデルの姿勢を実現できるという利点がある。
(第2の実施形態)
第2の実施形態では、ロボット人形の一部の関節を操作するだけで適切な全身の姿勢を入力可能とする。図5は、本実施形態に係る姿勢データ入力装置の機能ブロックを示す図である。ロボット人形1は第1の実施形態と同様の構成を有する。PC2は、パラメータ取得部21、設定値制御部22、可動範囲記憶部23に加えて、姿勢データ抽出部24と姿勢データ記憶部25を備える。
姿勢データ記憶部25には、ロボット人形1の全ての関節部の角度情報からなる姿勢データが複数記憶される。なお、時間的に連続する姿勢データを、動作データ(モーションデータ)として記憶しても良い。姿勢データ抽出部24は、パラメータ取得部21から得られるロボット人形1の一部の関節部の角度情報と一致する姿勢データを姿勢データ記憶部25から抽出する。設定値制御部22は、姿勢データ抽出部24によって抽出された姿勢データ(各関節部の角度)をロボット人形1に対して設定する。このようなフィードバック機構により、ユーザはロボット人形1の一部の関節部を操作するだけで、ロボット人形1の全ての関節部が適切な姿勢となる。そして、ロボット人形1の各関節部の状態はパラメータ取得部21によって取得され、ロボット人形1からの入力として3次元可視化システム3に入力される。つまり、ユーザがロボット人形1の一部の関節部を操作するだけで、適切な全身の姿勢データを入力することができる。特に、ユーザは姿勢を決定する上で重要な関節部分のみの操作を行うだけで全身の姿勢データを入力できるため、ユーザの負担が軽減される。
本実施形態における姿勢データの入力方法を図6のフローチャートを参照しつつ説明する。まず、ユーザが、これから入力する動作の種類を入力(指定)する(ステップS21)。姿勢データ記憶部25には複数種類の動作データが記憶されており、姿勢データ抽出部24は、ユーザによって操作された一部の関節と一致する姿勢データを抽出する機能を有する。ここで、一致する姿勢の抽出は既知のアルゴリズムを用いて行えるが、処理の高速化および高精度化のために、抽出の対象とする動作データを絞り込んでおくことが好ましい。そのため、ユーザにこれから入力する動作を指定させる。この指定は、具体的な動作データを指定するものであっても良いが、いくつかの動作データのグループを指定する
ようなものであっても構わない。
上記の指定が行われた後、ユーザはロボット人形1の一部の関節部を操作する(ステップS22)。ここで操作する関節部は、入力する動作を規定する上で重要な部位を入力することが好ましい。たとえば、ボールを右脚で蹴る動作では、右脚の姿勢が全体の姿勢を決定するための重要な要素となるため、この部分をユーザが操作することが好ましい。ユーザが一部の関節部を動かすと、姿勢データ抽出部24は動かされた関節部の姿勢に対応する姿勢データを姿勢データ記憶部25から抽出し(ステップS23)、抽出された姿勢を取るようにフィードバック制御する(ステップS24)。これによりロボット人形1の全身をユーザによって動かされた関節部に対応する自然な姿勢とすることができる。なお、この処理を時間的に継続して行えば(すなわちステップS22からS24をループ処理すれば)、自然な姿勢の動作データを簡易に入力することができる。上記のボールを蹴る動作の例では、ユーザは右脚部だけを動かしてボールを蹴る動作をロボット人形1にさせると、各時点における右脚部の姿勢に対応する全身の姿勢が再現される。これにより、ボールを蹴る動作における全身の関節部の角度データをパラメータ取得部21が取得し、3次元可視化システム3に入力することができる。
(第3の実施形態)
第3の実施形態では、ロボット人形を用いて既存の動作データの編集(変更)を可能とする。図7は、本実施形態に係る姿勢データ入力装置の機能ブロックを示す図である。本実施形態における構成は、基本的に第1の実施形態と同様である。
ロボット人形1の関節部はPC2から制御可能であるため、ロボット人形1を入力手段だけでなく出力手段として利用することができる。つまり、動作データ記憶部31などに記憶されている動作データをPC2の設定値制御部22が受け取り、各関節部の角度情報をロボット人形1に設定することで、動作データにしたがってロボット人形1を動かすことができる。ユーザはロボット人形1の動きを実際に見て確認することができる。
ここで、再生中の動作データの一部を変更する手法を図8のフローチャートを参照しつつ説明する。まず、設定値制御部22が編集の対象となる動作データを読み込んで、それにしたがってロボット人形1の各関節部を駆動することで、ロボット人形1上で動作データを再生する(ステップS31)。ユーザは、姿勢を変更したい時点で、編集処理を開始することを入力する(ステップS32)。この時点で、動作データの再生処理は一時停止されて、ロボット人形1の各関節部の角度は維持される。ただし、第1の実施形態で説明したように、関節部の角度が現在の値から閾値を越えて変化した場合には変化後の姿勢を関節部の設定値とするため、この状態でユーザは関節部を手で動かして姿勢変化させることができる。そこで、ユーザは変更したい関節部を手で操作して所望の姿勢に変更させる(ステップS33)。姿勢の変更が完了したら、ユーザは編集処理を終了することを入力する(ステップS34)。設定値制御部22は、ユーザによって加えられた各関節部の姿勢変化の操作量、すなわち編集処理前後での姿勢データの差分を取得する(ステップS35)。そして、これ以降に動作データを再生するときには、読み込まれた動作データとユーザによる姿勢変化とを足し合わせて得られる姿勢を、ロボット人形上で再生する(ステップS35)。たとえば、動作データ記憶部31に格納されている動作が、肘を伸ばした状態で腕を前後に動かす動作であり、ユーザが加えた姿勢変化が肘を曲げる操作である場合には、肘を曲げた状態で腕を前後に動かす動作がロボット人形1上で再生されることになる。ロボット人形1の姿勢データはパラメータ取得部21によって取得されて、3次元可視化システム3に入力される。そして3次元可視化システム3は、取得された姿勢データにしたがってCGキャラクターを表示するとともに、得られた姿勢データを記憶部に記憶する。
このようにして、ユーザは既存の動作データをロボット人形1を利用して編集することができる。この編集作業は、ユーザが関節部を動かすだけで可能であるため、直感的で簡単である。人形が実際に動くのを見ながら編集できるので、ユーザが望む動作データをより簡単に得ることができる。
(その他)
上記の説明におけるロボット人形の関節の数や自由度はあくまでも例示であり、適宜変更することができる。また、ここでは人体を模した人形を例に説明したが、人間以外の動物や多関節体などの姿勢データを入力するために利用できることは明らかである。
また、上記の説明では各関節部にフィードバック制御を行うPC2をロボット人形1の外部に設けているが、フィードバック制御を行うためのプロセッサをロボット人形1内部に設けても良い。また、PC2と3次元仮想化システムを一つのコンピュータで実現する構成としても構わない。
上記の第1から第3の実施形態の構成は、組み合わせて利用できることは明らかであろう。また、本発明は上記の実施形態に例示した構成に限られるものではなく、その趣旨を逸脱しない範囲内で変更可能であることは言うまでもない。たとえば、PC2によって取得された姿勢データはどのように利用されても構わず、CGキャラクターを画面上で表示するために用いられたり、そのまま記憶部に格納されたりするだけでなく、さらに別の処理の対象となっても構わない。
1 ロボット人形
2 PC
21 パラメータ取得部
22 設定値制御部
23 可動範囲記憶部
24 姿勢データ抽出部
25 姿勢データ記憶部
3 3次元可視化システム

Claims (6)

  1. ユーザが角度を変更可能な複数の関節部と、
    前記複数の関節部を駆動する制御手段と、
    ユーザ操作と前記制御手段による駆動が加えられた後の各関節部の角度データを姿勢データとして取得する取得手段と、
    を備える姿勢データ入力装置。
  2. 各関節部の可動範囲が格納された可動範囲記憶手段をさらに有しており、
    前記制御手段は、前記関節部が可動範囲に収まるように制御する
    ことを特徴とする請求項1に記載の姿勢データ入力装置。
  3. 複数の関節部の可動範囲の関係を格納する可動範囲記憶手段をさらに有しており、
    前記制御手段は、一部の関節部が動かされたときに、他の関節部を可動範囲内に収まるように制御する
    ことを特徴とする請求項1または2に記載の姿勢データ入力装置。
  4. 姿勢データを記憶する姿勢データ記憶手段をさらに有し、
    前記制御手段は、一部の関節部が動かされたときに、当該関節部の姿勢と一致する姿勢データを前記姿勢データ記憶手段から抽出し、その他の関節部を抽出された姿勢データに応じて制御する
    ことを特徴とする請求項1〜3のいずれかに記載の姿勢データ入力装置。
  5. 連続する姿勢データである動作データを記憶する動作データ記憶手段をさらに有し、
    前記制御手段は、前記動作データに基づいて各関節部を駆動するとともに、該動作データの再生中にユーザ操作による関節部の姿勢変化を許容し、変化された姿勢と記憶されている動作データに基づいて各関節部を駆動する
    ことを特徴とする請求項1〜4のいずれかに記載の姿勢データ入力装置。
  6. 前記関節部は、サーボモータにより構成されていることを特徴とする請求項1〜5のいずれかに記載の姿勢データ入力装置。
JP2009108270A 2009-04-27 2009-04-27 姿勢データ入力装置 Active JP5464406B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009108270A JP5464406B2 (ja) 2009-04-27 2009-04-27 姿勢データ入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009108270A JP5464406B2 (ja) 2009-04-27 2009-04-27 姿勢データ入力装置

Publications (2)

Publication Number Publication Date
JP2010253640A true JP2010253640A (ja) 2010-11-11
JP5464406B2 JP5464406B2 (ja) 2014-04-09

Family

ID=43315157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009108270A Active JP5464406B2 (ja) 2009-04-27 2009-04-27 姿勢データ入力装置

Country Status (1)

Country Link
JP (1) JP5464406B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017087320A (ja) * 2015-11-05 2017-05-25 富士ソフト株式会社 ロボットの動作制御データ生成システム及び動作制御データ生成方法
JPWO2017187794A1 (ja) * 2016-04-26 2019-02-28 シャープ株式会社 ロボット、ロボットの制御方法、制御プログラム、及び記録媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0390909A (ja) * 1989-09-01 1991-04-16 Mitsubishi Heavy Ind Ltd ティーチングプレイバック式ロボット
JPH1177580A (ja) * 1997-07-08 1999-03-23 Yaskawa Electric Corp ロボットの制御装置
JP2001341092A (ja) * 2000-06-02 2001-12-11 Sharp Corp 多関節ロボットおよび多関節ロボットの位置教示方法
JP2003236780A (ja) * 2002-02-18 2003-08-26 Japan Science & Technology Corp 二脚歩行式人型ロボット
JP2006159359A (ja) * 2004-12-08 2006-06-22 Toyota Motor Corp 超冗長自由度ロボットの動作制御方法
JP2008254074A (ja) * 2007-03-30 2008-10-23 Sega Corp ロボットのモーション編集装置及びそのプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0390909A (ja) * 1989-09-01 1991-04-16 Mitsubishi Heavy Ind Ltd ティーチングプレイバック式ロボット
JPH1177580A (ja) * 1997-07-08 1999-03-23 Yaskawa Electric Corp ロボットの制御装置
JP2001341092A (ja) * 2000-06-02 2001-12-11 Sharp Corp 多関節ロボットおよび多関節ロボットの位置教示方法
JP2003236780A (ja) * 2002-02-18 2003-08-26 Japan Science & Technology Corp 二脚歩行式人型ロボット
JP2006159359A (ja) * 2004-12-08 2006-06-22 Toyota Motor Corp 超冗長自由度ロボットの動作制御方法
JP2008254074A (ja) * 2007-03-30 2008-10-23 Sega Corp ロボットのモーション編集装置及びそのプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017087320A (ja) * 2015-11-05 2017-05-25 富士ソフト株式会社 ロボットの動作制御データ生成システム及び動作制御データ生成方法
JPWO2017187794A1 (ja) * 2016-04-26 2019-02-28 シャープ株式会社 ロボット、ロボットの制御方法、制御プログラム、及び記録媒体

Also Published As

Publication number Publication date
JP5464406B2 (ja) 2014-04-09

Similar Documents

Publication Publication Date Title
JP6227683B2 (ja) アニメーション・キャラクターに合致する動きを得るためのロボットを開発および制御する方法。
KR101098834B1 (ko) 동역학 기반 동작 생성 장치 및 방법
CN102822869B (zh) 捕获在生成的场景内表演的演员的视图和运动
JP4989605B2 (ja) 簡易アニメーション作成装置
WO2012111622A1 (ja) 動作モデリング装置及び方法、並びにプログラム
Shapiro et al. Interactive motion correction and object manipulation
US6628286B1 (en) Method and apparatus for inserting external transformations into computer animations
Kenwright Manipulating motion signals to emphasis stylistic (lifelike) qualities
CN112184863B (zh) 一种动画数据的处理方法和装置
US8368700B1 (en) Animatronics animation method and apparatus
JP5464406B2 (ja) 姿勢データ入力装置
CN110039546A (zh) 用于控制机器人动作的方法及机器人
Balit et al. PEAR: Prototyping Expressive Animated Robots-A framework for social robot prototyping
Indrajit et al. Development of whole body motion imitation in humanoid robot
Schmitz et al. A simulation framework for human-robot interaction
JP3837479B2 (ja) 動作体の動作信号生成方法、その装置及び動作信号生成プログラム
Lee et al. Study on Performance Motion Generation of Humanoid Robot
KR20240057416A (ko) 제어가능 객체의 적어도 하나의 특성을 제어하기 위한 방법, 관련된 시스템 및 관련된 디바이스
Balit et al. PEAR: Prototyping Expressive Animated Robots
Ruuskanen Inverse Kinematics in Game Character Animation
TWI301940B (ja)
Tsai et al. Construction of a general motion editing system for human body and humanoid robots
Saito et al. Animating Various Characters using Arm Gestures in Virtual Reality Environment
Chen et al. Interactive articulated character dancing animation in real time
Jaluvka et al. Human-robot interaction in real time

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20101129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140108

R150 Certificate of patent or registration of utility model

Ref document number: 5464406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250