JP4074151B2 - ロボットの制御方法及び装置並びにプログラム及び記録媒体 - Google Patents

ロボットの制御方法及び装置並びにプログラム及び記録媒体 Download PDF

Info

Publication number
JP4074151B2
JP4074151B2 JP2002215146A JP2002215146A JP4074151B2 JP 4074151 B2 JP4074151 B2 JP 4074151B2 JP 2002215146 A JP2002215146 A JP 2002215146A JP 2002215146 A JP2002215146 A JP 2002215146A JP 4074151 B2 JP4074151 B2 JP 4074151B2
Authority
JP
Japan
Prior art keywords
information
motion
model
dynamic characteristic
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002215146A
Other languages
English (en)
Other versions
JP2004054841A (ja
Inventor
郁雄 北岸
保 町野
彰 中山
敏 岩城
雅士 奥平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002215146A priority Critical patent/JP4074151B2/ja
Publication of JP2004054841A publication Critical patent/JP2004054841A/ja
Application granted granted Critical
Publication of JP4074151B2 publication Critical patent/JP4074151B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、機械的構造物として構成されたロボットやCG(コンピュータグラフィックス)で再現されるソフトウェアキャラクタ(人形など)などの動作を制御する場合に利用可能なロボットの制御方法及び装置並びにプログラム及び記録媒体に関する。
【0002】
【従来の技術】
例えば産業ロボットの分野では、ロボットを制御するための動作データを記述する場合に、古くからDenavit−Hartenberg(吉川恒夫著「ロボット制御基礎論」コロナ社 pp25−33)の提案した記述方法に従ってロボットの構造と姿勢を定義するように動作データを記述している。
【0003】
この広く普及している記述方法においては、制御対象の各リンク(関節)に適当な座標系を固定し、これらのリンク間の関係を3つのリンクパラメータによって記述する。
【0004】
また、同次変換行列を得て関節変数から手先位置ベクトル(r=[r1,r2,r3,r4,r5,r6]:r1,r2,r3はロボット座標系から見た3次元座標値、r4,r5,r6はオイラー角)の数値解や、逆にロボット座標系、或いは作業座標系から見た手先の目標位置ベクトルからDenavit−Hartenbergのパラメータを用いてロボット固有の関節変数の数値解を得る手法が一般的である。
【0005】
しかしながら、コミュニケーションの媒介者としての役割を持つ人型及び動物型のロボットは、産業用ロボットとは次の点で大きく異なる。
(1)制御の際、独立した目標位置ベクトルを同時に複数有するため、制御が複雑になる。
(2)時系列関節変数が動作総体として人の心象に大きな影響を持つ。
【0006】
(3)身体の構造情報や幾何情報、インタフェースに多様性や複雑性がある。
このため、従来のコミュニケーションロボットにおける動作データの内容は、各ロボットの構造やインタフェースに依存しているか、もしくは実装段階でのアプリケーションソフトに依存しており、ロボット毎に固有の動作データを構成している。
【0007】
従って、構造やインタフェースの異なる複数のロボットの間で動作データの交換や再利用を行うことは極めて困難である。
また従来ロボットの動作を教示する教示装置を構成する際には、各ロボット固有の幾何特性,動作特性及びインタフェースに合わせたGUIや動作コマンド及びドライバの設計及び制御が必要であった。
【0008】
教示装置とは、コンピュータやその周辺装置と、コンピュータによって実行されるプログラムとを主要な要素として構成されるものであって、操作者の操作に応じてリアルタイムに入力されるデータや、予め記憶しておいたデータに基づいて、ロボットに対して所望の動作を行なわせるための制御信号を出力する装置である。
【0009】
上記のような従来技術の具体例について説明する。例えば、操作者の操作に応じてロボット等の物体に所望の動作をさせるための制御データ(駆動データ)を生成するために、まず物体をCGモデル化する。
さらに、物体の駆動範囲及びその条件に基づいて物体の動作を求め、コンピュータ内で物体の動作をCGモデルとしてシミュレートして表示できるようにする。
【0010】
そして、モデル化の後、ポインティングデバイスなどの操作子から入力される操作量に応じて物体のモデルを座標変換しながら動かし、動作中の座標データの変化を記録して、それに対して所定の演算処理を行なうことで、その動作に必要な制御データを求める。
すなわち、CGモデル化された物体に対してなされたポインティングデバイス等の操作子から入力された操作量に応じて物体の制御データ(駆動データ)が生成される。
【0011】
このような場合には、特定のロボットやCGキャラクタに特化した教示装置が必要にな。従って、装置の再構成は操作者にとって困難な作業であった。また教示装置固有の制御データ(駆動データ)が記録されるため、記録データを自由度構成,動特性及びインタフェースが異なるロボットやCGキャラクタの間で相互に再利用したり、再加工することはできなかった。
【0012】
【発明が解決しようとする課題】
前述のように、従来技術においては、生成される動作データは特定のロボットを制御する場合だけ利用できるが、構造情報や幾何特性,動特性,インタフェースが異なるロボット同士の間では動作データを相互に交換したり再利用することができない。
【0013】
本発明は、構造,幾何特性,動特性などが異なる複数のロボットの間で動作データの交換や再利用が可能なロボットの制御方法及び装置並びにプログラム及び記録媒体を提供することを目的とする。
【0014】
【課題を解決するための手段】
本発明においては、ロボットの動作データを記述する際に、ロボットの動作を決定する構造情報,幾何特性,動特性,関節変数の中から固有のロボットに依存しない非依存部と依存部とを分離し、非依存情報のみを用いて動作データを記述する。これにより、構造情報や幾何特性,動特性,インタフェースなどが異なる複数のロボットの間でも相互に動作データの交換や再利用が可能な動作データが得られる。また、本発明においては、制御対象となる部位の動作データを線形規格化して人体骨格モデルに対応付ける。
【0015】
すなわち、請求項1は、所定の骨格のトポロジ構造を有する、機械的構造物であるロボットの動作を制御するために用いられる動作データを生成するためのロボットの制御方法において、制御対象となる特定のロボットの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する手順と、前記制御対象の動作を指示するために利用される動作情報を取得する手順と、前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する手順とを設けたことを特徴とする。
請求項7は、所定の骨格のトポロジ構造を有する、CGキャラクタとして表現された仮想空間中の構造物の動作を制御するために用いられる動作データを生成するためのCGキャラクタの制御方法において、制御対象となる特定のCGキャラクタの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する手順と、前記制御対象の動作を指示するために利用される動作情報を取得する手順と、前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する手順とを設けたことを特徴とする。
【0016】
請求項1あるいは請求項7においては、制御対象となるロボットあるいはCGキャラクタの各制御対象部位の構造を特定の制御対象に依存しない骨格モデルに基づいて階層的に構造化するので、特定の制御対象に依存しない形式で動作データを生成することができる。
請求項2は、請求項1のロボットの制御方法において、請求項8は、請求項7のCGキャラクタの制御方法において、前記動特性情報と、制御対象となる特定のロボットあるいはCGキャラクタを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成する手順と、前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する手順と、表示される前記模擬画像を動かすための指示を与える動作情報を取得する手順と、前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する手順とを更に設けたことを特徴とする。
【0017】
請求項2においては、前記動作データを生成する際に、ロボットを模したモデルの模擬画像を画面に表示するとともに、オペレータなどが支持する動作情報に従って表示内容を更新することができる。このため、模擬画像でロボットの実際の動きを確認しながら動作データを生成することが出来る
【0019】
請求項3は、所定の骨格のトポロジ構造を有する、機械的構造物であるロボットの動作を制御するために用いられる動作データを生成するためのロボットの制御装置において、制御対象となる特定のロボットの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する動作部位情報生成手段と、前記制御対象の動作を指示するために利用される動作情報を取得する動作情報取得手段と、前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する動作データ生成手段を設けたことを特徴とする。
請求項9は、所定の骨格のトポロジ構造を有する、CGキャラクタとして表現された仮想空間中の構造物の動作を制御するために用いられる動作データを生成するためのCGキャラクタの制御装置において、制御対象となる特定のCGキャラクタの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する動作部位情報生成手段と、前記制御対象の動作を指示するために利用される動作情報を取得する動作情報取得手段と、前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する動作データ生成手段を設けたことを特徴とする。
【0020】
請求項3においては、請求項1と同様の処理を実現できる。
請求項9においては、請求項7と同様の処理を実現できる。
請求項4は、請求項3のロボットの制御装置において、請求項10は、請求項9のCGキャラクタの制御装置において、前記動特性情報と、制御対象となる特定のロボットあるいはCGキャラクタを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成するモデル動特性情報生成手段と、前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する模擬画像表示手段と、表示される前記模擬画像を動かすための指示を与える動作情報を取得する動作情報取得手段と、前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する表示内容更新手段とを更に設けたことを特徴とする。
【0021】
請求項においては、請求項2と同様の処理を実現できる
【0023】
請求項5は、所定の骨格のトポロジ構造を有する、機械的構造物であるロボットの動作を制御するために用いられる動作データを生成するためのコンピュータで実行可能なプログラムにおいて、制御対象となる特定のロボットの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する動作部位情報生成手順と、前記制御対象の動作を指示するために利用される動作情報を取得する動作情報取得手順と、前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する動作データ生成手順とを設けたことを特徴とする。
請求項11は、所定の骨格のトポロジ構造を有する、CGキャラクタとして表現された仮想空間中の動作を制御するために用いられる動作データを生成するためのコンピュータで実行可能なプログラムにおいて、制御対象となる特定のCGキャラクタの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する動作部位情報生成手順と、前記制御対象の動作を指示するために利用される動作情報を取得する動作情報取得手順と、前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する動作データ生成手順とを設けたことを特徴とする。
【0024】
請求項5のプログラムを所定のコンピュータで実行することにより、請求項1と同様の処理を実現できる。
請求項11のプログラムを所定のコンピュータで実行することにより、請求項7と同様の処理を実現できる。
請求項6は、請求項5のプログラムにおいて、前記動特性情報と、制御対象となる特定のロボットを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成するモデル動特性情報生成手順と、前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する模擬画像表示手順と、表示される前記模擬画像を動かすための指示を与える動作情報を取得する動作情報取得手順と、前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する表示内容更新手順とを更に設けたことを特徴とする。
請求項12は、請求項11のプログラムにおいて、前記動特性情報と、制御対象となる特定のCGキャラクタを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成するモデル動特性情報生成手順と、前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する模擬画像表示手順と、表示される前記模擬画像を動かすための指示を与える動作情報を取得する動作情報取得手順と、前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する表示内容更新手順とを更に設けたことを特徴とする。
【0025】
請求項のプログラムを所定のコンピュータで実行することにより、請求項1と同様の処理を実現できる
【0027】
請求項13は、請求項5及び請求項6及び請求項11及び請求項12のいずれかのプログラムを記録した記録媒体である。
請求項13の記録媒体から読み出したプログラムを所定のコンピュータで実行することにより、請求項1及び請求項2及び請求項7及び請求項8と同様の処理を実現できる。
【0028】
【発明の実施の形態】
本発明のロボットの制御方法及び装置並びにプログラム及び記録媒体の1つの実施の形態について、図1〜図17を参照して説明する。この形態は全ての請求項に対応する。
図1は動作データ入力記録表示制御装置の構成を示すブロック図である。図2はこの形態の装置の外観を示す斜視図である。図3はこの形態の装置の構成を示すブロック図である。図4は動作データ再生表示制御装置の構成を示すブロック図である。図5は依存情報記憶部の構成を示すブロック図である。図6は部位名変換テーブルの構成例を示す模式図である。
【0029】
図7は骨格モデル記憶部の記憶情報の構造化定義例を示す模式図である。図8は骨格モデルの構成例を示す模式図である。図9は角度の線形規格化の例を示すグラフである。図10は入力記録表示制御の動作を示すフローチャートである。図11は再生表示制御の動作を示すフローチャートである。図12はロボット動特性情報記憶部に保持されるデータの例を示す模式図である。
【0030】
図13は骨格モデル記憶部の保持する情報の例(1)を示す模式図である。図14は骨格モデル記憶部の保持する情報の例(2)を示す模式図である。図15は動作データの構成例(1)を示す模式図である。図16は動作データの構成例(2)を示す模式図である。図17は動作データの構成例(3)を示す模式図である。
【0031】
この形態では、請求項5のロボット,動作部位情報生成手段,動作情報取得手段及び動作データ生成手段は、それぞれロボット3,ロボット動作データ生成部206,動作情報取得部205及びロボット動作データ生成部206に対応する。
また、請求項6のモデル動特性情報生成手段,模擬画像表示手段,動作情報取得手段及び表示内容更新手段は、それぞれモデル動特性情報生成部209,模擬画像表示変更部210,動作情報取得部205及び模擬画像表示変更部210に対応する。
【0032】
請求項7の動特性情報把握手段及びデータ変換手段は、それぞれロボット動特性情報記憶部303及びロボット制御信号生成部302に対応する。
請求項8の動特性情報把握手段,モデル動特性情報生成手段,模擬画像生成手段及び模擬画像表示更新手段は、それぞれロボット動特性情報記憶部303,モデル動特性情報生成部305,模擬画像生成部307及び模擬画像表示変更部308に対応する。
【0033】
この形態では、図2,図3に示すコンピュータシステム(例えばパーソナルコンピュータ)1を用いて本発明を実施する場合を想定している。図2に示すように、コンピュータシステム1には制御対象となるロボット3が接続されている。なお、コンピュータシステム1とロボット3との接続には、コンピュータシステム1が持つ標準的な入出力デバイス(例えばLANポート,無線LAN,IrDA,シリアルポート,パラレルポートなど)を利用すればよい。
【0034】
ここで想定しているロボット3は、それに内蔵されたサーボモータにより、頭部を左右上下方向に首振り駆動することができ、更に両腕を上下に上げ下げできるようになっている。
ロボット3を駆動する場合には、駆動のためのロボット制御信号がコンピュータシステム1から出力されロボット3に伝送される。
【0035】
図3に示すように、コンピュータシステム1には表示装置10,動作データ入力記録表示制御装置20及び動作データ再生表示制御装置30が含まれている。動作データ入力記録表示制御装置20にはポインティングデバイス(例えばマウス)2が接続されている。動作データ再生表示制御装置30の出力するロボット制御信号がロボット3に印加される。
【0036】
なお、コンピュータシステム1の主要な構成要素である動作データ入力記録表示制御装置20及び動作データ再生表示制御装置30のいずれか一方を省略しても本発明は実施できる。
次に、動作データ入力記録表示制御装置20について詳細に説明する。動作データ入力記録表示制御装置20は、図1に示すように依存情報記憶部201,部位名変換テーブル記憶部202,骨格モデル記憶部203,動作情報取得部205,ロボット動作データ生成部206,ロボット動作データ記憶部207,ロボット動作データ出力部208,モデル動特性情報生成部209及び模擬画像表示変更部210を備えている。
【0037】
なお、図1に示す主要な要素は、専用のハードウェアを用いて構成することもできるし、コンピュータで実行可能なプログラムとして実現することもできる。図1の依存情報記憶部201は、図5に示すようにモデル動作部位情報記憶部401及びロボット動特性情報記憶部402を備えている。
モデル動作部位情報記憶部401は、制御対象となるロボット3を模擬したモデルにおける各部位の親子関係,部位名,基点情報を含む3DモデルデータをX形式やDFF形式として保持している。
【0038】
ロボット動特性情報記憶部402は、制御対象となるロボット3に関する駆動部位名,駆動部位数,各駆動部位の稼働範囲,稼働範囲におけるニュートラルデータなどの固有情報を保持している。ロボット動特性情報記憶部402は、例えば図12に示すような情報を保持している。
依存情報記憶部201で保持されているデータは、モデル動特性情報生成部209及びロボット動作データ生成部206から参照される。
【0039】
図1の部位名変換テーブル記憶部202は、例えば図6に示すような構成の部位名変換テーブルを保持している。この部位名変換テーブルには、制御対象のロボット3を模擬した3Dモデルデータで定義されている各部位名と骨格モデル記憶部203で定義されている部位名との対応関係が記憶されている。この部位名変換テーブルは、ロボット動作データ生成部206から参照される。
【0040】
図1の骨格モデル記憶部203は、例えば図13及び図14に示すような情報を保持している。この情報は、制御対象となるロボット3の制御データのフォーマットを抽象化定義した定義ファイルである。この情報は、例えばDTD(Document Type Definition)に代表されるスキーマ言語で表現される。
例えば、人体に似たロボットを制御する場合には、例えば図8に示すような人体の骨格モデル、すなわち動作が可能な各関節位置で区分した各人体要素の組み合わせで構成される骨格モデルを用いればよい。
【0041】
この人体骨格モデルに基づき、制御対象を例えばDTDの構造化定義方法を用いて階層的に定義する。すなわち、各モデル部位名をタグとして定義し、各タグの子要素に更に具体化したモデル部位名、定義モデル部位の回転方向をタグとして定義する。また、最下層要素には規格化した時系列回転位相データ(時間,速度,角度)が記録できるように定義する。
【0042】
図7の定義例では、最上位に「Parts」があり、その下に「Head」,「Body」,「Arms」,「Legs」が接続され、「Arms」の下に「Hand」,「Forearm」,「Upper Arm」が接続され、更に「Hand」の下には「Finger」,「Palm」が接続され、「Palm」の下の最下層の「Pitch」,「Roll」,「Yaw」には規格化した時系列回転位相データ「Data」が記録できるように定義されている。
【0043】
例えば、時系列で変化する角度などのデータを8ビットで規格化して記述する場合には、ロボットの動特性情報に基づいて図9に示すように最大値が255になるようにデータ「Data」を線形規格化してから記録すればよい。
【0044】
このように、ロボット3を制御するための動作データを定義する際に、特定のロボットの構造やインタフェースに依存するデータを切り離し、人体骨格モデルに基づいて構造化及び階層化し、更に時系列で変化する角度などのデータを線形規格化することにより、構造が異なるロボットについても適用が可能な動作データを統一的に記録可能になる。
【0045】
一方、オペレータ(教示者)がポインティングデバイス2を操作するとそれに伴って様々なイベントが発生する。動作情報取得部205は、ポインティングデバイス2に関する様々なイベント情報を動作情報として取得する。この動作情報には、操作対象空間におけるポインティングデバイス2の座標,移動速度,移動時間,移動量及び操作対象部位情報が含まれている。
【0046】
モデル動特性情報生成部209は、ポインティングデバイス2の操作に伴って動作情報取得部205が取得した動作情報を受け取り、依存情報記憶部201に保持されている3Dモデルにおける操作対象部位の座標変換をポインティングデバイス2の移動方向及び移動速度に応じて行う。
模擬画像表示変更部210は、モデル動特性情報生成部209の処理結果に基づいて、制御対象のモデルの擬似画像の表示及び表示内容の更新を制御する。
【0047】
ロボット動作データ生成部206は、ポインティングデバイス2の操作に伴って動作情報取得部205が取得した動作情報(イベント情報)を受け取り、骨格モデル記憶部203が保持する情報と、部位名変換テーブル記憶部202の内容と、依存情報記憶部201の内容とに基づいて、操作対象部位の情報を構造化する。
【0048】
具体的には、ロボット動作データ生成部206が動作情報取得部205から受け取る情報は模擬画像における操作対象部位名,ポインティングデバイス2の移動方向及び移動速度である。ロボット動作データ生成部206は、部位名変換テーブル記憶部202の部位名変換テーブルを参照して、動作情報取得部205から受け取った操作対象部位名を骨格モデル記憶部203で定義されているタグに変換する。
【0049】
更に、ロボット動作データ生成部206は依存情報記憶部201のロボット動特性情報記憶部402に保持されている情報(図12参照)に含まれている稼働範囲データに応じてポインティングデバイス2の操作量を規格化する。そして、規格化された操作量を所定のタグの最下層要素に、骨格モデル記憶部203の定義情報に従って時系列データとして記録する。このようにして構造化された動作データを生成する。
【0050】
これらの処理によって、構造化され生成された動作データは個別のロボットに依存しない非依存情報になる。
ロボット動作データ生成部206の生成した動作データはロボット動作データ記憶部207に記憶される。この動作データは、DTDに従ってテキストベースの階層化されたデータとしてロボット動作データ記憶部207に記憶される。
【0051】
この動作データの具体例が図15〜図17に示されている。図15〜図17から分かるように、この動作データには特定のロボットの構成やインタフェースに依存する情報は含まれていない。従って、制御対象となるロボット3の構造が変化した場合には、依存情報記憶部201の記憶内容を変更するだけで、動作データ入力記録表示制御装置20を再構成できる。
【0052】
ロボット動作データ記憶部207に記憶された動作データは、ロボット動作データ出力部208を介して出力され、図3に示す動作データ再生表示制御装置30に入力される。
動作データ入力記録表示制御装置20における動作の概略について、図10を参照して説明する。
【0053】
ステップS10では、まず最初にロボット動作データ生成部206が骨格モデル記憶部203の骨格モデル情報と依存情報記憶部201のロボット動特性情報と部位名変換テーブル記憶部202の記憶内容とを読み込む。
また、モデル動特性情報生成部209が依存情報記憶部201からモデルデータを読み込み、このモデルデータに基づいて模擬画像表示変更部210が模擬画像を表示する。
【0054】
ステップS11ではポインティングデバイス2の座標を取得する。教示者の操作によってポインティングデバイス2がある操作部位をポインティングすると、処理はステップS12からS13に進み、取得した座標に対応するデータが存在するか否かを識別する。
ポインティングされた座標に制御対象が存在する場合には次のステップS14に進み、該当する制御対象のモデルデータを読み込む。
【0055】
ステップS15では、ポインティングされた座標に基づいて、制御対象のモデルデータにおける操作対象部位を決定する。
ステップS16では、ポインティングデバイス2の座標,移動速度及び移動時間を取得する。
ステップS17では、モデル動特性情報生成部209の制御により、座標に対応付けられた操作対象部位のモデルデータを、ポインティングデバイス2の座標,移動時間及び移動速度に従って座標変換する。
【0056】
ステップS18では、ステップS17の変換結果を利用して画面に表示するモデルの表示内容を更新する。
また、ステップS17,S18の実行と併行してステップS20,S21が処理される。
ステップS20では、読み込んだデータをロボット動作データ生成部206の制御により階層的に構造化して特定のロボットに依存しない内容だけで構成した動作データを生成する。
【0057】
ステップS21では、ロボット動作データ生成部206が生成した動作データをロボット動作データ記憶部207で記憶する。
次に、図3に示す動作データ再生表示制御装置30について説明する。この動作データ再生表示制御装置30は、図4に示すようにロボット動作データ入力部301,ロボット制御信号生成部302,ロボット動特性情報記憶部303,骨格モデル記憶部304,モデル動特性情報生成部305,部位名変換テーブル記憶部306,模擬画像生成部307,模擬画像表示変更部308及びロボット制御信号再生部309を備えている。
【0058】
ロボット動作データ入力部301は、前述の動作データ入力記録表示制御装置20がロボット動作データ出力部208から出力する動作データを入力する。
ロボット動特性情報記憶部303は、前述のロボット動特性情報記憶部402と同様に、例えば図12に示すような情報を保持している。骨格モデル記憶部304は、前述の骨格モデル記憶部203と同様に、例えば図13,図14に示すような情報を保持している。部位名変換テーブル記憶部306は、前述の部位名変換テーブル記憶部202と同様に、例えば図6に示すような情報を保持している。
【0059】
ロボット制御信号生成部302は、ロボット動特性情報記憶部303,骨格モデル記憶部304及び部位名変換テーブル記憶部306の保持するデータを参照してロボット動作データ入力部301が入力した動作データに処理を加え、制御対象となる特定のロボット3の構造に依存する動作制御用のデータを生成する。具体的には、入力された動作データが骨格モデル記憶部304の記憶内容によって定義されている定義情報と合致するか否かを識別し、合致している場合には、部位名変換テーブル記憶部306を参照して、入力された動作データの部位名を部位名変換テーブルで定義されている制御対象ロボットの部位名に変換する。更に、ロボット動特性情報記憶部303の記憶内容(図12参照)に含まれている稼働範囲データを用いて、動作データの構造上の階層の最下層要素の規格化された時系列データを、制御対象のロボットの稼働範囲に合致したデータに変換する。
【0060】
ロボット制御信号再生部309は、ロボット制御信号生成部302で生成された動作制御用のデータを入力し、ロボット3の対応する各関節を駆動するための信号(例えばモータを制御するためのPWM信号)を生成する。
一方、モデル動特性情報生成部305では、ロボット動特性情報記憶部303,骨格モデル記憶部304及び部位名変換テーブル記憶部306の保持するデータを参照してロボット動作データ入力部301が入力した動作データに処理を加え、制御対象を模擬する3Dモデルの動作制御のためのデータを生成する。
【0061】
具体的には、動作データに合致した部位名,部位の親子関係,稼働範囲に従って、基本立方体からなる3Dモデルデータを生成する。
模擬画像生成部307は、モデル動特性情報生成部305が生成した3Dモデルのデータを入力し、模擬画像を表示するための制御を行う。
模擬画像表示変更部308は、ロボットの動作の変化に伴って、表示するモデルの表示内容を更新する。
【0062】
従って、制御対象となるロボットの構造が変化した場合であっても、ロボット動特性情報記憶部303の記憶内容を変更するだけで、ロボットの構造を変える前と同様に、動作データを再生しロボット3及びそれを模擬したモデルの画像を動かすことができる。
動作データ再生表示制御装置30の動作の概略について、図11を参照して説明する。
【0063】
ステップS31では、動作データ入力記録表示制御装置20から出力される動作データをロボット動作データ入力部301の制御により入力する。
該当するモデルデータが存在する場合には、ステップS32からS33に進み、モデルデータを読み込む。更に、ステップS34でロボット制御信号生成部302の制御によりロボット動特性情報記憶部303のロボット動特性情報,骨格モデル記憶部304の骨格モデル及び部位名変換テーブル記憶部306の部位名変換テーブルを読み込む。
【0064】
また、該当するモデルデータが存在しない場合には、ステップS32からS35に進み、モデル動特性情報生成部305の制御によりロボット動特性情報記憶部303のロボット動特性情報,骨格モデル記憶部304の骨格モデル及び部位名変換テーブル記憶部306の部位名変換テーブルを読み込む。そして、ステップS36でモデルデータを生成する。
【0065】
ステップS37では、ロボット制御信号生成部302の制御によりロボットの動作制御用のデータを生成するとともに、モデル動特性情報生成部305の制御により表示モデルの動作制御用のデータを生成する。
ステップS38では、ロボット制御信号再生部309の制御によりロボット3を制御するとともに、模擬画像表示変更部308の制御によりモデルの表示内容を更新する。
【0066】
なお、この形態では機械的な構造物であるロボットが制御対象である場合を説明したが、コンピュータグラフィックスで生成される仮想キャラクタなどの動作を制御する場合にも本発明は適用できる。
【0067】
【発明の効果】
以上のように本発明によれば、ロボットの動作データを記述する際に、ロボットの動作を決定する構造情報,幾何特性,動特性,関節変数の中から非依存部と依存部とを分離し、非依存情報のみを抽出して動作データとして出力するので、次のような効果が得られる。
【0068】
(1)構造情報や幾何特性,動特性,インタフェースの異なるロボット間でも相互に動作データの交換や再利用が可能になる。
(2)データフォーマットを誰でも直感的に理解可能。
【0069】
(3)ヒューマノイド、動物型のロボットー般の動作を表現可能。
(4)誰でも簡単にデータアクセスし編集、加工、再利用が可能。
また本発明によれば、ロボット動作に係るデータを入力したり、再生したりする際に、異なる構造情報,幾何特性,動特性,インタフェースを有する対象に対しても簡易に教示装置を再構成することができる。
【0070】
さらに、本発明は、簡易な操作で再構成した教示装置で異なる構造情報,幾何特性,動特性,インタフェースを有するロボットの動作を入力及び再生することができる。すなわち、構造情報,幾何特性,動特性,インタフェースの異なるロボットに対してでも相互に利用可能なロボット制御データを入出力できる。
【図面の簡単な説明】
【図1】動作データ入力記録表示制御装置の構成を示すブロック図である。
【図2】実施の形態の装置の外観を示す斜視図である。
【図3】実施の形態の装置の構成を示すブロック図である。
【図4】動作データ再生表示制御装置の構成を示すブロック図である。
【図5】依存情報記憶部の構成を示すブロック図である。
【図6】部位名変換テーブルの構成例を示す模式図である。
【図7】骨格モデル記憶部の記憶情報の構造化定義例を示す模式図である。
【図8】骨格モデルの構成例を示す模式図である。
【図9】角度の線形規格化の例を示すグラフである。
【図10】入力記録表示制御の動作を示すフローチャートである。
【図11】再生表示制御の動作を示すフローチャートである。
【図12】ロボット動特性情報記憶部に保持されるデータの例を示す模式図である。
【図13】骨格モデル記憶部の保持する情報の例(1)を示す模式図である。
【図14】骨格モデル記憶部の保持する情報の例(2)を示す模式図である。
【図15】動作データの構成例(1)を示す模式図である。
【図16】動作データの構成例(2)を示す模式図である。
【図17】動作データの構成例(3)を示す模式図である。
【符号の説明】
1 コンピュータシステム
2 ポインティングデバイス
3 ロボット
10 表示装置
20 動作データ入力記録表示制御装置
30 動作データ再生表示制御装置
201 依存情報記憶部
202 部位名変換テーブル記憶部
203 骨格モデル記憶部
205 動作情報取得部
206 ロボット動作データ生成部
207 ロボット動作データ記憶部
208 ロボット動作データ出力部
209 モデル動特性情報生成部
210 模擬画像表示変更部
301 ロボット動作データ入力部
302 ロボット制御信号生成部
303 ロボット動特性情報記憶部
304 骨格モデル記憶部
305 モデル動特性情報生成部
306 部位名変換テーブル記憶部
307 模擬画像生成部
308 模擬画像表示変更部
309 ロボット制御信号再生部
401 モデル動作部位情報記憶部
402 ロボット動特性情報記憶部

Claims (13)

  1. 所定の骨格のトポロジ構造を有する、機械的構造物であるロボットの動作を制御するために用いられる動作データを生成するためのロボットの制御方法において、
    制御対象となる特定のロボットの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する手順と、
    前記制御対象の動作を指示するために利用される動作情報を取得する手順と、
    前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する手順と
    を設けたことを特徴とするロボットの制御方法。
  2. 請求項1のロボットの制御方法において、
    前記動特性情報と、制御対象となる特定のロボットを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成する手順と、
    前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する手順と、
    表示される前記模擬画像を動かすための指示を与える動作情報を取得する手順と、
    前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する手順と
    を更に設けたことを特徴とするロボットの制御方法。
  3. 所定の骨格のトポロジ構造を有する、機械的構造物であるロボットの動作を制御するために用いられる動作データを生成するためのロボットの制御装置において、
    制御対象となる特定のロボットの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する動作部位情報生成手段と、
    前記制御対象の動作を指示するために利用される動作情報を取得する動作情報取得手段と、
    前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する動作データ生成手段
    を設けたことを特徴とするロボットの制御装置。
  4. 請求項3のロボットの制御装置において、
    前記動特性情報と、制御対象となる特定のロボットを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成するモデル動特性情報生成手段と、
    前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する模擬画像表示手段と、
    表示される前記模擬画像を動かすための指示を与える動作情報を取得する動作情報取得手段と、
    前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する表示内容更新手段と
    を更に設けたことを特徴とするロボットの制御装置。
  5. 所定の骨格のトポロジ構造を有する、機械的構造物であるロボットの動作を制御するために用いられる動作データを生成するためのコンピュータで実行可能なプログラムにおいて、
    制御対象となる特定のロボットの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する動作部位情報生成手順と、
    前記制御対象の動作を指示するために利用される動作情報を取得する動作情報取得手順と、
    前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する動作データ生成手順と
    を設けたことを特徴とするプログラム。
  6. 請求項5のプログラムにおいて、
    前記動特性情報と、制御対象となる特定のロボットを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成するモデル動特性情報生成手順と、
    前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する模擬画像表示手順と、
    表示される前記模擬画像を動かすための指示を与える動作情報を取得する動作情報取得手順と、
    前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する表示内容更新手順と
    を更に設けたことを特徴とするプログラム。
  7. 所定の骨格のトポロジ構造を有する、CGキャラクタとして表現された仮想空間中の構造物の動作を制御するために用いられる動作データを生成するためのCGキャラクタの制御方法において、
    制御対象となる特定のCGキャラクタの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する手順と、
    前記制御対象の動作を指示するために利用される動作情報を取得する手順と、
    前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する手順と
    を設けたことを特徴とするCGキャラクタの制御方法。
  8. 請求項7のCGキャラクタの制御方法において、
    前記動特性情報と、制御対象となる特定のCGキャラクタを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成する手順と、
    前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する手順と、
    表示される前記模擬画像を動かすための指示を与える動作情報を取得する手順と、
    前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する手順と
    を更に設けたことを特徴とするCGキャラクタの制御方法。
  9. 所定の骨格のトポロジ構造を有するCGキャラクタとして表現された仮想空間中の構造物の動作を制御するために用いられる動作データを生成するためのロボットの制御装置において、
    制御対象となる特定のCGキャラクタの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する動作部位情報生成手段と、
    前記制御対象の動作を指示するために利用される動作情報を取得する動作情報取得手段と、
    前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する動作データ生成手段
    を設けたことを特徴とするCGキャラクタの制御装置。
  10. 請求項9のCGキャラクタの制御装置において、
    前記動特性情報と、制御対象となる特定のCGキャラクタを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成するモデル動特性情報生成手段と、
    前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する模擬画像表示手段と、
    表示される前記模擬画像を動かすための指示を与える動作情報を取得する動作情報取得手段と、
    前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する表示内容更新手段と
    を更に設けたことを特徴とするCGキャラクタの制御装置。
  11. 所定の骨格のトポロジ構造を有する、CGキャラクタとして表現された仮想空間中の構造物の動作を制御するために用いられる動作データを生成するためのコンピュータで実行可能なプログラムにおいて、
    制御対象となる特定のCGキャラクタの各動作部位を、特定の制御対象に依存しない制御対象の骨格のトポロジ構造に対応した骨格モデルに基づき、骨格モデルの部位および動作方向を階層的に構造化した動作部位情報を生成する動作部位情報生成手順と、
    前記制御対象の動作を指示するために利用される動作情報を取得する動作情報取得手順と、
    前記動作部位情報と、前記制御対象の動作に関する動特性情報とに基づいて前記動作情報を変換し、前記動作データを生成する動作データ生成手順と
    を設けたことを特徴とするプログラム。
  12. 請求項11のプログラムにおいて、
    前記動特性情報と、制御対象となる特定のCGキャラクタを模擬したモデルの各動作部位の情報を階層的に構造化したモデル動作部位情報とに基づいて、前記モデルの動作に関する固有情報を含むモデル動特性情報を生成するモデル動特性情報生成手順と、
    前記モデル動特性情報に基づいて前記モデルの模擬画像を表示する模擬画像表示手順と、
    表示される前記模擬画像を動かすための指示を与える動作情報を取得する動作情報取得手順と、
    前記モデル動特性情報及び前記動作情報に基づいて表示される前記模擬画像の表示内容を更新する表示内容更新手順と
    を更に設けたことを特徴とするプログラム。
  13. 請求項5及び請求項6及び請求項11及び請求項12のいずれかのプログラムを記録した記録媒体。
JP2002215146A 2002-07-24 2002-07-24 ロボットの制御方法及び装置並びにプログラム及び記録媒体 Expired - Fee Related JP4074151B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002215146A JP4074151B2 (ja) 2002-07-24 2002-07-24 ロボットの制御方法及び装置並びにプログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002215146A JP4074151B2 (ja) 2002-07-24 2002-07-24 ロボットの制御方法及び装置並びにプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2004054841A JP2004054841A (ja) 2004-02-19
JP4074151B2 true JP4074151B2 (ja) 2008-04-09

Family

ID=31937253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002215146A Expired - Fee Related JP4074151B2 (ja) 2002-07-24 2002-07-24 ロボットの制御方法及び装置並びにプログラム及び記録媒体

Country Status (1)

Country Link
JP (1) JP4074151B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107728580B (zh) * 2017-10-18 2019-10-22 南京航空航天大学 一种面向自适应加工的几何信息-工艺信息-监测信息关联方法
WO2020067257A1 (ja) * 2018-09-28 2020-04-02 日本電産株式会社 制御装置

Also Published As

Publication number Publication date
JP2004054841A (ja) 2004-02-19

Similar Documents

Publication Publication Date Title
De Giorgio et al. Human-machine collaboration in virtual reality for adaptive production engineering
Žlajpah Simulation in robotics
US6718231B2 (en) Authoring system and authoring method, and storage medium
JP4592276B2 (ja) ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
KR101098834B1 (ko) 동역학 기반 동작 생성 장치 및 방법
US4987527A (en) Perspective display device for displaying and manipulating 2-D or 3-D cursor, 3-D object and associated mark position
Rosell et al. The Kautham Project: A teaching and research tool for robot motion planning
EP1310844B1 (en) Simulation device
JP2008030136A (ja) ロボットの動作編集装置及び動作編集方法、並びにコンピュータ・プログラム
JP2003058907A (ja) 木構造リンク系のポーズ及び動作を生成する方法
CN106846468A (zh) 一种基于ros系统的机械臂建模及运动规划实现方法
CN116310231A (zh) 一种基于混合现实的工程装备实时交互系统及运动仿真方法
JP4074151B2 (ja) ロボットの制御方法及び装置並びにプログラム及び記録媒体
JP2003266347A (ja) 脚式移動ロボットのための動作編集装置及び動作編集方法
JP2827239B2 (ja) 動作状態表示装置,動作指示制御装置および制御装置
Žlajpah Robot simulation for control design
CN115008439A (zh) 信息处理设备和方法、机器人系统、产品制造方法
Österberg Skill Imitation Learning on Dual-arm Robotic Systems
CN111341168A (zh) 一种协同装填训练教学系统及方法
WO2022162960A1 (ja) プログラム生成装置、プログラム生成プログラムおよびプログラム生成方法
US20220410395A1 (en) Information processing apparatus, information processing method, display device, display method, robot system, article manufacturing method, and recording medium
Kronfeld et al. An electro mechanical input device for the manipulation of virtual human motion
Bu-Hai et al. Kinematic Analysis and Three-dimensional Teaching of Six-Axis Robot Based on LinuxCNC
JPH04217480A (ja) ロボットの動作手順教示装置
Gucwa et al. An interactive virtual environment for programming modular robots

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070213

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110201

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4074151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110201

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120201

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130201

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees