JP3415427B2 - ロボットシミュレーションにおけるキャリブレーション装置 - Google Patents

ロボットシミュレーションにおけるキャリブレーション装置

Info

Publication number
JP3415427B2
JP3415427B2 JP4383898A JP4383898A JP3415427B2 JP 3415427 B2 JP3415427 B2 JP 3415427B2 JP 4383898 A JP4383898 A JP 4383898A JP 4383898 A JP4383898 A JP 4383898A JP 3415427 B2 JP3415427 B2 JP 3415427B2
Authority
JP
Japan
Prior art keywords
image information
information
graphic image
input
edge processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4383898A
Other languages
English (en)
Other versions
JPH11239989A (ja
Inventor
明 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4383898A priority Critical patent/JP3415427B2/ja
Publication of JPH11239989A publication Critical patent/JPH11239989A/ja
Application granted granted Critical
Publication of JP3415427B2 publication Critical patent/JP3415427B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボットの設計、
開発、制御の各段階において必要とされるロボットシミ
ュレーションのキャリブレーション(較正)を実施する
装置に関する。
【0002】
【従来の技術】現在、産業用ロボット、実験/研究用ロ
ボット等、様々な分野で人間の代わりに作業を行うロボ
ットが開発され、実用化されている。これらのロボット
の中でも、マニピュレータ(ロボットアーム)を持つア
ーム型ロボットは、人間と同じような手作業ができると
いう特徴を持っている。
【0003】マニピュレータの先端には手先効果器(エ
ンドエフェクタ)が取り付けられており、これが、直
接、作業対象物に働きかけて、対象物を把持したり、移
動させたりする。代表的なエンドエフェクタとしては、
対象物を把持するグリッパ(ロボットハンド)がある。
【0004】また、ロボットシミュレーションを行うコ
ンピュータシステムは、ロボットのモデル化、シミュレ
ーション演算、演算結果の可視化を主要な機能としてお
り、そのシミュレーション対象は運動学、動力学、制御
等を含む。ロボットシミュレーションについての参考書
としては、「基礎ロボット工学制御編」(長谷川健介、
増田良介共著、昭晃堂)や「ロボティクス」(遠山茂樹
著、日刊工業新聞社)等がある。
【0005】アーム型ロボットの運動学シミュレーショ
ンは、順運動学(キネマティクス)シミュレーションと
逆運動学(逆キネマティクス)シミュレーションの2通
りに大別される。キネマティクスシミュレーションは、
マニピュレータの関節角の回転量を入力データとして、
エンドエフェクタの位置と姿勢のデータを出力する。こ
れとは逆に、逆キネマティクスシミュレーションは、エ
ンドエフェクタの位置と姿勢を入力データとして、関節
角の回転量を出力する。
【0006】ここで、入出力データとして用いられてい
るエンドエフェクタの位置、姿勢および関節角の回転角
は、3次元空間内における連結された座標系としてモデ
ル化され、位置、姿勢、回転角の各パラメータは、連結
された座標系の相対的なパラメータとして表現される。
これらの入力データによるシミュレーション結果は、一
般に、3次元コンピュータグラフィクス(3次元CG)
により可視化することで、感覚的に把握される。
【0007】ロボットシミュレーションを利用してロボ
ットを操作する場合、オペレータは、表示されたシミュ
レーション結果により操作後の状態を確認した後、対応
する関節角の回転量等を操作入力としてロボットに与え
る。
【0008】このようなシミュレーションモデルのキャ
リブレーションを行う方法としては様々なものがある
が、基本的には、シミュレーションモデルにおけるロボ
ットおよび操作対象物の配置とそれらの実際の配置との
差異を計測して、シミュレーションモデルに反映するこ
とで実施される。したがって、キャリブレーションにお
いては、実際のロボット等の機器の配置がどれだけ正確
に取得できるかが、精度を高める上での重要な要因とな
る。
【0009】
【発明が解決しようとする課題】しかしながら、従来の
キャリブレーション方法には次のような問題がある。ロ
ボットの作業場所は必ずしも地上の工場内とは限らず、
地下、海中、空中、宇宙空間等の環境の異なる様々な場
所が想定され、それに伴って特殊なキャリブレーション
を要求される場合がある。
【0010】例えば、人工衛星に搭載されて宇宙空間で
作業を行うロボットハンドシステムの場合、衛星打ち上
げ時にかなり大きな衝撃や振動が発生する。宇宙空間の
ロボットを遠隔操作するためには、オペレータはディス
プレイに表示された3次元CGを見ながら適用な操作入
力を与える必要があるが、衝撃や振動によってロボット
および操作対象物の位置がずれると、正確な操作が行え
なくなる。そこで、ずれをシミュレーションモデルに反
映するために、キャリブレーションが必要となる。
【0011】しかし、この種のロボットハンドシステム
には、通常、ロボットおよび操作対象物のずれを検知す
る適当なセンサが備えられていないため、ずれの発生状
況を把握することは不可能である。
【0012】また、ロボットの操作時には、地上におい
て試験を行った際のキャリブレーションの値が参照され
るが、この値は重力の存在する環境で計測されたもので
ある。したがって、無重力状態における影響をシミュレ
ーションモデルに反映するために、なんらかのキャリブ
レーションが必要となる。しかし、無重力の影響を検知
する適当なセンサが備えられていないため、それを把握
することはできない。
【0013】本発明の課題は、ロボットを操作するため
のロボットシミュレーションにおいて、正確なセンサ情
報を用いることなく、シミュレーションモデルのキャリ
ブレーションを行うキャリブレーション装置を提供する
ことである。
【0014】
【課題を解決するための手段】図1は、本発明のキャリ
ブレーション装置の原理図である。図1のキャリブレー
ション装置は、画像入力手段1、修正手段2、および表
示手段3を備え、ロボットシミュレーションにおけるグ
ラフィクス表示のキャリブレーションを行う。
【0015】画像入力手段1は、カメラによる画像を入
力し、修正手段2は、入力された画像に基づいて、対応
するグラフィクス画像を修正する。そして、表示手段3
は、修正されたグラフィクス画像を表示する。
【0016】例えば、表示手段3は、入力された物体の
画像と、その物体に対応するグラフィクス画像とを重畳
表示し、オペレータは、表示画面を確認しながら、物体
の画像とそのグラフィクス画像の間のずれ量を減少させ
るような入力操作を行う。そして、修正手段2は、入力
操作に従ってグラフィクス画像を修正し、表示手段3
は、修正されたグラフィクス画像を表示する。
【0017】このような操作を繰り返して、ずれ量が十
分に小さくなった時点で、修正の結果をシミュレーショ
ンモデルに反映させれば、シミュレーションモデルのキ
ャリブレーションを行うことができる。
【0018】例えば、図1の画像入力手段1は、後述す
る図3のビデオボード31に対応し、修正手段2は、画
像処理プログラム33を実行するコンピュータに対応
し、表示手段3は、ディスプレイ25に対応する。ま
た、本発明の別のキャリブレーション装置は、画像入力
手段、エッジ処理手段、格納手段、操作入力手段、修正
手段、および表示手段を備え、ロボットシミュレーショ
ンにおけるグラフィクス表示のキャリブレーションを行
う。画像入力手段は、カメラによる物体の画像情報を入
力し、エッジ処理手段は、画像入力手段により入力され
た画像情報をエッジ処理する。格納手段は、グラフィッ
ク画像情報を生成するための情報を格納し、操作入力手
段は、格納手段の情報を基に生成されたグラフィック画
像情報と、エッジ処理手段によりエッジ処理された画像
情報との位置合わせ操作を行うための情報を入力する。
修正手段は、操作入力手段の入力に基づいて、格納手段
の情報を基に生成されたグラフィック画像情報を修正す
る。表示手段は、エッジ処理手段によりエッジ処理され
た画像情報と修正手段により修正されたグラフィック画
像情報とを重畳表示し、エッジ処理された画像情報と修
正されたグラフィック画像情報とが一致したとき、修正
されたグラフィック画像情報に含まれる物体の輪郭線を
強調表示する。
【0019】
【発明の実施の形態】以下、図面を参照しながら、本発
明の実施の形態を詳細に説明する。本実施形態では、よ
り正確な遠隔操作を実現するためには、ロボットハンド
システムの搭載系のカメラから送信されてくる実画像に
より、実際のロボットおよび操作対象物の状態を把握
し、それをシミュレーションモデルに反映するようなキ
ャリブレーションを実施する。
【0020】ここでは、ロボットのエンドエフェクタに
装着されたカメラによる操作対象物の実画像と、同じ画
角、視点による3次元CGの画像とを重畳表示し、その
表示における両者のずれ量をキャリブレーションの元デ
ータとして用いる。このとき、NTSC(national tel
evision system committee)信号の実画像は、ビデオ入
力装置により、ビットマップ(bitmap)形式に変換さ
れ、テキスチャマッピングにより、操作対象物をモデル
化したCAD(computer aided design )モデルの表面
に張り付けられる。そして、このCADモデルとシミュ
レーションモデルが重畳表示される。
【0021】次に、オペレータは、重畳表示によりずれ
を確認しながら、操作対象物の絶対座標系における位
置、姿勢を修正し、ロボットのエンドエフェクタと操作
対象物との相対的な位置および姿勢の関係を較正する。
このとき、操作対象物をモデル化した座標系を回転、移
動させることにより、実画像上の操作対象物とシミュレ
ーションモデル上の操作対象物が一致するように較正す
る。
【0022】図2は、シミュレーションの対象となるロ
ボットシステムの一例を示す構成図である。図2のシス
テムは、ロボット11、アクチュエータ12、センサ1
3、制御装置14、およびインタフェース15を含み、
オペレータの操作入力に従って動作する。
【0023】ロボット11は、ベースプレート16上に
搭載されたマニピュレータ17を備えており、マニピュ
レータ17の先端には、対象物20を把持するためのエ
ンドエフェクタであるハンド18が取り付けられてい
る。また、ハンド18にはカメラ19が取り付けられて
おり、対象物20等を含む周囲の環境を撮影することが
できる。カメラ19としては、例えば、CCD(charge
coupled device )カメラが用いられる。
【0024】アクチュエータ12は、制御装置14から
の制御信号に従ってロボット11を駆動し、センサ13
は、マニピュレータ17の各関節の位置、速度、トルク
等を検出して、それらの値に対応する信号を制御装置1
4に出力する。制御装置14は、プログラムを実行する
処理装置を含み、センサ13からの情報に基づいて、ア
クチュエータ12への制御信号を生成する。インタフェ
ース15は、オペレータと制御装置14の間の情報交換
を仲介する入出力装置である。
【0025】図2の制御装置14は、図3に示すような
キャリブレーション装置を備える。図3のキャリブレー
ション装置は、前処理装置21、画像処理装置22、シ
ミュレーション装置23、およびアクセラレータ24を
含み、カメラ19から送られる実画像(NTSC信号)
を処理して、ディスプレイ25の画面に表示する。ディ
スプレイ25は、図2のインタフェース15に対応す
る。
【0026】前処理装置21および画像処理装置22
は、入力されたNTSC信号のノイズ処理や同期信号分
離処理等を行って、シミュレーション装置23に入力す
る。アクセラレータ24は、シミュレーション装置23
から出力されるCG画像をディスプレイ25の画面に表
示する。
【0027】シミュレーション装置23は、ビデオボー
ド31、画像処理プログラム32、33、バスカード3
4、およびシミュレーションモデル35を含む。ビデオ
ボード31は、入力された信号をビットマップ形式の画
像データ(デジタルデータ)に変換し、画像処理プログ
ラム32は、画像データに含まれる物体の輪郭を強調す
るエッジ処理等を行う。また、画像処理プログラム33
は、画像データのテキスチャマッピングを行った後、シ
ミュレーションモデル35と合成して、バスカード34
から出力する。
【0028】このようなキャリブレーション装置を含む
制御装置14とインタフェース15は、例えば、図4に
示すような情報処理装置(コンピュータ)を用いて構成
することができる。図4の情報処理装置は、CPU(中
央処理装置)41、メモリ42、入力装置43、出力装
置44、外部記憶装置45、媒体駆動装置46、および
ネットワーク接続装置47を備え、それらはバス48に
より互いに接続されている。
【0029】メモリ42は、例えば、ROM(read onl
y memory)、RAM(random access memory)等を含
み、ロボットシステムのシミュレーションに用いられる
プログラムとデータを格納する。例えば、図3の画像処
理プログラム32、33、シミュレーションモデル3
5、入力された実画像のデータ等が、メモリ42に格納
される。プログラムCPU41は、メモリ42を利用し
てプログラムを実行することにより、必要な処理を行
う。
【0030】入力装置43は、例えば、キーボード、ポ
インティングデバイス、タッチパネル、ジョイステイッ
ク等であり、オペレータからの指示や情報の入力に用い
られる。出力装置44は、例えば、ディスプレイ25や
プリンタ等であり、オペレータへの問い合わせや処理結
果等の出力に用いられる。
【0031】外部記憶装置45は、例えば、磁気ディス
ク装置、光ディスク装置、光磁気ディスク(magneto-op
tical disk)装置等である。この外部記憶装置45に、
上述のプログラムとデータを保存しておき、必要に応じ
て、それらをメモリ42にロードして使用することもで
きる。また、外部記憶装置45は、必要に応じて、デー
タベースとしても用いられる。
【0032】媒体駆動装置46は、可搬記録媒体49を
駆動し、その記録内容にアクセスする。可搬記録媒体4
9としては、メモリカード、フロッピーディスク、CD
−ROM(compact disk read only memory )、光ディ
スク、光磁気ディスク等、任意のコンピュータ読み取り
可能な記録媒体が用いられる。この可搬記録媒体49に
上述のプログラムとデータを格納しておき、必要に応じ
て、それらをメモリ42にロードして使用することもで
きる。
【0033】ネットワーク接続装置47は、LAN(lo
cal area network)等の任意のネットワーク(回線)を
介して外部の装置と通信し、通信に伴うデータ変換を行
う。また、必要に応じて、上述のプログラムとデータを
外部の装置から受け取り、それらをメモリ42にロード
して使用することもできる。
【0034】図5は、図4の情報処理装置にプログラム
とデータを供給することのできるコンピュータ読み取り
可能な記録媒体を示している。可搬記録媒体49や外部
のデータベース50に保存されたプログラムとデータ
は、メモリ42にロードされる。そして、CPU41
は、そのデータを用いてそのプログラムを実行し、必要
な処理を行う。
【0035】次に、図2のロボット11の座標系につい
て説明する。ロボット11には、回転可能な5つの関節
が備えられており、各関節の回転角(関節角)は変数θ
1、θ2、θ3、θ4、θ5で表される。これらの変数
で表される座標系を、関節角座標系と呼ぶことにする。
マニピュレータ17が伸びきって直立姿勢を取ったと
き、各関節角の関係は図6に示すようになり、θ1とθ
5の回転軸は一直線上にある。
【0036】また、ハンド18の位置と姿勢を表すベー
ス座標系は、図7に示すように、αb、Xb、Zb、β
b、γbの5つの変数から成る。このうち、回転角αb
とγbは、それぞれ、関節角座標系のθ1とθ5に一致
する。
【0037】Xb−Zb平面は、ベースプレート16の
表面に垂直であり、その原点は、ベースプレート16の
表面とθ1の回転軸の交点に一致する。そして、このX
b−Zb平面は、回転角αbとともに回転する。回転角
βbは、Xb−Zb平面内で定義され、Zb軸の正の向
きに対するγbの回転軸の向きを表す。こうして、変数
αb、Xb、Zbによりハンド18の位置が表現され、
変数βbとγbによりその姿勢が表現される。
【0038】シミュレーションモデルは、例えば、図8
に示すような木構造で表される。図8において、それぞ
れの矩形は1つの座標系を表し、直線で接続された矩形
同士は互いに親子関係(隣接関係)にある。これらの座
標系の間の関係は、ロボットの運動を表現するときによ
く用いられるDenavit-Hartenbergモデル(DHモデル)
により表現できる。
【0039】DHモデルでは、ロボットを複数のリンク
が関節により結合したリンク機構とみなして、各関節毎
に3次元座標系を定義し、各座標系の間の相対的な関係
を4つの座標変換パラメータで表現している(基礎ロボ
ット工学制御編、52−56ページ、長谷川健介、増田
良介共著、昭晃堂)。ここでは、これらのパラメータを
DHパラメータと呼ぶことにし、ロボットや作業対象物
上で定義された任意の3次元座標系の間の関係を表現す
るために用いる。
【0040】ルート座標系51は3次元空間における絶
対座標系を表し、ロボット11は関節角座標系61、6
2、63、64、65で表される。これらの関節角座標
系61、62、63、64、65は、それぞれ、図2の
関節角θ1、θ2、θ3、θ4、θ5に対応する各関節
において定義される。また、タスクボードa座標系52
とタスクボードb座標系53は、作業対象物が固定され
ているタスクボード(パネルや壁面等)において定義さ
れた座標系である。
【0041】ロボット11が操作する対象物は、作業対
象物n−mのように表され(n=a,b,c,...,
m=1,2,3,...)、作業対象物a−mはタスク
ボードa上に固定されており、作業対象物b−mはタス
クボードb上に固定されている。また、作業対象物c−
mは、作業対象物b−2上に固定されている。これらの
作業対象物は、例えば、タスクボード上に埋め込まれた
ボルト等に対応するルート座標系51の下には、任意の
数の開ループ構造のデータを設定することが可能であ
る。ここで、開ループ構造とは、親子関係がループを作
らないような構造であり、例えば、関節角座標系65と
作業対象物a−4が直線で結ばれていないことを意味す
る。
【0042】例えば、ロボット11が作業対象物a−1
〜a−4を操作対象とする場合、図8のシミュレーショ
ンモデルに対するキャリブレーションは、タスクボード
a座標系52とルート座標系51の間のDHパラメータ
を変更することで実施される。このとき、オペレータが
画面上で指定した変更データが座標変換によりDHパラ
メータに反映され、その結果、ロボット11とタスクボ
ードaとの相対的な位置および姿勢が較正される。
【0043】図8では、作業対象物がタスクボード上に
固定されている場合を想定しているが、作業対象物が固
定されていない場合でも、同様にしてキャリブレーショ
ンを実施することが可能である。この場合、作業対象物
の座標系が、直接、ルート座標系51の下に接続され、
その作業対象物の座標系とルート座標系51の間のDH
パラメータが変更される。
【0044】図9は、図3の装置によるキャリブレーシ
ョンのフローチャートである。ビデオボード31は、ま
ず、実画像の信号をビットマップ形式の画像データに変
換して(ステップS1)、シミュレーション装置23内
に取り込む(ステップS2)。このとき、画像処理プロ
グラム32は、画像データのエッジ処理を行って、物体
の輪郭を強調する。例えば、図10のような対象物の画
像が取り込まれたとき、エッジ処理により、図11のよ
うな画像に変換される。
【0045】次に、画像処理プログラム33は、テキス
チャマッピングを行って、画像データをCADモデルの
表面にマッピングする(ステップS3)。テキスチャと
は、画像内で明るさや色が規則的に変化するパターンを
意味し、テキスチャマッピングにより、画像に含まれる
テキスチャが、対象物等に対応するCADモデルの表面
に張り付けられる。
【0046】そして、画像処理プログラム33は、実画
像を張り付けられたCADモデルとシミュレーションモ
デルを重ね合わせて、バスカード34からアクセラレー
タ24に出力する。このとき、図2のカメラ19と同じ
画角、視点のCG画像がシミュレーションモデルから生
成され、それが実画像と重ね合わされる。これにより、
CADモデルの実画像とシミュレーションモデルのCG
画像がディスプレイ25に重畳表示される(ステップS
4)。ここで、実画像とCG画像がずれていれば、キャ
リブレーションが必要になる。
【0047】オペレータは、表示された画面を見なが
ら、ポインティングデバイスやグラフィカルユーザイン
タフェース(GUI)等を用いて、キャリブレーション
データを入力する。ここでは、例えば、CADモデルの
実画像とシミュレーションモデルのCG画像の双方に基
準となるマーカを付加しておき、これらのマーカの位置
が一致するように、CG画像の位置合わせデータを入力
する(ステップS5)。さらに、これらのマーカの向き
(姿勢)が一致するように、CG画像の姿勢合わせデー
タを入力する(ステップS6)。
【0048】次に、画像処理プログラム33は、入力さ
れたキャリブレーションデータに基づいてCG画像を変
更し、実画像のマーカとCG画像のマーカの位置および
姿勢が一致しているかどうかを判定する(ステップS
7)。そして、両者が一致していなければ、ステップS
4以降の処理を繰り返す。これらのマーカが一致すれ
ば、画像処理プログラム33は、位置および姿勢の調整
結果をシミュレーションモデルに反映して、処理を終了
する。
【0049】例えば、ステップS4において、図12に
示すように、作業対象物の実画像71と、シミュレーシ
ョンモデルにおけるハンドの中心領域の断面を表すCG
画像72が重畳表示されたとする。このとき、オペレー
タは、実画像上のマーカ73とシミュレーションモデル
のマーカ74を元にしてずれを確認し、適当なキャリブ
レーションデータを入力して、CG画像を変更する。そ
の結果、図13に示すように、2つのマーカ73、74
が一致した画面が表示される。
【0050】実画像のマーカ73は、対象物71が固定
されているタスクボード上に、実際に描画しておいても
よく、対象物71のCADモデル生成時に付加してもよ
い。また、このようなマーカを用いずに、物体の輪郭等
に基づいて一致判定を行うことも可能である。
【0051】例えば、図14に示すように、対象物(円
柱)の実画像81と、シミュレーションモデルにおける
対象物のCG画像82が重畳表示されたとする。このと
き、オペレータは、まず、図15に示すように、CG画
像82の画面上における位置座標(Xw,Yw)をマウ
ス等の操作により変更して、その位置を実画像81に合
わせる。そして、表示を確認しながら、両者の位置が合
うまで操作を繰り返す。
【0052】次に、図16に示すように、CG画像82
の姿勢座標をマウス等の操作により変更して、その姿勢
(傾き)を実画像81に合わせる。そして、表示を確認
しながら、両者の姿勢が合うまで操作を繰り返す。CG
画像82の姿勢は、例えば、回転を表す変数(αw,β
w,γw)により指定され、それらの値はマウスボタン
の操作により変更される。
【0053】そして、ステップS7において、実画像8
1とCG画像82の位置および姿勢が一致すると、画像
処理プログラム33は、CG画像82の輪郭線を強調表
示して、そのことをオペレータに知らせる。強調表示の
形態としては、輪郭線の色を変更したり、輪郭線部分を
点滅させたりすることが考えられる。これにより、マー
カ等が表示されなくても、オペレータは、実画像81と
CG画像82が一致したことを容易に認識することがで
き、操作効率が向上する。
【0054】ここでは、ロボットの操作対象物の画像を
用いてキャリブレーションを行っているが、他の任意の
物体の画像を用いた場合でも、同様の方法でキャリブレ
ーションを行うことができる。
【0055】図17は、図9のステップS5〜S8にお
いて行われる、画面座標系からシミュレーションモデル
の座標系への座標変換のフローチャートである。まず、
オペレータが、画面上で変更に関わる位置および姿勢の
座標(Xw,Yw,αw,βw,γw)を指定すると
(ステップS11)、画像処理プログラム33は、それ
らを3次元CG空間における変更データとして、絶対座
標系空間(Xa,Ya,Za,θx,θy,θz)にマ
ッピングする(ステップS12)。絶対座標系は、例え
ば、図7のベース座標系の原点を原点として定義され
る。
【0056】次に、画像処理プログラム33は、変更デ
ータを絶対座標系からベース座標系に変換し(ステップ
S13)、さらに、ベース座標系からシミュレーション
モデルのDHパラメータに変換して(ステップS1
4)、処理を終了する。DHパラメータは、シミュレー
ションモデルに含まれる各座標系毎に設定され、(X
d,Zd,θx,θz)の4つのパラメータを含む。こ
のようにして、DHパラメータを変更することで、シミ
ュレーションモデルにおけるロボットと対象物の相対的
な関係が較正される。
【0057】ここでは、3次元CG空間においてキャリ
ブレーションデータを入力する構成をとることにより、
オペレータにとって、視覚的に操作しやすい作業環境を
提供している。しかしながら、キャリブレーションデー
タの入力は、絶対座標系、ベース座標系等を含む任意の
座標系で行うことができる。
【0058】図18は、ベース座標系でキャリブレーシ
ョンデータを入力するためのキャリブレーション設定画
面の例を示している。図18のタスクボード設定欄83
において、オペレータは、ベース座標系の変数αb、X
b、Zb、βb、γbの設定値とオフセットを入力し
て、対応するタスクボードの位置および姿勢を修正する
ことができる。この場合、画像処理プログラム33は、
これらの入力値を、直接、タスクボード座標系のDHパ
ラメータに変換して、シミュレーションモデルを変更す
る。
【0059】ところで、以上説明した実施形態において
は、図2、6、7、8等に示したように、ロボットの動
作に特定の制約を設けて、位置と姿勢を5自由度(5個
のパラメータ)で表現している。しかし、一般のロボッ
トでは、位置と姿勢が6自由度で表現される。本発明の
キャリブレーションは、自由度に関係なく、任意のロボ
ットに適用可能である。
【0060】また、キャリブレーション装置の構成は、
図3の構成に限られず、任意に設計することができる。
例えば、図3のアクセラレータ24は、CG画像の表示
を高速化するための装置であるため、シミュレーション
装置23の表示性能に問題がない場合は、これを省略す
ることができる。
【0061】また、実施形態においては、実画像を撮影
するカメラをロボットのエンドエフェクタ上に取り付け
るものとしているが、カメラの位置はこれに限られず、
ロボットや対象物を含む3次元空間内の任意の位置に固
定して用いることができる。例えば、ロボットのマニピ
ュレータ、ベースプレート、作業対象物が置かれている
作業台、作業空間の床、天井、壁等にカメラを設置して
もよい。
【0062】この場合、設置されたカメラと同じ画角、
視点から見たCG画像が生成され、実画像とともに重畳
表示される。そして、オペレータは、図9と同様の方法
で、エンドエフェクタの実画像とCG画像を一致させる
ような操作を行い、カメラとエンドエフェクタの相対的
な位置および姿勢を較正する。また、対象物の実画像と
CG画像を一致させるような操作を行うことで、カメラ
と対象物の相対的な位置および姿勢を較正する。これら
の操作により、結果として、エンドエフェクタと対象物
の相対的な位置および姿勢が較正される。
【0063】また、実施形態では、オペレータの操作に
よりキャリブレーションデータが入力されているが、シ
ミュレーション装置が実画像とCG画像の間のずれを自
動的に検出して、キャリブレーションデータを取得する
ようにしてもよい。このような構成を用いれば、位置合
わせや姿勢合わせに伴うオペレータの作業が軽減され
る。
【0064】さらに、本発明のキャリブレーション方法
は、地上で作業するロボットのみならず、地下、海中、
空中、宇宙空間等、あらゆる場所で作業を行う任意のロ
ボットに対して適用可能である。例えば、人工衛星に搭
載されたロボットハンドシステムの遠隔操作の際に用い
れば、打ち上げ時の衝撃や振動、無重力状態における影
響に対して、より正確なキャリブレーションを実施する
ことができる。
【0065】
【発明の効果】本発明によれば、キャリブレーション用
の計測情報が得られない遠隔地等にあるロボットを操作
するためのロボットシミュレーションにおいて、カメラ
からの画像を用いてキャリブレーションを簡単に実施す
ることができる。これにより、より正確なロボット操作
が行えるようになる。
【図面の簡単な説明】
【図1】本発明のキャリブレーション装置の原理図であ
る。
【図2】ロボットシステムの構成図である。
【図3】キャリブレーション装置の構成図である。
【図4】情報処理装置の構成図である。
【図5】記録媒体を示す図である。
【図6】関節角座標系を示す図である。
【図7】ベース座標系を示す図である。
【図8】シミュレーションモデルのデータ構造を示す図
である。
【図9】キャリブレーションのフローチャートである。
【図10】実画像を示す図である。
【図11】エッジ処理された画像を示す図である。
【図12】第1の画面を示す図である。
【図13】第2の画面を示す図である。
【図14】第3の画面を示す図である。
【図15】第4の画面を示す図である。
【図16】第5の画面を示す図である。
【図17】座標変換のフローチャートである。
【図18】キャリブレーション設定画面を示す図であ
る。
【符号の説明】
1 画像入力手段 2 修正手段 3 表示手段 11 ロボット 12 アクチュエータ 13 センサ 14 制御装置 15 インタフェース 16 ベースプレート 17 マニピュレータ 18 ハンド 19 カメラ 20 対象物 21 前処理装置 22 画像処理装置 23 シミュレーション装置 24 アクセラレータ 25 ディスプレイ 31 ビデオボード 32、33 画像処理プログラム 34 バスカード 35 シミュレーションモデル 41 CPU 42 メモリ 43 入力装置 44 出力装置 45 外部記憶装置 46 媒体駆動装置 47 ネットワーク接続装置 48 バス 49 可搬記録媒体 50 データベース 51、52、53、61、62、63、64、65 座
標系 52 カメラ 71、81 実画像 72、82 CG画像 73、74 マーカ 83 タスクボード設定欄
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) B25J 9/22 G05B 19/404 G05B 19/42

Claims (11)

    (57)【特許請求の範囲】
  1. 【請求項1】 ロボットシミュレーションにおけるグラ
    フィクス表示のキャリブレーションを行うキャリブレー
    ション装置であって、 カメラによる物体の画像情報を入力する画像入力手段
    と、 前記画像入力手段により入力された画像情報をエッジ処
    理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
    た格納手段と、 前記格納手段の情報を基に生成されたグラフィック画像
    情報と、前記エッジ処理手段によりエッジ処理された画
    像情報との位置合わせ操作を行うための操作入力手段
    と、 前記操作入力手段の入力に基づき、前記格納手段の情報
    を基に生成されたグラフィック画像情報を修正する修正
    手段と、 前記エッジ処理手段によりエッジ処理された画像情報と
    前記修正手段により修正されたグラフィック画像情報と
    を重畳表示し、該エッジ処理された画像情報と該修正さ
    れたグラフィック画像情報とが一致したとき、該修正さ
    れたグラフィック画像情報に含まれる前記物体の輪郭線
    を強調表示する表示手段とを備えることを特徴とするキ
    ャリブレーション装置。
  2. 【請求項2】 前記修正手段は、前記格納手段の情報を
    基に生成されたグラフィック画像情報と前記エッジ処理
    手段によりエッジ処理された画像情報との間のずれ量に
    基づき該グラフィック画像情報の修正を行うことを特徴
    とする請求項1記載のキャリブレーション装置。
  3. 【請求項3】 前記格納手段に格納されている前記グラ
    フィック画像情報を生成するための情報は、シュミレー
    ションモデル情報であることを特徴とする請求項1記載
    のキャリブレーション装置。
  4. 【請求項4】 前記格納手段は、ロボットと前記物体の
    シミュレーションモデルの情報を格納し、前記修正手段
    は、該シミュレーションモデルにおける該ロボットと物
    体の相対的な関係を較正することを特徴とする請求項3
    記載のキャリブレーション装置。
  5. 【請求項5】 ロボットシミュレーションにおけるグラ
    フィクス表示のキャリブレーションを行うキャリブレー
    ション装置であって、 ロボットのエンドエフェクタに装着されたカメラによる
    物体の画像情報を入力する画像入力手段と、 前記画像入力手段により入力された画像情報をエッジ処
    理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
    た格納手段と、 前記格納手段の情報を基にグラフィック画像情報を生成
    する生成手段と、 前記格納手段の情報を基に生成されたグラフィック画像
    情報と、前記エッジ処理手段によりエッジ処理された画
    像情報との位置合わせ操作を行うための操作入力手段
    と、 前記操作入力手段の入力に基づき、前記生成手段により
    生成されたグラフィック画像情報を修正する修正手段
    と、 前記エッジ処理手段によりエッジ処理された画像情報と
    前記修正手段により修正されたグラフィック画像情報と
    を重畳表示し、該エッジ処理された画像情報と該修正さ
    れたグラフィック画像情報とが一致したとき、該修正さ
    れたグラフィック画像情報に含まれる前記物体の輪郭線
    を強調表示する表示手段とを備えることを特徴とするキ
    ャリブレーション装置。
  6. 【請求項6】 前記格納手段は、前記ロボットと物体の
    シミュレーションモデルの情報を格納し、前記生成手段
    は、前記カメラに対応する画角および視点で、該シミュ
    レーションモデルから前記物体のグラフィック画像を生
    成することを特徴とする請求項5記載のキャリブレーシ
    ョン装置。
  7. 【請求項7】 前記修正手段は、修正の結果を前記シミ
    ュレーションモデルに反映させて、該シミュレーション
    モデルにおける前記ロボットと物体の相対的な関係を較
    正することを特徴とする請求項6記載のキャリブレーシ
    ョン装置。
  8. 【請求項8】 前記修正手段は、前記物体のグラフィッ
    ク画像情報の位置および姿勢のうち少なくとも一方を修
    正して、前記ロボットと物体の相対的な位置および姿勢
    のうち少なくとも一方を較正することを特徴とする請求
    項7記載のキャリブレーション装置。
  9. 【請求項9】 物体のグラフィクス表示のキャリブレー
    ションを行うキャリブレーション装置であって、 カメラによる前記物体の画像情報を入力する画像入力手
    段と、 前記画像入力手段により入力された画像情報をエッジ処
    理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
    た格納手段と、 前記格納手段の情報を基に生成されたグラフィック画像
    情報と、前記エッジ処理手段によりエッジ処理された画
    像情報との位置合わせ操作を行うための操作入力手段
    と、 前記操作入力手段の入力に基づき、前記格納手段の情報
    を基に生成されたグラフィック画像情報を修正する修正
    手段と、 前記エッジ処理手段によりエッジ処理された画像情報と
    前記修正手段により修正されたグラフィック画像情報と
    を重畳表示し、該エッジ処理された画像情報と該修正さ
    れたグラフィック画像情報とが一致したとき、該修正さ
    れたグラフィック画像情報に含まれる前記物体の輪郭線
    を強調表示する表示手段とを備えることを特徴とするキ
    ャリブレーション装置。
  10. 【請求項10】 ロボットシミュレーションにおけるグ
    ラフィクス表示のキャリブレーションを行うコンピュー
    タのためのプログラムを記録した記録媒体であって、 カメラによる物体の画像情報を入力する画像入力手段
    と、 前記画像入力手段により入力された画像情報をエッジ処
    理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
    た格納手段と、 前記格納手段の情報を基に生成されたグラフィック画像
    情報と、前記エッジ処理手段によりエッジ処理された画
    像情報との位置合わせ操作を行うための操作入力手段
    と、 前記操作入力手段の入力に基づき、前記格納手段の情報
    を基に生成されたグラフィック画像情報を修正する修正
    手段と、 前記エッジ処理手段によりエッジ処理された画像情報と
    前記修正手段により修正されたグラフィック画像情報と
    を重畳表示し、該エッジ処理された画像情報と 該修正さ
    れたグラフィック画像情報とが一致したとき、該修正さ
    れたグラフィック画像情報に含まれる前記物体の輪郭線
    を強調表示する表示手段として前記コンピュータを機能
    させるためのプログラムを記録したコンピュータ読み取
    り可能な記録媒体。
  11. 【請求項11】 物体のグラフィクス表示のキャリブレ
    ーションを行うコンピュータのためのプログラムを記録
    した記録媒体であって、カメラによる前記物体の画像情
    報を入力する画像入力手段と、 前記画像入力手段により入力された画像情報をエッジ処
    理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
    た格納手段と、 前記格納手段の情報を基に生成されたグラフィック画像
    情報と、前記エッジ処理手段によりエッジ処理された画
    像情報との位置合わせ操作を行うための操作入力手段
    と、 前記操作入力手段の入力に基づき、前記格納手段の情報
    を基に生成されたグラフィック画像情報を修正する修正
    手段と、 前記エッジ処理手段によりエッジ処理された画像情報と
    前記修正手段により修正されたグラフィック画像情報と
    を重畳表示し、該エッジ処理された画像情報と該修正さ
    れたグラフィック画像情報とが一致したとき、該修正さ
    れたグラフィック画像情報に含まれる前記物体の輪郭線
    を強調表示する表示手段として前記コンピュータを機能
    させるためのプログラムを記録したコンピュータ読み取
    り可能な記録媒体。
JP4383898A 1998-02-25 1998-02-25 ロボットシミュレーションにおけるキャリブレーション装置 Expired - Fee Related JP3415427B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4383898A JP3415427B2 (ja) 1998-02-25 1998-02-25 ロボットシミュレーションにおけるキャリブレーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4383898A JP3415427B2 (ja) 1998-02-25 1998-02-25 ロボットシミュレーションにおけるキャリブレーション装置

Publications (2)

Publication Number Publication Date
JPH11239989A JPH11239989A (ja) 1999-09-07
JP3415427B2 true JP3415427B2 (ja) 2003-06-09

Family

ID=12674899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4383898A Expired - Fee Related JP3415427B2 (ja) 1998-02-25 1998-02-25 ロボットシミュレーションにおけるキャリブレーション装置

Country Status (1)

Country Link
JP (1) JP3415427B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI696529B (zh) * 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4537557B2 (ja) * 2000-09-19 2010-09-01 オリンパス株式会社 情報呈示システム
JP2002324239A (ja) * 2001-04-25 2002-11-08 Olympus Optical Co Ltd 情報呈示システム
JP4015051B2 (ja) 2002-04-22 2007-11-28 松下電器産業株式会社 カメラ補正装置
JP4266946B2 (ja) * 2005-03-17 2009-05-27 ファナック株式会社 オフライン教示装置
FR2889761A1 (fr) * 2005-08-09 2007-02-16 Total Immersion Sa Systeme permettant a un utilisateur de localiser une camera afin de pouvoir inserer, rapidement de maniere ajustee, des images d'elements virtuels dans des images video d'elements reels captees par la camera
JP5702923B2 (ja) * 2009-07-27 2015-04-15 日本信号株式会社 距離画像処理システム
BR112013010677A2 (pt) * 2010-11-05 2020-10-06 Koninklijke Philips Electronics N.V. aparelho de geração de imagens para a geração de imagem de um objeto, método de geração de imagens para a geração de imagem de um objeto e programa de computador de geraçã ode imagens para a geração de imagens de um objeto.
JP5949242B2 (ja) * 2012-07-11 2016-07-06 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP6163942B2 (ja) * 2013-07-29 2017-07-19 富士通株式会社 情報処理装置、制御方法、及びプログラム
JP6576042B2 (ja) * 2015-01-14 2019-09-18 キヤノン株式会社 表示制御装置及びその方法、プログラム
JP6661980B2 (ja) 2015-11-06 2020-03-11 富士通株式会社 重畳表示方法、重畳表示装置、及び重畳表示プログラム
JP6883392B2 (ja) * 2016-07-29 2021-06-09 川崎重工業株式会社 ロボットシステム
JP6877191B2 (ja) * 2017-03-03 2021-05-26 株式会社キーエンス 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP6894829B2 (ja) * 2017-11-22 2021-06-30 株式会社日立プラントコンストラクション 構造物撤去シミュレーション方法
JP7164012B2 (ja) * 2019-03-15 2022-11-01 オムロン株式会社 設定支援装置、設定支援方法及びプログラム
JP7326911B2 (ja) * 2019-06-20 2023-08-16 オムロン株式会社 制御システムおよび制御方法
TW202234184A (zh) * 2021-02-25 2022-09-01 日商發那科股份有限公司 使用從視覺感測器的輸出得到之三維位置資訊的模擬裝置
JP7195476B1 (ja) * 2021-09-24 2022-12-23 株式会社ダイヘン 作業プログラム作成システム及び作業プログラム作成方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI696529B (zh) * 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
US11267129B2 (en) 2018-11-30 2022-03-08 Metal Industries Research & Development Centre Automatic positioning method and automatic control device

Also Published As

Publication number Publication date
JPH11239989A (ja) 1999-09-07

Similar Documents

Publication Publication Date Title
JP3415427B2 (ja) ロボットシミュレーションにおけるキャリブレーション装置
CN106873550B (zh) 模拟装置以及模拟方法
US9149931B2 (en) Robot system, robot control device and method for controlling robot
US6642922B1 (en) Interface apparatus for dynamic positioning and orientation of a robot through real-time parameter modifications
JP3207728B2 (ja) 冗長マニピュレータの制御方法
JP3537362B2 (ja) ロボットシステム用グラフィック表示装置
EP1215017B1 (en) Robot teaching apparatus
US20120290130A1 (en) Method to Model and Program a Robotic Workcell
EP2783812A2 (en) Robot device and method for manufacturing an object
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP2013043271A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2019018272A (ja) モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
JP2017097426A (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
US20180036883A1 (en) Simulation apparatus, robot control apparatus and robot
JP2018167334A (ja) 教示装置および教示方法
JP2019155556A (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JPS6179589A (ja) ロボツト運転装置
JPH10275007A (ja) ロボット動作シミュレーション方法
JP2703767B2 (ja) ロボットの教示データ作成方法
JP4230196B2 (ja) 位置決め演算方法および位置決め演算装置
JP2629291B2 (ja) マニピュレータ学習制御方法
Al-Junaid ANN based robotic arm visual servoing nonlinear system
JP2000112510A (ja) ロボットの教示方法及びその装置
JPH06134691A (ja) 位置検出方法およびこれを用いたフレキシブル生産システム
JP2021010994A (ja) センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20021022

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees