JP3415427B2 - ロボットシミュレーションにおけるキャリブレーション装置 - Google Patents
ロボットシミュレーションにおけるキャリブレーション装置Info
- Publication number
- JP3415427B2 JP3415427B2 JP4383898A JP4383898A JP3415427B2 JP 3415427 B2 JP3415427 B2 JP 3415427B2 JP 4383898 A JP4383898 A JP 4383898A JP 4383898 A JP4383898 A JP 4383898A JP 3415427 B2 JP3415427 B2 JP 3415427B2
- Authority
- JP
- Japan
- Prior art keywords
- image information
- information
- graphic image
- input
- edge processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
開発、制御の各段階において必要とされるロボットシミ
ュレーションのキャリブレーション(較正)を実施する
装置に関する。
ボット等、様々な分野で人間の代わりに作業を行うロボ
ットが開発され、実用化されている。これらのロボット
の中でも、マニピュレータ(ロボットアーム)を持つア
ーム型ロボットは、人間と同じような手作業ができると
いう特徴を持っている。
ンドエフェクタ)が取り付けられており、これが、直
接、作業対象物に働きかけて、対象物を把持したり、移
動させたりする。代表的なエンドエフェクタとしては、
対象物を把持するグリッパ(ロボットハンド)がある。
ンピュータシステムは、ロボットのモデル化、シミュレ
ーション演算、演算結果の可視化を主要な機能としてお
り、そのシミュレーション対象は運動学、動力学、制御
等を含む。ロボットシミュレーションについての参考書
としては、「基礎ロボット工学制御編」(長谷川健介、
増田良介共著、昭晃堂)や「ロボティクス」(遠山茂樹
著、日刊工業新聞社)等がある。
ンは、順運動学(キネマティクス)シミュレーションと
逆運動学(逆キネマティクス)シミュレーションの2通
りに大別される。キネマティクスシミュレーションは、
マニピュレータの関節角の回転量を入力データとして、
エンドエフェクタの位置と姿勢のデータを出力する。こ
れとは逆に、逆キネマティクスシミュレーションは、エ
ンドエフェクタの位置と姿勢を入力データとして、関節
角の回転量を出力する。
るエンドエフェクタの位置、姿勢および関節角の回転角
は、3次元空間内における連結された座標系としてモデ
ル化され、位置、姿勢、回転角の各パラメータは、連結
された座標系の相対的なパラメータとして表現される。
これらの入力データによるシミュレーション結果は、一
般に、3次元コンピュータグラフィクス(3次元CG)
により可視化することで、感覚的に把握される。
ットを操作する場合、オペレータは、表示されたシミュ
レーション結果により操作後の状態を確認した後、対応
する関節角の回転量等を操作入力としてロボットに与え
る。
リブレーションを行う方法としては様々なものがある
が、基本的には、シミュレーションモデルにおけるロボ
ットおよび操作対象物の配置とそれらの実際の配置との
差異を計測して、シミュレーションモデルに反映するこ
とで実施される。したがって、キャリブレーションにお
いては、実際のロボット等の機器の配置がどれだけ正確
に取得できるかが、精度を高める上での重要な要因とな
る。
キャリブレーション方法には次のような問題がある。ロ
ボットの作業場所は必ずしも地上の工場内とは限らず、
地下、海中、空中、宇宙空間等の環境の異なる様々な場
所が想定され、それに伴って特殊なキャリブレーション
を要求される場合がある。
作業を行うロボットハンドシステムの場合、衛星打ち上
げ時にかなり大きな衝撃や振動が発生する。宇宙空間の
ロボットを遠隔操作するためには、オペレータはディス
プレイに表示された3次元CGを見ながら適用な操作入
力を与える必要があるが、衝撃や振動によってロボット
および操作対象物の位置がずれると、正確な操作が行え
なくなる。そこで、ずれをシミュレーションモデルに反
映するために、キャリブレーションが必要となる。
には、通常、ロボットおよび操作対象物のずれを検知す
る適当なセンサが備えられていないため、ずれの発生状
況を把握することは不可能である。
て試験を行った際のキャリブレーションの値が参照され
るが、この値は重力の存在する環境で計測されたもので
ある。したがって、無重力状態における影響をシミュレ
ーションモデルに反映するために、なんらかのキャリブ
レーションが必要となる。しかし、無重力の影響を検知
する適当なセンサが備えられていないため、それを把握
することはできない。
のロボットシミュレーションにおいて、正確なセンサ情
報を用いることなく、シミュレーションモデルのキャリ
ブレーションを行うキャリブレーション装置を提供する
ことである。
ブレーション装置の原理図である。図1のキャリブレー
ション装置は、画像入力手段1、修正手段2、および表
示手段3を備え、ロボットシミュレーションにおけるグ
ラフィクス表示のキャリブレーションを行う。
力し、修正手段2は、入力された画像に基づいて、対応
するグラフィクス画像を修正する。そして、表示手段3
は、修正されたグラフィクス画像を表示する。
画像と、その物体に対応するグラフィクス画像とを重畳
表示し、オペレータは、表示画面を確認しながら、物体
の画像とそのグラフィクス画像の間のずれ量を減少させ
るような入力操作を行う。そして、修正手段2は、入力
操作に従ってグラフィクス画像を修正し、表示手段3
は、修正されたグラフィクス画像を表示する。
分に小さくなった時点で、修正の結果をシミュレーショ
ンモデルに反映させれば、シミュレーションモデルのキ
ャリブレーションを行うことができる。
る図3のビデオボード31に対応し、修正手段2は、画
像処理プログラム33を実行するコンピュータに対応
し、表示手段3は、ディスプレイ25に対応する。ま
た、本発明の別のキャリブレーション装置は、画像入力
手段、エッジ処理手段、格納手段、操作入力手段、修正
手段、および表示手段を備え、ロボットシミュレーショ
ンにおけるグラフィクス表示のキャリブレーションを行
う。画像入力手段は、カメラによる物体の画像情報を入
力し、エッジ処理手段は、画像入力手段により入力され
た画像情報をエッジ処理する。格納手段は、グラフィッ
ク画像情報を生成するための情報を格納し、操作入力手
段は、格納手段の情報を基に生成されたグラフィック画
像情報と、エッジ処理手段によりエッジ処理された画像
情報との位置合わせ操作を行うための情報を入力する。
修正手段は、操作入力手段の入力に基づいて、格納手段
の情報を基に生成されたグラフィック画像情報を修正す
る。表示手段は、エッジ処理手段によりエッジ処理され
た画像情報と修正手段により修正されたグラフィック画
像情報とを重畳表示し、エッジ処理された画像情報と修
正されたグラフィック画像情報とが一致したとき、修正
されたグラフィック画像情報に含まれる物体の輪郭線を
強調表示する。
明の実施の形態を詳細に説明する。本実施形態では、よ
り正確な遠隔操作を実現するためには、ロボットハンド
システムの搭載系のカメラから送信されてくる実画像に
より、実際のロボットおよび操作対象物の状態を把握
し、それをシミュレーションモデルに反映するようなキ
ャリブレーションを実施する。
装着されたカメラによる操作対象物の実画像と、同じ画
角、視点による3次元CGの画像とを重畳表示し、その
表示における両者のずれ量をキャリブレーションの元デ
ータとして用いる。このとき、NTSC(national tel
evision system committee)信号の実画像は、ビデオ入
力装置により、ビットマップ(bitmap)形式に変換さ
れ、テキスチャマッピングにより、操作対象物をモデル
化したCAD(computer aided design )モデルの表面
に張り付けられる。そして、このCADモデルとシミュ
レーションモデルが重畳表示される。
を確認しながら、操作対象物の絶対座標系における位
置、姿勢を修正し、ロボットのエンドエフェクタと操作
対象物との相対的な位置および姿勢の関係を較正する。
このとき、操作対象物をモデル化した座標系を回転、移
動させることにより、実画像上の操作対象物とシミュレ
ーションモデル上の操作対象物が一致するように較正す
る。
ボットシステムの一例を示す構成図である。図2のシス
テムは、ロボット11、アクチュエータ12、センサ1
3、制御装置14、およびインタフェース15を含み、
オペレータの操作入力に従って動作する。
搭載されたマニピュレータ17を備えており、マニピュ
レータ17の先端には、対象物20を把持するためのエ
ンドエフェクタであるハンド18が取り付けられてい
る。また、ハンド18にはカメラ19が取り付けられて
おり、対象物20等を含む周囲の環境を撮影することが
できる。カメラ19としては、例えば、CCD(charge
coupled device )カメラが用いられる。
の制御信号に従ってロボット11を駆動し、センサ13
は、マニピュレータ17の各関節の位置、速度、トルク
等を検出して、それらの値に対応する信号を制御装置1
4に出力する。制御装置14は、プログラムを実行する
処理装置を含み、センサ13からの情報に基づいて、ア
クチュエータ12への制御信号を生成する。インタフェ
ース15は、オペレータと制御装置14の間の情報交換
を仲介する入出力装置である。
キャリブレーション装置を備える。図3のキャリブレー
ション装置は、前処理装置21、画像処理装置22、シ
ミュレーション装置23、およびアクセラレータ24を
含み、カメラ19から送られる実画像(NTSC信号)
を処理して、ディスプレイ25の画面に表示する。ディ
スプレイ25は、図2のインタフェース15に対応す
る。
は、入力されたNTSC信号のノイズ処理や同期信号分
離処理等を行って、シミュレーション装置23に入力す
る。アクセラレータ24は、シミュレーション装置23
から出力されるCG画像をディスプレイ25の画面に表
示する。
ド31、画像処理プログラム32、33、バスカード3
4、およびシミュレーションモデル35を含む。ビデオ
ボード31は、入力された信号をビットマップ形式の画
像データ(デジタルデータ)に変換し、画像処理プログ
ラム32は、画像データに含まれる物体の輪郭を強調す
るエッジ処理等を行う。また、画像処理プログラム33
は、画像データのテキスチャマッピングを行った後、シ
ミュレーションモデル35と合成して、バスカード34
から出力する。
制御装置14とインタフェース15は、例えば、図4に
示すような情報処理装置(コンピュータ)を用いて構成
することができる。図4の情報処理装置は、CPU(中
央処理装置)41、メモリ42、入力装置43、出力装
置44、外部記憶装置45、媒体駆動装置46、および
ネットワーク接続装置47を備え、それらはバス48に
より互いに接続されている。
y memory)、RAM(random access memory)等を含
み、ロボットシステムのシミュレーションに用いられる
プログラムとデータを格納する。例えば、図3の画像処
理プログラム32、33、シミュレーションモデル3
5、入力された実画像のデータ等が、メモリ42に格納
される。プログラムCPU41は、メモリ42を利用し
てプログラムを実行することにより、必要な処理を行
う。
インティングデバイス、タッチパネル、ジョイステイッ
ク等であり、オペレータからの指示や情報の入力に用い
られる。出力装置44は、例えば、ディスプレイ25や
プリンタ等であり、オペレータへの問い合わせや処理結
果等の出力に用いられる。
ク装置、光ディスク装置、光磁気ディスク(magneto-op
tical disk)装置等である。この外部記憶装置45に、
上述のプログラムとデータを保存しておき、必要に応じ
て、それらをメモリ42にロードして使用することもで
きる。また、外部記憶装置45は、必要に応じて、デー
タベースとしても用いられる。
駆動し、その記録内容にアクセスする。可搬記録媒体4
9としては、メモリカード、フロッピーディスク、CD
−ROM(compact disk read only memory )、光ディ
スク、光磁気ディスク等、任意のコンピュータ読み取り
可能な記録媒体が用いられる。この可搬記録媒体49に
上述のプログラムとデータを格納しておき、必要に応じ
て、それらをメモリ42にロードして使用することもで
きる。
cal area network)等の任意のネットワーク(回線)を
介して外部の装置と通信し、通信に伴うデータ変換を行
う。また、必要に応じて、上述のプログラムとデータを
外部の装置から受け取り、それらをメモリ42にロード
して使用することもできる。
とデータを供給することのできるコンピュータ読み取り
可能な記録媒体を示している。可搬記録媒体49や外部
のデータベース50に保存されたプログラムとデータ
は、メモリ42にロードされる。そして、CPU41
は、そのデータを用いてそのプログラムを実行し、必要
な処理を行う。
て説明する。ロボット11には、回転可能な5つの関節
が備えられており、各関節の回転角(関節角)は変数θ
1、θ2、θ3、θ4、θ5で表される。これらの変数
で表される座標系を、関節角座標系と呼ぶことにする。
マニピュレータ17が伸びきって直立姿勢を取ったと
き、各関節角の関係は図6に示すようになり、θ1とθ
5の回転軸は一直線上にある。
ス座標系は、図7に示すように、αb、Xb、Zb、β
b、γbの5つの変数から成る。このうち、回転角αb
とγbは、それぞれ、関節角座標系のθ1とθ5に一致
する。
表面に垂直であり、その原点は、ベースプレート16の
表面とθ1の回転軸の交点に一致する。そして、このX
b−Zb平面は、回転角αbとともに回転する。回転角
βbは、Xb−Zb平面内で定義され、Zb軸の正の向
きに対するγbの回転軸の向きを表す。こうして、変数
αb、Xb、Zbによりハンド18の位置が表現され、
変数βbとγbによりその姿勢が表現される。
に示すような木構造で表される。図8において、それぞ
れの矩形は1つの座標系を表し、直線で接続された矩形
同士は互いに親子関係(隣接関係)にある。これらの座
標系の間の関係は、ロボットの運動を表現するときによ
く用いられるDenavit-Hartenbergモデル(DHモデル)
により表現できる。
が関節により結合したリンク機構とみなして、各関節毎
に3次元座標系を定義し、各座標系の間の相対的な関係
を4つの座標変換パラメータで表現している(基礎ロボ
ット工学制御編、52−56ページ、長谷川健介、増田
良介共著、昭晃堂)。ここでは、これらのパラメータを
DHパラメータと呼ぶことにし、ロボットや作業対象物
上で定義された任意の3次元座標系の間の関係を表現す
るために用いる。
対座標系を表し、ロボット11は関節角座標系61、6
2、63、64、65で表される。これらの関節角座標
系61、62、63、64、65は、それぞれ、図2の
関節角θ1、θ2、θ3、θ4、θ5に対応する各関節
において定義される。また、タスクボードa座標系52
とタスクボードb座標系53は、作業対象物が固定され
ているタスクボード(パネルや壁面等)において定義さ
れた座標系である。
象物n−mのように表され(n=a,b,c,...,
m=1,2,3,...)、作業対象物a−mはタスク
ボードa上に固定されており、作業対象物b−mはタス
クボードb上に固定されている。また、作業対象物c−
mは、作業対象物b−2上に固定されている。これらの
作業対象物は、例えば、タスクボード上に埋め込まれた
ボルト等に対応するルート座標系51の下には、任意の
数の開ループ構造のデータを設定することが可能であ
る。ここで、開ループ構造とは、親子関係がループを作
らないような構造であり、例えば、関節角座標系65と
作業対象物a−4が直線で結ばれていないことを意味す
る。
〜a−4を操作対象とする場合、図8のシミュレーショ
ンモデルに対するキャリブレーションは、タスクボード
a座標系52とルート座標系51の間のDHパラメータ
を変更することで実施される。このとき、オペレータが
画面上で指定した変更データが座標変換によりDHパラ
メータに反映され、その結果、ロボット11とタスクボ
ードaとの相対的な位置および姿勢が較正される。
固定されている場合を想定しているが、作業対象物が固
定されていない場合でも、同様にしてキャリブレーショ
ンを実施することが可能である。この場合、作業対象物
の座標系が、直接、ルート座標系51の下に接続され、
その作業対象物の座標系とルート座標系51の間のDH
パラメータが変更される。
ョンのフローチャートである。ビデオボード31は、ま
ず、実画像の信号をビットマップ形式の画像データに変
換して(ステップS1)、シミュレーション装置23内
に取り込む(ステップS2)。このとき、画像処理プロ
グラム32は、画像データのエッジ処理を行って、物体
の輪郭を強調する。例えば、図10のような対象物の画
像が取り込まれたとき、エッジ処理により、図11のよ
うな画像に変換される。
チャマッピングを行って、画像データをCADモデルの
表面にマッピングする(ステップS3)。テキスチャと
は、画像内で明るさや色が規則的に変化するパターンを
意味し、テキスチャマッピングにより、画像に含まれる
テキスチャが、対象物等に対応するCADモデルの表面
に張り付けられる。
像を張り付けられたCADモデルとシミュレーションモ
デルを重ね合わせて、バスカード34からアクセラレー
タ24に出力する。このとき、図2のカメラ19と同じ
画角、視点のCG画像がシミュレーションモデルから生
成され、それが実画像と重ね合わされる。これにより、
CADモデルの実画像とシミュレーションモデルのCG
画像がディスプレイ25に重畳表示される(ステップS
4)。ここで、実画像とCG画像がずれていれば、キャ
リブレーションが必要になる。
ら、ポインティングデバイスやグラフィカルユーザイン
タフェース(GUI)等を用いて、キャリブレーション
データを入力する。ここでは、例えば、CADモデルの
実画像とシミュレーションモデルのCG画像の双方に基
準となるマーカを付加しておき、これらのマーカの位置
が一致するように、CG画像の位置合わせデータを入力
する(ステップS5)。さらに、これらのマーカの向き
(姿勢)が一致するように、CG画像の姿勢合わせデー
タを入力する(ステップS6)。
れたキャリブレーションデータに基づいてCG画像を変
更し、実画像のマーカとCG画像のマーカの位置および
姿勢が一致しているかどうかを判定する(ステップS
7)。そして、両者が一致していなければ、ステップS
4以降の処理を繰り返す。これらのマーカが一致すれ
ば、画像処理プログラム33は、位置および姿勢の調整
結果をシミュレーションモデルに反映して、処理を終了
する。
示すように、作業対象物の実画像71と、シミュレーシ
ョンモデルにおけるハンドの中心領域の断面を表すCG
画像72が重畳表示されたとする。このとき、オペレー
タは、実画像上のマーカ73とシミュレーションモデル
のマーカ74を元にしてずれを確認し、適当なキャリブ
レーションデータを入力して、CG画像を変更する。そ
の結果、図13に示すように、2つのマーカ73、74
が一致した画面が表示される。
されているタスクボード上に、実際に描画しておいても
よく、対象物71のCADモデル生成時に付加してもよ
い。また、このようなマーカを用いずに、物体の輪郭等
に基づいて一致判定を行うことも可能である。
柱)の実画像81と、シミュレーションモデルにおける
対象物のCG画像82が重畳表示されたとする。このと
き、オペレータは、まず、図15に示すように、CG画
像82の画面上における位置座標(Xw,Yw)をマウ
ス等の操作により変更して、その位置を実画像81に合
わせる。そして、表示を確認しながら、両者の位置が合
うまで操作を繰り返す。
の姿勢座標をマウス等の操作により変更して、その姿勢
(傾き)を実画像81に合わせる。そして、表示を確認
しながら、両者の姿勢が合うまで操作を繰り返す。CG
画像82の姿勢は、例えば、回転を表す変数(αw,β
w,γw)により指定され、それらの値はマウスボタン
の操作により変更される。
1とCG画像82の位置および姿勢が一致すると、画像
処理プログラム33は、CG画像82の輪郭線を強調表
示して、そのことをオペレータに知らせる。強調表示の
形態としては、輪郭線の色を変更したり、輪郭線部分を
点滅させたりすることが考えられる。これにより、マー
カ等が表示されなくても、オペレータは、実画像81と
CG画像82が一致したことを容易に認識することがで
き、操作効率が向上する。
用いてキャリブレーションを行っているが、他の任意の
物体の画像を用いた場合でも、同様の方法でキャリブレ
ーションを行うことができる。
いて行われる、画面座標系からシミュレーションモデル
の座標系への座標変換のフローチャートである。まず、
オペレータが、画面上で変更に関わる位置および姿勢の
座標(Xw,Yw,αw,βw,γw)を指定すると
(ステップS11)、画像処理プログラム33は、それ
らを3次元CG空間における変更データとして、絶対座
標系空間(Xa,Ya,Za,θx,θy,θz)にマ
ッピングする(ステップS12)。絶対座標系は、例え
ば、図7のベース座標系の原点を原点として定義され
る。
ータを絶対座標系からベース座標系に変換し(ステップ
S13)、さらに、ベース座標系からシミュレーション
モデルのDHパラメータに変換して(ステップS1
4)、処理を終了する。DHパラメータは、シミュレー
ションモデルに含まれる各座標系毎に設定され、(X
d,Zd,θx,θz)の4つのパラメータを含む。こ
のようにして、DHパラメータを変更することで、シミ
ュレーションモデルにおけるロボットと対象物の相対的
な関係が較正される。
ブレーションデータを入力する構成をとることにより、
オペレータにとって、視覚的に操作しやすい作業環境を
提供している。しかしながら、キャリブレーションデー
タの入力は、絶対座標系、ベース座標系等を含む任意の
座標系で行うことができる。
ョンデータを入力するためのキャリブレーション設定画
面の例を示している。図18のタスクボード設定欄83
において、オペレータは、ベース座標系の変数αb、X
b、Zb、βb、γbの設定値とオフセットを入力し
て、対応するタスクボードの位置および姿勢を修正する
ことができる。この場合、画像処理プログラム33は、
これらの入力値を、直接、タスクボード座標系のDHパ
ラメータに変換して、シミュレーションモデルを変更す
る。
は、図2、6、7、8等に示したように、ロボットの動
作に特定の制約を設けて、位置と姿勢を5自由度(5個
のパラメータ)で表現している。しかし、一般のロボッ
トでは、位置と姿勢が6自由度で表現される。本発明の
キャリブレーションは、自由度に関係なく、任意のロボ
ットに適用可能である。
図3の構成に限られず、任意に設計することができる。
例えば、図3のアクセラレータ24は、CG画像の表示
を高速化するための装置であるため、シミュレーション
装置23の表示性能に問題がない場合は、これを省略す
ることができる。
するカメラをロボットのエンドエフェクタ上に取り付け
るものとしているが、カメラの位置はこれに限られず、
ロボットや対象物を含む3次元空間内の任意の位置に固
定して用いることができる。例えば、ロボットのマニピ
ュレータ、ベースプレート、作業対象物が置かれている
作業台、作業空間の床、天井、壁等にカメラを設置して
もよい。
視点から見たCG画像が生成され、実画像とともに重畳
表示される。そして、オペレータは、図9と同様の方法
で、エンドエフェクタの実画像とCG画像を一致させる
ような操作を行い、カメラとエンドエフェクタの相対的
な位置および姿勢を較正する。また、対象物の実画像と
CG画像を一致させるような操作を行うことで、カメラ
と対象物の相対的な位置および姿勢を較正する。これら
の操作により、結果として、エンドエフェクタと対象物
の相対的な位置および姿勢が較正される。
よりキャリブレーションデータが入力されているが、シ
ミュレーション装置が実画像とCG画像の間のずれを自
動的に検出して、キャリブレーションデータを取得する
ようにしてもよい。このような構成を用いれば、位置合
わせや姿勢合わせに伴うオペレータの作業が軽減され
る。
は、地上で作業するロボットのみならず、地下、海中、
空中、宇宙空間等、あらゆる場所で作業を行う任意のロ
ボットに対して適用可能である。例えば、人工衛星に搭
載されたロボットハンドシステムの遠隔操作の際に用い
れば、打ち上げ時の衝撃や振動、無重力状態における影
響に対して、より正確なキャリブレーションを実施する
ことができる。
の計測情報が得られない遠隔地等にあるロボットを操作
するためのロボットシミュレーションにおいて、カメラ
からの画像を用いてキャリブレーションを簡単に実施す
ることができる。これにより、より正確なロボット操作
が行えるようになる。
る。
である。
る。
標系 52 カメラ 71、81 実画像 72、82 CG画像 73、74 マーカ 83 タスクボード設定欄
Claims (11)
- 【請求項1】 ロボットシミュレーションにおけるグラ
フィクス表示のキャリブレーションを行うキャリブレー
ション装置であって、 カメラによる物体の画像情報を入力する画像入力手段
と、 前記画像入力手段により入力された画像情報をエッジ処
理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
た格納手段と、 前記格納手段の情報を基に生成されたグラフィック画像
情報と、前記エッジ処理手段によりエッジ処理された画
像情報との位置合わせ操作を行うための操作入力手段
と、 前記操作入力手段の入力に基づき、前記格納手段の情報
を基に生成されたグラフィック画像情報を修正する修正
手段と、 前記エッジ処理手段によりエッジ処理された画像情報と
前記修正手段により修正されたグラフィック画像情報と
を重畳表示し、該エッジ処理された画像情報と該修正さ
れたグラフィック画像情報とが一致したとき、該修正さ
れたグラフィック画像情報に含まれる前記物体の輪郭線
を強調表示する表示手段とを備えることを特徴とするキ
ャリブレーション装置。 - 【請求項2】 前記修正手段は、前記格納手段の情報を
基に生成されたグラフィック画像情報と前記エッジ処理
手段によりエッジ処理された画像情報との間のずれ量に
基づき該グラフィック画像情報の修正を行うことを特徴
とする請求項1記載のキャリブレーション装置。 - 【請求項3】 前記格納手段に格納されている前記グラ
フィック画像情報を生成するための情報は、シュミレー
ションモデル情報であることを特徴とする請求項1記載
のキャリブレーション装置。 - 【請求項4】 前記格納手段は、ロボットと前記物体の
シミュレーションモデルの情報を格納し、前記修正手段
は、該シミュレーションモデルにおける該ロボットと物
体の相対的な関係を較正することを特徴とする請求項3
記載のキャリブレーション装置。 - 【請求項5】 ロボットシミュレーションにおけるグラ
フィクス表示のキャリブレーションを行うキャリブレー
ション装置であって、 ロボットのエンドエフェクタに装着されたカメラによる
物体の画像情報を入力する画像入力手段と、 前記画像入力手段により入力された画像情報をエッジ処
理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
た格納手段と、 前記格納手段の情報を基にグラフィック画像情報を生成
する生成手段と、 前記格納手段の情報を基に生成されたグラフィック画像
情報と、前記エッジ処理手段によりエッジ処理された画
像情報との位置合わせ操作を行うための操作入力手段
と、 前記操作入力手段の入力に基づき、前記生成手段により
生成されたグラフィック画像情報を修正する修正手段
と、 前記エッジ処理手段によりエッジ処理された画像情報と
前記修正手段により修正されたグラフィック画像情報と
を重畳表示し、該エッジ処理された画像情報と該修正さ
れたグラフィック画像情報とが一致したとき、該修正さ
れたグラフィック画像情報に含まれる前記物体の輪郭線
を強調表示する表示手段とを備えることを特徴とするキ
ャリブレーション装置。 - 【請求項6】 前記格納手段は、前記ロボットと物体の
シミュレーションモデルの情報を格納し、前記生成手段
は、前記カメラに対応する画角および視点で、該シミュ
レーションモデルから前記物体のグラフィック画像を生
成することを特徴とする請求項5記載のキャリブレーシ
ョン装置。 - 【請求項7】 前記修正手段は、修正の結果を前記シミ
ュレーションモデルに反映させて、該シミュレーション
モデルにおける前記ロボットと物体の相対的な関係を較
正することを特徴とする請求項6記載のキャリブレーシ
ョン装置。 - 【請求項8】 前記修正手段は、前記物体のグラフィッ
ク画像情報の位置および姿勢のうち少なくとも一方を修
正して、前記ロボットと物体の相対的な位置および姿勢
のうち少なくとも一方を較正することを特徴とする請求
項7記載のキャリブレーション装置。 - 【請求項9】 物体のグラフィクス表示のキャリブレー
ションを行うキャリブレーション装置であって、 カメラによる前記物体の画像情報を入力する画像入力手
段と、 前記画像入力手段により入力された画像情報をエッジ処
理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
た格納手段と、 前記格納手段の情報を基に生成されたグラフィック画像
情報と、前記エッジ処理手段によりエッジ処理された画
像情報との位置合わせ操作を行うための操作入力手段
と、 前記操作入力手段の入力に基づき、前記格納手段の情報
を基に生成されたグラフィック画像情報を修正する修正
手段と、 前記エッジ処理手段によりエッジ処理された画像情報と
前記修正手段により修正されたグラフィック画像情報と
を重畳表示し、該エッジ処理された画像情報と該修正さ
れたグラフィック画像情報とが一致したとき、該修正さ
れたグラフィック画像情報に含まれる前記物体の輪郭線
を強調表示する表示手段とを備えることを特徴とするキ
ャリブレーション装置。 - 【請求項10】 ロボットシミュレーションにおけるグ
ラフィクス表示のキャリブレーションを行うコンピュー
タのためのプログラムを記録した記録媒体であって、 カメラによる物体の画像情報を入力する画像入力手段
と、 前記画像入力手段により入力された画像情報をエッジ処
理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
た格納手段と、 前記格納手段の情報を基に生成されたグラフィック画像
情報と、前記エッジ処理手段によりエッジ処理された画
像情報との位置合わせ操作を行うための操作入力手段
と、 前記操作入力手段の入力に基づき、前記格納手段の情報
を基に生成されたグラフィック画像情報を修正する修正
手段と、 前記エッジ処理手段によりエッジ処理された画像情報と
前記修正手段により修正されたグラフィック画像情報と
を重畳表示し、該エッジ処理された画像情報と 該修正さ
れたグラフィック画像情報とが一致したとき、該修正さ
れたグラフィック画像情報に含まれる前記物体の輪郭線
を強調表示する表示手段として前記コンピュータを機能
させるためのプログラムを記録したコンピュータ読み取
り可能な記録媒体。 - 【請求項11】 物体のグラフィクス表示のキャリブレ
ーションを行うコンピュータのためのプログラムを記録
した記録媒体であって、カメラによる前記物体の画像情
報を入力する画像入力手段と、 前記画像入力手段により入力された画像情報をエッジ処
理するエッジ処理手段と、 グラフィック画像情報を生成するための情報が格納され
た格納手段と、 前記格納手段の情報を基に生成されたグラフィック画像
情報と、前記エッジ処理手段によりエッジ処理された画
像情報との位置合わせ操作を行うための操作入力手段
と、 前記操作入力手段の入力に基づき、前記格納手段の情報
を基に生成されたグラフィック画像情報を修正する修正
手段と、 前記エッジ処理手段によりエッジ処理された画像情報と
前記修正手段により修正されたグラフィック画像情報と
を重畳表示し、該エッジ処理された画像情報と該修正さ
れたグラフィック画像情報とが一致したとき、該修正さ
れたグラフィック画像情報に含まれる前記物体の輪郭線
を強調表示する表示手段として前記コンピュータを機能
させるためのプログラムを記録したコンピュータ読み取
り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4383898A JP3415427B2 (ja) | 1998-02-25 | 1998-02-25 | ロボットシミュレーションにおけるキャリブレーション装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4383898A JP3415427B2 (ja) | 1998-02-25 | 1998-02-25 | ロボットシミュレーションにおけるキャリブレーション装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11239989A JPH11239989A (ja) | 1999-09-07 |
JP3415427B2 true JP3415427B2 (ja) | 2003-06-09 |
Family
ID=12674899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4383898A Expired - Fee Related JP3415427B2 (ja) | 1998-02-25 | 1998-02-25 | ロボットシミュレーションにおけるキャリブレーション装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3415427B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI696529B (zh) * | 2018-11-30 | 2020-06-21 | 財團法人金屬工業研究發展中心 | 自動定位方法以及自動控制裝置 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4537557B2 (ja) * | 2000-09-19 | 2010-09-01 | オリンパス株式会社 | 情報呈示システム |
JP2002324239A (ja) * | 2001-04-25 | 2002-11-08 | Olympus Optical Co Ltd | 情報呈示システム |
JP4015051B2 (ja) | 2002-04-22 | 2007-11-28 | 松下電器産業株式会社 | カメラ補正装置 |
JP4266946B2 (ja) * | 2005-03-17 | 2009-05-27 | ファナック株式会社 | オフライン教示装置 |
FR2889761A1 (fr) * | 2005-08-09 | 2007-02-16 | Total Immersion Sa | Systeme permettant a un utilisateur de localiser une camera afin de pouvoir inserer, rapidement de maniere ajustee, des images d'elements virtuels dans des images video d'elements reels captees par la camera |
JP5702923B2 (ja) * | 2009-07-27 | 2015-04-15 | 日本信号株式会社 | 距離画像処理システム |
BR112013010677A2 (pt) * | 2010-11-05 | 2020-10-06 | Koninklijke Philips Electronics N.V. | aparelho de geração de imagens para a geração de imagem de um objeto, método de geração de imagens para a geração de imagem de um objeto e programa de computador de geraçã ode imagens para a geração de imagens de um objeto. |
JP5949242B2 (ja) * | 2012-07-11 | 2016-07-06 | セイコーエプソン株式会社 | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム |
JP6163942B2 (ja) * | 2013-07-29 | 2017-07-19 | 富士通株式会社 | 情報処理装置、制御方法、及びプログラム |
JP6576042B2 (ja) * | 2015-01-14 | 2019-09-18 | キヤノン株式会社 | 表示制御装置及びその方法、プログラム |
JP6661980B2 (ja) | 2015-11-06 | 2020-03-11 | 富士通株式会社 | 重畳表示方法、重畳表示装置、及び重畳表示プログラム |
JP6883392B2 (ja) * | 2016-07-29 | 2021-06-09 | 川崎重工業株式会社 | ロボットシステム |
JP6877191B2 (ja) * | 2017-03-03 | 2021-05-26 | 株式会社キーエンス | 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体 |
JP6894829B2 (ja) * | 2017-11-22 | 2021-06-30 | 株式会社日立プラントコンストラクション | 構造物撤去シミュレーション方法 |
JP7164012B2 (ja) * | 2019-03-15 | 2022-11-01 | オムロン株式会社 | 設定支援装置、設定支援方法及びプログラム |
JP7326911B2 (ja) * | 2019-06-20 | 2023-08-16 | オムロン株式会社 | 制御システムおよび制御方法 |
TW202234184A (zh) * | 2021-02-25 | 2022-09-01 | 日商發那科股份有限公司 | 使用從視覺感測器的輸出得到之三維位置資訊的模擬裝置 |
JP7195476B1 (ja) * | 2021-09-24 | 2022-12-23 | 株式会社ダイヘン | 作業プログラム作成システム及び作業プログラム作成方法 |
-
1998
- 1998-02-25 JP JP4383898A patent/JP3415427B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI696529B (zh) * | 2018-11-30 | 2020-06-21 | 財團法人金屬工業研究發展中心 | 自動定位方法以及自動控制裝置 |
US11267129B2 (en) | 2018-11-30 | 2022-03-08 | Metal Industries Research & Development Centre | Automatic positioning method and automatic control device |
Also Published As
Publication number | Publication date |
---|---|
JPH11239989A (ja) | 1999-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3415427B2 (ja) | ロボットシミュレーションにおけるキャリブレーション装置 | |
CN106873550B (zh) | 模拟装置以及模拟方法 | |
US9149931B2 (en) | Robot system, robot control device and method for controlling robot | |
US6642922B1 (en) | Interface apparatus for dynamic positioning and orientation of a robot through real-time parameter modifications | |
JP3207728B2 (ja) | 冗長マニピュレータの制御方法 | |
JP3537362B2 (ja) | ロボットシステム用グラフィック表示装置 | |
EP1215017B1 (en) | Robot teaching apparatus | |
US20120290130A1 (en) | Method to Model and Program a Robotic Workcell | |
EP2783812A2 (en) | Robot device and method for manufacturing an object | |
KR20140008262A (ko) | 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램 | |
JP2013043271A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP2019018272A (ja) | モーション生成方法、モーション生成装置、システム及びコンピュータプログラム | |
JP2017097426A (ja) | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム | |
US20180036883A1 (en) | Simulation apparatus, robot control apparatus and robot | |
JP2018167334A (ja) | 教示装置および教示方法 | |
JP2019155556A (ja) | ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法 | |
JPS6179589A (ja) | ロボツト運転装置 | |
JPH10275007A (ja) | ロボット動作シミュレーション方法 | |
JP2703767B2 (ja) | ロボットの教示データ作成方法 | |
JP4230196B2 (ja) | 位置決め演算方法および位置決め演算装置 | |
JP2629291B2 (ja) | マニピュレータ学習制御方法 | |
Al-Junaid | ANN based robotic arm visual servoing nonlinear system | |
JP2000112510A (ja) | ロボットの教示方法及びその装置 | |
JPH06134691A (ja) | 位置検出方法およびこれを用いたフレキシブル生産システム | |
JP2021010994A (ja) | センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20021022 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030318 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080404 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090404 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090404 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100404 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140404 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |