JP3560216B2 - 作業支援装置 - Google Patents
作業支援装置 Download PDFInfo
- Publication number
- JP3560216B2 JP3560216B2 JP00233598A JP233598A JP3560216B2 JP 3560216 B2 JP3560216 B2 JP 3560216B2 JP 00233598 A JP00233598 A JP 00233598A JP 233598 A JP233598 A JP 233598A JP 3560216 B2 JP3560216 B2 JP 3560216B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- information
- robot
- point information
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Description
【発明の属する技術分野】
本発明は、作業支援装置に関し、特に、マニピュレータやセンサから構成される作業ロボットシステムを円滑にセットアップ、かつ運用するための生産支援技術に適用して有効な技術に関するものである。
【0002】
【従来の技術】
近年、種々のセンサ付きロボットが開発され、作業現場、生産現場に投入されつつある。しかし、ロボットシステムが作業現場で運転可能になるまでは多くの時間と手間がかかるのが現状である。新規の生産ラインの立ち上げでは、ロボットやセンサの設置が完了しても、その後の機能チェック、システムパラメータ調整、ロボットの初期教示とその修正等の種々の調整が必要である。その調整に数十日以上を要するのが実状である。このため現場には、作業の担当者のみならず、経験とスキルのあるシステム技術者を多くの場合長期間に渡って派遣する必要があり、コスト面からも大きな負担となっている。加えて面倒なロボット教示データ修正は、品種変更、設計変更及び工具交換などに応じて間断無く続くことから、この立ち上げ期間の短縮はユーザニーズに迅速に応えるための重要課題となっていた。
【0003】
従来もロボットコントローラやセンサなどのサブシステムについては、主としてその内蔵ソフトウェアのためのセルフ診断機能などが搭載されているが、センサ付きロボットのように外界と相互作用する機械システムではその立ち上げにおける問題点も多様であり、その解決には多くを現場作業者の努力に依存しているのが現状である。このため、従来の技術をもってしても、システム状態が良く見えない、問題箇所が不定である場合が多い、制御情報が不確実である。現場解決が困難な場合が多い、ロボット初期教示に時間がかかるなどの問題があった。
【0004】
【発明が解決しようとする課題】
以上の説明からわかるように、従来の被作業物体に対して作業を行うセンサ付きロボットシステムの作業支援装置では、1)システム状態が見えない、2)問題箇所が不定、3)制御情報が不確実、4)現場解決が困難、5)初期教示に時間がかかるなどの問題があった。本発明は、これらの問題点を解決するためになされたものである。
【0005】
本発明の目的は、フィールドで簡単にロボットシステムを良好な状態にセットアップして、高精度な教示を簡単に行えることが可能な技術を提供することにある。
【0006】
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
【0007】
【課題を解決するための手段】
本願において開示される発明のうち代表的なものの概要を簡単に説明すれば、以下のとおりである。
【0008】
(1)被作業物体に対して作業を行うセンサ付きロボットシステムの支援装置であって、ロボットの手先に取り付けられ、前記被作業物体の特徴点情報と作業点情報を検出するセンサと、前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報を含むシステム情報を取り込む情報獲得手段と、前記獲得した被作業物体の特徴点情報、作業点情報、及びロボット運動情報を含むシステム情報を加工して可視化する可視化処理手段と、システムへ試験動作を指示する試験動作指示手段と、試験動作によって前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報の相関を算出し、不具合に及ぼす因果関係を診断する解析診断手段と、診断結果を元に該センサと該ロボットとの間の幾何変換パラメータを決定する調整手段と、システムの教示を支援するための情報を作業者に提示する教示支援手段とを、具備することを特徴とする。
【0009】
(2)前記(1)の作業支援装置に、さらに前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報を指定した所定の作業座標で表示する表示手段とを具備することを特徴とする。
【0010】
(3)前記(1)又は(2)の作業支援装置において、前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報とを対応づけて取得することを特徴とする。
【0011】
(4)前記(1)乃至(3)のうちいずれか1つの作業支援装置において、前記試験動作指示手段がロボットの作業経路に直交する成分を含む試験動作を行うことを特徴とする。
【0012】
(5)前記(1)乃至(4)のうちいずれか1つの作業支援装置において、前記調整手段としてロボット作業点の誤差モデルを用いることを特徴とする。
【0013】
(6)前記(1)乃至(5)のうちいずれか1つの作業支援装置において、前記誤差モデルは、ロボット作業点の位置、速度、加速度、被作業物体の特徴点情報、及び作業点情報から得られる作業目標経路情報を含むことを特徴とする。
【0014】
(7)前記(1)乃至(6)のうちいずれか1つの作業支援装置において、前記前記誤差モデルは、幾何ずれ調整パラメータ、同期ずれパラメータ、及び信頼度パラメータを含むことを特徴とする。
【0015】
(8)前記(1)乃至(7)のうちいずれか1つの作業支援装置において、前記教示支援手段が、ロボットの幾何モデルを持ち、被作業物体の特徴点情報、作業点情報、ロボット運動情報、及び作業者の位置姿勢情報を用いて、所定の位置姿勢の幾何モデルと前記情報とを作業者に提示する手段を有することを特徴とする。
【0016】
すなわち、本発明は、被作業物体に対して作業を行うセンサ付きロボットシステムの作業支援装置であって、センサ情報とロボット運動情報を含むシステム情報を取り込む情報獲得手段、獲得した情報を加工して可視化する可視化処理手段、システムへ試験動作指示を与える動作指示手段、情報を解析して診断する解析診断手段、解析結果を元にシステムパラメータを決定する調整手段、システムの教示を支援するための情報を作業者に提示する教示支援手段を有することにより、運動計測状態の可視化、類型パタン試験による作業誤差モデルの同定を用いたシステム診断とパラメータ調整、拡大現実利用の教示支援、及びそれらの統合によって解決し、フィールドで簡単にロボットシステムを良好な状態にセットアップして、高精度な教示を簡単に行える環境を提供するので、ロボットシステムのスタートアップ期間を大幅に短縮することができる。
【0017】
前述のように、本発明は、従来の技術とは、運動計測状態の可視化、類型パタン試験による誤差モデルの同定とパラメータ調整、拡大現実利用の教示支援、通信ネットワークでの統合によって、ロボットシステムのスタートアップ期間を大幅に短縮することを可能とするという点が異なる。
【0018】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態(実施例)を詳細に説明する。
【0019】
図1は本発明の一実施例のセンサ付きロボットシステムの作業支援装置の概略構成を示すブロック構成図である。図1において、1はロボット、2はセンサ、3はセンサコントローラ、4はロボットコントローラ、5は教示ボックス、6は情報可視化モジュール、6Aは情報獲得手段、6Bは可視化処理手段、6Cは情報通信手段、7は記憶手段、8は不具合要因診断モジュール、8Aは試験動作指示手段、8Bは解析診断手段、8Cは調整手段、9は教示アドバイザモジュール、9Aは教示支援手段、10はジャイロ、11はステレオカメラ、12はテストピース(試験対象物)、100はパーソナルコンピュータである。
【0020】
本実施例の作業支援装置の主要部は、図1に示すように、情報可視化モジュール6、不具合要因診断モジュール8及び教示アドバイザモジュール9からなる。
【0021】
情報可視化モジュール6は、センサ情報とロボット運動情報を含むシステム情報を取り込む情報獲得手段6A、獲得した情報を加工して可視化する可視化処理手段6B、及び情報通信手段6Cからなる。この情報可視化モジュール6にはセンサ情報と運動情報とを指定した所定の作業座標で表示する表示手段6Dと獲得した情報を蓄積する記憶手段7が接続されている。
【0022】
不具合診断モジュール8は、システムへ試験動作指示を与える試験動作指示手段8A、情報を解析して診断する解析診断手段8B、解析結果を元にシステムパラメータを決定する調整手段8Cなどからなる。
【0023】
教示アドバイザモジュール9は、システムの教示を支援するための情報を作業者に提示する教示支援手段9Aからなる。
【0024】
これらのモジュールはパーソナルコンピュータ100に搭載される。この他、本実施例のセンサ付きロボットシステムには、ロボット1、センサ2、センサコントローラ3、ロボットコントローラ4、教示ボックス5、試験動作に用いるテストピース10、作業者の位置を検出するKRステレオカメラ11、作業者の姿勢を検出するジャイロ12、オペレータの頭部に装着されるヘッドマウントディスプレイHMDなどを備えている。
【0025】
一方、被支援装置はアーク溶接ロボットシステムであり、多関節マニピュレータおよびそのモーションコントローラ、マニピュレータに搭載された光切断型のレーザレンジセンサおよびセンサコントローラ、同じくマニピュレータに搭載された溶接トーチ、などから構成される。
【0026】
次に、本実施例の作業支援装置の各部の動作を詳細に説明する。はじめに情報可視化モジュール6について説明する。
【0027】
後述するロボットマニピュレータからの運動情報であるロボット1の手先の速度及び位置情報を得る。そして、前記ロボット1の手先に設けられているセンサ2を制御するセンサコントローラ3からは計測断面データ及びロボット1が追従すべきワーク上の溶接経路を表す特徴点座標が、情報獲得手段6Aに入力される。一定のサンプリング周期でこれらの情報は収集され、記憶手段7に蓄積される。
【0028】
前記可視化処理手段6Bにおいて、これらの情報からロボット手先の軌跡およびセンシングによって計測された経路が復元される。そして、これらの加工情報は、座標変換を施されて予め設定された作業座標で表現され、2次元の軌跡情報としてパーソナルコンピュータ100の表示手段(モニタ)6Dに表示される。
【0029】
前記不具合診断モジュール8について説明する。センサ2とロボット1という2つのサブシステムの結合で主に問題となるのは、センサ2の装着に伴う幾何ずれ、比較的周期の大きいセンサ情報の同期ずれ、さらにロボット1の運動加速度が過大な場合のセンシング精度の劣化がある。
【0030】
前記試験動作指示手段8Aは、これらの問題を解析するため、経路に沿ってロボットが走行する基本動作に加えて、経路にほぼ直交する正弦波上の摂動動作を重畳した混合動作を試験動作として生成し、それをロボットコントローラに指令する。ロボットは直線経路を持つテストピースを対象に計測を行うことにより、所定の情報を支援装置に送信する。
【0031】
解析診断手段8Bは、試験動作によって改めて取得されたセンサ情報及び運動情報の相関などを算出し、不具合に及ぼす因果関係を診断する。
【0032】
前記調整手段8Cは、取得情報を用いて、幾何ずれ、同期ずれそれぞれをパラメータとする作業誤差モデルを同定し、幾何ずれパラメータと同期ずれパラメータを求める。運動加速度が過大な場合には、誤差分散の逆数に基づく信頼度関数を算出する。前記不具合診断モジュール8については、後述詳細にする。
【0033】
最後に教示アドバイザモジュール9について説明する。教示支援手段9Aは、センサ情報とロボット運動上々、作業者の位置を検出するためのステレオカメラ11からの情報、作業者の姿勢を検出するジャイロ12からの情報、及びロボット手先とセンサ2のグラフィクスモデルを持ち、これらを用いて作業者に教示支援情報を与える。
【0034】
すなわち、作業者の目に映じる実際の環境とコンピュータの表示手段6Dの画面上のモデルとオーバレイする拡大現実の手法を用いてセンサ及びロボット情報を用いて作業者が現実に見ているロボットセンサアセンブリとほぼ同じ3次元モデルを提示する。このとき、モデルにはセンサ視野確保をするために、修正すべきロボット手先の方向が矢印で提示される。このときツールが適正な姿勢にあるかどうかも併せて提示される。作業者はこれにしたがってロボット姿勢を変更することができる。
【0035】
前記のように、個々モジュールが独自機能を持つものであるが、図1で示すステップの順序で、それぞれのモジュールが動作する。
【0036】
ステップ(Step)1は、試験動作の入力を行う。
ステップ2は、試験動作時のセンサ及び運動情報を獲得して可視化する。
ステップ3は、診断・解析を行う。
ステップ4は、各種パラメータの調整を行う。
ステップ5は、作業用の動作を行う。
ステップ6は、教示アドバイスを行う。
ステップ7は、教示修正を行う。
【0037】
本実施例の作業支援装置は、情報可視化手段を核として3つのモジュールが有機的に結合しており、それらをまとめて1つの装置とすることにより、フィールドスタートアップシステムとして完備となる。
【0038】
本実施例ではこのような構造になっていることから、結局以下のような効果が生じる。
【0039】
アーク溶接用ロボットにおいては、システムの試行動作によってセンサ及び運動情報を取得することにより、各サブシステムが正常に動作しているか否かを可視情報で確認できる。作業の結果として溶接ビードが蛇行した場合には、運動情報の可視化によって確かにロボット1が蛇行した結果か否かを直ちに確認できる。
【0040】
さらに、この要因がセンサ2にあるのか否かもセンサ情報の断面データあるいは特徴点データを注意深く観察することによって確認できる。これらは運動情報とセンサ情報とを対応づけて取得し、しかも目視での観察に合致するように任意の作業座標で情報を可視化できることによる。
【0041】
また、混合試験動作によって取得されたセンサ情報及び運動情報の相関データから、作業誤差がロボット速度に依存するものか否かを判定することができる。速度に依存しない場合には、改めてロボット姿勢を変更した試験動作により幾何ずれパラメータを求め、これをロボットコントローラ4のパラメータ修正に利用できる。速度依存性が大きい場合には、まず、低速度領域でのセンサ情報と運動情報との同期ずれパラメータを持つ誤差モデルを同定し、これにより同期ずれパラメータ(定数)をこれもロボットコントローラで修正する。速度が大で加速度も大きい場合には、作業誤差分散の逆数に基づく信頼度関数を算出し、それをロボットコントローラ4に登録する。これによって実際の作業時に大きな加速度が生じた場合には、信頼度を考慮してセンサ情報利用の可否を判断することができる。これによれば劣悪な動作条件で取得したセンサ情報の影響が緩和されるので、システムの作業誤差も減少する。
【0042】
さらに、拡大現実を用いることにより、オペレータが肉眼で観察可能な作業状態、システム状態に加え、肉眼では直接見ることのできないセンサやロボット情報を、都合のよい形に加工・増幅して理解することができる。これによって、システムの性能を十分に発揮させるための適切な教示が簡単に行える。このため従来のような動かしては試行作業させて再度教示を修正するといった、試行錯誤の回数を大幅に低減することが可能となる。
【0043】
次に、前記不具合診断手段の詳細について説明する。
【0044】
図2は前記不具合診断手段を説明するためのロボットアームの各関節の自由度及びセンサの取り付け位置を示す模式図、図3は図2のロボットアームを適用したロボットシステムの制御系構成図、図4は前記不具合診断手段におけるロボットの診断方法の手順を示すフローチャートである。
【0045】
図2及び図3において、Bは6自由度を有するロボットアーム、AはBの手先に取り付けるセンサ(例えばレーザレンジファインダを用いる)、20はロボットコントローラ、21〜26はそれぞれロボットアームBの関節、27はアクチュエータ、28はエンコーダ、29はサーボアンプ、30はアップダウンカウンタ、31はセンサ用コントローラ、32はロボットコントローラ用CPU、33はキネマティクス計算用CPU、34はコンピュータ、15は手先位置、手先姿勢、関節角度、特徴点センシングなどのデータファイルである。アクチュエータ7とエンコーダ8でマニピュレータを構成している。
【0046】
本実施例のロボットの不具合診断方法は、作業対象物の情報を取得する外界センサ及びロボットの位置姿勢情報を取得する内界センサを具備するロボットの診断方法であって、図4に示すように、前記ロボットの手先が直線対象物に沿った動作を基準動作とする手順(ステップ1)と、該基準動作に対して付加する位置変動及び姿勢変動を外乱動作とする手順(ステップ2)と、前記基準動作に該当外乱動作を付加した動作を混合試験動作とする手順(ステップ3)と、前記基準動作時と混合試験動作時に当該ロボット手先の位置姿勢情報及びセンサ情報とを取得する手順(ステップ4)と、この取得した情報群を用いて認識誤差のモデリングを行う手順(ステップ5)と、誤差の絶対値と比例関係の強い運動情報を求める相関分析を行う手順(ステップ6)と、図5のaに示す手順(ステップ7)と、図5のbに示す手順(ステップ8)と、図5のcに示す手順(ステップ9)とを有する。
【0047】
経路倣いロボットでは、ロボットが走行しつつほぼ一定の周期で対象をセンシングする。これにより追従すべき経路である作業点の時刻tにおける特徴点座標ベクトルdc=(xc,yc,zc)tが基準座標系Σgにおいて逐次算出される。このとき対応する作業点座標ベクトルの真値を仮にdc0(∈R3 × 1)とし、運動情報と相関を有する認識誤差ベクトルをω(∈R3 × 1)、運動と無相関の計測ノイズベクトルをeとすると次式が成立する。
【0048】
【数1】
dc−dc0=ω+e
ここでeは微小であるものとすれば、作業点における有意な認識誤差はωであるとみなせる。
【0049】
倣いロボットの主な認識誤差要因としては、サブシステム間メカニカルリンクの幾何的キャリブレーション誤差、サブシステム間通信同期ずれ、ツール及びその結合部のダイナミクスの影響などがある。したがって、認識誤差モデリングにおいては、静的モデルと動的なモデルの両者を考慮する必要がある。そこで、認識誤差ωがロボットのグロスモーションに比して小さいと仮定し、認識誤差に関する因子のうち空間的パラメータをρ(∈R6 × 1)、同じく時間的パラメータをスカラτとし、それぞれの真値からのゆらぎをΔρ及びΔτとする。
【0050】
さらに、ロボットサブシステムは単体では調整済として、gTωで与えられるロボット運動情報、すなわち、手先の位置情報及びオイラー角で表した姿勢情報をそれぞれpω=(pω x,pω y,pω z)t及びφω=(φω x,φω y,φω z)tとおく。pω,φωについては、dcの算出周期に比して短い時間で得られるとする。そこでダイナミクスまで考慮し、h=dc−dc0を多次元ベクトル値関数Hを用いて次式のように表す。
【0051】
【数2】
【0052】
ここでは時間tに関する微分を、qは既知の空間パラメータ成分を表す。
【0053】
結局のところ認識誤差モデルの同定は、ロボット運動情報、特徴点座標ベクトルds、既知のパラメータq及び観測値hを用いて、非線形モデルHの未知パラメータρ及びτを同定する問題に帰着される。数2の式はシステムの静的及び動的モデルの複合誤差を表したもので、これは誤差要因を直接同定しようとする考えに基づく。
【0054】
前記不具合診断手段は、まず始めに静的モデリングを考えると、ダイナミクス及び時間パラメータτを無視できることから、前記数2の式は次の数3の式のようになる。
【0055】
【数3】
h=H(pω,φω,p,ds,q)+e
ロボットを準静止となるように低速で動作させることにより、数3の式の未知パラメータρを同定するためのデータを収集する。真値であるdc0を厳密には求めることはできないため、ここでは寸法既知の校正ツールをロボット手先に装着し、その先端を直接モデル経路上の異なる2点にあわせ、2点を結んだ直線を便宜的に真値とみなすこととした。
【0056】
ついで手先姿勢がほぼランダムに変化しながら経路に沿って走行するようUdをpd(ti)=(0,0,0)t及びφd(t)=(αd(ti),βd(ti),γd(ti))tと設定した。(図4のステップ2)
図6にUTを入力したときのロボットの動きを模式的に示す。図中の矢印はツールの設定位置姿勢を表している。図7にテストピースのモデル経路の真値及びUτ入力時における特徴点座標値dc(ti)を示す。横軸は基準座標系のx座標値を、横軸はy座標値を表す。
【0057】
ロボット手先までの幾何パラメータはロボットサブシステムとして予めキャリブレーション済であることからpω,φωは実用上十分な精度で計測される。しかし、センサについては取り付け角変更がしばしばあり、手先からセンサ座標原点までのメカニカルな誤差発生は不可避である。そこで、pを含む形で改めてロボット座標−センサ座標間の幾何変換パラメータをq(∈R6 × 1)(=(px,py,pz,α,β,γ)t)とおいて、これを同定することとすれば、従来のキネマティクスパラメータの同定として同様に扱うことができる。このとき数3の式は次のようになる。
【0058】
【数4】
h=H(pω,φω,ds,q)+e
未知パラメータqはGauss−Newton法を用いた30回の繰り返し演算により次のように求めた。(図5のaのステップ1)
【0059】
【数5】
qi+1=qi+Δqi
ここで
iは0,1,...,29である。
【0060】
【数6】
【0061】
【数7】
【0062】
m(=9)は特徴点数である。
【0063】
【数8】
【0064】
【数9】
【0065】
【数10】
A(∈R3 × 6)
はdcのqによるヤコビアンである。(図5のaのステップ2)
図8に求めたqを用いて改めて認識誤差を算出した結果を示す。横軸は特徴点番号N、縦軸は認識誤差のノルム|ω|である。|ω|の最大値は0.5mm以下となり補正前の約1/3に低減化される。作業現場でセンサの取り付け取り外しを度々行う場合でも、以上のような簡単な手順により誤差を抑圧できる。
【0066】
次に動的モデルに着目する。Udは、pd(ti)=(0.5sin(0.5ti),0)t(時間周波数0.5Hz,単位はmm/s),φd(ti)=(0,0,0)t(単位はラジアン)であり、UTは経路に沿ってツールが正弦波状に並進蛇行する。いわゆる溶接のウィービング動作であり、標準的なロボットコントローラで生成可能である。ただし、加速度は小さく、ツール姿勢変化も無視できる。さらに、静的誤差即ち空間パラメータの影響については既に除外されていることから前記数2の式は次式の数11のようになる。
【0067】
【数11】
h=H(pω,ds,τ)+e
数11の式はスカラτを未知パラメータとするモデルである。
【0068】
図10にUN及びUT入力時における特徴点列のdc0,dcを示す。ここに横軸はx座標値を、縦軸はy座標値を表す。Uτ入力時に外乱動作に対応する形で認識誤差が生じている。
【0069】
図11にUT入力時の認識誤差ωyとセンサ基準点の速度d(py)/dt(数式中は一点pyとする)との関係を示す。いま両者の相関係数τを数12の式で算出する。
【0070】
【数12】
【0071】
ここで ̄(上付けアンダライン)は平均を表す。この時τは0.90となり、ωyとd(py)/dtとはほぼ比例関係にある。そこで計測データに最小二乗法を適用することにより、次の数13の式の関係を得る(図5のbのステップ1)。
【0072】
【数13】
【0073】
一方、対象システムにおいては関節角度データθとセンサデータdsとの計測サンプリング周期が異なる。さらに、それらのサンプリング周期は必ずしも一定ではなく、例えば、ロボットコントローラが補軸を持つような場合、あるいはセンサのインタフェースを変更せざるを得ない場合など、システム形態と作業条件によっては変動は不可避となる。そこで、両者の獲得タイミングの平均的なずれを改めて同期ずれτとする。いまツールのy軸方向への正弦波状動作を考えると、同期ずれτによって生じる認識誤差ωy(平均値)は以下のように与えられる。
【0074】
【数14】
【0075】
ここで、τが微小であるとして加法定理を用いれば次式が成立する。
【0076】
【数15】
【0077】
前記数13及び数15の式からこの場合の同期ずれはτは0.089に等しいかもしくはそれに近い値であると言える。したがって、前記数11の式は結局τの線形モデルということになる。(図5のbのステップ2)
このような考えに基づいて同期ずれを補正し同条件で実験した結果を図12に示す。具体的には図9において、θ(t)←θ(t−τ)としてgTωを計算した。補正の結果、認識誤差ωyの最大値は0.5mm以下(補正前の約1/3)に低減される。
【0078】
そこで空間パラメータ及び同期ずれの補正の後、より苛酷な外乱動作Udを周波数4Hzの三角波pyとして与え、振幅を0.5mmから5mmまで0.5mm刻みとして実験を行った。図13にこの時のツール動作の概略を示す。ここでのUdは同期ずれ補正に用いたUdに比べて最大速度で8倍、最大加速度で64倍という高速高加速度となる。
【0079】
図14にこの時の特徴点列とモデル経路を示す。図15は認識誤差絶対値|ωy|と速度絶対値|d(py)/dt|との関係を示す図であり、相関係数は0.52となる。図16は同じく認識誤差絶対値|ωy|と加速度絶対値|d2(py)/dt2|(数式中は二点pyとする)との関係を示す図であり、この時の相関係数は0.67である。以上の結果から|ωy|は|d(py)/dt|よりも|d2(py)/dt2|との相関が強く、その最大値は|d2(py)/dt2|に伴って増加する傾向にあるなど、|d2(py)/dt2|の影響を強く受けていると考えられる。(図5のcのステップ1)
このようなケースに対して、信頼度を導入する。ここでは|d2(py)/dt2|の区間幅50mm/s2とこの|ωy|について分散を求め、その逆数を関数フィッテングしたものを関数fyとする。fyは次式の数16で表される。(図5のcのステップ2)
【0080】
【数16】
【0081】
(図5のcのステップ4)
さらにfyを正規化することにより信頼度関数vyを求める。vyは次の数式で与えられる。
【0082】
【数17】
【0083】
図17に|ωy|の分散の逆数と|d2(py)/dt2|との関係及びフィッティング関数fyを示す。(図5のcのステップ3)
信頼度は例えば以下のように利用する。対象とする経路倣いロボットシステムは、一定数の特徴点が算出されるごとに逐次的にロボットの経路生成を行う。ここでは、センシングによる特徴点座標ベクトル群dc1,dc2,...,dcNを用いてツールの位置・姿勢のそれぞれを示す経路関数Γを逐次的に生成する。対象となるテストピースがほぼxy平面に設置されていることから、経路関数はxの3次スプライン関数y=Γ(x)で表現するものとする。具体的には第(i−1)番目の経路関数Γi−1が既に確定し、センサから新たに特徴点座標値Dciが得られたとする。このとき第i区番目の経路関数y=Γi(x)は、次の2条件を満足するように定めらる。
【0084】
(1)区間接続条件は次の数18の式を満足することである。
【0085】
【数18】
【0086】
【数19】
【0087】
(2)誤差最小条件は次の数20の式を満足することである。
【0088】
【数20】
【0089】
ここで
Dciは特徴点のi番目の座標値、
vyiはDciの|d2(py)/dt2|による信頼度、
Γi(x)は区間(xi,xi+1)における目標経路、
Nは逐次経路生成に用いる特徴点の数である。
【0090】
信頼度を導入しない場合にはvyj=1とする。条件(1)は区間関数同士の連続性を保証するため、また条件(2)は特徴点座標値の確からしさを経路関数の精度の向上に反映させ、ノイズの影響を抑圧するためのものであり、このための重みとして信頼度が利用される。
【0091】
図18に信頼度導入の有無それぞれについてN=4としたときの経路生成例を示す。信頼度の導入により、直線のモデル経路に対して誤差が1/2程度に低減される。
【0092】
図19は、生成経路上の各区間の始点とモデル経路との誤差絶対値の平均である。サンプル点数Nの増加に伴い推定誤差が減少していく最小二乗法の特性が明確に表れている。
【0093】
以上のように一連の運動情報マネージメントによれば、最終的には経路生成誤差を数百μmという、実用上無視できるオーダまでに抑圧できることが実証された。
【0094】
前述の実施例では、溶接用ロボットシステムの作業支援装置に本発明を適用した例で説明したが、本発明はこれに限定されるものではない。
【0095】
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【0096】
【発明の効果】
以上、説明したように、本発明によれば、ロボットシステムの作業に関わる内部状態がわかりやすい形で作業者に提示され、しかもそれが遠隔のエンジニアにも同様な情報が伝わることから、作業現場でも問題の指摘が容易に行える。
【0097】
また、簡単なテストピースと幾つかの基本的な試験動作によって、特別な計測機器を使用することなしにシステムの不具合箇所を突き止め、その問題を解決するパラメータを見つけることができる。
【0098】
また、情報の信頼性に関する指標を与えることができるため、不確実な情報の仕様を予め阻止することができる。
【0099】
また、センサ情報を活用してセンサ付きロボットが良好に動作する条件がわかりやすく提示されるため、現場の作業者が直感的にシステムの操作手順を理解し、精度のいい教示を行うことができることから、従来のように、システム状態が見えない、問題箇所が不定、制御情報が不確実、現場解決が困難、初期教示が面倒、という問題点が生ずることない。
【0100】
また、フィールドで簡単にロボットシステムを良好な状態にセットアップして、高精度な教示を簡単に行える環境を提供することにより、ロボットシステムのスタートアップ期間を大幅に短縮することが可能になるという効果が生じる。
【0101】
なお、本発明の効果は、溶接用ロボットシステムの支援装置に限定されるものではなく、センサを導入したロボットシステム、例えば組み立てロボットや建設ロボットなどにおいても同様に得ることができる。さらに、センサのない従来のロボットシステムについても、幾つかの部分で大きな効果を得ることができる。
【図面の簡単な説明】
【図1】本発明の一実施例のセンサ付きロボットシステムの作業支援装置の概略構成を示すブロック構成図である。
【図2】本実施例の不具合診断手段を説明するためのロボットのリンク構成図とセンサの取り付け位置を示す模式図である。
【図3】本実施例の実験環境のシステム構成図である。
【図4】本実施例のロボット診断方法を説明するためのフローチャートである。
【図5】本実施例のロボット診断方法の要部の手順を説明するためのフローチャートである。
【図6】UTを入力したときのロボットの動きを説明するための模式図である。
【図7】テストピースのモデル経路の真値及びUτ入力時における特徴点座標値dc(ti)を示す図である。
【図8】求めたqを用いて改めて認識誤差を算出した結果を示す図である。
【図9】設定したUτ入力時のツール動作の概略を示す模式図である。
【図10】UN及びUT入力時における特徴点列のdc0,dcを示す図である。
【図11】UT入力時の認識誤差ωyとセンサ基準点の速度d(py)/dtとの関係を示す図である。
【図12】同期ずれを補正し同条件で実験した結果を示す図である。
【図13】ツール動作の概略を示す模式図である。
【図14】特徴点列とモデル経路を示す図である。
【図15】認識誤差絶対値|ωy|と速度絶対値|d(py)/dt|との関係を示す図である。
【図16】認識誤差絶対値|ωy|と加速度絶対値|d2(py)/dt2|との関係を示す図である。
【図17】|ωy|の分散の逆数と|d2(py)/dt2|との関係及びフィッティング関数fyを示す図である。
【図18】信頼度導入の有無それぞれについてN=4としたときの経路生成例を示す図である。
【図19】生成経路上の各区間の始点とモデル経路との誤差絶対値の平均を示す図である。
【符号の説明】
1…ロボット、2…センサ、3…センサコントローラ、4…ロボットコントローラ、5…教示ボックス、6…情報可視化モジュール、6A…情報獲得手段、6B…可視化処理手段、6C…情報通信手段、7…記憶手段、8…不具合要因診断モジュール、8A…試験動作指示手段、8B…解析診断手段、8C…調整手段、9…教示アドバイザモジュール、9A…教示支援手段、10…ジャイロ、11…ステレオカメラ、12…テストピース(試験対象物)、100…パーソナルコンピュータ、A…センサ(レーザレンジファインダ)、B…ロボットアーム(マニピュレータ)、C…加工対象、D…センシング対象ライン、E…経路、20…ロボットコントローラ、21〜26…ロボットアーム(マニピュレータ)の関節、27…アクチュエータ、28…エンコーダ、29…サーボアンプ、30…アップダウンカウンタ、31…センサコトローラ、32…ロボットコントローラ用のCPU、33…キネマティクス計算用のCPU、34…コンピュータ、35…データファイル。
Claims (8)
- 被作業物体に対して作業を行うセンサ付きロボットシステムの支援装置であって、
ロボットの手先に取り付けられ、前記被作業物体の特徴点情報と作業点情報を検出するセンサと、
前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報を含むシステム情報を取り込む情報獲得手段と、
前記獲得した被作業物体の特徴点情報、作業点情報、及びロボット運動情報を含むシステム情報を加工して可視化する可視化処理手段と、
システムへ試験動作を指示する試験動作指示手段と、
試験動作によって前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報の相関を算出し、不具合に及ぼす因果関係を診断する解析診断手段と、
診断結果を元に該センサと該ロボットとの間の幾何変換パラメータを決定する調整手段と、
システムの教示を支援するための情報を作業者に提示する教示支援手段とを、具備することを特徴とする作業支援装置。 - 被作業物体に対して作業を行うセンサ付きロボットシステムの支援装置であって、
ロボットの手先に取り付けられ、前記被作業物体の特徴点情報と作業点情報を検出するセンサと、
前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報を含むシステム情報を取り込む情報獲得手段と、
前記獲得した被作業物体の特徴点情報、作業点情報、及びロボット運動情報を含むシステム情報を加工して可視化する可視化処理手段と、
システムへ試験動作を指示する試験動作指示手段と、
試験動作によって前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報を含むシステム情報を解析して診断する解析診断手段と、
診断結果を元に該センサと該ロボットとの間の幾何変換パラメータを決定する調整手段と、
システムの教示を支援するための情報を作業者に提示する教示支援手段と、
前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報を指定した所定の作業座標で表示する表示手段とを、
具備することを特徴とする作業支援装置。 - 前記被作業物体の特徴点情報、作業点情報、及びロボット運動情報とを対応づけて取得することを特徴とする請求項1又は2に記載の作業支援装置。
- 前記試験動作指示手段とロボットの作業経路に直交する成分を含む試験動作を行うことを特徴とする請求項1乃至3のうちいずれか1項に記載の作業支援装置。
- 前記調整手段としてロボット作業点の誤差モデルを用いることを特徴とする請求項1乃至4のうちいずれか1項に記載の作業支援装置。
- 前記誤差モデルは、ロボット作業点の位置、速度、加速度、被作業物体の特徴点情報、及び作業点情報から得られる作業目標経路情報を含むことを特徴とする請求項1乃至5のうちいずれか1項に記載の作業支援装置。
- 前記誤差モデルは、幾何ずれ調整パラメータ、同期ずれパラメータ及び信頼度パラメータを含むことを特徴とする請求項1乃至6のうちいずれか1項に記載の作業支援装置。
- 前記教示支援手段が、ロボットの幾何モデルを持ち、被作業物体の特徴点情報、作業点情報、ロボット運動情報、及び作業者の位置姿勢情報を用いて、所定の位置姿勢の幾何モデルと前記各情報とを作業者に提示する手段を有することを特徴とする請求項1乃至7のうちいずれか1項に記載の作業支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00233598A JP3560216B2 (ja) | 1998-01-08 | 1998-01-08 | 作業支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00233598A JP3560216B2 (ja) | 1998-01-08 | 1998-01-08 | 作業支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11202928A JPH11202928A (ja) | 1999-07-30 |
JP3560216B2 true JP3560216B2 (ja) | 2004-09-02 |
Family
ID=11526448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP00233598A Expired - Fee Related JP3560216B2 (ja) | 1998-01-08 | 1998-01-08 | 作業支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3560216B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180817A (ja) * | 2002-12-02 | 2004-07-02 | National Institute Of Advanced Industrial & Technology | 生体信号を利用した作業支援マニピュレータシステム |
KR20050009912A (ko) * | 2003-07-18 | 2005-01-26 | 삼성전자주식회사 | 성능측정 시스템 |
JP4027294B2 (ja) * | 2003-09-26 | 2007-12-26 | 株式会社国際電気通信基礎技術研究所 | 移動体検出装置、移動体検出方法及び移動体検出プログラム |
JP6836571B2 (ja) * | 2018-11-14 | 2021-03-03 | ファナック株式会社 | ロボット装置 |
KR102415427B1 (ko) * | 2020-11-03 | 2022-07-04 | 한국생산기술연구원 | 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법 |
CN113770577B (zh) * | 2021-09-18 | 2022-09-20 | 宁波博视达焊接机器人有限公司 | 工件装在机器人上的轨迹生成实现方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6227672A (ja) * | 1985-07-29 | 1987-02-05 | Ishikawajima Harima Heavy Ind Co Ltd | センサ−の自己診断装置 |
JP3104839B2 (ja) * | 1995-01-09 | 2000-10-30 | 日本電信電話株式会社 | ロボット診断方法 |
JP3409105B2 (ja) * | 1995-11-10 | 2003-05-26 | 日本電信電話株式会社 | 教示装置 |
JPH10115534A (ja) * | 1996-10-11 | 1998-05-06 | Yamatake Honeywell Co Ltd | センサ診断方法及び装置 |
-
1998
- 1998-01-08 JP JP00233598A patent/JP3560216B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11202928A (ja) | 1999-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110394780B (zh) | 机器人的仿真装置 | |
CN112672860B (zh) | 用于ar和数字孪生的机器人校准 | |
JP5378374B2 (ja) | リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム | |
Du et al. | Online serial manipulator calibration based on multisensory process via extended Kalman and particle filters | |
CN111267073B (zh) | 一种基于增强现实技术的工业机器人示教系统及方法 | |
US20140277737A1 (en) | Robot device and method for manufacturing processing object | |
US20060025890A1 (en) | Processing program generating device | |
JPWO2006022201A1 (ja) | ロボットの評価システム及び評価方法 | |
US20070287911A1 (en) | Method and device for navigating and positioning an object relative to a patient | |
EP2055446A1 (en) | A portable robot control apparatus and a method for controlling a movement of a robot | |
JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
CN103759635A (zh) | 一种精度与机器人无关的扫描测量机器人检测方法 | |
US10451485B2 (en) | Image display device | |
KR20080088165A (ko) | 로봇 캘리브레이션 방법 | |
JP2008100315A (ja) | 制御シミュレーションシステム | |
JPH06131420A (ja) | 建設支援装置及び方法 | |
US20160368142A1 (en) | Control device, robot system and method of generating control data | |
JP3560216B2 (ja) | 作業支援装置 | |
JP5316396B2 (ja) | ロボットのばね定数同定方法およびロボットのばね定数同定装置 | |
JPH07237158A (ja) | 位置・姿勢検出方法及びその装置並びにフレキシブル生産システム | |
JPH1011122A (ja) | 情報提示装置 | |
WO2022190545A1 (ja) | 安全検証装置、安全検証方法、およびプログラム | |
JP7366264B2 (ja) | ロボット教示方法及びロボット作業方法 | |
JP3007440B2 (ja) | ロボットのオフライン教示装置 | |
JP3671694B2 (ja) | ロボットのティーチング方法およびその装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040309 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040518 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20040520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040520 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |