JPH11202928A - 作業支援装置 - Google Patents
作業支援装置Info
- Publication number
- JPH11202928A JPH11202928A JP10002335A JP233598A JPH11202928A JP H11202928 A JPH11202928 A JP H11202928A JP 10002335 A JP10002335 A JP 10002335A JP 233598 A JP233598 A JP 233598A JP H11202928 A JPH11202928 A JP H11202928A
- Authority
- JP
- Japan
- Prior art keywords
- information
- robot
- sensor
- teaching
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
な状態にセットアップして、高精度な教示を簡単に行え
ることを可能する。 【解決手段】 被作業物体に対して作業を行うセンサ付
きロボットシステムの支援装置であって、センサ情報と
ロボット運動情報を含むシステム情報を取り込む情報獲
得手段、獲得した情報を加工して可視化する可視化処理
手段、システムへ試験動作指示を与える試験動作指示手
段、情報を解析して診断する解析診断手段、診断結果を
元にシステムパラメータを決定する調整手段、及びシス
テムの教示を支援するための情報を作業者に提示する教
示支援手段を有するものである。
Description
し、特に、マニピュレータやセンサから構成される作業
ロボットシステムを円滑にセットアップ、かつ運用する
ための生産支援技術に適用して有効な技術に関するもの
である。
され、作業現場、生産現場に投入されつつある。しか
し、ロボットシステムが作業現場で運転可能になるまで
は多くの時間と手間がかかるのが現状である。新規の生
産ラインの立ち上げでは、ロボットやセンサの設置が完
了しても、その後の機能チェック、システムパラメータ
調整、ロボットの初期教示とその修正等の種々の調整が
必要である。その調整に数十日以上を要するのが実状で
ある。このため現場には、作業の担当者のみならず、経
験とスキルのあるシステム技術者を多くの場合長期間に
渡って派遣する必要があり、コスト面からも大きな負担
となっている。加えて面倒なロボット教示データ修正
は、品種変更、設計変更及び工具交換などに応じて間断
無く続くことから、この立ち上げ期間の短縮はユーザニ
ーズに迅速に応えるための重要課題となっていた。
のサブシステムについては、主としてその内蔵ソフトウ
ェアのためのセルフ診断機能などが搭載されているが、
センサ付きロボットのように外界と相互作用する機械シ
ステムではその立ち上げにおける問題点も多様であり、
その解決には多くを現場作業者の努力に依存しているの
が現状である。このため、従来の技術をもってしても、
システム状態が良く見えない、問題箇所が不定である場
合が多い、制御情報が不確実である。現場解決が困難な
場合が多い、ロボット初期教示に時間がかかるなどの問
題があった。
ように、従来の被作業物体に対して作業を行うセンサ付
きロボットシステムの作業支援装置では、1)システム
状態が見えない、2)問題箇所が不定、3)制御情報が
不確実、4)現場解決が困難、5)初期教示に時間がか
かるなどの問題があった。本発明は、これらの問題点を
解決するためになされたものである。
ットシステムを良好な状態にセットアップして、高精度
な教示を簡単に行えることが可能な技術を提供すること
にある。
な特徴は、本明細書の記述及び添付図面によって明らか
にする。
発明のうち代表的なものの概要を簡単に説明すれば、以
下のとおりである。
サ付きロボットシステムの支援装置であって、センサ情
報とロボット運動情報を含むシステム情報を取り込む情
報獲得手段、獲得した情報を加工して可視化する可視化
処理手段、システムへ試験動作指示を与える試験動作指
示手段、情報を解析して診断する解析診断手段、診断結
果を元にシステムパラメータを決定する調整手段、及び
システムの教示を支援するための情報を作業者に提示す
る教示支援手段を有することを特徴とする。
に前記センサ情報と運動情報とを指定した所定の作業座
標で表示する表示手段を加えたことを特徴とする。
置において、前記センサ情報とロボット運動情報とを対
応づけて取得することを特徴とする。
か1つの作業支援装置において、前記試験動作指示手段
がロボットの作業経路にほぼ直交する成分を含む試験動
作を行うことを特徴とする。
か1つの作業支援装置において、前記調整手段としてロ
ボット作業点の誤差モデルを用いることを特徴とする。
か1つの作業支援装置において、前記誤差モデルは、ロ
ボット作業点の位置、速度、加速度、及びセンサ情報か
ら得られる作業目標経路情報を含むことを特徴とする。
か1つの作業支援装置において、前記前記誤差モデル
は、幾何ずれ調整パラメータ、同期ずれパラメータ、及
び信頼度パラメータを含むことを特徴とする。
か1つの作業支援装置において、前記教示支援手段が、
ロボットの幾何モデルを持ち、センサ情報、ロボット運
動情報及び作業者の位置姿勢情報を用いて、所定の位置
姿勢の幾何モデルと前記情報とを作業者に提示すること
を特徴とする。
作業を行うセンサ付きロボットシステムの作業支援装置
であって、センサ情報とロボット運動情報を含むシステ
ム情報を取り込む情報獲得手段、獲得した情報を加工し
て可視化する可視化処理手段、システムへ試験動作指示
を与える動作指示手段、情報を解析して診断する解析診
断手段、解析結果を元にシステムパラメータを決定する
調整手段、システムの教示を支援するための情報を作業
者に提示する教示支援手段を有することにより、運動計
測状態の可視化、類型パタン試験による作業誤差モデル
の同定を用いたシステム診断とパラメータ調整、拡大現
実利用の教示支援、及びそれらの統合によって解決し、
フィールドで簡単にロボットシステムを良好な状態にセ
ットアップして、高精度な教示を簡単に行える環境を提
供するので、ロボットシステムのスタートアップ期間を
大幅に短縮することができる。
は、運動計測状態の可視化、類型パタン試験による誤差
モデルの同定とパラメータ調整、拡大現実利用の教示支
援、通信ネットワークでの統合によって、ロボットシス
テムのスタートアップ期間を大幅に短縮することを可能
とするという点が異なる。
施形態(実施例)を詳細に説明する。
ットシステムの作業支援装置の概略構成を示すブロック
構成図である。図1において、1はロボット、2はセン
サ、3はセンサコントローラ、4はロボットコントロー
ラ、5は教示ボックス、6は情報可視化モジュール、6
Aは情報獲得手段、6Bは可視化処理手段、6Cは情報
通信手段、7は記憶手段、8は不具合要因診断モジュー
ル、8Aは試験動作指示手段、8Bは解析診断手段、8
Cは調整手段、9は教示アドバイザモジュール、9Aは
教示支援手段、10はジャイロ、11はステレオカメ
ラ、12はテストピース(試験対象物)、100はパー
ソナルコンピュータである。
に示すように、情報可視化モジュール6、不具合要因診
断モジュール8及び教示アドバイザモジュール9からな
る。
ロボット運動情報を含むシステム情報を取り込む情報獲
得手段6A、獲得した情報を加工して可視化する可視化
処理手段6B、及び情報通信手段6Cからなる。この情
報可視化モジュール6にはセンサ情報と運動情報とを指
定した所定の作業座標で表示する表示手段6Dと獲得し
た情報を蓄積する記憶手段7が接続されている。
験動作指示を与える試験動作指示手段8A、情報を解析
して診断する解析診断手段8B、解析結果を元にシステ
ムパラメータを決定する調整手段8Cなどからなる。
の教示を支援するための情報を作業者に提示する教示支
援手段9Aからなる。
ータ100に搭載される。この他、本実施例のセンサ付
きロボットシステムには、ロボット1、センサ2、セン
サコントローラ3、ロボットコントローラ4、教示ボッ
クス5、試験動作に用いるテストピース10、作業者の
位置を検出するKRステレオカメラ11、作業者の姿勢
を検出するジャイロ12、オペレータの頭部に装着され
るヘッドマウントディスプレイHMDなどを備えてい
る。
ステムであり、多関節マニピュレータおよびそのモーシ
ョンコントローラ、マニピュレータに搭載された光切断
型のレーザレンジセンサおよびセンサコントローラ、同
じくマニピュレータに搭載された溶接トーチ、などから
構成される。
作を詳細に説明する。はじめに情報可視化モジュール6
について説明する。
動情報であるロボット1の手先の速度及び位置情報を得
る。そして、前記ロボット1の手先に設けられているセ
ンサ2を制御するセンサコントローラ3からは計測断面
データ及びロボット1が追従すべきワーク上の溶接経路
を表す特徴点座標が、情報獲得手段6Aに入力される。
一定のサンプリング周期でこれらの情報は収集され、記
憶手段7に蓄積される。
の情報からロボット手先の軌跡およびセンシングによっ
て計測された経路が復元される。そして、これらの加工
情報は、座標変換を施されて予め設定された作業座標で
表現され、2次元の軌跡情報としてパーソナルコンピュ
ータ100の表示手段(モニタ)6Dに表示される。
する。センサ2とロボット1という2つのサブシステム
の結合で主に問題となるのは、センサ2の装着に伴う幾
何ずれ、比較的周期の大きいセンサ情報の同期ずれ、さ
らにロボット1の運動加速度が過大な場合のセンシング
精度の劣化がある。
題を解析するため、経路に沿ってロボットが走行する基
本動作に加えて、経路にほぼ直交する正弦波上の摂動動
作を重畳した混合動作を試験動作として生成し、それを
ロボットコントローラに指令する。ロボットは直線経路
を持つテストピースを対象に計測を行うことにより、所
定の情報を支援装置に送信する。
めて取得されたセンサ情報及び運動情報の相関などを算
出し、不具合に及ぼす因果関係を診断する。
幾何ずれ、同期ずれそれぞれをパラメータとする作業誤
差モデルを同定し、幾何ずれパラメータと同期ずれパラ
メータを求める。運動加速度が過大な場合には、誤差分
散の逆数に基づく信頼度関数を算出する。前記不具合診
断モジュール8については、後述詳細にする。
て説明する。教示支援手段9Aは、センサ情報とロボッ
ト運動上々、作業者の位置を検出するためのステレオカ
メラ11からの情報、作業者の姿勢を検出するジャイロ
12からの情報、及びロボット手先とセンサ2のグラフ
ィクスモデルを持ち、これらを用いて作業者に教示支援
情報を与える。
とコンピュータの表示手段6Dの画面上のモデルとオー
バレイする拡大現実の手法を用いてセンサ及びロボット
情報を用いて作業者が現実に見ているロボットセンサア
センブリとほぼ同じ3次元モデルを提示する。このと
き、モデルにはセンサ視野確保をするために、修正すべ
きロボット手先の方向が矢印で提示される。このときツ
ールが適正な姿勢にあるかどうかも併せて提示される。
作業者はこれにしたがってロボット姿勢を変更すること
ができる。
を持つものであるが、図1で示すステップの順序で、そ
れぞれのモジュールが動作する。
を行う。ステップ2は、試験動作時のセンサ及び運動情
報を獲得して可視化する。ステップ3は、診断・解析を
行う。ステップ4は、各種パラメータの調整を行う。ス
テップ5は、作業用の動作を行う。ステップ6は、教示
アドバイスを行う。ステップ7は、教示修正を行う。
段を核として3つのモジュールが有機的に結合してお
り、それらをまとめて1つの装置とすることにより、フ
ィールドスタートアップシステムとして完備となる。
ことから、結局以下のような効果が生じる。
ムの試行動作によってセンサ及び運動情報を取得するこ
とにより、各サブシステムが正常に動作しているか否か
を可視情報で確認できる。作業の結果として溶接ビード
が蛇行した場合には、運動情報の可視化によって確かに
ロボット1が蛇行した結果か否かを直ちに確認できる。
かもセンサ情報の断面データあるいは特徴点データを注
意深く観察することによって確認できる。これらは運動
情報とセンサ情報とを対応づけて取得し、しかも目視で
の観察に合致するように任意の作業座標で情報を可視化
できることによる。
ンサ情報及び運動情報の相関データから、作業誤差がロ
ボット速度に依存するものか否かを判定することができ
る。速度に依存しない場合には、改めてロボット姿勢を
変更した試験動作により幾何ずれパラメータを求め、こ
れをロボットコントローラ4のパラメータ修正に利用で
きる。速度依存性が大きい場合には、まず、低速度領域
でのセンサ情報と運動情報との同期ずれパラメータを持
つ誤差モデルを同定し、これにより同期ずれパラメータ
(定数)をこれもロボットコントローラで修正する。速
度が大で加速度も大きい場合には、作業誤差分散の逆数
に基づく信頼度関数を算出し、それをロボットコントロ
ーラ4に登録する。これによって実際の作業時に大きな
加速度が生じた場合には、信頼度を考慮してセンサ情報
利用の可否を判断することができる。これによれば劣悪
な動作条件で取得したセンサ情報の影響が緩和されるの
で、システムの作業誤差も減少する。
ペレータが肉眼で観察可能な作業状態、システム状態に
加え、肉眼では直接見ることのできないセンサやロボッ
ト情報を、都合のよい形に加工・増幅して理解すること
ができる。これによって、システムの性能を十分に発揮
させるための適切な教示が簡単に行える。このため従来
のような動かしては試行作業させて再度教示を修正する
といった、試行錯誤の回数を大幅に低減することが可能
となる。
説明する。
のロボットアームの各関節の自由度及びセンサの取り付
け位置を示す模式図、図3は図2のロボットアームを適
用したロボットシステムの制御系構成図、図4は前記不
具合診断手段におけるロボットの診断方法の手順を示す
フローチャートである。
するロボットアーム、AはBの手先に取り付けるセンサ
(例えばレーザレンジファインダを用いる)、20はロ
ボットコントローラ、21〜26はそれぞれロボットア
ームBの関節、27はアクチュエータ、28はエンコー
ダ、29はサーボアンプ、30はアップダウンカウン
タ、31はセンサ用コントローラ、32はロボットコン
トローラ用CPU、33はキネマティクス計算用CP
U、34はコンピュータ、15は手先位置、手先姿勢、
関節角度、特徴点センシングなどのデータファイルであ
る。アクチュエータ7とエンコーダ8でマニピュレータ
を構成している。
作業対象物の情報を取得する外界センサ及びロボットの
位置姿勢情報を取得する内界センサを具備するロボット
の診断方法であって、図4に示すように、前記ロボット
の手先が直線対象物に沿った動作を基準動作とする手順
(ステップ1)と、該基準動作に対して付加する位置変
動及び姿勢変動を外乱動作とする手順(ステップ2)
と、前記基準動作に該当外乱動作を付加した動作を混合
試験動作とする手順(ステップ3)と、前記基準動作時
と混合試験動作時に当該ロボット手先の位置姿勢情報及
びセンサ情報とを取得する手順(ステップ4)と、この
取得した情報群を用いて認識誤差のモデリングを行う手
順(ステップ5)と、誤差の絶対値と比例関係の強い運
動情報を求める相関分析を行う手順(ステップ6)と、
図5のaに示す手順(ステップ7)と、図5のbに示す
手順(ステップ8)と、図5のcに示す手順(ステップ
9)とを有する。
つつほぼ一定の周期で対象をセンシングする。これによ
り追従すべき経路である作業点の時刻tにおける特徴点
座標ベクトルdc=(xc,yc,zc)tが基準座標系Σg
において逐次算出される。このとき対応する作業点座標
ベクトルの真値を仮にdc0(∈R3×1)とし、運動情報
と相関を有する認識誤差ベクトルをω(∈R3×1)、運
動と無相関の計測ノイズベクトルをeとすると次式が成
立する。
意な認識誤差はωであるとみなせる。
は、サブシステム間メカニカルリンクの幾何的キャリブ
レーション誤差、サブシステム間通信同期ずれ、ツール
及びその結合部のダイナミクスの影響などがある。した
がって、認識誤差モデリングにおいては、静的モデルと
動的なモデルの両者を考慮する必要がある。そこで、認
識誤差ωがロボットのグロスモーションに比して小さい
と仮定し、認識誤差に関する因子のうち空間的パラメー
タをρ(∈R6×1)、同じく時間的パラメータをスカラ
τとし、それぞれの真値からのゆらぎをΔρ及びΔτと
する。
調整済として、gTωで与えられるロボット運動情報、
すなわち、手先の位置情報及びオイラー角で表した姿勢
情報をそれぞれpω=(pωx,pωy,pωz)t及びφ
ω=(φωx,φωy,φωz)tとおく。pω,φωにつ
いては、dcの算出周期に比して短い時間で得られると
する。そこでダイナミクスまで考慮し、h=dc−dc0
を多次元ベクトル値関数Hを用いて次式のように表す。
の空間パラメータ成分を表す。
ボット運動情報、特徴点座標ベクトルds、既知のパラ
メータq及び観測値hを用いて、非線形モデルHの未知
パラメータρ及びτを同定する問題に帰着される。数2
の式はシステムの静的及び動的モデルの複合誤差を表し
たもので、これは誤差要因を直接同定しようとする考え
に基づく。
デリングを考えると、ダイナミクス及び時間パラメータ
τを無視できることから、前記数2の式は次の数3の式
のようになる。
より、数3の式の未知パラメータρを同定するためのデ
ータを収集する。真値であるdc0を厳密には求めること
はできないため、ここでは寸法既知の校正ツールをロボ
ット手先に装着し、その先端を直接モデル経路上の異な
る2点にあわせ、2点を結んだ直線を便宜的に真値とみ
なすこととした。
がら経路に沿って走行するようUdをpd(ti)=
(0,0,0)t及びφd(t)=(αd(ti),β
d(ti),γd(ti))tと設定した。(図4のステッ
プ2)図6にUTを入力したときのロボットの動きを模
式的に示す。図中の矢印はツールの設定位置姿勢を表し
ている。図7にテストピースのモデル経路の真値及びU
τ入力時における特徴点座標値dc(ti)を示す。横軸
は基準座標系のx座標値を、横軸はy座標値を表す。
ットサブシステムとして予めキャリブレーション済であ
ることからpω,φωは実用上十分な精度で計測され
る。しかし、センサについては取り付け角変更がしばし
ばあり、手先からセンサ座標原点までのメカニカルな誤
差発生は不可避である。そこで、pを含む形で改めてロ
ボット座標−センサ座標間の幾何変換パラメータをq
(∈R6×1)(=(px,py,pz,α,β,γ)t)と
おいて、これを同定することとすれば、従来のキネマテ
ィクスパラメータの同定として同様に扱うことができ
る。このとき数3の式は次のようになる。
繰り返し演算により次のように求めた。(図5のaのス
テップ1)
ップ2) 図8に求めたqを用いて改めて認識誤差を算出した結果
を示す。横軸は特徴点番号N、縦軸は認識誤差のノルム
|ω|である。|ω|の最大値は0.5mm以下となり
補正前の約1/3に低減化される。作業現場でセンサの
取り付け取り外しを度々行う場合でも、以上のような簡
単な手順により誤差を抑圧できる。
d(ti)=(0.5sin(0.5ti),0)t(時間周
波数0.5Hz,単位はmm/s),φd(ti)=
(0,0,0)t(単位はラジアン)であり、UTは経路
に沿ってツールが正弦波状に並進蛇行する。いわゆる溶
接のウィービング動作であり、標準的なロボットコント
ローラで生成可能である。ただし、加速度は小さく、ツ
ール姿勢変化も無視できる。さらに、静的誤差即ち空間
パラメータの影響については既に除外されていることか
ら前記数2の式は次式の数11のようになる。
ある。
列のdc0,dcを示す。ここに横軸はx座標値を、縦軸
はy座標値を表す。Uτ入力時に外乱動作に対応する形
で認識誤差が生じている。
基準点の速度d(py)/dt(数式中は一点pyとす
る)との関係を示す。いま両者の相関係数τを数12の
式で算出する。
表す。この時τは0.90となり、ωyとd(py)/d
tとはほぼ比例関係にある。そこで計測データに最小二
乗法を適用することにより、次の数13の式の関係を得
る(図5のbのステップ1)。
ータθとセンサデータdsとの計測サンプリング周期が
異なる。さらに、それらのサンプリング周期は必ずしも
一定ではなく、例えば、ロボットコントローラが補軸を
持つような場合、あるいはセンサのインタフェースを変
更せざるを得ない場合など、システム形態と作業条件に
よっては変動は不可避となる。そこで、両者の獲得タイ
ミングの平均的なずれを改めて同期ずれτとする。いま
ツールのy軸方向への正弦波状動作を考えると、同期ず
れτによって生じる認識誤差ωy(平均値)は以下のよ
うに与えられる。
用いれば次式が成立する。
同期ずれはτは0.089に等しいかもしくはそれに近
い値であると言える。したがって、前記数11の式は結
局τの線形モデルということになる。(図5のbのステ
ップ2) このような考えに基づいて同期ずれを補正し同条件で実
験した結果を図12に示す。具体的には図9において、
θ(t)←θ(t−τ)としてgTωを計算した。補正
の結果、認識誤差ωyの最大値は0.5mm以下(補正前
の約1/3)に低減される。
の後、より苛酷な外乱動作Udを周波数4Hzの三角波
pyとして与え、振幅を0.5mmから5mmまで0.5
mm刻みとして実験を行った。図13にこの時のツール
動作の概略を示す。ここでのUdは同期ずれ補正に用い
たUdに比べて最大速度で8倍、最大加速度で64倍と
いう高速高加速度となる。
示す。図15は認識誤差絶対値|ωy|と速度絶対値|
d(py)/dt|との関係を示す図であり、相関係数
は0.52となる。図16は同じく認識誤差絶対値|ωy
|と加速度絶対値|d2(py)/dt2|(数式中は二
点pyとする)との関係を示す図であり、この時の相関
係数は0.67である。以上の結果から|ωy|は|d
(py)/dt|よりも|d2(py)/dt2|との相関
が強く、その最大値は|d2(py)/dt2|に伴って
増加する傾向にあるなど、|d2(py)/dt2|の影
響を強く受けていると考えられる。(図5のcのステッ
プ1) このようなケースに対して、信頼度を導入する。ここで
は|d2(py)/dt2|の区間幅50mm/s2とこの
|ωy|について分散を求め、その逆数を関数フィッテ
ングしたものを関数fyとする。fyは次式の数16で表
される。(図5のcのステップ2)
る。vyは次の数式で与えられる。
y)/dt2|との関係及びフィッティング関数fyを示
す。(図5のcのステップ3) 信頼度は例えば以下のように利用する。対象とする経路
倣いロボットシステムは、一定数の特徴点が算出される
ごとに逐次的にロボットの経路生成を行う。ここでは、
センシングによる特徴点座標ベクトル群dc1,
dc2,...,dcNを用いてツールの位置・姿勢のそれ
ぞれを示す経路関数Γを逐次的に生成する。対象となる
テストピースがほぼxy平面に設置されていることか
ら、経路関数はxの3次スプライン関数y=Γ(x)で
表現するものとする。具体的には第(i−1)番目の経
路関数Γi-1が既に確定し、センサから新たに特徴点座
標値Dciが得られたとする。このとき第i区番目の経路
関数y=Γi(x)は、次の2条件を満足するように定
めらる。
足することである。
足することである。
yiはDciの|d2(py)/dt2|による信頼度、Γ
i(x)は区間(xi,xi+1)における目標経路、Nは
逐次経路生成に用いる特徴点の数である。
る。条件(1)は区間関数同士の連続性を保証するた
め、また条件(2)は特徴点座標値の確からしさを経路
関数の精度の向上に反映させ、ノイズの影響を抑圧する
ためのものであり、このための重みとして信頼度が利用
される。
てN=4としたときの経路生成例を示す。信頼度の導入
により、直線のモデル経路に対して誤差が1/2程度に
低減される。
デル経路との誤差絶対値の平均である。サンプル点数N
の増加に伴い推定誤差が減少していく最小二乗法の特性
が明確に表れている。
トによれば、最終的には経路生成誤差を数百μmとい
う、実用上無視できるオーダまでに抑圧できることが実
証された。
ムの作業支援装置に本発明を適用した例で説明したが、
本発明はこれに限定されるものではない。
前記実施例に基づき具体的に説明したが、本発明は、前
記実施例に限定されるものではなく、その要旨を逸脱し
ない範囲において種々変更可能であることは勿論であ
る。
ば、ロボットシステムの作業に関わる内部状態がわかり
やすい形で作業者に提示され、しかもそれが遠隔のエン
ジニアにも同様な情報が伝わることから、作業現場でも
問題の指摘が容易に行える。
的な試験動作によって、特別な計測機器を使用すること
なしにシステムの不具合箇所を突き止め、その問題を解
決するパラメータを見つけることができる。
ことができるため、不確実な情報の仕様を予め阻止する
ことができる。
ボットが良好に動作する条件がわかりやすく提示される
ため、現場の作業者が直感的にシステムの操作手順を理
解し、精度のいい教示を行うことができることから、従
来のように、システム状態が見えない、問題箇所が不
定、制御情報が不確実、現場解決が困難、初期教示が面
倒、という問題点が生ずることない。
ムを良好な状態にセットアップして、高精度な教示を簡
単に行える環境を提供することにより、ロボットシステ
ムのスタートアップ期間を大幅に短縮することが可能に
なるという効果が生じる。
ステムの支援装置に限定されるものではなく、センサを
導入したロボットシステム、例えば組み立てロボットや
建設ロボットなどにおいても同様に得ることができる。
さらに、センサのない従来のロボットシステムについて
も、幾つかの部分で大きな効果を得ることができる。
ムの作業支援装置の概略構成を示すブロック構成図であ
る。
ボットのリンク構成図とセンサの取り付け位置を示す模
式図である。
フローチャートである。
明するためのフローチャートである。
るための模式図である。
時における特徴点座標値dc(ti)を示す図である。
果を示す図である。
模式図である。
dcを示す図である。
度d(py)/dtとの関係を示す図である。
す図である。
(py)/dt|との関係を示す図である。
(py)/dt2|との関係を示す図である。
|との関係及びフィッティング関数fyを示す図であ
る。
したときの経路生成例を示す図である。
誤差絶対値の平均を示す図である。
4…ロボットコントローラ、5…教示ボックス、6…情
報可視化モジュール、6A…情報獲得手段、6B…可視
化処理手段、6C…情報通信手段、7…記憶手段、8…
不具合要因診断モジュール、8A…試験動作指示手段、
8B…解析診断手段、8C…調整手段、9…教示アドバ
イザモジュール、9A…教示支援手段、10…ジャイ
ロ、11…ステレオカメラ、12…テストピース(試験
対象物)、100…パーソナルコンピュータ、A…セン
サ(レーザレンジファインダ)、B…ロボットアーム
(マニピュレータ)、C…加工対象、D…センシング対
象ライン、E…経路、20…ロボットコントローラ、2
1〜26…ロボットアーム(マニピュレータ)の関節、
27…アクチュエータ、28…エンコーダ、29…サー
ボアンプ、30…アップダウンカウンタ、31…センサ
コトローラ、32…ロボットコントローラ用のCPU、
33…キネマティクス計算用のCPU、34…コンピュ
ータ、35…データファイル。
Claims (8)
- 【請求項1】 被作業物体に対して作業を行うセンサ付
きロボットシステムの支援装置であって、センサ情報と
ロボット運動情報を含むシステム情報を取り込む情報獲
得手段、獲得した情報を加工して可視化する可視化処理
手段、システムへ試験動作指示を与える試験動作指示手
段、情報を解析して診断する解析診断手段、診断結果を
元にシステムパラメータを決定する調整手段、及びシス
テムの教示を支援するための情報を作業者に提示する教
示支援手段を有することを特徴とする作業支援装置。 - 【請求項2】 被作業物体に対して作業を行うセンサ付
きロボットシステムの支援装置であって、センサ情報と
ロボット運動情報を含むシステム情報を取り込む情報獲
得手段、獲得した情報を加工して可視化する可視化処理
手段、システムへ試験動作指示を与える試験動作指示手
段、情報を解析して診断する解析診断手段、診断結果を
元にシステムパラメータを決定する調整手段、システム
の教示を支援するための情報を作業者に提示する教示支
援手段を前記教示支援手段、及び前記センサ情報と運動
情報とを指定した所定の作業座標で表示する表示手段を
有することを特徴とする作業支援装置。 - 【請求項3】 前記センサ情報とロボット運動情報とを
対応づけて取得することを特徴とする請求項1又は2に
記載の作業支援装置。 - 【請求項4】 前記試験動作指示手段がロボットの作業
経路にほぼ直交する成分を含む試験動作を行うことを特
徴とする請求項1乃至3のうちいずれか1項に記載の作
業支援装置。 - 【請求項5】 前記調整手段としてロボット作業点の誤
差モデルを用いることを特徴とする請求項1乃至4のう
ちいずれか1項に記載の作業支援装置。 - 【請求項6】 前記誤差モデルは、ロボット作業点の位
置、速度、加速度、及びセンサ情報から得られる作業目
標経路情報を含むことを特徴とする請求項1乃至5のう
ちいずれか1項に記載の作業支援装置。 - 【請求項7】 前記誤差モデルは、幾何ずれ調整パラメ
ータ、同期ずれパラメータ、及び信頼度パラメータを含
むことを特徴とする請求項1乃至6のうちいずれか1項
に記載の作業支援装置。 - 【請求項8】 前記教示支援手段が、ロボットの幾何モ
デルを持ち、センサ情報、ロボット運動情報及び作業者
の位置姿勢情報を用いて、所定の位置姿勢の幾何モデル
と前記情報とを作業者に提示する手段を有することを特
徴とする請求項1乃至7のうちいずれか1項に記載の作
業支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00233598A JP3560216B2 (ja) | 1998-01-08 | 1998-01-08 | 作業支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00233598A JP3560216B2 (ja) | 1998-01-08 | 1998-01-08 | 作業支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11202928A true JPH11202928A (ja) | 1999-07-30 |
JP3560216B2 JP3560216B2 (ja) | 2004-09-02 |
Family
ID=11526448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP00233598A Expired - Fee Related JP3560216B2 (ja) | 1998-01-08 | 1998-01-08 | 作業支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3560216B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180817A (ja) * | 2002-12-02 | 2004-07-02 | National Institute Of Advanced Industrial & Technology | 生体信号を利用した作業支援マニピュレータシステム |
JP2005038391A (ja) * | 2003-07-18 | 2005-02-10 | Samsung Electronics Co Ltd | 性能測定システム(systemformeasuringperformance) |
JP2005098927A (ja) * | 2003-09-26 | 2005-04-14 | Advanced Telecommunication Research Institute International | 移動体検出装置、移動体検出方法及び移動体検出プログラム |
CN111185901A (zh) * | 2018-11-14 | 2020-05-22 | 发那科株式会社 | 机器人装置 |
CN113770577A (zh) * | 2021-09-18 | 2021-12-10 | 宁波博视达焊接机器人有限公司 | 工件装在机器人上的轨迹生成实现方法 |
KR20220060064A (ko) * | 2020-11-03 | 2022-05-11 | 한국생산기술연구원 | 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6227672A (ja) * | 1985-07-29 | 1987-02-05 | Ishikawajima Harima Heavy Ind Co Ltd | センサ−の自己診断装置 |
JPH08190412A (ja) * | 1995-01-09 | 1996-07-23 | Nippon Telegr & Teleph Corp <Ntt> | ロボット診断方法 |
JPH09131681A (ja) * | 1995-11-10 | 1997-05-20 | Nippon Telegr & Teleph Corp <Ntt> | 教示装置 |
JPH10115534A (ja) * | 1996-10-11 | 1998-05-06 | Yamatake Honeywell Co Ltd | センサ診断方法及び装置 |
-
1998
- 1998-01-08 JP JP00233598A patent/JP3560216B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6227672A (ja) * | 1985-07-29 | 1987-02-05 | Ishikawajima Harima Heavy Ind Co Ltd | センサ−の自己診断装置 |
JPH08190412A (ja) * | 1995-01-09 | 1996-07-23 | Nippon Telegr & Teleph Corp <Ntt> | ロボット診断方法 |
JPH09131681A (ja) * | 1995-11-10 | 1997-05-20 | Nippon Telegr & Teleph Corp <Ntt> | 教示装置 |
JPH10115534A (ja) * | 1996-10-11 | 1998-05-06 | Yamatake Honeywell Co Ltd | センサ診断方法及び装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180817A (ja) * | 2002-12-02 | 2004-07-02 | National Institute Of Advanced Industrial & Technology | 生体信号を利用した作業支援マニピュレータシステム |
JP2005038391A (ja) * | 2003-07-18 | 2005-02-10 | Samsung Electronics Co Ltd | 性能測定システム(systemformeasuringperformance) |
JP2005098927A (ja) * | 2003-09-26 | 2005-04-14 | Advanced Telecommunication Research Institute International | 移動体検出装置、移動体検出方法及び移動体検出プログラム |
CN111185901A (zh) * | 2018-11-14 | 2020-05-22 | 发那科株式会社 | 机器人装置 |
JP2020078859A (ja) * | 2018-11-14 | 2020-05-28 | ファナック株式会社 | ロボット装置 |
US11254006B2 (en) | 2018-11-14 | 2022-02-22 | Fanuc Corporation | Robot device |
KR20220060064A (ko) * | 2020-11-03 | 2022-05-11 | 한국생산기술연구원 | 햅틱 기술을 이용한 로봇의 후가공 시스템 및 이의 제어방법 |
CN113770577A (zh) * | 2021-09-18 | 2021-12-10 | 宁波博视达焊接机器人有限公司 | 工件装在机器人上的轨迹生成实现方法 |
CN113770577B (zh) * | 2021-09-18 | 2022-09-20 | 宁波博视达焊接机器人有限公司 | 工件装在机器人上的轨迹生成实现方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3560216B2 (ja) | 2004-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112672860B (zh) | 用于ar和数字孪生的机器人校准 | |
CN101493682B (zh) | 加工用机器人程序的制作装置 | |
EP3875230A1 (en) | External input device, robot system, control method for robot system, control program, and recording medium | |
US4956790A (en) | Instruction system of remote-control robot | |
JPWO2006022201A1 (ja) | ロボットの評価システム及び評価方法 | |
US20140277737A1 (en) | Robot device and method for manufacturing processing object | |
EP2055446A1 (en) | A portable robot control apparatus and a method for controlling a movement of a robot | |
US20060025890A1 (en) | Processing program generating device | |
CN111267073B (zh) | 一种基于增强现实技术的工业机器人示教系统及方法 | |
US10451485B2 (en) | Image display device | |
CN105319991A (zh) | 一种基于Kinect视觉信息的机器人环境识别与作业控制方法 | |
US20160368142A1 (en) | Control device, robot system and method of generating control data | |
JPH0825254A (ja) | マスタスレーブ型ロボットアーム装置およびアーム位置決め誘導方法 | |
JP3560216B2 (ja) | 作業支援装置 | |
JPH07237158A (ja) | 位置・姿勢検出方法及びその装置並びにフレキシブル生産システム | |
JPH01209505A (ja) | 遠隔操作ロボットの教示装置 | |
Redžepagić et al. | A sense of quality for augmented reality assisted process guidance | |
US20230249341A1 (en) | Robot teaching method and robot working method | |
JPH11338532A (ja) | 教示装置 | |
WO2022190545A1 (ja) | 安全検証装置、安全検証方法、およびプログラム | |
JP3007440B2 (ja) | ロボットのオフライン教示装置 | |
JP3671694B2 (ja) | ロボットのティーチング方法およびその装置 | |
JPH06114766A (ja) | マニピュレータの遠隔制御装置 | |
US20230278211A1 (en) | Robot Teaching Device and Work Teaching Method | |
JPH012104A (ja) | ロボットの位置決め誤差補正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040309 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040518 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20040520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040520 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |