JP4568978B2 - マニピュレータ装置 - Google Patents

マニピュレータ装置 Download PDF

Info

Publication number
JP4568978B2
JP4568978B2 JP2000278776A JP2000278776A JP4568978B2 JP 4568978 B2 JP4568978 B2 JP 4568978B2 JP 2000278776 A JP2000278776 A JP 2000278776A JP 2000278776 A JP2000278776 A JP 2000278776A JP 4568978 B2 JP4568978 B2 JP 4568978B2
Authority
JP
Japan
Prior art keywords
visual sensor
guidance
coordinate system
manipulator
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000278776A
Other languages
English (en)
Other versions
JP2002086376A (ja
Inventor
俊充 入江
純 後藤
佳市 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2000278776A priority Critical patent/JP4568978B2/ja
Publication of JP2002086376A publication Critical patent/JP2002086376A/ja
Application granted granted Critical
Publication of JP4568978B2 publication Critical patent/JP4568978B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、マニピュレータ手先に搭載された視覚センサを対象物に誘導するマニピュレータ装置に関する。
【0002】
【従来の技術】
ハンドアイシステムと呼ばれる、視覚センサを搭載したマニピュレータを用いて視覚センサを対象物に誘導し、対象物を検出する方法がある。この際、対象物が視覚センサの視野に入るよう、あるいは、対象物が視覚センサ視野の中央に位置するよう、視覚センサを誘導する必要がある。
まず、第1の従来の技術を、特開平5−80842号の「移動ロボットの制御方法」を例に説明する。ワーク近くに2次元状のマークを配置し、マニピュレータには画像入力手段が取り付けられている。画像入力手段は、視覚情報を取得する機能を持つため、視覚センサに相当する。図3に第1の従来の技術に係る視覚センサの誘導方法ブロック図を示す。ティーチング時には、画像入力手段の視野内にマークが入るよう、マニピュレータを操作し、画像入力手段によって、予め、マーク画像(ティーチングマーク画像301)を取得する。プレイバック時にも、画像入力手段によってマーク画像302を取得する。
第1の従来の技術の誘導位置・誘導姿勢算出手段305は、比較照合手段303と座標変換手段304とから構成される。比較照合手段303では、ティーチングマーク画像301とマーク画像302とを入力し、これらを比較照合する。これは、ティーチングマーク画像301とマーク画像302とのマーク位置にずれがあるためである。比較照合手段303の比較照合の結果、ティーチングマーク画像301とマーク画像302とのマーク位置の差が求められる。座標変換手段304はこのマーク位置の差を入力し、これをマニピュレータ座標系に変換し、ティーチングマーク画像301が取得できる位置・姿勢に画像入力手段を誘導するような、誘導位置104と誘導姿勢105とを出力する。
【0003】
次に、第2の従来の技術を、「脇迫ら:“遠隔操作型配電作業ロボットの距離センサシステム”,日本ロボット学会誌,15巻,3号,468〜473ページ,1997」を例に説明する。距離センサがパン・チルト軸を持つ架台に置かれており、操作者が、パン・チルト軸を遠隔操作することで対象物までの距離を計測する。距離センサは、視覚情報を取得する機能を持つため、視覚センサに、また、架台は、距離センサの位置と姿勢とを変更する機能を持つため、マニピュレータに、それぞれ相当する。
図4に第2の従来の技術に係る視覚センサの誘導方法ブロック図を示す。なお、図4では、第2の従来の技術の誘導位置・誘導姿勢算出手段404の説明をするために、操作者による操作と、ティーチングプレイバックによる操作との2つの方式を同時に示している。操作者は、距離センサのカメラの映像を見ながら、対象物がカメラの中央に来るように、距離センサの架台を遠隔操作する。操作者による操作指令402に基づき、距離センサの誘導位置104と誘導姿勢105とが決定される。また、距離センサと対象物との位置関係がおおよそ既知である場合には、予めティーチングしたデータに基づきプレイバックする、ティーチングプレイバック方式で実行される。プレイバック時には、プレイバック指令401により、ティーチングデータ403が読み出され、誘導位置104と誘導姿勢105とが決定される。
【0004】
以下では、第2の従来の技術を装柱に対する配電作業に適用した例を詳しく説明する。
従来の装柱に対する配電作業で行われる視覚センサ誘導の概略説明図を図5に示す。501は装柱で、電柱502、アーム503、第1の碍子504、第2の碍子505、第3の碍子506から構成される。通常、電柱502は地面に対しほぼ垂直に設置されており、アーム503は電柱502に対し垂直に取り付けられている。第1の碍子504、第2の得子505、第3の碍子506は、アーム503に固定されている。507はマニピュレータで、先端に搭載してある視覚センサ511の位置と姿勢とを変更する。マニピュレータ507は、コントローラ508を介し、操作者510がティーチボックス509を操作することで駆動される。512は誘導前の視覚センサ位置で、得られる映像が誘導前の映像514である。513は誘導後の視覚センサ位置で、得られる映像が誘導後の映像515である。誘導後の視覚センサ位置513の時の視覚センサ511と、それを配置するマニピュレータ507と、誘導後の映像515と、それへの映像信号線とを点線で表示している。
【0005】
ここでは、視覚センサにより装柱501を遠方から捉え、視覚センサを対象物に近付けることを行う(対象物は第1の碍子504とする)。より具体的には、誘導前の映像514が得られる誘導前の視覚センサ位置512の時の視覚センサ511を、第1の碍子504の映像(誘導後の映像515)が得られる誘導後の視覚センサ位置513に誘導する。これは、注目する対象物(この場合第1の碍子504)の位置・姿勢情報をより詳細に検出する際に必要となる。この時、視覚センサ511が持つ光学歪みを考慮すると、第1の碍子504が、誘導後の映像515内で、ほぼ中央に位置するように、視覚センサ511を配置する方が望ましい。また、この場合、第1の碍子504の特徴を良好に捉えるためには、視覚センサ511を第1の碍子504のほぼ真横に配置する方が望ましい。
第2の従来の技術の操作者510による操作では、この誘導位置104と誘導姿勢105との決定を、操作者510が誘導前の映像514を見て、誘導後の映像515が得られるように、ティーチボックス509を操作し、マニピュレータ507を駆動して実行する。
また、第2の従来の技術のティーチングプレイバックによる操作では、コントローラ508に保存されたティーチングデータ403が、操作者510がティーチボックス509を操作することにより出されるプレイバック指令401により読み出され、マニピュレータ507がプレイバックを実行し、視覚センサ511の誘導位置104と誘導姿勢105とが決定される。
【0006】
【発明が解決しようとする課題】
第1の従来の技術で述べた特開平5−80842号の「移動ロボットの制御方法」では、予めワーク近くにマークを配置する必要があり、あるいは、ティーチングマーク画像301を予めティーチングする必要があり、そのための労力が発生し、手間が掛かるという問題があった。また、配置されるマークは2次元状であるが、平面上でない対象物にマークを配置する場合、視覚センサ511が見える場所にマークを配置する必要があるという問題があった。また、第1の碍子504を誘導後の映像515内ほぼ中央で、かつ、第1の碍子504のほぼ真横を捉えるように視覚センサ511を誘導するためには、視覚センサ511の位置と姿勢を3次元的に変更する必要があるが、マークが2次元状であるために、2次元的な位置と姿勢の変更しか行えないという問題があった。
【0007】
第2の従来の技術で述べた操作者510による操作では、操作者510が誘導前の映像514や誘導後の映像515を見ながら、誘導前の視覚センサ位置512の視覚センサ511を誘導後の視覚センサ位置513に誘導するため、操作者(人)の介在が必要で自動化できないという問題があった。また、第1の碍子504を誘導後の映像515内ほぼ中央で、かつ、第1の碍子504のほぼ真横を捉えるように視覚センサ511を誘導する必要があるため、その誘導に微調整が必要で、マニピュレータ507の操作に熟練を要する、あるいは手間が掛かるという問題があった。第2の従来の技術で述べたティーチングプレイバックによる操作では、装柱501とマニピュレータ507との位置関係を予め知っておく必要があり、そのための労力が発生し、手間が掛かるという問題があった。また、ティーチングの際に、装柱501とマニピュレータ507との位置関係にずれがある場合には、プレイバック時に、誘導後の映像515から第1の碍子504が外れる、あるいは、誘導後の映像515の中央に第1の碍子504が位置しない、あるいは、視覚センサ511が第1の碍子504の真横に配置されない、という問題があった。本発明は、このような従来の技術における課題を解決するものであり、マニピュレータ手先に搭載された視覚センサを対象物に誘導する際、操作者(人)の介在、微調整を必要とせず自動的に視覚センサを誘導することができ、対象物を確実に視野内ほぼ中央に捉えることができることにより光学歪みが改善され良好な対象物の検出が実行でき、視覚センサの位置と姿勢を3次元的に変更することができ、余分な労力を必要とせず、手間の掛からない、簡便なマニピュレータ装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記問題を解決するため、本発明のマニピュレータ装置は、先に視覚センサを搭載したマニピュレータを前記視覚センサの位置姿勢が誘導前の位置姿勢から対象物の位置を示す計測点が前記視覚センサにより得られる視野の中央となる誘導後の位置姿勢に、誘導するマニピュレータ装置であって、前記マニピュレータの上方向をZr軸、前記マニピュレータの底面にいずれも平行な2つの方向をそれぞれXr軸、Yr軸とする直交3軸からなる前記マニピュレータの座標系とし、前記視覚センサの上方向をYs軸、前記視覚センサの視覚方向をZs軸、前記Ys軸及び前記Zs軸と直交する方向をXs、とする直交3軸からなる前記視覚センサの座標系とし、前記の誘導前の位置姿勢において視覚センサにより前記対象物を含む画像を取得し、前記画像に基づいて前記視覚センサの座標系における前記計測点を定め、前記視覚センサの座標系の原点と前記計測点との距離として予め設定された値Lを用いて、前記計測点を中心とした半径Lの球面を表す式1を設定し、前記計測点を含み前記マニピュレータの座標系におけるXrYr平面と平行な平面を表す式2を設定し、前記視覚センサの座標系における前記計測点の位置ベクトルを含み、前記マニピュレータの座標系のZr軸に平行な平面を表す式3を設定し、前記の式1〜3をいずれも満たす位置を誘導後の前記視覚センサの位置である誘導位置として求め、前記誘導位置と前記計測点とを通るベクトルを正規化して、誘導後の前記視覚センサの座標系におけるZs軸を表す単位ベクトルZs’を求め、誘導後の前記視覚センサの座標系におけるXsZs平面と前記マニピュレータの座標系のXrYr平面とが平行となるとしたときの誘導後の前記視覚センサの座標系におけるYs軸を表す単位ベクトルYs’を求め、前記単位ベクトルZs’と前記単位ベクトルYs’とから誘導後の前記視覚センサの座標系におけるXs軸を表す単位ベクトルXs’を求め、前記誘導位置、前記単位ベクトルXs’、単位ベクトルYs’及び前記単位ベクトルZs’に基づいて前記視覚センサを誘導するものである。
【0009】
【発明の実施の形態】
図5を用いて説明した従来の技術の場合と同様、本実施例でも、誘導前の映像514が得られる誘導前の視覚センサ位置512の視覚センサ511を、誘導後の映像515が得られる誘導後の視覚センサ位置513に誘導することを行う。
以下、図1及び図2を用いて本発明の実施例を説明する。
図2に本発明の実施例に係る視覚センサの誘導方法モデル図を示す。図2では、装柱501の構成要素である、第1の碍子504とアーム503の一部のみを示している。201及び203は視覚センサ511の内部に設置された座標系で、201が、誘導前の視覚センサ位置512の視覚センサの座標系(誘導前の視覚センサ座標系)、203が、誘導後の視覚センサ位置513の視覚センサの座標系(誘導後の視覚センサ座標系)である。図5に示した視覚センサ511の紙面手前方向をXs軸、上方向をYs軸、左方向(視覚センサの視線方向)をZs軸とする。これによれば、視覚センサ511の底面はXsZs平面と平行となる。誘導後の視覚センサ座標系203の各座標軸には、誘導前の視覚センサ座標系201のそれらと区別するために、「’」を付している。202はマニピュレータのベース部に設置された座標系(マニピュレータ座標系)で、図5で示したマニピュレータ507の紙面右方向をXr軸、、奥方向をYr軸、上方向をZr軸とする。これによれば、マニピュレータ507の底面はXrYr平面と平行となる。
【0010】
本実施例は、この誘導後の視覚センサ座標系203の位置と姿勢とを決定するものである。より具体的には、マニピュレータ座標系202に関する誘導後の視覚センサ座標系203の位置と姿勢とを求めるものである。マニピュレータ507と視覚センサ511とは校正されているため、マニピュレータ507の移動に伴って、マニピュレータ座標系202に関する視覚センサ座標系(201や203)の位置と姿勢が分かる。マニピュレータ座標系202に関する誘導前の視覚センサ座標系201の位置と姿勢をT、誘導後の視覚センサ座標系203の位置と姿勢をT’とする。T及びT’は位置と姿勢を表す4行4列の同次変換行列である。従って、本実施例は、T’を求めることが目的となる。なお、204から207の説明については、図1の説明の中で記載する。
【0011】
視覚センサ座標系に関する概略位置207は、誘導前の視覚センサ位置512で視覚センサ511を用いて第1の碍子504を見た時の、誘導前の視覚センサ座標系201に関する第1の碍子504の概略位置で、図2では、ベクトル表記している。この視覚センサ座標系に関する概略位置207をマニピュレータ座標系202に関する位置で表し、
【数1】
Figure 0004568978
とする。ここで、tは転置である。マニピュレータ座標系に関する概略位置208は、マニピュレータ507と視覚センサ511とが校正されているため(Tが分かるため)、視覚センサ座標系に関する概略位置207から容易に求めることができる。以降では、マニピュレータ座標系202に関する座標値を扱う。なお、視覚センサ座標系に関する概略位置207は、視覚センサ511として、レーザレンジファインダ等を用いて求めることができる。
【0012】
図1に本発明の実施例に係る視覚センサの誘導方法ブロック図を示す。図2における204は、視覚センサ座標系に関する概略位置207を示す計測点を表している。対象物距離101は、誘導後の視覚センサ位置513の視覚センサ511と、第1の碍子504との距離であり、予め設定する。すなわち、図2においては、誘導後の視覚センサ座標系203の原点(205)と計測点204との距離であり、これをLとする。
本実施例における誘導位置・誘導姿勢算出手段106は、誘導位置算出手段102と誘導姿勢算出手段103とから構成される。誘導位置算出手段102では、マニピュレータに関する概略位置208と対象物距離101とを入力し、誘導位置104、すなわち、誘導後の視覚センサ座標系203の位置を出力する。計測点204を中心とし、半径をLとした球面206を設定する。球面206の方程式は
【数2】
Figure 0004568978
となる。計測点204を通り、XrYr平面に平行な平面は
【数3】
Figure 0004568978
となる。球面206と視覚センサ座標系に関する概略位置207のベクトルとの交点を
【数4】
Figure 0004568978
とすると、視覚センサ座標系に関する概略位置207のベクトルを含みZrに平行な平面は
【数5】
Figure 0004568978
となる。式(2)、(3)、(5)を連立し解くと、
【数6】
Figure 0004568978
となる。
【0013】
2つある解の内、視覚センサ511側の方を取ると、これが誘導後の視覚センサ座標系203の位置、すなわち、誘導位置104となる。これにより、第1の碍子504と同じ高さで、距離Lの位置に誘導後の視覚センサ座標系203の位置を決定することができる。誘導姿勢算出手段103では、誘導位置104とマニピュレータ座標系に関する概略位置208とを入力し、誘導姿勢105、すなわち、誘導後の視覚センサ座標系203の姿勢を出力する。誘導後の視覚センサ座標系203のXs’Zs’平面とマニピュレータ座標系202のXrYr平面とが平行であるとすると、Ys’軸の単位ベクトルは
【数7】
Figure 0004568978
となる。計測点204と誘導後の視覚センサ座標系の原点205とを通るベクトルを正規化し
【数8】
Figure 0004568978
とすると、これがZs’軸の単位ベクトルとなる。Xs’軸は式(7)と(8)との外積演算
【数9】
Figure 0004568978
により求めると、これがXs’軸の単位ベクトルとなる。
【0014】
式(7)、(8)、(9)の各軸を要素とした誘導後の視覚センサ座標系203の姿勢が
【数10】
Figure 0004568978
で求められる。これにより、第1の碍子504に視覚センサ511の視線方向が向かっている誘導後の視覚センサ座標系203の姿勢を決定することができる。
式(6)、(10)より、誘導後の視覚センサ座標系203の位置と姿勢T’は
【数11】
Figure 0004568978
となる。
以上により、誘導後の視覚センサ座標系203を、第1の碍子504と同じ高さで、距離Lの位置に、視覚センサ511の視線が第1の碍子504に向かう姿勢で、決定することができる。
【0015】
【発明の効果】
以上、説明したように、本発明は、対象物の概略位置と、予め設定した誘導位置と対象物との距離とから誘導位置を求めるようにしたので、対象物と同じ高さで、すなわち対象物の真横で、予め設定した誘導位置と対象物との距離を保った位置に視覚センサの位置を自動的にかつ3次元的に決定することができる。
また、本発明は、対象物の概略位置と、誘導位置とから誘導姿勢を求めるようにしたので、対象物に視覚センサの視線方向が向かうように、すなわち対象物が視覚センサで得られる視野の中央となるように、視覚センサの姿勢を自動的にかつ3次元的に決定することができる。
また、その結果、光学歪みが改善され、良好な対象物の検出が実行できる。
更に、本発明は、誘導位置及び誘導姿勢を自動的に決定するようにしたので、手間を掛けずに、また、余分な労力を必要とせずに、簡便に視覚センサを誘導することができる。
【図面の簡単な説明】
【図1】 本発明の実施例に係る視覚センサの誘導方法ブロック図である。
【図2】 本発明の実施例に係る視覚センサの誘導方法モデル図である。
【図3】 第1の従来の技術に係る視覚センサの誘導方法ブロック図である。
【図4】 第2の従来の技術に係る視覚センサの誘導方法ブロック図である。
【図5】 従来の装柱に対する配電作業で行われる視覚センサ誘導の概略説明図である。
【符号の説明】
101 対象物距離
102 誘導位置算出手段
103 誘導姿勢算出手段
104 誘導位置
105 誘導姿勢
106 誘導位置・誘導姿勢算出手段
201 誘導前の視覚センサ座標系
202 マニピュレータ座標系
203 誘導後の視覚センサ座標系
204 計測点
205 誘導後の視覚センサ座標系の原点
206 球面
207 視覚センサ座標系に関する概略位置
208 マニピュレータ座標系に関する概略位置
301 ティーチングマーク画像
302 マーク画像
303 比較照合手段
304 座標変換手段
305 第1の従来の技術の誘導位置・誘導姿勢算出手段
401 プレイバック指令
402 操作指令
403 ティーチングデータ
404 第2の従来の技術の誘導位置・誘導姿勢算出手段
501 装柱
502 電柱
503 アーム
504 第1の碍子
505 第2の碍子
506 第3の碍子
507 マニピュレータ
508 コントローラ
509 ティーチボックス
510 操作者
511 視覚センサ
512 誘導前の視覚センサ位置
513 誘導後の視覚センサ位置
514 誘導前の映像
515 誘導後の映像

Claims (1)

  1. 先に視覚センサを搭載したマニピュレータを、前記視覚センサの位置姿勢が誘導前の位置姿勢から対象物の位置を示す計測点が前記視覚センサにより得られる視野の中央となる誘導後の位置姿勢に、誘導するマニピュレータ装置であって、
    前記マニピュレータの上方向をZr軸、前記マニピュレータの底面にいずれも平行な2つの方向をそれぞれXr軸、Yr軸とする直交3軸からなる前記マニピュレータの座標系とし、
    前記視覚センサの上方向をYs軸、前記視覚センサの視覚方向をZs軸、前記Ys軸及び前記Zs軸と直交する方向をXs、とする直交3軸からなる前記視覚センサの座標系とし、
    前記の誘導前の位置姿勢において視覚センサにより前記対象物を含む画像を取得し、
    前記画像に基づいて前記視覚センサの座標系における前記計測点を定め、
    前記視覚センサの座標系の原点と前記計測点との距離として予め設定された値Lを用いて、前記計測点を中心とした半径Lの球面を表す式1を設定し、
    前記計測点を含み前記マニピュレータの座標系におけるXrYr平面と平行な平面を表す式2を設定し、
    前記視覚センサの座標系における前記計測点の位置ベクトルを含み、前記マニピュレータの座標系のZr軸に平行な平面を表す式3を設定し、
    前記の式1〜3をいずれも満たす位置を誘導後の前記視覚センサの位置である誘導位置として求め、
    前記誘導位置と前記計測点とを通るベクトルを正規化して、誘導後の前記視覚センサの座標系におけるZs軸を表す単位ベクトルZs’を求め、
    誘導後の前記視覚センサの座標系におけるXsZs平面と前記マニピュレータの座標系のXrYr平面とが平行となるとしたときの誘導後の前記視覚センサの座標系におけるYs軸を表す単位ベクトルYs’を求め、
    前記単位ベクトルZs’と前記単位ベクトルYs’とから誘導後の前記視覚センサの座標系におけるXs軸を表す単位ベクトルXs’を求め、
    前記誘導位置、前記単位ベクトルXs’、単位ベクトルYs’及び前記単位ベクトルZs’に基づいて前記視覚センサを誘導する
    ことを特徴とするマニピュレータ装置
JP2000278776A 2000-09-13 2000-09-13 マニピュレータ装置 Expired - Fee Related JP4568978B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000278776A JP4568978B2 (ja) 2000-09-13 2000-09-13 マニピュレータ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000278776A JP4568978B2 (ja) 2000-09-13 2000-09-13 マニピュレータ装置

Publications (2)

Publication Number Publication Date
JP2002086376A JP2002086376A (ja) 2002-03-26
JP4568978B2 true JP4568978B2 (ja) 2010-10-27

Family

ID=18763891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000278776A Expired - Fee Related JP4568978B2 (ja) 2000-09-13 2000-09-13 マニピュレータ装置

Country Status (1)

Country Link
JP (1) JP4568978B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010082189A (ja) * 2008-09-30 2010-04-15 Olympus Corp 手術マニピュレータシステムにおけるマニピュレータのキャリブレーション方法
JP5850958B2 (ja) 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0463687A (ja) * 1990-07-03 1992-02-28 Shikoku Sogo Kenkyusho:Kk 対象物をロボットに把持させる方法
JPH07286820A (ja) * 1994-04-20 1995-10-31 Fanuc Ltd 3次元視覚センサを用いた位置計測方法及び位置ずれ補正方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59209782A (ja) * 1983-05-10 1984-11-28 古河電気工業株式会社 配電工事用活線ロボツトのア−ム位置決め方法
JPS6017509A (ja) * 1983-07-11 1985-01-29 Furukawa Electric Co Ltd:The 配電工事用活線ロボツトのア−ム位置決め方法
JPS61182786A (ja) * 1985-02-08 1986-08-15 株式会社日立製作所 平行グリツパによる物体自動把持方式
JPS62231316A (ja) * 1986-03-31 1987-10-09 Fujikura Ltd 高所作業用機械の制御方法
JPH078176B2 (ja) * 1988-02-27 1995-02-01 株式会社クボタ 作業機の誘導装置
JPH052894U (ja) * 1991-04-26 1993-01-19 三菱電機株式会社 宇宙用視覚情報処理装置
JP3021202B2 (ja) * 1992-08-25 2000-03-15 三菱重工業株式会社 ロボットの位置姿勢の誘導方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0463687A (ja) * 1990-07-03 1992-02-28 Shikoku Sogo Kenkyusho:Kk 対象物をロボットに把持させる方法
JPH07286820A (ja) * 1994-04-20 1995-10-31 Fanuc Ltd 3次元視覚センサを用いた位置計測方法及び位置ずれ補正方法

Also Published As

Publication number Publication date
JP2002086376A (ja) 2002-03-26

Similar Documents

Publication Publication Date Title
CN110842928B (zh) 一种复合机器人视觉引导定位方法
CN111331367B (zh) 智能装配控制系统
CN107891414B (zh) 机器人系统
JP4021413B2 (ja) 計測装置
JP6457469B2 (ja) 移動ロボットの干渉領域設定装置
WO2015120734A1 (zh) 基于机器视觉的焊接轨迹校正专用测试装置及方法
US20110046783A1 (en) Method for training a robot or the like, and device for implementing said method
JP2903964B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
EP3895855A1 (en) Robot control system and robot control method
JPH03213251A (ja) ワーク位置検知装置
JP4568978B2 (ja) マニピュレータ装置
JP3215616B2 (ja) ロボットの誘導方法および誘導システム
CN113479635A (zh) 一种基于ar技术的工程搬运机器人及控制方法
JPH089151B2 (ja) 無人搬送車搭載ロボツトの位置補正方法
CN115933442B (zh) 一种空中加油自主对接过程的地面模拟系统及方法
JP3651026B2 (ja) ストッカ用ロボットの教示方法
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP6937444B1 (ja) ロボットシステムの位置決め精度測定方法
JP3972356B2 (ja) 視覚センサの誘導方法
JP3803755B2 (ja) ロボットシステムおよびその利用方法
JPH0675617A (ja) カメラ視点変更方式
JPH04365584A (ja) 遠隔操作ロボット支援装置
JP2602292B2 (ja) 溶接システムおよび溶接方法
JPH08322120A (ja) 高所作業用ブームの位置決め方法および位置決め支援装置
KR100326000B1 (ko) 무인차의 위치보정장치 및 위치보정방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100726

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140820

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees