JP2011189431A - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP2011189431A
JP2011189431A JP2010055815A JP2010055815A JP2011189431A JP 2011189431 A JP2011189431 A JP 2011189431A JP 2010055815 A JP2010055815 A JP 2010055815A JP 2010055815 A JP2010055815 A JP 2010055815A JP 2011189431 A JP2011189431 A JP 2011189431A
Authority
JP
Japan
Prior art keywords
pendant
robot
robot body
operator
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010055815A
Other languages
English (en)
Other versions
JP5526881B2 (ja
Inventor
Daisuke Yui
大介 由井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2010055815A priority Critical patent/JP5526881B2/ja
Publication of JP2011189431A publication Critical patent/JP2011189431A/ja
Application granted granted Critical
Publication of JP5526881B2 publication Critical patent/JP5526881B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】オペレータがペンダントを操作してロボット本体のマニュアル動作を実行させる際に、オペレータの主観によることなく、一意的にペンダントの向きとロボット座標系とを対応させて移動方向の指示操作を行う。
【解決手段】ロボットコントローラ3は、ペンダント4のカメラ17によりロボット本体2の撮影画像データを取込むと共に、ロボット本体2の現在の位置姿勢情報から、3Dモデルを作成する。3Dモデルを、カメラ17による撮影画像と最も類似性が高くなるまで視点移動により動かし、探し出された最も類似性の高い視点をペンダント視点とする。ロボット座標系と、ペンダント4のタッチパネル14の軸系とのズレ量を設定する。ペンダント4のタッチパネル14により指示操作される移動方向を、設定されたズレ量に応じてロボット座標系での移動方向に変換することでロボット本体2(手先)の移動方向に同期させる。
【選択図】図1

Description

本発明は、ロボット本体と、オペレータによる手持ち操作が可能なペンダントと、前記ペンダントの操作に基づく前記ロボット本体のマニュアル動作を制御する動作制御手段とを備えるロボットシステムに関する。
例えば組立作業等を行う産業用ロボットのシステムは、多関節型のロボット本体、このロボット本体を制御するロボットコントローラ、このロボットコントローラに接続されたペンダント(操作装置)等から構成される。前記ペンダントは、オペレータ(ユーザ)による手持ち可能に構成され、主として、前記ロボット本体をマニュアル操作により実際に動作させ、例えば、ワークの取得位置や、移動経路、ワークの組付位置等を教示(ティーチング)するために用いられる。
この場合、前記ロボット本体は、固有の絶対的なロボット座標系(ベースを基準としたX,Y,Zの三次元直交座標系)に基づいて動作するようになっている。このロボット座標系は、シミュレータ上では目視可能に表示できるが、現実の装置では目視不可能である。オペレータが、ペンダントを用いて教示を行う(マニュアル動作を実行させる)にあたっては、ロボット本体の近傍の任意の位置に立って、その手先の動きを見ながら、その手先を所望の方向に移動させるべくペンダントのキー操作を行う。その際、オペレータは、自分の視点で見ている方向を、頭の中でロボット座標系に変換して移動方向の指示操作を行なう必要があり、熟練を要するものとなる。
そこで、非熟練者でも容易に教示作業を行えるように、特許文献1には、ペンダントのタッチパネル上に、オペレータがロボット本体の正面方向(現在のペンダントの位置に対して、ロボット本体の正面が、前後左右及び斜め4方向の計8方向のうちどの方向を向いているか)を設定する手段を設けると共に、そのロボット本体の正面方向と、前記タッチパネル上の8方向のいずれかの移動方向キーが操作されたときのロボット本体の移動方向とを対応させるようにする構成が開示されている。これによれば、オペレータが、自分の視点によってペンダントを操作することにより、所望の方向にロボット本体を移動させることが可能となる。つまり、オペレータがペンダント上で例えば右方向への移動操作を行うと、ロボット本体がオペレータの視点で右側へ移動するようになるのである。
特開平11−262884号公報
しかし、上記した特許文献1に記載された技術では、次のような改善の余地が残されていた。即ち、ロボット本体の正面方向がペンダント(タッチパネル上)のどの方向に該当するかを、オペレータが自分の主観に基づいて設定する構成となっている。ここで、ペンダントの向きとロボット座標系の向きとの関係は、オペレータの立ち位置だけでなくその姿勢にも依存することになり、例えばオペレータがペンダントの持ち方(向き)を少し変えただけで、オペレータの主観におけるペンダントの向きと、実際のロボット座標系の向きとの関係が大きく変動してしまう等、オペレータの主観座標系と、ロボット座標系とを必ずしも良好に一致させることができるとは限らないものとなる。
また、オペレータは、ティーチング作業中において、立ち位置を変えることもあり、そのようなオペレータの移動があった(ペンダントの位置が移動した)場合には、ペンダントに設定されていた正面方向と、実際のロボット本体の正面方向とが、ずれることになる。従って、オペレータは、移動する都度、いちいちペンダントを手動操作して再度ロボット本体の正面方向を設定(入力)し直さなければならないものとなる。
本発明は上記事情に鑑みてなされたもので、その目的は、オペレータがペンダントを操作してロボット本体のマニュアル動作を実行させる際に、オペレータの主観によることなく、一意的にペンダントの向きとロボット座標系とを対応させて移動方向の指示操作を行うことができるロボットシステムを提供するにある。
上記目的を達成するために、本発明のロボットシステムは、ペンダントに、オペレータ側を向く正面部にロボット本体の移動方向の指示操作を行うための操作部を設けると共に、それとは反対の背面側に前方を撮影可能なカメラを設け、ペンダントの操作に基づくロボット本体のマニュアル動作を制御する動作制御手段に、ロボット本体のマニュアル動作時において、ペンダントのカメラにより該ロボット本体の撮影画像を取込む画像取込手段と、ロボット本体の現在の位置姿勢情報から該ロボット本体の3次元画像モデルを作成する3次元画像モデル作成手段と、動作制御手段が保有する基準となるロボット座標系を基準にした3次元画像モデルを作り、それをカメラによる撮影画像と最も類似性が高くなるまで視点変更して動かし、探し出された最も類似性の高い視点をペンダント視点として基準となったロボット座標系とペンダント視点におけるペンダントの上下左右軸系との差をズレ量と設定するズレ量設定手段と、ペンダントの操作部の操作軸の入力方向及び入力量を、設定されたズレ量に応じてロボット座標系での入力方向及び入力量に変換することでロボット本体の移動方向に同期させる同期手段とを設けたところに特徴を有する(請求項1の発明)。
ペンダントを操作してロボット本体のマニュアル動作を実行させるにあたっては、オペレータは、ロボット本体のベースに対し正対し、ペンダントの背面側をロボット本体に向けペンダントの正面部の操作部を自分の方に向けて操作を行うことが通常である。本発明においては、オペレータの、そのようなペンダントを持つ自然な姿勢によって、カメラをロボット本体に向けることができる。
画像取込手段によって、カメラによるロボット本体の撮影画像が取込まれると共に、3次元画像モデル作成手段によって、ロボット本体の位置姿勢情報から現在のロボット本体の3次元画像モデルが作成される。この場合、ペンダントはコントローラとつながっており、コントローラはロボット本体の現在の各軸の角度の情報を保有しているので、それら各軸角度情報から、現在のロボット本体の3次元画像モデルを作成することができる。
このとき、カメラの光軸ひいてはペンダントのロボット本体のベースに対する位置(ペンダント視点)に応じて、撮影画像中のロボット本体の見え方が異なってくるので、ズレ量設定手段により、基準となる現在のロボット本体の3次元画像モデルを作りそれをカメラによる撮影画像と最も類似性が高くなるまで視点変更して動かし、探し出された最も類似性の高い視点をペンダント視点とすることに基づいて、ロボット座標系とペンダント視点におけるペンダントの上下左右座標系とのズレ量を十分な確かさで推定し、設定することができる。
そして、同期手段により、ペンダントの操作部の操作軸の入力方向及び入力量が、設定されたズレ量に応じてロボット座標系での入力方向及び入力量に変換されてロボット本体の移動方向に同期されるようになる。
これにより、ペンダントの向き(上下左右座標系)と、実際のロボット座標系との関係(ズレ量)を、オペレータの主観によることなく、一意的に、且つ、自動で定めることができる。従って、オペレータが、ペンダントの操作部の操作により指示した移動方向つまりオペレータが移動させたいと考える方向と、実際のロボット本体の移動方向とを、ほぼ一致させることができ、ロボット本体のマニュアル動作をスムーズ且つ効率的に行うことができる。この場合、本発明は、ペンダントにカメラを付加することにより実現でき、そのカメラもさほど高精度のものでなくても済むので、簡単な構成で比較的安価に済ませることができる。
ところで、ロボット本体のマニュアル動作中において、オペレータの立ち位置の移動があって、ペンダントの位置や向きが変化することが考えられる。このような場合には、画像取込手段、3次元画像モデル作成手段、ズレ量設定手段、同期手段による同様の処理を再度実行することにより、常にその時点でのペンダントの位置及び向きと、実際のロボット座標系との関係を自動で更新していくことも可能となる。
本発明においては、ペンダントに、自分の位置又は姿勢の変化を検出するジャイロセンサを設け、動作制御手段に、前記ジャイロセンサにより検出されたペンダントの位置又は姿勢の変化量に応じて、設定されたズレ量を補正する補正手段を設けることができる(請求項2の発明)。
これによれば、ロボット本体のマニュアル動作中においてペンダントの位置や向きが変化した場合には、ジャイロセンサにより検出することができ、検出されたペンダントの位置又は姿勢の変化量に応じて、補正手段により、設定されたズレ量を補正することができる。従って、マニュアル動作開始当初は、カメラの撮影画像に基づいて、ペンダントのロボット座標系に対するズレ量を設定し、その後は、補正手段による補正を利用しながら、常にその時点でのペンダントの位置及び向きと、実際のロボット座標系との関係(ズレ量)を自動で更新していくことができる。この場合には、オペレータは、必ずしもカメラの光軸をロボット本体側に向け続けている必要がなく、ペンダントの持ち方や姿勢(ペンダントの向き)を自由に変えながらロボット本体のマニュアル動作を実行させることができる。
或いは、本発明においては、動作制御手段に、カメラの撮影視野からロボット本体が外れた場合に、該ロボット本体のマニュアル動作を禁止する禁止手段を設けることができる(請求項3の発明)。これによれば、オペレータがペンダントを置いて作業を一旦中断するなど、カメラの視野からロボット本体が外れた場合には、ロボット本体のマニュアル動作が禁止されるので、オペレータが交代するような場合における、安全性を高めることができる。
本発明の第1の実施例を示すもので、ロボットシステムの全体構成を概略的に示す図 カメラの配設位置を示すペンダントの側面図 オペレータがロボット本体の前方位置に立っている場合の、概略的平面図(a)及びペンダントの正面図(b) オペレータがロボット本体の前方左斜め位置に立っている場合の図3相当図 タッチパネルの移動指示方向とロボット本体の移動方向とを対応させる処理の手順を示すフローチャート 本発明の第2の実施例を示すもので、ペンダントの位置及び向きの補正の処理手順を示すフローチャート 本発明の第3の実施例を示すもので、カメラが角度調整される様子を示す側面図
(1)第1の実施例
以下、本発明の第1の実施例について、図1ないし図5を参照しながら説明する。図1は、本実施例に係るロボットシステム1の外観構成を概略的に示している。このロボットシステム1は、ロボット本体2、このロボット本体2の各軸モータを制御するロボットコントローラ3、このロボットコントローラ3に接続されたペンダント4等を備えて構成されている。
前記ロボット本体2は、図3、図4にも示すように、例えば、ベース5上に6軸のアームを有する垂直多関節型ロボットからなり、それらアームは、次のように、関節部を介して順次回動可能に連結されている。即ち、前記ベース5上には、ショルダ部6が、垂直(Z軸)方向に延びる回動軸J1を中心に水平方向に旋回可能に連結され、このショルダ部6には、図でやや斜め上方に延びる下アーム7が、水平方向に延びる回動軸J2を中心に旋回可能に連結されている。
前記下アーム7の先端部には、第1の上アーム8が、水平方向に延びる回動軸J3を中心に上下方向に旋回可能に連結され、この第1の上アーム8の先端部には、第2の上アーム9が、回動軸J4を中心に同軸回転可能に連結されている。第2の上アーム9の先端には、手首10が、回動軸J5を中心に上下方向に回動可能に連結され、前記手首10の先端には、フランジ11が、回動軸J6を中心に同軸回転可能に連結されている。
尚、図示はしないが、上記した各アーム6〜11は、各軸モータにより夫々駆動されるようになっている。また、前記フランジ11には、例えばハンド等の必要な作業用ツール12が取付けられる。この場合、ロボット本体2は、例えば水平な作業台13上に前記ベース5が所定の向きで固定設置され、作業台13上において図示しないワークに対する部品組付け作業等の作業を行うように構成されている。
前記ロボットコントローラ3は、コンピュータ(CPU)やサーボ制御部等を含んで構成され、予め記憶された作業プログラム、及び、前記ペンダント4を用いたティーチング作業によって教示された位置データ(位置座標)等に基づいて、前記ロボット本体2の各軸モータ等を制御し、組立作業等の作業を実行させるようになっている。この場合、ロボットコントローラ3は、前記各軸モータのエンコーダの出力信号から、常にロボット本体2の位置姿勢を検出し、現在の位置姿勢情報(各軸の角度情報)を保持(記憶更新)するように構成されている。
ここで、前記ロボット本体2は、固有のロボット座標系(X,Y,Z軸からなる三次元直交座標系)を有して構成され、前記ロボットコントローラ3により、そのロボット座標系に基づいて、X軸方向(左右方向)及びY軸方向(前後方向)並びにZ軸方向(上下方向)に自在に移動される。本実施例では、ロボット座標系は、例えば、図1に示すように、前記ベース5の中心を原点Oとして、作業台13の上面(水平面)をX−Y平面とし、作業台13に垂直な座標軸をZ軸とし、ベース5の正面が向く方向を前方(Y軸+方向)とするように定義される。ティーチング作業によって教示された位置データは、そのロボット座標系に基づく位置座標(位置ベクトル)にて記憶される。
前記ペンダント4は、オペレータのマニュアル操作により、ロボットコントローラ3を介してロボット本体2(手先)を実際に動かして作業位置等を教示(ティーチング)したり、或いは、記憶されている制御プログラムを呼出してロボット本体2を起動したり各種のパラメータを設定したりするために使用される。このとき、前記ロボットコントローラ3は、ペンダント4の操作に基づく前記ロボット本体2のマニュアル動作を制御する動作制御手段として機能する。
このペンダント4は、図2〜図4にも示すように、薄形でやや縦長のほぼ矩形箱状のケースを備え、オペレータが手で持って操作できる程度のコンパクトな大きさとされている。このペンダント4(ケース)の正面部(上面部)には、操作部として機能する四角形のタッチパネル14が設けられていると共に、各種のメカスイッチ15(1個のみ図示)が設けられている。前記タッチパネル14は、液晶ディスプレイ(LCD)の表面部に透明電極を縦横に配してなる周知構成を備え、画面上に、必要な表示やキー(アイコン)の設定を行うと共に、画面上のタッチ操作された位置の検出が可能な構成とされている。この場合、タッチパネル14上には操作軸として上下左右軸系(2次元直交座標系)が設定され、その座標系に基づいてタッチ位置や、入力方向(ドラッグ方向)、入力量(ドラッグ量)が検出される。
この場合、図3、図4に示すように、タッチパネル14の画面左上のコーナー部には、後述するように、ロボット本体2のX軸及びY軸の方向を示すための方位インジケータ16が表示される。また、このタッチパネル14は、オペレータによるドラッグ操作、つまり図3、図4に示すように画面上を例えば手指Fで押圧(タッチ)しながらその押圧位置を移動させる操作が可能とされ、オペレータは、そのドラッグ操作により、マニュアル動作時のロボット本体2(手先)の前後左右方向(X−Y平面方向)に関する移動方向及び移動量の指示操作を行うようになっている。
そして、図示はしないが、このペンダント4(ケース)の内部には、コンピュータ(CPU)を含んで構成される制御回路や、前記ロボットコントローラ3との間でデータ通信を行うためのI/O等が配設されている。前記制御回路は、そのソフトウエア構成により、前記タッチパネル14の表示を制御すると共に、前記メカスイッチ15やタッチパネル14の操作に基づいて各種の処理を行うように構成されている。このとき、初期状態(電源オン時)においては、タッチパネル14(液晶ディスプレイ)にメニュー画面が表示され、オペレータがティーチング作業を行いたい場合には、そのメニュー画面においてロボット本体2のマニュアル動作を選択し、実行させるようにする。
このロボット本体2のマニュアル動作の実行時には、オペレータによりタッチパネル14のドラッグ操作が行われると、制御回路は、ドラッグ操作の開始位置と終了位置とから、ドラッグ操作の方向とドラッグ量(長さ)とを求め、それに基づいて、ロボット本体2(手先)の移動方向及び移動量を算出し、前記ロボットコントローラ3に対して移動指令データを出力し、以てロボット本体2をX−Y方向に移動(マニュアル動作)させるようになっている。尚、ロボット本体2(手先)の上下方向(Z軸方向)の移動については、図示はしないが、タッチパネル14上に設定されたZ+キー、Z−キーをオペレータがタッチ操作することにより、操作時間に応じた移動量だけ移動させることができるようになっている。
さて、本実施例では、上記ペンダント4を用いたティーチング作業時(ロボット本体2のマニュアル動作時)に、X−Y方向の移動に関して、オペレータによるタッチパネル14上で指示操作される移動方向と、ロボット本体2(手先)の実際の移動方向とを対応(シンクロ)させるために、次のような構成が採用される。即ち、図2に示すように、前記ペンダント4には、ケースの背面側(裏面側)の上部に位置して、前方を撮影可能なカメラ17が設けられている。
このカメラ17は、例えばCCD撮像素子及びレンズ等を備えて構成されている。このとき、図2に示すように、カメラ17の光軸Lは、ペンダント4のケースの裏面(パネル面)に対し直交する方向に延びている。ペンダント4においては、ティーチング作業の開始時(及び作業中の周期的)に、自動で(或いはオペレータによるスイッチ操作に基づいて)カメラ17による前記ロボット本体2全体の撮影画像が取込まれる。取込まれた撮影画像データは、前記ロボットコントローラ3に入力されるようになっており、該ロボットコントローラ3等から画像取込手段が構成される。また、図1に示すように、タッチパネル14(液晶ディスプレイ)にその撮影画像を表示することもできる。
そして、詳しくは次の作用説明(フローチャート説明)でも述べるように、ティーチング作業の開始時及び実行中において、ロボットコントローラ3は、そのソフトウエア構成(移動方向規定プログラムの実行)により、前記ペンダント4のカメラ17によりロボット本体2の撮影画像データを取込むと共に、ロボット本体2の現在の位置姿勢情報から、該ロボット本体2の3次元画像モデル(以下「3Dモデル」という)を作成する。
このとき、ロボットコントローラ3が保有する基準となるロボット座標系を基準にした3Dモデルを作り、それを前記カメラ17によるロボット本体2の撮影画像と最も類似性が高くなるまで視点変更して自在に動かし、最も類似性の高い視点をペンダント視点とする。そして、前記基準となったロボット座標系と、そのペンダント視点におけるペンダント4のタッチパネル14の上下左右軸系との差をズレ量として設定する。その上で、前記ペンダント4のタッチパネル14により指示操作される入力(移動)方向及入力(移動)量を、前記設定されたズレ量に応じて、前記基準となるロボット座標系での入力方向及び入力量に変換することで、前記ロボット本体2(手先)の移動方向に同期させるようになっている。
従って、ロボットコントローラ3が、カメラ17等と共に画像取込手段を構成すると共に、3次元画像モデル作成手段、ズレ量設定手段、同期手段として機能する。尚、上記ペンダント4の位置検出にあたっては、作成された3Dモデルと、ロボット本体2の撮影画像データとのパターンマッチングを行ない、類似性(一致度)のスコアが、0.7(70%)以上で且つ最も大きい3Dモデルの視点を探すことにより行なわれる。
また、本実施例では、ティーチング作業の開始時にだけでなく、ティーチング作業中においても、例えば周期的にカメラ17が撮影したロボット本体2の画像から、上記と同様の処理により、ペンダント視点の検出に基づくズレ量の設定を行ない、タッチパネル14による移動指示方向と、実際のロボット本体2の移動方向との対応関係を常に更新していくようになっている。更に本実施例では、ロボットコントローラ3は、カメラ17の撮影視野からロボット本体2が外れたと判断した場合には、ロボット本体2のマニュアル動作を禁止するようになっており、禁止手段としても機能する。
次に、上記構成の作用について、図5も参照しながら説明する。オペレータが、ペンダント4を用いてロボット本体2をマニュアル動作させてティーチング作業を行う場合には、図3(a),図4(a)に示すように、オペレータMは、ペンダント4を持ってロボット本体2の近傍に立ち、タッチパネル14を操作して、メニューからロボット本体2のマニュアル動作を選択し、実行開始させる。
このとき、オペレータMは、ロボット本体2に対し周囲360度(前後左右の)の任意の位置に立って操作を行うことができるのであるが、ロボット本体2のロボット座標系(座標軸)を視認することはできない。そこで、オペレータMが非熟練者の場合でも、容易にティーチング作業を行えるように、ペンダント4のタッチパネル14により指示操作される移動方向と、ロボット本体2(手先)の移動方向とを対応(シンクロ)させる処理が行なわれる。
この処理によって、オペレータMが、自分の視点によってペンダント4を操作することにより、所望の方向にロボット本体2を移動させることが可能となる、つまり、オペレータMがペンダント4のタッチパネル14上で例えば右方向への移動操作(ドラッグ操作)を行うと、ロボット本体2がオペレータMの視点(オペレータMの立ち位置を基準として)で右側へ移動するようになるのである。
図5のフローチャートは、ティーチング作業時(マニュアル動作実行時)に、ロボットコントローラ3が実行する、タッチパネル14による移動指示方向と実際のロボット本体2の移動方向とを対応(同期)させる処理の手順を示している。尚、この処理が開始されると、タッチパネル14(液晶ディスプレイ)に、例えば「カメラ17をロボット本体2に向けてください」といったメッセージが表示される。これを受け、オペレータMは、ペンダント4の背面側に設けられたカメラ17(光軸L)をロボット本体2に向けるようにする。
このとき、オペレータMがロボット本体2のベース5に対し正対し、ペンダント4の正面部のタッチパネル14を自分の方に向けるという、マニュアル動作実行時にいわば自然に(必然的に)とられる姿勢によって、カメラ17(光軸L)がロボット本体2に向けられる。またこれと共に、図1に示すように、オペレータMが容易に位置合せできるように、カメラ17の撮影画像(視野)をタッチパネル14(液晶ディスプレイ)に表示することが行なわれる。
図5において、まずステップS1では、オペレータMの、ロボット本体2に対する位置(視点)の仮定が行なわれる。この場合、例えば、図3(a)に示すように、オペレータM(ペンダント4)がロボット本体2の正面(Y軸+方向)の距離1mに位置し、カメラ17の光軸Lがベース5の中心(Z軸)を指向する向きにあると仮定される。ステップS2では、ロボット本体2の型式情報(軸構成や各軸のリンク長さ等)が取得される。
ステップS3では、ロボット本体2の現在の位置姿勢情報が取得される。このとき、作業開始前には、ロボット本体2は所定の原点位置に位置している。ステップS4では、その現在の位置姿勢情報に基づき、オペレータMの位置を仮定した基準となるロボット本体2の3Dモデルの作成が行なわれる。次のステップS5では、ペンダント4のカメラ17によるロボット本体2の撮影画像データが取込まれる。そして、ステップS6では、上記ステップS4にて作成された3Dモデルと、ステップS5にて取込まれた撮影画像データとのパターンマッチングが行なわれ、類似性のスコアが求められる。
尚、図示は省略しているが、上記ステップS6では、撮影画像データ中にロボット本体2が存在するかどうかも判断される。そして、ロボット本体2全体が撮影されていない(カメラ17の撮影視野から外れている)と判断された場合には、エラー報知がなされると共に、ロボット本体2のマニュアル動作が禁止される。これと共に、ペンダント4のタッチパネル14(液晶ディスプレイ)に、カメラ17の撮影視野内にロボット本体2全体を収めることを促す表示が行なわれる。
ステップS7では、類似性のスコアがしきい値(例えば0.7(70%))以上であるかどうかが判断される。類似性のスコアがしきい値未満である場合には(ステップS7にてNo)、次のステップS8にて、ロボット本体2に対するカメラ17の光軸Lを想定した視点が微小量だけ変更された上で、ステップS4に戻り、変更された新たな視点に応じて3Dモデルが作成され(動かされ)、処理が繰返される。ステップS8で変更される微小量としては、角度で10度、距離で0.3m程度となる。
ここで、本発明者の知見によれば、ステップS1(ステップS8)にて仮定したオペレータMの位置(ペンダント視点)と、実際のペンダント視点(カメラ17の光軸L)との差が、ロボット座標系の中心Oから見た角度で、約5度以内であれば、撮影画像データのロボット本体2の背景等に多少のノイズがあっても、類似性(一致度)のスコアは0.7(70%)以上となる。従って、類似性のスコアがしきい値以上であれば、仮定したペンダント視点と実際のペンダント視点とが一致又はほぼ一致する(3Dモデルの視点に実際にペンダント4(カメラ17)が位置している)と判断することができる。
類似性のスコアがしきい値以上の場合には(ステップS7にてYes)、ステップS9にて、ペンダント4が、3Dモデルの視点(ペンダント視点)の位置にあり、且つ、カメラ17の光軸Lがベース5の中心(Z軸)を指向する向きに存在すると推定される。これにて、ロボット座標系(X軸及びY軸)と、オペレータの主観座標(現在のオペレータの立ち位置からみたペンダント4のタッチパネル14の上下左右方向)とのズレ量が設定される。次のステップS10では、ステップS9で設定されたズレ量に応じて、タッチパネル14上の移動指示方向と、ロボット本体2(手先)の実際の移動方向との対応付け(シンクロ)が行なわれる。つまり、前記ズレ量を補正値として、オペレータのタッチパネル14における入力ベクトルに加算減算処理を行い、オペレータの入力ベクトルを、ロボット本体2のロボット座標系の移動ベクトルに変換する。
これにて、例えば、図3(a)に示すように、オペレータM(ペンダント4)が、ロボット本体2の正面前方(Y軸+方向)に位置している場合には、図3(b)に示すように、タッチパネル14の上下(縦)方向がロボット座標系のY軸方向に対応付けられ、タッチパネル14の左右(横)方向がロボット座標系のX軸方向に対応付けられるようになる。またこのとき、タッチパネル14の方位インジケータ16部分には、対応付けられたロボット座標系のX軸+方向(右方向)及びY軸+方向(手前方向)が表示される。この状態では、例えば図3(b)に矢印aで示すように、オペレータMが手指Fで右斜め上方にタッチパネル14のドラッグ操作を行うと、ロボット本体2(手先)は、図3(a)に矢印Aで示すように、オペレータMから見て右斜め後方(奥方)に移動するようになる。
また、例えば、図4(a)に示すように、オペレータM(ペンダント4)が、ロボット本体2(ベース5)の正面に対して左斜め45度前方に位置している場合には、図4(b)に示すように、タッチパネル14の左上から右下に向う斜め45度の方向がロボット座標系のY軸方向に対応付けられ、タッチパネル14の左下から右上に向う斜め45度の方向がロボット座標系のX軸方向に対応付けられるようになり、方位インジケータ16部分にその対応付けられた方向が表示される。この状態では、例えば図4(b)に矢印bで示すように、オペレータMが手指Fで右方向にタッチパネル14のドラッグ操作を行うと、ロボット本体2(手先)は、図4(a)に矢印Bで示すように、オペレータMから見て右方向(Y軸+方向及びX軸+方向に対し共に45度をなす角度の方向)に移動するようになる。
上記ステップS10までの処理を行うことにより、作業開始初期のペンダント4の位置及び向き(ロボット座標系に対する上下左右軸系のズレ量)が設定され(初期設定)、タッチパネル14による移動指示方向と、実際のロボット本体2の移動方向との同期がとられるのであるが、本実施例においては、その初期設定の後にも、例えば周期的(一定時間毎)にステップS3に戻り、ステップS3〜ステップS10の処理が繰返される。
これにより、ティーチング作業中においても、設定されたズレ量の補正が随時行なわれ、タッチパネル14による移動指示方向と、実際のロボット本体2の移動方向との対応関係が常に更新されていく。但しこの補正(更新)を行う場合には、前回のステップS9で設定された位置が、ステップS4で3Dモデルを作成する際に最初に仮定される視点の位置とされる。これにて、ティーチング作業中に、オペレータMが立ち位置を移動した場合等にも対応することができる。
このように本実施例によれば、ロボット本体2の現在の位置姿勢情報から作成される3Dモデルと、カメラ17による撮影画像との比較に基づいて、ロボット本体2に対するペンダント視点(カメラ17の光軸Lの位置)を十分な確かさで推定し、ロボット座標系とタッチパネル14の上下左右軸系とのズレ量を設定することができ、その上で、タッチパネル14による移動指示方向とロボット本体2の移動方向とが同期されるようになる。これにより、オペレータMが、ペンダント4のタッチパネル14の操作により指示した移動方向つまりオペレータMが移動させたいと考える方向と、実際のロボット本体2の移動方向とを、一致又はほぼ一致させることができ、ティーチング作業をスムーズ且つ効率的に行うことができる。
このとき、ロボット本体の正面方向をオペレータがタッチパネル上で手動設定するようにした従来のものと異なり、ペンダント4の向きと実際のロボット座標系との関係を、オペレータの主観によることなく、一意的に定めることができると共に、オペレータMの面倒な設定操作は必要なく、自動で定めることができる。
しかも、ペンダント4にカメラ17を付加するだけの簡単な構成で実現でき、そのカメラ17についても、3Dモデルとの比較のためのロボット本体2の位置姿勢を撮影するだけで、さほど高精度のものでなくても済むので、比較的安価に済ませることができる。更には、オペレータMは、作業対象とするロボット本体2にカメラ17を向けることで、必然的にそのロボット本体2を確認することができ、ペンダント4が接続されていない誤ったロボット本体2をマニュアル動作させようとするといったミスを未然に防止することができる。
また、特に本実施例では、ロボット本体2に対するティーチング作業の開始時だけでなく、作業中においても、タッチパネル14による移動指示方向と、実際のロボット本体2の移動方向との対応関係を常に自動で更新していくようにしたので、より利便性を高めることができる。しかも、ペンダント4のカメラ17をロボット本体2に向け続けていなければ、ロボット本体2のマニュアル動作が禁止されるようにしたので、ペンダント4の位置が不明な状態でロボット本体2が動作することが未然に防止され、安全性を高めることができる。
(2)第2、第3の実施例、その他の実施例
図6は、本発明の第2の実施例を示すものである。この第2の実施例が上記第1の実施例と異なるところは、ティーチング作業時(マニュアル動作実行時)に、ロボットコントローラ3が実行する処理、即ち、初期設定されたペンダント4の位置及び向き(ズレ量)を補正する手法、ひいては、タッチパネル14による移動指示方向と、実際のロボット本体2の移動方向との対応関係を更新する手法にある。尚、以下に述べる各実施例では、上記第1の実施例と同一部分については、符号を共通して使用すると共に新たな図示や説明を省略し、上記第1の実施例と異なる点についてのみ説明することとする。
図示はしないが、本実施例では、ペンダント4内に、自分の位置又は姿勢の変化を検出する変位センサが設けられている。この変位センサは、ジャイロセンサからなり、この変位センサの検出信号(変位量のデータ)は、前記ロボットコントローラ3に入力されるようになっている。そして、ロボットコントローラ3(動作制御手段)は、初期設定後のティーチング作業中においては、カメラ17の撮影画像を用いることなく、前記変位センサにより検出されたペンダント4の位置又は姿勢の変化量に応じて、設定されたペンダント4の位置又は向き(ズレ量)を補正するようになっている。従って、ロボットコントローラ3は、ソフトウエア構成によって補正手段として機能する。
即ち、図6のフローチャートは、図5のフローチャートからの変更部分を示している。ここでは、ロボットコントローラ3は、上記第1の実施例で説明したと同様の処理(ステップS1〜ステップS10)により、ペンダント4の位置及び向きの初期設定を行い(ステップS9)、タッチパネル14による移動指示方向と実際のロボット本体2の移動方向との対応付け(同期)が行なわれる(ステップS10)。そして、次のステップS11では、初期の変位センサ情報が取得される。
その後、ティーチング作業中においては、ステップS12にて、例えば周期的に(一定時間間隔で)現在の変位センサ情報が取得され、前回の変位センサ情報との比較により、ペンダント4の位置又は姿勢の変位量が求められる。次のステップS13では、検出された変位量に応じて、設定されているペンダント4の位置及び向き(ズレ量)が補正される。ステップS14では、補正後の設定されたズレ量に応じて、タッチパネル14による移動指示方向と実際のロボット本体2の移動方向との対応関係が更新される。この後は、ステップS12からの処理が繰返される。
このような第2の実施例によれば、オペレータMがペンダント4を操作してロボット本体2のマニュアル動作(ティーチング作業)を実行させる際に、オペレータMの主観によることなく、一意的にペンダント4の向きとロボット座標系とを対応させて移動方向の指示操作を行うことができる等の、上記第1の実施例と同様の作用・効果を得ることができる。
そして、本実施例では、カメラ17の撮影画像に基づいてペンダント4の位置及び向きの初期設定を行い、その後は、ジャイロセンサの検出に基づいて、常にその時点でのペンダント4の位置及び向きを補正し、実際のロボット座標系との関係を自動で更新していくことができる。この場合には、オペレータMは、必ずしもカメラ17の光軸Lをロボット本体2側に向け続けている必要がなく、ペンダント4の持ち方や姿勢(ペンダント4の向き)を自由に変えながらロボット本体2のマニュアル動作を実行させることができる。
尚、ペンダント4の位置及び向きの初期設定後(ティーチング作業中)において、上記第1の実施例で述べたような、カメラ17によるロボット本体2の画像取込を続けていくことによるペンダント4の位置及び向きの補正と、この第2の実施例のような変位センサの検出に基づく補正とを併用するように構成しても良い。これにより、設定されたペンダント4の位置及び向きを、より正確に補正していくことが可能となる。
図7は本発明の第3の実施例を示すものであり、上記第1の実施例と異なる点は、ペンダント21に設けられるカメラ22を可動式に構成したところにある。前記ペンダント21は、やはりオペレータMが手持ち操作可能な薄型矩形状のケースの正面部(上面部)に、操作部としてのタッチパネル14が設けられている。そして、ペンダント21(ケース)の背面側上部には、前方を撮影可能なカメラ22(カメラユニット)が、位置調整可能、即ち横方向(左右水平方向)に延びる軸oを中心に回動変位可能(角度調整可能)に取付けられている。
これによれば、ペンダント21に対する、カメラ22の光軸Lの上下方向に関する方向(撮影角度)を変更することができる。言い換えれば、図7(a),(b),(c)に3通りを代表させて示しているように、カメラ22の光軸Lをロボット本体2に向けたときの、オペレータM(の顔)に対してタッチパネル14が向く角度を、オペレータMにとって操作しやすい(見やすい)ものに自在に変更することができる。従って、この構成によれば、オペレータM毎の持ち方の癖などにも対応でき、より操作しやすい(カメラ22によるロボット本体2の撮影がしやすい)ものとすることができる。
尚、上記各実施例では、ペンダントの操作により、ロボット本体をX−Y平面に沿って移動させる場合に関して、移動方向に関する対応をとるように構成したが、本発明は、それに限らず、他の平面(例えばX−Z平面)に沿ってロボット本体(手先)をマニュアル動作させる場合等にも適用することができる。この場合、組立作業に限らず、溶接や塗装、検査など各種の作業を行うロボットシステムに本発明を適用することができる。ペンダントとロボットコントローラとの接続を、電波や光などの無線通信により行うようにしても良い。
また、上記各実施例では、ペンダントのタッチパネル14をオペレータがドラッグ操作することにより、移動方向を指示するようにしたが、操作部として、タッチパネル上に8方向(或いは4方向)のカーソルキーを設定するようにし、それらカーソルキーの操作によって移動方向を指示するようにしても良い。タッチパネルに代えて、メカスイッチや、ジョイスティックなどを採用するようにしても良い。ロボット座標系(原点、X軸、Y軸、Z軸)の設定の仕方としても、一例を示したに過ぎず、変更が可能であることは勿論である。その他、ロボット本体の構成や、ペンダントの形状や構造などについても種々の変形が可能であるなど、本発明は要旨を逸脱しない範囲内で適宜変更して実施し得るものである。
図面中、1はロボットシステム、2はロボット本体、3はロボットコントローラ(動作制御手段、画像取込手段、3次元画像モデル作成手段、ズレ量設定手段、同期手段、補正手段、禁止手段)、4,21はペンダント、5はベース、13は作業台、14はタッチパネル、16は方位インジケータ、17,22はカメラ、Mはオペレータを示す。

Claims (3)

  1. 固有のロボット座標系に基づいて動作するロボット本体と、オペレータによる手持ち操作が可能なペンダントと、前記ペンダントの操作に基づく前記ロボット本体のマニュアル動作を制御する動作制御手段とを備えるロボットシステムであって、
    前記ペンダントには、オペレータ側を向く正面部に前記ロボット本体の移動方向の指示操作を行うための操作部が設けられていると共に、それとは反対の背面側に前方を撮影可能なカメラが設けられており、
    前記動作制御手段は、
    前記ロボット本体のマニュアル動作時において、前記ペンダントのカメラにより該ロボット本体の撮影画像を取込む画像取込手段と、
    前記ロボット本体の現在の位置姿勢情報から、該ロボット本体の3次元画像モデルを作成する3次元画像モデル作成手段と、
    前記動作制御手段が保有する基準となるロボット座標系を基準にした3次元画像モデルを作り、それを前記カメラによる撮影画像と最も類似性が高くなるまで視点変更して動かし、探し出された最も類似性の高い視点をペンダント視点とし、前記基準となったロボット座標系と前記ペンダント視点におけるペンダントの上下左右軸系との差をズレ量と設定するズレ量設定手段と、
    前記ペンダントの操作部の操作軸の入力方向及び入力量を、前記ズレ量に応じて前記ロボット座標系での入力方向及び入力量に変換することで前記ロボット本体の移動方向に同期させる同期手段とを備えることを特徴とするロボットシステム。
  2. 前記ペンダントには、自分の位置又は姿勢の変化を検出するジャイロセンサが設けられ、
    前記動作制御手段は、前記ジャイロセンサにより検出された前記ペンダントの位置又は姿勢の変化量に応じて、前記設定されたズレ量を補正する補正手段を備えることを特徴とする請求項1記載のロボットシステム。
  3. 前記動作制御手段は、前記カメラの撮影視野から前記ロボット本体が外れた場合には、該ロボット本体のマニュアル動作を禁止する禁止手段を備えることを特徴とする請求項1記載のロボットシステム。
JP2010055815A 2010-03-12 2010-03-12 ロボットシステム Active JP5526881B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010055815A JP5526881B2 (ja) 2010-03-12 2010-03-12 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010055815A JP5526881B2 (ja) 2010-03-12 2010-03-12 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2011189431A true JP2011189431A (ja) 2011-09-29
JP5526881B2 JP5526881B2 (ja) 2014-06-18

Family

ID=44794896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010055815A Active JP5526881B2 (ja) 2010-03-12 2010-03-12 ロボットシステム

Country Status (1)

Country Link
JP (1) JP5526881B2 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014184494A (ja) * 2013-03-21 2014-10-02 Tsubakimoto Chain Co マニピュレータ装置
CN104416572A (zh) * 2013-08-26 2015-03-18 郑西涛 基于工业机械手的3d打印机器人
DE102014103738B3 (de) * 2014-02-25 2015-07-16 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Visuelle fehlersuche bei roboteraufgaben
JP2015182142A (ja) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
JP2016068236A (ja) * 2014-10-01 2016-05-09 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
CN105729466A (zh) * 2014-12-25 2016-07-06 发那科株式会社 机器人识别系统
JP2016157400A (ja) * 2015-02-26 2016-09-01 ファナック株式会社 タッチパネルで工作機械の軸制御を行う数値制御装置
KR101784419B1 (ko) * 2015-07-23 2017-11-06 연세대학교 산학협력단 사용자 시점 원격 디바이스 제어 장치 및 그 방법
KR20180017074A (ko) * 2015-05-29 2018-02-20 쿠카 로보테르 게엠베하 카메라를 이용한 로봇 축각도들의 검출 및 로봇의 선택
WO2018051435A1 (ja) * 2016-09-14 2018-03-22 三菱電機株式会社 数値制御装置
CN108356796A (zh) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 一种可适配多种工业机器人的示教系统
CN108356817A (zh) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 一种基于3d模型的示教方法
CN109834709A (zh) * 2017-11-24 2019-06-04 发那科株式会社 设定微动坐标系的机器人控制装置
JP2019093536A (ja) * 2017-11-28 2019-06-20 ファナック株式会社 ロボット教示システム、制御装置およびハンドガイドユニット
JP2019198925A (ja) * 2018-05-16 2019-11-21 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
JP2019198926A (ja) * 2018-05-16 2019-11-21 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
WO2020067257A1 (ja) * 2018-09-28 2020-04-02 日本電産株式会社 制御装置
JP2020203368A (ja) * 2019-06-19 2020-12-24 日本電産株式会社 ロボットシステム
CN114281235A (zh) * 2021-12-22 2022-04-05 徐工汉云技术股份有限公司 一种基于3d模型的泵车姿态展示与控制方法
DE102012110508B4 (de) 2011-11-04 2022-05-12 Fanuc Robotics America Corp. Roboter Einstellvorrichtung mit 3-D Display
WO2022118471A1 (ja) * 2020-12-04 2022-06-09 株式会社Fuji ロボット操作装置およびロボット操作方法並びにロボットシステム
WO2022230854A1 (ja) * 2021-04-28 2022-11-03 Telexistence株式会社 データ処理装置、データ処理方法及びデータ処理システム
WO2023248439A1 (ja) * 2022-06-23 2023-12-28 ファナック株式会社 ロボットシステム、ロボット制御装置およびロボット制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998003314A1 (fr) * 1996-07-24 1998-01-29 Fanuc Ltd Procede de commande de deplacement graduel de robots
JPH1177568A (ja) * 1997-09-02 1999-03-23 Nippon Telegr & Teleph Corp <Ntt> 教示支援方法及び装置
JP2004009209A (ja) * 2002-06-06 2004-01-15 Yaskawa Electric Corp ロボットの教示装置
JP2009119579A (ja) * 2007-11-16 2009-06-04 Canon Inc 情報処理装置、情報処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998003314A1 (fr) * 1996-07-24 1998-01-29 Fanuc Ltd Procede de commande de deplacement graduel de robots
JPH1177568A (ja) * 1997-09-02 1999-03-23 Nippon Telegr & Teleph Corp <Ntt> 教示支援方法及び装置
JP2004009209A (ja) * 2002-06-06 2004-01-15 Yaskawa Electric Corp ロボットの教示装置
JP2009119579A (ja) * 2007-11-16 2009-06-04 Canon Inc 情報処理装置、情報処理方法

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012110508B4 (de) 2011-11-04 2022-05-12 Fanuc Robotics America Corp. Roboter Einstellvorrichtung mit 3-D Display
JP2014184494A (ja) * 2013-03-21 2014-10-02 Tsubakimoto Chain Co マニピュレータ装置
CN104416572A (zh) * 2013-08-26 2015-03-18 郑西涛 基于工业机械手的3d打印机器人
DE102014103738B3 (de) * 2014-02-25 2015-07-16 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Visuelle fehlersuche bei roboteraufgaben
US9387589B2 (en) 2014-02-25 2016-07-12 GM Global Technology Operations LLC Visual debugging of robotic tasks
JP2015182142A (ja) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
JP2016068236A (ja) * 2014-10-01 2016-05-09 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US10052765B2 (en) 2014-12-08 2018-08-21 Fanuc Corporation Robot system having augmented reality-compatible display
CN105729466B (zh) * 2014-12-25 2017-08-08 发那科株式会社 机器人识别系统
US9905016B2 (en) 2014-12-25 2018-02-27 Fanuc Corporation Robot identification system
DE102015016530B4 (de) 2014-12-25 2018-05-09 Fanuc Corporation Roboter-Identifizierungssystem
JP2016120585A (ja) * 2014-12-25 2016-07-07 ファナック株式会社 ロボット識別システム
CN105729466A (zh) * 2014-12-25 2016-07-06 发那科株式会社 机器人识别系统
JP2016157400A (ja) * 2015-02-26 2016-09-01 ファナック株式会社 タッチパネルで工作機械の軸制御を行う数値制御装置
KR20180017074A (ko) * 2015-05-29 2018-02-20 쿠카 로보테르 게엠베하 카메라를 이용한 로봇 축각도들의 검출 및 로봇의 선택
US10007837B2 (en) 2015-05-29 2018-06-26 Kuka Roboter Gmbh Determining the robot axis angle and selection of a robot with the aid of a camera
KR102400416B1 (ko) * 2015-05-29 2022-05-19 쿠카 도이칠란트 게엠베하 카메라를 이용한 로봇 축각도들의 검출 및 로봇의 선택
KR101784419B1 (ko) * 2015-07-23 2017-11-06 연세대학교 산학협력단 사용자 시점 원격 디바이스 제어 장치 및 그 방법
WO2018051435A1 (ja) * 2016-09-14 2018-03-22 三菱電機株式会社 数値制御装置
JP2019093494A (ja) * 2017-11-24 2019-06-20 ファナック株式会社 ジョグ座標系を設定するロボットの制御装置
DE102018009025B4 (de) 2017-11-24 2023-10-12 Fanuc Corporation Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
CN109834709A (zh) * 2017-11-24 2019-06-04 发那科株式会社 设定微动坐标系的机器人控制装置
CN109834709B (zh) * 2017-11-24 2021-04-16 发那科株式会社 设定微动坐标系的机器人控制装置
US10807240B2 (en) 2017-11-24 2020-10-20 Fanuc Corporation Robot control device for setting jog coordinate system
US11034022B2 (en) 2017-11-28 2021-06-15 Fanuc Corporation Robot teaching system, controller and hand guide unit
JP2019093536A (ja) * 2017-11-28 2019-06-20 ファナック株式会社 ロボット教示システム、制御装置およびハンドガイドユニット
CN108356796A (zh) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 一种可适配多种工业机器人的示教系统
CN108356817A (zh) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 一种基于3d模型的示教方法
CN110497382A (zh) * 2018-05-16 2019-11-26 株式会社安川电机 操作设备、控制系统、控制方法及存储介质
CN110497381A (zh) * 2018-05-16 2019-11-26 株式会社安川电机 操作设备、控制系统、控制方法及存储介质
US11426868B2 (en) 2018-05-16 2022-08-30 Kabushiki Kaisha Yaskawa Denki Operation device, control system, control method, and non-transitory computer-readable storage medium
US11173600B2 (en) 2018-05-16 2021-11-16 Kabushiki Kaisha Yaskawa Denki Operation device, control system, control method, and non-transitory computer-readable storage medium
JP7017469B2 (ja) 2018-05-16 2022-02-08 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
CN110497382B (zh) * 2018-05-16 2022-11-15 株式会社安川电机 操作设备、控制系统、控制方法及存储介质
JP2019198926A (ja) * 2018-05-16 2019-11-21 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
JP2019198925A (ja) * 2018-05-16 2019-11-21 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
CN110497381B (zh) * 2018-05-16 2022-11-11 株式会社安川电机 操作设备、控制系统、控制方法及存储介质
WO2020067257A1 (ja) * 2018-09-28 2020-04-02 日本電産株式会社 制御装置
JP2020203368A (ja) * 2019-06-19 2020-12-24 日本電産株式会社 ロボットシステム
WO2022118471A1 (ja) * 2020-12-04 2022-06-09 株式会社Fuji ロボット操作装置およびロボット操作方法並びにロボットシステム
WO2022230854A1 (ja) * 2021-04-28 2022-11-03 Telexistence株式会社 データ処理装置、データ処理方法及びデータ処理システム
CN114281235A (zh) * 2021-12-22 2022-04-05 徐工汉云技术股份有限公司 一种基于3d模型的泵车姿态展示与控制方法
CN114281235B (zh) * 2021-12-22 2024-05-17 徐工汉云技术股份有限公司 一种基于3d模型的泵车姿态展示与控制方法
WO2023248439A1 (ja) * 2022-06-23 2023-12-28 ファナック株式会社 ロボットシステム、ロボット制御装置およびロボット制御プログラム

Also Published As

Publication number Publication date
JP5526881B2 (ja) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5526881B2 (ja) ロボットシステム
CN113056351B (zh) 外部输入设备、机器人系统、其控制方法及记录介质
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
US11173601B2 (en) Teaching device for performing robot teaching operations and teaching method
EP1629366B1 (en) Single camera system for gesture-based input and target indication
JP6883392B2 (ja) ロボットシステム
JP2014065100A (ja) ロボットシステム、及びロボットのティーチング方法
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
CN111941392A (zh) 机器人操作装置、机器人及机器人操作方法
JP2016175132A (ja) ロボット操作装置、ロボット操作方法
JP6625266B1 (ja) ロボット制御装置
JP2008093814A (ja) 作業支援装置および方法
CN116921951A (zh) 一种基于三维视觉的焊接机器人的控制方法
JP2016078142A (ja) ロボット装置の制御方法、およびロボット装置
JPH1177568A (ja) 教示支援方法及び装置
JP6939003B2 (ja) ロボットシステム
JP2020157394A (ja) ロボット装置
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
US20230098696A1 (en) Work Program Production System and Work Program Production Method
JP7509534B2 (ja) 画像処理装置、ロボットシステム、及び画像処理方法
JP7195476B1 (ja) 作業プログラム作成システム及び作業プログラム作成方法
WO2021131862A1 (ja) 情報処理装置、方法及びプログラム
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
WO2024047808A1 (ja) ロボット座標系に搬送装置座標系を設定する装置、及び方法
WO2023170764A1 (ja) ロボットの探索プログラムの生成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140331

R150 Certificate of patent or registration of utility model

Ref document number: 5526881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250