JP2022163836A - ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム - Google Patents
ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム Download PDFInfo
- Publication number
- JP2022163836A JP2022163836A JP2021068907A JP2021068907A JP2022163836A JP 2022163836 A JP2022163836 A JP 2022163836A JP 2021068907 A JP2021068907 A JP 2021068907A JP 2021068907 A JP2021068907 A JP 2021068907A JP 2022163836 A JP2022163836 A JP 2022163836A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- teaching
- hand
- orientation
- base
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 95
- 238000004590 computer program Methods 0.000 title claims description 11
- 230000008569 process Effects 0.000 claims description 46
- 230000002093 peripheral effect Effects 0.000 claims description 27
- 238000003384 imaging method Methods 0.000 claims description 26
- 230000003190 augmentative effect Effects 0.000 claims description 13
- 230000008030 elimination Effects 0.000 claims description 2
- 238000003379 elimination reaction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 230000036544 posture Effects 0.000 description 15
- 239000011521 glass Substances 0.000 description 14
- 230000008859 change Effects 0.000 description 12
- 239000012636 effector Substances 0.000 description 11
- 238000001514 detection method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39451—Augmented reality for robot programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
【課題】実際にロボットを設置して動作させることなく、ロボットの教示を行うことのできる技術を提供する。【解決手段】ロボット画像の表示方法は、(a)教示用基台部の基台部画像からロボットの基台の位置及び姿勢を認識する工程と、(b)教示用手先部の手先部画像からロボットの手先部の位置及び姿勢を認識する工程と、(c)基台の位置及び姿勢と、手先部の位置及び姿勢から、ロボットが有する関節の角度を算出する工程と、(d)前記工程(c)で算出された前記関節の前記角度で表される前記ロボットの3次元画像を仮想空間に表示する工程と、を含む。【選択図】図4
Description
本開示は、ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システムに関する。
特許文献1には、エンドエフェクターやロボット周辺装置が無くても、それらが在るものと見なしてロボット教示作業を実施できるロボットシステムが開示されている。このシステムでは、ロボットのエンドエフェクター又はロボット周辺装置の仮想画像を、カメラにより撮影されたロボットの実画像に重畳して表示する。
しかしながら、従来技術では、ロボットの教示を行うために、ロボットを実際に設置してロボットアームを実際に動作させる必要があるという問題があった。
本開示の第1形態によれば、ロボット画像の表示方法が提供される。この表示方法は、(a)ロボットの基台の位置及び姿勢を教示するための教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する工程と、(b)前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する工程と、(c)前記工程(a)で認識された前記基台の位置及び姿勢と、前記工程(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する工程と、(d)前記工程(c)で算出された前記関節の前記角度で表される前記ロボットの3次元画像を仮想空間に表示する工程と、を含む。
本開示の第2の形態によれば、ロボット画像の表示処理を行うためのコンピュータープログラムが提供される。このコンピュータープログラムは、(a)ロボットの基台の位置及び姿勢を教示するための教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する処理と、(b)前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する処理と、(c)前記処理(a)で認識された前記基台の位置及び姿勢と、前記処理(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する処理と、(d)前記処理(c)で算出された前記関節の角度で表される前記ロボットの3次元画像を仮想空間に表示する処理と、をプロセッサーに実行させる。
本開示の第3の形態によれば、ロボット画像の表示システムが提供される。この表示システムは、ロボットの基台の位置及び姿勢を教示するための教示用基台部と、前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部と、前記教示用基台部と前記教示用手先部を撮影するための撮影部と、前記撮影部に接続された制御部と、を備える。前記制御部は、(a)前記撮影部を用いて前記教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する処理と、(b)前記撮影部を用いて前記教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する処理と、(c)前記処理(a)で認識された前記基台の位置及び姿勢と、前記処理(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する処理と、(d)前記処理(c)で算出された前記関節の角度で表される前記ロボットの3次元画像を仮想空間に表示する処理と、を実行する。
図1は、実施形態におけるロボットの教示システムを示す説明図である。この教示システムは、教示用基台部110と、教示用手先部130と、撮像部200と、制御装置300と、AR(Augmented Reality)グラス400と、を備える。この例では、教示用基台部110は、テーブル500上に設置されている。また、教示用手先部130は、作業者PSの手PHで保持されており、ARグラス400は作業者PSの頭部に装着されている。なお、図示の便宜上、作業者PSは破線で描かれている。教示用手先部130と、撮像部200と、ARグラス400は、有線又は無線で制御装置300に接続されている。制御装置300は、本開示における「制御部」に相当する。
教示用基台部110は、ロボットの基台の位置及び姿勢を教示するための部材である。教示用基台部110には、教示用基台部110の予め定められた基準点を原点とする基台部座標系Σr1が設定されている。教示用手先部130は、ロボットの手先部の位置及び姿勢を教示するための部材である。教示用手先部130には、制御点TCP(Tool Center Point)が設定されている。教示用手先部130には、予め定められた基準点を原点とする手先部座標系Σt1が設定されている。この例では、手先部座標系Σt1の原点は、制御点TCPである。この教示システムは、ロボットの実機を用いることなく、教示用基台部110と教示用手先部130を用いてロボットの動きを教示する点に1つの特徴がある。より具体的には、まず、教示用基台部110と教示用手先部130の位置を設定した後に、それらの画像を撮像部200で撮影し、それらの画像を用いてロボットの基台と手先部の位置及び姿勢を認識して、ロボットの各関節の角度を演算する。この処理の詳しい内容については後述する。
撮像部200は、教示用基台部110と教示用手先部130の画像を撮影する。撮像部200としては、ステレオカメラや、Lidar(Laser Imaging Detection and Ranging)などの光学測距装置、及び、単眼カメラなどを使用することが可能である。光学測距装置を用いる場合には、光学測距装置と共に単眼カメラを用いることが好ましい。こうすれば、光学測距装置で得られた距離画像と、単眼カメラで撮影された2次元画像から、2次元画像内の各位置における距離を正確に求めることができるという利点がある。撮像部200には、撮像部200の予め定められた基準点を原点とするカメラ座標系Σcが設定されている。なお、図1に示すように、撮像部200はテーブル500の上に配置されているが、この他にもARグラス400の上部に取り付けられていてもよい。
図2は、教示用基台部110及び教示用手先部130と実機のロボット600とを比較して示す説明図である。ロボット600は、基台610とロボットアーム620とを備えており、ロボットアーム620の先端に手先部630を有している。手先部630は、エンドエフェクターを含んでいても良く、あるいは、ハンドなどのエンドエフェクターを含まずエンドエフェクターを取り付けるためのツールフランジが設けられている部分としてもよい。エンドエフェクターは、「ツール」と呼ばれることがある。本実施形態において、ロボットアーム620は、複数の関節J1~J6で順次接続されている。ロボット600としては、2以上の関節を有する任意のアーム機構を有するロボットを用いることが可能である。また、本実施形態のロボット600は、垂直多関節ロボットであるが、水平多関節ロボットを使用してもよい。
ロボット600の基台610には、基台610の予め定められた基準点を原点とするロボット座標系Σr0が設定されている。このロボット座標系Σr0は、教示用基台部110に設定されている基台部座標系Σr1に対応づけられる。手先部630には、制御点TCP(Tool Center Point)が設定されている。ロボット600の手先部630には、予め定められた基準点を原点とする手先部座標系Σt0が設定されている。図2の例では、手先部座標系Σt0の原点は制御点TCPである。手先部座標系Σt0は、教示用手先部130に設定されている手先部座標系Σt1に対応付けられる。なお、手先部座標系Σt0は、制御点TCP以外の位置を原点として設定してもよい。例えば、ロボットアーム620の先端にあるツールフランジの基準点を原点として手先部座標系Σt0を設定してもよい。教示用手先部130に設定される手先部座標系Σt1も同様である。
教示用基台部110は、ロボット600の基台610の位置及び姿勢を認識するための部材である。この例では、教示用基台部110は、ロボット600の基台610とほぼ同じ形状を有しているが、任意の形状のものを使用することができる。また、教示用基台部110は、金属製又はプラスチック製のプレートや、紙などの任意の材料を用いて形成することが可能である。
教示用基台部110の表面には、2次元コードで構成される第1マーク112が設置されている。この第1マーク112は、教示用基台部110の画像から、教示用基台部110の位置及び姿勢を認識するために使用される。教示用基台部110の位置及び姿勢は、カメラ座標系Σcにおける基台部座標系Σr1の位置及び姿勢を意味する。例えば、第1マーク112は、カメラ座標系Σcにおける基台部座標系Σr1の位置及び姿勢を表すデータを含む白黒パターンとして構成することが可能である。上述したように、教示用基台部110に設定された基台部座標系Σr1は、ロボット600の基台610に設定されたロボット座標系Σr0に対応している。従って、教示用基台部110の画像から認識された教示用基台部110の位置及び姿勢は、ロボット600の基台610の位置及び姿勢と同じものであると見なすことができる。なお、一般に、位置は3つの座標値で表現され、姿勢は3×3の回転行列や四元数などで表現される。また、位置及び姿勢は、4×4の同次変換行列によって表すことも可能である。
第1マーク112としては、2次元コードに限らず、例えば、凸部、凹部、発光部、又は、印刷パターンを使用することができる。こうすれば、第1マーク112の画像から、教示用基台部110の位置及び姿勢を容易に認識できる。また、第1マーク112は、教示用基台部110の複数の面に設けることが好ましい。但し、教示用基台部110の形状自体からその位置及び姿勢を認識できる場合には、第1マーク112は省略可能である。この場合には、教示用基台部110の形状として、対称性のない形状を採用することが好ましい。なお、教示用基台部110として、実機のロボット600の基台610を用いても良い。
教示用手先部130は、ロボット600の手先部630の位置及び姿勢を認識するための部材である。この例では、教示用手先部130は、ロボット600の手先部630と類似した形状を有しているが、任意の形状のものを使用することができる。また、教示用手先部130は、金属製又はプラスチック製のプレートや、紙などの任意の材料を用いて形成することが可能である。
教示用手先部130の表面には、2次元マークで構成される第2マーク132が設置されている。この第2マーク132は、教示用手先部130の画像から、教示用手先部130の位置及び姿勢を認識するために使用される。教示用手先部130の位置及び姿勢は、カメラ座標系Σcにおける手先部座標系Σt1の位置及び姿勢を意味する。例えば、第2マーク132は、カメラ座標系Σcにおける手先部座標系Σt1の位置及び姿勢を表すデータを含む白黒パターンとして構成することが可能である。上述したように、教示用手先部130に設定された手先部座標系Σt1は、ロボット600の手先部630に設定された手先部座標系Σt0に対応している。従って、教示用手先部130の画像から認識された教示用手先部130の位置及び姿勢は、ロボット600の手先部630の位置及び姿勢と同じものと見なすことができる。
第2マーク132としては、2次元コードに限らず、例えば、凸部、凹部、発光部、又は、印刷パターンを使用することができる。こうすれば、第2マーク132の画像から、教示用手先部130の位置及び姿勢を容易に認識できる。また、第2マーク132は、教示用手先部130の複数の面に設けることが好ましい。但し、教示用手先部130の形状自体からその位置及び姿勢を認識できる場合には、第2マーク132は省略可能である。この場合には、教示用手先部130の形状として、対称性のない形状を採用することが好ましい。なお、教示用手先部130として、実機のロボット600の手先部630を用いても良い。
教示用手先部130は、更に、ボタン134と力検出部136とを有している。本実施形態では、ボタン134は、Aボタン134aとBボタン134bの2つのボタンを含んでいる。これらのボタン134は、教示点や経路を設定したり、ロボットの機種を変更したり、ロボットの関節角度を変更したりする際に使用することができる。例えば、教示点を設定する場合に、ボタン134のうちの1つを押すと、その時点における教示用手先部130の位置及び姿勢が、教示点として登録される。また、経路を設定する場合には、ボタン134のうちの1つを押しながら教示用手先部130を移動させると、その経路が登録される。関節角度の変更については後述する。教示用手先部130には、1つ以上のボタンを設けることが好ましいが、ボタン134を省略しても良い。この場合には、作業者の手指の動きなどのジェスチャーを利用して作業者の指示を制御装置300に与えるようにしてもよい。この場合には、作業者のジェスチャーをARグラス400や撮像部200で撮影し、その動きに応じて作業者の指示を制御装置300で認識することが可能である。
力検出部136は、教示用手先部130に掛かる外力を計測するセンサーである。力検出部136としては、例えば、6軸の力覚センサーを使用することができる。力検出部136は省略してもよい。
なお、教示用手先部130には、教示状態を表示する表示部や、イネーブル信号を発生させるためのスイッチ、教示用手先部130の位置及び姿勢の認識精度を向上させるためのジャイロスコープ等のセンサーなどの他の部品を設けるようにしてもよい。また、教示用手先部130として、実機のロボットと同一のハンドを用いても良い。或いは、教示用手先部130として、実機のロボットの手首部をロボットから取り外したものを用いても良い。後者の場合には、教示用手先部130は、エンドエフェクターに相当する部分を有していないものとなる。
図3は、制御装置300の機能を示すブロック図である。制御装置300は、例えばパーソナルコンピューターなどの情報処理装置として実現可能である。制御装置300は、プロセッサー310と、メモリー320と、インターフェイス回路330と、インターフェイス回路330に接続された入力デバイス340及び表示部350と、を有している。インターフェイス回路330には、更に、教示用手先部130と撮像部200とARグラス400が、有線又は無線で接続されている。但し、教示用手先部130にボタン134や力検出部136などの電気部品が設けられていない場合には、教示用手先部130を制御装置300に接続しなくてもよい。
プロセッサー310は、ロボット選択部312と、位置姿勢認識部314と、関節角度算出部316と、制御プログラム作成部318の機能を有する。ロボット選択部312は、ロボット600の複数の機種から教示処理の対象とする1つの機種を選択する際に使用される。位置姿勢認識部314は、教示用基台部110と教示用手先部130を撮像部200で撮影して得られた画像から、ロボット600の基台610の位置及び姿勢と手先部630の位置及び姿勢とを認識する。関節角度算出部316は、位置姿勢認識部314で認識された基台610の位置及び姿勢と手先部630の位置及び姿勢とから、ロボット600が有する各関節の角度を算出する。制御プログラム作成部318は、関節角度算出部316で算出された関節角度を用いて、ロボット600の制御プログラムを作成する。これらの各部312,314,316,318の機能は、メモリー320に格納されたコンピュータープログラムをプロセッサー310が実行することによって実現される。但し、これらの各部の機能の一部又は全部をハードウェア回路で実現してもよい。
メモリー320には、ロボット属性データRDと、周辺物体属性データPDと、ロボット制御プログラムRPが格納される。ロボット属性データRDは、ロボット600の複数の機種に関して、ロボットアーム620の構成や可動範囲などの各種のロボット特性を含んでいる。また、ロボット属性データRDは、ARグラス400を用いてロボット600の3次元画像を拡張現実で表示するために、ロボット600の3次元形状を表す3次元データを含んでいることが好ましい。周辺物体属性データPDは、ロボット600の周辺に存在する周辺物体の3次元形状を表す3次元データを含んでいる。周辺物体としては、例えば、架台や、棚、壁、パーツフィーダーなどを使用可能である。また、周辺物体属性データPDは、ロボット600で取り扱われるワークの形状や重量を表すデータを含んでいいてもよい。ロボット制御プログラムRPは、ロボット600を動作させる複数の命令で構成される。このロボット制御プログラムRPは、後述する教示処理によって作成される。
図4は、図1の状態においてロボット600を拡張現実として表示した様子を示す説明図である。ロボット600の3次元画像は、ARグラス400によって教示用基台部110及び教示用手先部130に重畳表示される。より具体的には、ロボット600の3次元画像は、教示用基台部110を用いて認識された基台610の位置及び姿勢に従って基台610の画像が配置され、また、教示用手先部130を用いて認識された手先部630の位置及び姿勢に従って手先部630の画像が配置されるように表示される。なお、図4の例では、図示の便宜上、ロボット600の基台610と手先部630の表示位置を、教示用基台部110と教示用手先部130の位置からややずれた位置として描いている。なお、教示用手先部130の形状として、エンドエフェクターを有さない手首部の形状を使用する場合には、エンドエフェクターも仮想現実として表示することが好ましい。また、ボタン134の1つを用いて、エンドエフェクターの可動部を仮想空間で動かすことによって、その形態を切り替えることができるように構成されていることが好ましい。なお、「仮想空間」とは、コンピューターが作り出した人工的な環境を意味する。
図5は、教示システムを用いて教示を行う他の例を示す説明図であり、図6は、図5の状態においてロボット600を拡張現実で表示した様子を示す説明図である。これらの例では、教示用手先部130の先端が、ワークWKに押しつけられている。この状態において、作業者がボタン134の1つを押すと、教示用基台部110と教示用手先部130が撮像部200で撮影されるとともに、力検出部136で検出された力が、制御装置300に供給される。こうすれば、教示点を設定する際に、好ましい力を同時に設定することが可能である。この際、教示用手先部130は作業者の手で保持されているので、ニュートン単位の数値で力を入力する場合に比べて、好ましい力の大きさをより容易に設定することが可能である。このような好ましい力の設定は、例えば、ワークWKがボタンを有しており、ロボット600を用いてワークWKのボタンを押す検査を実行する場合に行われる。或いは、手先部630に研磨部材を設けて、ワークWKを研磨する場合にも、力の設定が行われる。
図7は、一実施形態における教示処理の手順を示すフローチャートである。ステップS10では、ロボット選択部312の機能を用いてロボット600の機種が選択される。
図8は、ロボットの機種の選択画面WS1を示す説明図である。本実施形態において、この選択画面WS1は、ロボット選択部312からARグラス400に供給された画像データに従って、拡張現実として表示される。選択画面WS1には、ロボットの複数の機種が選択肢として配列されている。各機種には、機種名の他に、ロボットの属性として、軸数と、最大リーチと、可搬重量とが示されている。但し、ロボットの属性の一部又は全部を省略してもよい。また、各機種の画像を表示しても良い。作業者は、教示用手先部130に設けられたボタン134を用いて機種を選択することができる。すなわち、Aボタン134aを押すことによって複数の機種のうちの1つを選択し、Bボタン134bを押して決定することが可能である。図8の状態では、機種名が「C1」であるロボットが選択されている。作業者による選択結果は、ロボット選択部312によって受信される。なお、選択画面WS1を用いる代わりに、機種名を作業者が直接指定することよって機種を選択してもよい。
図7のステップS20では、位置姿勢認識部314が、撮像部200を用いて教示用基台部110と教示用手先部130を撮影して、基台部画像と手先部画像を生成する。このステップS20は、教示用手先部130のボタン134の1つ、例えばAボタン134a、を作業者が押すことによって開始される。撮像部200は、教示用基台部110と教示用手先部130を同時に撮影できるように、十分に広い画角を有することが好ましい。なお、基台部画像と手先部画像は同じ画像としてもよい。或いは、撮像部200で撮影された画像のうち、教示用基台部110を含む画像部分を基台部画像として抽出し、教示用手先部130を含む他の画像部分を手先部画像として抽出してもよい。また、基台部画像と手先部画像を別個に撮影してもよい。基台部画像と手先部画像は、一時的にメモリー320に格納される。また、撮像部200の撮影は動画でもよい。教示点の登録ではなく経路を設定したい場合には、ステップS20では、移動する教示用手先部130を動画によって撮影する。
ステップS30では、位置姿勢認識部314が、ステップS20で得られた基台部画像をメモリー320から取得し、基台部画像からロボット600の基台610の位置を認識する。本実施形態では、図2に示したように、教示用基台部110に設けられた第1マーク112の画像から、カメラ座標系Σcにおける基台部座標系Σr1の位置及び姿勢が認識される。この基台部座標系Σr1の位置及び姿勢は、ロボット600の基台610の位置及び姿勢、すなわち、ロボット座標系Σr0の位置及び姿勢と見なすことができる。
ステップS40では、位置姿勢認識部314が、ステップS20で得られた手先部画像をメモリー320から取得し、手先部画像からロボット600の手先部630の位置を認識する。本実施形態では、図2に示したように、教示用手先部130に設けられた第2マーク132の画像から、カメラ座標系Σcにおける手先部座標系Σt1の位置及び姿勢が認識される。この手先部座標系Σt1の位置及び姿勢は、ロボット600の手先部630の位置及び姿勢、すなわち、手先部座標系Σt0の位置及び姿勢と見なすことができる。
ステップS50では、位置姿勢認識部314が、ロボット600の基台610の位置及び姿勢と、手先部630の位置及び姿勢から、手先部630の制御点TCPのロボット座標を算出する。制御点TCPのロボット座標は、ロボット座標系Σr0における手先部座標系Σt0の位置及び姿勢で表される。
ステップS60では、ロボット選択部312が、ロボットの機種の変更を要するか否かを判定する。具体的には、ステップS50で算出された制御点TCPのロボット座標が、現在選択されているロボットの機種における可動範囲内に収まっている場合には、機種の変更が不要と判定される。一方、制御点TCPのロボット座標が可動範囲外にある場合には、機種の変更が必要と判定される。機種の変更が不要の場合には、後述するステップS80に進み、機種の変更が必要な場合にはステップS70に進む。ステップS70では、ロボット選択部312の機能を用いてロボット600の機種が変更される。
図9は、ロボットの機種の選択画面WS1を用いてロボットの機種を変更する様子を示す説明図である。ここでは、複数の機種のうち、「C1」と「D1」は、制御点TCPのロボット座標が可動範囲外にある機種である。これらの機種「C1」,「D1」は、選択できない無効な選択肢であることが作業者に視認できるように表示されている。図9の例では、機種「C1」,「D1」には網掛けが付されており、また、選択用のボックスも選択できない状態となっている。他の機種は、選択し得る有効な選択肢のリストとして提示されている。作業者は、有効な選択肢の中から1つを選択することによって、ロボットの機種を変更することができる。図9の例では、機種「C2」が変更後の機種として選択されている。このように、手先部630の制御点TCPがロボットの可動範囲外である場合に、ロボットの機種を変更することによって、制御点TCPをロボットの可動範囲内に収めることができる。なお、有効な選択肢が複数表示される必要は無いが、1つ以上の有効な選択肢が表示されることが好ましい。また、可動範囲外にあるかどうか判断される制御点TCPは、ステップS50で算出された制御点TCPだけでなくともよい。例えば、ステップS50よりも前に記憶した制御点TCP、つまり、過去の教示処理において記憶した制御点TCPを加えてもよい。この場合、複数の機種のうち、上述の複数の制御点TCPのいずれか1つでも可動範囲外にある機種は、選択できない無効な選択肢であるとして、網掛けを付してもよい。
このように、ステップS70では、ロボットの機種として、ロボット座標系Σr0における制御点TCPの位置がロボットの可動範囲内に収まる1つ以上の機種を作業者に提示し、その1つ以上の機種の中から作業者によって選択された機種を採用する。こうすれば、ロボットの機種を容易に変更できる。なお、選択画面WS1を用いる代わりに、機種名を作業者が直接指定することよって機種を変更してもよい。
ステップS80では、関節角度算出部316が、ロボット座標系Σr0における制御点TCPの位置及び姿勢から、ロボット600の各関節の角度を算出する。この計算は、逆運動学に従って実行される。一般に、逆運動学で計算される各関節の角度の組み合わせとしては、複数の組み合わせが可能である場合が多い。この場合に、ステップS80では、予め定められた規則に従って、複数の組み合わせの中から1つが選択される。
ステップS90では、関節角度算出部316が、関節角度の変更を要するか否かを判定する。本実施形態では、仮想空間において、各関節の角度で表されるロボットアーム620の形状が周辺物体と干渉する可能性のある干渉状態である場合に、関節角度の変更を要すると判定される。周辺物体の外形は、メモリー320に記憶された周辺物体属性データPDに含まれる3次元データによって表される。関節角度算出部316は、周辺物体の3次元データによって表される周辺物体の外形と、ステップS80で算出された関節角度で表されるロボットアーム620の形状との間の距離を算出し、その距離が予め定められた閾値以下の場合には干渉状態にあるものと判定して、関節角度の変更が必要と判定することが可能である。閾値としては、例えば、0以上10cm以下の値が設定される。仮想空間において周辺物体とロボットアーム620の形状とが干渉状態にない場合には、関節角度の変更が不要と判定する。なお、ロボットアーム620の形状が周辺物体と干渉する可能性のある干渉状態である場合に、関節角度算出部316が、干渉状態であることを示すアラートを作業者に通知するようにしてもよい。関節角度の変更が不要の場合には、後述するステップS110に進み、関節角度の変更が必要な場合にはステップS100に進む。ステップS100では、関節角度算出部316の機能を用いてロボット600の関節角度が変更される。
図10は、ロボットの関節角度変更用の画面WS2を示す説明図である。本実施形態において、この画面WS2は、関節角度算出部316からARグラス400に供給された画像データに従って、拡張現実として表示される。この例では、関節角度の組み合わせとして、2つの選択肢が表示されている。角度A1と角度A2は、3つの関節J2,J3,J5の角度の組み合わせが互いに異なるが、手先部630の位置及び姿勢は同一である。角度A1では、ロボットアーム620が周辺物体PBと干渉する可能性があり、角度A2では、ロボットアーム620が周辺物体PBと干渉する可能性がない。そこで、この例では、角度A2が変更後の関節角度の組み合わせとして選択されている。このように、関節角度の組み合わせに関する複数の選択肢の中から1つを選択することによって、関節角度を変更することができる。このような関節角度の変更は、手先部630の位置及び姿勢を維持するように行われる。また、関節角度の変更は、作業者の指示に応じて行われる。この結果、仮想空間においてロボットアーム620が周辺物体PBと干渉する可能性のある干渉状態である場合に、関節角度を変更することによって干渉状態を解消することができる。なお、作業者が選択肢の1つを選択する代わりに、関節角度算出部316が、干渉自体を解消する関節角度の組み合わせを自動的に決定するようにしてもよい。
なお、ステップS90における判定は、関節角度算出部316が自動的に行う必要はなく、この代わりに、作業者によって関節角度の変更を要することが指定された場合に、関節角度の変更を要するものと判定してもよい。すなわち、作業者がロボットアーム620と周辺物体PBの画像を見て、ロボットアーム620と周辺物体PBが干渉状態にあるか否かを判定するようにしてもよい。この場合にも、関節角度の組み合わせの選択は、作業者によって行われることが好ましい。こうすれば、作業者によってロボットアーム620の好ましい状態を自由に選択できる。
ステップS110では、関節角度算出部316が、ロボット600の画像を仮想空間に表示する。本実施形態では、関節角度算出部316からARグラス400に供給された画像データに従って、ロボット600が拡張現実として表示される。例えば、前述した図4や図6のように、ロボット600の3次元画像は、教示用基台部110にロボット600の基台610の画像が重畳して表示され、また、教示用手先部130にロボット600の手先部630の画像が重畳して表示される。
ステップS120では、ステップS110で表示されたロボット600の状態が、教示点として適切か否かが作業者によって判定される。教示点として適切でない場合は、ステップS20に戻り、教示用手先部130の位置を作業者が変更した上で、画像の撮影を再度実行する。一方、教示点として適切な場合には、ステップS130に進む。
ステップS130では、制御プログラム作成部318が、ステップS20で画像が撮影された状態を教示点として登録する。このステップS130は、教示用手先部130のボタン134の1つ、例えばBボタン134b、を作業者が押すことによって開始される。教示点は、メモリー320内のロボット制御プログラムRPに登録される。また、教示点の登録ではなく経路を設定したい場合、すなわち、動画により撮影した場合には、制御プログラム作成部318が、動画から時系列順に複数の静止画を生成し、その静止画の状態を教示点として記録する。制御プログラム作成部318は、このように記録された複数の教示点から、経路を生成する。
ステップS140では、作業者によって、教示処理が終了したか否かが判定される。教示処理が終了していなければ、ステップS20に戻り、教示用手先部130の位置を作業者が変更した上で、画像の撮影を再度実行する。一方、教示処理が終了した場合には、図7の処理を終了する。
なお、図7の処理の後に、ロボット制御プログラムRP用の他の設定項目を設定する処理を、教示処理の一部として実行してもよい。また、教示処理が終了した後に、教示処理によって作成されたロボット制御プログラムRPを用いて、ロボット600の動作を仮想空間で再現するようにしてもよい。例えば、ロボット600を用いてワークを搬送する作業を行う場合に、そのワークの形状及び重量を予めメモリー320に格納しておき、仮想空間においてロボット600がワークを搬送する様子を再現するようにしてもよい。こうすれば、ロボット600を実際に動作させることなく、ワークの搬送作業が適切か否かを作業者が判断できる。また、ステップS100にてロボット600の関節角度が変更された後に、ステップS110にてロボット600の画像を仮想空間に表示しているが、ステップS80の後にロボット600の画像を仮想空間に表示し、その後にロボット600の関節角度を変更する判断を行ってもよい。このような場合には、複数の関節角度について表示および変更を繰り返すように構成してもよい。特に、垂直多関節ロボットのように冗長自由度が高いロボットでは、複数の関節角度の中から最適な関節角度を選ぶことができる。
以上のように、上記実施形態では、教示用基台部110の画像からロボット600の基台610の位置及び姿勢を認識し、教示用手先部130の画像からロボット600の手先部630の位置及び姿勢を認識し、これらの位置及び姿勢を用いて、ロボット600が有する関節の角度を算出し、算出された関節の角度で表されるロボット600の3次元画像を仮想空間に表示する。従って、実際にロボットを設置したり動作させたりすることなく、ロボットアームがどのような状態になるかを作業者が容易に理解でき、ロボットの教示を行うことができる。
なお、上述した実施形態では、ARグラス400を用いてロボット600や周辺物体PBの3次元画像を仮想現実として表示していたが、この代わりに、2次元画像を表示する表示部350を用いて、仮想空間においてロボット600や周辺物体PBの画像を表示してもよい。この場合も、ロボット600の画像が仮想空間において表示される点では、ARグラス400を用いた場合と共通する。但し、ARグラス400を用いてロボット600の3次元画像を拡張現実で表示するようにすれば、作業者がロボット600の姿勢を容易に理解できるという利点がある。
・他の実施形態:
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
(1)本開示の第1の形態によれば、ロボット画像の表示方法が提供される。この表示方法は、(a)ロボットの基台の位置及び姿勢を教示するための教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する工程と、(b)前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する工程と、(c)前記工程(a)で認識された前記基台の位置及び姿勢と、前記工程(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する工程と、(d)前記工程(c)で算出された前記関節の前記角度で表される前記ロボットの3次元画像を仮想空間に表示する工程と、を含む。
この表示方法によれば、実際にロボットを設置したり動作させたりすることなく、ロボットアームがどのような状態になるかを作業者が容易に理解でき、ロボットの教示を行うことができる。
この表示方法によれば、実際にロボットを設置したり動作させたりすることなく、ロボットアームがどのような状態になるかを作業者が容易に理解でき、ロボットの教示を行うことができる。
(2)上記表示方法において、前記工程(c)は、(i)前記工程(a)で認識された前記基台の位置及び姿勢と、前記工程(b)で認識された前記手先部の位置及び姿勢から、前記手先部に設定された制御点の位置をロボット座標系において算出する工程と、(ii)前記ロボット座標系における前記制御点の位置が前記ロボットの可動範囲外である場合に、前記ロボットの機種を変更する工程と、を含むものとしてもよい。
この表示方法によれば、手先部の制御点がロボットの可動範囲外である場合に、ロボットの機種を変更することによって、手先部の制御点をロボットの可動範囲内に収めることができる。
この表示方法によれば、手先部の制御点がロボットの可動範囲外である場合に、ロボットの機種を変更することによって、手先部の制御点をロボットの可動範囲内に収めることができる。
(3)上記表示方法において、前記工程(ii)は、前記ロボットの機種として、前記ロボット座標系における前記制御点の位置が前記ロボットの可動範囲内に収まる1つ以上の機種を作業者に提示する工程と、前記1つ以上の機種の中から前記作業者によって選択された機種を採用する工程と、を含むものとしてもよい。
この表示方法によれば、ロボットの機種を容易に変更できる。
この表示方法によれば、ロボットの機種を容易に変更できる。
(4)上記表示方法において、前記工程(c)は、前記関節の角度の組み合わせとして複数の組み合わせが可能である場合に、前記複数の組み合わせの中から1つを選択して変更する角度変更工程、を含むものとしてもよい。
この表示方法によれば、ロボットアームの状態として好ましいものを選択できる。
この表示方法によれば、ロボットアームの状態として好ましいものを選択できる。
(5)上記表示方法において、前記関節の角度の組み合わせの選択は、作業者によって行われるものとしてもよい。
この表示方法によれば、作業者によってロボットアームの好ましい状態を自由に選択できる。
この表示方法によれば、作業者によってロボットアームの好ましい状態を自由に選択できる。
(6)上記表示方法において、前記角度変更工程は、前記工程(c)で算出された前記関節の角度で表されるロボットアームの形状が周辺物体と干渉する可能性のある干渉状態である場合に、前記手先部の位置及び姿勢を維持しつつ、前記関節の角度の組み合わせを変更することによって前記干渉状態を解消する干渉解消工程、を含むものとしてもよい。
この表示方法によれば、ロボットアームと周辺物体とが干渉する可能性を低減できる。
この表示方法によれば、ロボットアームと周辺物体とが干渉する可能性を低減できる。
(7)上記表示方法において、前記干渉解消工程は、前記周辺物体の3次元データによって表される前記周辺物体と、前記周辺物体の3次元データによって表される前記周辺物体と、前記工程(c)で算出された前記関節の角度で表される前記ロボットアームの形状との間の距離を算出する工程と、前記距離が予め定められた閾値以下の場合に前記干渉状態にあると判定し、前記手先部の位置及び姿勢を維持しつつ前記干渉状態を解消する前記関節の角度の組み合わせを自動的に決定する工程と、
を含むものとしてもよい。
この表示方法によれば、ロボットアームと周辺物体との干渉を自動的に解消できる。
を含むものとしてもよい。
この表示方法によれば、ロボットアームと周辺物体との干渉を自動的に解消できる。
(8)上記表示方法は、更に、前記工程(d)で前記3次元画像を拡張現実として前記教示用基台部及び前記教示用手先部に重畳表示するものとしてもよい。
この表示方法によれば、ロボットアームを拡張現実として表示するので、ロボットアームがどのような状態になるかを作業者が容易に理解できる。
この表示方法によれば、ロボットアームを拡張現実として表示するので、ロボットアームがどのような状態になるかを作業者が容易に理解できる。
(9)上記表示方法において、前記教示用基台部には、前記ロボットの前記基台の位置及び姿勢を認識するために使用される第1マークが設けられており、前記教示用手先部には、前記ロボットの前記手先部の位置及び姿勢を認識するために使用される第2マークが設けられているものとしてもよい。
この表示方法によれば、第1マークと第2マークとを用いて、基台の位置及び姿勢と手先部の位置及び姿勢とを容易に認識できる。
この表示方法によれば、第1マークと第2マークとを用いて、基台の位置及び姿勢と手先部の位置及び姿勢とを容易に認識できる。
(10)上記表示方法において、前記第1マークと前記第2マークのそれぞれは、2次元コード、凸部、凹部、発光部、又は、印刷パターンを含むものとしてもよい。
この表示方法によれば、第1マークと第2マークから、基台の位置及び姿勢と手先部の位置及び姿勢とを容易に認識できる。
この表示方法によれば、第1マークと第2マークから、基台の位置及び姿勢と手先部の位置及び姿勢とを容易に認識できる。
(11)本開示の第2の形態によれば、ロボット画像の表示処理を行うためのコンピュータープログラムが提供される。このコンピュータープログラムは、(a)ロボットの基台の位置及び姿勢を教示するための教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する処理と、(b)前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する処理と、(c)前記処理(a)で認識された前記基台の位置及び姿勢と、前記処理(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する処理と、(d)前記処理(c)で算出された前記関節の角度で表される前記ロボットの3次元画像を仮想空間に表示する処理と、をプロセッサーに実行させる。
このコンピュータープログラムによれば、実際にロボットを設置したり動作させたりすることなく、ロボットアームがどのような状態になるかを作業者が容易に理解でき、ロボットの教示を行うことができる。
このコンピュータープログラムによれば、実際にロボットを設置したり動作させたりすることなく、ロボットアームがどのような状態になるかを作業者が容易に理解でき、ロボットの教示を行うことができる。
(12)本開示の第3の形態によれば、ロボット画像の表示システムが提供される。この教示システムは、ロボットの基台の位置及び姿勢を教示するための教示用基台部と、前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部と、前記教示用基台部と前記教示用手先部を撮影するための撮影部と、前記撮影部に接続された制御部と、を備える。前記制御部は、(a)前記撮影部を用いて前記教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する処理と、(b)前記撮影部を用いて前記教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する処理と、(c)前記処理(a)で認識された前記基台の位置及び姿勢と、前記処理(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する処理と、(d)前記処理(c)で算出された前記関節の角度で表される前記ロボットの3次元画像を仮想空間に表示する処理と、を実行する。
この教示システムによれば、実際にロボットを設置したり動作させたりすることなく、ロボットアームがどのような状態になるかを作業者が容易に理解でき、ロボットの教示を行うことができる。
この教示システムによれば、実際にロボットを設置したり動作させたりすることなく、ロボットアームがどのような状態になるかを作業者が容易に理解でき、ロボットの教示を行うことができる。
本開示は、上記以外の種々の形態で実現することも可能である。例えば、ロボットと制御装置とを備えたロボットシステム、ロボットの制御装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。
110…教示用基台部、112…第1マーク、130…教示用手先部、132…第2マーク、134…ボタン、134a…Aボタン、134b…Bボタン、136…力検出部、200…撮像部、300…制御装置、310…プロセッサー、312…ロボット選択部、314…位置姿勢認識部、316…関節角度算出部、318…制御プログラム作成部、320…メモリー、330…インターフェイス回路、350…表示部、400…ARグラス、500…テーブル、600…ロボット、610…基台、620…ロボットアーム、630…手先部
Claims (12)
- (a)ロボットの基台の位置及び姿勢を教示するための教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する工程と、
(b)前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する工程と、
(c)前記工程(a)で認識された前記基台の位置及び姿勢と、前記工程(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する工程と、
(d)前記工程(c)で算出された前記関節の前記角度で表される前記ロボットの3次元画像を仮想空間に表示する工程と、を含む表示方法。 - 請求項1に記載の表示方法であって、
前記工程(c)は、
(i)前記工程(a)で認識された前記基台の位置及び姿勢と、前記工程(b)で認識された前記手先部の位置及び姿勢から、前記手先部に設定された制御点の位置をロボット座標系において算出する工程と、
(ii)前記ロボット座標系における前記制御点の位置が前記ロボットの可動範囲外である場合に、前記ロボットの機種を変更する工程と、
を含む、表示方法。 - 請求項2に記載の表示方法であって、
前記工程(ii)は、
前記ロボットの機種として、前記ロボット座標系における前記制御点の位置が前記ロボットの可動範囲内に収まる1つ以上の機種を作業者に提示する工程と、
前記1つ以上の機種の中から前記作業者によって選択された機種を採用する工程と、
を含む、表示方法。 - 請求項1~3のいずれか一項に記載の表示方法であって、更に、
前記工程(c)は、
前記関節の角度の組み合わせとして複数の組み合わせが可能である場合に、前記複数の組み合わせの中から1つを選択して変更する角度変更工程、
を含む、表示方法。 - 請求項4に記載の表示方法であって、
前記関節の角度の組み合わせの選択は、作業者によって行われる、表示方法。 - 請求項4に記載の表示方法であって、
前記角度変更工程は、
前記工程(c)で算出された前記関節の角度で表されるロボットアームの形状が周辺物体と干渉する可能性のある干渉状態である場合に、前記手先部の位置及び姿勢を維持しつつ、前記関節の角度の組み合わせを変更することによって前記干渉状態を解消する干渉解消工程、
を含む、表示方法。 - 請求項6に記載の表示方法であって、
前記干渉解消工程は、
前記周辺物体の3次元データによって表される前記周辺物体と、前記工程(c)で算出された前記関節の角度で表される前記ロボットアームの形状との間の距離を算出する工程と、
前記距離が予め定められた閾値以下の場合に前記干渉状態にあると判定し、前記手先部の位置及び姿勢を維持しつつ前記干渉状態を解消する前記関節の角度の組み合わせを自動的に決定する工程と、
を含む、表示方法。 - 請求項1~7のいずれか一項に記載の表示方法であって、更に、
前記工程(d)で前記3次元画像を拡張現実として前記教示用基台部及び前記教示用手先部に重畳表示する、表示方法。 - 請求項1~8のいずれか一項に記載の表示方法であって、
前記教示用基台部には、前記ロボットの前記基台の位置及び姿勢を認識するために使用される第1マークが設けられており、
前記教示用手先部には、前記ロボットの前記手先部の位置及び姿勢を認識するために使用される第2マークが設けられている、
表示方法。 - 請求項9に記載の表示方法であって、
前記第1マークと前記第2マークのそれぞれは、2次元コード、凸部、凹部、発光部、又は、印刷パターンを含む、表示方法。 - (a)ロボットの基台の位置及び姿勢を教示するための教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する処理と、
(b)前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する処理と、
(c)前記処理(a)で認識された前記基台の位置及び姿勢と、前記処理(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する処理と、
(d)前記処理(c)で算出された前記関節の角度で表される前記ロボットの3次元画像を仮想空間に表示する処理と、をプロセッサーに実行させる、コンピュータープログラム。 - ロボットの基台の位置及び姿勢を教示するための教示用基台部と、
前記ロボットの手先部の位置及び姿勢を教示するための教示用手先部と、
前記教示用基台部と前記教示用手先部を撮影するための撮影部と、
前記撮影部に接続された制御部と、
を備え、
前記制御部は、
(a)前記撮影部を用いて前記教示用基台部を撮影することによって作成された基台部画像を取得し、前記基台部画像から前記基台の位置及び姿勢を認識する処理と、
(b)前記撮影部を用いて前記教示用手先部を撮影することによって作成された手先部画像を取得し、前記手先部画像から前記手先部の位置及び姿勢を認識する処理と、
(c)前記処理(a)で認識された前記基台の位置及び姿勢と、前記処理(b)で認識された前記手先部の位置及び姿勢から、前記ロボットが有する関節の角度を算出する処理と、
(d)前記処理(c)で算出された前記関節の角度で表される前記ロボットの3次元画像を仮想空間に表示する処理と、を実行する、表示システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021068907A JP2022163836A (ja) | 2021-04-15 | 2021-04-15 | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム |
CN202210386222.6A CN115213894A (zh) | 2021-04-15 | 2022-04-13 | 机器人图像的显示方法、显示系统以及记录介质 |
US17/720,417 US20220331972A1 (en) | 2021-04-15 | 2022-04-14 | Robot Image Display Method, Recording Medium, And Robot Image Display System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021068907A JP2022163836A (ja) | 2021-04-15 | 2021-04-15 | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022163836A true JP2022163836A (ja) | 2022-10-27 |
Family
ID=83602966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021068907A Pending JP2022163836A (ja) | 2021-04-15 | 2021-04-15 | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220331972A1 (ja) |
JP (1) | JP2022163836A (ja) |
CN (1) | CN115213894A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220388171A1 (en) * | 2021-06-03 | 2022-12-08 | Intrinsic Innovation Llc | Robotic workspace introspection via force feedback |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018167334A (ja) * | 2017-03-29 | 2018-11-01 | セイコーエプソン株式会社 | 教示装置および教示方法 |
-
2021
- 2021-04-15 JP JP2021068907A patent/JP2022163836A/ja active Pending
-
2022
- 2022-04-13 CN CN202210386222.6A patent/CN115213894A/zh active Pending
- 2022-04-14 US US17/720,417 patent/US20220331972A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220331972A1 (en) | 2022-10-20 |
CN115213894A (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110977931B (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
CN110394780B (zh) | 机器人的仿真装置 | |
US10786906B2 (en) | Robot system | |
US7353081B2 (en) | Method and a system for programming an industrial robot | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
JP6892286B2 (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
JP2009214212A (ja) | 動作教示システム及び動作教示方法 | |
US20180345490A1 (en) | Robot system displaying information for teaching robot | |
US20030184602A1 (en) | Information processing method and apparatus | |
JP2017170571A (ja) | ロボット、ロボット制御装置、及びロボットシステム | |
JP6885856B2 (ja) | ロボットシステムおよびキャリブレーション方法 | |
JP2022163836A (ja) | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム | |
JP7439410B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP7190552B1 (ja) | ロボット教示システム | |
WO2022176928A1 (ja) | 教示装置 | |
CN113597362A (zh) | 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置 | |
JP7249221B2 (ja) | センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法 | |
JP2021058979A (ja) | ロボットアーム試験装置 | |
US20220226982A1 (en) | Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium | |
JPH1177568A (ja) | 教示支援方法及び装置 | |
JP7483455B2 (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
WO2022172471A1 (ja) | 支援システム、画像処理装置、支援方法およびプログラム | |
WO2022181500A1 (ja) | 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置 | |
US20230154162A1 (en) | Method For Generating Training Data Used To Learn Machine Learning Model, System, And Non-Transitory Computer-Readable Storage Medium Storing Computer Program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210915 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240315 |