JP2016013590A - 教示装置、及びロボットシステム - Google Patents
教示装置、及びロボットシステム Download PDFInfo
- Publication number
- JP2016013590A JP2016013590A JP2014136316A JP2014136316A JP2016013590A JP 2016013590 A JP2016013590 A JP 2016013590A JP 2014136316 A JP2014136316 A JP 2014136316A JP 2014136316 A JP2014136316 A JP 2014136316A JP 2016013590 A JP2016013590 A JP 2016013590A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- teaching
- robot
- workpiece
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
【課題】ユーザーの教示に係る負担を軽減することができる教示装置を提供すること。【解決手段】教示装置は、ワークを移動させるロボットの教示装置であって、ワークの姿勢を設定するための画面を表示する表示部と、画面を操作する操作部と、ワークの姿勢を検出する検出部と、を含み、画面は、撮像装置の撮像範囲内に載置されたワークを表示するための第1画面と、ロボットに、撮像装置の撮像範囲内に載置されたワークを把持させるための第2画面と、を含み、検出部は、ロボットがワークを把持した結果を用いて、ワークの姿勢を検出する。【選択図】図4
Description
この発明は、教示装置、及びロボットシステムに関する。
従来から、ロボットによりピックアップされた作業対象を所定の位置及び姿勢に整列させるロボットシステムが研究・開発されている。
このようなロボットシステムでは、所定の位置及び姿勢に作業対象を正しく整列させるために、ピックアップされた作業対象の位置及び姿勢を検出する必要がある。
これに関連し、ピックアップされた作業対象を撮像し、その撮像した撮像画像を用いてピックアップされた作業対象の位置及び姿勢を検出する方法が知られている(特許文献1参照)。
このような方法では、ロボットに所定の位置及び姿勢に作業対象を正しく整列させるためには、ピクセル座標系における作業対象の姿勢と、ピクセル座標系とロボット座標系との関係性(座標変換行列)を取得する必要がある。
ピクセル座標系とロボット座標系との関係性は、撮像部とロボットとのキャリブレーションを行うことによって、取得することができる。一方、ピクセル座標系における作業対象の姿勢は、従来、ユーザーがプログラムを組むことによって取得していた。
しかしながら、このようなプログラムの作成は、ユーザーにとって大きな負担となっていた。
しかしながら、このようなプログラムの作成は、ユーザーにとって大きな負担となっていた。
そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、ユーザーの教示に係る負担を軽減することができる教示装置、及びロボットシステムを提供する。
本発明の一態様は、ワークを移動させるロボットの教示装置であって、前記ワークの姿勢を設定するための画面を表示する表示部と、前記画面を操作する操作部と、前記ワークの姿勢を検出する検出部と、を含み、前記画面は、撮像装置の撮像範囲内に載置された前記ワークを表示するための第1画面と、前記ロボットに、前記撮像装置の撮像範囲内に載置された前記ワークを把持させるための第2画面と、を含み、前記検出部は、前記ロボットが前記ワークを把持した結果を用いて、前記ワークの姿勢を検出する、教示装置である。
この構成により、教示装置は、撮像装置の撮像範囲内に載置されたワークを表示するための第1画面と、ロボットに、撮像装置の撮像範囲内に載置されたワークを把持させるための第2画面と、を表示し、ロボットがワークを把持した結果を用いて、ワークの姿勢を検出する。これにより、教示装置は、ユーザーの教示に係る負担を軽減することができる。
この構成により、教示装置は、撮像装置の撮像範囲内に載置されたワークを表示するための第1画面と、ロボットに、撮像装置の撮像範囲内に載置されたワークを把持させるための第2画面と、を表示し、ロボットがワークを把持した結果を用いて、ワークの姿勢を検出する。これにより、教示装置は、ユーザーの教示に係る負担を軽減することができる。
また、本発明の他の態様は、教示装置において、前記検出部は、前記第1画面に表示された前記撮像装置の前記撮像範囲内に載置された前記ワークに基づいて前記撮像範囲に対する前記ワークの姿勢を前記ワークの基準姿勢として検出する、構成が用いられてもよい。
この構成により、教示装置は、第1画面に表示された撮像装置の撮像範囲内に載置されたワークに基づいて撮像範囲に対するワークの姿勢をワークの基準姿勢として検出する。これにより、教示装置は、検出したワークの基準姿勢を教示することができる。
この構成により、教示装置は、第1画面に表示された撮像装置の撮像範囲内に載置されたワークに基づいて撮像範囲に対するワークの姿勢をワークの基準姿勢として検出する。これにより、教示装置は、検出したワークの基準姿勢を教示することができる。
また、本発明の他の態様は、教示装置において、前記検出部により検出された前記ワークの前記基準姿勢と、前記ロボットが前記ワークを把持した結果とを用いて、前記撮像範囲内に載置された他のワークの姿勢を演算する演算部を備える、構成が用いられてもよい。
この構成により、教示装置は、検出部により検出されたワークの基準姿勢と、ロボットがワークを把持した結果とを用いて、撮像範囲内に新たに載置されたワークの姿勢を演算する。これにより、教示装置は、ワークの基準姿勢と、ロボットがワークを把持した結果とを用いて演算されたワークの姿勢に基づいて、ワークに対して所定の作業を行うことができる。
この構成により、教示装置は、検出部により検出されたワークの基準姿勢と、ロボットがワークを把持した結果とを用いて、撮像範囲内に新たに載置されたワークの姿勢を演算する。これにより、教示装置は、ワークの基準姿勢と、ロボットがワークを把持した結果とを用いて演算されたワークの姿勢に基づいて、ワークに対して所定の作業を行うことができる。
また、本発明の他の態様は、教示装置において、前記第2画面は、前記撮像装置により撮像された撮像画像が表示される領域を有する、構成が用いられてもよい。
この構成により、教示装置は、第2画面に、撮像装置により撮像された撮像画像を表示する。これにより、教示装置は、ユーザーに撮像画像を確認しながらロボットを操作によって移動させる環境を提供することができる。
この構成により、教示装置は、第2画面に、撮像装置により撮像された撮像画像を表示する。これにより、教示装置は、ユーザーに撮像画像を確認しながらロボットを操作によって移動させる環境を提供することができる。
また、本発明の他の態様は、教示装置において、前記第1画面と前記第2画面のうちいずれか一方又は両方は、作業手順が表示される領域を有する、構成が用いられてもよい。
この構成により、教示装置は、第1画面と第2画面のうちいずれか一方又は両方に、作業手順を表示する。これにより、教示装置は、ユーザーのマニュアルを読む手間を抑制させることで、ユーザーに効率的な作業を行わせることができる。
この構成により、教示装置は、第1画面と第2画面のうちいずれか一方又は両方に、作業手順を表示する。これにより、教示装置は、ユーザーのマニュアルを読む手間を抑制させることで、ユーザーに効率的な作業を行わせることができる。
また、本発明の他の態様は、ワークを移動させるロボットと、前記ロボットに前記ワークの姿勢を教示する教示装置と、を含み、前記教示装置は、前記ワークの姿勢を設定するための画面を表示する表示部と、前記画面を操作する操作部と、前記ワークの姿勢を検出する検出部と、を含み、前記画面は、撮像装置の撮像範囲内に載置された前記ワークを表示するための第1画面と、前記ロボットに、前記撮像装置の撮像範囲内に載置された前記ワークを把持させるための第2画面と、を含み、前記検出部は、前記ロボットが前記ワークを把持した結果を用いて、前記ワークの姿勢を検出する、ロボットシステムである。
この構成により、ロボットシステムは、撮像装置の撮像範囲内に載置されたワークを表示するための第1画面と、ロボットに、撮像装置の撮像範囲内に載置されたワークを把持させるための第2画面と、を表示し、ロボットがワークを把持した結果を用いて、ワークの姿勢を検出する。これにより、ロボットシステムは、ユーザーの教示に係る負担を軽減することができる。
この構成により、ロボットシステムは、撮像装置の撮像範囲内に載置されたワークを表示するための第1画面と、ロボットに、撮像装置の撮像範囲内に載置されたワークを把持させるための第2画面と、を表示し、ロボットがワークを把持した結果を用いて、ワークの姿勢を検出する。これにより、ロボットシステムは、ユーザーの教示に係る負担を軽減することができる。
以上により、教示装置、及びロボットシステムは、撮像装置の撮像範囲内に載置されたワークを表示するための第1画面と、ロボットに、撮像装置の撮像範囲内に載置されたワークを把持させるための第2画面と、を表示し、ロボットがワークを把持した結果を用いて、ワークの姿勢を検出する。これにより、教示装置は、ユーザーの教示に係る負担を軽減することができる。
<概要>
まず、以下に示す実施形態に係るロボットシステム1の概要を説明し、その後により詳細な実施形態を説明する。図1は、本実施形態に係るロボットシステム1の構成の一例を示すとともに、ロボット20が所定の作業を行う様子の一例を示す図である。ロボットシステム1は、教示装置5と、撮像部10と、把持部HND(エンドエフェクター)及びマニピュレーターMNPを備える単腕のロボット20と、制御装置30を具備する。本実施形態で、単腕のロボットとは、把持部HNDとマニピュレーターMNPにより構成される1本の腕を有するロボットを示す。
まず、以下に示す実施形態に係るロボットシステム1の概要を説明し、その後により詳細な実施形態を説明する。図1は、本実施形態に係るロボットシステム1の構成の一例を示すとともに、ロボット20が所定の作業を行う様子の一例を示す図である。ロボットシステム1は、教示装置5と、撮像部10と、把持部HND(エンドエフェクター)及びマニピュレーターMNPを備える単腕のロボット20と、制御装置30を具備する。本実施形態で、単腕のロボットとは、把持部HNDとマニピュレーターMNPにより構成される1本の腕を有するロボットを示す。
ここで、本実施形態で、所定の作業とは、ロボット20が把持部HNDによりテーブルTB上に設置された作業対象Oを把持し、把持された作業対象Oを予め登録された配置位置Xに配置することである。テーブルTBとは、作業対象Oが配置される台等である。作業対象Oとは、ロボット20により把持可能な物体であり、例えば、ネジやボルト、歯車、治具等の工業用の部品等であるが、これらに限られず、ロボット20により把持可能であれば他の物体であってもよい。図1では、この作業対象Oを、直方体形状の物体として表す。
ロボットシステム1は、ロボット20に所定の作業を行わせる前に、教示装置5からロボット20に所定の作業を行わせるために必要な基準情報を制御装置30に対して教示する。ロボットシステム1は、教示装置5により基準情報を制御装置30に教示する時、教示装置5に表示されたGUI(Graphical User Interface)を介してユーザーからの操作を受け付けることにより基準情報を制御装置30に対して教示する。
教示装置5により基準情報が制御装置30に教示された後、ロボットシステム1は、所定の作業をロボット20に行わせる。より具体的には、ロボットシステム1は、作業対象Oを含む範囲を撮像部10に撮像させる。そして、ロボットシステム1は、撮像部10により撮像された撮像画像に基づいて作業対象Oの位置及び姿勢を検出(算出)する。以下では、説明の便宜上、位置及び姿勢を位置姿勢と称して説明し、作業対象Oの位置姿勢を作業対象位置姿勢と称して説明する。
ロボットシステム1は、撮像部10により撮像された撮像画像から、作業対象Oに予め設定された代表点OPの位置姿勢を作業対象位置姿勢として検出する。作業対象Oの代表点OPとは、制御装置30に予め設定された点であって作業対象Oの特徴的な点であり、この一例において、図1に示した作業対象Oの角の1つである。なお、この角は、ロボットシステム1が行う計算が容易になるため、配置位置Xに配置する時に底面となる面における角であることが好ましい。作業対象Oは、ワークの一例である。
そして、ロボットシステム1は、撮像画像から検出された作業対象位置姿勢と、教示装置5により教示された基準情報とに基づいて、ロボット20が把持部HNDにより作業対象Oを把持する直前の把持部HNDの位置姿勢を算出し、算出された位置姿勢となるようにロボット20に把持部HNDを移動させる。
ここで、図1に示したロボットシステム1は、ロボット20に把持部HNDを移動させる際、把持部HNDの制御点TCPの位置及び姿勢(以下、制御点位置姿勢と称する)を把持部HNDの位置及び姿勢として移動させる。把持部HNDの制御点TCPとは、制御装置30がロボット20の把持部HND及びマニピュレーターMNPを動かす時の把持部HNDの位置姿勢を表す点であり、この一例において、把持部HNDが設けられるマニピュレーターMNPの端部に備えられたフランジの中心点(ツール・センター・ポイント)を示す。以下では、説明の便宜上、前述した作業対象Oを把持する直前の把持部HNDの位置姿勢を、制御点目標位置姿勢と称して説明する。
把持部HNDの制御点位置姿勢と制御点目標位置姿勢が一致するようにロボット20に把持部HNDを移動させた(すなわち、作業対象Oを把持する直前の状態となった)後、ロボットシステム1は、ロボット20の把持部HNDに作業対象Oを把持させる。そして、ロボットシステム1は、把持部HNDにより把持された作業対象Oをロボット20に配置位置Xへ配置させる。
以下では、前述した教示装置5によるこの教示について詳しく説明する。なお、ロボットシステム1は、教示装置5により制御装置30に基準情報の教示が行われた後、複数の作業対象Oに対して所定の作業を繰り返し行う。この繰り返し所定の作業を行う時、ロボットシステム1は、所定の作業を1回行う毎(すなわち、新しい作業対象OがテーブルTB上に設置される毎、又はテーブルTB上で新たに検出された作業対象O毎)に、撮像部10により作業対象Oを撮像し、撮像された撮像画像に基づいて作業対象位置姿勢を算出し、算出された作業対象位置姿勢と、教示装置5により教示された基準情報とに基づいて作業対象Oを把持するための新たな制御点目標位置姿勢を算出する。
ここで、図2を参照して、ロボットシステム1が備える各装置による所定の作業に係る処理について説明する。図2は、ロボットシステム1が備える各装置による所定の作業に係る処理の流れの一例を示すフローチャートである。まず、制御装置30は、教示装置5を介して撮像部10に撮像画像を撮像させる(ステップS50)。次に、教示装置5は、撮像部10により撮像された撮像画像に基づいて作業対象Oを検出する(ステップS51)。次に、制御装置30は、検出された作業対象Oの位置及び姿勢(すなわち、作業対象位置姿勢)を算出する(ステップS52)。そして、教示装置5は、算出された作業対象位置姿勢を制御装置30に出力する。
次に、制御装置30は、教示装置5から作業対象位置姿勢を取得する(ステップS53)。次に、制御装置30は、ステップS53で取得された作業対象位置姿勢と、教示装置5により教示された基準情報とに基づいて制御点目標位置姿勢を算出する(ステップS54)。次に、制御装置30は、算出された制御点目標位置姿勢に基づいて、ロボット20に作業対象Oを把持させる(ステップS55)。次に、制御装置30は、作業対象Oを配置位置Xに配置するようにロボット20を制御する(ステップS56)。
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。前述した通り、図1に示した本実施形態に係るロボットシステム1は、教示装置5と、撮像部10と、ロボット20と、制御装置30を具備する。
以下、本発明の実施形態について、図面を参照して説明する。前述した通り、図1に示した本実施形態に係るロボットシステム1は、教示装置5と、撮像部10と、ロボット20と、制御装置30を具備する。
教示装置5は、例えば、ノートPC(Personal Computer)であるとするが、これに代えて、デスクトップPCやタブレットPC、携帯電話端末、多機能携帯電話端末(スマートフォン)、PDA(Personal Digital Assistant)等であってもよい。教示装置5は、撮像部10とケーブルによって通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、教示装置5と撮像部10とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。
教示装置5は、撮像部10から撮像画像を取得する。また、教示装置5は、専用のアプリケーションがインストールされており、そのアプリケーションが実現するGUIを表示する。教示装置5は、GUIを介してユーザーからの操作を受け付け、受け付けられた操作と、撮像部10から取得された撮像画像とに基づいて、作業対象Oの作業対象位置姿勢を、作業対象基準位置姿勢として検出する。
また、教示装置5は、ユーザーがジョグ操作によって把持部HNDを移動させることで、ユーザーが所望する状態であって把持部HNDが作業対象Oを把持する直前の状態を実現させた後、GUIを介してユーザーからの操作を受け付け、制御装置30から制御点位置姿勢を示す情報を、制御点目標位置姿勢を示す情報として取得する。そして、教示装置5は、取得された制御点目標位置姿勢と、検出された作業対象基準位置姿勢とに基づいて、作業対象基準位置姿勢と制御点目標位置姿勢との間のオフセットを、基準オフセットとして算出する。教示装置5は、算出された基準オフセットと、作業対象基準位置姿勢を示す情報とを基準情報として制御装置30に出力(教示)する。
なお、ジョグ操作を行うためのジョグは、教示装置5に備えられていてもよく、制御装置30に備えられていてもよい。ジョグが教示装置5に備えられている場合、教示装置5は、制御装置30を介してロボット20をジョグ操作によって動かす。また、教示装置5は、作業対象基準位置姿勢を示す情報のみを基準情報として制御装置30に出力する構成であってもよい。
この場合、制御装置30は、取得(教示)された作業対象基準位置姿勢と、自装置が有する制御点目標位置姿勢とに基づいて、基準オフセットを算出し、算出された基準オフセットとともに作業対象基準位置姿勢を改めて基準情報として記憶する。以下では、教示装置5は、作業対象基準位置姿勢を示す情報と、基準オフセットとを基準情報として制御装置30に出力するとして説明する。
また、教示装置5は、ロボットシステム1がロボット20に所定の作業を行わせている時、制御装置30からの要求に応じて撮像部10に作業対象Oを含む範囲を撮像させる。そして、教示装置5は、撮像された撮像画像に基づいて作業対象位置姿勢を検出する。教示装置5は、制御装置30からの要求に応じて、所定の作業毎に作業対象位置姿勢を検出する。教示装置5は、検出された作業対象位置姿勢を示す情報を、検出情報として制御装置30に出力する。
なお、教示装置5は、検出された作業対象位置姿勢を示す情報を検出情報として制御装置30に出力する構成に代えて、制御装置30から基準情報を取得し、取得された基準情報と、検出された作業対象位置姿勢とに基づいて、制御点目標位置姿勢を算出する構成であってもよい。この場合、教示装置5は、算出された制御点目標位置姿勢を示す情報を、制御装置30に出力する。
撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、撮像部10は、単眼のカメラであるが、例えば、ステレオカメラのように2台以上のカメラによって構成されてもよい。
撮像部10は、ケーブルによって教示装置5と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、撮像部10と教示装置5とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。また、撮像部10と教示装置5とは、別体ではなく、一体の構成であってもよい。撮像部10は、作業対象Oを含む範囲であって作業対象Oの代表点OPを撮像可能な範囲(以下、撮像範囲と称する)を撮像可能な位置に設置される。なお、撮像部10は、動画像を撮像画像として撮像する構成であるとするが、これに代えて、静止画像や半静止画像を撮像画像として撮像する構成であってもよい。撮像部10は、撮像装置の一例である。
ロボット20は、例えば、把持部HNDと、マニピュレーターMNPと、図示しない複数のアクチュエーターを備えた単腕のロボットである。なお、ロボット20は、単腕のロボットに代えて、スカラーロボット(水平多関節ロボット)や双腕のロボット等であってもよい。スカラーロボットとは、マニピュレーターが水平方向にのみ動き、マニピュレーターの先端のスライド軸のみが上下に動くロボットである。また、双腕のロボットとは、把持部HNDとマニピュレーターMNPによりそれぞれ構成される2本の腕を有するロボットを示す。
ロボット20の腕は、6軸垂直多関節型となっており、支持台とマニピュレーターMNPと把持部HNDとがアクチュエーターによる連携した動作によって6軸の自由度の動作を行うことができる。なお、ロボット20の腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、把持部HND及びマニピュレーターMNPを備えた腕によって行われるロボット20の動作について説明する。なお、ロボット20の把持部HNDには、物体を把持可能な爪部が備えられている。
ロボット20は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット20と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、ロボットシステム1では、ロボット20は、図1に示したようにロボット20の外部に設置された制御装置30と接続されている構成とするが、この構成に代えて、制御装置30がロボット20に内蔵されている構成であってもよい。
ロボット20は、制御装置30が生成した制御信号を取得し、取得した制御信号に基づいてロボット20の把持部HNDとマニピュレーターMNPを移動させる。
ロボット20は、制御装置30が生成した制御信号を取得し、取得した制御信号に基づいてロボット20の把持部HNDとマニピュレーターMNPを移動させる。
制御装置30は、教示装置5からの要求に応じて、ユーザーによるジョグ操作によって、ユーザーが所望する状態であって把持部HNDが作業対象Oを把持する直前の状態が実現している時の制御点位置姿勢(すなわち、制御点目標位置姿勢)を示す情報を教示装置5に出力する。その後、制御装置30は、教示装置5から基準情報を取得する。
また、制御装置30は、ロボットシステム1によりロボット20に所定の作業を行わせている時、撮像された撮像画像であって教示装置5が取得した撮像画像に基づいて、教示装置5に作業対象位置姿勢を検出させる。制御装置30は、教示装置5により検出された作業対象位置姿勢を示す情報を検出情報として取得する。制御装置30は、基準情報と検出情報に基づいて、所定の作業が行われている時の制御点目標位置姿勢を算出する。
制御装置30は、制御点位置姿勢と、算出された制御点目標位置姿勢とが一致するように把持部HNDをロボット20に移動させ、ユーザーにより教示された基準オフセットと同じオフセットの状態(すなわち、基準オフセットが示す相対的な位置姿勢であって作業対象Oと把持部HNDの間の相対的な位置姿勢)が実現するように作業対象Oを把持部HNDに把持させる。そして、制御装置30は、把持部HNDにより把持された作業対象Oを配置位置Xに配置するようにロボット20を制御する。
次に、図3を参照して、教示装置5のハードウェア構成について説明する。図3は、教示装置5のハードウェア構成の一例を示す図である。教示装置5は、例えば、CPU(Central Processing Unit)51と、記憶部52と、入力受付部53と、通信部54と、表示部55を備え、通信部54を介して制御装置30と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU51は、記憶部52に格納された各種プログラムを実行する。
記憶部52は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、教示装置5が処理する各種情報や画像、プログラムを格納する。なお、記憶部52は、教示装置5に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
入力受付部53は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部53は、表示部として機能することでタッチパネルとして構成されてもよい。入力受付部53は、操作部の一例である。
通信部54は、例えば、USB等のデジタル入出力ポートやイーサネットポート等を含んで構成される。
表示部55は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
通信部54は、例えば、USB等のデジタル入出力ポートやイーサネットポート等を含んで構成される。
表示部55は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
次に、図4を参照して、教示装置5の機能構成について説明する。図4は、教示装置5の機能構成の一例を示す図である。教示装置5は、記憶部52と、入力受付部53と、通信部54と、表示部55と、画像取得部56と、制御部60を備える。制御部60が備える機能部のうち一部又は全部は、例えば、CPU51が、記憶部52に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
画像取得部56は、撮像部10から撮像画像を取得する。画像取得部56は、取得された撮像画像を制御部60に出力する。
制御部60は、表示制御部61と、検出部62と、演算部63と、通信制御部66と、撮像制御部67を備える。制御部60は、教示装置5の全体を制御する。
制御部60は、表示制御部61と、検出部62と、演算部63と、通信制御部66と、撮像制御部67を備える。制御部60は、教示装置5の全体を制御する。
表示制御部61は、取得された撮像画像に基づいて作業対象基準位置姿勢を検出するためのGUIを生成し、生成されたGUIを表示する。より具体的には、表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて、作業対象基準位置姿勢を検出するための画面(GUI)を第1教示画面として生成する。表示制御部61は、生成された第1教示画面を表示するように表示部55を制御する。また、表示制御部61は、基準オフセットを算出するための画面を第2教示画面として生成する。表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて、第2教示画面を表示するように表示部55を制御する。
検出部62は、第1教示画面を介して入力受付部53により受け付けられたユーザーからの操作に基づいて、画像取得部56から撮像部10により撮像された撮像画像を取得する。検出部62は、取得された撮像画像に基づいて作業対象位置姿勢を検出する。検出部62は、作業対象位置姿勢を検出すると、検出された作業対象位置姿勢を作業対象基準位置姿勢として記憶部52に記憶させる。
演算部63は、第1算出部64と、第2算出部65を備える。
第1算出部64は、第2教示画面を介して入力受付部53により受け付けられたユーザーからの操作に基づいて、通信制御部66により通信部54を介して制御点位置姿勢を制御点目標位置姿勢として制御装置30から取得する。そして、第1算出部64は、制御装置30から取得された制御点目標位置姿勢と、検出部62により検出された作業対象位置姿勢とに基づいて基準オフセットを算出する。第1算出部64は、基準オフセットを算出すると、算出された基準オフセットを記憶部52に記憶させる。
第1算出部64は、第2教示画面を介して入力受付部53により受け付けられたユーザーからの操作に基づいて、通信制御部66により通信部54を介して制御点位置姿勢を制御点目標位置姿勢として制御装置30から取得する。そして、第1算出部64は、制御装置30から取得された制御点目標位置姿勢と、検出部62により検出された作業対象位置姿勢とに基づいて基準オフセットを算出する。第1算出部64は、基準オフセットを算出すると、算出された基準オフセットを記憶部52に記憶させる。
第2算出部65は、制御装置30からの要求に応じて、検出部62により検出された作業対象位置姿勢と、記憶部52により記憶された作業対象基準位置姿勢及び基準オフセットとに基づいて制御点目標位置姿勢を算出する。なお、制御部60は、第2算出部65を備えない構成であってもよい。
通信制御部66は、表示制御部61により表示部55に表示された第2教示画面を介して入力受付部53により受け付けられたユーザーからの操作に基づいて、制御装置30から制御点位置姿勢を取得するように通信部54を制御する。また、表示制御部61により表示部55に表示された第2教示画面を介して入力受付部53により受け付けられたユーザーからの操作に基づいて、検出部62により検出された作業対象基準位置姿勢を示す情報と、第1算出部64により算出された基準オフセットを示す情報とを基準情報として制御装置30に出力するように通信部54を制御する。また、通信制御部66は、制御装置30からの要求に応じて、第2算出部65により算出された制御点目標位置姿勢を示す情報を制御装置30に出力する。
撮像制御部67は、撮像部10に撮像可能な範囲を撮像するように制御する。
撮像制御部67は、撮像部10に撮像可能な範囲を撮像するように制御する。
以下、図5を参照して、教示装置5が基準情報を制御装置30に教示する処理について説明する。図5は、教示装置5が基準情報を制御装置30に教示する処理の流れの一例を示すフローチャートである。まず、表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて、設定画面を表示する(ステップS80)。次に、教示装置5の制御部60は、入力受付部53により設定画面を介したユーザーからの操作を受け付ける(ステップS90)。ここで、図6を参照して、設定画面について説明する。図6は、設定画面の一例を示す図である。
表示制御部61は、画像取得部56から撮像部10により撮像された撮像画像を取得し、取得された撮像画像を領域V1に表示させる。また、表示制御部61は、図6に示した設定画面中のプロパティー欄Q1を表示させる。プロパティー欄Q1とは、教示装置5によって制御装置30に教示することが可能な項目の一覧を表示する欄であり、その項目毎の名称と、その項目毎の設定値とが対応付けられて表示される欄である。
例えば、入力受付部53を介してユーザーがプロパティー:RobotUOffset(前記の項目の一例)を選択すると、対応付けられた設定値の欄にボタンB0が表示される。表示制御部61は、入力受付部53を介してユーザーがこのボタンB0を押す(クリックする)と、ステップS100で説明する第1教示画面を表示する。
また、表示制御部61は、図6に示した設定画面中のリザルト欄Q2を表示させる。リザルト欄Q2とは、撮像部10により撮像された撮像画像に基づいて、すでに検出された情報であって制御装置30に教示する各種の情報を表示する欄であり、その項目毎の名称と、その項目毎の検出結果とが対応付けられて表示される欄である。
以下では、ステップS90でユーザーが入力受付部53を介して図6に示したボタンB0を押したとして説明する。次に、表示制御部61は、ステップS90で入力受付部53により受け付けられたユーザーからの操作(すなわち、ボタンB0を押す操作)に基づいて、第1教示画面を生成する。そして、表示制御部61は、生成された第1教示画面を表示するように表示部55を制御する(ステップS100)。
次に、教示装置5の制御部60は、入力受付部53により第1教示画面を介したユーザーからの操作を受け付ける(ステップS110)。次に、第1算出部64は、受け付けられた操作に基づいて、作業対象基準位置姿勢を検出する(ステップS120)。ここで、図7を参照して、第1教示画面と、第1教示画面に係るステップS100からステップS120までの処理について説明する。図7は、第1教示画面の一例を示す図である。
ユーザーは、図7に示した第1教示画面UI1が表示部55に表示されると、第1教示画面UI1内に表示される説明画像E1により示される手順に従って、撮像部10が撮像可能な範囲に作業対象Oを設置する。なお、撮像部10は、第1教示画面UI1が表示された直後に撮像画像を撮像し始めたとするが、これに代えて、第1教示画面UI1を介して入力受付部53により受け付けられたユーザーからの操作に基づいて撮像を開始する構成等であっても良い。
第1教示画面UI1には、説明画像E1に加えて、さらに撮像部10により撮像された撮像画像が領域P1に表示される。表示制御部61は、画像取得部56から撮像部10により撮像された撮像画像を取得し、取得された撮像画像を領域P1に表示させる。ユーザーは、領域P1に表示される撮像画像を確認しながら作業対象Oを、撮像部10が撮像可能な範囲に設置することができる。なお、第1教示画面UI1は、第1画面の一例である。
図7に示した領域P1には、すでに撮像部10が撮像可能な範囲に作業対象Oが設置された後の撮像画像が表示されている。撮像部10が撮像可能な範囲に作業対象Oをユーザーが設置した後、ユーザーは、図7に示したティーチボタンB1を押す(クリックする)。ユーザーによりティーチボタンB1が押された時、検出部62は、ティーチボタンB1が押された時に第1教示画面UI1に表示されていた撮像画像をキャプチャーし、そのキャプチャー画像に基づいてパターンマッチング等の画像処理の手法に基づいて作業対象位置姿勢を、作業対象基準位置姿勢として検出する。
例えば、検出部62は、キャプチャー画像に含まれる作業対象Oの形状に基づいてパターンマッチングを行い、撮像画像上における作業対象Oの位置と、撮像画像上における作業対象Oの姿勢とをそれぞれ検出する。ここで、図8を参照して、検出部62による作業対象基準位置姿勢の検出処理について説明する。図8は、第1教示画面UI1を介して入力受付部53により受け付けられた操作に基づいて検出部62によりキャプチャーされた撮像画像の一例を示す図である。
撮像画像Pc1は、検出部62によりキャプチャーされた撮像画像の一例である。図8において、撮像画像Pc1上の方向を、図8に示したX軸及びY軸によって示す。具体的には、図8に示した撮像画像Pc1の水平方向をX方向とし、垂直方向をY方向とする。検出部62は、作業対象Oの形状に基づいてパターンマッチングにより撮像画像Pc1から作業対象Oの代表点OPの位置を作業対象基準位置として検出する。
また、検出部62は、作業対象Oの形状に基づいてパターンマッチングにより撮像画像Pc1から、例えば、作業対象Oの代表点OPから延伸する辺OX及び辺OYを検出し、辺OXの延伸する方向を代表点OPのX方向とし、辺OYの延伸する方向を代表点OPのY方向とする。そして、検出部62は、代表点OPを原点とする代表点OPのX方向及びY方向を、代表点OPの作業対象基準姿勢として検出する。検出部62は、検出された作業対象基準位置姿勢を記憶部52に記憶させる。
次に、表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて、第2教示画面を生成する。そして、表示制御部61は、生成された第2教示画面を表示するように表示部55を制御する(ステップS130)。なお、表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて第2教示画面を生成する構成に代えて、ステップS120で検出部62により作業対象基準位置姿勢が検出されたことに伴って第2教示画面を生成する構成や、第1教示画面が消されたことをトリガーとして第2教示画面を生成する構成等であってもよい。
次に、教示装置5の制御部60は、入力受付部53により第2教示画面を介したユーザーからの操作を受け付ける(ステップS140)。次に、第1算出部64は、受け付けられた操作に基づいて、制御点目標位置姿勢を制御装置30から取得する(ステップS150)。次に、第1算出部64は、記憶部52から作業対象基準位置姿勢を読みこみ、読み込まれた作業対象基準位置姿勢と、ステップS150で取得された制御点目標位置姿勢とに基づいて基準オフセットを算出する(ステップS160)。
ここで、図9を参照して、第2教示画面と、第2教示画面に係るステップS140からステップS160までの処理について説明する。図9は、第2教示画面の一例を示す図である。ユーザーは、図9に示した第2教示画面UI2が表示部55に表示されると、第2教示画面UI2内に表示される説明画像E2により示される手順に従って、ロボット20に作業対象Oを把持部HNDにより把持させる。ユーザーは、この作業対象Oの把持部HNDによる把持を、ジョグ操作によってロボット20に行わせる。
第2教示画面UI2には、第2教示画面UI2を介して制御装置30に教示を行う際の手順を示すための説明画像E2が表示される。この説明画像E2の説明に従うことで、ユーザーは、マニュアルを読むことなく容易に制御装置30へ教示を行うための操作を行うことができる。
また、第2教示画面UI2には、説明画像E2に加えて、さらに撮像部10により撮像された撮像画像が領域P2に表示される。表示制御部61は、画像取得部56から撮像部10により撮像された撮像画像を取得し、取得された撮像画像を領域P2に表示させる。ユーザーは、第2教示画面UI2が表示部55に表示されると、第2教示画面UI2内に表示されるボタンB2を押す。これにより、ユーザーは、説明画像E2に示された内容の手順に沿って制御装置30へ教示を行うための操作を行うことができる。
ユーザーがボタンB2を押すと、表示制御部61は、図10に示すように、第2教示画面UI2のサブ画面としてジョグ画面UI2−1を表示させる。図10は、第2教示画面UI2及びジョグ画面UI2−1の一例を示す図である。ジョグ画面UI2−1には、領域JGに、ロボット20の把持部HNDの制御点をユーザーの所望の位置へ動かすための複数のボタンが表示される。例えば、+Xボタンは、把持部HNDの制御点をX軸の正方向へ移動させるボタンであり、−Xボタンは、把持部HNDの制御点をX軸の負方向へ移動させるボタンである。
また、+Yボタンは、把持部HNDの制御点をY軸の正方向へ移動させるボタンであり、−Yボタンは、把持部HNDの制御点をY軸の負方向へ移動させるボタンである。また、+Zボタンは、把持部HNDの制御点をZ軸の正方向へ移動させるボタンであり、−Zボタンは、把持部HNDの制御点をZ軸の負方向へ移動させるボタンである。
また、+Uボタンは、把持部HNDの制御点をX軸周りに正方向へ回転させるボタンであり、−Uボタンは、把持部HNDの制御点をX軸周りに負方向へ回転させるボタンである。また、+Vボタンは、把持部HNDの制御点をY軸周りに正方向へ回転させるボタンであり、−Vボタンは、把持部HNDの制御点をY軸周りに負方向へ回転させるボタンである。また、+Wボタンは、把持部HNDの制御点をZ軸周りに正方向へ回転させるボタンであり、−Wボタンは、把持部HNDの制御点をZ軸周りに負方向へ回転させるボタンである。
また、表示制御部61は、例えば、制御点のロボット座標系における現在の座標等をジョグ画面UI2−1に表示させる。また、表示制御部61は、第2教示画面UI2の領域P2に、撮像部10により撮像された撮像画像を表示する。ユーザーは、この撮像画像を確認しながら、ジョグ画面UI2−1を介したジョグ操作によって作業対象Oを把持部HNDに把持させることができる。なお、図10に示した第2教示画面UI2の領域P2には、ジョグ画面UI2−1を介したジョグ操作によって作業対象Oが把持部HNDに把持された状態の撮像画像が表示されている。また、表示制御部61は、第1教示画面UI1を介して入力受付部53により受け付けられた操作に基づいてキャプチャーされた画像を領域P2に表示させる構成であっても良い。第2教示画面UI2及びジョグ画面UI2−1(すなわち、図10に示した画面)は、第2画面の一例である。
ユーザーがジョグ画面UI2−1を介したジョグ操作により作業対象Oをロボット20の把持部HNDに把持させた後、ユーザーは、図10に示したジョグ画面UI2−1内のティーチボタンB3を押す(クリックする)。ユーザーによりティーチボタンB3が押された時、第1算出部64は、ティーチボタンB3が押された時の制御点位置姿勢を示す情報を、制御点目標位置姿勢を示す情報として制御装置30から取得する。
このように、教示装置5は、ジョグ画面UI2−1を介したジョグ操作によってユーザーにより作業対象Oを実際に把持させ、作業対象Oを把持部HNDが把持した位置及び姿勢における制御点位置姿勢を制御点目標位置姿勢として取得するため、例えば、撮像画像に基づいて制御点目標位置姿勢を検出する場合と比較して、より高い精度で制御点目標位置姿勢を取得することができる。第1算出部64は、制御装置30から制御点目標位置姿勢を取得した後、記憶部52から作業対象基準位置姿勢を読み込み、読み込まれた作業対象基準位置姿勢と、取得された制御点目標位置姿勢とに基づいて基準オフセットを算出する。
ここで、図11を参照して、第1算出部64による制御点目標位置姿勢の取得処理及び基準オフセットの算出処理について説明する。図11は、第2教示画面UI2の領域P2に表示される撮像画像であってジョグ操作により作業対象Oが把持部HNDにより把持された時の撮像画像の一例を示す図である。
撮像画像Pc2は、作業対象Oが把持部HNDにより把持された時の撮像画像の一例である。図11において、撮像画像Pc2上の方向を、図11に示したX軸及びY軸によって示す。具体的には、図11に示した撮像画像Pc2の水平方向をX方向とし、垂直方向をY方向とする。第1算出部64は、図11に示した状態における制御点位置姿勢を制御点目標位置姿勢として制御装置30から取得する。
従って、教示装置5は、撮像画像Pc2を用いてパターンマッチング等により制御点目標位置姿勢を検出する場合と比較して、精度の高い制御点目標位置姿勢を取得することができる。第1算出部64は、記憶部52から作業対象基準位置姿勢を読み込み、読み込まれた作業対象基準位置姿勢と、取得された制御点目標位置姿勢とに基づいて、図11に示した基準オフセットOSを算出する。
次に、通信制御部66は、ステップS120で検出された作業対象基準位置姿勢を示す情報と、ステップS160で算出された基準オフセットを示す情報とを制御装置30に出力(教示)するように通信部54を制御する(ステップS170)。次に、表示制御部61は、設定完了画面を生成する。そして、表示制御部61は、生成された設定完了画面を表示するように表示部55を制御する(ステップS180)。
ここで、図12を参照して、設定完了画面について説明する。図12は、設定完了画面の一例を示す図である。表示制御部61は、設定完了画面内に、設定が完了したことを知らせる画像や説明を欄E3表示する。なお、表示制御部61は、図12に示したように、設定完了画面内に、撮像部10により撮像された撮像画像P3を表示する構成であってもよいが、撮像画像を表示しない構成であってもよい。また、表示制御部61は、設定完了画面内に、完了ボタンB5を表示する。ユーザーが完了ボタンB5を押すと、表示制御部61は、ステップS190で説明する教示終了後の設定画面を表示する。
以下では、設定完了画面において、ユーザーが完了ボタンB5を押したとして説明する。次に、表示制御部61は、再び設定画面を表示する(ステップS190)。ここで、図13を参照して、教示終了後の設定画面について説明する。図13は、教示終了後の設定画面の一例を示す図である。
図13に示した教示終了後の設定画面は、図6に示した教示前の設定画面と異なり、プロパティー:RobotUOffsetに対応付けられた設定値OSRに、0.000ではなく、ステップS120で算出された基準オフセットの値(例えば、−174.220ピクセル)が表示されている。このように、第1教示画面UI1及び第2教示画面UI2による教示が終了すると、設定画面には、制御装置30に教示された情報が表示される。
このように、ステップS80からステップS190までの処理によって、教示装置5は、制御装置30に基準情報を教示する。
このように、ステップS80からステップS190までの処理によって、教示装置5は、制御装置30に基準情報を教示する。
なお、制御装置30に基準情報が教示された後、ロボットシステム1は、ロボット20に所定の作業を行わせる。その際、ロボットシステム1は、テーブルTB上に新たに作業対象Oが設置される毎に、撮像部10により作業対象Oを撮像させ、撮像された撮像画像に基づいて撮像画像上における作業対象位置姿勢を検出する。そして、ロボットシステム1は、検出された作業対象位置姿勢と、教示装置5から教示された基準情報に含まれる作業対象基準位置姿勢とに基づいて、作業対象位置姿勢と作業対象基準位置姿勢の間の差を算出する。
ロボットシステム1は、算出された作業対象位置姿勢と作業対象基準位置姿勢の間の差(すなわち、作業対象基準位置姿勢に対する作業対象Oの相対的な位置姿勢)と、基準情報に含まれる基準オフセットとに基づいて制御点目標位置姿勢を算出し、算出された制御点目標位置姿勢と制御点位置姿勢が一致するようにロボット20に把持部HNDを移動させる。その後、ロボットシステム1は、ロボット20に作業対象Oを把持させ、配置位置Xに作業対象Oを配置するようにロボット20を制御する。作業対象Oの姿勢と作業対象Oの基準姿勢の間の差は、ワークの姿勢の一例である。
なお、本実施形態に係るロボットシステム1は、演算部63により基準オフセットを算出する構成であるとしたが、これに代えて、基準オフセットを別体の装置によって算出する構成であってもよい。この場合、教示装置5は、制御装置30を介してその装置に基準オフセットを算出するように要求する。
以上説明したように、本実施形態に係るロボットシステム1は、撮像部10の撮像範囲内に載置された作業対象Oを表示するための第1教示画面UI1と、ロボット20に、撮像部10の撮像範囲内に載置された作業対象Oを把持させるための第2教示画面UI2と、を表示し、ロボット20が作業対象Oを把持した結果を用いて、作業対象Oの位置姿勢を検出する。これにより、ロボットシステム1は、ユーザーの教示に係る負担を軽減することができる。
また、ロボットシステム1は、第1教示画面UI1に表示された撮像部10の撮像範囲内に載置された作業対象Oに基づいて撮像範囲に対する作業対象Oの位置姿勢を作業対象基準位置姿勢として検出する。これにより、ロボットシステム1は、検出した作業対象基準位置姿勢を制御装置30に教示することができる。
また、ロボットシステム1は、検出部62により検出された作業対象Oの作業対象基準位置姿勢と、ロボット20が作業対象Oを把持した結果とを用いて、所定の作業中に撮像範囲内に新たに載置された作業対象Oの作業対象位置姿勢と作業対象基準位置姿勢の間の差を演算する。これにより、ロボットシステム1は、作業対象Oの基準姿勢と、ロボット20が作業対象Oを把持した結果とを用いて演算された作業対象位置姿勢と作業対象基準位置姿勢の間の差に基づいて、作業対象Oに対して所定の作業を行うことができる。
また、ロボットシステム1は、第2教示画面UI2が、撮像部10により撮像された撮像画像が表示される領域P2を有する。これにより、ロボットシステム1は、ユーザーに撮像画像を確認しながらロボット20をジョグ操作によって移動させる環境を提供することができる。
また、ロボットシステム1は、第1教示画面UI1が、作業手順が表示される領域を有し、第2教示画面UI2が、作業手順が表示される領域を有する。これにより、ロボットシステム1は、ユーザーのマニュアルを読む手間を抑制させることで、ユーザーに効率的な作業を行わせることができる。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。
また、以上に説明した装置(例えば、ロボットシステム1の教示装置5)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1 ロボットシステム、5 教示装置、10 撮像部、20 ロボット、30 制御装置、51 CPU、52 記憶部、53 入力受付部、54 通信部、55 表示部、56 画像取得部、60 制御部、61 表示制御部、62 検出部、63 演算部、64 第1算出部、65 第2算出部、66 通信制御部、67 撮像制御部
Claims (6)
- ワークを移動させるロボットの教示装置であって、
前記ワークの姿勢を設定するための画面を表示する表示部と、
前記画面を操作する操作部と、
前記ワークの姿勢を検出する検出部と、
を含み、
前記画面は、
撮像装置の撮像範囲内に載置された前記ワークを表示するための第1画面と、
前記ロボットに、前記撮像装置の撮像範囲内に載置された前記ワークを把持させるための第2画面と、
を含み、
前記検出部は、
前記ロボットが前記ワークを把持した結果を用いて、前記ワークの姿勢を検出する、
教示装置。 - 請求項1に記載の教示装置であって、
前記検出部は、
前記第1画面に表示された前記撮像装置の前記撮像範囲内に載置された前記ワークに基づいて前記撮像範囲に対する前記ワークの姿勢を前記ワークの基準姿勢として検出する、
教示装置。 - 請求項2に記載の教示装置であって、
前記検出部により検出された前記ワークの前記基準姿勢と、前記ロボットが前記ワークを把持した結果とを用いて、前記撮像範囲内に載置された他のワークの姿勢を演算する演算部を備える、
教示装置。 - 請求項1から3のうちいずれか一項に記載の教示装置であって、
前記第2画面は、前記撮像装置により撮像された撮像画像が表示される領域を有する、
教示装置。 - 請求項1から4のうちいずれか一項に記載の教示装置であって、
前記第1画面と前記第2画面のうちいずれか一方又は両方は、作業手順が表示される領域を有する、
教示装置。 - ワークを移動させるロボットと、
前記ロボットに前記ワークの姿勢を教示する教示装置と、を含み、
前記教示装置は、
前記ワークの姿勢を設定するための画面を表示する表示部と、
前記画面を操作する操作部と、
前記ワークの姿勢を検出する検出部と、を含み、
前記画面は、
撮像装置の撮像範囲内に載置された前記ワークを表示するための第1画面と、
前記ロボットに、前記撮像装置の撮像範囲内に載置された前記ワークを把持させるための第2画面と、
を含み、
前記検出部は、
前記ロボットが前記ワークを把持した結果を用いて、前記ワークの姿勢を検出する、
ロボットシステム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014136316A JP2016013590A (ja) | 2014-07-01 | 2014-07-01 | 教示装置、及びロボットシステム |
EP15174247.5A EP2963513B1 (en) | 2014-07-01 | 2015-06-29 | Teaching apparatus and robot system |
US14/753,401 US9981380B2 (en) | 2014-07-01 | 2015-06-29 | Teaching apparatus and robot system |
CN201510367312.0A CN105269578B (zh) | 2014-07-01 | 2015-06-29 | 指示装置以及机器人系统 |
US15/960,884 US20180236661A1 (en) | 2014-07-01 | 2018-04-24 | Teaching Apparatus And Robot System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014136316A JP2016013590A (ja) | 2014-07-01 | 2014-07-01 | 教示装置、及びロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016013590A true JP2016013590A (ja) | 2016-01-28 |
Family
ID=55230221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014136316A Pending JP2016013590A (ja) | 2014-07-01 | 2014-07-01 | 教示装置、及びロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016013590A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018176311A (ja) * | 2017-04-05 | 2018-11-15 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法 |
KR20190058385A (ko) | 2016-05-11 | 2019-05-29 | 가와사끼 쥬고교 가부시끼 가이샤 | 로봇 교시 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002154085A (ja) * | 2000-11-15 | 2002-05-28 | Toyota Motor Corp | 作業用ロボットシステムの保全支援方法及び保全支援装置 |
JP2006289531A (ja) * | 2005-04-07 | 2006-10-26 | Seiko Epson Corp | ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム |
JP2008003713A (ja) * | 2006-06-20 | 2008-01-10 | Fanuc Ltd | ロボット制御装置 |
JP2014104529A (ja) * | 2012-11-27 | 2014-06-09 | Canon Inc | ロボットシステム及びロボットシステムの制御方法 |
-
2014
- 2014-07-01 JP JP2014136316A patent/JP2016013590A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002154085A (ja) * | 2000-11-15 | 2002-05-28 | Toyota Motor Corp | 作業用ロボットシステムの保全支援方法及び保全支援装置 |
JP2006289531A (ja) * | 2005-04-07 | 2006-10-26 | Seiko Epson Corp | ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム |
JP2008003713A (ja) * | 2006-06-20 | 2008-01-10 | Fanuc Ltd | ロボット制御装置 |
JP2014104529A (ja) * | 2012-11-27 | 2014-06-09 | Canon Inc | ロボットシステム及びロボットシステムの制御方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190058385A (ko) | 2016-05-11 | 2019-05-29 | 가와사끼 쥬고교 가부시끼 가이샤 | 로봇 교시 장치 |
JP2018176311A (ja) * | 2017-04-05 | 2018-11-15 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105269578B (zh) | 指示装置以及机器人系统 | |
US11090814B2 (en) | Robot control method | |
CN106945007B (zh) | 机器人系统、机器人、以及机器人控制装置 | |
JP6380828B2 (ja) | ロボット、ロボットシステム、制御装置、及び制御方法 | |
JP2018051704A (ja) | ロボット制御装置、ロボット、及びロボットシステム | |
JP2018015857A (ja) | 制御装置、及びロボット | |
US20170203434A1 (en) | Robot and robot system | |
JP2018034242A (ja) | ロボット制御装置、ロボット、及びロボットシステム | |
JP2017170571A (ja) | ロボット、ロボット制御装置、及びロボットシステム | |
JP6488571B2 (ja) | 教示装置、及びロボットシステム | |
US20180215044A1 (en) | Image processing device, robot control device, and robot | |
JP2015182212A (ja) | ロボットシステム、ロボット、制御装置、及び制御方法 | |
JP2016013590A (ja) | 教示装置、及びロボットシステム | |
JP6958091B2 (ja) | ロボットシステム、及びロボット制御方法 | |
JP2015157343A (ja) | ロボット、ロボットシステム、制御装置、および制御方法 | |
JP2018017610A (ja) | 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム | |
JP2017159429A (ja) | ロボット制御装置、情報処理装置、及びロボットシステム | |
US20180150231A1 (en) | Data management device, data management method, and robot system | |
JP2015182211A (ja) | ロボットシステム、ロボット、制御装置、及び制御方法 | |
JP2015226954A (ja) | ロボット、ロボットの制御方法、及びロボットの制御装置 | |
JP2019111588A (ja) | ロボットシステム、情報処理装置、及びプログラム | |
JP2016013591A (ja) | ロボットシステム | |
JP2018001321A (ja) | ロボット、ロボット制御装置、及びロボットシステム | |
JP2017100197A (ja) | ロボット、及び制御方法 | |
JP2016013610A (ja) | ロボット、及び制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180626 |