JP2021049606A - ロボットを制御するロボット装置の制御装置 - Google Patents

ロボットを制御するロボット装置の制御装置 Download PDF

Info

Publication number
JP2021049606A
JP2021049606A JP2019174329A JP2019174329A JP2021049606A JP 2021049606 A JP2021049606 A JP 2021049606A JP 2019174329 A JP2019174329 A JP 2019174329A JP 2019174329 A JP2019174329 A JP 2019174329A JP 2021049606 A JP2021049606 A JP 2021049606A
Authority
JP
Japan
Prior art keywords
feature amount
robot
work
control
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019174329A
Other languages
English (en)
Inventor
雅文 大場
Masafumi Oba
雅文 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019174329A priority Critical patent/JP2021049606A/ja
Publication of JP2021049606A publication Critical patent/JP2021049606A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】作業ツールが部材を把持したときに把持のずれが生じた場合にも作業を継続することができるロボット装置の制御装置を提供する。【解決手段】ロボット装置5の制御装置は、第1のワーク81を撮像するカメラ25を備える。第1のワーク81に対して第2のワーク91が目標の位置に配置されているときにカメラ25にて撮像した画像における特徴部位の基準特徴量と、第2のワーク91の把持のずれに関する特徴量の判定範囲とが定められている。制御装置は、カメラ25の画像から検出された特徴量が基準特徴量に近づくようにロボット1の位置を変更する。制御装置は、特徴量が判定範囲を逸脱する場合に、カメラ25にて画像を撮像する制御と、特徴量を検出する制御と、移動指令を生成する制御と、ロボット1を駆動する制御とを繰り返す。【選択図】図4

Description

本発明は、ロボットを制御するロボット装置の制御装置に関する。
ロボットを備えるロボット装置では、作業に応じた作業ツールをロボットに取り付けることにより所望の作業を行うことができる。例えば、作業ツールとしてワークを把持するハンドをロボットに取り付けることにより、ロボット装置は、ワークを所望の位置まで搬送することができる。また、ロボットの位置および姿勢を制御することにより、ロボット装置が把持しているワークを他のワークに取り付けたり、他のワークの内部に配置したりすることができる。
従来の技術においては、1つのワークを他のワークに取り付ける作業を行う場合に、カメラにて撮像した画像を用いてロボットの位置の制御を行うことが知られている。例えば、ワークのゴール画像を予め準備しておくことができる。ロボット装置にてワークを搬送する時にカメラにてワークを撮像する。そして、現在のワークの画像とゴール画像との差により、ロボットの位置を調整する制御が知られている(例えば、特開2013−180380号公報を参照)。
また、ロボット座標系に対して視覚センサ座標系を予め較正して、視覚センサ座標系におけるワークの位置に基づいてワークの3次元の位置を算出する制御が知られている。または、画像における特徴部位の位置および大きさに関するヤコビアン行列を予め生成することができる。カメラにて撮像した画像における特徴部位の位置、目標データにおける特徴部位の位置、およびヤコビアン行列に基づいてロボットの位置を修正する制御が知られている(例えば、特開2017−170599号公報、およびインターネットに公開された文献“視覚と制御”(著者:橋本浩一)を参照)。
ロボット装置がワークを把持するときに、ハンドにおけるワークの位置がずれる場合がある。この場合に、ハンドに把持されたワークをカメラにて撮像し、ロボットに対するワークの位置および姿勢を検出することが知られている。そして、ワークの位置および姿勢に基づいて、ハンドの位置および姿勢を調整する制御が知られている(例えば、特開2011−131300号公報を参照)。
特開2013−180380号公報 特開2017−170599号公報 特開2011−131300号公報
橋本浩一、"視覚と制御"、[2019年7月26日検索]、インターネット<URL:http://www.k2.t.u-tokyo.ac.jp/~koichi/Lecture/Pattern/2001/vs1.pdf>)
ロボット装置にてワークの搬送を行う場合には、ロボットに取り付けられたハンドにてワークを把持する。ハンドは、様々な方法にてワークを把持することができる。例えば、ハンドは、ワークを挟むことにより把持したり、ワークを吸着することにより把持したりすることができる。ハンドにてワークを把持する時のハンドにおけるワークの位置は、予め定めておくことができる。
しかしながら、ハンドにおけるワークの位置が所望の位置からずれる場合がある。例えば、ハンドにてワークを把持する時にワークが載置されている位置がずれていると、ハンドにおけるワークの位置がずれる場合がある。または、ワークの製造誤差により、ハンドに対するワークの位置がずれる場合がある。または、ワークを把持した後にロボットが駆動すると、ワークが滑ってしまいハンドにおけるワークの位置がずれる場合がある。
ハンドにおけるワークの位置がずれた状態で、予め定められたロボットの位置および姿勢にロボットが駆動しても、ワークの位置は目標の位置からずれる。この結果、ワークを所望の位置に配置することができずに、ロボット装置の作業が失敗したと判定される場合がある。このために、ロボット装置の制御においては、ハンドがワークを把持したときの把持の位置のずれを考慮して、ロボットの位置を制御することが好ましい。
本開示の一態様は、作業ツールに把持された第2の部材をロボットにて移動して、第1の部材に対する第2の部材の相対的な位置を合わせるロボット装置の制御装置である。制御装置は、第1の部材を撮像する視覚センサと、視覚センサの出力を処理する演算処理部と、ロボットを駆動する動作制御部とを備える。第1の部材の位置を検出するための第1の部材の特徴部位が予め定められている。第1の部材に対して第2の部材が目標の位置に配置されているときに視覚センサにて撮像した画像における特徴部位の位置に関する基準特徴量と、作業ツールにおける第2の部材の把持のずれに関する特徴部位の特徴量の判定範囲とが定められている。演算処理部は、視覚センサにて撮像された画像において、特徴部位の位置に関する特徴量を検出する特徴量検出部を含む。演算処理部は、特徴量検出部にて検出された特徴量が判定範囲内であるか否かを判定する判定部と、ロボットを動作させる移動指令を生成する指令生成部とを含む。指令生成部は、特徴量検出部にて検出された特徴量および基準特徴量に基づいて、特徴量検出部にて検出された特徴量が基準特徴量に近づくようにロボットの位置を変更する移動指令を生成する。動作制御部は、指令生成部にて生成された移動指令に基づいてロボットを駆動する。判定部は、移動指令によりロボットの位置が移動した後の特徴量が判定範囲内であるか否かを判定する。制御装置は、特徴量が判定範囲を逸脱する場合に、視覚センサにて画像を撮像する制御と、特徴量検出部にて特徴量を検出する制御と、指令生成部にて移動指令を生成する制御と、動作制御部にてロボットを駆動する制御とを繰り返す。
本開示のロボット装置の制御装置は、作業ツールが部材を把持したときに把持のずれが生じた場合にも作業を継続することができる。
実施の形態における第1のロボット装置の概略図である。 第1のロボット装置における第1のワーク、第2のワーク、およびハンドの拡大斜視図である。 実施の形態における第1のロボット装置のブロック図である。 ハンドに対して第2のワークの位置がずれているときの拡大斜視図である。 実施の形態における第1のロボット装置の第1の基準画像である。 実施の形態における第1の制御のフローチャートである。 第1の基準画像における第1の特徴量の判定範囲を示す図である。 実施の形態における第2の制御のフローチャートである。 第2の基準画像における第1の特徴量の判定範囲を示す図である。 実施の形態における第3の制御のフローチャートである。 第3の制御における第2の基準画像を示す図である。 実施の形態の第2のロボット装置における第1のワーク、第2のワーク、およびハンドの拡大斜視図である。 実施の形態の第3のロボット装置における第1のワーク、第2のワーク、およびハンドの拡大斜視図である。 実施の形態の第4のロボット装置における第1のワーク、第2のワーク、およびハンドの拡大斜視図である。
図1から図14を参照して、実施の形態におけるロボット装置の制御装置について説明する。本実施の形態では、製品を組み立てる作業を行うロボット装置を例に取り上げて説明する。
図1は、本実施の形態における第1のロボット装置の概略図である。図2は、第1のロボット装置における第1のワーク、第2のワーク、およびハンドの拡大斜視図である。図1および図2を参照して、第1のロボット装置5は、作業ツール(エンドエフェクタ)としてのハンド2と、ハンド2を移動するロボット1とを備える。第1のロボット装置5は、第1の部材としての第1のワーク81に第2の部材としての第2のワーク91を取り付ける作業を行う。本実施の形態では、第2のワーク91を第1のワーク81に近づける制御を実施する。
ロボット1は、複数の関節部を含む多関節ロボットである。ロボット1は、ベース部14と、ベース部14に支持された旋回ベース13とを含む。ベース部14は、設置面に固定されている。旋回ベース13は、ベース部14に対して回転するように形成されている。ロボット1は、上部アーム11および下部アーム12を含む。下部アーム12は、関節部を介して旋回ベース13に回動可能に支持されている。上部アーム11は、関節部を介して回動可能に下部アーム12に支持されている。また、上部アーム11は、上部アーム11の延びる方向に平行な回転軸の周りに回転する。
ロボット1は、上部アーム11の端部に連結されているリスト15を含む。リスト15は、関節部を介して回動可能に上部アーム11に支持されている。リスト15は、回転可能に形成されているフランジ16を含む。ハンド2は、フランジ16に固定されている。本実施の形態のロボット1は、6個の駆動軸を有するが、この形態に限られない。作業ツールを移動することができる任意のロボットを採用することができる。
ハンド2は、ワーク91を把持したり解放したりする作業ツールである。ハンド2は、複数の爪部3を有する。ハンド2は爪部3が開いたり閉じたりするように形成されている。爪部3がワーク91を挟むことによりワーク91を把持する。第1のロボット装置5の作業ツールは、爪部3を有するハンド2であるが、この形態に限られない。作業ツールは、ワークを把持できるように形成されている任意の構成を採用することができる。例えば、空気圧による吸着または磁力によりワークを把持する作業ツールが採用されても構わない。
本実施の形態におけるロボット装置5は、第1のワーク81を搬送する搬送機としてのコンベヤ75を含む。搬送機は、ロボット1の周りに配置される。コンベヤ75は、ワーク81を予め定められた位置まで搬送するように形成されている。コンベヤ75は、予め定められた移動速度にてワーク81を搬送するように形成されている。図1に示す例では、紙面に垂直な方向にワーク81が搬送される。
本実施の形態の第1のロボット装置5では、コンベヤ75がワーク81の搬送を継続しながらロボット1がワーク91をワーク81に取り付ける。すなわち、ワーク91が取り付けられる作業を行う期間中に、ワーク81はコンベヤ75により移動している。ロボット1は、ワーク81を追従するように位置および姿勢を変化させながらワーク91をワーク81に取り付ける。
第2のワーク91は、表面から突出する把持部94を有する。爪部3が把持部94を掴むことにより、第2のワーク91はハンド2に把持される。第1のワーク81は、表面から突出する突出部82,83を有する。突出部82および突出部83は互いに離れて配置されている。また、ワーク81は、突出部82および突出部83が鉛直方向に並ぶように、コンベヤ75に支持されている。それぞれの突出部82,83の上面には、穴部82a,83aが形成されている。第2のワーク91は、表面から突出する突出部92,93を有する。それぞれの突出部92,93には、ピン92a,93aが固定されている。ピン92aおよびピン93aは、互いに直線状に並ぶように配置されている。第1のロボット装置5は、ピン92aを穴部82aに挿入すると共に、ピン93aを穴部83aに挿入する作業を実施する。
ロボット装置5は、第1のワーク81を撮像する視覚センサとしてのカメラ25を備える。本実施の形態におけるカメラ25は、2次元カメラである。カメラ25は、支持部材17を介してハンド2に支持されている。カメラ25は、ハンド2と共に位置および姿勢が変化する。カメラ25は、第2のワーク91が第1のワーク81に接近している期間中に第1のワーク81の画像を撮像する。カメラ25は、第2のワーク91が第1のワーク81から離れている時から第2のワーク91が第1のワーク81の近傍に配置されている時まで画像を撮像する。
カメラ25は、第1のワーク81の位置を検出するための第1のワーク81の第1の特徴部位を撮像することができる様に配置されている。本実施の形態では、後述するように第1のワーク81の第1の特徴部位は、突出部83の側面に定められている。本実施の形態のカメラ25は、光軸が第2のワーク91が第1のワーク81に向かう向き(基準座標系51のX軸方向)にほぼ平行になるように配置されている。
ロボット装置5は、ハンド2に把持された第2のワーク91の把持のずれ量を検出するための補助センサを備える。本実施の形態の補助センサは、視覚センサである固定カメラ27にて構成されている。本実施の形態の固定カメラ27は、2次元カメラである。固定カメラ27は、架台71により設置面に固定されている。固定カメラ27は、ロボット1が位置および姿勢を変更することにより、第2のワーク91を撮像できる位置に配置されている。
ロボット装置5には、基準座標系51が設定されている。図1に示す例では、ロボット1のベース部14に基準座標系51の原点が配置されている。基準座標系51はワールド座標系とも称される。基準座標系51は、原点の位置が固定され、更に、座標軸の向きが固定されている座標系である。ロボット1の位置および姿勢が変化しても基準座標系51の位置および向きは変化しない。基準座標系51は、座標軸として、互いに直交するX軸、Y軸、およびZ軸を有する。また、X軸の周りの座標軸としてW軸が設定される。Y軸の周りの座標軸としてP軸が設定される。Z軸の周りの座標軸としてR軸が設定される。
ロボット装置5には、ハンド2と共に移動するツール座標系52が設定されている。本実施の形態のツール座標系52の原点は、ツール先端点に設定されている。ツール座標系52は、座標軸として、互いに直交するX軸、Y軸、およびZ軸を有する。また、ツール座標系52は、X軸の周りのW軸、Y軸の周りのP軸、およびZ軸の周りのR軸を有する。ロボット1の位置は、ツール座標系52の原点の位置にて表すことができる。また、ロボット1の姿勢は、基準座標系51に対するツール座標系52の向きにて表すことができる。
図3に、本実施の形態におけるロボット装置のブロック図を示す。図1から図3を参照して、ロボット1は、ロボット1の位置および姿勢を変化させるロボット駆動装置を含む。ロボット駆動装置は、アームおよびリスト等の構成部材を駆動するロボット駆動モーター22を含む。ロボット駆動モーター22が駆動することにより、それぞれの構成部材の向きが変化する。
ハンド2は、ハンド2を駆動するハンド駆動装置を備える。ハンド駆動装置は、ハンド2の爪部3を駆動するハンド駆動モーター21を含む。ハンド駆動モーター21が駆動することによりハンド2の爪部3が開いたり閉じたりする。なお、爪部は、空気圧により作動するように形成されていても構わない。この場合には、ハンド駆動装置は、空気ポンプおよびシリンダなどの空気圧にて爪部を駆動する装置を含むことができる。
ロボット装置5の制御装置は、ロボット1およびハンド2を制御するロボット制御装置4を含む。ロボット制御装置4は、プロセッサとしてのCPU(Central Processing Unit)を有する演算処理装置(コンピュータ)を含む。演算処理装置は、CPUにバスを介して接続されたRAM(Random Access Memory)およびROM(Read Only Memory)等を有する。ロボット制御装置4には、ロボット1、ハンド2、およびコンベヤ75の制御を行うために予め作成された動作プログラム41が入力される。ロボット1およびハンド2は、動作プログラム41に基づいて第2のワーク91を搬送する。コンベヤ75は、動作プログラム41に基づいて第1のワーク81を搬送する。
ロボット制御装置4の演算処理装置は、予め定められた情報を記憶する記憶部42を含む。記憶部42は、ロボット1、ハンド2、およびコンベヤ75の制御に関する情報を記憶する。記憶部42は、揮発性メモリ、不揮発性メモリ、またはハードディスク等の情報を記憶可能な記憶媒体にて構成されることができる。動作プログラム41は、記憶部42に記憶される。ロボット制御装置4は、ロボット装置5に関する任意の情報を表示する表示器46を含む。表示器46は、例えば、液晶表示パネルを含む。
演算処理装置は、ロボット1およびハンド2を駆動する動作指令を送出する動作制御部43を含む。動作制御部43は、動作プログラム41に従って駆動するプロセッサに相当する。動作制御部43は、記憶部42に記憶された情報を読み取り可能に形成されている。プロセッサは、動作プログラム41を読み込んで、動作プログラム41に定められた制御を実施することにより、動作制御部43として機能する。
動作制御部43は、動作プログラム41に基づいてロボット1を駆動するための動作指令をロボット駆動部45に送出する。ロボット駆動部45は、ロボット駆動モーター22を駆動する電気回路を含む。ロボット駆動部45は、動作指令に基づいてロボット駆動モーター22に電気を供給する。また、動作制御部43は、動作プログラム41に基づいてハンド2を駆動する動作指令をハンド駆動部44に送出する。ハンド駆動部44は、ハンド駆動モーター21を駆動する電気回路を含む。ハンド駆動部44は、動作指令に基づいてハンド駆動モーター21に電気を供給する。更に、動作制御部43は、動作プログラム41に基づいて、カメラ25および固定カメラ27に画像を撮像する指令を送出する。
ロボット制御装置4の演算処理装置は、カメラ25および固定カメラ27の出力を処理する演算処理部31を含む。演算処理部31は、カメラ25にて撮像された画像において、予め定められた特徴的な部分である特徴部位の特徴量を検出する特徴量検出部32を有する。演算処理部31は、特徴量検出部32にて検出された特徴量が判定範囲内であるか否かを判定する判定部36を有する。演算処理部31は、特徴量の判定範囲を設定する範囲設定部37を有する。
演算処理部31は、固定カメラ27の出力に基づいて、ハンド2に対する第2のワーク91の把持のずれ量を算出する算出部33を有する。演算処理部31は、算出部33により算出されたずれ量に基づいて、第1の基準特徴量を修正して第2の基準特徴量を生成する修正部34を含む。また、演算処理部31は、ロボット1を動作させる移動指令を生成する指令生成部35を含む。
演算処理部31は、動作プログラム41に従って駆動するプロセッサに相当する。特に、特徴量検出部32、判定部36、範囲設定部37、算出部33、修正部34、および指令生成部35のそれぞれのユニットは、動作プログラム41に従って駆動するプロセッサに相当する。プロセッサは、動作プログラム41を読み込んで、動作プログラム41に定められた制御を実施することにより、それぞれのユニットとして機能する。
ロボット装置5は、ロボット装置5の運転状態を検出する状態検出器を備える。本実施の形態の状態検出器は、ロボット1の位置および姿勢を検出する位置検出器23を含む。位置検出器23は、アーム等の構成部材の駆動軸に対応するロボット駆動モーター22に取り付けられている。例えば、位置検出器23は、ロボット駆動モーター22が駆動するときの回転角を検出する。位置検出器23の出力に基づいて、ロボット1の位置および姿勢が検出される。
ロボット装置5の制御装置は、コンベヤ75の動作を制御するコンベヤ制御装置76を備える。コンベヤ制御装置76は、CPUおよびRAM等を含む演算処理装置(コンピュータ)を含む。コンベヤ制御装置76は、ロボット制御装置4と互いに通信することができるように形成されている。動作制御部43は、動作プログラム41に基づいて、コンベヤ75を駆動する動作指令をコンベヤ制御装置76に送出する。コンベヤ制御装置76は、ロボット制御装置4からの動作指令を受信して、コンベヤ75を駆動する。
本実施の形態のロボット装置5の制御装置は、ロボット1およびハンド2を制御するロボット制御装置4と、コンベヤ75を制御するコンベヤ制御装置76とを備えるが、この形態に限られない。ロボット装置5は、1つの制御装置にて、ロボット1、ハンド2、およびコンベヤ75を制御するように形成されていても構わない。
また、本実施の形態のロボット装置5の制御装置では、ロボット制御装置4がカメラ25および固定カメラ27の出力を処理する機能を有する演算処理部31を含むが、この形態に限られない。ロボット装置の制御装置は、ロボット制御装置とは別に、演算処理部31として機能する演算処理装置(コンピュータ)を備えていても構わない。この演算処理装置のプロセッサは、動作プログラムに基づいて駆動することにより、特徴量検出部、判定部、範囲設定部、算出部、修正部、および指令生成部として機能する。演算処理装置は、ロボット制御装置と互いに通信することができるように形成される。
図4に、実際の作業においてハンドにおける第2のワークの把持のずれが生じた時の第1のワーク、第2のワーク、およびハンドの拡大斜視図を示す。ロボット装置5がワーク91を把持するときに、把持のずれが生じる場合がある。図4に示す例では、矢印102に示すように、ハンド2の爪部3に対して第2のワーク91が下側にずれている。本実施の形態では、ワーク91の把持のずれを考慮して制御を実施する。
(第1の制御)
次に、本実施の形態の第1の制御について説明する。本実施の形態の第1のロボット装置5の制御装置は、矢印101に示すように、穴部82a,83aに対してピン92a,93aを近づける制御を行う。制御装置は、カメラ25にて撮像された画像に基づいて、突出部83の近くに突出部93が配置されるように、ワーク91の位置を調整する。制御装置は、特に基準座標系51のY軸方向およびZ軸方向におけるワーク91の位置を調整する。
本実施の形態の制御の後には、穴部82aの真上にピン92aを配置し、穴部83aの真上にピン93aを配置する制御を実施することができる。すなわち、ワーク91の精密な位置合わせを実施することができる。そして、鉛直方向の下側にワーク91を移動することにより、ピン92a,93aが穴部82a,83aに挿入されて、ワーク91がワーク81に取り付けられる。なお、本実施の形態の制御にて、穴部82aの真上にピン92aが配置され、穴部83aの真上にピン93aが配置されるまで、ワーク91の位置を調整しても構わない。
第1の制御を実施する前には、ワーク81に対するワーク91の姿勢は調整されている。すなわち、ワーク91のピン92aおよびピン93aの並ぶ方向が、ワーク81の穴部82aおよび穴部83aの並ぶ方向と平行になるように、ロボット1の姿勢が調整されている。
図5に、本実施の形態の制御を行うための第1の基準画像を示す。本実施の形態の制御を実施する準備作業として、第1のワーク81の第1の基準画像61を生成する。第1の基準画像61は、第1のワーク81に対して第2のワーク91が目標の位置に配置されている時にカメラ25にて撮像された画像に相当する。また、第1の基準画像61は、図2に示すように、ハンド2に対して第2のワーク91が予め定められた位置にて把持されている時の画像である。すなわち、第1の基準画像61は、第2のワーク91の把持のずれが無い時の画像である。第1の基準画像61は、作業者が予め作成して、記憶部42に記憶させておくことができる。
本実施の形態では、第1のワーク81の位置を検出するための特徴部位が予め定められている。特徴部位は、画像を解析した時に形状が検出できる部分である。特徴部位は、ワークの一部分、ワークの表面に形成された模様、ワークの表面に記載された線または図などを採用することができる。また、特徴部位は、第1のワーク81および第2のワーク91が移動してもカメラ25の撮像範囲25aに含まれる位置に設定されることが好ましい。本実施の形態では、突出部83の側面83bが第1の特徴部位に定められている。
第1のワーク81には、第1の特徴部位としての突出部83の側面83bに、設定点P11が設定されている。設定点P11は、突出部83の側面83bの角に設定されている。設定点P11の位置は、ワーク81の位置に相当する。設定点P11は、カメラ25にて撮像したときに画像に含まれる位置に設定されている。
図3、図4、および図5を参照して、演算処理部31は、第1の基準画像61における第1の基準特徴量を算出する。演算処理部31の特徴量検出部32は、第1の基準画像61の第1の特徴部位を検出する。特徴部位の検出方法としては、ワーク81の基準となるベース画像を予め準備しておくことができる。ベース画像とカメラ25にて撮像した画像とを用いてテンプレートマッチング等の方法により、カメラ25にて撮像した画像における特徴部位を検出することができる。ここでの例では、特徴量検出部32は、突出部83の側面83bを検出する。
カメラ25にて撮像された画像にはスクリーン座標系53が設定されている。スクリーン座標系53は、画像における任意の点を原点に設定したときの座標系である。スクリーン座標系53は、互いに直交するu軸およびv軸を有する。スクリーン座標系53は、カメラ25の視覚センサ座標系に対応する。
本実施の形態の位置に関する特徴量は、画像におけるスクリーン座標系53のu軸の座標値およびv軸の座標値である。特徴量検出部32は、第1の基準画像61において検出された第1の特徴部位に基づいて、第1の特徴部位に設定された設定点P11の位置を検出する。特徴量検出部32は、第1の基準特徴量として、設定点P11のスクリーン座標系53の座標値(u1b,v1b)を検出する。
このように、演算処理部31は、基準画像61における第1の基準特徴量を検出することができる。特徴量検出部32にて検出された第1の基準特徴量は、記憶部42に記憶することができる。なお、基準特徴量は、任意の方法にて検出することができる。例えば、作業者が基準画像上で設定点P11を指定する。そして、特徴量検出部32がスクリーン座標系53における設定点P11の座標値を検出しても構わない。
また、本実施の形態の第1の基準画像61は、実際にカメラ25にて撮像した画像を用いているが、この形態に限られない。第1の基準画像は、例えば、ロボット装置5およびワーク81,91の3次元データをCAD(Computer Aided Design)装置等により生成することができる。ワーク81に対してワーク91が目標の位置に配置されているときの3次元データを生成することができる。この3次元データをカメラの向きに対応する方向に沿って1つの平面に投影することにより、第1の基準画像61を生成しても構わない。
図6に、本実施の形態における第1の制御のフローチャートを示す。第1の制御では、1個のカメラ25にて撮像された画像を用いて、コンベヤ75にて搬送されるワーク81に対してワーク91の位置を合わせる制御を実施する。前述の通りに、第1の制御の前には、ワーク81の姿勢に対するワーク91の姿勢は予め調整されている。すなわち、カメラ25にて画像を撮像するときのロボット1の姿勢は調整されている。
図3から図6を参照して、始めに、ロボット装置5は、第2のワーク91を把持する。例えば、作業台に載置されている第2のワーク91をロボット装置5が把持する。この制御は、任意の制御にて実施することができる。本実施の形態では、図4に示すように、ワーク91の把持のずれが生じている。すなわち、ハンド2に対する第2のワーク91の把持部94の位置が予め定められた位置からずれている。
ロボット装置5が第2のワーク91を把持した時に、ハンド2に対するワーク91のずれ量が小さい場合がある。例えば、ロボット装置5がワーク91を把持する制御を精度よく行った場合には、ハンド2に対するワーク91のずれ量は小さくなる。本実施の形態の制御では、第2のワーク91を第1のワーク81に接近させれば良い。すなわち、第1のワーク81に対して第2のワーク91の位置を精密に合わせなくても良い。そこで、第1の制御では、ハンド2に対するワーク91のずれを予め定められた範囲内で許容する制御を実施する。
ステップ121においては、第1の基準画像61において、第1の特徴部位の位置に関する第1の特徴量の判定範囲を設定する。第1の特徴量の判定範囲は、ハンド2における第2のワーク91の把持のずれに関連する。第1の特徴量の判定範囲は、第1の基準特徴量に基づいて、設定点P11の周りに設定することができる。
図7に、第1の特徴量の判定範囲を説明する第1の基準画像を示す。第1の基準画像61において、第1の特徴量の判定範囲65が設定されている。本実施の形態では、突出部83の側面83bの位置を示す設定点P11から予め定められた距離の範囲を判定範囲65に設定している。
判定範囲65は、ワーク91を搬送するときに許容できる把持のずれ量に応じて、形状および大きさを定めることができる。判定範囲65は、第1の基準画像61に対して作業者が予め設定することができる。例えば、作業者が表示器46に表示された基準画像61を見て、画面上で判定範囲65を設定しても構わない。演算処理部31の範囲設定部37は、作業者の操作に応じて判定範囲65を設定することができる。または、判定範囲65の形状および大きさを予め記憶部42に記憶しておくことができる。範囲設定部37は、設定点P11の位置および作業者が予め設定した形状および大きさに基づいて、判定範囲65を設定しても構わない。例えば、範囲設定部37は、設定点P11の位置を中心として半径が10ピクセルの円を判定範囲に設定することができる。
次に、第1のワーク81に対して第2のワーク91を近づける制御を実施する。本実施の形態では、第2のワーク91が第1のワーク81に向かう方向のワーク91の移動速度は一定の速度が採用されている。図4を参照して、基準座標系51のX軸の方向にロボット1の位置が移動する速度は、一定の速度が採用されている。更に、第1の制御を実施することにより、ロボット1の位置の調整を行う。
ステップ114において、カメラ25は、第1のワーク81の第1の特徴部位である突出部83の側面83bを撮像する。ステップ115およびステップ116は、第1の基準画像61に対する制御と同様である。ステップ115においては、特徴量検出部32は、カメラ25にて撮像した画像の特徴部位を検出する。特徴部位を検出するためのベース画像としては、基準画像61を用いても構わない。ここでは、第1の特徴部位としてワーク81の突出部83の側面83bを検出する。
ステップ116において、特徴量検出部32は、カメラ25にて撮像した画像における第1の特徴量を検出する。特徴量検出部32は、第1の特徴部位の位置に関する第1の特徴量として、設定点P11のスクリーン座標系53の座標値(u1m,v1m)を検出する。
ステップ117において、指令生成部35は、第1の特徴量と第1の基準特徴量との差である相対位置量を算出する。換言すると、指令生成部35は、カメラ25にて撮像した画像における設定点P11の位置と、第1の基準画像61における設定点P11の位置との相対的な位置の差を算出する。本実施の形態では、指令生成部35は、それぞれの座標軸において、カメラ25にて撮像した画像における設定点P11の座標値から第1の基準画像61における設定点P11の座標値を減算した値を算出する。相対位置量は、それぞれのu軸およびv軸に関する値として[(u1m-u1b),(v1m-v1b)]にて表すことができる。このように、本実施の形態では、u軸に関する相対位置量と、v軸に関する相対位置量とを算出する。
ステップ118において、指令生成部35は、相対位置量に基づいて、ロボット1の駆動方法を設定する。指令生成部35は、基準座標系51におけるロボット1の位置の移動方向および移動量を設定する。本実施の形態では、相対位置量に対するロボットの位置の移動方向が予め定められている。スクリーン座標系53のu軸の正の値または負の値に対してロボット1の位置の移動方向が、基準座標系51にて定められている。
更に、相対位置量に対するロボット1の位置の移動量の算出方法が予め定められている。例えば、u軸に対応する方向におけるロボット1の位置の移動量は、u軸に関する値(u1m-u1b)に、予め定められた係数を乗じた値を採用することができる。また、v軸に対応する方向におけるロボット1の位置の移動量は、v軸に関する値(v1m-v1b)に、予め定められた係数を乗じた値を採用することができる。このように、スクリーン座標系53の各軸に対応する方向において、ロボット1の位置の移動量を算出することができる。
なお、本実施の形態においては、ワーク91がワーク81に徐々に近づく制御を実施している。このために、ワーク91がワーク81に向かう方向のロボット1の位置の移動量に応じて、上記の係数を変化させても構わない。
本実施の形態では、u軸に関する相対位置量に基づいて基準座標系51におけるX軸方向の移動量、Y軸方向における移動量、およびZ軸方向の移動量を算出することができる。また、v軸に関する相対位置量に基づいて、基準座標系51におけるX軸方向の移動量、Y軸方向における移動量、およびZ軸方向の移動量を算出することができる。このために、基準座標系51において、一つの座標軸に対して2つの移動量(u軸に関する移動量およびv軸に関する移動量)が算出される場合がある。この場合には、2つの移動量が算出される座標軸の方向にはロボット1の位置を移動しなくても構わない。または、それぞれの移動量に係数を乗じて最終的な移動量を算出しても構わない。または、いずれか一方の移動量を採用しても構わない。
また、第2のワーク91が第1のワーク81に向かう方向のワーク91の移動量は採用しなくても構わない。例えば、図1を参照して、基準座標系51のX軸の方向にロボット1の位置が移動する移動速度は、相対位置量から算出される移動速度に関わらずに、一定の速度が採用されても構わない。
次に、ステップ119において、ロボット1の位置の移動方向および移動量に基づいて、ロボット1を駆動する。指令生成部35は、ロボット1の位置の移動方向および移動量に基づいて、ロボット1の位置を変更する移動指令を生成する。指令生成部35は、移動指令を動作制御部43に送出する。動作制御部43は、移動指令に基づいてロボットを駆動する。
このように、指令生成部35は、特徴量検出部32により検出された第1の特徴量および第1の基準特徴量に基づいて、第1の特徴量が第1の基準特徴量に近づくようにロボットの位置を変更する制御を実施することができる。すなわち、カメラ25にて撮像された画像における設定点P11の位置が、第1の基準画像61における設定点P11の位置に近づくようにロボットの位置を変更することができる。
次に、ステップ122からステップ124では、ステップ114からステップ116までの制御と同様の制御を実施する。特徴量検出部32は、カメラ25にて撮像した画像に基づいて、ロボット1の位置が移動した後の第1の特徴量を検出する。すなわち、特徴量検出部32は、画像における設定点P11の位置を検出する。
ステップ125において、判定部36は、指令生成部35が生成した移動指令によりロボット1の位置が移動した後の第1の特徴量が判定範囲65内であるか否かを判定する。すなわち、判定部36は、カメラ25にて撮像した画像における設定点P11が判定範囲65の内部に配置されているか否かを判定する。
特徴量検出部32が検出した第1の特徴量が判定範囲65から逸脱している場合には、制御はステップ117に戻る。そして、ステップ117からステップ119の制御を繰り返す。換言すると、特徴量検出部32にて検出された第1の特徴量に基づいて指令生成部35が移動指令を生成する制御と、動作制御部43がロボット1を駆動する制御とを繰り返す。ステップ125において、特徴量検出部32が検出した第1の特徴量が判定範囲65内である場合には、制御は、ステップ120に移行する。
ステップ120において、判定部36は、ロボット1の位置の移動量が予め定められた判定値を超えたか否かを判定する。本実施の形態においては、ワーク91がワーク81に向かう方向において、ロボット1の位置が予め定められた距離にて移動したか否かを判定する。図1に示す例では、基準座標系51のX軸の方向に、予め定められた距離にてツール先端点が移動したか否かを判定する。
ステップ120において、ロボット1の位置の移動量が予め定められた判定値以下の場合には、制御はステップ117に戻る。そして、ステップ117からステップ125の制御を繰り返す。この様に、第2のワーク91が第1のワーク81に接近するまで、同様の制御を繰り返すことができる。一方で、ステップ120において、ロボット1の位置の移動量が予め定められた判定値を超えた場合には、この制御を終了する。この後に、ワーク81に対してワーク91の位置を精密に合わせる制御を実施することができる。
第2のワーク91を第1のワーク81に近づける制御においては、カメラ25にて撮像された画像における第1の特徴量が第1の基準画像61における第1の基準特徴量と一致するまで行うことが好ましい。しかしながら、ワーク91の把持のずれが生じていた場合には、カメラ25にて撮像された画像の第1の特徴量が第1の基準特徴量と一致した場合にも、ワーク81に対するワーク91の位置は所望の位置からずれている。また、ワーク91をワーク81に近づける制御では、ワーク81に対するワーク91の位置が精密に合っていなくても構わない。本実施の形態の第1の制御では、第1の特徴量の判定範囲65は、ハンド2におけるワーク91の把持のずれを考慮して設定されている。このために、ハンド2におけるワーク91の把持のずれを予め定められた範囲にて許容しながら、ワーク91をワーク81に近づける制御を実施することができる。
(第2の制御)
次に、本実施の形態における第2の制御について説明する。第2の制御では、第1の基準画像における第1の基準特徴量を修正する。第2の制御では、ハンド2における第2のワーク91の把持のずれ量に基づいて第1の基準特徴量を修正して第2の基準特徴量を生成する。そして、第2の基準特徴量に基づいて、第2のワーク91を第1のワーク81に近づける制御を実施する。
図8に、本実施の形態における第2の制御のフローチャートを示す。ステップ111からステップ113では、第1の基準画像61における第1の基準特徴量を修正して、第2の基準画像における第2の基準特徴量を生成する。
図1、図3、図4、および図8を参照して、ステップ111においては、固定カメラ27にて第2のワーク91を撮像する。ここでの例では、ワーク91の把持のずれ量を検出するために、ワーク91の把持部94が特徴部位に設定されている。動作制御部43は、第2のワーク91を撮像するために、動作プログラム41に設定された位置および姿勢になるように、ロボット1の位置および姿勢を変更する。このときのロボット1の位置および姿勢は、固定カメラ27にてワーク91の把持部94が撮像できる位置および姿勢である。次に、固定カメラ27は、ワーク91の把持部94を撮像する。
ステップ112において、演算処理部31の特徴量検出部32は、固定カメラ27にて撮像された画像において把持部94を検出する。予め定められた方向から撮像された時の把持部94のベース画像は、予め作成されている。固定カメラ27にて撮像された画像とベース画像とを用いて、テンプレートマッチングの方法により、固定カメラ27にて撮像した画像における把持部94を検出する。特徴量検出部32は、スクリーン座標系53における把持部94の位置を検出する。
ツール座標系52における実際のワークの位置に対するスクリーン座標系53におけるワークの位置は較正されている。このために、特徴量検出部32は、固定カメラ27にて撮像した画像に基づいて把持部94の位置を、ツール座標系52にて算出することができる。
算出部33は、ハンド2における第2のワーク91の把持のずれ量を算出する。ワーク91の把持のずれが生じていない時のツール座標系52におけるワーク91の基準位置は予め定められている。この基準位置と、固定カメラに27にて撮像した画像から検出されたワーク91の位置とに基づいて、ハンド2におけるワーク91の位置のずれ量を、ツール座標系52にて算出することができる。
次に、ステップ113において、修正部34は、算出部33により算出されたずれ量に基づいて、第1の基準特徴量を修正して、第2の基準特徴量を生成する。修正部34は、第2のワーク91の把持のずれを修正するように第1の基準特徴量を変更する。
本実施の形態では、ハンド2に対してワーク91が下側にずれている。このために、ロボット1の位置が上側に移動するように第1の基準特徴量を修正する。すなわち、ハンド2に対してワーク91がずれている方向と反対の方向にロボット1の位置が移動するように、第1の基準特徴量を修正する。修正部34は、ワーク91の把持のずれを打ち消すように第1の基準特徴量を修正して第2の基準特徴量を生成する。
図9に、本実施の形態における第2の基準画像を示す。本実施の形態では、修正部34は、第1の基準画像61を修正して第2の基準画像62を生成する。図9においては、修正部34にて修正する前の第1の基準画像61における第1のワーク81が、参考のために破線にて示されている。第2の基準画像62では、突出部83の位置が矢印103に示す方向に移動するように修正されている。設定点P11の位置は、設定点P12の位置まで移動している。
第2の制御においては、修正部34は、ヤコビアン行列を用いて特徴部位の移動方向および移動量を算出している。ヤコビアン行列は、ロボットの位置を微小量にて移動したときの視覚センサ座標系での位置の変化量に基づいて算出される。視覚センサ座標系における変化量とロボットの移動量との関係は、以下の式(1)にて表すことができる。
ΔT=t・J・ΔV …(1)
ここで、ΔTは、ロボットの位置の移動量の行列であり、ΔVは、視覚センサ座標系における位置の変化量の行列であり、Jはヤコビアン行列であり、tは定数(スケール)である。視覚センサ座標系は、スクリーン座標系53に対応する。このために、ΔVは、カメラにて撮像された画像における位置の変化量に対応する。また、ロボット1の位置の移動量は、ハンド2におけるワーク91のずれ量に対応する。このために、ΔTは、ハンド2におけるワーク91の把持のずれ量に対応する。
上記の式(1)を変形して、ハンド2におけるワーク91の把持のずれ量にヤコビアン行列の逆行列を乗じることにより、画像における位置の変化量を算出することができる。この制御により、修正部34は、第1の基準画像61における特徴部位の移動方向および移動量を算出することができる。修正部34は、第1の基準画像61における特徴部位の位置を修正して、第2の基準画像62を生成することができる。
第2の基準画像62においては、設定点P12の座標値が第2の基準特徴量になる。このように、修正部34は、第1の基準特徴量を修正して、第2の基準特徴量を生成することができる。修正部34は、第2の基準特徴量として、設定点P12のスクリーン座標系53の座標値(u2b,v2b)を設定することができる。
なお、上記の実施の形態では、修正部34は、第1の基準画像61を修正して第2の基準画像62を生成し、第2の基準画像62に基づいて第2の基準特徴量を設定しているが、この形態に限られない。修正部34は、基準画像を修正せずに、ヤコビアン行列を用いて第2の基準特徴量を算出しても構わない。
次に、ステップ127において、カメラ25の画像から検出される第1の特徴量の判定範囲を設定する。第2の制御においては、第2の基準特徴量に基づいて判定範囲66が設定される。第2の基準画像62において、設定点P12を含むように判定範囲66が設定される。判定範囲66の設定方法は、第1の制御における設定点P11の判定範囲65の設定方法と同様である(図7を参照)。また、第2の制御における判定範囲66は、第1の制御における判定範囲65よりも小さく設定することができる。
次に、第2のワーク91を第1のワーク81に接近させる制御を実施する。ステップ114からステップ116は、第1の制御におけるステップ114からステップ116と同様である(図6を参照)。特徴量検出部32は、カメラ25にて第1の特徴部位としての突出部83の側面83bを検出する。特徴量検出部32は、第1の特徴量として設定点P11の座標値(u1m,v1m)を検出する。
ステップ128において、指令生成部35は、カメラ25にて撮像した画像における設定点P11の位置と、第2の基準画像62における設定点P12の位置との相対的な位置の差である相対位置量を算出する。第2の制御では、指令生成部35は、それぞれの座標軸において、カメラ25にて撮像した画像における設定点P11の座標値から第2の基準画像62における設定点P12の座標値を減算した値を算出する。相対位置量は、それぞれのu軸およびv軸に関する値として[(u1m-u2b),(v1m-v2b)]にて表すことができる。このように、指令生成部35は、第1の制御と同様の制御により、u軸に関する相対位置量と、v軸に関する相対位置量とを算出する。
ステップ118およびステップ119においては、第1の制御と同様に、演算処理部31は、相対位置量に基づいて、ロボット1を駆動する。また、ステップ122からステップ124の制御は、ステップ114からステップ116の制御と同様である。
ステップ129において、判定部36は、指令生成部35が生成した移動指令によりロボット1の位置が移動した後の第1の特徴量が判定範囲66内であるか否かを判定する。すなわち、判定部36は、第2の基準特徴量に基づいて設定された判定範囲66の内部に、カメラ25にて撮像した画像における設定点P11が配置されているか否かを判定する。
ステップ129において、第1の特徴量が判定範囲66を逸脱する場合には、制御はステップ128に戻る。ステップ129において、第1の特徴量が判定範囲66内である場合には、制御はステップ120に移行する。ステップ120において、ロボット1の位置の移動量が予め定められた判定範囲以下の場合には、制御はステップ128に戻る。このように、基準特徴量を修正して、第1の制御と同様の制御を実施することができる。
第2の制御では、第1の基準特徴量を把持のずれ量に基づいて修正した第2の基準特徴量を用いることにより、ワーク91をワーク81に接近させる制御を実施している。ハンド2がワーク91を把持したときの把持の位置のずれを修正してロボットの位置を制御することができる。このために、第1の制御よりも精密にワーク81に対するワーク91の位置を調整することができる。
また、第2の制御では、ヤコビアン行列を用いて第1の基準特徴量を修正している。ヤコビアン行列は、ロボットの位置を微小量にて移動したときの視覚センサ座標系での位置のずれに基づいて算出される。このために、特徴部位の近傍ではロボットを精度よく駆動できるが、特徴部位から離れると精度が低下する。例えば、ロボットを大きな移動量にて移動させると精度が悪いという問題がある。また、ヤコビアン行列を算出するときの測定誤差などにより、ヤコビアン行列が精度良く算出できない場合がある。この結果、ハンド2におけるワーク91の把持のずれに対応して、第2の基準特徴量を正確に算出できない場合がある。
しかしながら、第2の制御においても、第1の特徴量の判定範囲を設定しているために、第2の基準特徴量の誤差を許容しながら、ワーク91をワーク81に近づける制御を実施することができる。上記以外の第2の制御は、第1の制御と同様であるので、ここでは説明を繰り返さない。
(第3の制御)
次に、本実施の形態における第3の制御について説明する。第3の制御においては、第1の基準特徴量を修正して第2の基準特徴量を生成する制御が第2の制御と異なる。第3の制御においては、ハンド2におけるワーク91の把持のずれ量に対して、精密に特徴部位を移動して第2の基準特徴量を生成する。換言すると、第3の制御においては、第2の制御における第2の基準特徴量よりも正確に第2の基準特徴量を算出する。このために、第3の制御においては、第1の特徴量が判定範囲内であるか否かの判定は行わずに制御を実施する。
図10に、本実施の形態の第3の制御のフローチャートを示す。図8および図10を参照して、ステップ111およびステップ112は、第2の制御と同様である。算出部33は、固定カメラ27にて撮像された第2のワーク91の画像に基づいて、把持のずれ量を算出する。
ステップ113において、修正部34は、算出部33により算出されたずれ量に基づいて、第1の基準特徴量を修正して第2の基準特徴量を生成する。修正部34は、精度よく第2の基準特徴量を算出する。第3の制御では、ロボット1の位置および姿勢に対して、カメラ25にて撮像される画像が予め較正されている。このために、修正部34は、ツール座標系52におけるワーク91の位置のずれ量を、スクリーン座標系53におけるワーク91の位置のずれ量に精度よく変換することができる。修正部34は、ワーク91の把持のずれを打ち消すように第1の基準特徴量を修正して第2の基準特徴量を生成する。
図11に、第3の制御において生成された第2の基準画像を示す。第2の基準画像63は、第2の制御において生成された基準画像62に類似する(図9を参照)。しかしながら、第1の特徴部位としての突出部83の側面83bは、ハンド2におけるワーク91の把持のずれ量に対応して正確に移動されている。第2の基準特徴量としての設定点P12の座標値についても、ワーク91の把持のずれ量に対応した正確な座標値を検出することができる。また、第2の基準画像63においては、第1の特徴量の判定範囲は設定されていない。
次に、第3の制御では、第1の特徴量の判定範囲は設定せずに、第2のワーク91を第1のワーク81に近づける制御を実施する。ステップ114からステップ116におけるカメラ25にて第1の特徴部位を撮像して第1の特徴量を検出する制御は、第2の制御と同様である。
ステップ128においては、ステップ113にて生成した精度の良い第2の基準特徴量を用いて、第2の基準特徴量に対する第1の特徴量の相対位置量を算出する。
ステップ118およびステップ119は、第2の制御におけるステップ118およびステップ119と同様である。指令生成部35は、相対位置量に基づいてロボット1を駆動する。
次に、第3の制御では、第1の特徴量が判定範囲内であるか否かの判定を行わずに、制御はステップ120に移行する。ステップ120は、第2の制御におけるステップ120と同様である。ステップ120において、ロボットの位置の移動量が判定値以下の場合には、制御はステップ114に移行する。
なお、第3の制御においては、ステップ120において、ロボット1の位置の移動量が予め定められた判定値を超えた場合に、第2のワーク91の突出部93が第1のワーク81の突出部83に十分に接近していない場合に、指令生成部35は、異常であると判断しても構わない。例えば、相対位置量が予め定められた判定範囲を逸脱する場合に、指令生成部35は、ロボット1を停止させる制御を実施しても構わない。
第3の制御では、ハンドがワークを把持したときの把持の位置のずれを精密に修正してロボットの位置を制御することができる。第3の制御では、ハンド2に対するワーク91の把持のずれ量に対応する第2の基準画像における第2の基準特徴量を正確に算出することができる。このために、第1のワーク81に対する第2のワーク91の位置の調整を正確に行うことができる。また、カメラ25にて撮像された画像における第1の特徴量の判定範囲を用いずに、第2のワークの位置の調整を行うことができる。上記以外の第3の制御は、第1の制御および第2の制御と同様であるので、ここでは説明を繰り返さない。
上記の第1の制御、第2の制御および第3の制御では、ワーク91がワーク81に徐々に近づく制御を実施している。カメラ25にて撮像した画像における特徴部位は徐々に大きくなる。このために、作業者は、ワーク91がワーク81に向かう方向のロボット1の位置の移動量に応じて複数の第1の基準画像を作成しても構わない。ワーク91がワーク81に向かう方向のロボット1の位置の移動量に応じて、第1の基準画像を切替える制御を実施しても構わない。または、基準画像における特徴部位の大きさに対するカメラ25にて撮像した画像における特徴部位の大きさの許容範囲を定めておくことができる。そして、特徴部位の大きさが許容範囲を超えたときに、第1の基準画像を切替える制御を実施しても構わない。
第2の制御および第3の制御において、複数の第1の基準画像を予め生成する場合には、修正部は、それぞれの第1の基準画像を修正して第2の基準画像を生成することができる。そして、複数の第2の基準画像を用いてワーク91の位置を調整する制御を実施することができる。
上記の制御においては、基準画像と実際に撮像した画像との相対位置量に基づいて、ロボット1の位置を変更しているが、この形態に限られない。基準画像における基準特徴量およびカメラにて撮像された画像における特徴量に基づいてロボットの位置を変更する任意の制御を実施することができる。例えば、カメラにて撮像された画像における特徴部位の位置に関するヤコビアン行列を予め生成することができる。カメラにて撮像した画像における特徴部位の位置、基準画像における特徴部位の位置、およびヤコビアン行列に基づいて、ロボットの位置を変更しても構わない。
本実施の形態の制御では、コンベヤ75が第1のワーク81を搬送している期間中に、第2のワーク91の位置合わせを実施している。カメラ25にて画像を撮像する制御と、特徴量検出部32による第1の特徴量を検出する制御と、特徴量検出部により検出された第1の特徴量が第1の基準特徴量または第2の基準特徴量に近づくようにロボットの位置を変更する制御とを繰り返している。この制御により、コンベヤ75にて移動するワーク81の位置に対してワーク91を把持するロボット1の位置を追従する制御を実施することができる。
ところで、本実施の形態においては、コンベヤ75による第1のワーク81の移動方向および移動速度が予め定められている。ロボット制御装置4は、コンベヤ75によるワーク81の移動に合わせてロボット1の位置を変更するフィードフォワード制御を実施することができる。本実施の形態では、一定の移動速度にてワーク81が移動する。なお、搬送機による第1のワークの移動方向および移動速度が予め定められていない場合がある。この場合に、指令生成部は、例えば、直近の第1のワークの移動方向および移動速度から将来の移動方向および移動速度を推定したり、予め学習した移動方向および移動速度の変化のパターンに基づいて将来の移動方向および移動速度を推定したりすることができる。
指令生成部35は、コンベヤ75によるワーク81の移動方向および移動速度に基づいて、ロボット1の位置の移動方向および移動量を算出する。指令生成部35は、コンベヤ75にて移動する第1のワーク81の位置に対してロボット1の位置が追従するロボット1の位置の移動方向および移動速度を算出する。例えば、指令生成部35は、ロボット1のツール先端点がワーク81の移動方向に移動するように移動方向を算出する。そして、指令生成部35は、ロボット1のツール先端点がワーク81の移動方向と同じ方向に、ワーク81と同一の移動速度にて移動する移動量を算出する。指令生成部35は、コンベヤ75の搬送に基づくロボット1の位置の移動方向および移動量の制御に加えて、前述の相対位置量に基づいて算出される移動方向および移動量の制御を実施することができる。
この制御を行うことにより、コンベヤ75による第1のワーク81の移動に関するロボット1の位置および姿勢の変更は、フィードフォワード制御にて実施することができる。相対位置量に基づく制御では、第1のワーク81に対する第2のワーク91の相対的な位置のずれを修正すれば良いために、第1のワーク81に対する第2のワーク91の位置合わせを精度よく行うことができる。
(複数のカメラにて撮像される画像に基づく制御)
第1のロボット装置5においては、1つのカメラ25によりロボット1の位置を調整しているが、この形態に限られない。本実施の形態の第1の制御、第2の制御、および第3の制御は、複数のカメラを備えるロボット装置に適用することができる。
図12に、本実施の形態における第2のロボット装置のハンド、第1のワーク、および第2のワークの拡大斜視図を示す。第2のロボット装置6では、ハンド2に支持部材18が固定されている。支持部材18は、下側に延びる棒状部18aと、上側に延びる棒状部18bと有する。下側に延びる棒状部18aには、第1のロボット装置5と同様に、第1の視覚センサとしてカメラ25が固定されている。カメラ25は、撮像範囲25aにて画像を撮像する。上側に延びる棒状部18bには、第2の視覚センサとしてのカメラ26が固定されている。カメラ26は、第1のワーク81の突出部82を撮像できる位置に配置されている。カメラ26は、撮像範囲26aにて画像を撮像する。本実施の形態のカメラ26は、2次元カメラである。また、カメラ26の出力は、カメラ25の出力と同様に、演算処理部31にて処理される。
第2のロボット装置6では、2台のカメラ25,26にて撮像した画像に基づいて、ワーク81に対するワーク91の位置を調整する。第2のロボット装置6では、カメラ26にて撮像された画像にて第1のワーク81の位置を検出するための第2の特徴部位が予め定められている。第2の特徴部位は、第1の特徴部位と異なる部分である。本実施の形態では、第2の特徴部位として、第1のワーク81の突出部82の側面82bが設定されている。第2の特徴部位には第1のワーク81の位置を定めるための設定点P21が設定されている。
カメラ26にて撮像される画像に関連して、第1のワーク81に対して目標の位置に第2のワーク91が配置されているときにカメラ26にて撮像された第3の基準画像は予め作成されている。また、第3の基準画像における第2の特徴部位の位置に関する第3の基準特徴量は、第1の基準特徴量と同様の制御により検出されている。第3の基準特徴量は、ハンド2に対して第2のワーク91が予め定められた位置にて把持された時の特徴量である。すなわち、第3の基準特徴量は、ハンド2に対する第2のワーク91の把持のずれが無い場合の基準特徴量である。
第2のワーク91を第1のワーク81に近づける制御では、カメラ26は、第2の特徴部位である突出部82の側面82bを撮像する。特徴量検出部32は、カメラ26にて撮像された画像において、第2の特徴部位の位置に関する第2の特徴量を検出する。
第2のロボット装置6の第1の制御では、第1のカメラ25にて撮像される画像および第1の基準特徴量に基づいて、ロボット1の移動指令を生成する。また、第2のカメラ26にて撮像される画像および第3の基準特徴量に基づいて、ロボット1の移動指令を生成する。第2の特徴量の判定範囲は、第3の基準特徴量に基づいて、第1の特徴量の判定範囲と同様の方法により定められる。
第2のワーク91を第1のワーク81に近づける制御では、指令生成部35は、カメラ26にて撮像した画像における第2の特徴量および第3の基準特徴量に関する相対位置量を算出する。そして、指令生成部35は、相対位置量に基づいて、第1のワーク81に対して第2のワーク91が目標の位置に配置されるようにロボット1を動作させる移動指令を生成する。
指令生成部35は、カメラ25の画像から生成された移動指令と、カメラ26の画像から生成された移動指令とに基づいて、動作制御部43に送出する最終的な移動指令を生成することができる。指令生成部35は、第1の特徴量が第1の基準特徴量に近づいて、更に、第2の特徴量が第3の基準特徴量に近づくようにロボット1の位置を変更する移動指令を生成する。例えば、指令生成部35は、カメラ25の画像に基づく移動指令およびカメラ26の画像に基づく移動指令のうち、一方の移動指令にてロボット1を駆動した後に、他方の移動指令にてロボット1を駆動することができる。
または、カメラ25の画像に基づく移動指令と、カメラ26の画像に基づく移動指令とを合成しても構わない。例えば、カメラ25の画像のu軸に対応するロボット1の位置の移動方向と、カメラ26の画像のv軸に対応するロボット1の位置の移動方向とが一致する場合には、ロボット1の移動量の平均値を算出しても構わない。または、それぞれの画像に基づく移動指令は、基準座標系51における各座標軸の移動量にて生成することができる。このために、それぞれの座標軸における移動量は、2つのカメラの画像に基づく移動量に係数を乗じて加算しても構わない。
カメラ25,26の画像に基づいてロボット1の位置を変更した後には、判定部36は、第1の特徴量が判定範囲内であるか否かを判定する。また、判定部36は、第2の特徴量が判定範囲内であるか否かを判定する。判定部36は、第1の特徴量および第2の特徴量の両方の特徴量が判定範囲内である場合に、第1のワーク81に対する第2のワーク91の位置合わせが完了していると判定することができる。
第1の特徴量および第2の特徴量のうち少なくとも一方の特徴量が判定範囲を逸脱する場合には、ロボット制御装置4は、第1のカメラ25および第2のカメラ26にて画像を撮像する制御と、特徴量検出部32にて第1の特徴量および第2の特徴量を検出する制御と、指令生成部35にて移動指令を生成する制御と、動作制御部43にてロボット1を駆動する制御とを繰り返す。
第2のロボット装置6の第2の制御および第3の制御では、修正部34は、算出部33により算出された第2のワーク91のずれ量に基づいて、第2のワーク91の把持のずれを修正するように、第3の基準特徴量を変更して第4の基準特徴量を生成する。また、第2の特徴量の判定範囲は、第4の基準特徴量に基づいて、第1の特徴量の判定範囲と同様の方法により定められる。
第2のワーク91を第1のワーク81に近づける制御では、指令生成部35は、カメラ26にて撮像した画像における第2の特徴量および第4の基準特徴量に関する相対位置量を算出する。指令生成部35は、相対位置量に基づいて、第1のワーク81に対して第2のワーク91が目標の位置に配置されるようにロボット1を動作させる移動指令を生成する。指令生成部35は、第1の特徴量が第2の基準特徴量に近づいて、更に、第2の特徴量が第4の基準特徴量に近づくようにロボット1の位置を変更する移動指令を生成する。その他の制御は、第1の制御と同様である。
第2のロボット装置6では、それぞれのカメラ25,26が互いに異なる特徴部位を撮像してロボット1の位置の制御を行っている。このために、1台のカメラを用いて位置の調整を行う制御よりも精度よくワーク91の位置の調整を行うことができる。また、第1の制御および第2の制御では、1台のカメラを用いて第2のワーク91の位置の判定を行うよりも精度よく判定を行うことができる。
なお、ロボット装置の制御装置は、3台以上のカメラを備えていても構わない。制御装置は、それぞれのカメラにて互いに異なる特徴部位を撮像し、それぞれのカメラの画像に基づいてワークの位置の制御を実施しても構わない。
その他の第2のロボット装置6の構成、作用、および効果は、第1のロボット装置5と同様であるので、ここでは説明を繰り返さない。
図13に、本実施の形態における第3のロボット装置のハンド、第1のワーク、および第2のワークの拡大斜視図を示す。第3のロボット装置7では、ハンド2に支持部材19が固定されている。支持部材19は、下側に向かって延びる棒状部19aと、下側に向かって延び、棒状部19aよりも上側に配置される棒状部19bと有する。支持部材19の棒状部19aには、第2のロボット装置6と同様に、第1の視覚センサとしてカメラ25が固定されている。支持部材19の棒状部19bには、第2の視覚センサとしてのカメラ26が固定されている。
第3のロボット装置7では、支持部材19は、カメラ26の撮像範囲26aがカメラ25の撮像範囲25aと重なるように、カメラ26を支持している。第3のロボット装置7のカメラ26は、カメラ25が撮像する部分と同一の部分を撮像するように配置されている。すなわち、カメラ26は、ワーク81の突出部82を撮像できるように配置されている。
第3のロボット装置7においては、第2のロボット装置6における制御と同様に、第1の特徴部位および第2の特徴部位を設定して、複数のカメラ25,26の画像に基づいて、ロボット1の位置の調整を行う。
第3のロボット装置7においては、突出部83の側面83bが第1の特徴部位に設定されている。また、突出部83の上面83cが第2の特徴部位に設定されている。第2の特徴部位には設定点P21が設定されている。ここでの例では、突出部83の上面83cの角に設定点P21が設定されている。なお、第3の制御においては、第2の特徴部位は、第1の特徴部位と同じ部位であっても異なる部位であっても構わない。
第3のロボット装置7の第1の制御および第2の制御では、第2の特徴量の判定範囲を設定することができる。また、第2の制御および第3の制御では、ワーク91の把持のずれ量に基づいて、第3の基準特徴量を修正して第4の基準特徴量を生成することができる。
その他の第3のロボット装置7の構成、作用、および効果は、第1のロボット装置5および第2のロボット装置6と同様であるので、ここでは説明を繰り返さない。
前述の第1のロボット装置5、第2のロボット装置6、および第3のロボット装置7は、制御の開始時には第2のワーク91が第1のワーク81から離れた位置に配置されている。そして、第2のワーク91の突出部92,93を第1のワーク81の突出部82,83に近づける制御を実施している。一方で、本実施の形態の第3の制御は、ワーク81に対するワーク91の精密な位置合わせを実施する制御にも適用することができる。
図14に、本実施の形態における第4のロボット装置の概略図を示す。第4のロボット装置8では、ハンド2にカメラ25,26を支持する支持部材20が固定されている。カメラ25,26は、第2のワーク91が第1のワーク81に接近した時の画像を撮像するように配置されている。
支持部材20は、下側に延びる棒状部20aと、上側に延びる棒状部20bと有する。下側に延びる棒状部20aには、第1のロボット装置5と同様に、第1の視覚センサとしてカメラ25が固定されている。下側に延びる棒状部20aは、ワーク81の突出部83の側方から突出部83を撮像できるようにカメラ25を支持している。カメラ25は、光軸が水平方向にほぼ平行になるように配置されている。カメラ25は、撮像範囲25aにて画像を撮像する。
上側に延びる棒状部20bには、第2の視覚センサとしてのカメラ26が固定されている。上側に延びる棒状部20bは、ワーク81の突出部82の上方から突出部82を撮像できるようにカメラ26を支持している。カメラ26は、第1のワーク81の突出部82を撮像できる位置に配置されている。カメラ26は、光軸が鉛直方向にほぼ平行になるように配置されている。カメラ26の光軸の向きは、カメラ25の光軸の向きと異なる。カメラ26は、撮像範囲26aにて画像を撮像する。
第4のロボット装置8では、第2のロボット装置6と同様に、2台のカメラ25,26にて撮像した画像に基づいて、ワーク81に対するワーク91の位置を調整する。第1の特徴部位は、突出部83の側面83bに設定されている。第1の特徴部位には、第1の特徴量を検出するための設定点P11が設定されている。また、第2の特徴部位は、突出部82の上面82cに設定されている。第2の特徴部位は、第1の特徴部位と異なる部分である。第2の特徴部位には、第2の特徴量を検出するための設定点P21が設定されている。
第2のロボット装置6と同様に、カメラ25の画像から移動指令を生成する。また、カメラ26の画像から移動指令を生成する。指令生成部35は、カメラ25の画像から生成された移動指令と、カメラ26の画像から生成された移動指令とに基づいて、動作制御部43に送出する最終的な移動指令を生成することができる。
第4のロボット装置8では、カメラ25にて第1の特徴部位を撮像する方向とカメラ26にて第2の特徴部位を撮像する方向とが異なる。特に、本実施の形態では、カメラ25の光軸とカメラ26の光軸とのなす角度がほぼ90°になるように、カメラ25,26が配置されている。このために、3次元的な位置合わせを正確に行うことができる。
例えば、カメラ25にて撮像した画像により、基準座標系51のY軸の方向およびZ軸の方向において、ワーク91の正確な位置を合わせることができる。また、カメラ26にて撮像した画像により、基準座標系51のX軸の方向およびY軸の方向において、ワーク91の正確な位置を合わせることができる。このため、例えば、ワーク81の穴部82a,83aの真上にワーク91のピン92a,93aを配置する制御を実施することができる。
なお、第4のロボット装置8においても、第2のロボット装置6と同様に、第1の制御および第2の制御を実施しても構わない。
その他の第4のロボット装置8の構成、作用および効果については、第1のロボット装置5、第2のロボット装置6、および第3のロボット装置7と同様であるので、ここでは説明を繰り返さない。
本実施の形態の補助センサは、2次元カメラであるが、この形態に限られない。第2のワーク91の把持のずれ量は、任意の方法にて検出することができる。例えば、補助センサは、3次元カメラであっても構わない。3次元カメラを採用することにより、ハンドの位置および第2のワークの位置を検出することができる。そして、ハンドの位置および第2のワークの位置に基づいて、第2のワークの把持のずれ量を検出することができる。
更に、補助センサとしては、第2のワークの把持のずれ量を検出する任意のセンサを採用することができる。例えば、補助センサは、対象物との距離を検出する距離センサを含んでいても構わない。ロボットが予め定められた位置および姿勢になったときの第2のワークの位置は、1つ以上の距離センサを用いて測定することができる。第2のワークの位置に基づいて、第2のワークの把持のずれ量を検出することができる。
上記の実施の形態においては、位置を合わせる対象となる第1の部材がコンベヤにて搬送されている。すなわち、搬送機にて移動する第1の部材に追従するように、第2の部材の位置合わせを実施しているが、この形態に限られない。第1の部材は、静止していても構わない。例えば、作業台に固定されている第1のワークに対して、第2のワークの位置を合わせる時に、本実施の形態の制御を適用することができる。また、搬送機としては、コンベヤに限られず、ワークを搬送する任意の装置を採用することができる。例えば、搬送機としては、動作プログラムに基づいて床面を走行してワークの搬送を行う無人搬送車を採用することができる。
上記の実施の形態においては、第1の視覚センサとしてのカメラ25および第2の視覚センサとしてのカメラ26がハンド2に支持されているが、この形態に限られない。第1の視覚センサは、ロボットに支持されていても構わない。また、第2の視覚センサは、ロボットに支持されていても構わない。例えば、第1の視覚センサおよび第2の視覚センサは、ロボットのフランジに支持されて、ハンドと共に位置および姿勢が変化するように形成されていても構わない。
上記の実施の形態では、製品を組み立てる作業を行うロボット装置を例に取り上げているが、この形態に限られない。ワークの搬送を行う任意のロボット装置に本実施の形態の制御装置を適用することができる。
また、本実施の形態の第1の部材は、ワークであるが、この形態に限られない。第1の部材は、ロボット装置が作業を行う任意の部材を採用することができる。例えば、ロボット装置は、ハンドにて把持したワークをケースの予め定められた位置に収容する作業を実施しても構わない。この場合に、第1の部材は、ワークを収容するケースに相当する。また、本実施の形態の第2の部材は、ワークであるが、この形態に限られない。第2の部材は、任意の部材を採用することができる。例えば、第2の部材は、第1の部材に対して作業を行う装置などであっても構わない。
上述のそれぞれの制御においては、機能および作用が変更されない範囲において適宜ステップの順序を変更することができる。
上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、特許請求の範囲に示される実施の形態の変更が含まれている。
1 ロボット
2 ハンド
4 ロボット制御装置
5,6,7,8 ロボット装置
25,26 カメラ
27 固定カメラ
31 演算処理部
32 特徴量検出部
33 算出部
34 修正部
35 指令生成部
36 判定部
37 範囲設定部
41 動作プログラム
43 動作制御部
61,62 基準画像
65,66 判定範囲
75 コンベヤ
76 コンベヤ制御装置
81,91 ワーク
82,83 突出部
82b 側面
82c 上面
83b 側面
83c 上面
94 把持部
P11,P12 設定点

Claims (6)

  1. 作業ツールに把持された第2の部材をロボットにて移動して、第1の部材に対する第2の部材の相対的な位置を合わせるロボット装置の制御装置であって、
    第1の部材を撮像する視覚センサと、
    前記視覚センサの出力を処理する演算処理部と、
    ロボットを駆動する動作制御部とを備え、
    第1の部材の位置を検出するための第1の部材の特徴部位が予め定められており、
    第1の部材に対して第2の部材が目標の位置に配置されているときに前記視覚センサにて撮像した画像における前記特徴部位の位置に関する基準特徴量と、作業ツールにおける第2の部材の把持のずれに関する前記特徴部位の特徴量の判定範囲とが定められており、
    前記演算処理部は、前記視覚センサにて撮像された画像において、前記特徴部位の位置に関する特徴量を検出する特徴量検出部と、
    前記特徴量検出部にて検出された特徴量が判定範囲内であるか否かを判定する判定部と、
    ロボットを動作させる移動指令を生成する指令生成部とを含み、
    前記指令生成部は、前記特徴量検出部にて検出された特徴量および前記基準特徴量に基づいて、前記特徴量検出部にて検出された特徴量が前記基準特徴量に近づくようにロボットの位置を変更する前記移動指令を生成し、
    前記動作制御部は、前記移動指令に基づいてロボットを駆動し、
    前記判定部は、前記移動指令によりロボットの位置が移動した後の特徴量が判定範囲内であるか否かを判定し、
    特徴量が判定範囲を逸脱する場合に、前記視覚センサにて画像を撮像する制御と、前記特徴量検出部にて特徴量を検出する制御と、前記指令生成部にて前記移動指令を生成する制御と、前記動作制御部にてロボットを駆動する制御とを繰り返す、制御装置。
  2. 前記基準特徴量は、作業ツールに対して第2の部材が予め定められた位置にて把持された時の第1の基準特徴量であり、
    特徴量の判定範囲は、第1の基準特徴量に基づいて設定されている、請求項1に記載の制御装置。
  3. 作業ツールに把持された第2の部材の把持のずれ量を検出するための補助センサを備え、
    作業ツールに対して第2の部材が予め定められた位置にて把持された時の第1の基準特徴量が定められており、
    前記演算処理部は、前記補助センサの出力に基づいて、作業ツールにおける第2の部材の把持のずれ量を算出する算出部と、
    前記算出部により算出されたずれ量に基づいて、第2の部材の把持のずれを修正するように、第1の基準特徴量を修正して第2の基準特徴量を生成する修正部と、
    特徴量の判定範囲を設定する範囲設定部とを含み、
    前記基準特徴量は、第2の基準特徴量であり、
    前記範囲設定部は、第2の基準特徴量に基づいて特徴量の判定範囲を設定する、請求項1に記載の制御装置。
  4. 前記ロボット装置は、第1の部材を搬送する搬送機を含み、
    前記搬送機が第1の部材を搬送している期間中に、前記視覚センサにて画像を撮像する制御と、前記特徴量検出部にて特徴量を検出する制御と、前記特徴量検出部により検出された特徴量が前記基準特徴量に近づくようにロボットの位置を変更する制御とを繰り返して実施する、請求項1から3のいずれか一項に記載の制御装置。
  5. 前記指令生成部は、前記搬送機による第1の部材の移動方向および移動速度に基づいて、前記搬送機にて移動する第1の部材の位置に対してロボットの位置が追従するロボットの位置の移動方向および移動量を算出し、ロボットの位置が追従するロボットの位置の移動方向および移動量に基づいてロボットの位置および姿勢を変更する、請求項4に記載の制御装置。
  6. 前記視覚センサは第1の視覚センサであり、
    第1の部材の前記特徴部位は、第1の特徴部位であり、
    第1の視覚センサの画像に基づいて検出された第1の特徴部位の特徴量は、第1の特徴量であり、
    第1の部材を撮像する第2の視覚センサを更に備え、
    第1の部材の位置を検出するための第1の部材の第2の特徴部位が予め定められており、
    第1の部材に対して第2の部材が目標の位置に配置されているときに第2の視覚センサにて撮像した画像における第2の特徴部位の位置に関する第3の基準特徴量と、作業ツールにおける第2の部材の把持のずれに関する第2の特徴部位の第2の特徴量の判定範囲とが定められており、
    第3の基準特徴量は、作業ツールに対して第2の部材が予め定められた位置にて把持された時の特徴量であり、
    前記特徴量検出部は、第2の視覚センサにて撮像された画像において、第2の特徴部位の位置に関する第2の特徴量を検出し、
    前記指令生成部は、第1の特徴量、前記基準特徴量、第2の特徴量、および第3の基準特徴量に基づいてロボットの位置を変更する前記移動指令を生成し、
    前記判定部は、前記移動指令によりロボットの位置が移動した後に、第1の特徴量および第2の特徴量がそれぞれの判定範囲内であるか否かを判定し、
    第1の特徴量および第2の特徴量のうち少なくとも一方の特徴量が判定範囲を逸脱する場合に、第1の視覚センサおよび第2の視覚センサにて画像を撮像する制御と、前記特徴量検出部にて第1の特徴量および第2の特徴量を検出する制御と、前記指令生成部にて前記移動指令を生成する制御と、前記動作制御部にてロボットを駆動する制御とを繰り返す、請求項1に記載の制御装置。
JP2019174329A 2019-09-25 2019-09-25 ロボットを制御するロボット装置の制御装置 Pending JP2021049606A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019174329A JP2021049606A (ja) 2019-09-25 2019-09-25 ロボットを制御するロボット装置の制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174329A JP2021049606A (ja) 2019-09-25 2019-09-25 ロボットを制御するロボット装置の制御装置

Publications (1)

Publication Number Publication Date
JP2021049606A true JP2021049606A (ja) 2021-04-01

Family

ID=75156667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174329A Pending JP2021049606A (ja) 2019-09-25 2019-09-25 ロボットを制御するロボット装置の制御装置

Country Status (1)

Country Link
JP (1) JP2021049606A (ja)

Similar Documents

Publication Publication Date Title
JP7306937B2 (ja) ロボットに支持された部材の位置を調整するロボット装置の制御装置
US20230256615A1 (en) Robot device controller for controlling position of robot
CN108453701B (zh) 控制机器人的方法、示教机器人的方法和机器人系统
JP7314475B2 (ja) ロボット制御装置、及び、ロボット制御方法
JP6430986B2 (ja) ロボットを用いた位置決め装置
JP5321532B2 (ja) ロボットキャリブレーション装置及びキャリブレーション方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP4289619B2 (ja) 多関節ロボットのツール位置補正方法
JPWO2018092243A1 (ja) 作業位置補正方法および作業ロボット
CN109952178B (zh) 作业机器人及作业位置修正方法
KR20080088165A (ko) 로봇 캘리브레이션 방법
US7957834B2 (en) Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system
JP2020116687A (ja) 追随ロボットおよび作業ロボットシステム
JP7384653B2 (ja) ロボットの位置を制御するロボット装置の制御装置
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
JP2021049606A (ja) ロボットを制御するロボット装置の制御装置
JPH09222913A (ja) ロボットの教示位置補正装置
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
WO2022075303A1 (ja) ロボットシステム
CN115008477A (zh) 机械手移动补偿方法、装置、计算机可读存储介质
WO2021060227A1 (ja) 高さ補正システム
WO2021060228A1 (ja) 高さ補正システム
WO2019123517A1 (ja) 作業装置及びその制御方法
WO2023047588A1 (ja) ロボットシステム
WO2023013739A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法