JP2015214022A - ロボット - Google Patents
ロボット Download PDFInfo
- Publication number
- JP2015214022A JP2015214022A JP2015173103A JP2015173103A JP2015214022A JP 2015214022 A JP2015214022 A JP 2015214022A JP 2015173103 A JP2015173103 A JP 2015173103A JP 2015173103 A JP2015173103 A JP 2015173103A JP 2015214022 A JP2015214022 A JP 2015214022A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- image data
- target
- goal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
ところで、近年、電子機器のますますの小型化、精密化に伴って、電子機器には精密部品が多数使用されている。組立ロボットが、そのような精密部品の取付け作業を行うためには、極めて高精度な位置決めを行う必要がある。
ここで、物体に設けられるターゲット領域が微少である場合、このターゲット領域を含むマーカー領域は、微少なターゲット領域よりも広い領域である。よって、マーカー検出部は、比較的広い領域であるマーカー領域の検出精度を比較的低くしてもよく、そうすることによって検出処理にかかる負荷を軽くして高速処理を実現することができる。一方、ターゲット検出部は、検出対象が微少なターゲット領域であることによって狭く、高い検出精度で処理する。しかし、検出対象領域をマーカー領域内に限定することにより、検出処理にかかる負荷はさほど重くならない。よって、全体として、ロボット装置は、物体の位置を高速に且つ高精度に検出することができる。
この構成によれば、ロボット装置は、サブピクセルレベルの精度で、物体のターゲット領域内の超微細な基準位置を検出することができる。そして、ロボット装置は、サブピクセルレベルの精度で位置合わせを行い、全体として高速に且つ高精度に物体をゴール位置に移動させることができる。
ここで、ロボット本体は、例えば6軸等の垂直多関節ロボットである。そして、マーカー領域を円周の曲線により区分される領域とすることにより、マーカー領域が画像の面内で回転した場合でも、正確に識別することができる。
ここで、ロボット本体は、例えば並進移動のみを行う直交ロボットである。このように並進移動のみの場合、マーカー領域が画像の面内で回転することを考慮する必要はなく、マーカー領域を、多角形の線により区分される領域、例えば四角形の枠による領域としてもよい。
ここで、オブジェクトに設けられるターゲット領域が微少である場合、このターゲット領域を含むマーカー領域は、微少なターゲット領域よりも広い領域である。よって、マーカー検出部は、比較的広い領域であるマーカー領域の検出精度を比較的低くしてもよく、そうすることによって検出処理にかかる負荷を軽くして高速処理を実現することができる。一方、ターゲット検出部は、検出対象が微少なターゲット領域であることによって狭く、高い検出精度で処理する。しかし、検出対象領域をマーカー領域内に限定することにより、検出処理にかかる負荷はさほど重くならない。よって、全体として、位置検出装置は、オブジェクトの位置を高速に且つ高精度に検出することができる。
[第1の実施の形態]
図1は、本発明の第1実施形態であるロボット装置の機能構成を表すブロック図である。このロボット装置は、ビジュアルフィードバック制御によって部品を目標位置まで搬送し、アセンブリ部品の組立作業を行う装置である。本実施形態における部品は、小型電子機器や精密機器等に組み込まれるアセンブリ部品を構成する精密部品である。
同図に示すように、ロボット装置1は、ロボット本体10と、撮像装置(撮像部)20と、位置検出装置30と、ロボット制御装置(ロボット制御部)50とを備える。
なお、同図では、位置検出装置30およびロボット制御装置50の図示を省略している。また、同図における部品や構造等の縮尺は、図を明りょうなものとするために実際のものとは異なる(後述する図3および図4についても同様)。
なお、ロボット本体10の自由度は6軸によるものに限られない。また、支持台10aは、壁や天井等、地面に対して固定された場所に設置してもよい。
図2に示す組立製造ラインでは、ロボット装置1は、アセンブリ部品の軸210が部品220(平歯車)の軸穴に貫通するように、部品220をアセンブリ部品に取り付ける作業を行うものである。
撮像装置20の撮影に際しては、コンベヤー100は、配列した複数のアセンブリ部品それぞれについて、軸210が撮像装置20の略直下、すなわち、レンズ光学系の光軸と軸210とが略一致する位置で可動載置台の動作を停止させる。撮像装置20は、可動載置台の動作が停止しているときに、位置検出装置30から供給される撮像要求コマンドにしたがってアセンブリ部品と部品220とを被写体として撮像し、この撮像により得られた画像データを位置検出装置30に供給する。
粗検出モードは、部品220に設けたマーカーの領域(以下、単にマーカーともいう。
)を検出対象物とし、位置検出装置30がそのマーカーを検出して、目標位置である軸210の軸中心を含む位置(マーカーゴール位置)にマーカーを移動させるよう制御する処理のモードである。
また、微細検出モードは、部品220に設けられた位置合わせの基準の部位であるターゲット(例えば平歯車の軸穴)の領域(以下、単にターゲットともいう。)を検出対象物とし、位置検出装置30がマーカーの領域内においてそのターゲットを検出して、目標位置である軸210の軸中心の位置(ターゲットゴール位置)にターゲットの基準位置(平歯車の軸穴の中心位置)を移動させるよう制御する処理のモードである。
テンプレートマッチングは、公知のオブジェクト検出方式の一つであり、例えば、検索対象画像をテンプレート画像で走査して、両画像の輝度差の絶対値の総和、または輝度差の二乗和を計算することによって類似度を求め、この類似度にしたがってオブジェクトを検出する。
また、位置検出装置30は、ロボット制御装置50から供給されるロボット制御ステータスを取り込むと、このロボット制御ステータスの内容に応じて撮像装置20に撮像要求コマンドを供給する。
また、ロボット制御装置50は、ロボット本体10を制御した後に、制御が成功したか否かを示す情報等を含めたロボット制御ステータスを位置検出装置30に供給する。
マーカー222は、例えば、同図に示すような円周の曲線であり、その円周の内側にターゲットである軸穴221が入るように設けられる。ただし、マーカー222の円の中心点は、軸穴221の中心点に必ずしも一致しなくてよい。
マーカー222を円周の曲線とすることにより、被写体が画像の面内で回転した場合でも、正確に識別することができる。
図6は、ロボット装置1の処理手順を表すフローチャートである。図2に示した工場の組立製造ラインにおいて、コンベヤー100が、可動載置台に配列した複数のアセンブリ部品のうち、組立対象であるアセンブリ部品の軸210が撮像装置20の略直下、すなわち、レンズ光学系の光軸と軸210とが略一致する位置で可動載置台の動作を停止させ、位置検出装置30が粗検出モードに設定された後、図6のフローチャートの処理が実行される。
図7は、本発明の第2実施形態であるロボット装置における位置検出装置の機能構成を表すブロック図である。なお、上述した第1実施形態と同一の構成については、同一の符号を付してその説明を省略する。
同図において、位置検出装置30aは、第1実施形態における位置検出装置30に対して、ターゲット検出部(サブピクセル検出部)40と、ターゲット位置調整部41とが新たに追加された構成を有する。
サブピクセル推定検出モードは、画素(ピクセル)サイズ未満の距離の精度でターゲットの位置を検出して、目標位置である軸210の軸中心の位置(ターゲットゴール位置)にターゲットの基準位置(平歯車の軸穴の中心位置)を移動させるよう制御する処理のモードである。
図8は、ロボット装置1の処理手順を表すフローチャートである。同図において、ステップS1からステップS10までの処理は、第1実施形態における処理と同一であるため、その説明を省略する。
同図(a)は、円周の曲線を二重に設けたマーカーである。このマーカーによれば、単一の円周の曲線によるマーカーに比べて、テンプレートマッチング処理におけるマーカーの誤検出率を低減することができる。
同図(b)は、円周の曲線を破線としたマーカーである。このように、マーカーの線は必ずしも閉ループである必要はなく、マーカー検出部33が、線分が無い区間を補完してマーカー内外の領域を区分すればよい。
同図(c)は、単一の四角形の枠をマーカーとしたものである。ロボット本体10が、直交ロボットのような並進移動のみを行うロボット装置である場合は、マーカー222が画像の面内で回転することを考慮する必要はない。なお、マーカー222は、四角形の枠に限らず多角形の枠であってもよい。
同図(d)は、二つの四角形の枠を変位させて重ね合わせたマーカーである。このマーカーによれば、単一の四角形の枠によるマーカーに比べて、テンプレートマッチング処理におけるマーカーの誤検出率を低減することができる。
System)や周辺装置のハードウェアを含むものである。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリーカード等の可搬型記録媒体、コンピューターシステムに内蔵される磁気ハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバー装置やクライアントとなるコンピューターシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
10 ロボット本体
10a 支持台
10b アーム部
10c ハンド部
10d 把持部
20 撮像装置(撮像部)
30,30a 位置検出装置
31 画像データ取得部
32 マーカーゴール画像記憶部
33 マーカー検出部
35 マーカー位置調整部
36 ターゲットゴール画像記憶部
37 ターゲット検出部
40 ターゲット検出部(サブピクセル検出部)
39,41 ターゲット位置調整部
50 ロボット制御装置(ロボット制御部)
本発明の一態様であるロボットは、前記マーカーゴール画像データに基づいて撮像される前記物体の画像データと前記マーカーの位置のずれを検出した後、前記ターゲットゴール画像データに基づいて撮像される前記物体の画像データとのずれを検出する、ロボットである。
本発明の一態様であるロボットは、前記マーカーゴール画像データに基づいて粗い検出を行った後、前記ターゲットゴール画像データに基づいて微細な検出を行う、ロボットである。
本発明の一態様であるロボットは、前記マーカーゴール画像データは、前記マーカーが前記ゴール位置を含むよう前記物体を配置した状態の画像のデータである、ロボットである。
本発明の一態様であるロボットは、前記ターゲットゴール画像データは、前記ゴール位置に前記物体を配置した状態の画像のデータである、ロボットである。
一態様であるロボット装置は、位置合わせの基準位置を含むターゲット領域と前記ターゲット領域を含むマーカー領域とを設けた物体を、ゴール位置まで搬送可能に保持するロボット本体と、前記ゴール位置と前記物体とを視野に含めて撮像する撮像部と、前記マーカー領域が前記ゴール位置を含むよう前記物体を配置した状態の画像であるマーカーゴール画像データを記憶するマーカーゴール画像記憶部と、前記基準位置が前記ゴール位置に一致する位置に、前記物体を配置した状態の画像であるターゲットゴール画像データを記憶するターゲットゴール画像記憶部と、前記マーカーゴール画像記憶部に記憶された前記マーカーゴール画像データを用いて、前記撮像部から取得する画像データから前記画像データにおけるマーカー領域を検出し、前記画像データにおけるマーカー領域と前記マーカーゴール画像データにおけるマーカー領域との位置のずれを検出するマーカー検出部と、前記ターゲットゴール画像記憶部に記憶された前記ターゲットゴール画像データを用いて、前記マーカー検出部が検出した前記画像データにおけるマーカー領域内から、前記ゴール位置に対する前記基準位置のずれを検出するターゲット検出部と、前記マーカー検出部が検出した前記位置のずれと前記ターゲット検出部が検出した前記ゴール位置に対する前記基準位置のずれとをなくす位置に、前記物体を搬送するよう前記ロボット本体を制御するロボット制御部と、を備えることを特徴とする。
ここで、物体に設けられるターゲット領域が微少である場合、このターゲット領域を含むマーカー領域は、微少なターゲット領域よりも広い領域である。よって、マーカー検出部は、比較的広い領域であるマーカー領域の検出精度を比較的低くしてもよく、そうすることによって検出処理にかかる負荷を軽くして高速処理を実現することができる。一方、ターゲット検出部は、検出対象が微少なターゲット領域であることによって狭く、高い検出精度で処理する。しかし、検出対象領域をマーカー領域内に限定することにより、検出処理にかかる負荷はさほど重くならない。よって、全体として、ロボット装置は、物体の位置を高速に且つ高精度に検出することができる。
この構成によれば、ロボット装置は、サブピクセルレベルの精度で、物体のターゲット領域内の超微細な基準位置を検出することができる。そして、ロボット装置は、サブピクセルレベルの精度で位置合わせを行い、全体として高速に且つ高精度に物体をゴール位置に移動させることができる。
ここで、ロボット本体は、例えば6軸等の垂直多関節ロボットである。そして、マーカー領域を円周の曲線により区分される領域とすることにより、マーカー領域が画像の面内で回転した場合でも、正確に識別することができる。
ここで、ロボット本体は、例えば並進移動のみを行う直交ロボットである。このように並進移動のみの場合、マーカー領域が画像の面内で回転することを考慮する必要はなく、マーカー領域を、多角形の線により区分される領域、例えば四角形の枠による領域としてもよい。
ここで、オブジェクトに設けられるターゲット領域が微少である場合、このターゲット領域を含むマーカー領域は、微少なターゲット領域よりも広い領域である。よって、マーカー検出部は、比較的広い領域であるマーカー領域の検出精度を比較的低くしてもよく、そうすることによって検出処理にかかる負荷を軽くして高速処理を実現することができる。一方、ターゲット検出部は、検出対象が微少なターゲット領域であることによって狭く、高い検出精度で処理する。しかし、検出対象領域をマーカー領域内に限定することにより、検出処理にかかる負荷はさほど重くならない。よって、全体として、位置検出装置は、オブジェクトの位置を高速に且つ高精度に検出することができる。
Claims (7)
- 位置合わせの基準位置を含むターゲット領域と前記ターゲット領域を含むマーカー領域とを設けた物体を、ゴール位置まで搬送可能に保持するロボット本体と、
前記ゴール位置と前記物体とを視野に含めて撮像する撮像部と、
前記マーカー領域が前記ゴール位置を含むよう前記物体を配置した状態の画像であるマーカーゴール画像データを記憶するマーカーゴール画像記憶部と、
前記基準位置が前記ゴール位置に一致する位置に、前記物体を配置した状態の画像であるターゲットゴール画像データを記憶するターゲットゴール画像記憶部と、
前記マーカーゴール画像記憶部に記憶された前記マーカーゴール画像データを用いて、前記撮像部から取得する画像データから前記画像データにおけるマーカー領域を検出し、前記画像データにおけるマーカー領域と前記マーカーゴール画像データにおけるマーカー領域との位置のずれを検出するマーカー検出部と、
前記ターゲットゴール画像記憶部に記憶された前記ターゲットゴール画像データを用いて、前記マーカー検出部が検出した前記画像データにおけるマーカー領域内から、前記ゴール位置に対する前記基準位置のずれを検出するターゲット検出部と、
前記マーカー検出部が検出した前記位置のずれと前記ターゲット検出部が検出した前記ゴール位置に対する前記基準位置のずれとをなくす位置に、前記物体を搬送するよう前記ロボット本体を制御するロボット制御部と、
を備えることを特徴とするロボット装置。 - 前記ターゲットゴール画像記憶部に記憶された前記ターゲットゴール画像データを用いて、前記ターゲット検出部が検出した前記ターゲット領域内の前記基準位置と、前記ゴール位置に対する前記ターゲット領域内の前記基準位置とのずれをサブピクセル推定処理によって検出するサブピクセル検出部をさらに備え、
前記ロボット制御部は、前記サブピクセル検出部が検出した前記ターゲット領域内の前記基準位置のずれをなくす位置に、前記物体を搬送するよう前記ロボット本体を制御する
ことを特徴とする請求項1記載のロボット装置。 - 前記ロボット本体は、可動のアーム部と前記アーム部に連結される可動のハンド部とを備えるとともに、前記ハンド部に前記撮像部が設けられており、
前記マーカー領域は、円周の曲線により区分される領域であることを特徴とする請求項1または2記載のロボット装置。 - 前記ロボット本体は、並進可動に前記撮像部を設けたものであり、
前記マーカー領域は、多角形の線により区分される領域であることを特徴とする請求項1または2記載のロボット装置。 - オブジェクトに含まれるマーカー領域がゴール位置を含むよう前記オブジェクトを配置した状態の画像であるマーカーゴール画像データを記憶するマーカーゴール画像記憶部と、
前記マーカー領域に含まれるターゲット領域内の基準位置が前記ゴール位置に一致する位置に、前記オブジェクトを配置した状態の画像であるターゲットゴール画像データを記憶するターゲットゴール画像記憶部と、
前記ターゲット領域と前記マーカー領域とを有する前記オブジェクトを含む画像データを取得する画像データ取得部と、
前記マーカーゴール画像記憶部に記憶された前記マーカーゴール画像データを用いて、前記画像データ取得部が取得した画像データから前記画像データにおけるマーカー領域を検出するマーカー検出部と、
前記ターゲットゴール画像記憶部に記憶された前記ターゲットゴール画像データを用いて、前記マーカー検出部が検出した前記画像データにおけるマーカー領域内から前記ターゲット領域を検出するターゲット検出部と、
を備えることを特徴とする位置検出装置。 - オブジェクトに含まれるマーカー領域がゴール位置を含むよう前記オブジェクトを配置した状態の画像であるマーカーゴール画像データを記憶するマーカーゴール画像記憶部と、前記マーカー領域に含まれるターゲット領域内の基準位置が前記ゴール位置に一致する位置に、前記オブジェクトを配置した状態の画像であるターゲットゴール画像データを記憶するターゲットゴール画像記憶部とを備えるコンピューターを、
前記ターゲット領域と前記マーカー領域とを有する前記オブジェクトを含む画像データを取得する画像データ取得部と、
前記ターゲット領域と前記マーカー領域とを有する前記オブジェクトを含む画像データを取得する画像データ取得部と、
前記マーカーゴール画像記憶部に記憶された前記マーカーゴール画像データを用いて、前記画像データ取得部が取得した画像データから前記画像データにおけるマーカー領域を検出するマーカー検出部と、
前記ターゲットゴール画像記憶部に記憶された前記ターゲットゴール画像データを用いて、前記マーカー検出部が検出した前記画像データにおけるマーカー領域内から前記ターゲット領域を検出するターゲット検出部と、
として機能させるための位置検出プログラム。 - 画像データ取得部が、位置合わせの基準位置を含むターゲット領域と前記ターゲット領域を含むマーカー領域とを有するオブジェクトを含む画像データを取得する画像データ取得ステップと、
マーカー検出部が、前記オブジェクトに含まれる前記マーカー領域がゴール位置を含むよう前記オブジェクトを配置した状態の画像であるマーカーゴール画像データを記憶するマーカーゴール画像記憶部から読み込む前記マーカーゴール画像データを用いて、前記画像データ取得部が取得した画像データから前記画像データにおける前記マーカー領域を検出するマーカー検出ステップと、
ターゲット検出部が、前記マーカー領域に含まれる前記ターゲット領域内の前記基準位置が前記ゴール位置に一致する位置に、前記オブジェクトを配置した状態の画像であるターゲットゴール画像データを記憶するターゲットゴール画像記憶部から読み込む前記ターゲットゴール画像データを用いて、前記マーカー検出部が検出した前記画像データにおけるマーカー領域内から前記ターゲット領域を検出するターゲット検出ステップと、
を有することを特徴とする位置検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015173103A JP2015214022A (ja) | 2015-09-02 | 2015-09-02 | ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015173103A JP2015214022A (ja) | 2015-09-02 | 2015-09-02 | ロボット |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011021877A Division JP5803119B2 (ja) | 2011-02-03 | 2011-02-03 | ロボット装置、位置検出装置、位置検出プログラム、および位置検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015214022A true JP2015214022A (ja) | 2015-12-03 |
Family
ID=54751417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015173103A Withdrawn JP2015214022A (ja) | 2015-09-02 | 2015-09-02 | ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015214022A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018114603A (ja) * | 2017-01-20 | 2018-07-26 | セイコーエプソン株式会社 | ロボット |
CN112549052A (zh) * | 2019-09-25 | 2021-03-26 | 发那科株式会社 | 用于调整机器人支承的部件位置的机器人装置的控制装置 |
CN114918637A (zh) * | 2022-05-30 | 2022-08-19 | 中国电子科技集团公司第十四研究所 | 一种轴孔装配机器人的视觉定位方法 |
US11679508B2 (en) | 2019-08-01 | 2023-06-20 | Fanuc Corporation | Robot device controller for controlling position of robot |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05337863A (ja) * | 1992-06-02 | 1993-12-21 | Hitachi Metals Ltd | 画像認識を備えたロボットによる加工装置 |
JP2003231078A (ja) * | 2002-02-14 | 2003-08-19 | Denso Wave Inc | ロボットアームの位置制御方法およびロボット装置 |
JP2009220247A (ja) * | 2008-03-18 | 2009-10-01 | Ihi Corp | ロボット装置及びロボット装置の制御方法 |
-
2015
- 2015-09-02 JP JP2015173103A patent/JP2015214022A/ja not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05337863A (ja) * | 1992-06-02 | 1993-12-21 | Hitachi Metals Ltd | 画像認識を備えたロボットによる加工装置 |
JP2003231078A (ja) * | 2002-02-14 | 2003-08-19 | Denso Wave Inc | ロボットアームの位置制御方法およびロボット装置 |
JP2009220247A (ja) * | 2008-03-18 | 2009-10-01 | Ihi Corp | ロボット装置及びロボット装置の制御方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018114603A (ja) * | 2017-01-20 | 2018-07-26 | セイコーエプソン株式会社 | ロボット |
US11679508B2 (en) | 2019-08-01 | 2023-06-20 | Fanuc Corporation | Robot device controller for controlling position of robot |
CN112549052A (zh) * | 2019-09-25 | 2021-03-26 | 发那科株式会社 | 用于调整机器人支承的部件位置的机器人装置的控制装置 |
US11565422B2 (en) | 2019-09-25 | 2023-01-31 | Fanuc Corporation | Controller of robot apparatus for adjusting position of member supported by robot |
CN114918637A (zh) * | 2022-05-30 | 2022-08-19 | 中国电子科技集团公司第十四研究所 | 一种轴孔装配机器人的视觉定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5803119B2 (ja) | ロボット装置、位置検出装置、位置検出プログラム、および位置検出方法 | |
KR102532072B1 (ko) | 로봇 모션 용 비전 시스템의 자동 핸드-아이 캘리브레이션을 위한 시스템 및 방법 | |
JP5803124B2 (ja) | ロボット、位置検出装置、位置検出プログラム、および位置検出方法 | |
TWI672206B (zh) | 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統 | |
CN111452040B (zh) | 在引导装配环境中将机器视觉坐标空间关联的系统和方法 | |
CN106182004B (zh) | 基于视觉引导的工业机器人自动销孔装配的方法 | |
JP6427972B2 (ja) | ロボット、ロボットシステム及び制御装置 | |
JP6855492B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
EP3407088A1 (en) | Systems and methods for tracking location of movable target object | |
US12002240B2 (en) | Vision system for a robotic machine | |
JP2016221645A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
JP2015214022A (ja) | ロボット | |
JP2009269110A (ja) | 組立装置 | |
JP2012254518A (ja) | ロボット制御システム、ロボットシステム及びプログラム | |
CN104552341A (zh) | 移动工业机器人单点多视角挂表位姿误差检测方法 | |
JP2018051634A (ja) | ロボット制御装置、ロボット、ロボットシステムおよび姿勢特定装置 | |
CN107756391B (zh) | 机械手臂校正系统的校正方法 | |
CN112529856A (zh) | 确定操作对象位置的方法、机器人和自动化系统 | |
JP2013173191A (ja) | ロボット装置、ロボット制御装置、ロボット制御方法及びロボット制御プログラム | |
CN115397634A (zh) | 取得机器人的控制坐标系中的视觉传感器的位置的装置、机器人系统、方法以及计算机程序 | |
CN113302027B (zh) | 作业坐标生成装置 | |
TW201805129A (zh) | 機械手臂校正系統的校正方法 | |
JP2016203282A (ja) | エンドエフェクタの姿勢変更機構を備えたロボット | |
JP2010214546A (ja) | 組立装置および組立方法 | |
JPS63300843A (ja) | 視覚認識装置の座標補正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160802 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20160909 |