JP2014144516A - ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム - Google Patents

ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム Download PDF

Info

Publication number
JP2014144516A
JP2014144516A JP2013015199A JP2013015199A JP2014144516A JP 2014144516 A JP2014144516 A JP 2014144516A JP 2013015199 A JP2013015199 A JP 2013015199A JP 2013015199 A JP2013015199 A JP 2013015199A JP 2014144516 A JP2014144516 A JP 2014144516A
Authority
JP
Japan
Prior art keywords
image
current
robot
feature amount
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013015199A
Other languages
English (en)
Inventor
Shigeyuki Matsumoto
茂之 松本
Hiroshi Hasegawa
浩 長谷川
Mitsuhiro Inazumi
満広 稲積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013015199A priority Critical patent/JP2014144516A/ja
Publication of JP2014144516A publication Critical patent/JP2014144516A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】有効な情報を不要な情報よりも相対的に増やすことでビジュアルサーボの精度を高く維持することができる。
【解決手段】予めロボットの可動部を目標位置に位置させた状態で前記可動部が保持する対象物を撮影した教示用画像及び教示用画像の注目領域及び非注目領域を示す情報を取得する。注目領域から抽出される画像特徴量は変えず、かつ非注目領域から抽出される画像特徴量を少なくする画像変換処理を教示用画像に対して行い、処理した教示用画像から画像特徴量を抽出する。現在の前記可動部の位置を示す画像であって教示用画像と同じ画角の画像である現在画像及び現在画像を取得し、現在画像に対して教示用画像と同じ画像処理を行う。処理後の現在画像から画像特徴量を抽出し、抽出された画像特徴量から可動部の現在位置と目標位置との差分を求め、差分が少なくなるように可動部を制御する。
【選択図】図4

Description

本発明は、ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラムに関する。
特許文献1には、ビジュアルサーボによるロボットアームの制御において、現在データと目標データとの誤差が大きい時には、画像処理の分解能を下げて処理すべき画像データ量を低減させることが開示されている。
特開2003−211381号公報
特許文献1に記載の発明のように、画像処理の分解能を下げてしまうと、ビジュアルサーボに必要な部分(例えば、対象物)についての情報量が減ってしまう。そのため、画像からエッジ等の画像特徴量が算出しにくくなり、ビジュアルサーボの精度が下がるという問題がある。
そこで、本発明は、画像データ量を削減した場合であっても、有効な情報を不要な情報よりも相対的に増やすことでビジュアルサーボの精度を高く維持することができるロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラムを提供することを目的とする。
上記課題を解決するための第一の態様は、対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるようにロボットを制御するロボット制御装置において、前記目標位置に位置する前記対象物を撮影した画像である教示用画像及び前記現在位置に位置する前記対象物を撮影した画像である現在画像を取得する画像取得部と、前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得する情報取得部と、前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像及び前記現在画像に対して行う画像処理部と、前記画像処理部により処理された教示用画像及び前記画像処理部により処理された現在画像から画像特徴量を抽出する画像特徴量抽出部と、前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記ロボットの現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記ロボットを制御する制御部と、を備えることを特徴とする。
第一の態様によれば、注目領域から抽出される画像特徴量は変えず、かつ非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を教示用画像及び現在画像に対して行い、画像変換された教示用画像及び現在画像から画像特徴量を抽出し、教示用画像及び現在画像から抽出された画像特徴量に基づいて可動部の現在位置と目標位置との差分を求め、差分が少なくなるようにロボットを制御する。これにより、非注目領域から抽出される画像特徴量を少なくすることで、画像データ量を削減した場合であっても、有効な情報を不要な情報よりも相対的に増やすことができる。その結果、ビジュアルサーボの精度を高く維持することができる。
ここで、前記画像処理部は、前記第1の画像変換処理として、画像をぼかす処理又は画像の輝度を下げる処理を行うようにしてもよい。これにより、非注目領域から抽出される画像特徴量を少なくすることができる。
ここで、前記画像処理部は、前記非注目領域については前記画像変換処理を強く行い、前記非注目領域及び前記注目領域以外の領域については前記画像変換処理を弱く行うようにしてもよい。これにより、非注目領域及び注目領域以外の重要でない部分から抽出される画像特徴量を少なくすると共に、最も不要な非注目領域から抽出される画像特徴量を更に少なくすることができる。
ここで、前記教示用画像又は前記現在画像を表示する表示部と、前記表示部に表示された前記教示用画像又は前記現在画像に基づいて、前記注目領域を示す情報及び前記非注目領域を示す情報の入力を受け付ける入力部と、を備え、前記情報取得部は、前記入力された情報を前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報として取得してもよい。これにより、注目領域及び非注目領域を正確に設定することができる。
ここで、前記入力部は、前記注目領域を示す情報及び前記非注目領域を示す情報として、前記注目領域及び前記非注目領域の中心点の入力を受け付けてもよいし、又は前記注目領域及び前記非注目領域の中心点及び範囲の入力を受け付けてもよい。これにより、注目領域及び非注目領域をより柔軟に設定することができる。
ここで、前記入力部は、前記注目領域と前記非注目領域との重複領域がある場合に、前記重複領域で前記画像変換処理を行うか否か示す入力を受け付け、前記入力部が前記重複領域で前記画像変換処理を行うことを示す入力を受け付けた場合は、前記画像処理部は、前記重複領域で前記画像変換処理を行い、前記入力部が前記重複領域で前記画像変換処理を行わないことを示す入力を受け付けた場合は、前記画像処理部は、前記重複領域で前記画像変換処理を行わないようにしてもよい。これにより、よりユーザのニーズに合った画像変換処理を行うことができる。
上記課題を解決するための第二の態様は、対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるようにロボットを制御するロボットシステムにおいて、ロボットと、前記目標位置に位置する前記対象物を撮影した画像である教示用画像及び前記現在位置に位置する前記対象物を撮影した画像である現在画像を撮影する撮影部と、前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得する情報取得部と、前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像及び前記現在画像に対して行う画像処理部と、前記画像処理部により処理された教示用画像及び前記画像処理部により処理された現在画像から画像特徴量を抽出する画像特徴量抽出部と、前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記ロボットの現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記ロボットを制御する制御部と、を備えることを特徴とする。これにより、非注目領域から抽出される画像特徴量を少なくすることで、画像データ量を削減した場合であっても、有効な情報を不要な情報よりも相対的に増やすことができる。その結果、ビジュアルサーボの精度を高く維持することができる。
上記課題を解決するための第三の態様は、対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるように可動部を制御するロボットにおいて、可動部と、前記目標位置に位置する前記対象物を撮影した画像である教示用画像及び前記現在位置に位置する前記対象物を撮影した画像である現在画像を取得する画像取得部と、前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得する情報取得部と、前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像及び前記現在画像に対して行う画像処理部と、前記画像処理部により処理された教示用画像及び前記画像処理部により処理された現在画像から画像特徴量を抽出する画像特徴量抽出部と、前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記可動部の現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記可動部を制御する制御部と、備えることを特徴とする。これにより、非注目領域から抽出される画像特徴量を少なくすることで、画像データ量を削減した場合であっても、有効な情報を不要な情報よりも相対的に増やすことができる。その結果、ビジュアルサーボの精度を高く維持することができる。
上記課題を解決するための第四の態様は、対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるようにロボットを制御するロボット制御方法において、前記目標位置に位置する前記対象物を撮影した画像である教示用画像を取得するステップと、前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得するステップと、前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像に対して行うステップと、前記処理された教示用画像から画像特徴量を抽出するステップと、前記現在位置に位置する前記対象物を撮影した画像である現在画像を取得するステップと、前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記現在画像に対して行うステップと、前記処理された現在画像から画像特徴量を抽出するステップと、前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記ロボットの現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記ロボットを制御するステップと、を有することを特徴とする。これにより、非注目領域から抽出される画像特徴量を少なくすることで、画像データ量を削減した場合であっても、有効な情報を不要な情報よりも相対的に増やすことができる。その結果、ビジュアルサーボの精度を高く維持することができる。
上記課題を解決するための第五の態様は、対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるようにロボットを制御するプログラムにおいて、前記目標位置に位置する前記対象物を撮影した画像である教示用画像を取得するステップと、前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得するステップと、前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像に対して行うステップと、前記処理された教示用画像から画像特徴量を抽出するステップと、前記現在位置に位置する前記対象物を撮影した画像である現在画像を取得するステップと、前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記現在画像に対して行うステップと、前記処理された現在画像から画像特徴量を抽出するステップと、前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記ロボットの現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記ロボットを制御するステップと、を演算装置に実行させることを特徴とする。これにより、非注目領域から抽出される画像特徴量を少なくすることで、画像データ量を削減した場合であっても、有効な情報を不要な情報よりも相対的に増やすことができる。その結果、ビジュアルサーボの精度を高く維持することができる。
本発明の第1の実施形態におけるロボットシステム1の構成の一例を示す図である。 ロボットシステム1の機能構成の一例を示すブロック図である。 制御部20のハードウェア構成を示す図である。 ビジュアルサーボの処理の流れを示すフローチャートである。 画像変換処理の流れを示すフローチャートである。 ゴール画像の一例を示す図である。 ゴール画像上で注目領域及び非注目領域の中心点を指示した状態を示す図である。 ゴール画像上で注目領域及び非注目領域を表示した状態を示す図である。 本発明の第2の実施形態におけるビジュアルサーボの処理の流れを示すフローチャートである。
本発明の一実施形態について、図面を参照しながら説明する。
<第1の実施形態>
図1は、本発明の一実施形態におけるロボットシステム1の構成の一例を示すシステム構成図である。本実施形態におけるロボットシステム1は、主として、ロボット10と、制御部20と、撮影部30とを備える。
ロボット10は、複数のジョイント(関節)12と、複数のリンク13とを含むアーム部を有するアーム型のロボットである。アーム部の先端には、対象物(ワーク)を把持したり、道具を把持して対象物に対して所定の作業を行ったりすることが可能なハンド14(いわゆるエンドエフェクター)が設けられる。以下、ロボット10のアーム部及びハンド14を可動部11という。
ジョイント12及びハンド14には、それらを動作させるためのアクチュエーター(図示せず)が設けられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、制御部20によるロボット10のフィードバック制御に使用される。
なお、ロボット10の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。一般的な把持ロボットが備える構成を排除するものではない。例えば、図1では6軸のアームが示されているが、軸数(ジョイント数)をさらに増加させてもよいし、減らしてもよい。リンクの数を増減させてもよい。また、アーム、ハンド、リンク、ジョイント等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。また、エンドエフェクターはハンド14に限られない。また、ロボットは、アームを2本有するいわゆる双腕ロボットとすることもできる。さらに、配置空間を作ることの出来るロボットであれば、どのような態様のロボット、例えば自走式のロボットにも適用することもできる。
制御部20は、ロボット10の全体を制御する処理を行う。制御部20は、ロボット10の本体とは離れた場所に設置してもよいし、ロボット10に内蔵してもよい。制御部20がロボット10の本体と離れた場所に設置されている場合には、制御部20は、有線又は無線でロボット10と接続される。
撮影部30は、可動部11の作業領域付近を撮影して、画像データを生成するユニットである。撮影部30は、例えば、カメラを含み、作業台、天井、壁などに設けられる。図1では、撮影部30は、作業台の外側に設けられている。撮影部30としては、可視光カメラ、赤外線カメラ等を採用することができる。撮影部30は制御部20に接続され、撮影部30により撮影された画像は制御部20に入力される。なお、撮影部30は、制御部20ではなくロボット10に接続されるようにしてもよいし、ロボット10に内蔵されるようにしてもよい。この場合には、撮影部30により撮影された画像は、ロボット10を介して制御部20に入力される。
次に、ロボットシステム1の機能構成例について説明する。図2は、ロボットシステム1の機能ブロック図である。
ロボット10は、アクチュエーターのエンコーダー値、及びセンサーのセンサー値等に基づいて可動部11を制御する動作制御部101を備える。
動作制御部101は、出力部209から出力された情報、アクチュエーターのエンコーダー値、及びセンサーのセンサー値等に基づいて可動部11を制御する。例えば、動作制御部101は、出力部209から出力された移動方向及び移動量で可動部11を移動させるように、アクチュエーターを駆動させる。
また、動作制御部101は、アクチュエーターのエンコーダー値等から可動部11の移動方向及び移動量を求め、アクチュエーターの駆動を制御し、かつ可動部11の移動方向及び移動量を制御情報取得部204に出力する。
制御部20は、主として、中央制御部201と、記憶部202と、撮影制御部203と、制御情報取得部204と、画像変換部205と、特徴量抽出部206と、動作決定部207と、表示制御部208と、出力部209とを備える。
中央制御部201は、他の各部(202〜208)を統括的に制御する。
記憶部202は、各種データやプログラムを記憶する。
撮影制御部203は、撮影部30を制御する。例えば、撮影制御部203は、撮影部30に対して、画像を撮影するように指示を出力する。そして、撮影制御部203は、撮影部30で撮影された画像データを取得する。
制御情報取得部204は、動作制御部101の制御結果を取得する。
画像変換部205は、撮影制御部203を介して取得された画像に対して、撮影制御部203を介して取得された画像の重要な部分であるワークW等を含む領域(以下、注目領域という)から抽出される画像特徴量は変えず、注目領域以外の領域から抽出される画像特徴量を少なくする画像変換を行う。本実施形態では、抽出される画像特徴量を少なくする方法として、画像をぼかす方法を用いる。画像変換部205の処理については、後に詳述する。
特徴量抽出部206は、画像変換部205が処理した画像から、コーナー、エッジ、色等の画像特徴量を抽出する。画像から画像特徴量を抽出する方法は、すでに公知の様々な方法を用いることができる。
動作決定部207は、撮影制御部203で撮影された画像及び制御情報取得部204が取得した情報に基づいて可動部11の動作を決定する。動作決定部207の処理については、後に詳述する。
表示制御部208は、出力装置26(後に説明)へ画像等を表示させる。また、表示制御部208は、出力装置26に表示された画像に様々な情報を重畳表示させる。表示制御部208の処理については、すでに公知であるため、説明を省略する。
出力部209は、動作決定部207が決定した動作内容を動作制御部101に出力する。
図3は、制御部20の概略構成の一例を示すブロック図である。図示するように、例えばコンピューターなどで構成される制御部20は、演算装置であるCPU(Central Processing Unit)21と、揮発性の記憶装置であるRAM(Random Access Memory)や不揮発性の記憶装置であるROM(Read only Memory)からなるメモリー22と、外部記憶装置23と、ロボット10等の外部の装置と通信を行う通信装置24と、マウスやキーボード等の入力装置25と、ディスプレイ等の出力装置26と、CDドライブ、DVDドライブ等の読み書き装置27と、制御部20と他のユニットを接続するインターフェイス(I/F)28とを備える。
上記の各機能部は、例えば、CPU21がメモリー22に格納された所定のプログラムをメモリー22に読み出して実行することにより実現される。なお、所定のプログラムは、例えば、予めメモリー22にインストールされてもよいし、通信装置24を介してネットワークからダウンロードされてインストール又は更新されてもよい。
以上のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。例えば、ロボット10が制御部20や撮影部30を備えていてもよい。また、一般的なロボットシステムが備える構成を排除するものではない。
次に、本実施形態における、上記構成からなるロボットシステム1の特徴的な処理について説明する。
図4は、ビジュアルサーボの処理の流れを示すフローチャートである。この処理は、例えば、図示しないボタン等を介してビジュアルサーボの開始指示が入力されることにより開始される。
中央制御部201は、可動部11を目標位置に位置させた状態で可動部11を撮影した教示用画像(以下、ゴール画像という)を撮影するように、撮影制御部203、制御情報取得部204及び出力部209を制御する(ステップS100)。具体的には、まず、制御情報取得部204及び出力部209は、入力装置25等を介して入力された目標位置に可動部11を移動させる。目標位置に可動部11が移動されたら、撮影制御部203は、撮影部30に撮影指示を出力し、撮影部30が撮影した画像であるゴール画像を取得する。
なお、本実施形態では、ハンド14が把持するワーク(対象物)Wを最終目的地に配置するときの可動部11の位置及び姿勢を、可動部11の目標位置とする。また、本実施形態では、ワークWを対象物として、ワークが目標位置に位置するようにビジュアルサーボを行うとする。
画像変換部205は、ステップS100で取得したゴール画像の注目領域から抽出される画像特徴量は変えず、注目領域以外の領域から抽出される画像特徴量を少なくする画像変換を行う(ステップS102)。以下、ステップS102の処理について、図5に示すフローチャートを用いて詳細に説明する。
まず、画像変換部205は、表示制御部208を介して出力装置26にゴール画像を表示させる(ステップS1020)。図6は、出力装置26に表示されたゴール画像の一例である。ワークWをハンド14の4本の爪14a、14b、14c、14dで把持している。ワークWの右側には、柱Pが写っている。また、ワークWの左側には、複数のケーブル等が束ねられたケーブル類Cが写っている。
画像変換部205は、表示制御部208を介して、入力装置25から注目領域を示す情報を入力するように促す出力を出力装置26に表示させる。入力装置25を介して注目領域を示す情報が入力されると、画像変換部205はこれを取得する(ステップS1022)。本実施形態では、注目領域を示す情報として、注目領域の中心位置を示す点の位置の入力を受け付ける。入力される点の数は、いくつでもよい。ここで取得された注目領域を示す情報は、ゴール画像及び現在画像(後に説明)に共通である。
また、注目領域を示す情報が入力されたら、表示制御部208は、出力装置26に表示されたゴール画像に注目領域を示す情報を重ねて表示させる(ステップS1022)。
画像変換部205は、表示制御部208を介して、入力装置25から非注目領域を示す情報を入力するように促す出力を出力装置26に表示させる。入力装置25を介して非注目領域を示す情報が入力されると、画像変換部205はこれを取得する(ステップS1024)。本実施形態では、非注目領域を示す情報として、非注目領域の中心位置を示す点の位置の入力を受け付ける。入力される点の数は、いくつでもよい。ここで取得された非注目領域を示す情報は、ゴール画像及び現在画像に共通である。
また、非注目領域を示す情報が取得されたら、表示制御部208は、出力装置26に表示されたゴール画像に非注目領域を示す情報を重ねて表示させる(ステップS1024)。
図7は、ステップS1022、S1024が行われた後における、出力装置26に表示されたゴール画像の一例である。図7の丸印は、注目領域の中心位置を示す点(中心点)であり、図7のバツ印は、非注目領域の中心位置を示す点(中心点)である。出力装置26には、注目領域の中心点及び非注目領域の中心点が、ゴール画像に重ねて表示されている。このように、注目領域の中心点及び非注目領域の中心点をゴール画像に重ねて表示することで、ユーザは、注目領域、非注目領域が正しく設定されるかどうかを確認することができる。この段階で、画像変換部205は、注目領域を示す情報及び非注目領域を示す情報の新規入力や修正入力を受け付けるようにしてもよい。
画像変換部205は、ステップS1022、S1024で取得した注目領域を示す情報及び非注目領域を示す情報に基づいて、非注目領域は強くぼかし、注目領域及び非注目領域以外は弱くぼかすような処理をゴール画像に対して行う(ステップS1026)。以下、ステップS1026の処理について詳細に説明する。
注目領域、非注目領域の大きさは、あらかじめ設定されている。例えば、注目領域は直径120ピクセルであり、非注目領域は直径50ピクセルである。したがって、ステップS1022、S1024で取得した注目領域の中心点及び非注目領域の中心点と、あらかじめ設定された大きさから、注目領域、非注目領域が求められる。なお、本実施形態の中心点は、中心及びその周辺数画素を含む概念である。
図8は、図7に示す位置に注目領域及び非注目領域の中心位置が入力された場合の、注目領域及び非注目領域を示す図である。図8の白抜きの領域、すなわち図7の丸印を中心とした一定範囲の円形の領域が、注目領域Xである。図8の濃い網掛けの領域、すなわち図7のバツ印を中心とした一定範囲の円形の領域が、非注目領域Yである。図8の薄い網掛けの領域は、注目領域及び非注目領域でない領域である領域Zである。
画像変換部205は、非注目領域Yについては強いぼかし処理を行い、領域Zについては弱いぼかし処理を行う。画像変換部205は、注目領域Xについては、何ら処理を行わない。
ぼかし処理には、例えば、一定数の画素(画素数N)を1つのブロックにまとめ、1ブロック内のすべての画素の濃度をブロック内の画素の平均濃度に置き換えるモザイク処理、ガウシアンフィルタを用いてある画素とその周囲の画素といっしょに畳み込み積分を行うガウシアンぼかし等の様々なすでに公知の方法を用いることができる。本実施形態では、モザイク処理を用いることとする。モザイク処理は、画像をぼかすと共に、画素数を減らすことができる。非注目領域Yについては画素数Nを大きくし、領域Zについては画素数Nを小さくすることにより、非注目領域Yのぼかしの強度を領域Zのぼかしの強度より強くすることができる。なお、ぼかし処理の強さ、すなわち画素数Nは、あらかじめ設定されていてもよいし、入力装置25からの入力により適宜調整してもよい。
ぼかし処理を行うことで、高周波成分がなくなる。また、ぼかし処理を行うことで、輝度の勾配が緩やかになる。その結果、コーナーやエッジ等の輝度の勾配が急に変わる部分の特徴が弱くなり、抽出される画像特徴量を少なくすることができる。また、ぼかし処理により画素数を減らすことができる。
さらに、非注目領域Yのぼかし処理の強さを領域Zのぼかし処理の強さより強くすることで、重要でない部分から抽出される画像特徴量を少なくすると共に、最も不要な非注目領域から抽出される画像特徴量を更に少なくすることができる。
なお、本実施形態では、注目領域X及び非注目領域Yの中心点を入力しているので、注目領域Xと非注目領域Yとが重なる場合も考えられる。図8に示す例においては、注目領域Xと非注目領域Yとが重なる領域X’がある。この場合には、画像変換部205は、注目領域Xと非注目領域Yとが重なった領域X’を非注目領域Yとして、ぼかし処理を行う。なお、注目領域Xと非注目領域Yとが重なった領域をどのように扱うかは、予め定めておいてもよいし、ユーザに設定させてもよい。例えば、注目領域Xと非注目領域Yとが重なった場合には、表示制御部208が出力装置26に入力を促す表示を表示させ、入力装置25を介して入力を受け付けたら、画像変換部205が入力結果に基づいて注目領域Xと非注目領域Yとが重なった領域をどのように扱うかを設定すればよい。
このようにして画像変換部205により処理が行われたゴール画像は、特徴量抽出部206へ出力される。特徴量抽出部206は、処理が行われたゴール画像を取得し、処理が行われたゴール画像から画像特徴量を抽出する(ステップS104)。本実施形態では、画像特徴量として特徴ベクトルが求められる。ステップS102で非注目領域Y及び領域Zにぼかし処理を施しているため、非注目領域Y及び領域Zから画像特徴量が抽出されにくくっている。特に、非注目領域Yには強いぼかし処理を行っているため、非注目領域Yからは画像特徴量がほとんど抽出されない。したがって、注目領域Xからのみ画像特徴量の抽出が行われ、有効な特徴量のみが抽出される。
これにより、ビジュアルサーボの準備段階が終了する。ビジュアルサーボの準備段階は、ロボット10を用いた生産を始める前に行っておく。ビジュアルサーボの準備段階が終了したら、ロボット10を用いた生産を開始し、その後のビジュアルサーボの各ステップ(ステップS106〜S122)を行う。
撮影制御部203は、ゴール画像と同じ画角の画像を撮影するように撮影部30を制御し、撮影部30が撮影した画像である現在画像を取得する(ステップS106)。現在画像は、現在の可動部11の位置及び姿勢(以下、可動部11の位置という)を示す画像である。なお、本発明では、可動部11の位置及び姿勢を、可動部11の位置と定義する。そのため、以下、可動部11の位置及び姿勢を、単に、可動部11の位置という。
画像変換部205は、ステップS106で取得した現在画像をぼかし処理する(ステップS108)。ステップS108で現在画像をぼかし処理する方法は、ステップS102でゴール画像をぼかし処理する方法と同一であるため、説明を省略する。画像変換部205により処理が行われた現在画像は、特徴量抽出部206へ出力される。
特徴量抽出部206は、処理が行われた現在画像を取得し、処理が行われた現在画像から画像特徴量を抽出する(ステップS110)。本実施形態では、画像特徴量として特徴ベクトルが求められる。
動作決定部207は、ステップS104でゴール画像から抽出された画像特徴量と、ステップS110で現在画像から抽出された画像特徴量とを取得する。そして、動作決定部207は、取得した画像を比較することにより、現在の可動部11の位置と目標位置との距離を計算する(ステップS112)。
現在の可動部11の位置と目標位置との距離は、以下の数式(1)により、現在画像から抽出された画像特徴量である特徴ベクトルと、ゴール画像から抽出された画像特徴量である特徴ベクトルとの差分で算出される。
Figure 2014144516
動作決定部207は、ステップS112で算出された距離が、特定の閾値以下であるか否か、すなわち収束しているか否かを判定する(ステップS114)。ステップS112で算出された距離が、特定の閾値以下である場合(ステップS114でYES)には、現在の可動部11の位置と目標位置との差が閾値以下、すなわち収束している場合であるため、中央制御部201は、処理を終了する。
ステップS112で算出された距離が、特定の閾値以下でない場合(ステップS114でNO)には、動作決定部207は、以下の数式(2)を用いて、ヤコビアンの推定及び更新を行う(ステップS116)。なお、数式(2)のnは今回を意味し、n−1は前回を意味する。最初のヤコビアンは、対角行列、作業実施済みである場合は前回の値、等を用いることができる。
Figure 2014144516
動作決定部207は、以下の数式(3)を用いて、推定されたヤコビアンからジョイント角の差分を算出する(ステップS118)。
Figure 2014144516
動作決定部207は、ステップS118で算出されたジョイント角の差分を出力部209に出力する。出力部209は、ジョイント角の差分を動作制御部101に出力する(ステップS120)。これにより、可動部11が移動される。
中央制御部201は、ステップS106が行われた後で一定の時間(以下、サンプリング時間という)が経過するまで待機する(ステップS122)。中央制御部201は、ステップS106が行われた後、サンプリング時間が経過したら、再度ステップS106を行う。すなわち、ステップS106〜S122では、可動部11の現在位置と目標位置との差分を求め、差分が閾値以下となるまで、差分が少なくなるように可動部11をフィードバック制御している。
本実施形態によれば、画像を小さくして画像データ量を削減することで、処理時間を短縮化することができる。かつ、画像を小さくするにあたり、注目領域以外の領域に対してぼかし処理を行うため、不要な画像特徴量の抽出を極力行わないようにすることができる。その結果、ロボットの挙動を安定させ、ビジュアルサーボの精度を高く維持することができる。
なお、本実施形態では、画像の注目領域から抽出される画像特徴量は変えず、注目領域以外の領域から抽出される画像特徴量を少なくする画像変換として、画像をぼかす処理を行ったが、抽出される画像特徴量を少なくする処理はこれに限られない。例えば、画像の輝度を落とすことにより、画像特徴量が抽出できにくいようにしてもよい。処理の強さは、輝度を落とす程度や、輝度の勾配を変えることにより、変えることができる。
また、本実施形態では、注目領域、非注目領域の大きさは、あらかじめ設定されていたが、大きさは任意に設定できてもよい。ステップS1022、S1024で注目領域の中心点及び非注目領域の中心点の入力を受け付けたが、ステップS1022、S1024において、注目領域及び非注目領域の中心点だけでなく、大きさの入力を受け付けるようにすればよい。また、ステップS1022、S1024において、注目領域及び非注目領域の中心点及び大きさではなく、範囲そのものの入力を受け付けるようにしてもよい。これにより、注目領域及び非注目領域をより柔軟に設定することができる。
また、本実施形態では、注目領域、非注目領域の形状を円形としたが、注目領域、非注目領域の形状は円形に限らず、矩形等様々な形状とすることができる。また、範囲そのものの入力を受け付ける場合には、任意の形状の入力を受け付けるようにしてもよい。
また、本実施形態では、ゴール画像を出力装置に表示させて注目領域、非注目領域の入力を受け付けたが、現在画像を出力装置に表示させて注目領域、非注目領域の入力を受け付けるようにしてもよい。例えば、ゴール画像を用いてステップS102(図4参照)で設定した注目領域、非注目領域を、現在画像を用いて設定しなおすこともできる。
また、本実施形態では、ゴール画像を出力装置に表示させて注目領域、非注目領域の入力を受け付けたが、注目領域、非注目領域はあらかじめ設定しておいてもよい。例えば、注目領域は画像の中心の所定範囲(画像の全範囲の3割程度)とし、その他を非注目領域としてもよい。しかしながら、非注目領域は画像により大きく異なることが想定されるため、入力を受け付けるようにすることが望ましい。入力を受け付けることで、注目領域及び非注目領域を正確に設定することができる。
また、本実施形態では、領域Zは弱いぼかし処理を行い、非注目領域Yは強いぼかし処理を行ったが、領域Zを複数の領域に分けて段階的にぼかし処理の強さを変えるようにしてもよい。また、領域Zはぼかし処理を行わず、非注目領域Yについてのみぼかし処理を行うようにしてもよい。
また、本実施形態では、ハンド14でワークWを把持したが、可動部11がワークWを保持する形態はこれに限られない。例えば、ハンド14の代わりに磁性体が、ワークWを吸着するようにしてもよい。
<第2の実施形態>
本発明の第1の実施形態は、現在画像がゴール画像に一致するようにフィードバック制御を行う、すなわち画像特徴量から直接ジョイント角等の制御を行ういわゆる画像ベースビジュアルサーボを行ったが、本発明の適用範囲は画像ベースビジュアルサーボに限定されない。
本発明の第2の実施形態は、画像座標とロボット座標(ロボットの位置)とを結合するキャリブレーションが必要ないわゆる位置ベースのビジュアルサーボに本発明を適用した形態である。以下、本発明の第2の実施形態について説明する。なお、第1の実施形態と構成は同一であるため、構成についての説明を省略し、処理の流れについてのみ説明する。また、第1の実施形態と同一の部分については、同一の符号を付し、説明を省略する。
図9は、ビジュアルサーボの処理の流れを示すフローチャートである。この処理は、例えば、図示しないボタン等を介してビジュアルサーボの開始指示が入力されることにより開始される。
中央制御部201は、ゴール画像を撮影するように、撮影制御部203、制御情報取得部204及び出力部209を制御し、ゴール画像を取得する(ステップS100)。
画像変換部205は、ステップS100で取得したゴール画像の重要な部分である注目領域はぼかさず、非注目領域は強くぼかし、注目領域及び非注目領域以外の領域は弱くぼかす処理を行う(ステップS102)。
特徴量抽出部206は、処理が行われたゴール画像を取得し、処理が行われたゴール画像から特徴量抽出を行い、モデルとマッチングすることにより、対象物(または対象点)を検出する。そして、特徴量抽出部206は、画像座標をロボット座標に変換して、ゴール画像におけるロボット10の位置及び姿勢を示す位置姿勢情報を取得する(ステップS105)。ここでは、対象はワークWである。特徴量抽出を行った結果をモデルとマッチングすることにより対象物(または対象点)を検出する方法は、すでに公知であるため、説明を省略する。なお、対象物(または対象点)を検出する方法はこれに限られず、すでに公知の様々な方法を用いることができる。
これにより、ビジュアルサーボの準備段階が終了する。ビジュアルサーボの準備段階は、ロボット10を用いた生産を始める前に行っておく。ビジュアルサーボの準備段階が終了したら、ロボット10を用いた生産を開始し、その後のビジュアルサーボの各ステップ(ステップS106〜S122)を行う。
撮影制御部203は、現在画像を取得する(ステップS106)。画像変換部205は、ステップS106で取得した現在画像の重要な部分はぼかさず、その他の領域はぼかす処理を行う(ステップS108)。
特徴量抽出部206は、処理が行われた現在画像を取得し、処理が行われた現在画像から特徴量抽出を行い、モデルとマッチングすることにより、対象物(または対象点)を検出する。そして、特徴量抽出部206は、画像座標をロボット座標に変換して、現在画像におけるロボット10の位置及び姿勢を示す位置姿勢情報を取得する(ステップS111)。
動作決定部207は、ステップS105で取得されたロボット10の位置姿勢情報と、ステップS111で取得されたロボット10の位置姿勢情報とを比較し、目標位置までの距離を計算する(ステップS113)。ここで、距離とは、可動部11の位置(第1の実施形態と同様、位置及び姿勢を意味する)の差異を意味する。
動作決定部207は、ステップS113算出された距離が、特定の閾値以下であるか否か、すなわち収束しているか否かを判定する(ステップS115)。ステップS113で算出された距離が、特定の閾値以下である場合(ステップS115でYES)には、現在の可動部11の位置と目標位置との差が閾値以下、すなわち収束している場合であるため、中央制御部201は、処理を終了する。
ステップS113で算出された距離が、特定の閾値以下でない場合(ステップS115でNO)には、動作決定部207は、ステップS111で算出された位置姿勢をロボット10のジョイント角に変換する(ステップS117)。当該ステップの処理は、一般的な逆運動学の解法を用いることができるため、説明は省略する。本実施形態では、位置姿勢からロボット10を直接制御できるため、ヤコビアンの推定は不要である。
動作決定部207は、ステップS105で算出されたゴール画像におけるロボット10の位置姿勢情報からジョイント角を求め、このジョイント角とステップS117で算出されたジョイント角との差分を算出する(ステップS119)。
動作決定部207は、ステップS119で算出されたジョイント角の差分を出力部209に出力する。出力部209は、ジョイント角の差分を動作制御部101に出力する(ステップS121)。ステップS121は、ステップS120と出力する内容のみが異なり、その他は同一である。これにより、可動部11が移動される。
中央制御部201は、ステップS106が行われた後、サンプリング時間が経過するまで待機する(ステップS122)。中央制御部201は、ステップS106が行われた後、サンプリング時間が経過したら、再度ステップS106を行う。
このように、本発明は、キャリブレーションの要、不要に限らず、画像を用いて位置制御を行う様々な技術に適用することができる。ただし、目標位置に近い位置で精密にロボットを移動させるいわゆる精密ビジュアルサーボについて、より有効である。
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。特に、本発明は、ロボットと、制御部及び撮影部とが別に設けられたロボットシステムとして提供してもよいし、ロボットに制御部及び撮影部が含まれたロボットとして提供してもよいし、制御部のみ、又は制御部及び撮影部からなるロボット制御装置として提供してもよい。また、本発明は、ロボット等を制御するプログラムやプログラムを記憶した記憶媒体として提供することもできる。
1:ロボットシステム、10:ロボット、11:可動部、12:ジョイント、13:リンク、14:ハンド、14a、14b、14c、14d:爪、20:制御部、21:CPU、22:メモリー、23:外部記憶装置、24:通信装置、25:入力装置、26:出力装置、27:読み書き装置、28:I/F、30:撮影部、101:動作制御部、201:中央制御部、202:記憶部、203:撮影制御部、204:制御情報取得部、205:処理部、206:特徴量抽出部、207:動作決定部、208:表示制御部、209:出力部

Claims (10)

  1. 対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるようにロボットを制御するロボット制御装置において、
    前記目標位置に位置する前記対象物を撮影した画像である教示用画像及び前記現在位置に位置する前記対象物を撮影した画像である現在画像を取得する画像取得部と、
    前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得する情報取得部と、
    前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像及び前記現在画像に対して行う画像処理部と、
    前記画像処理部により処理された教示用画像及び前記画像処理部により処理された現在画像から画像特徴量を抽出する画像特徴量抽出部と、
    前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記ロボットの現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記ロボットを制御する制御部と、
    を備えることを特徴とするロボット制御装置。
  2. 請求項1に記載のロボット制御装置において、
    前記画像処理部は、前記第1の画像変換処理として、画像をぼかす処理又は画像の輝度を下げる処理を行う
    ことを特徴とするロボット制御装置。
  3. 請求項1又は2に記載のロボット制御装置において、
    前記画像処理部は、前記非注目領域については前記画像変換処理を強く行い、前記非注目領域及び前記注目領域以外の領域については前記画像変換処理を弱く行う
    ことを特徴とするロボット制御装置。
  4. 請求項1から3のいずれか一項に記載のロボット制御装置において、
    前記教示用画像又は前記現在画像を表示する表示部と、
    前記表示部に表示された前記教示用画像又は前記現在画像に基づいて、前記注目領域を示す情報及び前記非注目領域を示す情報の入力を受け付ける入力部と、を備え、
    前記情報取得部は、前記入力された情報を前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報として取得する
    ことを特徴とするロボット制御装置。
  5. 請求項4に記載のロボット制御装置において、
    前記入力部は、前記注目領域を示す情報及び前記非注目領域を示す情報として、前記注目領域及び前記非注目領域の中心点の入力を受け付ける、又は前記注目領域及び前記非注目領域の中心点及び範囲の入力を受け付ける
    ことを特徴とするロボット制御装置。
  6. 請求項4又は5に記載のロボット制御装置において、
    前記入力部は、前記注目領域と前記非注目領域との重複領域がある場合に、前記重複領域で前記画像変換処理を行うか否か示す入力を受け付け、
    前記入力部が前記重複領域で前記画像変換処理を行うことを示す入力を受け付けた場合は、前記画像処理部は、前記重複領域で前記画像変換処理を行い、前記入力部が前記重複領域で前記画像変換処理を行わないことを示す入力を受け付けた場合は、前記画像処理部は、前記重複領域で前記画像変換処理を行わない
    ことを特徴とするロボット制御装置。
  7. 対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるようにロボットを制御するロボットシステムにおいて、
    ロボットと、
    前記目標位置に位置する前記対象物を撮影した画像である教示用画像及び前記現在位置に位置する前記対象物を撮影した画像である現在画像を撮影する撮影部と、
    前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得する情報取得部と、
    前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像及び前記現在画像に対して行う画像処理部と、
    前記画像処理部により処理された教示用画像及び前記画像処理部により処理された現在画像から画像特徴量を抽出する画像特徴量抽出部と、
    前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記ロボットの現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記ロボットを制御する制御部と、
    を備えることを特徴とするロボットシステム。
  8. 対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるように可動部を制御するロボットにおいて、
    可動部と、
    前記目標位置に位置する前記対象物を撮影した画像である教示用画像及び前記現在位置に位置する前記対象物を撮影した画像である現在画像を取得する画像取得部と、
    前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得する情報取得部と、
    前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像及び前記現在画像に対して行う画像処理部と、
    前記画像処理部により処理された教示用画像及び前記画像処理部により処理された現在画像から画像特徴量を抽出する画像特徴量抽出部と、
    前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記可動部の現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記可動部を制御する制御部と、
    を備えることを特徴とするロボット。
  9. 対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるようにロボットを制御するロボット制御方法において、
    前記目標位置に位置する前記対象物を撮影した画像である教示用画像を取得するステップと、
    前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得するステップと、
    前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像に対して行うステップと、
    前記処理された教示用画像から画像特徴量を抽出するステップと、
    前記現在位置に位置する前記対象物を撮影した画像である現在画像を取得するステップと、
    前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記現在画像に対して行うステップと、
    前記処理された現在画像から画像特徴量を抽出するステップと、
    前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記ロボットの現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記ロボットを制御するステップと、
    を有することを特徴とするロボット制御方法。
  10. 対象物を前記対象物の現在位置から前記対象物の目標位置へ移動させるようにロボットを制御するプログラムにおいて、
    前記目標位置に位置する前記対象物を撮影した画像である教示用画像を取得するステップと、
    前記教示用画像及び前記現在画像における注目領域及び非注目領域を示す情報を取得するステップと、
    前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記教示用画像に対して行うステップと、
    前記処理された教示用画像から画像特徴量を抽出するステップと、
    前記現在位置に位置する前記対象物を撮影した画像である現在画像を取得するステップと、
    前記注目領域から抽出される画像特徴量は変えず、かつ前記非注目領域から抽出される画像特徴量を少なくする第1の画像変換処理を、前記現在画像に対して行うステップと、
    前記処理された現在画像から画像特徴量を抽出するステップと、
    前記教示用画像及び前記現在画像から抽出された画像特徴量に基づいて前記ロボットの現在位置と前記目標位置との差分を求め、当該差分が少なくなるように前記ロボットを制御するステップと、
    を演算装置に実行させることを特徴とするプログラム。
JP2013015199A 2013-01-30 2013-01-30 ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム Withdrawn JP2014144516A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013015199A JP2014144516A (ja) 2013-01-30 2013-01-30 ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013015199A JP2014144516A (ja) 2013-01-30 2013-01-30 ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014144516A true JP2014144516A (ja) 2014-08-14

Family

ID=51425198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013015199A Withdrawn JP2014144516A (ja) 2013-01-30 2013-01-30 ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2014144516A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016059982A (ja) * 2014-09-16 2016-04-25 セイコーエプソン株式会社 画像処理装置、及びロボットシステム
JP2016120566A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
US10127622B2 (en) 2014-09-16 2018-11-13 Seiko Epson Corporation Image processing apparatus and robot system
JP2019032763A (ja) * 2017-08-09 2019-02-28 キヤノン株式会社 情報処理装置および情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62274305A (ja) * 1986-05-23 1987-11-28 Hitachi Ltd 位置決め指示方法
JP2012121083A (ja) * 2010-12-07 2012-06-28 Honda Motor Co Ltd ワークの特定部位認識方法及びその装置
JP2012161850A (ja) * 2011-02-03 2012-08-30 Seiko Epson Corp ロボット装置、位置検出装置、位置検出プログラム、および位置検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62274305A (ja) * 1986-05-23 1987-11-28 Hitachi Ltd 位置決め指示方法
JP2012121083A (ja) * 2010-12-07 2012-06-28 Honda Motor Co Ltd ワークの特定部位認識方法及びその装置
JP2012161850A (ja) * 2011-02-03 2012-08-30 Seiko Epson Corp ロボット装置、位置検出装置、位置検出プログラム、および位置検出方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016059982A (ja) * 2014-09-16 2016-04-25 セイコーエプソン株式会社 画像処理装置、及びロボットシステム
US10127622B2 (en) 2014-09-16 2018-11-13 Seiko Epson Corporation Image processing apparatus and robot system
JP2016120566A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP2019032763A (ja) * 2017-08-09 2019-02-28 キヤノン株式会社 情報処理装置および情報処理方法

Similar Documents

Publication Publication Date Title
CN108297096B (zh) 校准装置、校准方法以及计算机能够读取的介质
JP6505729B2 (ja) 視覚センサを用いるロボットシステムのための自動較正方法
US8315455B2 (en) Robot system, robot control device and method for controlling robot
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP6623286B2 (ja) ロボットシステムの自動較正方法
JP2022028672A (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP5200772B2 (ja) ロボット装置の制御方法及びロボット装置
JP6180086B2 (ja) 情報処理装置及び情報処理方法
CN109382821B (zh) 校准方法、校准系统及程序
US9352467B2 (en) Robot programming apparatus for creating robot program for capturing image of workpiece
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
US20190015989A1 (en) Robot Control Device, Robot, Robot System, And Calibration Method Of Camera
JP2019089188A (ja) 作動システムおよびプログラム
CN114174006A (zh) 机器人手眼标定方法、装置、计算设备、介质以及产品
US10207409B2 (en) Image processing method, image processing device, and robot system
CN110722558B (zh) 机器人的原点校正方法、装置、控制器和存储介质
JP7250489B2 (ja) 画像処理装置およびその制御方法、プログラム
JP2014144516A (ja) ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム
JP2021065955A5 (ja) ロボット制御装置及びその制御方法及びプログラム
JP7323993B2 (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
JP7171294B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2015005093A (ja) パターンマッチング装置及びパターンマッチング方法
JP7071074B2 (ja) 画像処理方法、画像処理装置、プログラム、記録媒体、物品の製造方法、およびロボット装置
CN111699077B (zh) 用于机器人的基于视觉的操作

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160121

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170125