JP2008246631A - 対象物取出装置 - Google Patents

対象物取出装置 Download PDF

Info

Publication number
JP2008246631A
JP2008246631A JP2007091730A JP2007091730A JP2008246631A JP 2008246631 A JP2008246631 A JP 2008246631A JP 2007091730 A JP2007091730 A JP 2007091730A JP 2007091730 A JP2007091730 A JP 2007091730A JP 2008246631 A JP2008246631 A JP 2008246631A
Authority
JP
Japan
Prior art keywords
robot
gradient
gradient distribution
image
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007091730A
Other languages
English (en)
Other versions
JP4309439B2 (ja
Inventor
Kazukuni Ban
一訓 伴
Ichiro Kanno
一郎 管野
Hidetoshi Kumiya
英俊 組谷
Shota Takizawa
象太 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2007091730A priority Critical patent/JP4309439B2/ja
Priority to EP08005778.9A priority patent/EP2045772B1/en
Priority to CN2008100869083A priority patent/CN101274432B/zh
Priority to US12/057,423 priority patent/US8098928B2/en
Publication of JP2008246631A publication Critical patent/JP2008246631A/ja
Application granted granted Critical
Publication of JP4309439B2 publication Critical patent/JP4309439B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Abstract

【課題】曲面形状を有するワークを、実用的な時間で検出して、取出す。
【解決手段】少なくとも一部に曲面的な形状を有する対象物を取出すためのロボットを含む対象物取出装置が、対象物の濃淡勾配分布モデルを記憶する記憶手段と、対象物の濃淡画像を撮像する撮像手段と、撮像手段により撮像された濃淡画像から濃淡勾配分布を抽出する勾配抽出手段と、勾配抽出手段により抽出された濃淡勾配分布と記憶手段により記憶された濃淡勾配分布モデルとに基づいて、濃淡画像における対象物の位置または位置姿勢を検出する対象物検出手段と、対象物検出手段により検出された位置または位置姿勢の情報をロボットに関する座標系における位置または位置姿勢の情報に変換する検出情報変換手段と、検出情報変換手段によって変換された位置または位置姿勢にロボットを移動させて対象物を取出すロボット移動手段と、を含む。
【選択図】図3

Description

本発明は、対象物、特に曲面形状を含むワークをロボットを用いて取出す対象物取出装置に関する。
近年では、乱雑に配置されている複数のワーク、つまりカゴまたはパレットにおいて位置決めされていない複数のワークを、産業用ロボットが取出すことが行われている。特許文献1には、多数の平面部位を備えていて輪郭や形状特徴が安定的に検出できる所謂多面体的なワークをカゴ等から取出すことが記載されている。
一方、曲面形状を含むワークにおいては、安定的に検出可能なテクスチャのような形状特徴が少ない。さらに、曲面形状を含むワークにおいては、照明その他の撮像条件によって曲面形状を含むワークの輪郭の見え方がバラつくという問題がある。このため、曲面形状を含むワークを検出するのは困難であり、そのようなワークを取出すためにロボットを導入する事例は比較的少ない。
例えば、特許文献2においては、輪郭線またはテクスチャに基づいて、曲面形状を含むワークの三次元モデルを構築してマッチングすることが行われている。
また、特許文献3においては、固有ベクトルを使用するアプローチに基づいて曲面形状を含むワークを認識する手法が提案されている。
さらに、特許文献4においては、レーザスリット光を走査して、またはメッシュ状に照射して、得られた反射光を用いることにより、曲面形状を含むワークの三次元形状を求めることが開示されている。この場合には、輪郭またはテクスチャを用いることなしに、三次元形状のモデルマッチングを行うことができる。
”Practical Bin Picking by the Intelligent Robot,” Proc. of 36th ISR, TH311, 2005 特開2005−1022号公報 特許第3252941号明細書 特開平10−315167号公報
しかしながら、特許文献2に記載される手法では、ワークが検出可能な輪郭またはテクスチャを備えていない場合には、そのようなワークを検出することはできない。
また、特許文献3に記載される手法においては、背景と検出対象とを完全に分離できることを前提としている。このため、特許文献3に記載される手法は、複数のワークが互いに重なり合う状況には対応できない。さらに、特許文献2の場合と同様に、特許文献3の手法においてもテクスチャまたは輪郭が必要とされるので、単なる円柱のようなワークを正確に認識するのは難しい。
さらに、特許文献4に記載される手法においては、三次元形状データを求めるために複雑かつ高価な装置が必要になる。さらに、通常は三次元データを算出するために極めて膨大な計算処理が必要であるので、特許文献4に記載されるシステムを実用化するのは困難である。
本発明はこのような事情に鑑みてなされたものであり、テクスチャに乏しい、または輪郭が安定しない曲面形状のワークを、実用的な時間で検出して、取出すことのできる対象物取出装置を提供することを目的とする。
前述した目的を達成するために1番目の発明によれば、少なくとも一部に曲面的な形状を有する対象物を取出すためのロボットを含む対象物取出装置であって、前記対象物の濃淡勾配分布モデルを記憶する記憶手段と、前記対象物の濃淡画像を撮像する撮像手段と、前記撮像手段により撮像された前記濃淡画像から濃淡勾配分布を抽出する勾配抽出手段と、前記勾配抽出手段により抽出された前記濃淡勾配分布と前記記憶手段により記憶された前記濃淡勾配分布モデルとに基づいて、前記濃淡画像における前記対象物の位置または位置姿勢(位置および/または姿勢)を検出する対象物検出手段と、前記対象物検出手段により検出された前記位置または位置姿勢の情報を前記ロボットに関する座標系における位置または位置姿勢の情報に変換する検出情報変換手段と、前記検出情報変換手段によって変換された位置または位置姿勢に前記ロボットを移動させて前記対象物を取出すロボット移動手段と、を具備する対象物取出装置が提供される。
すなわち1番目の発明においては、対象物、例えばワークの濃淡画像から得られた濃淡勾配分布を濃淡勾配分布モデルと比較することにより対象物の位置または位置姿勢を決定するようにしている。このため、テクスチャに乏しい、または輪郭が安定しない曲面形状の対象物であっても対象物を迅速に検出して取出すことができる。
2番目の発明によれば、1番目の発明において、さらに、前記撮像手段により撮像された前記濃淡画像における前記対象物のエッジ情報を指定する指定手段と、該指定手段により指定された前記エッジ情報を前記濃淡画像から抽出するエッジ抽出手段とを具備し、前記記憶手段は前記対象物のエッジ情報モデルを記憶しており、前記対象物検出手段は、前記勾配抽出手段により抽出された前記濃淡勾配分布および前記エッジ抽出手段により抽出された前記エッジ情報と、前記記憶手段に記憶された前記濃淡勾配分布モデルおよび前記エッジ情報モデルとに基づいて、前記濃淡画像における前記対象物の位置または位置姿勢を検出するようにした。
すなわち2番目の発明においては、エッジ情報を併用することにより、対象物の位置または位置姿勢をより正確に検出することができる。
3番目の発明によれば、少なくとも一部に曲面的な形状を有する対象物を取出すためのロボットを含む対象物取出装置であって、前記対象物の距離勾配分布モデルを記憶する記憶手段と、前記対象物の距離画像を撮像する撮像手段と、前記撮像手段により撮像された前記距離画像から距離勾配分布を抽出する勾配抽出手段と、前記勾配抽出手段により抽出された前記距離勾配分布と前記記憶手段により記憶された前記距離勾配分布モデルとに基づいて、前記距離画像における前記対象物の位置または位置姿勢を検出する対象物検出手段と、前記対象物検出手段により検出された前記位置または位置姿勢の情報を前記ロボットに関する座標系における位置または位置姿勢の情報に変換する検出情報変換手段と、前記検出情報変換手段によって変換された位置または位置姿勢に前記ロボットを移動させて前記対象物を取出すロボット移動手段と、を具備する対象物取出装置が提供される。
すなわち3番目の発明においては、対象物、例えばワークの距離画像から得られた距離勾配分布を距離勾配分布モデルと比較することにより対象物の位置または位置姿勢を決定するようにしている。このため、テクスチャに乏しい、または輪郭が安定しない曲面形状の対象物であっても対象物を迅速に検出して取出すことができる。
4番目の発明によれば、3番目の発明において、さらに、前記撮像手段により撮像された前記距離画像における前記対象物のエッジ情報を指定する指定手段と、該指定手段により指定された前記エッジ情報を前記距離画像から抽出するエッジ抽出手段とを具備し、前記記憶手段は前記対象物のエッジ情報モデルを記憶しており、前記対象物検出手段は、前記勾配抽出手段により抽出された前記距離勾配分布および前記エッジ抽出手段により抽出された前記エッジ情報と、前記記憶手段に記憶された前記距離勾配分布モデルおよび前記エッジ情報モデルとに基づいて、前記距離画像における前記対象物の位置または位置姿勢を検出するようにした。
すなわち4番目の発明においては、エッジ情報を併用することにより、対象物の位置または位置姿勢をより正確に検出することができる。
5番目の発明によれば、1番目または3番目の発明において、さらに、前記ロボット移動手段によって前記ロボットを移動させた際に、前記ロボットが備えるハンドと前記対象物との間の位置誤差を吸収する位置誤差吸収手段を具備する。
すなわち5番目の発明においては、位置誤差を吸収することにより、対象物をより正確に把持して取出すことができる。位置誤差吸収手段としては、ロボットの特にハンドにフローティング機構を備えるようにしてもよく、またはロボットの関節動作を司るサーボ制御系を外力に対して柔軟にするようにしてもよい。
6番目の発明によれば、1番目の発明において、前記撮像手段が、該撮像手段と同軸化された平行光照明を備える。
すなわち6番目の発明においては、濃淡画像における濃淡パターンが撮像手段と対象物との間の相対姿勢のみに依存する状況を形成し、適切な濃淡画像を得ることができる。
7番目の発明によれば、1番目の発明において、さらに、前記濃淡勾配分布を勾配方向ごとに色分けして表示する表示手段を具備する。
すなわち7番目の発明においては、濃度勾配情報を表示することにより、対象物を検出する際に操作者の理解を補助することができる。
8番目の発明によれば、3番目の発明において、さらに、前記距離勾配分布を勾配方向ごとに色分けして表示する表示手段を具備する。
すなわち8番目の発明においては、距離勾配情報を表示することにより、対象物を検出する際に操作者の理解を補助することができる。
以下、添付図面を参照して本発明の実施形態を説明する。以下の図面において同様の部材には同様の参照符号が付けられている。理解を容易にするために、これら図面は縮尺を適宜変更している。
図1は、本発明の一つの実施形態に基づくワーク取出装置の全体構成を示す図である。 本発明のワーク取出装置10は、以下で説明するロボット1、カメラ2、三次元視覚センサ3、照明4a、4b、ハンド5およびフローティング機構5aで構成される。図1に示されるロボット1は、公知のロボットマニピュレータ(以下、ロボット)である。ロボット1は、そのハンド5が取出作業を行う位置姿勢に到達することのできるあらゆる機構を含むものとする。
そのようなロボット1は、パレット7内に配置された同一形状の複数のワーク6を取出すのに用いられる。本発明のワーク取出装置により取出されるワークはテクスチャに乏しいか、あるいは輪郭が安定しない曲面形状を有している。図1には、代表的なワークとして、円柱型ワーク6が示されている。
図示されるように、ロボット1のハンド5の基端近傍には、ワーク6の位置姿勢を検出するためにカメラ2と三次元視覚センサ3とが取付けられている。カメラ2は、比較的広域のエリアを撮像して濃淡画像を取得するのに使用される。図1においては、カメラ2はロボット1のハンド5近傍に取付けられている。ただし、カメラ2をパレット上方のカメラ架台(図示しない)に固定するようにしてもよい。
三次元視覚センサ3は、単一のワーク6を捕捉できる視野を有するカメラ(図示しない)とレーザスリット投光器(図示しない)とから構成されている。三次元視覚センサ3は、レーザスリット投光器によりレーザが投光されている箇所の三次元位置を計測できる。さらに、三次元視覚センサ3は、所定の幾何学的形状を有するワーク6、例えば平面型または円柱型のワーク6の位置姿勢を計測することができる。
このような三次元視覚センサ3は公知であるので、詳細な説明を省略する。また、複数の二次元カメラから構成される三次元視覚センサも公知であり、そのような三次元視覚センサを本発明に適用してもよい。また、三次元視覚センサ3は、ロボット1の動作と組み合わせて、後述する距離画像を取得することもできる。
本発明においては、使用されるロボット1の数に制限は無く、例えばワーク6の位置姿勢を検出するロボットと、ワーク6の取出作業をおこなうロボットとを用いるようにしてもよい。さらに、図1に示されるように、単一のロボットがワーク6の検出および取出を行うシステムを構築することも可能である。
また、カメラ2と三次元視覚センサ3のカメラとは同種であり、これらはカラーカメラであってもモノクロカメラであってもよい。これらカメラが、カラーカメラである場合には、撮像された画像から特定の色情報を取出して、モノクロカメラと同じ処理を行うものとする。
ハンド5は、ワーク6の傾きに倣うようにしたフローティング機構5aを備えている。このようなフローティング機構5aはハンド5とワーク6との間の位置誤差を吸収する位置誤差吸収手段としての役目を果たす。また、ハンド5がそのようなフローティング機構5aを備える代わりに、ロボット1の関節動作を司るサーボ制御系を外力に対して柔軟に構成してもよい。そのような構成においては、ハンド5が外力を受けた場合に、ロボット1の動作を停止させたり、外力に倣ってロボット1を動作させたりする。このようなサーボ制御は公知の技術であるので、説明を省略する。
さらに、図示されるように、照明4a、4bがカメラ2および三次元視覚センサ3にそれぞれ装着されている。後述するように、これら照明4a、4bは、カメラ2および三次元視覚センサ3のそれぞれの光軸上に同軸平行光照明となるように配置されている。
図2(a)は本発明に基づくワーク取出装置の機能ブロック図である。図2(a)に示されるように、ロボット1は、ロボット1の各部分を移動させるロボット移動手段1a、例えばサーボモータを備えている。図示されるように、ロボット1はロボット制御装置11に接続されている。ロボット制御装置11はデジタルコンピュータであり、ロボット1の種々の制御を行うものとする。
図示されるようにカメラ2および三次元視覚センサ3は画像処理装置12に接続されており、画像処理装置12はロボット制御装置11に接続されている。ロボット1の動作教示はロボット制御装置11に接続された教示操作盤13により行われる。また、カメラ2および三次元視覚センサ3の設定は画像処理装置12のユーザインターフェース(図示せず)を用いてそれぞれ行われる。また、ロボット1の状態は教示操作盤13に表示され、三次元視覚センサ3の状態はモニタ14に表示される。さらに、ロボット制御装置11には、キーボード、マウス等の指定手段18が接続されている。
また、図2(b)は本発明に基づくワーク取出装置の他の機能ブロック図である。図2(b)においては、画像処理装置12がロボット制御装置11に内蔵されている。図2(b)においては、ロボット1の動作教示および三次元視覚センサ3の設定はともに教示操作盤13により行われる。また、ロボット1の状態および三次元視覚センサ3の状態は教示操作盤13に表示することができる。
さらに、カメラ2および三次元視覚センサ3の設定および状態の確認を容易にする目的で、通信インターフェースを介して補助入力装置16およびモニタ14を使用することもできる。なお、補助入力装置16およびモニタ14はロボット1の自動運転中に取外すことも可能である。
図3は画像処理装置の詳細図である。図3に示されるように、画像処理装置12は、画像記憶手段31とモデル記憶手段32と検出リスト33とを備えた記憶手段30、例えばRAMを含んでいる。さらに、図示されるように、ロボット制御装置11は、勾配抽出手段34、エッジ抽出手段35、対象物検出手段36、検出情報変換手段37を含んでいる。これらについては後述する。
図3における画像記憶手段31は、カメラ2および三次元視覚センサ3により撮像された画像を記憶することができる。モデル記憶手段32は、予め定められたワーク6のモデル情報を記憶している。ワーク6のモデル情報は、ワーク6全体についての濃淡勾配分布および距離勾配分布を含んでいる。さらに、ワーク6のモデル情報は、例えばワーク6のテクスチャまたはワーク6における輪郭が明確な箇所を示すエッジ情報モデルも含んでいる。
図4は、本発明のワーク取出装置10によりワークを取出す一連の流れを示すフローチャートである。図4に示されるように、はじめに、ロボット1のロボット移動手段1aによって、カメラ2をパレット7上方に移動させる(ステップS1)。次いで、カメラ2によって、後述する広域計測を行い、それにより、ワーク6の大まかな位置姿勢を把握する(ステップS2)。
次いで、広域計測にて撮像された画像内にワーク6が検出されたかどうかを判断する(ステップS3)。そのような検出はロボット制御装置11の対象物検出手段36が後述するように行う。ステップS3において、ワーク6が検出されていない場合には、カメラ2をパレット上方に再度移動して、広域計測を行う(ステップS10)。
一方、ステップS3においてワーク6が検出されている場合には、検出されたワーク6のうち最も上方に位置するワーク6を選択する。そのようなワーク6は、撮像された画像内において最も寸法の大きいワークである。そして、ロボット1のロボット移動手段1aによって三次元視覚センサ3を選択されたワーク6近傍に移動する(ステップS4)。
次いで、三次元視覚センサ3のレーザスリット投光器からのレーザスリット光をワーク6に投射して狭域計測を行う(ステップS5)。その後、狭域計測によりワーク6が検出されたか否かを判断(ステップS6)する。ワーク6が検出されない場合には、ステップS5に戻り、ワーク6が検出されるまで処理を繰返す。
ステップS6においてワーク6が検出された場合には、ハンド5によりそのワーク6を把持する(ステップS7)。次いで、ハンド5の開閉程度から把持に成功したか否かを判断する(ステップS8)。ワーク6が適切に把持されている場合には、ステップS9に進んで、そのワーク6をパレット7から取出して処理を終了する。一方、ステップS8において、ワーク6が適切に把持できなかった場合には、カメラ2をパレット上方に再度移動して、広域計測を(ステップS10)を行うようにする。
図5は、図4のステップS2における広域計測の一つの手法を示すフローチャートである。図5に示されるように、はじめに、カメラ2によってパレット7全体を上方から撮像する(ステップT1)。撮像された画像は画像記憶手段31に記憶され、次いで、撮像した画像内においてワーク6を検出する範囲の濃淡勾配分布を算出する(ステップT2)。そのような濃度勾配分布の算出は後述する勾配抽出手段34によって行われる。
次いで、勾配抽出手段34により抽出された濃淡勾配分布のうち、モデルと比較するためのワーク候補領域を切出す(ステップT3)。その後、ステップT4において、切出されたワーク候補領域に対応するモデル候補領域をモデル記憶手段32から取出す。そして、対象物検出手段36によりワーク候補領域の濃淡勾配分布とモデル候補領域の濃淡勾配分布モデルとを比較して、両者のマッチングを行う。そして、スコア(マッチング度)が最大になるときのサイズと回転量とを求める(ステップT4)。
次いで、ステップT5において、得られたマッチング度が所定の閾値よりも大きいか否かを判定する。マッチング度が閾値よりも大きい場合には、検出条件を満足するものと判断できる。そのような場合には、前述したサイズと回転量とを記憶手段30の検出リスト33に記憶させる。さらに、検出情報変換手段37によってサイズと回転量とをロボット1の座標系に変換し、その結果も検出リスト33に記憶させる。
なお、検出情報変換手段37によってロボット1の座標系への変換作業を行うために、カメラ2の画像上におけるワーク6の位置姿勢とロボット1の座標系におけるワーク6の位置姿勢とを関連付けるキャリブレーションデータが予め求められている。前述した変換作業はそのようなキャリブレーションデータに基づいて行われている。このような変換作業は公知であるので、詳細な説明を省略する。
その後、ワーク候補領域における全ての領域を探索したか否かを判断する(ステップT6)。未処理のワーク候補領域が存在する場合には、図示されるようにステップT3に戻って処理を繰返す。
ところで、ステップT4においてサイズと回転量とを決定する処理においては、Log−Pol変換パターンが使用される。図6は、Log−Pol変換パターンを説明するための図である。図6に示されるように、Log−Pol変換パターンとはユークリッド座標系表現の濃淡パターンを横軸η、縦軸log(l)の極座標表現に変換したものである。
実際の検出で推定される50%〜200%程度のサイズの範囲で濃淡勾配パターンが拡大縮小した場合であっても、Log−Pol変換パターンの形状はほとんど変化しない。このため、本発明においては、モデル記憶手段32からのモデル候補領域とカメラ2の画像からのワーク候補領域の両方からLog−Pol変換パターンを生成する。次いで、極座標空間内でこれらを平行移動させながら最も一致する位置を探索し、最も一致する位置の横軸の値から回転量を決定すると共に、縦軸からサイズを決定する。このように、本発明においてはワークのモデルの回転処理および相似変換処理が不要であるので、従来の場合と比較して高速な処理を行うことができる。
Log−Pol変換パターンにおいては、特にサイズに関してLogスケールでのマッチングのために精度が十分でない事態が生じうる。このため、可能である場合には図5におけるステップT4に以下の処理を追加するのが好ましい。
すなわち、撮像された画像内のワーク6に明確な輪郭を含む箇所またはテクスチャが存在する場合には、操作者は、指定手段18を用いて輪郭を含む箇所またはテクスチャをエッジ情報として画像上で指定する。次いで、ロボット制御装置11のエッジ抽出手段35が指定されたエッジ情報を画像から抽出する。そして、サイズのみを決定するためのパターンマッチングとして、モデル記憶手段32からのエッジ情報モデルと指定されたエッジ情報とを対象物検出手段36により比較して、両者のマッチングを行う。
このような処理は、既に位置と回転量とが定まっている状態で行われるマッチングであるので、処理時間が大幅に増大することはない。すなわち本発明においては、エッジ情報を併用することにより、処理時間を大幅に増大させることなしに、ワーク6の位置または位置姿勢をより正確に検出することが可能となる。
図7(a)はカメラにより撮像された画像の図であり、図7(b)は図5のステップT2における勾配を説明するための図である。さらに、図8は、図5のステップT2における勾配の計算方法を示すフローチャートである。以下、これら図面を参照して、ステップT2の勾配の計算方法を説明する。
図7(a)に示される実施形態においては、カメラ2がワーク6を撮像して得られる画像21は濃淡画像である。そして、画像21における各画素の要素のそれぞれが輝度を示している。図示されるように、画像21の上下方向をx方向、左右方向をy方向とする。画像21における或る画素(x、y)の要素値をI(x、y)と表すと、画像の勾配22は以下の式(1)により表される。
式(1)において、ΔIは勾配の強度、λは勾配方向をそれぞれ示している。また、図7(b)はそれらの関係を表している。
図8のフローチャートに示されるように、撮像した画像を縮小し、フィルタ処理を行い、その後、画像を拡大するようにしている。これにより、サイズの大きなフィルタを使用した場合と同等の効果を少ない計算コストで得ることが可能となる。
すなわち、図8のフローチャートにおいては、最初に画像を縮小し(ステップP1)、縮小した画像から勾配の乱れの原因となる斑点状のノイズを除去する(ステップP2)。次いで、ワーク間の細かな違いによる影響を低減するために、画像をぼかす(ステップP3)。その後、差分型空間フィルタを用いて画像の勾配22を計算する(ステップP4)。そして、計算された勾配22は基本的に連続しているという前提に立って、周囲とは勾配方向が異なる画素の勾配方向を修正する(ステップP5)。最終的に、画像を元のサイズまで拡大して(ステップP6)、処理を終了する。
前述した実施形態においては、カメラ2により得られる濃淡画像の処理について説明したが、三次元視覚センサ3によって得られる距離画像を同様に処理することにより画像の距離勾配を勾配抽出手段34により求めるようにしてもよい。濃淡画像における各画素の値が明度を表すのに対し、距離画像における各画素の値は三次元視覚センサ3からの距離、または距離に関連した情報を表している。例えば、三次元視覚センサ3からの距離を、ロボットの座標系におけるZ座標の値としてもよい。距離画像を用いる場合には、距離勾配分布をモデル記憶手段32内の距離勾配分布モデルと比較すればよい。また、カメラ2がカラーカメラである場合は、撮像された画像から特定の色を抽出することによって、同様の手法で勾配の計算が可能である。
ここで、照明4a、4bが、カメラ2および三次元視覚センサ3のそれぞれの光軸上に同軸平行光照明として配置されていることについて説明する。図9は、光の強度を説明するための図である。図9に示すように、物体表面のある一点(観測点)から反射されて視界に入力される光の強度は以下の式2で表される。
式(2)における右辺の第一項は拡散反射成分であり、全方向へ均等に拡散される光を表している。この光によって物体の色が認識される。ここで、Kdは拡散反射係数、θは光の入射方向と上記観測点における接平面の法線とがなす角度である。
式(2)における右辺の第二項は鏡面反射成分であり、その反射強度は物体の形状、光源の位置と強度、および視点(カメラ)の位置に応じて大きく異なる。ここで、Ksは鏡面反射率係数である。αは観測点からの鏡面反射光の広がりを示す係数であり、ワークの表面粗さに依存する。φは光の入射方向と視点からの視線のなす角の2等分線と、接平面の法線とがなす角度である。
図10に示されるように、ワーク6’を撮像するカメラ2’と光源4’とが別位置に配置されている場合を想定する。この場合には、前述した角度θがθ1でかつ角度φがφ1であるものとする。ワーク6’がカメラ2’に対して所定の姿勢を維持した状態でワーク6’とカメラ2’とがカメラ2’の視線上を矢印方向に相対移動すると、角度θはθ1からθ2まで変化すると共に角度φはφ1からφ2まで変化する。従って、式(2)から分かるように、ワーク6’上の同一観測点において異なる反射強度が観測されることになる。
このことは、カメラ2’とワーク6’との間の距離(以下、スタンドオフと呼ぶ)、および一般的には制御不能な光源4’とワーク6’との間の相対位置のそれぞれによってワーク6’の濃淡パターンが変化することを意味する。このような場合には、予め用意した濃淡パターンに基づいたワーク検出のためのモデルを任意のワーク6に対して一様に使用できない。
このため、本発明においては、図11に示されるように照明4aをカメラ2の光軸に対して平行に取付ける。この場合には、スタンドオフが変化したとしても角度θおよび角度φは変化しない。さらに、この場合には、照明4aとワーク6との間の相対位置をどのように変化させたとしても少なくとも、角度θは変化しない。さらに、スタンドオフが十分に大きい場合には角度φも変化しない(φ≒θ)。すなわち、本発明においては、同軸平行光照明を使用することにより、濃淡パターンがカメラ2とワーク6との間の相対姿勢にのみ依存する状況を形成し、それにより、適切な濃淡画像を得ることが可能となる。同様に、照明4bを平行光照明として三次元視覚センサ3に設けるのが好ましい。
図12(a)は勾配方向と色を対応させた表を示す図であり、図12(b)は計算した勾配方向の表示方法を説明する図である。算出された全ての勾配を矢印でベクトル表示する場合には隣接する矢印が互いに重なって表示画面が非常に見難くなる。それゆえ、数画素おきに勾配を表示することにより情報を間引いて表示する必要がある。
このため本発明においては、図12(a)に示されるような勾配方向と色(濃淡の度合い)を対応させた表を予め作成する。そのような表は記憶手段30に記憶されているものとする。そして、図12(b)に示されるように画像の各画素における勾配に対応する色を表から選択して表示する。これにより、画像内の全ての画素の勾配情報をモニタ14の単一の画面に表示することが可能となる。
図13は、図4のステップS5における狭域計測の一つの手法を示すフローチャートである。図13に示されるように、三次元視覚センサ3を用いて、ワーク6の濃淡画像と、ワーク6にレーザスリット光を投射した画像とを取得する(ステップQ1)。次いで、ワーク6の濃淡画像に対して広域計測と同様の処理を行ない、画像上における円柱状ワーク6の位置と回転量とを決定する(ステップQ2)。
次いで、レーザスリット光を投射した画像と、円柱状ワーク6の位置および回転量に基づいて、ワーク6の表面に投射されたレーザスリット光のみを抽出するマスク画像を作成する(ステップQ3)。次いで、マスク画像を用いてレーザスリット光を抽出してレーザ点列を取得し(ステップQ4)、レーザスリット光の各輝点における三次元位置データを計算する(ステップQ5)。
ワーク6が円柱型である場合には、三次元位置データに対して最小二乗法を行って円柱の位置姿勢を表すパラメータを決定する。次いで、公知の手法により、三次元視覚センサ3のキャリブレーションデータを使って、ロボット1の座標系におけるワーク6の位置姿勢を決定する(ステップQ6)。
なお、ワーク6が円柱のように決まったパラメータの無い自由曲面を有する場合には、ステップQ6において、三次元位置データから単に高さの平均値のみを算出する。そして、図4のステップS9でワーク6を取出すときには、ハンド5のフローティング機構5aを用いて、ワーク6の傾き誤差と位置誤差とを吸収するようにしてもよい。これにより、ワーク6をより正確に把持して取出すことが可能となる。
前述した実施形態においては、モデル記憶手段32は、ワーク6のモデル情報、例えば濃淡勾配分布等を記憶している。そのようなモデル情報は、ワーク6の取出作業を行う前に、カメラ2等で一つのワーク6を撮像して図8に示される処理を行うことにより取得するようにしてもよい。また、モデル記憶手段32のモデル情報はワーク6のCADデータから得られるようにしてもよい。
本発明の一つの実施形態に基づくワーク取出装置の全体構成を示す図である。 (a)本発明に基づくワーク取出装置の機能ブロック図である。(b)本発明に基づくワーク取出装置の他の機能ブロック図である。 画像処理装置の詳細図である。 ワークを取出す一連の流れを示すフローチャートである。 図4のステップS2における広域計測の一つの手法を示すフローチャートである。 Log−Pol変換パターンを説明するための図である。 (a)カメラにより撮影された画像の図である。(b)ステップT2における勾配を説明するための図である。 図5のステップT2における勾配の計算方法を示すフローチャートである。 光の強度を説明するための図である。 光源がワークに対して同軸平行照明として配置されていない場合を示す図である。 同軸平行光照明を説明するための図である。 (a)勾配方向と色を対応させた表を示す図である。(b)計算した勾配方向の表示方法を説明する図である。 図4のステップS5における狭域計測の一つの手法を示すフローチャートである。
符号の説明
1 ロボット
1a ロボット移動手段
2 カメラ(濃淡画像のための撮像手段)
2’ カメラ
3 三次元視覚センサ(狭域計測の撮像手段かつ距離画像のための撮像手段)
4a、4b 照明
4’ 光源
5 ハンド
5a フローティング機構
6 ワーク
6’ ワーク
7 パレット
10 ワーク取出装置
11 ロボット制御装置
12 画像処理装置
13 教示操作盤
14 モニタ
16 補助入力装置
18 指定手段
21 画像
22 勾配
30 記憶手段
31 画像記憶手段
32 モデル記憶手段
33 検出リスト
34 勾配抽出手段
35 エッジ抽出手段
36 対象物検出手段
37 検出情報変換手段

Claims (8)

  1. 少なくとも一部に曲面的な形状を有する対象物を取出すためのロボットを含む対象物取出装置であって、
    前記対象物の濃淡勾配分布モデルを記憶する記憶手段と、
    前記対象物の濃淡画像を撮像する撮像手段と、
    前記撮像手段により撮像された前記濃淡画像から濃淡勾配分布を抽出する勾配抽出手段と、
    前記勾配抽出手段により抽出された前記濃淡勾配分布と前記記憶手段により記憶された前記濃淡勾配分布モデルとに基づいて、前記濃淡画像における前記対象物の位置または位置姿勢を検出する対象物検出手段と、
    前記対象物検出手段により検出された前記位置または位置姿勢の情報を前記ロボットに関する座標系における位置または位置姿勢の情報に変換する検出情報変換手段と、
    前記検出情報変換手段によって変換された位置または位置姿勢に前記ロボットを移動させて前記対象物を取出すロボット移動手段と、を具備する対象物取出装置。
  2. さらに、前記撮像手段により撮像された前記濃淡画像における前記対象物のエッジ情報を指定する指定手段と、
    該指定手段により指定された前記エッジ情報を前記濃淡画像から抽出するエッジ抽出手段とを具備し、
    前記記憶手段は前記対象物のエッジ情報モデルを記憶しており、
    前記対象物検出手段は、前記勾配抽出手段により抽出された前記濃淡勾配分布および前記エッジ抽出手段により抽出された前記エッジ情報と、前記記憶手段に記憶された前記濃淡勾配分布モデルおよび前記エッジ情報モデルとに基づいて、前記濃淡画像における前記対象物の位置または位置姿勢を検出するようにした請求項1に記載の対象物取出装置。
  3. 少なくとも一部に曲面的な形状を有する対象物を取出すためのロボットを含む対象物取出装置であって、
    前記対象物の距離勾配分布モデルを記憶する記憶手段と、
    前記対象物の距離画像を撮像する撮像手段と、
    前記撮像手段により撮像された前記距離画像から距離勾配分布を抽出する勾配抽出手段と、
    前記勾配抽出手段により抽出された前記距離勾配分布と前記記憶手段により記憶された前記距離勾配分布モデルとに基づいて、前記距離画像における前記対象物の位置または位置姿勢を検出する対象物検出手段と、
    前記対象物検出手段により検出された前記位置または位置姿勢の情報を前記ロボットに関する座標系における位置または位置姿勢の情報に変換する検出情報変換手段と、
    前記検出情報変換手段によって変換された位置または位置姿勢に前記ロボットを移動させて前記対象物を取出すロボット移動手段と、を具備する対象物取出装置。
  4. さらに、前記撮像手段により撮像された前記距離画像における前記対象物のエッジ情報を指定する指定手段と、
    該指定手段により指定された前記エッジ情報を前記距離画像から抽出するエッジ抽出手段とを具備し、
    前記記憶手段は前記対象物のエッジ情報モデルを記憶しており、
    前記対象物検出手段は、前記勾配抽出手段により抽出された前記距離勾配分布および前記エッジ抽出手段により抽出された前記エッジ情報と、前記記憶手段に記憶された前記距離勾配分布モデルおよび前記エッジ情報モデルとに基づいて、前記距離画像における前記対象物の位置または位置姿勢を検出するようにした請求項3に記載の対象物取出装置。
  5. さらに、前記ロボット移動手段によって前記ロボットを移動させた際に、前記ロボットが備えるハンドと前記対象物との間の位置誤差を吸収する位置誤差吸収手段を具備する請求項1または3に記載の対象物取出装置。
  6. 前記撮像手段が、該撮像手段と同軸化された平行光照明を備える請求項1に記載の対象物取出装置。
  7. さらに、前記濃淡勾配分布を勾配方向ごとに色分けして表示する表示手段を具備する、請求項1に記載の対象物取出装置。
  8. さらに、前記距離勾配分布を勾配方向ごとに色分けして表示する表示手段を具備する、請求項3に記載の対象物取出装置。
JP2007091730A 2007-03-30 2007-03-30 対象物取出装置 Active JP4309439B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007091730A JP4309439B2 (ja) 2007-03-30 2007-03-30 対象物取出装置
EP08005778.9A EP2045772B1 (en) 2007-03-30 2008-03-27 Apparatus for picking up objects
CN2008100869083A CN101274432B (zh) 2007-03-30 2008-03-28 目标物取出装置
US12/057,423 US8098928B2 (en) 2007-03-30 2008-03-28 Apparatus for picking up objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007091730A JP4309439B2 (ja) 2007-03-30 2007-03-30 対象物取出装置

Publications (2)

Publication Number Publication Date
JP2008246631A true JP2008246631A (ja) 2008-10-16
JP4309439B2 JP4309439B2 (ja) 2009-08-05

Family

ID=39794440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007091730A Active JP4309439B2 (ja) 2007-03-30 2007-03-30 対象物取出装置

Country Status (4)

Country Link
US (1) US8098928B2 (ja)
EP (1) EP2045772B1 (ja)
JP (1) JP4309439B2 (ja)
CN (1) CN101274432B (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010184308A (ja) * 2009-02-10 2010-08-26 Fanuc Ltd ワーク取り出し装置
CN101927494A (zh) * 2009-06-19 2010-12-29 株式会社安川电机 形状检测系统
JP2011110629A (ja) * 2009-11-24 2011-06-09 Idec Corp ロボット制御方法およびロボット制御システム
JP2011110628A (ja) * 2009-11-24 2011-06-09 Idec Corp ロボット制御システムおよびロボット制御方法
JP2011163822A (ja) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd 物体形状評価装置
JP2011164991A (ja) * 2010-02-10 2011-08-25 Toyota Motor Corp 画像処理装置
JP2012037391A (ja) * 2010-08-06 2012-02-23 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2012220285A (ja) * 2011-04-06 2012-11-12 Optex Co Ltd 距離画像カメラおよびこれを用いた距離測定方法
JP2013094936A (ja) * 2011-11-04 2013-05-20 Mitsubishi Electric Corp 部品取り出し方法、及び部品取り出しシステム
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2018109602A (ja) * 2016-10-11 2018-07-12 ザ・ボーイング・カンパニーThe Boeing Company 加工対象物内に形成された穴の位置及びベクトルを決定するためのシステム及び方法で使用される表面ベース穴ターゲット
JP2019150931A (ja) * 2018-03-05 2019-09-12 パナソニック株式会社 ロボットシステム、制御装置、及びロボット
CN112008717A (zh) * 2019-05-30 2020-12-01 松下i-PRO传感解决方案株式会社 相机和机器人系统
JPWO2021177236A1 (ja) * 2020-03-05 2021-09-10
CN113459084A (zh) * 2021-05-21 2021-10-01 广东拓斯达科技股份有限公司 一种机器人参数标定方法、装置、设备及存储介质
WO2022014458A1 (ja) * 2020-07-13 2022-01-20 ファナック株式会社 検出装置及び検出方法
JP7376318B2 (ja) 2019-10-30 2023-11-08 ファナック株式会社 アノテーション装置
US11943422B2 (en) 2020-02-27 2024-03-26 Fanuc Corporation Three-dimensional image-capturing device and image-capturing condition adjusting method

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8150165B2 (en) * 2008-04-11 2012-04-03 Recognition Robotics, Inc. System and method for visual recognition
US9576217B2 (en) 2008-04-11 2017-02-21 Recognition Robotics System and method for visual recognition
US8923602B2 (en) * 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
US8286320B2 (en) * 2008-09-18 2012-10-16 Automatic Handling International Apparatus and method for the robotic plugging/unplugging of rolls
US8144193B2 (en) * 2009-02-09 2012-03-27 Recognition Robotics, Inc. Work piece tracking system and method
JP5468824B2 (ja) * 2009-06-22 2014-04-09 株式会社豊田自動織機 3次元における形状の一致を判定する方法および装置
US9179106B2 (en) * 2009-12-28 2015-11-03 Canon Kabushiki Kaisha Measurement system, image correction method, and computer program
JP2011200948A (ja) * 2010-03-24 2011-10-13 Sony Corp 把持判別装置および把持判別方法
US8842191B2 (en) 2010-06-03 2014-09-23 Recognition Robotics, Inc. System and method for visual recognition
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
KR101453234B1 (ko) 2010-11-17 2014-10-22 미쓰비시덴키 가부시키가이샤 워크 취출 장치
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
FI20106387A (fi) * 2010-12-30 2012-07-01 Zenrobotics Oy Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi
JP5533727B2 (ja) * 2011-02-18 2014-06-25 株式会社安川電機 ワークピッキングシステム
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
JP5266377B2 (ja) * 2011-12-19 2013-08-21 ファナック株式会社 物品の姿勢を修正する機能を備えた取出し装置
JP2014102685A (ja) * 2012-11-20 2014-06-05 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2014126943A (ja) 2012-12-25 2014-07-07 Fanuc Ltd 画像中の対象物を検出するために画像処理を行う画像処理装置及び方法
JP5765355B2 (ja) * 2013-03-18 2015-08-19 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
CN103273496B (zh) * 2013-05-08 2015-07-15 长沙长泰机器人有限公司 一种利用智能相机在机器人搬运系统中定位工件的方法
JP6188440B2 (ja) * 2013-06-17 2017-08-30 キヤノン株式会社 ロボット装置及びロボット制御方法
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
ES2654335T3 (es) 2014-10-23 2018-02-13 Comau S.P.A. Sistema para monitorizar y controlar una instalación industrial
US9650039B2 (en) * 2015-03-20 2017-05-16 Ford Global Technologies, Llc Vehicle location accuracy
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6624911B2 (ja) * 2015-12-03 2019-12-25 キヤノン株式会社 計測装置、計測方法および物品の製造方法
JP6363589B2 (ja) * 2015-12-24 2018-07-25 ファナック株式会社 ロボットを備えたワイヤ放電加工システム
JP6346216B2 (ja) 2016-04-01 2018-06-20 ファナック株式会社 ワイヤ放電加工機及びワイヤ放電加工方法
CN107378941B (zh) * 2016-05-16 2022-02-18 精工爱普生株式会社 机器人、控制装置以及机器人系统
JP6500852B2 (ja) * 2016-07-11 2019-04-17 株式会社安川電機 ロボットシステム、ロボットの制御方法、ロボットコントローラ
US10099368B2 (en) 2016-10-25 2018-10-16 Brandon DelSpina System for controlling light and for tracking tools in a three-dimensional space
CN110382172B (zh) * 2017-03-06 2023-01-31 株式会社富士 图像处理装置以及图像处理数据生成方法
WO2018183852A1 (en) 2017-03-30 2018-10-04 Soft Robotics, Inc. User-assisted robotic control systems
US20190226287A1 (en) * 2017-05-11 2019-07-25 National Oilwell Varco Norway As System and method for placing pipe in and removing pipe from a finger rack
JP6487495B2 (ja) * 2017-05-19 2019-03-20 ファナック株式会社 ワーク取出しシステム
US11358290B2 (en) * 2017-10-19 2022-06-14 Canon Kabushiki Kaisha Control apparatus, robot system, method for operating control apparatus, and storage medium
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
IT201800005091A1 (it) 2018-05-04 2019-11-04 "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico"
JP7001294B2 (ja) * 2018-08-15 2022-01-19 国立研究開発法人産業技術総合研究所 マーカ
CN109159119A (zh) * 2018-09-05 2019-01-08 张军强 机械手控制方法、装置、存储介质及电子设备
CN109377268A (zh) * 2018-09-27 2019-02-22 北京理工大学 商品的调整方法及装置
EP3895855A4 (en) * 2018-12-11 2022-05-11 Fuji Corporation ROBOT CONTROL SYSTEM, AND ROBOT CONTROL METHOD
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
KR20190104483A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 로봇 시스템 및 그 제어 방법
JP7314871B2 (ja) * 2020-07-09 2023-07-26 新東工業株式会社 強度計測装置及び強度計測方法
CN114092632A (zh) 2020-08-06 2022-02-25 财团法人工业技术研究院 标注方法、应用其的装置、系统、方法及计算机程序产品

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0672770B2 (ja) * 1988-02-01 1994-09-14 豊田工機株式会社 ロボットの物体認識装置
JPH02110788A (ja) 1988-10-20 1990-04-23 Niigata Eng Co Ltd 3次元物体の形状認識方法
GB2261069B (en) * 1991-10-30 1995-11-01 Nippon Denso Co High speed picking system for stacked parts
JPH0719813A (ja) 1993-06-21 1995-01-20 Sharp Corp 3次元視覚認識装置
JP3252941B2 (ja) 1994-11-29 2002-02-04 日本電信電話株式会社 画像切り出し認識装置
JP2775404B2 (ja) 1995-02-21 1998-07-16 防衛庁技術研究本部長 自動目標識別装置
JPH09255158A (ja) 1996-03-22 1997-09-30 Kobe Steel Ltd 物体配置認識装置
JPH10118975A (ja) * 1996-10-18 1998-05-12 Komatsu Ltd ハンドリング位置認識方法および認識装置
JP3362834B2 (ja) 1997-05-16 2003-01-07 ダイハツ工業株式会社 ワークのピッキング装置
JP2005001022A (ja) 2003-06-10 2005-01-06 Yaskawa Electric Corp 物体モデル作成装置及びロボット制御装置
JP4432623B2 (ja) 2003-10-14 2010-03-17 パナソニック電工株式会社 画像処理装置
JP4060261B2 (ja) * 2003-10-16 2008-03-12 独立行政法人科学技術振興機構 画像に含まれる身体形状を判定する方法及び非接触型ポインティング・デバイスの実現方法
US7403641B2 (en) 2004-05-28 2008-07-22 Matsushita Electric Works, Ltd. Object recognition system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010184308A (ja) * 2009-02-10 2010-08-26 Fanuc Ltd ワーク取り出し装置
CN101927494A (zh) * 2009-06-19 2010-12-29 株式会社安川电机 形状检测系统
EP2267658A2 (en) 2009-06-19 2010-12-29 Kabushiki Kaisha Yaskawa Denki Shape detection system
US8660697B2 (en) 2009-06-19 2014-02-25 Kabushiki Kaisha Yaskawa Denki Shape detection system
JP2011110629A (ja) * 2009-11-24 2011-06-09 Idec Corp ロボット制御方法およびロボット制御システム
JP2011110628A (ja) * 2009-11-24 2011-06-09 Idec Corp ロボット制御システムおよびロボット制御方法
JP2011163822A (ja) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd 物体形状評価装置
JP2011164991A (ja) * 2010-02-10 2011-08-25 Toyota Motor Corp 画像処理装置
JP2012037391A (ja) * 2010-08-06 2012-02-23 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2012220285A (ja) * 2011-04-06 2012-11-12 Optex Co Ltd 距離画像カメラおよびこれを用いた距離測定方法
JP2013094936A (ja) * 2011-11-04 2013-05-20 Mitsubishi Electric Corp 部品取り出し方法、及び部品取り出しシステム
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2018109602A (ja) * 2016-10-11 2018-07-12 ザ・ボーイング・カンパニーThe Boeing Company 加工対象物内に形成された穴の位置及びベクトルを決定するためのシステム及び方法で使用される表面ベース穴ターゲット
JP7046533B2 (ja) 2016-10-11 2022-04-04 ザ・ボーイング・カンパニー 加工対象物内に形成された穴の位置及びベクトルを決定するためのシステム及び方法で使用される表面ベース穴ターゲット
JP2019150931A (ja) * 2018-03-05 2019-09-12 パナソニック株式会社 ロボットシステム、制御装置、及びロボット
CN112008717A (zh) * 2019-05-30 2020-12-01 松下i-PRO传感解决方案株式会社 相机和机器人系统
US11813740B2 (en) 2019-05-30 2023-11-14 i-PRO Co., Ltd. Camera and robot system
JP7376318B2 (ja) 2019-10-30 2023-11-08 ファナック株式会社 アノテーション装置
US11943422B2 (en) 2020-02-27 2024-03-26 Fanuc Corporation Three-dimensional image-capturing device and image-capturing condition adjusting method
JPWO2021177236A1 (ja) * 2020-03-05 2021-09-10
WO2021177236A1 (ja) * 2020-03-05 2021-09-10 ファナック株式会社 3次元測定装置、及び3次元測定方法
JP7401648B2 (ja) 2020-03-05 2023-12-19 ファナック株式会社 3次元測定装置、及び3次元測定方法
WO2022014458A1 (ja) * 2020-07-13 2022-01-20 ファナック株式会社 検出装置及び検出方法
JP7381758B2 (ja) 2020-07-13 2023-11-15 ファナック株式会社 検出装置及び検出方法
CN113459084A (zh) * 2021-05-21 2021-10-01 广东拓斯达科技股份有限公司 一种机器人参数标定方法、装置、设备及存储介质

Also Published As

Publication number Publication date
EP2045772B1 (en) 2021-08-25
JP4309439B2 (ja) 2009-08-05
US8098928B2 (en) 2012-01-17
CN101274432A (zh) 2008-10-01
EP2045772A3 (en) 2013-11-13
EP2045772A2 (en) 2009-04-08
US20080240511A1 (en) 2008-10-02
CN101274432B (zh) 2012-07-04

Similar Documents

Publication Publication Date Title
JP4309439B2 (ja) 対象物取出装置
CN108527362B (zh) 机器人设置设备、机器人设置方法和计算机可读记录介质
JP3842233B2 (ja) 画像処理装置及びロボットシステム
JP6415026B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP2004050390A (ja) ワーク取出し装置
US9595095B2 (en) Robot system
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP7128933B2 (ja) 画像処理装置
CN110926330A (zh) 图像处理装置和图像处理方法
CN114758236A (zh) 一种非特定形状物体识别、定位与机械手抓取系统及方法
US11590657B2 (en) Image processing device, control method thereof, and program storage medium
CN114341930A (zh) 图像处理装置、拍摄装置、机器人以及机器人系统
CN116985141B (zh) 一种基于深度学习的工业机器人智能控制方法及系统
CN114092428A (zh) 图像数据处理方法、装置、电子设备和存储介质
JP5476943B2 (ja) 姿勢認識方法およびこの方法を用いた3次元視覚センサ
JP2018146347A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US20230297068A1 (en) Information processing device and information processing method
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
Fröhlig et al. Three-dimensional pose estimation of deformable linear object tips based on a low-cost, two-dimensional sensor setup and AI-based evaluation
CN116175542A (zh) 抓取控制方法、装置、电子设备和存储介质
CN114022341A (zh) 抓取点信息获取方法、装置、电子设备和存储介质
CN114037595A (zh) 图像数据处理方法、装置、电子设备和存储介质
CN114022342A (zh) 抓取点信息获取方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20080703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081225

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090507

R150 Certificate of patent or registration of utility model

Ref document number: 4309439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5