JP2004090183A - 物品の位置姿勢検出装置及び物品取出し装置 - Google Patents

物品の位置姿勢検出装置及び物品取出し装置 Download PDF

Info

Publication number
JP2004090183A
JP2004090183A JP2002256756A JP2002256756A JP2004090183A JP 2004090183 A JP2004090183 A JP 2004090183A JP 2002256756 A JP2002256756 A JP 2002256756A JP 2002256756 A JP2002256756 A JP 2002256756A JP 2004090183 A JP2004090183 A JP 2004090183A
Authority
JP
Japan
Prior art keywords
dimensional
article
image
orientation
teaching model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002256756A
Other languages
English (en)
Other versions
JP4004899B2 (ja
Inventor
Kazukuni Ban
伴 一訓
Ichiro Kanno
管野 一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2002256756A priority Critical patent/JP4004899B2/ja
Priority to US10/648,192 priority patent/US7280687B2/en
Priority to EP03255380A priority patent/EP1394743A3/en
Publication of JP2004090183A publication Critical patent/JP2004090183A/ja
Application granted granted Critical
Publication of JP4004899B2 publication Critical patent/JP4004899B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Abstract

【課題】信頼性の高い対応付けを行なうステレオ方式で物品の3次元位置姿勢を検出して、ワーク取り出し等を行なう。
【解決手段】ワークをビデオカメラ1、2で撮像し、モデル生成手段9、10で2次元教示モデルを生成し、モデル情報20を保存し、3個以上の参照点位置を参照点位置設定手段11、12で定める。対象物検出手段3、4はワーク像を検出し、モデル情報20を用いて対象物検出を行なう。同一対象物対応付け手段5は、2次元教示モデルまたは2次元画像を幾何学的に変形したもの(可変パラメータセットで表現)を用い、同一対象物の像同士の対応付けを行なう。位置姿勢算出手段8は対応付けされた各ワークの参照点の3次元位置を求め、ワークの位置姿勢を求める。ロボット制御装置30は、それに基づき、ロボット31にワークを取り出させる。
【選択図】        図1

Description

【0001】
【発明の属する技術分野】
本発明は、例えばバラ積みされた複数のワーク等の物品の3次元位置姿勢を検出する装置及び同装置とロボットとを組み合わせた物品取り出し装置に関する。
【0002】
【従来の技術】
ビデオカメラで対象物(例えばワークなどの物品;以下、同じ)を撮像し、得られた画像に基づいて対象物の3次元的な位置や姿勢を検出する1つの手法として、ビデオカメラを複数台用いた、いわゆるステレオ方式が古くから知られている。ビデオカメラは3台以上使用されることもあるが、その内の2台に着目すれば、本質的にはビデオカメラ2台によるステレオ方式の内容に帰着すると考えることができる。そこで、以下ではビデオカメラが2台のみの場合に限定して記述する。
【0003】
さて、ステレオ方式で対象物の検出を行なう場合に難しいのは、一方のビデオカメラで得られた画像中に検出された対象物の一部位の像が他方の画像中のどこに対応するのかを誤りなく定める、いわゆる「対応付け」である。対応付の例としては、例えば、特許文献1がある。同特許によれば、対象物形状をその一部に円または円弧形状の輸郭を有するものに限定し、ステレオ画像同士の局所領域が類似しているという条件と、特徴点が円弧上に分布しているという条件とを用いて対応付けを行なっている。
【0004】
【特許文献1】
特許第3235364号
【0005】
【発明が解決しようとする課題】
このように、一般にステレオ方式では画像の局所領域べ一スでステレオ画像同士の対応付けが試みられる。しかし、これは局所的な画像の比較に基づくがゆえに正確さや信頼性に問題が生じ易い。即ち、多くのケースにおいて、局所的な画像の比較からは類似領域が多数リストアップされる可能性は低くないと予想されるからである。
【0006】
また、2台のビデオカメラの配置から得られる幾何学的な制約条件(エピポーラ拘束等)を考慮し、対応付けの信頼性を向上させる手法もあるが、十分でない場合が多い。言うまでもなく、対応付けの誤りは対象物の検出位置の誤りに直結する。前出の特許第3235364号では、検出される対象物の形状を限定することで対応付けのための制約条件を増やし、信頼性を向上させている。
【0007】
しかし、この手法は、当然、検出できる対象物が限定されてしまうという欠点を持つ。
【0008】
更に、従来のステレオ方式を用いた3次元位置姿勢検出方式では、物品同士の重なりにより、ある物品の一部が他の物品の陰になっていると、その「ある物品」について対応付けができなくなるという問題があった。
【0009】
本願発明は、上記した従来技術の問題点を克服し、検出される対象物の形状に特に限定が課せられず、一般的な形状の対象物についてステレオ方式による対象物(物品)の検出を高い信頼性を持つ対応付けに基づいて行なうことのできる物品位置姿勢検出装置を提供しようとするものである。また、物品の一部が他の物品の陰になっていても、対応付けが可能とした物品位置姿勢検出装置を提供しようとするものである。更に、本発明は同物品位置姿勢検出装置を用いた物品取出し装置を提供しようとするものでもある。
【0010】
【課題を解決するための手段】
本発明では、例えばバラ積み状態にあるワークなどの物品をステレオ方式で撮像し、得られた各画像中から物品像をその物品を表現する2次元教示モデルを用いて検出し、検出された物品像について対応付けを行なった後、前記2次元教示モデル上に予め定義しておいた参照点の3次元位置を算出することにより、各物品の位置と姿勢を求める方式を採用する。
【0011】
即ち、本発明は先ず、物品を複数の異なる視点で撮像した2次元画像に基づいて前記物品の3次元位置姿勢を検出する装置に適用される。そして、同装置は、前記物品の2次元教示モデルと、該2次元教示モデル上に少なくとも3つの参照点を定義する手段と、該2次元教示モデルを使用して、前記各2次元画像中にマッチングにより前記物品の像を検出する物品像検出手段と、前記各2次元画像中に検出された物品像同士を対応付ける対応付け手段と、前記2次元教示モデル上に定義された参照点に基づいて、前記各2次元画像中に検出された物品像に対して画像上での前記各参照点位置を求める参照点位置算出手段と、前記求めた画像上での各参照点位置に基づいて、前記各参照点の3次元位置を求め、該参照点の3次元位置を用いて前記物品の3次元位置姿勢を求める手段とを備えている。
【0012】
また、本発明は、同種の物品の集合を複数の異なる視点で撮像した2次元画像に基づいて個々の物品の位置姿勢を検出する装置に適用される。そして、同装置は、前記物品の2次元教示モデルと、該2次元教示モデル上に少なくとも3つの参照点を定義する手段と、該2次元教示モデルを使用して、前記各2次元画像中にマッチングにより1つ以上の前記物品の像を検出する物品像検出手段と、前記各2次元画像中に検出された物品像について前記2次元画像間で同一物品の物品像同士を対応付ける対応付け手段と、前記2次元教示モデルに定義された参照点に基づいて、前記対応付けされた前記各物品像に対して画像上での前記各参照点位置を求める参照点位置算出手段と、前記求めた画像上での各参照点位置に基づいて、各参照点の3次元位置を求め、該参照点の3次元位置を用いて前記物品の3次元位置姿勢を求める手段とを備える。
【0013】
上記各ケースにおいて、前記物品像検出手段は、前記2次元教示モデルに対して複数の可変パラメータを含む可変パラメータセットで表現される幾何学的変形を施した可変2次元教示モデルを用意し、前記可変2次元教示モデルを使用して、前記各2次元画像中に物品像を検出する手段を含み、前記参照点位置算出手段は、前記物品像の検出に対応して定まる可変パラメータセットの値に基づいて、前記物品像上の前記参照点の位置を求める手段を含むものであって良い。
【0014】
また、上記各ケースにおいて、前記物品像検出手段は、前記2次元画像に対して複数の可変パラメータを含む可変パラメータセットで表現される幾何学的変形を施した2次元画像を用意し、前記2次元教示モデルを使用して、前記各可変2次元画像中に物品像を検出する手段を含み、前記対応付け手段及び前記参照点位置算出手段は、前記物品像の検出に対応して定まる可変パラメータセットの値に基づいて、前記幾何学的変形前の2次元画像に対して用いられるものであっても良い。
【0015】
ここで、2次元教示モデルに対する変形を採用する場合であれば、前記可変パラメータのセットは、前記2次元教示モデルのアフィン変換あるいは透視変換を表現するパラメータを含むものであって良い。また、2次元画像に対する変形を採用する場合であれば、前記可変パラメータのセットは、前記2次元画像のアフィン変換あるいは透視変換を表現するパラメータを含むものであって良い。
【0016】
更に、前記2次元教示モデル上に3つ以上の参照点を定義する代わりに、3つ以上の参照点と同義の情報を与える、該2次元教示モデルと3次元的な相対位置関係が固定された関係にある図形を定義するようにしても良い。
【0017】
以上のような位置姿勢検出装置をロボットと組み合わせることで物品取出し装置を構成することができる。同物品取出し装置によれば、前記位置姿勢検出装置によって3次元位置姿勢が検出された物品をロボットで取り出すことができる。ロボットの制御には、前記位置姿勢検出装置によって検出された3次元位置姿勢が利用できる。3次元位置姿勢が検出された物品が複数存在する場合には、適当に定めた取り出し優先ルール(例えば最上の物品を優先して取り出す)に従って、次に取り出す物品を定めることができる。
【0018】
【発明の実施の形態】
以下、図1〜図4を参照して本発明の1つの実施形態について説明する。なお、実施形態は、ワーク(物品の一例)の3次元位置姿勢を検出する位置姿勢検出装置をロボットと組み合わせたワーク取出し装置として説明される。先ず、図1は、本発明の実施形態におけるシステム構成及び動作の手順の概要を説明する図である。
【0019】
同図において、符号40はワークコンテナを表わし、同ワークコンテナ上に複数のワーク41がバラ積み状態で積載されている。ワーク41を取り出すためのワーク取出し装置の主要部は、ロボット制御装置30で制御されるロボット31と、2台のビデオカメラ1、2と画像処理装置50を含む位置姿勢検出装置(ステレオ方式の3次元視覚センサ)で構成される。なお、図1において画像処理装置50は、便宜上、同画像処理装置50の行なう処理手順の概要を表わすブロック図部分を囲む形で示されている。
【0020】
ロボット31は、ワークコンテナ上のワーク41を順次把持して取り出すのに適した位置に設置され、ビデオカメラ1、2は、ワークコンテナ40上のワーク41をほぼ真上の周辺から視野に収めて撮影できる位置に設置されている。ロボット制御装置30と画像処理装置50の間は通信回線32で結ばれており、ロボット制御装置30は、ビデオカメラ1、2で撮影され画像処理装置50で処理されて求められたワーク41の3次元位置姿勢を利用して、ワーク41をハンドリング(アプローチ、把持、取出しの動作)する。ワーク41の3次元位置姿勢の求め方については後述する。
【0021】
ここで、通常は3次元位置姿勢が求められるワークは複数あるので、適当な優先ルールに従って次に取り出すワークを決定する。優先ルールは、その時点で最も取り出し易い、あるいはそれに準じた状態にあると推定されるワークを優先的に指定するように定めれば良い。例えば、3次元位置姿勢が求められた複数のワークの内、最上(Z座標が最大)にあるワークを次に取り出すワークとすれば良い。その他、物品の姿勢も考慮する優先ルールなど種々考えられるので、そのアプリケーションに適したルールを採用すれば良い。この優先ルールについて、本発明では特に制限はない。いずれにしろ、3次元位置姿勢が正しく判っているワークのハンドリングであるから容易である。
【0022】
以下、ビデオカメラ1、2と画像処理装置50を用いたステレオ方式の画像処理によってワーク41の3次元位置姿勢の求め方について説明する。
先ず準備として、検出対象とされるワーク41についてモデル生成および参照点位置設定を次のように行なう。
【0023】
1個のワーク41あるいは同ワークを模した治具を基準位置に置き、ビデオカメラ1、2で撮像する。得られた各画像は画像処理装置50のモデル生成手段9、10(ブロックで描示)に送られ、ここでワークの2次元教示モデルが生成され、モデル情報20として画像処理装置50内のメモリ(図示省略)に保存される。また、生成された2次元教示モデルについて、少なくとも3個の参照点の位置が、参照点位置設定手段11、12によって定められる。定められた参照点位置は参照点位置情報21として保存される。なお、2次元教示モデル上のどの点を参照点とするかの指定は、例えば画像処理装置50に装備されたモニタディスプレイ上に2次元教示モデルを表示させ、マウス等のポインタで参照点を指定する方式で実行すれば良い。
【0024】
ここで、ここまでの処理手順について、図2(a)、(b)を参照して、具体例に即して簡単に再説しておく。図2(a)は、ワーク(2次元画像)の一例を示し、図2(b)は同ワークのためのモデル情報20として保存される2次元教示モデルの一例を示している。本実施形態における2次元教示モデルは、左上を原点、下方向をX軸、右方向をY軸とする画像座標系上に定義される。モデルの具体的な形式はモデル検出の手法によって様々なものがありうるが、例えばモデル検出が画像同士の正規化相関処理である場合には、(b)は例えば濃淡画像情報である。
【0025】
次に、図(c)は2次元教示モデル上に定義された参照点61〜63の一例を示す。一般には、1つのモデル上に定義される参照点の数は3以上の適当な数とされる。前述したように、これら参照点61〜63の位置は、例えば画像処理装置50に装備されたモニタディスプレイ上で指定される。
【0026】
続いて、ステレオ画像処理について説明する。ビデオカメラ1、2で撮像された各画像は、対象物検出手段3、4に送られ、ここで2つの画像中からそれぞれワークの像が検出される。検出処理にいおては、モデル情報20が使用され、例えば前述の正規化相関処理等が行なわれる。対象物検出処理自体については、様々な既存技術が適用可能であるから、ここでは詳細については言及しない。
【0027】
対象物検出手段3、4で検出されたワークの画像上での位置に関する情報は、同一対象物応付け手段5に送られ、各画像中で検出された複数のワーク(ワーク像)の中から同一対象物同士(同一対象物の像同士)の対応付けが行なわれる。
【0028】
以下では、図3を参照図に加えて、前述の対象物検出および同一対象物対応付けについてやや詳しく説明する。図3(a)は、ワークコンテナ40上の水平なワークと水平な状態から傾斜しているワークをビデオカメラ1または2で撮像した画像42、43を示している。これらの画像は、実際にワークコンテナ40上にあるワークの状態を代表している。但し、ワークの傾斜の仕方は多様にあり、また、画像にはビデオカメラの撮像方向等に応じて変形が生じ得る。
【0029】
そこで、ワーク検出にあたって、図2(b)に示した2次元教示モデルに可変的に幾何学的変形を施したもの(以下、可変的変形モデルという)、あるいは、図2(a)に示した2次元画像自身に可変的に幾何学的変形を施したもの(以下、可変的変形画像という)を用意する。
【0030】
ここで、可変的な変形には、可変パラメータのセットで記述できるものを採用する。本実施形態における可変パラメータのセットは、図2(b)中に記した(Sx,Sy,δ,θ,X’,Y’)である。Sx、Sy、δ、θの定義は下記の通りである。なお、2次元画像自身に可変的に幾何学的変形を施したものを採用する場合には、図2(a)に示した2次元画像自身について同様に、変形を可変パラメータのセット(Sx,Sy,δ,θ,X’,Y’)で表わす。
【0031】
Sx:X軸方向のスケール
Sy:Y軸方向のスケール
δ:90度を基準(δ=0)としたX軸−Y軸間の広がり角
θ:回転角
(X’,Y’):ワーク原点の座標
なお、θ及び(X’,Y’)については、可変的変形モデル(あるいは可変的変形画像)の2次元平面(画像座標系O−XY)上での姿勢及び位置に相当し、元の2次元教示モデル(図2(b)参照)、あるいは、元の2次元画像(図2(a)参照)に対しては、回転と並進移動を表わしているが、ここではこれらも2次元教示モデルあるいは可変的変形画像に対する「幾何学的変形」の範疇に属するものとみなし、便宜上「可変パラメータのセット」に含ませることにする。
【0032】
このようにして用意された可変的変形モデルあるいは可変的変形画像を用い、ビデオカメラ1で得られた画像とビデオカメラ2で得られた画像について正規化相関処理等の検出処理を行う。
【0033】
このような処理により、各ワークの検出を達成することができる。例えば図3(b)のような変形モデルによって図3(a)の中の左側のワーク43が検出され、検出緒果として前述のパラメータセットの各パラメータの値(Sx,Sy,δ,θ,X’,Y’)が得られる。
【0034】
同一対象物応付け手段5(図1参照)では、これらのパラメータのうちSx,Sy,δ,θに着目し、対象物検出手段3および4での対象物検出結果の間でこれら4つの値がある程度近いもの同士が同一対象物画像ペアの候補として選出される。さらにビデオカメラ1、2の視線の位置関係によるエピポーラ拘束等の幾何学的制約条件22(図1参照)も制約条件として考慮され、同一物品の侯補が絞り込まれる。
【0035】
もしこの段階で、あるワークについて対となる侯補が複数残っている場合には、同一物品侯補の近傍領域をステレオ画像間で相関処理した結果を評価することで、最も確からしい同一物品画像ペアの侯補に絞り込むことができる。
【0036】
このようにして対応付けがなされたならば、参照点位置算出手段6、7では同一対象物応付け手段5で対応付けされた物品の画像上での参照点の位置が計算により求められる。算出式は例えば次のようになる。ここで、各符号は図3(b)に示したものが対応している。
x’=X’+x・Sx ・cos θ+y・Sy ・cos (θ+90゜+δ)
y’=Y’+x・Sx ・sin θ+y・Sy ・sin (θ+90゜+δ)
なお、ここで説明したパラメータセットは例示であり、2次元教示モデルあるいは2次元2画像に対する透視変換あるいはアフィン変換をを表現するパラメータセットを用いて、対応付けに用いても良い。
【0037】
以上のようにして画像上での参照点の位置が求められれば、カメラ1、2から特定のワークの参照点へ向かう視線が求められ、実際のワーク上での参照点61〜63に相当する箇所の3次元位置が算出される。この計算は位置姿勢算出手段8で行なわれる。具体的な3次元位置計算処理はステレオ方式に関する既存技術が適用できるので、ここでは詳細に言及しない。
【0038】
位置姿勢算出手段8では、各1つのワークについて、予め定義した3つ以上の参照点についての3次元位置が算出される。例えば参照点が3つ(モデル上では61〜63)の場合は、図4に示すように3つの参照点71、72、73(それぞれ61、62、63に対応)の3次元位置が算出され、これらによって定まる三角形の3次元位置姿勢によって例えば符号74で示したような座標系が求められ、これによって一意的にワーク70の位置姿勢を表現することができる。
【0039】
更に、3つ以上の参照点を求めなくとも、例えば対象物上に図5に示したように仮想的に三角形ABCを定義し、この対象物についての2次元教示モデルにおいて、3つの参照点に代えて、対応する三角形を定義して対応付けを行なっても良い。なぜならば、この三角形から3つの参照点と同義の情報を一意的に導出することが可能だからである。なお、この場合、図1における参照点位置設定手段11、12は、三角形位置設定手段11、12とされ、3つの参照点位置に代えて、三角形の位置を特定する他の情報(例えば3辺を表わす直線の方程式のデータ)が定められる。
【0040】
さて、前述したように、上記説明した態様で求められたワーク41の3次元位置姿勢のデータ(X、Y、Z、W、P、R)は、ロボット制御装置30に伝えられ、ロボット31が動作してワークの取り出しが行なわれる。3次元位置姿勢の判ったワークのハンドリングの仕方については、既存の技術が周知なので、詳しい説明は省略する。
【0041】
【発明の効果】
本発明においては、ステレオ方式の画像処理により、部分特徴べ一スではなく対象物品単位べ一スの対応付けが行なわれ、さらに各対象ワークの検出結果を対応付けのための制約条件として利用するので、対応付けの信頼性が向上する。また、参照点を利用することにより、幾何学的特徴が少ない単純な物品を扱う場合や、幾何学的特徴が一部他の物品の陰になって見えなくなっているような状況であっても、3点以上の参照点が計算上求められれば位置姿勢を求める処理が行なえるので、適用範囲の広い、安定した物品位置姿勢検出とそれに基づく取り出しを行なうことができる。
【0042】
更に、本発明においては、「ある物品」について参照点を含めて幾何学的特徴が他の物品の陰になっていても、その(またはそれらの)参照点をパラメータセットの値を用いて計算上求められれば、その「ある物品」の3次元位置姿勢が算出可能である。
【図面の簡単な説明】
【図1】本発明の実施形態におけるシステム構成及び動作の手順の概要を説明する図である。
【図2】(a)はワーク(2次元画像)の一例を示し、(b)は同ワークのためのモデル情報20として保存される2次元教示モデルの一例を示している。
【図3】(a)は、ワークコンテナ上の水平なワークと水平な状態から傾斜しているワークをいずれかのビデオカメラで撮像した画像を示し、(b)は2次元教示モデルに可変的に幾何学的変形を施して用意される可変変形モデルの例を示している。
【図4】ワーク上の3つの参照点とそれに基づいて定められる座標系について説明する図である。
【図5】三角形を定義して対応付けを行う例について説明する図である。
【符号の説明】
1、2 ビデオカメラ
3、4 対象物検出手段
5 同一対象物対応付け手段
6、7 参照位置算出手段
8 位置姿勢算出手段
9、10 モデル生成手段
11、12 参照点位置設定手段
21 参照点位置情報
22 エピポーラ拘束等幾何学的制約条件
30 ロボット制御装置
31 ロボット
32 通信回線
40 ワークコンテナ
41、70 ワーク
42、43 ワーク画像

Claims (10)

  1. 物品を複数の異なる視点で撮像した2次元画像に基づいて前記物品の3次元位置姿勢を検出する装置であって、
    前記物品の2次元教示モデルと、
    該2次元教示モデル上に少なくとも3つの参照点を定義する手段と、
    該2次元教示モデルを使用して、前記各2次元画像中にマッチングにより前記物品の像を検出する物品像検出手段と、
    前記各2次元画像中に検出された物品像同士を対応付ける対応付け手段と、
    前記2次元教示モデル上に定義された参照点に基づいて、前記各2次元画像中に検出された物品像に対して画像上での前記各参照点位置を求める参照点位置算出手段と、
    前記求めた画像上での各参照点位置に基づいて、前記各参照点の3次元位置を求め、該参照点の3次元位置を用いて前記物品の3次元位置姿勢を求める手段と、を備えることを特徴とする物品の位置姿勢検出装置。
  2. 同種の物品の集合を複数の異なる視点で撮像した2次元画像に基づいて個々の物品の位置姿勢を検出する装置であって、
    前記物品の2次元教示モデルと、
    該2次元教示モデル上に少なくとも3つの参照点を定義する手段と、
    該2次元教示モデルを使用して、前記各2次元画像中にマッチングにより1つ以上の前記物品の像を検出する物品像検出手段と、
    前記各2次元画像中に検出された物品像について前記2次元画像間で同一物品の物品像同士を対応付ける対応付け手段と、
    前記2次元教示モデルに定義された参照点に基づいて、前記対応付けされた前記各物品像に対して画像上での前記各参照点位置を求める参照点位置算出手段と、前記求めた画像上での各参照点位置に基づいて、各参照点の3次元位置を求め、該参照点の3次元位置を用いて前記物品の3次元位置姿勢を求める手段と、を備えることを特徴とする物品の位置姿勢検出装置。
  3. 前記物品像検出手段は、前記2次元教示モデルに対して複数の可変パラメータを含む可変パラメータセットで表現される幾何学的変形を施した可変2次元教示モデルを用意し、前記可変2次元教示モデルを使用して、前記各2次元画像中に物品像を検出する手段を含み、
    前記参照点位置算出手段は、前記物品像の検出に対応して定まる可変パラメータセットの値に基づいて、前記物品像上の前記参照点の位置を求める手段を含む、請求項1又は請求項2に記載の物品の位置姿勢検出装置。
  4. 前記物品像検出手段は、前記2次元画像に対して複数の可変パラメータを含む可変パラメータセットで表現される幾何学的変形を施した可変2次元画像を用意し、前記2次元教示モデルを使用して、前記各可変2次元画像中に物品像を検出する手段を含み、
    前記対応付け手段及び前記参照点位置算出手段は、前記物品像の検出に対応して定まる可変パラメータセットの値に基づいて、前記幾何学的変形前の2次元画像に対して用いられることを特徴とする請求項1又は請求項2に記載の物品の位置姿勢検出装置。
  5. 前記可変パラメータのセットは、前記2次元教示モデルのアフィン変換を表現するパラメータを含むものである、請求項3に記載の物品の位置姿勢検出装置。
  6. 前記可変パラメータのセットは、前記2次元教示モデルの透視変換を表現するパラメータを含むものである、請求項3に記載の物品の位置姿勢検出装置。
  7. 前記可変パラメータのセットは、前記2次元画像のアフィン変換を表現するパラメータを含むものである、請求項4に記載の物品の位置姿勢検出装置。
  8. 前記可変パラメータのセットは、前記2次元画像の透視変換を表現するパラメータを含むものである、請求項4に記載の物品の位置姿勢検出装置。
  9. 前記2次元教示モデル上に3つ以上の参照点を定義する代わりに、3つ以上の参照点と同義の情報を与える、該2次元教示モデルと3次元的な相対位置関係が固定された関係にある図形を定義することを特徴とする請求項1乃至請求項8の内、何れか1項に記載の物品の位置姿勢検出装置。
  10. 請求項1乃至請求項9のいずれか1項に記載された位置姿勢検出装置とロボットとを組み合わせ、前記位置姿勢検出装置によって3次元位置姿勢が検出された物品をロボットによって取り出すことを特徴とする、物品取り出し装置。
JP2002256756A 2002-09-02 2002-09-02 物品の位置姿勢検出装置及び物品取出し装置 Expired - Fee Related JP4004899B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002256756A JP4004899B2 (ja) 2002-09-02 2002-09-02 物品の位置姿勢検出装置及び物品取出し装置
US10/648,192 US7280687B2 (en) 2002-09-02 2003-08-27 Device for detecting position/orientation of object
EP03255380A EP1394743A3 (en) 2002-09-02 2003-08-29 Device for detecting position/orientation of object from stereo images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002256756A JP4004899B2 (ja) 2002-09-02 2002-09-02 物品の位置姿勢検出装置及び物品取出し装置

Publications (2)

Publication Number Publication Date
JP2004090183A true JP2004090183A (ja) 2004-03-25
JP4004899B2 JP4004899B2 (ja) 2007-11-07

Family

ID=31492701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002256756A Expired - Fee Related JP4004899B2 (ja) 2002-09-02 2002-09-02 物品の位置姿勢検出装置及び物品取出し装置

Country Status (3)

Country Link
US (1) US7280687B2 (ja)
EP (1) EP1394743A3 (ja)
JP (1) JP4004899B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012192473A (ja) * 2011-03-15 2012-10-11 Seibu Electric & Mach Co Ltd 立体視ロボットピッキング装置
JP2014161937A (ja) * 2013-02-22 2014-09-08 Seiko Epson Corp 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム
DE102015115943A1 (de) 2014-09-29 2016-03-31 Fanuc Corporation Erkennungsverfahren und Erkennungsvorrichtung zum Erkennen der dreidimensionalen Position eines Objekts
JP2017007026A (ja) * 2015-06-22 2017-01-12 日産自動車株式会社 位置補正システム
DE102017122010A1 (de) 2016-09-30 2018-04-05 Fanuc Corporation Erkennungsverfahren und Erkennungseinrichtung zur Erkennung einer dreidimensionalen Position eines Objekts

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US7857021B2 (en) * 2004-09-09 2010-12-28 Usnr/Kockums Cancar Company System for positioning a workpiece
US7849894B2 (en) * 2005-03-17 2010-12-14 U.S. Natural Resources, Inc. Log rotation and verification system and method
WO2007149183A2 (en) * 2006-05-25 2007-12-27 Braintech Canada, Inc. System and method of robotically engaging an object
WO2008036354A1 (en) * 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
US20080181485A1 (en) * 2006-12-15 2008-07-31 Beis Jeffrey S System and method of identifying objects
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US8238612B2 (en) * 2008-05-06 2012-08-07 Honeywell International Inc. Method and apparatus for vision based motion determination
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP4852591B2 (ja) * 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
IT1394181B1 (it) * 2009-05-07 2012-06-01 Marchesini Group Spa Metodo di segmentazione basato sulle caratteristiche per segmentare una pluralita' di articoli duplicati disposti alla rinfusa e gruppo che attua tale metodo per alimentare una macchina confezionatrice
JP5402697B2 (ja) * 2009-10-26 2014-01-29 株式会社安川電機 ロボット装置及びワーク取り出しシステム並びにワーク取り出し方法
GB201008281D0 (en) 2010-05-19 2010-06-30 Nikonovas Arkadijus Indirect analysis and manipulation of objects
US9053522B2 (en) * 2010-05-26 2015-06-09 Nec Corporation Image processing device, image processing method, and image processing program
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
DE102011002625A1 (de) * 2011-01-13 2012-07-19 Dr. Johannes Heidenhain Gmbh Vorrichtung und Verfahren zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine
JP5849403B2 (ja) * 2011-02-15 2016-01-27 セイコーエプソン株式会社 ロボットコントローラー、ロボット、及び、ロボットシステム
US9039706B2 (en) 2013-03-13 2015-05-26 DePuy Synthes Products, Inc. External bone fixation device
EP3281592B1 (en) 2013-03-13 2021-04-21 DePuy Synthes Products, Inc. External bone fixation device
US8864763B2 (en) 2013-03-13 2014-10-21 DePuy Synthes Products, LLC External bone fixation device
CN105103089B (zh) * 2013-06-28 2021-11-09 谷歌有限责任公司 用于基于视频输入生成准确传感器校正的系统和方法
JP6427332B2 (ja) * 2014-04-08 2018-11-21 株式会社ミツトヨ 画像測定機
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
US9981380B2 (en) * 2014-07-01 2018-05-29 Seiko Epson Corporation Teaching apparatus and robot system
US10835318B2 (en) 2016-08-25 2020-11-17 DePuy Synthes Products, Inc. Orthopedic fixation control and manipulation
WO2019008734A1 (ja) * 2017-07-07 2019-01-10 日本電気株式会社 物体識別装置、物体識別方法、計算装置、システムおよび記録媒体
DE102019106458A1 (de) * 2019-03-13 2020-09-17 ese-robotics GmbH Verfahren zur Ansteuerung eines Industrieroboters
US11439436B2 (en) 2019-03-18 2022-09-13 Synthes Gmbh Orthopedic fixation strut swapping
US11304757B2 (en) 2019-03-28 2022-04-19 Synthes Gmbh Orthopedic fixation control and visualization
US11334997B2 (en) 2020-04-03 2022-05-17 Synthes Gmbh Hinge detection for orthopedic fixation

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6247512A (ja) 1985-08-27 1987-03-02 Mitsubishi Electric Corp 三次元位置認識装置
JPH0847881A (ja) 1994-08-05 1996-02-20 Ishikawajima Harima Heavy Ind Co Ltd ロボットの遠隔操作方法
JP3235364B2 (ja) 1994-10-04 2001-12-04 株式会社明電舎 部品の姿勢検出装置
JP3738456B2 (ja) 1994-11-14 2006-01-25 マツダ株式会社 物品の位置検出方法およびその装置
IL113496A (en) * 1995-04-25 1999-09-22 Cognitens Ltd Apparatus and method for recreating and manipulating a 3d object based on a 2d projection thereof
WO1999015945A2 (en) * 1997-09-23 1999-04-01 Enroute, Inc. Generating three-dimensional models of objects defined by two-dimensional image data
JP4794708B2 (ja) 1999-02-04 2011-10-19 オリンパス株式会社 3次元位置姿勢センシング装置
DE10080012B4 (de) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
US7397970B2 (en) * 2004-12-07 2008-07-08 Lockheed Martin Corporation Automatic scene correlation and identification

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012192473A (ja) * 2011-03-15 2012-10-11 Seibu Electric & Mach Co Ltd 立体視ロボットピッキング装置
JP2014161937A (ja) * 2013-02-22 2014-09-08 Seiko Epson Corp 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム
DE102015115943A1 (de) 2014-09-29 2016-03-31 Fanuc Corporation Erkennungsverfahren und Erkennungsvorrichtung zum Erkennen der dreidimensionalen Position eines Objekts
JP2017007026A (ja) * 2015-06-22 2017-01-12 日産自動車株式会社 位置補正システム
DE102017122010A1 (de) 2016-09-30 2018-04-05 Fanuc Corporation Erkennungsverfahren und Erkennungseinrichtung zur Erkennung einer dreidimensionalen Position eines Objekts

Also Published As

Publication number Publication date
US20040041808A1 (en) 2004-03-04
JP4004899B2 (ja) 2007-11-07
US7280687B2 (en) 2007-10-09
EP1394743A2 (en) 2004-03-03
EP1394743A3 (en) 2007-12-26

Similar Documents

Publication Publication Date Title
JP2004090183A (ja) 物品の位置姿勢検出装置及び物品取出し装置
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP6687591B2 (ja) 物品搬送装置、ロボットシステムおよび物品搬送方法
JP3768174B2 (ja) ワーク取出し装置
US7966094B2 (en) Workpiece picking apparatus
JP3842233B2 (ja) 画像処理装置及びロボットシステム
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6703812B2 (ja) 3次元物体検査装置
JP2013036988A (ja) 情報処理装置及び情報処理方法
US11625842B2 (en) Image processing apparatus and image processing method
JP2010071743A (ja) 物体検出方法と物体検出装置およびロボットシステム
JP2009216503A (ja) 三次元位置姿勢計測方法および装置
JP5476943B2 (ja) 姿勢認識方法およびこの方法を用いた3次元視覚センサ
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
JP2018146347A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2010032258A (ja) デパレタイズ用のワーク位置認識装置および方法
CN116175542A (zh) 抓取控制方法、装置、电子设备和存储介质
JP7436170B2 (ja) ロボットシステム
JPH10118975A (ja) ハンドリング位置認識方法および認識装置
JP5332873B2 (ja) 袋状ワーク認識装置および方法
WO2023188407A1 (ja) ロボットシステム
JP2013158845A (ja) ロボット装置、画像生成装置、画像生成方法、および画像生成プログラム
US20230264352A1 (en) Robot device for detecting interference of constituent member of robot
JP2017220036A (ja) ワーク検知システム及び衣服検知システム
JP2000348186A (ja) 物体追跡装置及び方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051202

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20051207

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130831

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees