JP6506483B1 - テクスチャなし物体の姿勢を推定するシステム及び方法 - Google Patents
テクスチャなし物体の姿勢を推定するシステム及び方法 Download PDFInfo
- Publication number
- JP6506483B1 JP6506483B1 JP2018544794A JP2018544794A JP6506483B1 JP 6506483 B1 JP6506483 B1 JP 6506483B1 JP 2018544794 A JP2018544794 A JP 2018544794A JP 2018544794 A JP2018544794 A JP 2018544794A JP 6506483 B1 JP6506483 B1 JP 6506483B1
- Authority
- JP
- Japan
- Prior art keywords
- patches
- textureless
- single image
- textureless object
- imaging devices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012545 processing Methods 0.000 claims abstract description 61
- 238000009877 rendering Methods 0.000 claims abstract description 59
- 238000005286 illumination Methods 0.000 claims abstract description 27
- 238000003384 imaging method Methods 0.000 claims description 105
- 238000003860 storage Methods 0.000 claims description 25
- 230000033001 locomotion Effects 0.000 claims description 24
- 230000003287 optical effect Effects 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 description 22
- 238000012360 testing method Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 235000000832 Ayote Nutrition 0.000 description 3
- 241000219122 Cucurbita Species 0.000 description 3
- 235000009854 Cucurbita moschata Nutrition 0.000 description 3
- 235000009804 Cucurbita pepo subsp pepo Nutrition 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 235000015136 pumpkin Nutrition 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000010419 fine particle Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005360 mashing Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/005—Tree description, e.g. octree, quadtree
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本出願は、2016年2月26日付けで出願されると共に「SYSTEMS AND METHODS FOR ESTIMATING POSE OF TEXTURELESS OBJECTS」という名称を有する米国特許出願第15/054,773号の利益を主張するものであり、この特許文献のすべては、引用により、本明細書に包含される。
及び複数のスケール
を表す複数の画像をキャプチャすることができる。NΩは、視点の数を表しており、且つ、Nsは、スケールの数を表している。
の下においてパッチti及びpjをti’及びpj’に変換することにより、テンプレートベクトルと画像パッチベクトルの間の安定した類似性尺度を取得する、即ち、ti’=f(ti)及びpj’=f(pj)を演算する、というものである。この関数の下においては、2つのベクトル(テンプレートベクトル及び画像ベクトル)の類似性を計測するための安定した方法として、相互相関が使用されている。方法は、変換関数f(・)が、ガウシアン・ラプラシアン画像パッチの平均分散正規化を実行している場合には、即ち、以下のとおりである場合には、一般に、異なる照明、異なるモデル外観、テクスチャ、及びわずかな変形変化に対して安定しうる。
)。
が、λにより、上方において制限されている、即ち、このピクセルにおけるすべてのテンプレートスコアがλ未満であるとしよう。この観察は、Q内のj番目の列に対応する見込みのない画像パッチの除去を許容する。
である場合に、w’及びh’は、それぞれ、テンプレートの幅及び高さである。テンプレートは、具体的には、行順序ピクセルを順番に列ベクトルTi∈RN内に配置するように、ベクトル化され、Nは、1つのテンプレート内のピクセル数である。同様に、j∈{1,2,…,m}であり、且つ、mがI内の画像パッチの数を表している状態において、画像パッチPjが、画像I∈Rm内の場所jにおけるテンプレートの同一サイズを有するとしよう。パッチは、ベクトルpj∈Rmにベクトル化される。2つのベクトルti及びpjの間の相互相関は、i番目のテンプレートTiとj番目の画像パッチPjの間の類似性を表している。
によって表される。それぞれのレンダリングRごとに、ステップ630において、Log画像の組R={R1,R2,…,RL}を得るべく、Rを減少する標準偏差σ1,σ2,…,σLのガウシアン・ノラプラシアン(Log)と畳込むことにより、マルチレベル表現が生成され、ここで、Lは、マルチレベル表現内のレベルの数である。トップレベル(即ち、R1)において、LoGは、画像内の様々な一貫性を有する領域を表す粗ブロブを含み、且つ、弁別性を提供している。ボトムレベルにおいては(即ち、RLにおいては)、LoGは、コーナー及びテクスチャの微細スケールの詳細を表し、且つ、精度を提供しているが、弁別性は、提供していない。例えば、図8Aに示されているように、RLは、いくつかの正確なエッジ特徴を含んでいる。
が、レベルlにおけるLogRlレンダリング内の場所
から抽出される。ここで、l∈1,2,…,Nlであり、且つ、
である。場所yilは、マルチレベルのガウシアン・ラプラシアン表現に対してスケール不変特徴変換(SIFT:Scale Invariant Feature Transform)の基礎をなす関心点抽出アルゴリズムを実行することにより、抽出される。ステップ715において、更なるレベルが存在しているかどうかについての判定が実施され、且つ、存在している場合には、プロセスは、ステップ705に戻る。
という仮定を評価しなければならない。可能なパッチ場所の空間を素直にサーチするべく、図8Bに示されているように、それぞれのハイレベルパッチをいくつかのローレベルパッチにリンクすることにより、マルチレベルツリーが構築される。ベイズの定理と条件付き独立性の規則を使用することにより、結合確率p(x11,x21,x22,x31,x32,x33,x34|I)は、相対的にハイレベルのパッチが付与された場合の相対的にローレベルのパッチの場所の条件付き確率の積として表現され、即ち、次式のとおりである。
が1に等しくなることを強制する証拠を表している。さもなければ、小さな値による除算が導入され、且つ、p(x21|x11,I)における偽応答がもたらされることから、Zを1に設定することにより、数値的に安定した結果が得られる。
が、LoGR3から親y21の場所において抽出される。R3(y21)は、図9のマップ925内において示されている。R3(y31,y21)が、それぞれの子パッチy31の場所におけるR3(y21)から抽出されたサイズ
のパッチを表しているとしよう。又、R3(y31)が、場所y31におけるR3から抽出された子パッチを表しているとしよう。a及びbが、それぞれ、ベクトル化されたR3(y31,y21)及びR3(y31)を表している場合には、p(x31|x21)は、式(23)と同様に、即ち、次式として、記述することができる。
である。式(23)におけると同様に、式(26)内の絶対値における項は、R3(y31)とパッチR3(y31、y21)の間の正規化済みの相互相関を表している。式(26)は、画像に依存していないことから、p(x31|x21)は、試験フェーズの前に、構築及び保存される。実際には、意図的過小評価
は、画像全体における尤度p(I3|x32)のマップをフーリエドメイン内の外観における事前確率p(x32|x21)のマップと畳込むことにより、実行される。
は、固有パラメータ行列の最初の2つの行の行列を表しており、且つ、K3は、固有パラメータ行列の第3行に対応する行ベクトルである。いくつかの実施形態においては、スムーズネス重みλが0.1に設定されてもよく、且つ、シュリンケージパラメータγが0.005に設定されてもよい。
例1:試験
複数のテクスチャなし物体を撮像センサによって撮像されるエリア内に配置した。テクスチャなし物体は、木製の橋、カップ、マグ、木製の自動車、おもちゃのカボチャ、ティーポット、コーヒークリーマのカン、及びぬいぐるみの鳥を含む。撮像センサは、様々な視点からそれぞれの物体のサイズ640×480の画像をキャプチャするRGBカメラであった。次いで、画像は、320×240にダウンサンプリングされた。Autodesk 123D Catch(Autodesk Inc. San Rafael, CA)を使用することにより、第2撮像装置を使用してそれぞれの物体の分解能3648×2048の30〜50枚の写真をキャプチャすることにより、マグを除いた、すべての物体の3Dモデルを構築した。橋、自動車、カボチャ、及び鳥という物体は、Autodesk 123D Catch内の高分解能写真内において対応性を見出すべく十分な微細な粒子のテクスチャを有していた。カップ及びティーポットなどの滑らかな物体の場合には、物体上の粘性テープ上にマーカーを適用したが、テープは、3Dモデルを構築した後に除去した。マグの場合には、オンラインモデルリポジトリから取得された3Dモデルを使用した。
様々な数のレベルにおけるアライメントの精度を評価するべく、10°だけ離隔した方位角における36個のサンプルと、20°だけ離隔した仰角における3つのサンプルと、20°だけ離隔した面内回転における3つのサンプルと、スケールにおける1つのサンプルと、を使用してレンダリングされた、ぬいぐるみの鳥のモデルの324個のテンプレート画像の組を選択した。テンプレート画像と同一の平行運動及びスケール、仰角、及び面内回転における同一のサンプルを使用することにより、且つ、1°だけ離隔した方位角における360個のサンプルを使用することにより、ぬいぐるみの鳥の3Dモデルの3240枚のグラウンドトゥルース画像をレンダリングした。照明に対する不変性を試験するべく、異なる照明環境を使用することにより、テンプレート画像をレンダリングするべく使用されたものからグラウンドトゥルール画像をレンダリングした。それぞれのグラウンドトゥルースレンダリングされた画像を324個のテンプレートの組からの最も近接した2つのテンプレートに対して割り当てると共に、様々な数のレベル(即ち、様々なL)を伴って、本明細書において記述されているマルチレベルアライメントアプローチを適用することにより、2つのテンプレートから最良のマッチを取得した。Lのそれぞれの選択肢ごとに、推定された回転及び平行運動において、グラウンドトゥルース回転及び平行運動から、誤差を取得した。最良のマッチングテンプレートからの方位角の角度におけるそれぞれの偏差に従って、グラウンドトゥルースレンダリングを分類し、且つ、それぞれの偏差の値における平均二乗誤差を取得した。
本明細書に開示される発明は以下の実施形態を含む。
(1)テクスチャなし物体の姿勢を出力するシステムであって、
処理装置と、
一時的ではない、プロセッサ可読のストレージ媒体であって、1つ又は複数のプログラミング命令を有するストレージ媒体と、
を有し、
前記1つ又は複数のプログラミング命令は、実行された際に、前記処理装置が、
前記テクスチャなし物体の単一の画像を取得し、この場合に、前記テクスチャなし物体の前記姿勢は、前記単一の画像から推定され、
前記テクスチャなし物体の画像データから取得された複数の視点及び複数のスケールから前記テクスチャなし物体の3次元モデルを生成し、
前記3次元モデルの複数の離散化レンダリングのそれぞれから複数のパッチを抽出し、この場合に、前記複数のパッチは、複数のハイレベルパッチと、複数のローレベルパッチと、を有し、
マルチレベル照明不変ツリー構造を構築するべく、前記複数のハイレベルパッチのそれぞれのものを前記複数のローレベルパッチの少なくとも1つに対してリンクし、
前記離散化レンダリングとの間における前記単一の画像のアライメントを得るべく、前記マルチレベル照明不変ツリー構造を介して、前記単一の画像を前記3次元モデルの離散化レンダリングとマッチングさせ、且つ、
前記アライメントに基づいて、前記テクスチャなし物体の前記姿勢を出力する、
ようにする、システム。
(2)前記テクスチャなし物体の前記推定された姿勢に基づいて前記テクスチャなし物体を把持するロボット装置を更に有する、上記(1)に記載のシステム。
(3)前記処理装置に通信自在に結合された1つ又は複数の撮像装置を更に有し、実行された際に、前記処理装置が、前記単一の画像を取得するようにする、前記1つ又は複数のプログラミング命令は、前記処理装置が、前記1つ又は複数の撮像装置から前記単一の画像を取得するようにする、上記(1)に記載のシステム。
(4)前記1つ又は複数の撮像装置は、複数の撮像装置を有し、前記複数の撮像装置のそれぞれは、光軸を有し、且つ、前記複数の撮像装置の個々の撮像装置は、それぞれの個々の光軸が、前記テクスチャなし物体を支持するピッキング表面との関係において異なる角度を有するように、方向付けされている、上記(3)に記載のシステム。
(5)前記1つ又は複数の撮像装置は、光軸を有する単一の撮像装置を有し、前記単一の撮像装置は、前記光軸が、前記テクスチャなし物体を支持するピッキング表面との関係において複数の異なる角度に対して連続的に再方向付けされるように、中心軸を中心として回転する、上記(3)に記載のシステム。
(6)実行された際に、前記処理装置が、前記3次元モデルを生成するようにする、前記1つ又は複数のプログラミング命令は、前記処理装置が、
複数のテンプレートを取得するべく、前記テクスチャなし物体の周りにおいて、複数の視点のそれぞれ及び前記複数のスケールのそれぞれから複数の画像を取得し、且つ、
複数のパッチによって前記複数のテンプレートをベクトル化する、
ようにする、上記(1)に記載のシステム。
(7)前記マルチレベル照明不変ツリー構造は、次式によって表され、
(8)前記子x 21 の親x 11 が付与された場合の子x 21 の条件付き確率は、次式によって表され、
(9)実行された際に、前記処理装置が、前記単一の画像を前記離散化レンダリングとマッチングさせるようにする、前記1つ又は複数のプログラミング命令は、前記処理装置が、前記3次元モデルの回転及び平行運動をランダムサンプルコンセンサスを介して前記単一の画像にアライメントするようにする、上記(1)に記載のシステム。
(10)テクスチャなし物体の姿勢を出力する方法であって、
処理装置により、前記テクスチャなし物体の単一の画像を取得するステップであって、前記単一の画像は、前記テクスチャなし物体の前記姿勢を通知する、ステップと、
前記処理装置により、前記テクスチャなし物体の画像データから取得された複数の視点及び複数のスケールから前記テクスチャなし物体の3次元モデルを生成するステップと、
離散化レンダリングとの間における前記単一の画像のアライメントを得るべく、前記処理装置により、マルチレベル照明不変ツリー構造を介して、前記単一の画像を前記3次元モデルの離散化レンダリングとマッチングさせるステップと、
前記処理装置により、前記アライメントに基づいて前記テクスチャなし物体の前記姿勢を出力するステップと、
を有する方法。
(11)前記処理装置により、前記テクスチャなし物体の前記推定された姿勢に基づいて前記テクスチャなし物体を把持するように、ロボット装置を制御するステップを更に有する、上記(10)に記載の方法。
(12)前記単一の画像を取得するステップは、前記処理装置に通信自在に結合された1つ又は複数の撮像装置から前記単一の画像を取得するステップを更に有する、上記(10)に記載の方法。
(13)前記3次元モデルを生成するステップは、
複数のテンプレートを取得するべく、前記テクスチャなし物体の周りにおいて複数の視点のそれぞれ及び前記複数のスケールのそれぞれから複数の画像を取得するステップと、
複数のパッチによって前記複数のテンプレートをベクトル化するステップと、
を有する、上記(10)に記載の方法。
(14)前記処理装置により、前記3次元モデルの複数の離散化レンダリングのそれぞれから複数のパッチを抽出するステップであって、前記複数のパッチは、複数のハイレベルパッチと、複数のローレベルパッチと、を有するステップと、
前記マルチレベル照明不変ツリー構造を構築するべく、前記処理装置により、前記複数のハイレベルパッチのそれぞれのものを前記複数のローレベルパッチの少なくとも1つに対してリンクするステップと、
を更に有する、上記(10)に記載の方法。
(15)前記マルチレベル照明不変ツリー構造は、次式によって表され、
(16)子x 21 の親x 11 が付与された場合の前記子x 21 の条件付き確率は、次式によって表され、
(17)テクスチャなし物体の姿勢に基づいてロボット装置を制御するシステムであって、
処理装置と、
前記処理装置に通信自在に結合された1つ又は複数の撮像装置と、
前記処理装置に通信自在に結合された前記ロボット装置と、
前記テクスチャなし物体を支持するピッキング表面と、
一時的ではない、プロセッサ可読のストレージ媒体であって、1つ又は複数のプログラミング命令を有するストレージ媒体と、
を有し、
前記1つ又は複数のプログラミング命令は、実行された際に、前記処理装置が、
前記1つ又は複数の撮像装置のうちの少なくとも1つから前記テクスチャなし物体の単一の画像を取得し、前記単一画像は、前記テクスチャなし物体の前記姿勢を通知しており、
前記1つ又は複数の撮像装置によって生成された前記テクスチャなし物体の画像データから取得された複数の視点及び複数のスケールから前記テクスチャなし物体の3次元モデルを生成し、
前記離散化レンダリングとの間における前記単一の画像のアライメントを得るべく、マルチレベル照明不変ツリー構造を介して、前記単一の画像を前記3次元モデルの離散化レンダリングとマッチングさせ、
前記アライメントに基づいて前記テクスチャなし物体の前記姿勢を推定し、且つ、
前記推定された姿勢に基づいて前記テクスチャなし物体を運動させると共に把持するように、前記ロボット装置を制御する、
ようにする、システム。
(18)前記1つ又は複数の撮像装置は、複数の撮像装置を有し、前記複数の撮像装置のそれぞれは、光軸を有し、且つ、前記複数の撮像装置の個々の撮像装置は、それぞれの個々の光軸が、前記テクスチャなし物体を支持する前記ピッキング表面との関係において異なる角度を有するように、方向付けされている、上記(17)に記載のシステム。
(19)前記1つ又は複数の撮像装置は、光軸を有する単一の撮像装置を有し、前記単一の撮像装置は、前記光軸が、前記テクスチャなし物体を支持する前記ピッキング表面との関係において複数の異なる角度に対して連続的に再方向付けされるように、中心軸を中心として回転する、上記(17)に記載のシステム。
(20)実行された際に、前記処理装置が、
前記3次元モデルの複数の離散化レンダリングのそれぞれから複数のパッチを抽出し、この場合に、前記複数のパッチは、複数のハイレベルパッチと、複数のローレベルパッチと、を有し、且つ、
前記マルチレベル照明不変ツリー構造を構築するべく、前記複数のハイレベルパッチのうちのそれぞれのパッチを前記複数のローレベルパッチの少なくとも1つにリンクする、
ようにする、1つ又は複数のプログラミング命令を更に有する、上記(17)に記載のシステム。
Claims (20)
- テクスチャなし物体の姿勢を出力するシステムであって、
処理装置と、
非一時的な、プロセッサ可読のストレージ媒体であって、1つ以上のプログラミング命令を有するストレージ媒体と、
を有し、
前記1つ以上のプログラミング命令は、実行された際に、前記処理装置が、
前記テクスチャなし物体の単一の画像を取得し、前記テクスチャなし物体の前記姿勢は、前記単一の画像から推定され、
前記テクスチャなし物体の画像データから取得された複数の視点及び複数のスケールから前記テクスチャなし物体の3次元モデルを生成し、
前記3次元モデルの複数の離散化レンダリングのそれぞれから複数のパッチを抽出し、前記複数のパッチは、複数のハイレベルパッチ及び複数のローレベルパッチを有し、
マルチレベル照明不変ツリー構造を構築するため、前記複数のハイレベルパッチのそれぞれに前記複数のローレベルパッチの少なくとも1つをリンクし、
前記マルチレベル照明不変ツリー構造を介して、前記単一の画像を前記3次元モデルの離散化レンダリングとマッチングさせて、前記離散化レンダリングとの間で前記単一の画像のアライメントを取得し、
前記アライメントに基づいて、前記テクスチャなし物体の前記姿勢を出力するようにする、システム。 - 前記テクスチャなし物体の前記推定された姿勢に基づいて、前記テクスチャなし物体を把持するロボット装置を更に有する、請求項1に記載のシステム。
- 前記処理装置に通信可能に結合された1つ以上の撮像装置を更に有し、実行された際に、前記処理装置に前記単一の画像を取得させる前記1つ以上のプログラミング命令は、更に前記処理装置が、前記1つ以上の撮像装置から前記単一の画像を取得するようにする、請求項1に記載のシステム。
- 前記1つ以上の撮像装置は、複数の撮像装置を有し、前記複数の撮像装置のそれぞれは、光軸を有し、前記複数の撮像装置の個々の撮像装置は、それぞれの個々の光軸が、前記テクスチャなし物体を支持するピッキング表面に対して異なる角度を有するように方向付けされる、請求項3に記載のシステム。
- 前記1つ以上の撮像装置は、光軸を有する単一の撮像装置を有し、前記単一の撮像装置は、前記光軸が、前記テクスチャなし物体を支持するピッキング表面に対して複数の異なる角度に連続的に再方向付けされるように、中心軸を中心として回転する、請求項3に記載のシステム。
- 実行された際に、前記処理装置に前記3次元モデルを生成させる前記1つ以上のプログラミング命令は、更に前記処理装置が、
複数のテンプレートを取得するため、前記テクスチャなし物体の周りにおいて、前記複数の視点のそれぞれ及び前記複数のスケールのそれぞれから複数の画像を取得し、
複数のパッチによって前記複数のテンプレートをベクトル化するようにする、請求項1に記載のシステム。 - 実行された際に、前記処理装置に前記単一の画像を前記離散化レンダリングとマッチングさせる前記1つ以上のプログラミング命令は、更に前記処理装置が、ランダムサンプルコンセンサスを介して、前記3次元モデルの回転及び平行運動を前記単一の画像にアライメントするようにする、請求項1に記載のシステム。
- テクスチャなし物体の姿勢を出力する方法であって、
処理装置により、前記テクスチャなし物体の単一の画像を取得するステップであって、前記単一の画像は、前記テクスチャなし物体の前記姿勢を示す、ステップと、
前記処理装置により、前記テクスチャなし物体の画像データから取得された複数の視点及び複数のスケールから前記テクスチャなし物体の3次元モデルを生成するステップと、
前記処理装置により、マルチレベル照明不変ツリー構造を介して、前記単一の画像を前記3次元モデルの離散化レンダリングとマッチングさせて、前記離散化レンダリングとの間で前記単一の画像のアライメントを取得するステップと、
前記処理装置により、前記アライメントに基づいて前記テクスチャなし物体の前記姿勢を出力するステップと、
を有する、方法。 - 前記処理装置により、前記テクスチャなし物体の推定された姿勢に基づいて前記テクスチャなし物体を把持するようロボット装置に指示するステップを更に有する、請求項10に記載の方法。
- 前記単一の画像を取得するステップは、前記処理装置に通信可能に結合された1つ以上の撮像装置から前記単一の画像を取得するステップを更に有する、請求項10に記載の方法。
- 前記3次元モデルを生成するステップは、
複数のテンプレートを取得するために、前記テクスチャなし物体の周りにおいて前記複数の視点のそれぞれ及び前記複数のスケールのそれぞれから複数の画像を取得するステップと、
複数のパッチによって前記複数のテンプレートをベクトル化するステップと、
を有する、請求項10に記載の方法。 - 前記処理装置により、前記3次元モデルの複数の離散化レンダリングのそれぞれから複数のパッチを抽出するステップであって、前記複数のパッチは、複数のハイレベルパッチ及び複数のローレベルパッチを有する、ステップと、
前記処理装置により、前記マルチレベル照明不変ツリー構造を構築するため、前記複数のハイレベルパッチのそれぞれに前記複数のローレベルパッチの少なくとも1つをリンクするステップと、
を更に有する、請求項10に記載の方法。 - テクスチャなし物体の姿勢に基づいてロボット装置に指示するシステムであって、
処理装置と、
前記処理装置に通信可能に結合された1つ以上の撮像装置と、
前記処理装置に通信可能に結合された前記ロボット装置と、
前記テクスチャなし物体を支持するピッキング表面と、
非一時的な、プロセッサ可読のストレージ媒体であって、1つ以上のプログラミング命令を有するストレージ媒体と、
を有し、
前記1つ以上のプログラミング命令は、実行された際に、前記処理装置が、
前記1つ以上の撮像装置の少なくとも1つから前記テクスチャなし物体の単一の画像を取得し、前記単一画像は、前記テクスチャなし物体の前記姿勢を示し、
前記1つ以上の撮像装置によって生成された前記テクスチャなし物体の画像データから取得された複数の視点及び複数のスケールから前記テクスチャなし物体の3次元モデルを生成し、
マルチレベル照明不変ツリー構造を介して、前記単一の画像を前記3次元モデルの離散化レンダリングとマッチングさせて、前記離散化レンダリングとの間で前記単一の画像のアライメントを取得し、
前記アライメントに基づいて前記テクスチャなし物体の前記姿勢を推定し、
前記推定された姿勢に基づいて、前記テクスチャなし物体を運動させ、及び把持するよう前記ロボット装置に指示するようにする、システム。 - 前記1つ以上の撮像装置は、複数の撮像装置を有し、前記複数の撮像装置のそれぞれは、光軸を有し、前記複数の撮像装置の個々の撮像装置は、それぞれの個々の光軸が、前記テクスチャなし物体を支持する前記ピッキング表面に対して異なる角度を有するように方向付けされる、請求項17に記載のシステム。
- 前記1つ以上の撮像装置は、光軸を有する単一の撮像装置を有し、前記単一の撮像装置は、前記光軸が、前記テクスチャなし物体を支持する前記ピッキング表面に対して複数の異なる角度に連続的に再方向付けされるように、中心軸を中心として回転する、請求項17に記載のシステム。
- 実行された際に、前記処理装置が、
前記3次元モデルの複数の離散化レンダリングのそれぞれから複数のパッチを抽出し、前記複数のパッチは、複数のハイレベルパッチ及び複数のローレベルパッチを有し、
前記マルチレベル照明不変ツリー構造を構築するため、前記複数のハイレベルパッチのそれぞれに前記複数のローレベルパッチの少なくとも1つをリンクするようにする、1つ以上のプログラミング命令を更に有する、請求項17に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/054,773 US9892543B2 (en) | 2016-02-26 | 2016-02-26 | Systems and methods for estimating pose of textureless objects |
US15/054,773 | 2016-02-26 | ||
PCT/US2017/017909 WO2017146955A1 (en) | 2016-02-26 | 2017-02-15 | Systems and methods for estimating pose of textureless objects |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6506483B1 true JP6506483B1 (ja) | 2019-04-24 |
JP2019515364A JP2019515364A (ja) | 2019-06-06 |
Family
ID=58461421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018544794A Expired - Fee Related JP6506483B1 (ja) | 2016-02-26 | 2017-02-15 | テクスチャなし物体の姿勢を推定するシステム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9892543B2 (ja) |
EP (1) | EP3420532B1 (ja) |
JP (1) | JP6506483B1 (ja) |
KR (1) | KR102009851B1 (ja) |
CN (1) | CN109074666B (ja) |
WO (1) | WO2017146955A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023511735A (ja) * | 2020-01-29 | 2023-03-22 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733755B2 (en) | 2017-07-18 | 2020-08-04 | Qualcomm Incorporated | Learning geometric differentials for matching 3D models to objects in a 2D image |
CN109241844B (zh) * | 2018-08-03 | 2020-11-17 | 百度在线网络技术(北京)有限公司 | 三维物体的姿态估计方法、装置、设备及存储介质 |
CN109325444B (zh) * | 2018-09-19 | 2021-08-03 | 山东大学 | 一种基于三维几何模型的单目无纹理三维物体姿态跟踪方法 |
US11232685B1 (en) * | 2018-12-04 | 2022-01-25 | Amazon Technologies, Inc. | Security system with dual-mode event video and still image recording |
US10929992B2 (en) * | 2019-03-29 | 2021-02-23 | Wipro Limited | Method and system for rendering augmented reality (AR) content for textureless objects |
WO2021076125A1 (en) | 2019-10-16 | 2021-04-22 | Hewlett-Packard Development Company, L.P. | Training using rendered images |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000111322A (ja) * | 1998-10-01 | 2000-04-18 | Sony Corp | 3次元データ処理装置および方法 |
US7756325B2 (en) | 2005-06-20 | 2010-07-13 | University Of Basel | Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object |
FR2913128B1 (fr) | 2007-02-23 | 2009-08-28 | Total Immersion Sa | Procede et dispositif de determination de la pose d'un objet tridimensionnel dans une image et procede et dispositif de creation d'au moins une image cle |
DE602007003849D1 (de) | 2007-10-11 | 2010-01-28 | Mvtec Software Gmbh | System und Verfahren zur 3D-Objekterkennung |
US8447120B2 (en) * | 2008-10-04 | 2013-05-21 | Microsoft Corporation | Incremental feature indexing for scalable location recognition |
US8437537B2 (en) | 2009-03-27 | 2013-05-07 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for estimating 3D pose of specular objects |
CN103959307B (zh) | 2011-08-31 | 2017-10-24 | Metaio有限公司 | 从灰度图像中检测和描述特征的方法 |
EP2780861A1 (en) * | 2011-11-18 | 2014-09-24 | Metaio GmbH | Method of matching image features with reference features and integrated circuit therefor |
US9075826B2 (en) * | 2013-05-16 | 2015-07-07 | Hewlett-Packard Development Company, L.P. | Image matching |
US9646384B2 (en) | 2013-09-11 | 2017-05-09 | Google Technology Holdings LLC | 3D feature descriptors with camera pose information |
US8761457B1 (en) * | 2013-11-27 | 2014-06-24 | Google Inc. | Aligning ground based images and aerial imagery |
US9665606B2 (en) | 2014-02-14 | 2017-05-30 | Nant Holdings Ip, Llc | Edge-based recognition, systems and methods |
-
2016
- 2016-02-26 US US15/054,773 patent/US9892543B2/en active Active
-
2017
- 2017-02-15 CN CN201780012854.3A patent/CN109074666B/zh not_active Expired - Fee Related
- 2017-02-15 EP EP17714926.7A patent/EP3420532B1/en active Active
- 2017-02-15 JP JP2018544794A patent/JP6506483B1/ja not_active Expired - Fee Related
- 2017-02-15 WO PCT/US2017/017909 patent/WO2017146955A1/en active Application Filing
- 2017-02-15 KR KR1020187027352A patent/KR102009851B1/ko active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023511735A (ja) * | 2020-01-29 | 2023-03-22 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
JP7462769B2 (ja) | 2020-01-29 | 2024-04-05 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
US9892543B2 (en) | 2018-02-13 |
CN109074666B (zh) | 2020-03-10 |
WO2017146955A1 (en) | 2017-08-31 |
US20170249776A1 (en) | 2017-08-31 |
EP3420532A1 (en) | 2019-01-02 |
EP3420532B1 (en) | 2020-05-06 |
KR20180117138A (ko) | 2018-10-26 |
JP2019515364A (ja) | 2019-06-06 |
KR102009851B1 (ko) | 2019-08-12 |
CN109074666A (zh) | 2018-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6506483B1 (ja) | テクスチャなし物体の姿勢を推定するシステム及び方法 | |
Stewart | Robust parameter estimation in computer vision | |
CN109903313B (zh) | 一种基于目标三维模型的实时位姿跟踪方法 | |
US10189162B2 (en) | Model generation apparatus, information processing apparatus, model generation method, and information processing method | |
US9799139B2 (en) | Accurate image alignment to a 3D model | |
WO2015135323A1 (zh) | 一种摄像机跟踪方法及装置 | |
Wells III | Statistical object recognition | |
Läbe et al. | Automatic relative orientation of images | |
CN113178009A (zh) | 一种利用点云分割和网格修补的室内三维重建方法 | |
Gee et al. | Discovering Planes and Collapsing the State Space in Visual SLAM. | |
JP2006252275A (ja) | カメラ運動及び物体形状の復元システム | |
Weinmann et al. | Geometric point quality assessment for the automated, markerless and robust registration of unordered TLS point clouds | |
Novak et al. | Approximate registration of point clouds with large scale differences | |
Viejo et al. | A robust and fast method for 6DoF motion estimation from generalized 3D data | |
Peng et al. | A practical two-step image registration method for two-dimensional images | |
Liu | Automatic range image registration in the markov chain | |
Zhong et al. | Triple screening point cloud registration method based on image and geometric features | |
Budianti et al. | Background blurring and removal for 3d modelling of cultural heritage objects | |
Singh et al. | Accurate three-dimensional documentation of distinct sites | |
Torres-Méndez et al. | Inter-image statistics for 3d environment modeling | |
WO2023173243A1 (zh) | 二维激光雷达扫描图的语义标注生成 | |
Le et al. | Geometry-Based 3D Object Fitting and Localizing in Grasping Aid for Visually Impaired | |
Li-Chee-Ming et al. | Matching real and synthetic panoramic images using a variant of geometric hashing | |
Walli | Relating multimodal imagery data in 3D | |
Kissi | Automatic Fracture Orientation Extraction from SfM Point Clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181220 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20181220 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6506483 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |