JP2011129094A - シーンにおける物体の姿勢を求めるためのシステム及び方法 - Google Patents

シーンにおける物体の姿勢を求めるためのシステム及び方法 Download PDF

Info

Publication number
JP2011129094A
JP2011129094A JP2010215389A JP2010215389A JP2011129094A JP 2011129094 A JP2011129094 A JP 2011129094A JP 2010215389 A JP2010215389 A JP 2010215389A JP 2010215389 A JP2010215389 A JP 2010215389A JP 2011129094 A JP2011129094 A JP 2011129094A
Authority
JP
Japan
Prior art keywords
image
real
virtual
images
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010215389A
Other languages
English (en)
Other versions
JP5539138B2 (ja
Inventor
Amit K Agrawal
アミット・ケイ・アグラワル
Changhua Wu
チャンフア・ウ
N Raskar Ramesh
ラメッシュ・エヌ・ラスカー
Jay Thornton
ジェイ・ソーントン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2011129094A publication Critical patent/JP2011129094A/ja
Application granted granted Critical
Publication of JP5539138B2 publication Critical patent/JP5539138B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ロボットピッキングの用途について物体の姿勢を求める。
【解決手段】前処理中、仮想カメラのレンズのまわりに仮想点光源を配置することにより、さまざまな姿勢について物体の3Dモデルがレンダリングされる。影を使用して、複数の方向から照明された物体の配向された奥行きエッジが得られる。配向された奥行きエッジは、データベースに保存される。異なる方向からシーン上に影を投じることによって、カメラがシーンの画像を取得する。シーンは、互いに対して任意の姿勢で配置された1つ又は複数の物体を含むことができる。物体の姿勢は、取得された画像から得られる配向された奥行きエッジを、データベースに保存された配向された奥行きエッジと比較することによって求められる。この比較により、各ピクセルにおいて、面取り照合に基づきコスト関数の値が求められる。これは、滑降シンプレックス最適化を使用して高速化することができる。
【選択図】図1

Description

本発明は、包括的には、コンピュータビジョンシステムに関し、より詳細には、ロボットピッキングの用途について物体の姿勢を求めるためのシステムに関する。
産業用ロボットは、高い正確度及び精度で同じ作業を繰り返す。製造及び組み立て等のいくつかの産業上の用途では、ロボットが部品(物体)をピッキングし、その後の処理のためにそれら物体をプレーシング(place)する。ロボットは、物体の姿勢を必要とする。どのようなずれも、結果的に、性能を準最適なものにする可能性もあるし、ロボットアーム又は物体に損傷を与える可能性さえある。
通常、カスタム設計された機械システム及び電気機械システムは、既知の姿勢を有する物体をピッキングするのに使用される。いくつかの用途では、ロボットによるピッキングを容易にするために、物体は、最初、手動でソートされる。
ロボットは、物体をピッキングする前に、コンピュータビジョン技法を使用して、物体の姿勢を求めることができる。しかしながら、コンピュータビジョン対応のロボットの配備は、数多くの技術的な難しさのために制限され続けている。現在のシステムは、物体の置き場(bin)から単一の遮蔽していない物体又は十分に分離された物体をピッキングすることしかできない。システムは、積み重ねられた物体をピッキングするように設計されているが、物体を正確に積み重ねるには、複雑な機械システム又は人間の介入も必要とされる。
ほとんどのコンピュータビジョンシステムは、信頼性、正確度、及びロバスト性を欠き、高価なセンサ及びハードウェアを使用する。現在のシステムは、集積場(pile)又は置き場に互いに重なり合って場当たり的な方法でランダムに配置された物体をピッキングする能力を欠いている。
物体ピッキングの問題は、新しいものではない。いくつかのシステムは、電気機械デバイスを使用する。通常、ロボットアームは、ピッキングされる物体用に特別設計されたグラスパを装備している。しかしながら、ロボットアームグラスパは、ピッキングされる物体の姿勢を知る必要がある。正確な位置決め等の方法を使用して、特定の姿勢の物体をロボットアームに提示することができる。これらのシステムは、高価であり、物体ごとに特異的に設計する必要があることから相互運用性を欠き、置き場にランダムに配置された物体を取り扱うことができない。
コンピュータビジョンベースのシステムは、通常、その後のピッキング動作のために、複数のカメラ及び照明デバイスを使用して、シーンを分析し、物体を突き止め、ロボットアームにフィードバックを提供する。
ほとんどの2Dコンピュータビジョンシステムは、物体の面内の配向及び位置を突き止めることができるが、その物体の面外の回転及びその物体までの距離を求めることはできない。通常、それらのシステムでは、物体が重なり合っておらず、平坦な面にプレーシングされていることが必要である。したがって、それらのシステムは、物体のランダムな集積所又は物体のランダムな置き場で動作することができない。
いくつかのコンピュータビジョンシステムは、画像における物体のサイズの変化から、物体までの距離も計算することによって2Dビジョンシステムを補強している。しかしながら、それらのシステムは、面外の回転を求めることができず、多くの場合、それらの奥行き推定において信頼性がない。3Dコンピュータビジョンシステムは、通常、シーンの3D幾何的配置を求めるためのセンサを使用する。
立体視システムは、2つのカメラを使用して、物体の奥行きを求める。対応する特徴が、2つのカメラによって取得された画像において位置特定され、カメラ間の幾何形状関係を使用して、特徴点の奥行きを識別することができる。しかしながら、対応する特徴を見つけることは、特に、光沢があることが多く、かつ、特徴のない均質なテクスチャを有する機械物体では、困難な問題である。加えて、立体視システムは、特徴を位置特定している間、雑音に対して高い感度を有する。立体視システムに関するもう1つの問題は、奥行きが特徴点でしか復元されず、物体全体について復元されないということである。自動車車体修理工場での大きな車体パネルの取り外し等の一定の用途では正確度の低減を許容することができるが、鏡のような表面を有する小さな物体の正確なビンピッキング(置き場ピッキング)では正確度の低減を許容することができない。
レーザ三角測量は、構造化光を使用して、物体の表面上のパターンを生成する。このパターンは、カメラによって撮像される。これについては、2007年4月23日に出願された特許文献1の「Method and System for Determining Objects Poses from Range Images」を参照されたい。レーザ三角測量は、物体表面上の3D点群を復元することができる。その技術は、柔軟性があり寸法的に不安定な物体の溶接、密閉、接着剤付着、研削、ウォータジェット切断、及びバリ取りのためのエッジ追跡を伴う用途に使用されてきた。レーザベースシステムは、登録、並びに影及び遮蔽を考慮することを必要とする。レーザシステムは、一般のランダムなビンピッキングでの商品化に成功していない。加えて、レーザの使用は、オペレータの極めて近くに配備されると、安全性の問題も招く。
Ramesh Raskar他によって2007年11月7日に出願された特許文献2の「Method and System for Locating and Picking Objects Using Active Illumination」は、奥行きエッジを接続して輪郭を形成し、次に、遮蔽グラフを使用して輪郭を照合し、姿勢を得るビンピッキングシステムを説明している。しかしながら、そのシステムは、シーンにおいて遮蔽されていない物体を見つけることしか試みず、物体の大部分が遮蔽されているときに難しくなる。また、そのシステムは、追加のセグメンテーションステップも必要とし、このセグメンテーションステップは、それ自体、エラーを起こしやすい可能性がある。
米国特許出願第11/738,642号公報 米国特許出願第11/936,416号公報
前処理中、仮想カメラのレンズのまわりに仮想点光源を配置することにより、さまざまな姿勢について物体の3Dモデルがレンダリングされる。影を使用して、複数の方向から照明された物体の配向された奥行きエッジが得られる。配向された奥行きエッジは、データベースに保存される。
動作中、異なる方向からシーン上に影を投じることによって、カメラがシーンの画像を取得する。シーンは、互いに対して任意の姿勢で配置された1つ又は複数の物体を含むことができる。
物体の姿勢は、取得された画像から得られる配向された奥行きエッジを、データベースに保存された配向された奥行きエッジと比較することによって求められる。この比較により、各ピクセルにおいて、面取り照合に基づきコスト関数の値が求められる。これは、滑降シンプレックス最適化を使用して高速化することができる。
本発明の実施形態による物体の姿勢を求めるための前処理手順の概略図である。 本発明の実施形態による物体の姿勢を求めるための方法の概略図である。 本発明の実施形態によるロボットアームのための物体の姿勢を求める概略図である。 本発明の実施形態による物体の姿勢を比較するための方法の概略図である。 本発明の実施形態による面取り距離を求めるためのプロセスのブロック図である。
前処理
図1は、本発明者の発明の実施形態による物体の3D姿勢を求めるための前処理手順を示す。この手順は、この技術で知られているようにメモリ及び入出力インターフェースを含むプロセッサで実行することができる。姿勢は、x、y、z平行移動位置及び
Figure 2011129094
角度配向を含む。この方法は、さまざまなタイプの物体について実行され、当該方法の実際の動作中に使用されるデータベースを作成することができ、また、プロセッサで実行することもできる。
レンダリングエンジン110(OpenGL)は、仮想カメラを使用して物体の3Dモデル101の仮想画像のセット111を生成する。各セットは、モデル101の異なる可能性のある既知の姿勢103についてのものである。モデルは、仮想カメラのレンズ104のまわりに配置された(8つの)仮想点光源102のセットによって照明される。したがって、各セット111には各既知の姿勢103につき8つの仮想画像がある。
仮想奥行き画像エッジ121が、後述するように仮想画像のセットから作成され(120)、データベース130に保存される。このデータベースは、さまざまなタイプの物体及び姿勢に関する仮想奥行きエッジを保存することができる。したがって、異なる物体が混合しているとき、異なる物体のさまざまな姿勢を求めることができる。
図2Aに示すように、カメラ210は、複数の物体を含むシーン201の実画像I211のセットを取得する。これらの物体は異なるものであってもよい。カメラは、ビデオカメラ又はスチル写真カメラとすることができる。物体は、シーンにランダムに配置されている可能性があり、例えば、置き場に混合されている可能性がある。カメラは、レンズのまわりの(8つの)実点光源のセット209を含む。これらの光源は、高輝度LEDとすることができる。したがって、8つの実画像のセットが取得される。仮想ライトの個数及び位置は、実ライトの個数及び位置に対応する。照明は異なる方向から来るので、物体によって投じられた影は、異なる配向を有し、これら異なる配向は、物体の奥行きエッジに対応する。
シーンが環境光によって照明される場合、環境光だけを有する実画像も取得することができる。この画像は、その後、セットにおける各画像から差し引かれて、環境光の効果を取り消すことができる。
図2Bに示すように、カメラ210は、ロボットのアーム250に配置することもできるし、ロボット及びシーン201の近くの作業空間に固定することもできる。その結果、ロボットアームは、既知の姿勢に従って物体をピッキングすることができる。
配向された奥行きエッジ画像及び距離変換の作成
奥行きエッジは、物体の境界と背景との間の不連続性を表す。
図4に示すように、奥行きエッジは、最初に固有画像Imax411を作成する(410)ことによって得られる。固有画像内の各ピクセルは、セットにおける画像I211のすべての同じ位置における対応するピクセルから選択された最大輝度を保存する。次に、比画像Iratio421が、
Figure 2011129094
として作成される(420)。
比画像421内のエッジは、配向された奥行きエッジに対応する。奥行きエッジの配向は、その画像に対する照明の方向に依存し、この照明の方向は、セットにおける画像I211ごとに異なる。
距離画像Idistance431が、比画像から作成される(430)。距離画像は、画像内のあらゆるピクセルにおける最も近いエッジまでの距離を与える。距離画像は、セット内の各画像I211について作成される。
データベース用に、照明方向ごとに距離変換画像が求められる。本質的には、シーンの8つのエッジ画像のそれぞれが、データベースにおけるあらゆる姿勢の8つのエッジ画像のそれぞれと照合され、コストが合計される。次に、平均距離が、二乗平均平方根(RMS)面取り距離(chamfer distance)440を与える。
Figure 2011129094
ここで、dは距離値であり、nは考慮されたピクセル数である。距離画像の面取り照合(chamfer matching)は、仮想画像の配向された奥行きエッジと実画像間の配向された奥行きエッジとの間の一般化距離を最小にする。
面取り距離を比較することは、かなり乱雑であるときで且つ予想される姿勢変化がデータベース130で十分に表されているときに有利である。かなり乱雑であるときとは、画像が、ランダムにプレーシングされた物体の集積場から成る場合である。
比較
図3に示すように、配向された実奥行きエッジ221は、対応する距離画像及びコスト関数309を使用して、データベース130に保存された仮想奥行きエッジと比較されて(310)、可能性のある姿勢311〜313が求められ、最も良く照合した既知の姿勢が、物体の姿勢として選択される。
姿勢は、3つの平行移動パラメータ及び3つの回転パラメータを有する。物体からカメラまでの距離zは既知である。最初に、x−y平行移動が求められ、3つの回転パラメータが求められる。このプロセスは、異なる距離について繰り返されて、6つの姿勢パラメータを求めることができる。
平行移動パラメータ及び回転パラメータの求値
この方法は、データベース内のすべての可能性のある姿勢を比較して、物体の回転角度及び位置について最も良く照合するものを見つける。d を、データベースにおけるp番目の姿勢についてi番目の配向されたエッジ変換の距離変換を示すものとする。d を、シーンのi番目の配向されたエッジ変換の距離変換を示すものとする。データベース内の各姿勢pについて、姿勢p(x,y)の方向iの照合コストは、
Figure 2011129094
である。ここで、Nx、Nyは、データベース内の姿勢pの配向された奥行きエッジのサイズを示し、u、vは、データベース内の姿勢pの配向された奥行きエッジの座標を示す。
姿勢p(x,y)の総コストは、すべての方向にわたるすべてのコストの合計
Figure 2011129094
である。
コストの値は、すべての姿勢p(x,y)について求められる。
滑降シンプレックス最適化
データベース内のあらゆる姿勢pに関する最良のピクセル(x,y)及びその関連したコストC(x,y)は、滑降シンプレックス手順を使用して求められる。例えば100個の最小コスト及びそれらの対応する姿勢パラメータが保持される。これらのコストは、次に、その位置に基づいて分類され、物体及びその対応する姿勢が識別される。
本発明者らの方法は、複数の視点に適応して、姿勢の妥当性の確認又は姿勢の改善を行うことができる。前の視点からの結果を使用して、次の視点の判定をガイドすることができる。
本発明を、好ましい実施形態の例として説明してきたが、本発明の精神及び範囲内で他のさまざまな適合及び変更を行えることが理解されるべきである。したがって、本発明の真の精神及び範囲内に入るすべての変形及び変更を包含することが、添付の特許請求の範囲の目的である。

Claims (13)

  1. シーンにおける物体の姿勢を求めるための方法であって、該方法のステップを実行するためのプロセッサを備え、
    前記物体のモデルの仮想画像のセットを生成するステップであって、各仮想画像のセットは、前記モデルの異なる既知の姿勢についてのものであり、前記モデルは、仮想光源のセットによって照明され、特定の既知の姿勢について特定のセットにおける各仮想光源につき1つの仮想画像がある、生成するステップと、
    各仮想画像の仮想奥行きエッジを作成するステップと、
    前記シーンにおける前記物体の実画像のセットを取得するステップであって、前記物体は、未知の姿勢を有し、前記物体は、実光源のセットによって照明され、各実光源につき1つの実画像がある、取得するステップと、
    各実画像に関する実奥行きエッジを作成するステップと、
    コスト関数を使用して、前記実画像のセットの前記実奥行きエッジを各仮想画像のセットの前記仮想奥行きエッジと比較するステップであって、それによって、前記未知の姿勢と最も良く照合する前記既知の姿勢を求める、比較するステップと、
    を含む、方法。
  2. 前記シーンは、異なる未知の姿勢を有する複数の前記物体を含む、請求項1に記載の方法。
  3. 前記複数の前記物体は異なり、混合され、
    各異なる物体の前記モデルの前記仮想画像のセットを生成すること、
    をさらに含む、請求項2に記載の方法。
  4. 前記仮想奥行きエッジをデータベースに保存すること、
    をさらに含む、請求項1に記載の方法。
  5. 前記姿勢は、位置及び配向を含む、請求項1に記載の方法。
  6. 各実画像のセットについて環境光画像を生成すること、及び
    各実画像から前記環境光画像を差し引くこと、
    をさらに含む、請求項1に記載の方法。
  7. 前記セットにおいて、前記仮想光源の個数及び位置と、前記実光源の個数及び位置とが、対応している、請求項1に記載の方法。
  8. 前記実画像のセットは、作業空間に配置されたカメラによって取得され、
    前記既知の姿勢に従ってロボットアームにより前記物体をピッキングすること、
    をさらに含む、請求項1に記載の方法。
  9. 前記奥行きエッジを作成することは、
    前記実画像のセットから固有画像Imaxを作成することであって、該固有画像内の各ピクセルは、前記セットにおける前記実画像I内のすべての同じ位置における対応するピクセルから選択された最大輝度を保存する、前記実画像のセットから固有画像Imaxを作成すること、及び
    各実画像の比画像Iratio
    Figure 2011129094
    として作成することであって、該比画像は、前記照明の方向に依存した配向を有する前記奥行きエッジに対応するエッジを含む、各実画像の比画像ratioを作成すること、
    をさらに含む、請求項1に記載の方法。
  10. 各比画像の前記エッジから距離画像を作成することであって、前記比較することは、前記距離画像における面取り距離に従う、各比画像の前記エッジから距離画像を作成すること、
    をさらに含む、請求項9に記載の方法。
  11. 前記コスト関数は、
    Figure 2011129094
    であり、ここで、(x,y)は、特定のピクセルの位置を示し、Nx、Nyは、前記奥行きエッジのサイズを示し、u、vは、前記奥行きエッジの座標を示し、d 及びd は、i番目の照明方向についてのそれぞれ前記仮想奥行きエッジの距離変換及び前記実奥行きエッジの距離変換を表す、請求項1に記載の方法。
  12. 滑降シンプレックス手順を使用して前記コスト関数の値を求めること、
    をさらに含む、請求項1に記載の方法。
  13. シーンにおける物体の姿勢を求めるためのシステムであって、
    前記物体のモデルの仮想画像のセットを生成するように構成されたレンダリングエンジンであって、各仮想画像のセットは、前記モデルの異なる可能性のある既知の姿勢についてのものであり、前記モデルは、仮想光源のセットによって照明され、特定の既知の姿勢について特定のセットの各仮想光源につき1つの仮想画像がある、レンダリングエンジンと、
    各仮想画像の仮想奥行きエッジを作成する手段と、
    前記物体の実画像のセットを取得するように構成されたカメラであって、前記物体は、未知の姿勢を有し、前記物体は、実光源のセットによって照明され、各実光源につき1つの実画像がある、カメラと、
    各実画像の実奥行きエッジを作成する手段と、
    コスト関数を使用して、前記実画像のセットの前記実奥行きエッジを各仮想画像のセットの前記仮想奥行きエッジと比較し、前記未知の姿勢と最も良く照合する前記既知の姿勢を求める、比較する手段と、
    を含む、システム。
JP2010215389A 2009-11-24 2010-09-27 シーンにおける物体の姿勢を求めるためのシステム及び方法 Expired - Fee Related JP5539138B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/624,892 US8472698B2 (en) 2009-11-24 2009-11-24 System and method for determining poses of objects
US12/624,892 2009-11-24

Publications (2)

Publication Number Publication Date
JP2011129094A true JP2011129094A (ja) 2011-06-30
JP5539138B2 JP5539138B2 (ja) 2014-07-02

Family

ID=44062129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010215389A Expired - Fee Related JP5539138B2 (ja) 2009-11-24 2010-09-27 シーンにおける物体の姿勢を求めるためのシステム及び方法

Country Status (2)

Country Link
US (1) US8472698B2 (ja)
JP (1) JP5539138B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743926B1 (ko) * 2010-09-20 2017-06-08 삼성전자주식회사 로봇 및 그 제어방법
KR101791590B1 (ko) * 2010-11-05 2017-10-30 삼성전자주식회사 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US8855366B2 (en) 2011-11-29 2014-10-07 Qualcomm Incorporated Tracking three-dimensional objects
US9818220B2 (en) * 2011-12-28 2017-11-14 General Electric Company Method and system for indicating light direction for a volume-rendered image
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
US10701999B1 (en) 2015-12-17 2020-07-07 A9.Com, Inc. Accurate size selection
US9875546B1 (en) * 2016-03-29 2018-01-23 A9.Com, Inc. Computer vision techniques for generating and comparing three-dimensional point clouds
US9990535B2 (en) 2016-04-27 2018-06-05 Crown Equipment Corporation Pallet detection using units of physical length
WO2019079598A1 (en) 2017-10-18 2019-04-25 Brown University PROBABILISTIC PROBABILISTIC OBJECTS-ROBUST AND REPRODUCIBLE PLACEMENT
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
CN109523629B (zh) * 2018-11-27 2023-04-07 上海交通大学 一种基于物理仿真的物体语义和位姿数据集生成方法
US11130237B1 (en) * 2020-03-05 2021-09-28 Mujin, Inc. Method and computing system for performing container detection and object detection
CN111921189B (zh) * 2020-08-21 2022-03-01 腾讯科技(深圳)有限公司 虚拟对象控制方法和装置
CN111931691B (zh) * 2020-08-31 2021-01-05 四川骏逸富顿科技有限公司 一种在岗监测方法及其监测系统
CN112270764B (zh) * 2020-09-30 2022-07-08 北京理工大学 一种用于合影的虚拟人姿态生成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04130587A (ja) * 1990-09-20 1992-05-01 Agency Of Ind Science & Technol 3次元画像評価装置
JP2008269572A (ja) * 2007-04-23 2008-11-06 Mitsubishi Electric Research Laboratories Inc レンジ画像から物体の姿勢を求める方法及びシステム
JP2009115783A (ja) * 2007-11-07 2009-05-28 Mitsubishi Electric Research Laboratories Inc シーン内の物体の3d姿勢を求める方法及びシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206449B2 (en) * 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
JP4709723B2 (ja) * 2006-10-27 2011-06-22 株式会社東芝 姿勢推定装置及びその方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04130587A (ja) * 1990-09-20 1992-05-01 Agency Of Ind Science & Technol 3次元画像評価装置
JP2008269572A (ja) * 2007-04-23 2008-11-06 Mitsubishi Electric Research Laboratories Inc レンジ画像から物体の姿勢を求める方法及びシステム
JP2009115783A (ja) * 2007-11-07 2009-05-28 Mitsubishi Electric Research Laboratories Inc シーン内の物体の3d姿勢を求める方法及びシステム

Also Published As

Publication number Publication date
JP5539138B2 (ja) 2014-07-02
US20110123122A1 (en) 2011-05-26
US8472698B2 (en) 2013-06-25

Similar Documents

Publication Publication Date Title
JP5539138B2 (ja) シーンにおける物体の姿勢を求めるためのシステム及び方法
EP2058761B1 (en) Method and system for determining 3D pose of object in scene
JP5570126B2 (ja) 物体の姿勢を求める方法及び装置
JP5455873B2 (ja) シーンにおける物体の姿勢を求めるための方法
JP6871712B2 (ja) ロボットを案内するための特徴位置の特定
JP6338421B2 (ja) 情報処理装置、情報処理装置の制御方法、把持システムおよびプログラム
US11667036B2 (en) Workpiece picking device and workpiece picking method
US20080082213A1 (en) Workpiece picking apparatus
JP2017096939A (ja) ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法
JP6983828B2 (ja) ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法
JP6503153B2 (ja) ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法
JP2004090183A (ja) 物品の位置姿勢検出装置及び物品取出し装置
Agrawal et al. Vision-guided robot system for picking objects by casting shadows
JP2020047049A (ja) 画像処理装置及び画像処理方法
JPS60200111A (ja) 3次元物体認識装置
Kinnell et al. Autonomous metrology for robot mounted 3D vision systems
EP4245480A1 (en) Measuring system, measuring device, measuring method, and measuring program
Zaki et al. Digital model reconstruction through 3D Stereo Depth camera: a faster method exploiting robot poses
Motai et al. SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping
JP2015132523A (ja) 位置姿勢計測装置、位置姿勢計測方法及びプログラム
CN211915840U (zh) 一种基于单目视觉的三维五轴激光切割机床
Radkowski HoloLens integration into a multi-kinect tracking environment
JP2013254300A (ja) 画像処理方法
JP6766229B2 (ja) 位置姿勢計測装置及び方法
WO2023157964A1 (ja) ピッキング装置及びピッキング制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5539138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees