JP2010231780A - 鏡面反射物体の3d姿勢を推定する方法 - Google Patents

鏡面反射物体の3d姿勢を推定する方法 Download PDF

Info

Publication number
JP2010231780A
JP2010231780A JP2010049344A JP2010049344A JP2010231780A JP 2010231780 A JP2010231780 A JP 2010231780A JP 2010049344 A JP2010049344 A JP 2010049344A JP 2010049344 A JP2010049344 A JP 2010049344A JP 2010231780 A JP2010231780 A JP 2010231780A
Authority
JP
Japan
Prior art keywords
image
specular
pose
cost function
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010049344A
Other languages
English (en)
Other versions
JP5484133B2 (ja
Inventor
Ju Young Chang
ジュ・ヨン・チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2010231780A publication Critical patent/JP2010231780A/ja
Application granted granted Critical
Publication of JP5484133B2 publication Critical patent/JP5484133B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体の3D姿勢を推定することに関し、より詳細には鏡面反射物体の3D姿勢を推定する。
【解決手段】方法が、環境内の3D鏡面反射物体の3D姿勢を推定する。前処理ステップにおいて、物体の3Dモデル及び該物体の姿勢のセットを使用して2D基準画像対のセットを生成する。各基準画像対は姿勢のうちの1つに関連付けられる。次に、物体の2D入力画像対を取得する。2D入力画像対内の特徴と各2D基準画像対内の特徴とを、概算コスト関数を使用して比較することによって物体の大まかな3D姿勢を推定する。概算推定値を、精密コスト関数を使用して精緻化する。
【選択図】図1

Description

本発明は、包括的には物体の3D姿勢を推定することに関し、より詳細には鏡面反射物体の3D姿勢を推定することに関する。
姿勢推定
3次元(3D)姿勢推定は、物体のロケーション(並進)及び角度配向を求める。一般的な姿勢推定方法は、2Dテクスチャ画像及び3D距離画像のような幾つかの手掛りに依存する。テクスチャ画像に基づく方法は、テクスチャが環境の変動に対し不変であると仮定する。しかしながら、この仮定は、激しい照度の変化又は陰影が存在する場合には真でない。これらの方法によって鏡面反射性の物体を扱うことができない。
距離画像に基づく方法は、物体の外観とは無関係の3D情報を利用するため、これらの問題を克服することができる。しかしながら、距離取得機器は単純なカメラよりも高価である。
幾つかの物体に関して、3D形状を再構築するのは非常に困難である。たとえば、鏡状物体又は光沢金属性物体のような鏡面反射性の高い物体の3D形状を回復することは困難であり、信頼度が低いことが既知である。
反射による手掛りは、テクスチャ又は距離による手掛りよりも姿勢変化に対する感度が高い。したがって、反射による手掛りによって、姿勢パラメータを非常に正確に推定することが可能になる。しかしながら、反射による手掛りが、姿勢の精緻化でなく、全体的な姿勢推定、すなわち物体検出に適用可能であるか否かは定かでない。
従来技術による方法は通常、外観に基づく。外観は、照度、陰影、及びスケールによる影響を受ける。したがって、これらの方法にとって、部分遮蔽、クラッタシーン、及び大きな姿勢変動のような関連する課題を克服することは困難である。これらの問題に対処するために、これらの方法は、点、線、及びシルエットのような照度に無関係の特徴、又は正規化相互相関(NCC)のような照度の影響を受けないコスト関数を使用する。しかしながら、物体は十分にテクスチャ化される必要がある。特に鏡面反射物体に関して、激しい照度の変化は依然として問題であり得る。
様々な方法が、光源の歪んだ反射の識別及び追跡、並びに既知の特殊な特徴から、わずかな局所形状情報を導出する。光路三角測量の通常の枠組みを使用して密度測定値も得ることができる。しかしながら、これらの方法は通常、物体の周囲の環境の正確な較正及び制御を実施する必要があり、場合によっては、多くの入力画像を必要とする。
鏡面反射物体の再構築のための幾つかの方法は、環境較正を必要としない。これらの方法は、画像平面上の鏡面反射フロー(specular flow)を引き起こす小さな環境の動きを想定する。これらの方法では、鏡面反射フローを利用して未知の複雑な照明における鏡面反射形状の推測を単純化する。しかしながら、一対の線形偏微分方程式を解かなくてはならず、通常これは、実世界の応用においては簡単に推定されない初期状態を必要とする。
鏡面反射に基づいて姿勢を推定する1つの方法は、短い画像シーケンス及び標準的なテンプレートマッチングプロシージャによって計算される初期姿勢推定値を使用する。拡散成分及び鏡面反射成分はフレーム毎に分離され、推定される鏡面反射画像から環境マップが導出される。次に、姿勢精緻化プロセスの正確度を高めるために環境マップ及び画像テクスチャが同時に位置合わせされる。
本発明の実施の形態は、プロセッサ内で実施される、環境内の3D鏡面反射物体の3D姿勢を推定する方法を提供する。推定の基礎となるのは、2Dカメラによって取得される鏡面反射物体の2D画像内の特徴をマッチングすることである。
前処理ステップにおいて、物体の3Dモデル及び物体の可能性のある姿勢のセットから特徴が生成される。該特徴を使用して、可能性のある姿勢毎に一対、基準画像対のセットを生成する。
次に、物体の入力画像対が取得され、該入力画像から入力特徴も計算される。概算コスト関数を使用して、入力画像対内の特徴を基準画像対内の特徴と比較することによって、物体の大まかな3D姿勢が推定される。物体の精密な3D姿勢は、大まかな3D姿勢及び精密コスト関数を使用して推定される。
一実施の形態において、特徴は画像の鏡面反射強度である。3つ(RGB)のチャネルが使用される場合、合成される強度は色である。小さな鏡状球体が環境内に配置され、画像対が、一方は短時間露光で、他方は長時間露光で取得される。これらの画像を使用して2D環境マップを構築する。このマップを使用して基準画像対を生成する。これらの基準画像対は、その後、入力画像対と比較され、鏡面反射物体の3D姿勢が推定される。
別の実施の形態では、特徴は画像内の鏡面反射フローである。鏡面反射フローはオプティカルフローの特殊なケースである。環境において動きを引き起こすことによって、3D姿勢のセットに関して鏡面反射フローが生成される。鏡面反射フローは基準画像対を生成するのに使用される。入力画像から入力鏡面反射フローも計算される。その後、基準画像対は入力鏡面反射フロー画像対と比較され、鏡面反射物体の3D姿勢が推定される。上述したように、精密コスト関数及び概算コスト関数を使用して、大まかな姿勢から精密な姿勢が推定される。
本発明は、鏡面反射を利用して、物体の3Dモデルを使用して3D物体の3D姿勢を全体的に推定する。本方法は、テクスチャがなく鏡面反射性の高い物体のような難解な物体に対処することができる。本方法は単純なマッチングコスト関数及び最適化手順を使用し、それによって本方法をグラフィックプロセッサユニット(GPU)上で実施して性能を改善することができる。
本発明の実施形態による鏡面反射強度情報を使用して鏡面反射物体の3D姿勢を推定する方法の流れ図である。 本発明の実施形態による鏡面反射フロー情報を使用して鏡面反射物体の3D姿勢を推定する方法の流れ図である。 本発明の実施形態による入射光線を使用するステンシル選択の概略図である。 信頼度の高い画素及び信頼度の低い画素を有する基準画像の例である。
図1は、プロセッサ100において実施される、環境102内の物体101の3D姿勢を推定する方法の流れ図である。ここで、物体は鏡面反射表面を有する。この実施形態において、特徴は鏡面反射強度である。3つ(RGB)のチャネルが使用される場合、組み合わされる鏡面反射強度は色を有する。環境の2次元(2D)画像はカメラ103によって取得される。
3D姿勢はカメラの座標系における3D並進ベクトル(X,Y,Z)及び配向に関する3Dオイラー角(μ,φ,σ)によって定義される。一用途では、自動ロボットアームの用途において3D姿勢を使用して容器(bin)から物体を取り出す。
物体は、光沢金属性物体のように、テクスチャがなく鏡面反射性が高い。したがって、本方法が利用可能なデータは、2D画像における物体の鏡面反射のみである。物体とカメラとの間の距離はZ≒Zである。この距離を使用して、投影の尺度を求めることができる。
本方法は、物体の形状、光度特性、及び照明照度のような高レベルの情報から開始するトップダウン手法を使用する。次に、2D画像における低レベルの特徴が生成され、該特徴を使用して3D姿勢が推定される。
本方法は、多数の可能性のある姿勢の変形122に関する鏡の双方向反射分布関数(BRDF)を使用して、3Dモデル121から基準画像125を生成する。ステップ110及び120は1回の前処理ステップとすることができる。
次に、2D入力画像131は基準画像と比較されて、鏡面反射物体の最も適合する3D姿勢151が求められる。このモデルは、CAD/CAMモデル、多角形モデル、又は任意の他の適切なモデルとすることができる。
一実施形態では、小さな鏡状球体が物体を有しない環境102内に配置される。物体は、周囲環境、すなわち物体が取り出されるために中に置かれている容器の外側の領域から十分離れている。次に、取得されるこの環境の2D画像を使用して、照度情報を表す環境マップ111を生成することができる。この照度情報を使用して基準鏡面反射画像125を生成する(120)ことができる。これらの基準鏡面反射画像は入力画像との比較に使用される。
別の実施形態では、本方法は特徴として鏡面反射フローを使用する。鏡面反射フローは、物体、カメラ、又は環境の動きによって引き起こされるオプティカルフローとして定義される。鏡面反射フローは照明照度にではなく、物体の動き、形状、及び姿勢を変化させることに依存する。したがって、鏡面反射フローを、姿勢推定のための、照度に無関係の特徴として使用することができる。
環境マップに基づく手法
図1に示すように、物体の3D姿勢を推定する前に、球体の鏡状物体を配置することによって、環境102の一対の環境マップEL及びES111を取得する(110)。これらのマップはそれぞれ、たとえば約1/4秒及び1/60秒の長時間露光及び短時間露光を有する。同じ長時間露光及び短時間露光において、入力画像IL及びIS131を取得する(130)。
大まかな姿勢推定
基準鏡面反射画像の生成
物体の3Dモデル121及び一対の環境マップIL及びIS111から、物体の可能性のある姿勢に対応する多数の所定の姿勢122に関して基準画像125が生成される。
したがって、オイラー角を均一に且つ高密度でサンプリングして、多数の、たとえば25000個の姿勢を定義する。基準画像は、ロケーション(0,0,Z)における様々なオイラー角(μ,φ,σ)に関するRL及びRSである。相互反射及び自己遮蔽を無視することによって、反射マッピングを適用することによってEL及びESから完全鏡面反射画像を生成することができる。これはテクスチャマッピングの特殊なケースである。
基準鏡面反射画像125は、3Dロケーション及びカメラに対する物体の配向に依存する。しかしながら、カメラは小さい視野104を有し、物体の奥行きは既知である。したがって、異なる複数の3Dロケーションから生成される基準鏡面反射画像間の差異は無視することができる。これは大まかな姿勢推定140には十分である。
入力画像131を、基準鏡面反射画像125と比較し、以下を解くことによって大まかな姿勢141を推定する(140)。
Figure 2010231780
ただし、
Figure 2010231780
は大まかな姿勢141を表し、C()は比較のための概算コスト関数139であり、引数minは最小値を返す関数であり、内側の最小値は外側の最小値の前に求められる。
コスト関数139は、以下である。
Figure 2010231780
ただし、λは制御パラメータであり、C()及びC()はそれぞれ、長時間露光画像及び短時間露光画像に関するコスト関数である。これらの項を得るために、3D並進ベクトル(X,Y,Z)が2D画像平面上に投影され、基準画像が投影点(x,y)に動かされる。次に、並進基準画像の各対が、対応する入力画像対と比較される。
ハイライト画素に基づいたコスト関数
通常、鏡面反射画像はハイライト画素と非ハイライト画素とを含む。ハイライト画素は、ランプ又は窓のような高強度の入射光を有する光源に対応する。したがって、画素値は通常飽和している。
ハイライト画素は第1項C()に使用される。物体は鏡面反射性が高いため、ハイライト画素は、短時間露光画像に対し二値化処理を適用して二値画像を作成することによって抽出することができる。
二値画像及び距離変換を使用して、入力ハイライト画素及び基準ハイライト画素にそれぞれ対応する距離画像D及びDを構築する。この距離変換は、二値画像を正確にマッチングするのに役立つ。ここで、コスト関数C()は以下のように定義される。
Figure 2010231780
ただし、(u,v)は画素座標であり、Nhighlightは総和が実行される画素数を表す。基準ハイライト画素及びそれらの1画素隣りの画素が、計算のためのステンシルとして使用される。
このハイライトに基づくコスト関数は以下の利点を有する。第1に、ハイライトは通常、入力画像において非常にわずかであるため、それらのハイライトを物体のロケーションに対する強力な制約として使用することができる。第2に、コスト分布は全鏡面反射画素を使用する従来のコスト関数のコスト分布よりも平滑である。第3に、ハイライトのステンシルは非常に少数の画素しか含まないため、このコストの計算を効率的に行うことができる。滑降シンプレックス法は、非常に高速に且つ安定して大域最小値に良好に収束する。
全鏡面反射画素に基づくコスト関数
第2項C()は全鏡面反射画素を考察する。
Figure 2010231780
ただし、NCCは正規化相互相関(NCC)を表す。ここで、物体のセグメンテーションマスクをNCCのためのステンシルとして使用することができる。しかしながら、幾何学的に信頼度の高い鏡面反射画素のみをステンシルとして使用することによって、実行時により良好な結果が生み出される。
図3に示すように、幾何学的ステンシル選択は以下の通りである。まず、基準画像内の画素毎に入射光線
Figure 2010231780
が推定される。ここで、反射光線
Figure 2010231780
及び該反射光線の表面法線
Figure 2010231780
は既知である。反射の法則から、入射光線は以下によって表される。
Figure 2010231780
次に、照射方向を考察することによって画素情報の信頼度を定義することができる。基準画像例125に関して図4に示すように、iからの照射は信頼度が高く(401)、iからの照射は信頼度が低い。照射方向は、カメラ座標系の仰角
Figure 2010231780
及び方位角
Figure 2010231780
によって表される。
小さな仰角を有する照射は通常、大きな仰角を有する照射よりも信頼度が低い。これは、鏡面反射物体間の相互反射、及び環境内で異なる背景を使用することのような環境マップの変化に起因する。最後に、式(4)のステンシルの場合、信頼度の高い鏡面反射画素、すなわち90度よりも大きい仰角における入射光線を有する画素のみが使用される。
全体手順
大まかな姿勢推定のための全体方法は以下の通りである。まず、基準鏡面反射画像125が生成される。可能性のある姿勢122毎に、最適並進パラメータが得られる。滑降シンプレックス法のための初期点として、入力画像の任意の3つの端点が使用される。制御パラメータλが0から1に変更される。これは、並進が、ハイライト画素のみを使用して大まかに最適化され、また、その後、全鏡面反射画素の考察もすることによって精緻化されることを意味する。並進最適化の後、多くの並進最適化姿勢及びそれらに関連付けられるコスト値が存在する。最小コスト値は、最適回転パラメータ
Figure 2010231780
のためのものである。
精密な姿勢推定
大まかな姿勢141を推定した(140)後、姿勢パラメータを継続して最適化することによって、該姿勢パラメータをさらに精緻化する(150)ことができる。並進姿勢は大まかな姿勢推定における滑降シンプレックス法によって既に継続して最適化されているため、以下のコスト関数149を使用して回転姿勢のみを精緻化すればよい。
Figure 2010231780
ただし、Rは長時間露光環境マップELを用いて得られる基準画像である。この最適化は最急降下法を使用する。
鏡面反射フローに基づく手法
図2は、オプティカルフローがマッチングのための特徴として使用される方法を示す。通常、オプティカルフローは、カメラと環境との間の相対的な動きによって生じる、環境内の明示的な動きのパターンである。この実施形態では、オプティカルフローは、環境の動きによって引き起こされると想定される。既知の方向、たとえばカメラ103の観察方向を中心とした環境の定義済みの小さな回転によって2つの入力画像を生成する(210)。次に、これらの2つの画像間の鏡面反射フローを求めて、各画素に関する2D変位ベクトルを含む入力鏡面反射画像I231を得る。ブロックマッチング法を使用して鏡面反射フローを求める。
通常、鏡面反射フローは、物体101、環境102、又はカメラ103の動きによって引き起こすことができる。この説明の単純化のために、環境の動きのみが使用される。カメラと物体との間の相対姿勢は固定であるため、鏡面反射フローは鏡面反射画素においてのみ観察される。したがって、鏡面反射フローが存在するか否かを指示する、この動きによる手掛りは、物体のロケーションを強力に制約するのに使用することができる。
大まかな姿勢推定
基準鏡面反射フローの生成
大まかな姿勢推定240のために、上述したようにロケーション(0,0,Z)及び様々な姿勢122に関して2つの鏡面反射画像を生成する(220)が、今回は、わずかに、たとえば±5度回転している色分けされた環境マップを使用する。色分けされた環境によって、2つの画像間の正確な画素の対応を求めることが可能になる。結果としてのオプティカルフロー画像を使用して基準画像R225を生成する。
大まかな姿勢最適化
基準画像225を取得された(230)入力鏡面反射フロー画像I231と比較し、コスト関数239を最小化することによって大まかな3D姿勢241を推定する(240)。
Figure 2010231780
ただし、C()及びC()はそれぞれ、動き分割及び鏡面反射フローに基づくコスト関数である。滑降シンプレックス法を使用して、最初に並進(X,Y)が各回転に対して最適化される。次に、全てのコスト値を比較することによって回転が最適化される。
動き分割に基づくコスト関数
動き分割は、各画素に関して非ゼロ鏡面反射フローが存在するか否かを指示する二値画像として定義される。D及びDは入力画像I231及び基準鏡面反射フロー画像R225の動き分割から構築される距離変換画像を表すものとする。コスト関数C()は以下となる。
Figure 2010231780
ただし、総和は、基準画像Rの動き分割画素に関して実行され、Nmotionはこのような画素の数を表す。
鏡面反射フローに基づくコスト関数
式(6)における第2コスト項C()は、入力画像I(u,v)231を並進された基準画像R225と比較することによって構築される。実際の用途におけるノイズが多くテクスチャのない領域に起因して、入力画像は多くの異常値を含む。異常値画素は、画像内の他の(異常値でない(inlier))画素と整合しない画素である。したがって、差分二乗和(SSD)のような単純なマッチングコストは良好に機能しない。そうではなく、コスト関数は異常値でない画素の数に基づく。
第1に、異常値でない画素とは、入力鏡面反射フローベクトルI(u,v)と基準鏡面反射フローベクトルRとの差が小さな閾値、たとえば1.0未満である画素である。コスト関数C()は以下となる。
Figure 2010231780
ただし、Mは異常値でない画素の集合である。
全体手順
鏡面反射フローに基づく手法は、鏡面反射強度に基づく手法と同じ全体方法を使用する。基準画像225は、モデル121及び可能性のある姿勢122を使用して生成される。滑降シンプレックス法を使用して基準画像毎に最適な並進が推定される。ここで、制御パラメータは0〜1で変動する。次に、全ての並進最適化された姿勢が比較されて、最適な回転が求められる。
精密な姿勢推定
大まかな姿勢241を推定した(240)後、コスト関数249を最小化することによって回転姿勢パラメータを継続して精緻化する(250)。
Figure 2010231780
ただし、Rは、姿勢パラメータ(θ,φ,σ,X,Y)を有する基準画像であり、Nmaskはステンシル内の画素数を表す。ステンシルは物体のセグメンテーションマスクとして定義される。
本発明を好ましい実施形態の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び変更を行うことができることは理解されたい。
したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲内に入るすべての変形及び変更を包含することである。

Claims (22)

  1. 環境内の3D物体の3D姿勢を推定する方法であって、該物体は鏡面反射表面を有し、該方法はプロセッサによって実施され、該方法は、
    前記物体の3Dモデル及び該物体の姿勢のセットを使用して2D基準画像対のセットを生成するステップであって、各該基準画像対は前記姿勢のうちの1つに関連付けられる、生成するステップと、
    前記物体の2D入力画像対を取得するステップと、
    前記2D入力画像対内の特徴と各前記2D基準画像対内の特徴とを、概算コスト関数を使用して比較することによって、前記物体の大まかな3D姿勢を推定するステップと、
    前記大まかな3D姿勢及び精密コスト関数を使用して前記物体の精密な3D姿勢を推定するステップと、
    を含む、方法。
  2. 前記3D姿勢は、3D並進ベクトル(X,Y,Z)及び配向に関する3Dオイラー角(μ,φ,σ)によって定義される、請求項1に記載の方法。
  3. 前記オイラー角は、約25000個の姿勢に関して均一に且つ高密度でサンプリングされる、請求項2に記載の方法。
  4. 前記特徴は鏡面反射強度である、請求項1に記載の方法。
  5. 前記基準鏡面反射強度は、鏡の双方向反射分布関数を使用することによって生成される、請求項4に記載の方法。
  6. 前記方法は、
    前記物体を有しない前記環境内に鏡状球体を配置すること、
    前記環境の環境画像対を取得すること、及び
    前記環境内の照度をモデリングする2Dプレノプティック関数を使用して前記環境画像対から環境マップを構築することであって、前記基準画像対のセットは該環境マップから生成される、構築すること、
    をさらに含む、請求項4に記載の方法。
  7. 前記画像対は短時間S露光画像及び長時間L露光画像を含み、前記長時間露光は前記短時間露光の約15倍である、請求項4に記載の方法。
  8. 前記短時間露光は約1/60秒であり、前記長時間露光は約1/4秒である、請求項7に記載の方法。
  9. 前記大まかな姿勢は以下の式を解くことによって得られ、
    Figure 2010231780
    ただし、
    Figure 2010231780
    は前記大まかな姿勢の並進及びオイラー角を表し、C()は概算コスト関数であり、それぞれ、I及びRは長時間露光入力画像及び長時間露光基準画像であり、I及びRは短時間露光入力画像及び短時間露光基準画像であり、引数minは最小値を返す関数であり、内側の最小値は外側の最小値の前に求められる、請求項4に記載の方法。
  10. 前記概算関数は以下であり、
    Figure 2010231780
    ただし、λは制御パラメータであり、C()及びC()はそれぞれ、長時間露光画像及び短時間露光画像に関するコスト関数である、請求項9に記載の方法。
  11. ()に対してハイライト画素が使用され、該ハイライト画素は、二値化処理を行って対応する二値画像を作成することによって求められ、前記方法は、
    前記二値画像及び距離変換から、対応する基準距離画像D及び入力距離画像Dを構築することをさらに含む、請求項10に記載の方法。
  12. 前記コスト関数C()は以下であり、
    Figure 2010231780
    ただし、(x,y)は投影点であり、(u,v)は画素座標であり、Nhighlightは総和のための画素数を表し、Sは短時間露光を表す、請求項11に記載の方法。
  13. 前記コスト関数C()は以下であり、
    Figure 2010231780
    ただし、NCCは正規化相互相関を表し、Lは長時間露光を表す、請求項10に記載の方法。
  14. (X,Y)は並進を表し、(μ,φ,σ)は前記精密な姿勢のオイラー角を表し、前記精密コスト関数は以下であり、
    Figure 2010231780
    ただし、(u,v)は前記入力画像I及び前記基準画像Rの画素座標であり、NCCは正規化相互相関を表し、Lは長時間露光を表す、請求項4に記載の方法。
  15. 前記特徴は鏡面反射フローである、請求項1に記載の方法。
  16. 前記鏡面反射フローは、前記2D画像を取得するカメラの所定の観察方向を中心とした前記環境の回転に起因する、請求項15に記載の方法。
  17. 前記鏡面反射フローは、ブロックマッチング及び色分けされた環境マップを使用して求められる、請求項15に記載の方法。
  18. (X,Y)は並進を表し、(μ,φ,σ)は前記姿勢のオイラー角を表し、前記概算コスト関数は以下であり、
    Figure 2010231780
    ただし、λは制御パラメータであり、C()及びC()はそれぞれ、動き分割及び前記鏡面反射フローに基づくコスト関数であり、R及びIはそれぞれ、前記基準画像及び前記入力画像を表す、請求項15に記載の方法。
  19. 前記二値画像及び距離変換から、対応する基準距離画像D及び入力距離画像Dを構築することをさらに含み、前記コスト関数C()は以下であり、
    Figure 2010231780
    ただし、(x,y)は投影点であり、(u,v)は画素座標であり、総和は基準画像Rの動き分割画素に関して実行され、Nmotionはこのような画素の数を表す、請求項18に記載の方法。
  20. 前記基準鏡面反射フロー画像Rと前記入力鏡面反射フロー画像Iとを比較することであって、前記入力鏡面反射フローベクトルと前記基準鏡面反射フローベクトルとの差分が小さな閾値未満である異常値でない画素を探索する、比較することをさらに含み、前記コスト関数C()は以下であり、
    Figure 2010231780
    ただし、Mは異常値でない画素の集合である、請求項18に記載の方法。
  21. (X,Y)は並進を表し、(μ,φ,σ)は前記3D姿勢のオイラー角を表し、前記精密コスト関数は以下であり、
    Figure 2010231780
    ただし、(u,v)は画素座標であり、Rは前記基準画像であり、姿勢パラメータ(θ,φ,σ,X,Y)を有し、Nmaskはステンシル数を表し、ステンシルは物体のセグメンテーションマスクとして定義される、請求項15に記載の方法。
  22. 前記回転は約±5度である、請求項16に記載の方法。
JP2010049344A 2009-03-27 2010-03-05 鏡面反射物体の3d姿勢を推定する方法 Expired - Fee Related JP5484133B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/412,452 2009-03-27
US12/412,452 US8217961B2 (en) 2009-03-27 2009-03-27 Method for estimating 3D pose of specular objects

Publications (2)

Publication Number Publication Date
JP2010231780A true JP2010231780A (ja) 2010-10-14
JP5484133B2 JP5484133B2 (ja) 2014-05-07

Family

ID=42269465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010049344A Expired - Fee Related JP5484133B2 (ja) 2009-03-27 2010-03-05 鏡面反射物体の3d姿勢を推定する方法

Country Status (4)

Country Link
US (1) US8217961B2 (ja)
EP (1) EP2234064B1 (ja)
JP (1) JP5484133B2 (ja)
AT (1) ATE532152T1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015132981A1 (ja) * 2014-03-03 2015-09-11 三菱電機株式会社 位置測定装置及び位置測定方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN103177269B (zh) * 2011-12-23 2017-12-15 北京三星通信技术研究有限公司 用于估计对象姿态的设备和方法
US9142018B2 (en) * 2012-01-17 2015-09-22 Sunnybrook Health Sciences Centre Method for three-dimensional localization of an object from a two-dimensional medical image
US8913825B2 (en) * 2012-07-16 2014-12-16 Mitsubishi Electric Research Laboratories, Inc. Specular edge extraction using multi-flash imaging
JP5740370B2 (ja) 2012-09-04 2015-06-24 株式会社東芝 領域特定装置、方法、及びプログラム
JP6126437B2 (ja) 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
EP3391330B1 (en) * 2015-12-16 2020-02-05 InterDigital CE Patent Holdings Method and device for refocusing at least one plenoptic video
CN111311632B (zh) * 2018-12-11 2023-12-01 深圳市优必选科技有限公司 一种物体位姿跟踪方法、装置及设备
CN111127547A (zh) * 2019-12-17 2020-05-08 北京迈格威科技有限公司 定位方法、装置、机器人及存储介质
CN112747671B (zh) * 2020-12-10 2022-12-09 杭州先临天远三维检测技术有限公司 三维检测系统和三维检测方法
WO2022241574A1 (en) * 2021-05-20 2022-11-24 Eigen Innovations Inc. Texture mapping to polygonal models for industrial inspections
WO2024059953A1 (en) * 2022-09-23 2024-03-28 Eigen Innovations Inc. Inspection camera deployment solution

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203220A (ja) * 2002-01-07 2003-07-18 Canon Inc 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
JP2008269572A (ja) * 2007-04-23 2008-11-06 Mitsubishi Electric Research Laboratories Inc レンジ画像から物体の姿勢を求める方法及びシステム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870486A (en) * 1991-12-11 1999-02-09 Texas Instruments Incorporated Method of inferring sensor attitude through multi-feature tracking
EP1039417B1 (en) * 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
US6975750B2 (en) * 2000-12-01 2005-12-13 Microsoft Corp. System and method for face recognition using synthesized training images
JP4573085B2 (ja) * 2001-08-10 2010-11-04 日本電気株式会社 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object
US7536030B2 (en) * 2005-11-30 2009-05-19 Microsoft Corporation Real-time Bayesian 3D pose tracking
US7844106B2 (en) 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc Method and system for determining poses of objects from range images using adaptive sampling of pose spaces
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203220A (ja) * 2002-01-07 2003-07-18 Canon Inc 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
JP2008269572A (ja) * 2007-04-23 2008-11-06 Mitsubishi Electric Research Laboratories Inc レンジ画像から物体の姿勢を求める方法及びシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015132981A1 (ja) * 2014-03-03 2015-09-11 三菱電機株式会社 位置測定装置及び位置測定方法
JP6067175B2 (ja) * 2014-03-03 2017-01-25 三菱電機株式会社 位置測定装置及び位置測定方法

Also Published As

Publication number Publication date
JP5484133B2 (ja) 2014-05-07
ATE532152T1 (de) 2011-11-15
EP2234064B1 (en) 2011-11-02
US20100245355A1 (en) 2010-09-30
US8217961B2 (en) 2012-07-10
EP2234064A1 (en) 2010-09-29

Similar Documents

Publication Publication Date Title
JP5484133B2 (ja) 鏡面反射物体の3d姿勢を推定する方法
US8437537B2 (en) Method and system for estimating 3D pose of specular objects
KR101974651B1 (ko) 경계선 상속을 통하여 계층적으로 직교화된 구조광을 디코딩하는 방법 및 이를 이용하는 3차원 거리 영상 측정 시스템
Lysenkov et al. Recognition and pose estimation of rigid transparent objects with a kinect sensor
JP5455873B2 (ja) シーンにおける物体の姿勢を求めるための方法
CN110880185A (zh) 基于条纹投影的高精度动态实时360度全方位点云获取方法
JP5043023B2 (ja) 画像処理方法および装置
US20190188871A1 (en) Alignment of captured images by fusing colour and geometrical information
KR20220132617A (ko) 포즈 검출 및 측정을 위한 시스템들 및 방법들
Choe et al. Exploiting shading cues in kinect ir images for geometry refinement
JP2005115946A (ja) Helmholtz相互画像ペアを用いた表面再構成及びレジストレーション
JP2009288235A (ja) 物体の姿勢を求める方法及び装置
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
Zhu et al. Video-based outdoor human reconstruction
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
Mecca et al. Luces: A dataset for near-field point light source photometric stereo
Park et al. Surface light field fusion
JP5441752B2 (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
Liao et al. Indoor scene reconstruction using near-light photometric stereo
Chang et al. 3d pose estimation and segmentation using specular cues
JP6806160B2 (ja) 3次元運動評価装置、3次元運動評価方法、及びプログラム
Yang et al. Next-best-view prediction for active stereo cameras and highly reflective objects
Kim et al. Joint estimation of depth, reflectance and illumination for depth refinement
Gan et al. Multi-view photometric stereo using surface deformation
Li et al. 3D reconstruction based on Kinect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140218

R150 Certificate of patent or registration of utility model

Ref document number: 5484133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees