JP2009093611A - 三次元オブジェクト認識のためのシステムおよび方法 - Google Patents

三次元オブジェクト認識のためのシステムおよび方法 Download PDF

Info

Publication number
JP2009093611A
JP2009093611A JP2008040298A JP2008040298A JP2009093611A JP 2009093611 A JP2009093611 A JP 2009093611A JP 2008040298 A JP2008040298 A JP 2008040298A JP 2008040298 A JP2008040298 A JP 2008040298A JP 2009093611 A JP2009093611 A JP 2009093611A
Authority
JP
Japan
Prior art keywords
dimensional
image
model
orientation
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008040298A
Other languages
English (en)
Other versions
JP4785880B2 (ja
Inventor
Christian Wiedemann
クリスチァン、ヴィーデマン
Markus Ulrich
マルクス、ウルリヒ
Carsten Steger
カルステン、シュテガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MWTEC SOFTWARE GmbH
Original Assignee
MWTEC SOFTWARE GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MWTEC SOFTWARE GmbH filed Critical MWTEC SOFTWARE GmbH
Publication of JP2009093611A publication Critical patent/JP2009093611A/ja
Application granted granted Critical
Publication of JP4785880B2 publication Critical patent/JP4785880B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1914Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries, e.g. user dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】単眼カメラ画像において三次元オブジェクトを認識するためのシステムおよび方法、並びにカメラ座標系においてオブジェクトの三次元位置姿勢を測定するためのシステムおよび方法を提供する。
【解決手段】本発明は、オブジェクト認識およびオンライン段階における三次元位置姿勢の測定に用いることができる三次元モデルの学習を、オフライン段階において自動的に行なう。この学習のために、ユーザは、例えば三次元CADモデル等のオブジェクトの幾何学的三次元表象を提供する。前記学習は、十分な数のオブジェクトの二次元画像を得、各画像に対して二次元モデルを算出し、多数の二次元モデルを三次元モデルにおいて保存することで実行される。オンライン段階において、前記二次元モデルは、ランタイムイメージとマッチされ、サーチされたオブジェクトの1つまたは複数の例に対し近似三次元位置姿勢が得られる。前記近似位置姿勢は、その後最小二乗マッチングを用いて絞り込まれる。
【選択図】図1

Description

本発明は、一般に機械視覚システムに関し、特に、画像における三次元オブジェクトの視覚認識およびその三次元位置姿勢の測定に関する。
オブジェクト認識は、多くのコンピュータビジョンアプリケーションにおいてその部分をなすものである。いくつかの例では、オブジェクトは二次元であると想定され、画像におけるオブジェクトの変換は、例えば、類似変換または投影変換にある程度限定されている。文献において、この問題をすでに解決可能な様々な種類のマッチングアプローチが多数ある。マッチングアプローチの概説は、Brown(1992年)により示されている。多くの場合、オブジェクトのモデルは該オブジェクトの画像から生成される。このようなアプローチのうち、産業上の利用における要件、すなわち、高速計算や高精度、ならびにノイズ、オブジェクトオクルージョン、クラッターおよびコントラスト変化に対するロバスト性などを満たす二つの例が、欧州特許第1,193,642号およびUlrich et al.(2003年)において提示されている。
しかしながら、多くのアプリケーションにおいて、認識対象となるオブジェクトは、二次元ではなく三次元形状であり、未知の視点から撮像される。なぜなら、オブジェクトが固定カメラの前の三次元空間で動く、カメラが固定オブジェクトの回りを動く、またはこの両方の、オブジェクトおよびカメラが同時に動くからである。このことにより、オブジェクト認識タスクが非常に複雑になる。なぜなら、カメラとオブジェクトとの間の相対的動作によって、二次元変換では表現することができない異なる遠近感が生ずるからである。また、二次元変換だけでなく、カメラに対するオブジェクトの三次元位置姿勢もすべて測定しなければならない。三次元位置姿勢は、三次元剛体変換の6つのパラメータ(3つの移動パラメータおよび3つの回転パラメータ)で定義され、カメラに対するオブジェクトの相対的動作を表現する。一つの画像において三次元オブジェクトを視覚的に認識するための様々な技術が開発されている。これらは、特徴ベース技術とビューベース技術とに分類することができる。これらのアプローチの他に、三次元オブジェクトを認識するために、一つのみの画像よりも多くの情報を用いるアプローチがあり、例えば、二つの画像(例えば、SumiおよびTomita、1998年)、またはある範囲の画像と組み合わせた一つの画像(例えば、米国特許公開第2005/0286767号)がある。後者のアプローチは本発明とは異なり過ぎるため、ここでは論じない。
特徴ベース技術は、三次元オブジェクトの顕著な特徴と、二次元サーチ画像におけるこれらの投影との対応を測定することに基づいている。これら特徴の三次元座標が既知の場合、オブジェクトの三次元位置姿勢を、十分な数のこれら二次元/三次元の対応の集合(例えば、4つのポイント)から直接計算することができる。
特徴ベース技術の1つの形態において、三次元オブジェクトの手動で選択した顕著な特徴は、二次元サーチ画像においてサーチされる(例えば、米国特許第6,580,821号、米国特許第6,816,755号、カナダ特許第2,555,159号)。これらの特徴は、人工的なマークであっても自然な特徴であってもよく、例えば、三次元オブジェクトのコーナーポイント、または特徴的にテキスチャされた近傍を有するポイントのいずれかである。一般的に、テンプレートは、オブジェクトの1つの画像における特徴の位置で定義される。サーチ画像において、特徴は、テンプレートマッチングでサーチされる。いくつかの難点がこれらのアプローチに付随する。通常、視点の変化のために、画像において特徴をロバスト的に見つけることは困難であり、遮断されたり、遠近法的に歪んだ特徴をもたらす。テンプレートマッチング法は、この種の歪みに対処することができない。このため、これらのアプローチは視点変化が非常に限られている範囲にしか適さない。さらに、マーカーベースアプローチは、変化するオブジェクトに対する順応性がない。マーカー付けをし、その三次元座標を測定することは難しい場合が多い。また、オブジェクトの多くは、その表面にマーカー付けされることに適していない。
特徴ベース認識技術の別の形態では、透視変換において、不変である特徴を用いることによってこの制限を取り除く(例えば、米国特許出願公開第2002/0181780号、BeveridgeおよびRiseman、1995年、David et al.、2003年、GavrilaおよびGroen、1991年)。例えば、Horaud(1987年)において、線形構造は、二次元サーチ画像内で線形構造が分離され、線形構造が互いに交差され交点を得る。画像における交点は、三次元モデルの隣接するエッジのコーナーポイントに対応すると推定される。モデルの三次元コーナーポイントと抽出された二次元交点との間で正しい対応を得るためのいくつかの方法が、文献(HartleyおよびZisserman、2000年、米国特許出願公開第2002/0181780号)にある。これらの特徴ベースアプローチの利点は、視点の範囲が制限されていないことである。
また、オブジェクトの特定の三次元モデルを必要とせずに、三次元オブジェクトの一つの種類を検出することができる包括的な特徴ベースアプローチがある。一例が米国特許第5,666,441号に示されており、ここでは、三次元直方体オブジェクトが検出される。最初に、画像内で線形構造に分離される。三次元直方体オブジェクトを検出するためにこれらの線形構造のうちの少なくとも3つの交差が形成され、グループにまとめられる。オブジェクトの大きさについての情報が何も用いられないため、このアプローチではオブジェクトの位置姿勢を測定できない。当然ながら、この種の特徴ベースアプローチは、変化するオブジェクトに対する順応性がない。これらアプローチは、アプローチ開発の対象であるオブジェクトしか検出できない(上記で引用した例においては、三次元直方体オブジェクト)。
一般に、特徴ベース認識技術は、クラッターおよびオクルージョンに関しては特徴の抽出をロバスト的に行うことができないという事実がある。また、抽出した二次元特徴の三次元特徴への正しい割り当てはNP完全問題であるため、これらの技術は、高速認識が重要とされる産業上の利用には不適切である。
ビューベース認識技術は、二次元サーチ画像と、様々な視点から見たオブジェクトの二次元投影図との比較に基づく。オブジェクトの望ましい三次元位置姿勢は、二次元サーチ画像に最も類似した二次元投影図を作成するために用いられた位置姿勢となる。
ビューベース認識の1つの形態において、三次元オブジェクトのモデルは、異なる視点から撮影したオブジェクトの複数の学習画像から習得される(例えば、米国特許第6,526,156号)。その後、この二次元サーチ画像は各学習画像と比較される。二次元サーチ画像に最も類似した学習画像の位置姿勢は、オブジェクトの望ましい位置姿勢として返される。残念ながら、学習画像の取得および、二次元サーチ画像との比較は非常にコストがかかる。なぜなら、許容される視点をかなり広い範囲で含むので、必要な学習画像の数が非常に多いからである。その上、このビューベース認識の形態は、一般的に照射変化に対して不変でなく、特に、僅かなテキスチャしか示さないオブジェクトに対しては不変でない。これらの問題により、このアプローチは産業上の利用には適していない。
ビューベース認識の別の形態においては、異なる視点から三次元オブジェクトの三次元モデルをレンダリングして二次元投影図が作成される(例えば、米国特許第6,956,569号、米国特許出願公開第2001/0020946号)、カナダ特許第2535828号)。ここでもまた、許容される視点をかなり広い範囲で含むために必要である二次元投影図の数が非常に多いという問題が存在する。これに対処するために、位置姿勢クラスター技術が紹介されている(例えば、Munkelt、1996年)。それでも、二次元サーチ画像と比較しなければならない二次元投影の数は依然として多いため、これらのビューベース認識技術は産業上の利用に適していない。ビューの数は、カメラが常に三次元オブジェクトの中心に向くようにビューを作成することによって削減されることが多いが、その結果投影の歪みが生じるため、画像の中心に現れないオブジェクトは見つけることができない。これらのビューベース認識技術の別の未解決な問題は、二次元サーチ画像との比較に適するような二次元投影図の作成である。写実的にレンダーされた二次元投影図を用いるアプローチ(米国特許第6,956,569号)は、照射変化に対して不変ではない。なぜなら、オブジェクトのエッジの外観は、照射方向によって変化するからである。この問題は、テキスチャを用いることで抑制することはできる(米国特許出願公開第2001/0020946号)が、解消することはできない。その他のアプローチでは、サンプリングした異なる視点での画像において特徴点を抽出することによりモデルを作成し、ポイント記述子を用いて分類器を学習させる(例えば、Lepetit、2004年)。サーチ画像においても、ポイント記述子の出力を用いて特徴点が抽出され分類される。最終的に、最も有望な三次元位置姿勢が返される。残念ながら、この種のアプローチは、オブジェクト表面の特異なテキスチャに大きく依存するため、殆どの産業上の利用には適していない。三次元モデルのワイヤフレーム投影図のみを用いたアプローチは、投影されたエッジの多くがサーチ画像において可視ではないという問題に直面しており、特に、オブジェクトの三次元モデルにおいて二次元の三角形で一般的に近似される、若干湾曲した表面について、この問題がある。二次元投影図を二次元サーチ画像と比較するために用いられる技術は、クラッターおよびオクルージョンに対してロバストではないことが多い(Ulrich、2003年)。結局、純粋なビューベースアプローチにより測定されるオブジェクト位置姿勢の精度は、視点の許容される範囲がサンプリングされる距離によって制限される。
本発明は、単眼カメラ画像において三次元オブジェクトを認識するためのシステムおよび方法、並びにカメラ座標系に対するオブジェクトの三次元位置姿勢を測定するためのシステムおよび方法を提供する。本発明は、先に説明したビューベースオブジェクト認識方法における従来技術の問題の多くを実質的に解消する方法を提供する。
第1の観点において、本発明は、三次元オブジェクト認識を行うための三次元モデルを構築するための方法を提供するもので、(a)カメラの内的パラメータを提供するステップと、(b)三次元オブジェクトの幾何学的表象を提供するステップと、(c)三次元オブジェクトが、カメラから可視である位置姿勢の範囲を提供するステップと、(d)異なる画像解像度、例えば画像ピラミッドのレベルについて前記位置姿勢の範囲をサンプリングすることにより、前記三次元オブジェクトの仮想ビューを作成するステップと、(e)すべてのビューをツリー構造により表現するステップであって、同一のピラミッドレベル上のビューは、前記ツリーにおいて同一の階層レベルに属するステップと、(f)各画像について、適切な二次元マッチングアプローチを用いることにより、画像における二次元ビューを見つけるために使用可能な二次元モデルを作成するステップとを含む。
第2の観点によると、本発明は、三次元オブジェクトを認識するためであって、前記オブジェクトの1つの画像からその三次元位置姿勢を測定するための方法であり、(a)前記三次元オブジェクトの三次元モデルを提供するステップと、(b)前記三次元オブジェクトの電子サーチ画像を提供するステップと、(c)例えば、画像ピラミッドといった、異なる解像度を含む前記サーチ画像の表象を作成するステップと、(d)前記階層的ツリー構造において、親ビュー(father view)を持たない二次元モデルを、前記画像ピラミッドの各レベルの画像とマッチさせるステップと、(e)最下位ピラミッドまで追跡することにより、最上位ピラミッドレベルの二次元でのマッチの確認および絞り込み(refining)を行うステップと、(f)前記二次元マッチングの位置姿勢および前記対応する三次元ビューの位置姿勢から、初期三次元オブジェクトの位置姿勢を測定するステップと、(g)前記初期三次元オブジェクトの位置姿勢を絞り込むステップとを含む。
第3の観点によると、本発明は、テキスチャ情報で三次元モデルを補強するための方法を提供するものであって、(a)前記三次元オブジェクトのいくつかの画像例を提供するステップと、(b)前記画像例それぞれにおいて、前記三次元オブジェクトの前記三次元位置姿勢を測定するステップと、(c)各画像例について、ステップ(b)で測定した前記三次元位置姿勢を用いて、前記三次元モデルの各面を画像例に投影するステップと、(d)各オブジェクト面について、前記投影面で隠れた画像例部分を、前記面の前記三次元位置姿勢を用いて修正するステップと、(e)前記修正されたテキスチャを備えたオブジェクト面から得られたテキスチャ情報で前記二次元モデルを補強し、幾何学的情報およびテキスチャ情報の両方を含む二次元モデルとするステップとを含む。
第1のステップにおいて、前記カメラは、最終的な三次元オブジェクトの位置姿勢を高精度にするために較正される。また、前記較正は、オブジェクト認識用カメラレンズが著しく歪んでいても、これを用いることを可能にする。
その後、三次元モデルは、例えば、三次元CADモデルといった前記オブジェクトの三次元表象に基づいて学習される。これを行うために、三次元オブジェクトのビューは、ユーザが特定した位置姿勢範囲内で生成される。本発明の好ましい実施形態において、オブジェクトは、球座標系を画定する球の中心にあると想定される。このため、三次元モデルに含まれるべきカメラ位置の範囲は、球座標の経度、緯度および距離について間隔を特定することによって表わすことができる。また必要に応じて、前記カメラのロール角度は、モデル学習に適切な値を渡すことで、360度よりも狭い範囲に限定することができる。この学習(オフライン段階)の間、カメラは常にオブジェクトの中心に向けられるものとする。
位置姿勢の範囲内でのビューのサンプリングは、前記学習処理中に自動的に測定される。この自動算出によるサンプリングの利点は、サンプリングを行うためのパラメータ値をユーザが特定する必要がなく、オブジェクト認識のロバスト性と速度とが最大になるようにサンプリングを選択することができることである。認識の速度をさらに上げるために、複数のピラミッドレベル上にモデルが作成される。ピラミッドレベルが高くなるにつれて、ビューのサンプリングが粗くなるので、ビューの算出は、各ピラミッドレベルについて個別に行われる。オーバサンプリングから開始して、抽出が原解像度に最適になったとわかるまで、適切な類似度を用いて近傍のビューが順に統合される。次に高位のピラミッドレベル上でサンプリングするために、類似度の閾値はより低い解像度に緩和され、これらの閾値を超えるまでビューはさらに統合される。この処理は、ピラミッドレベルの最大数に達するまで繰り返される。異なるピラミッドレベル上のビュー同士の関係は、三次元モデル内に保存される。この情報があるため、高位のピラミッドレベル上のある特定のビューを求めて、前記高位のピラミッドレベル上にビューを作成するよう統合されたその直下のピラミッドレベル上のビューに問い合わせを行うことが可能である。この情報はツリー構造で保存される。ツリーにおける各ノードは一つのビューを表す。同一ピラミッドレベル上のビューは、ツリーにおける同一の階層レベルに属する。このツリー構造により、各親ノードは1つまたはそれ以上の子ノードに接続される一方で、各子ノードは最大でも1つの親ノードに接続される。さらに、各ビューの三次元位置姿勢は三次元モデル内に保存される。
各ピラミッドレベルおよびそのレベル上の各ビューについて、二次元モデルが作成される。これを行うために、現行のビューにより表わされるカメラの位置姿勢を用いて、オブジェクトの三次元表象が像面に投影される。この結果、3チャネル画像が得られ、ここでは、この3チャネルは、三次元オブジェクトを成す面の法線ベクトルの3つの要素を表す。この3チャネル画像投影を用いる利点は、この画像におけるエッジ振幅が、三次元オブジェクトの二つの近傍面が成す角度に直接関係するという点にある。本発明の好ましい実施形態において、二次元モデル表象は、エッジ位置および各エッジの方向を含む。モデルの三次元描画には、オブジェクトの直接像では可視ではない多くのエッジが含まれていることが多い。例えば、このようなエッジは、十分な数の平らな面によって湾曲した表面を近似するために用いられるCADソフトの三角測量法を行った結果生じる。このため、これらのエッジは、二次元モデルに含まれてはならない。三次元オブジェクトにおける2つの近傍面の法線ベクトル間の角度差に対して最小値を特定することで、これらを抑制することが可能である。投影モードが選択されるので、この最小角度は、3チャネル画像におけるエッジ振幅に対する閾値に容易に変換することができる。最終的に、二次元モデルは、関連する画像ピラミッドレベル上の3チャネル画像から生成される。本発明の好ましい実施形態において、欧州特許第1,193,642号において提示される類似度が、二次元マッチングに用いられる。これは、オクルージョン、クラッターおよび非線形コントラスト変化に対しロバストである。二次元モデルは、対応する勾配方向ベクトルを伴う複数のエッジポイントからなり、これらは例えば、エッジ検出方法といった標準的な画像前処理アルゴリズムにより得ることができる。類似度は、エッジ勾配方向のドット積に基づく。あるいは代わりに、その他のエッジに基づく二次元マッチングアプローチを本発明に用いることも可能で、例えば、平均エッジ距離に基づくアプローチ(Borgefors、1988年)、ハウスドルフ距離に基づくアプローチ(Rucklidge、1997年)、または一般化ハフ変換に基づくアプローチ(Ballard、1981年またはUlrich et al.、2003年)がある。最後のステップにおいて、作成された二次元モデルが、画像におけるクラッターからモデルを区別するために必要な十分に顕著な特性を依然として示しているかどうかが確認される。そうでない場合、このビューおよびピラミッドレベルの二次元モデルは取り除かれる。
オンライン段階においては、作成された三次元モデルが、単眼カメラ画像における三次元オブジェクトの認識用に、また、カメラ座標系におけるオブジェクトの三次元位置姿勢の測定用に用いられる。最初に、入力画像から画像ピラミッドを作る。少なくとも1つの有効な二次元モデルが得られる最も高位のピラミッドレベルで認識を開始する。このピラミッドレベルの二次元モデルはすべてサーチされるが、サーチは例えば、ビューの二次元モデルと現行の画像ピラミッドレベルの二次元モデルとの間の欧州特許第1,193,642号で提示される類似度を算出することにより行なわれる。あるいは、代わりにその他のエッジに基づく二次元マッチングアプローチを本発明に用いることも可能で、前記アプローチには例えば、平均エッジ距離に基づくアプローチ(Borgefors、1988年)、ハウスドルフ距離に基づくアプローチ(Rucklidge、1997年)、または一般化ハフ変換に基づくアプローチ(Ballard、1981年またはUlrich et al.、2003年)がある。サーチを行うために、二次元モデルが必要な範囲で回転および拡大縮小され、この拡大縮小および回転された二次元モデルの画像における各位置で類似度が算出される。所定の類似度を超えるマッチの二次元位置姿勢(位置、回転、拡大縮小)は、マッチ候補の一覧に保存される。次の下位のピラミッドレベル上で、ツリー内に親ノードを持たない二次元モデルがすべて、最も高位のピラミッドレベル上のビューで行った方法と同じ方法でサーチされる。さらに、前のピラミッドレベル上で見つかったマッチ候補は絞り込まれる。この絞り込みは、ツリーにおける子ビューをすべて選択し、これらの子ビューの二次元モデルと現行の画像ピラミッドレベルの二次元モデルとの間の類似度を算出して行われる。しかしながら、親ビューのマッチに従い、非常に制限されたパラメータ範囲内だけで類似度を算出することでも十分である。このことは、精査すべき位置、回転および拡大縮小の範囲が、親マッチの近傍に限定できることを意味する。この処理は、最も下位のピラミッドレベルまですべてのマッチ候補が追跡されるまで繰り返される。ピラミッドアプローチとツリー構造に配列される階層的モデルビューとの組み合わせは、リアルタイムアプリケーションにおいて重要であるが、これまでの認識アプローチにおいては適用されたことが無い。
残念ながら、上述の追跡は、カメラがオブジェクトの中心に向けられておらず、よってオブジェクトが画像の中心に現れない場合は不可能である。学習中に作成された二次元モデルは、オブジェクト中心に向けられるカメラを想定して作成されていることから、画像における二次元モデルおよび投影モデルは二次元投影変換によって関連付けられる。この変換のパラメータは、画像におけるオブジェクトの位置が既知な場合、算出することができる。したがって、次に下位のピラミッドレベルへマッチ候補が追跡される前に、その子ビューの二次元モデルは、マッチ候補の位置に応じて投影的に修正される。これは、これまでのビューベース認識アプローチでは適用されていない極めて重要なステップである。
マッチングの結果、所定の類似度を超える二次元マッチの画像における二次元位置姿勢が得られる。各マッチについて、対応する三次元オブジェクトの位置姿勢を、二次元マッチ位置姿勢とマッチに関連するモデルビューの三次元位置姿勢とに基づき算出することができる。取得した三次元位置姿勢の精度は、ビューのサンプリングおよび二次元マッチング中の二次元位置姿勢、すなわち、位置、回転、拡大縮小のサンプリングによって制限される。これは実用的な利用には十分でない。したがって、位置姿勢絞り込みステップが実用的な利用を可能にするために不可欠である。三次元位置姿勢の絞り込みは最小二乗調整を使用して行われる。これを行うために、マッチングにより取得した三次元位置姿勢を用いて、三次元オブジェクトがサーチ画像に投影される。投影モデルエッジは、適切なサンプリング距離を使用して個別のポイントに至るまでサンプリングされる。サンプリングされた各エッジポイントについて、その近隣で、それに対応する、サブピクセルレベルで正確な画像エッジポイントがサーチされる。すべての画像エッジポイントと投影モデルエッジとの間の距離の二乗を最小化することで、絞り込まれた三次元位置姿勢が得られる。
説明したアプローチはいくつかの拡張が可能である。例えば、カメラレンズが著しく歪んでいる場合、マッチングを適用する前にこの歪みは除去すべきである。これは、サーチ画像を修正することによって容易に行なうことができ、歪みのない画像が得られる。その後、修正した画像においてマッチングが実行される。
二つ目の拡張は、カメラ設定が強い投影歪み(射影歪み)を示す場合に適用することができる。焦点距離が短くなればなるほど、また、オブジェクトの奥行きが深くなればなるほど、画像において遠近法的歪みが強くなる。この場合、追跡中(上記参照)に施される投影の修正では十分ではない可能性がある。代わりに、最も高位のピラミッドレベル上ですでに投影歪みを考慮に入れなければならない。したがって、最高位のピラミッドレベルは、球マッピング(spherical mapping、球面マッピングとも言う。)を適用して変換される。球マッピングは、遠近法的歪みの影響を著しく低減するもので、これにより、オブジェクトが画像中心にない場合でも、該オブジェクトの類似度を高くすることができる。このため、最高位のピラミッドレベル上で用いられる二次元モデルにも、同一の球マッピングが施されなければならない。
オブジェクトが特徴的なテキスチャを示す場合、本発明は、この付加的な情報の恩恵を受けるよう容易に拡張することができる。本発明の好ましい実施形態において、ユーザは、三次元モデルの生成の後、オブジェクトのいくつかの画像例を提供する。第1のステップにおいて、三次元モデルが、この画像例におけるオブジェクトの三次元位置姿勢を測定するために用いられ、画像例からオブジェクトテキスチャを自動的に抽出する。第2のステップにおいて、三次元モデルは、二次元モデルにテキスチャ情報を追加することで補強される。
三次元モデルにおいて必要なビューの数を減らし、これにより、メモリの消費および三次元オブジェクト認識のランタイムを減らすために、欧州特許第1,193,642号に提示される類似度は、ビューの位置姿勢における細かい変更に対して許容範囲を広げることができる。これは、サーチ画像における類似度の算出に用いられる勾配方向を、エッジの両側へ拡張することで達成できる。
本発明は、付随する図面と共に以下の詳細な説明からさらに十分に理解できるであろう。
以下、本発明の個々のステップを詳細に説明する。最初は、高精度を得るための最初のステップである幾何学的カメラ較正である。その後、三次元オブジェクトをどのように表現するかについての情報を示す。次の項目で、サーチ画像内の三次元オブジェクトを見つけるために用いることができる三次元モデルの生成を説明する。以下の説明において、三次元モデル生成はオフライン段階として示される。そして、画像内のオブジェクトを認識するために使用できる方法を説明する。このステップは、以下の説明においてオンライン段階として示される。前記オフライン段階のステップは、図1のフローチャートにまとめられ、前記オンライン段階のステップは、図2のフローチャートにまとめられている。両方のフローチャートにおいて、不可欠なステップは実線によるボックスで示され、一方、選択的なステップは点線によるボックスで示されている。最後に、提示した方法を利用したロボットビジョンシステムを紹介する。以下の説明は、当業者が本発明を作成し使用できるように提示される。特定の適用についての説明は、単なる例として挙げられている。好ましい実施形態に対する様々な変形は、当業者ならば容易に分かるものであり、また、ここで定義する一般的な原理は、本発明の精神および範囲から逸脱することなく、他の実施形態および利用に適用することができる。このため、本発明は、示されている実施形態によって限定されるものではなく、ここで開示されている原理および特徴と一貫性がある最も広い範囲と一致するものである。
[幾何学的カメラ較正]
幾何学的カメラ較正(工程101)は、コンピュータ視覚、ロボット工学、写真測量法、および他の分野において、イメージから精密な三次元情報を抽出するための前提条件である。三次元カメラ較正を用いることについては2つの主な利点をあげることができる。第1に、カメラの内的パラメータが既知の場合、距離的三次元情報は画像からしか得ることができない。第2に、レンズの歪みは、画像測定を著しく誤ったものとすることがあるため、較正処理の際、明確にモデル化し、測定する必要がある。その結果、カメラ較正を行わないと、多くのアプリケーションにとって必要とされるオブジェクト認識アプローチの正確さは得ることができない。本発明の好ましい実施形態において、Lenz、1987年により紹介されたカメラモデルが用いられており、ここでは、径方向に歪みのあるピンホールカメラが想定されている(図3)。カメラの較正は、Lanser et al.、1995年において説明されているアプローチに従い行なわれる。ここでは、既知の位置に丸い印が付された平面の較正ターゲットの複数の画像が較正に用いられている(図3)。あるいは、その他のモデルまたは較正方法も、本発明の範囲から逸脱することなく本発明に容易に取り込むことができる。このことは、例えば、使用されているレンズが、径方向の成分しか用いず不十分にモデル化されたさらに複雑な歪みを示す場合に必要となるであろう。較正の結果、内的カメラパラメータ(f、κ、sx、sy、cx、cy)が得られ、ここでは、fが焦点距離であり、κが径方向の歪みを表示し、sxおよびsyがそれぞれ、xおよびy方向におけるセンサ上のセンサ要素同士の距離であり、(cx、cy)が、画像における主点の位置である。カメラ座標系において与えられる三次元ポイントPc=(x、y、z)から、画像座標系におけるピクセル座標P=(r、c)へのマッピングは、以下の3つのステップにより行なわれる(図3参照)。
1.カメラ座標系において与えられる三次元ポイントの像面への投影。
Figure 2009093611
2.径方向の歪みを適用する。
Figure 2009093611
ここでは、径方向の歪みがパラメータκで表わされる。κが負の場合、歪みは樽形であり、またκが正の場合、歪みは糸巻形である。レンズ歪みのこのモデルには、歪みの修正を分析的に算出するために、容易に反転することができるという利点がある。
Figure 2009093611
3.下記の(数4)で表される二次元画像ポイントを、下記の(数5)で表されるピクセル座標p=(r、c)へ変換する。
Figure 2009093611
Figure 2009093611
[三次元オブジェクト表象]
本発明は、任意の剛体三次元オブジェクトに対応することができる。一般的に、三次元オブジェクトは、CADモデルまたは同様の三次元記述により表現され、いくつかの利用可能なCADソフトツールの一つで生成することができる(工程102)。ほとんどのCADソフトツールは三次元記述をDXFファイル形式でエクスポートすることができるため、本発明の好ましい実施形態は、三次元オブジェクトのDXFファイルのインポートをサポートしている。あるいは、三次元の固体の形状を表すことができるその他の表象も同様に適している。オブジェクトは、平らな面の集合で表現されていると想定される。モデルが、円柱、球または任意の湾曲面などの曲面を含む場合、これらの面は、直線的なエッジで輪郭が描かれた十分な数の平らな面の集合によって近似されなければならない。多くの場合、平面近似はCADソフトの一部である。さもなければ、いくつかの利用可能な公知な標準的アプローチの一つ、例えば、Rypl、2003年において提示されているようなアプローチを、平らな面によって曲面を近似するために用いることができる。三角測量法の包括的概説が、BernおよびEppstein、1992年に示されている。
[三次元モデル生成]
三次元モデル生成の第1のステップ(工程104)において、三次元オブジェクトは、内的表象に変換されるが、この内的表象は、輪郭が閉多角形である平らな面の集合として、オブジェクトを表す。図4Aは、主に平らな面と円柱とからなるオブジェクト例を示す。後者はいくつかの平らな長方形で近似されている。また、4つの小さな円は多角形の面で近似されている。視覚化を行う目的で、図4Bは、同一のオブジェクトを、隠線を取り除いた状態で示している。
そして、内的に用いられるオブジェクト座標系を画定する(工程107)。本発明の好ましい実施形態において、座標系の中心は、三次元オブジェクトの中心、すなわち、オブジェクトの三次元バウンディングボックスの中心に移動される。別の実施形態において、オブジェクト座標系は、例えば、DXFファイルといった外的表象から採用される。さらに別の実施形態においては、ユーザが座標系の中心を特定する。オブジェクトの基準方位を特定するために、座標系の方位は、任意でユーザにより変更できる。基準方位は、サーチが行なわれる間、オブジェクトの平均方位を特定する。それは、三次元モデルが作成されサーチされる位置姿勢の範囲をユーザが特定するためのより便利な方法を容易にするように変更可能である。図5Aは、外的表象の原座標系を示し、図5Bは、これを原点に移動し、基準方位に回転させた後の座標系を示す。このため、原座標系中に与えられる三次元ポイントPextは、剛体三次元変換を適用することによって内的に用いられる基準座標系中に与えられるPintに変換することができ、これをPint=RPext+Tと記すことができる。ここで、Rは3×3の回転行列、Tは移動ベクトルである。ここより、すべての算出は内的基準座標系についてのものである。三次元オブジェクト認識の結果得られた三次元位置姿勢は、それらをユーザに返す前に元の原座標系に変換される。
そして、例えば、三次元CADモデルといったオブジェクトの三次元表象に基づいて三次元モデルの学習が行なわれる。これを行うために、ユーザが特定した位置姿勢の範囲内にオブジェクトの異なるビューが生成される。これらのビューは、仮想カメラを三次元オブジェクトの周囲に置き、各仮想カメラの像面にオブジェクトを投影することで自動的に生成される。本発明の好ましい実施形態において、オブジェクトは、球座標系を画定する球の中心にあると想定される。ビューを作成するために用いる仮想カメラは、これらがすべて座標系の原点に向くよう、すなわち、カメラのZ軸が原点を通過するよう、オブジェクトの回りに配置される。そして、位置姿勢の範囲は、原点の周りの所定の球面四辺形にビューを制限することによって特定される。これにより当然、球座標λ(緯度)、φ(経度)およびd(距離)を用いることになる。カメラは、学習中常に球座標系の中心に向けられるため、カメラのロール角ω(カメラのZ軸回りの回転)だけが、特定されなければならない自由度として残る。したがって、カメラの位置姿勢は4つのパラメータλ、φ、dおよびωで定義される。球座標系の定義は、赤道面(equatorial plane)がデカルト基準座標系のXZ面に対応し、Y軸がS極(負の緯度)を指し、負のZ軸が経帯子午線の方向を指すよう選択される。その結果、その座標系が内的基準座標系と同じ方位で、オブジェクトの基準座標系においてtだけ負のZ方向に移動させたカメラの球座標は、λ=0、φ=0、d=tおよびロール角ω=0(図6A参照)である。任意の位置姿勢および関連する球座標を備えたカメラが図6Bに視覚化されている。
位置姿勢の範囲は、ユーザが、球面パラメータの区間、およびカメラロール角の区間を特定することで測定される(工程103)。図7は一例を示しており、経度範囲は区間[(min、(max]で特定され、緯度範囲は区間[φmin、φmax]で特定され、距離範囲は区間[dmin、dmax]で特定され、カメラロール角の範囲は区間[ωmin、ωmax]で特定される。これらの値はアプリケーション、すなわち、オブジェクトに対して可能なカメラの相対的動作に大きく依存する。また、これらは認識時間にも大きな影響を及ぼす。区間が広く選択されると、オンライン段階中の認識が遅くなる。殆どの産業上の利用において、カメラとオブジェクトとの間の相対的な位置姿勢はそれほど変動しない。λおよびφの区間の一般的な値は[−45度、+45度]であり、ωは一般的に[−180度、+180度]に設定される。
カメラおよびオブジェクトの相対的動作を表す位置姿勢の範囲を測定する方法として、その他にもいくつか考えられる。これらの方法は、本発明の範囲を逸脱することなく、本発明に容易に取り込むことができる。例えば、別の一つの方法としては、カメラ位置のデカルト座標の限界を特定すること、すなわち、三次元空間において立方体を特定することによって、位置姿勢の範囲を特定することが可能である。さらに別の実施形態においては、代わりにカメラを固定の位置姿勢に保持し、オブジェクトの動きの限界を特定することで位置姿勢の範囲が表される。
位置姿勢の範囲内でのビューのサンプリングは、学習処理中に自動的に測定される。自動算出によるサンプリングの利点は、ユーザがサンプリング用にパラメータ値を特定しなくてもよく、オブジェクト認識のロバスト性および速度を最大限にできるようサンプリングを選択することができることである。認識速度をさらに上げるために、複数のピラミッドレベル上にモデルが作成される。画像ピラミッドは、画像処理作業の速度を上げるための一般的な方法である(例えば、Tanimoto、1981年参照)。画像ピラミッドは、原画像に対し平滑化操作およびサブサンプリング操作を連続して行い、累進的に小さな画像にすることにより算出される。画像ピラミッドを利用する二次元テンプレートマッチングシステムにおいて、一般的にサーチは粗い(高位の)ピラミッドレベルで開始され、この粗いレベルにおける類似度を有する見込みのある次の細かい(低位の)レベルの限定領域で続けられる。ピラミッドレベルが高くなると、ビューのサンプリングが粗くなるため、ビューの算出はピラミッドレベル毎に個別に行なわれる。
ビューのサンプリングが行なわれる間、カメラの位置だけがサンプリングされる。カメラロール角をサンプリングする必要はない。なぜなら、カメラロール角を変えても、ビューつまり透視図は変化せず、像面において二次元的回転が表現されるだけだからである。ビューのサンプリングは、最も低位のピラミッドレベル上でビューのオーバサンプリングを行うことにより開始される(工程108)。本発明の一実施形態において、オーバサンプリングは、ユーザが特定した位置姿勢の範囲内の、三次元空間において均等に配分されたカメラ位置を算出することで行われる。抽出の幅は、オブジェクトの大きさ、カメラパラメータおよびオンライン段階においてビューをマッチするために用いられる類似度の許容値に基づき、簡単な評価を行うことにより測定することができる。この評価が満たさなければならない唯一の条件は、必要最低限よりも多い初期ビューが生成されるということである。本発明の好ましい実施形態において、欧州特許第1,193,642号において提示される類似度が適用されている。類似度は、オクルージョン、クラッターおよび非線形コントラスト変化に対しロバストである。二次元モデルは、対応する勾配方向ベクトルを備えた複数のエッジポイントからなり、例えば、エッジ検出法といった標準的な画像前処理アルゴリズムにより得ることができる。類似度はエッジ勾配方向のドット積に基づく。あるいは、代わりにその他のエッジに基づく二次元マッチングアプローチを本発明に用いることも可能で、例えば、平均エッジ距離に基づくアプローチ(Borgefors、1988年)、ハウスドルフ距離に基づくアプローチ(Rucklidge、1997年)、または一般化ハフ変換に基づくアプローチ(Ballard、1981年またはUlrich et al.、2003年)がある。本発明の好ましい実施形態において、初期ビューは、空間において均等にサンプリングされない。なぜなら、カメラとオブジェクトとの距離が短い場合は、距離が長い場合よりも多くのビューが必要とされるからである。これを改良することにより、ビューの初期の数を抑えることができ、これに続いて行う余剰ビューを間引きする速度が上がる。初期ビューを取得するために、Munkelt、1996年が記載するアプローチを用いて、異なる半径についてガウス球の三角測量が行われる。半径が大きくなるにつれて、その半径に対するステップ幅も大きくなる。
ビューの間引き(工程109)は、近傍のビューすべての間で類似度を算出し、最も高い類似度のビューの対を選択し、両方のビューを一つのビューに統合し、新たなビューとその近傍のビューとの間で類似値を再度算出することで実行される。この処理は、最も高い類似値が現行のピラミッドレベルの所定の閾値を下回るまで繰り返される。一実施形態において、2つのビューの間の類似値の算出は、オブジェクトを各ビューの像面に投影し、オンライン段階で適用された類似度を用いて両方の投影の間で類似値を算出することにより行われる。別の実施形態において、オブジェクト投影は、完全な三次元オブジェクトの代わりに三次元境界ボックスを投影することだけで近似される。その後、類似度は、近似投影上でのみ実行される。このことにより、三次元モデル生成のランタイムが短縮される。さらに別の実施形態において、類似度も近似される。このことには、原類似値を用いる場合に必要である投影された境界ボックスの画像の生成が、この場合必要ないという利点がある。または、その他、投影や類似値算出の速度を上げるために役立つ近似もありうる。1つの好ましい実施形態においては、これらの近似は階層的に組み合わされる。最初に、最も高い類似値が所定の閾値以下になるまでビューの統合を行うよう、最も早い近似が用いられる。その後、二番目に早い近似を用いて、残りのビューの統合が続けられ、これがさらに続けられる。このアプローチは、一方で算出時間を短縮しつつ、もう一方では、近似をせずに統合を行う場合に得られるであろう結果と同様の結果を確実に得る。階層的なアプローチが機能するためには、ある近似に対して、その次に遅い近似や原類似度がそれぞれ、それよりも低くなることが確実でなければならない。
類似値が閾値を越えるオブジェクトビューの対が残らない場合、残りのビューは三次元モデルにコピーされる。上述したように、モデルは複数のピラミッドレベル上に作成される。これまで算出がされたビューは、最も低い(原)ピラミッドレベルに保存される。図8Aにおいて、最も低位のピラミッドレベル上のビューすべてについて、図7に示す位置姿勢の範囲に対して上記の方法を利用した場合に得られる、前記ビューに対応するカメラが視覚化されている。ここでは、底面が像面を、頂点が光学系中心を現す小さな四角錐によりカメラが視覚化されている。次に高位のピラミッドレベル上のビューを算出するために、類似制限を緩めながら統合が続けられる。この緩和は、以下の2つの方法で導入する必要がある。第1の方法の場合、原類似度が算出されると、すなわち、前記類似が投影されたオブジェクトからの画像に基づくのであれば、次に高位のピラミッドレベルを取得するために、画像の平滑化およびサブサンプリングが行われる。その後、サブサンプリングした画像について類似度が算出される。このことにより、類似制限は自動的に緩和される。なぜなら、解像度を下げることで、それより低い非類似値が排除されるためである。第2の方法の場合、類似度が分析的な算出により近似されるのであれば、ピラミッドレベルに応じて類似値を分析的に算出する間、位置の許容値を明確に増加させることでサブサンプリングを考慮に入れておく必要がある。類似値が閾値を越えるオブジェクトビューの対が残らない場合、残りのビューは三次元モデルの対応するレベルにコピーされる。図8B、図8Cおよび図8Dにおいて、第2、第3および第4のピラミッドレベルについて得られたビューがそれぞれ視覚化される。この例においては、第4ピラミッドレベル上には4つの異なるビューだけを用いれば十分である。
さらに、各ビューでは、すべての子ビューに対する参照が保存される。子ビューとは、現行のピラミッドレベル上のビューを得るために統合された次に下位のピラミッドレベル上のビューと、統合することができなかったビューとを足したものである。それに応じて、各子ビューでは、その親ビューに対する参照が保存される。子ビューに対する参照があるため、高位のピラミッドレベル上のある特定のビューを求めて、前記高位のピラミッドレベル上のビューを作成するために統合されたその直下のピラミッドレベル上のビューに問い合わせを行なうことができる。この情報はツリー構造で保存される(工程110)。図9は、ツリーの簡略化された一次元版である。ツリーにおける各ノードは一つのビューを表現している。同一ピラミッドレベル上のビューは、ツリー内で同一の階層レベル上に属する。ツリー構造であるため、各親ノードは一つまたは複数の子ノードに接続され、一方、各子ノードは一つの親ノードに接続される。さらに、各ビューの三次元位置姿勢は三次元モデル内に保存される。この処理は、ピラミッドレベルの最大数に達するまで繰り返される。最も高位のピラミッドレベル上のビューは親ビューを持たず、一方、最も低位のピラミッドレベル上のビューは子ビューを持たない。
ツリーが完全に生成された後、各ピラミッドレベルおよびこのレベル上の各ビューについて、欧州特許第1,193,642号で提示されるアプローチを用いて二次元モデルが作成される(工程111)。二次元モデルは、例えば、エッジ検出法といった、標準的な画像前処理アルゴリズムにより得ることができる、対応する勾配方向ベクトルを備えた複数のエッジポイントからなる。あるいは、代わりにその他のエッジに基づく二次元マッチングアプローチを本発明において用いることができる。これを行うために、現行のビューで表されるカメラ位置姿勢を用いて、像面にオブジェクトの三次元表象が投影される(工程112)。隠線は、適切な隠線アルゴリズム(例えば、PatersonおよびYao、1990年)を用いて除去される。投影は、3チャネル画像が得られるような方法で行われ、3チャネルは、三次元オブジェクトを成す面の法線ベクトルの三要素を表す(工程113)。このことは、このカラー画像において測定することができるエッジ振幅が、三次元オブジェクトの2つの近傍面の法線ベクトル間の三次元空間における角度に直接関係するという利点を有する。2つの近傍面の法線ベクトルが、N1=(X1、Y1、Z1)およびN2=(X2、Y2、Z2)であると仮定する。3チャネル画像を作成する場合、第1面は色(R1、G1、B1)=(X1、Y1、Z1)を用いた画像に描かれる一方、第2面は色(R2、G2、B2)=(X2、Y2、Z2)を用いた画像に描かれる。一般原則を失うことなく、さらに、2つの投影面が画像において縦方向のエッジをもたらすと仮定する。画像におけるエッジ振幅を2つの面の間のかわり目で算出する場合、3チャネルの各チャネルにおいて、行方向および列方向で第1の導関数が得られる。
Figure 2009093611
エッジは縦方向に延びるため、行方向における導関数はすべて0となる。カラー画像におけるエッジ振幅は、カラーテンソルCの固有値を算出することにより得ることができる(Di Zenzo、1986年)。
Figure 2009093611
上記の導関数を代入すると以下が得られる。
Figure 2009093611
エッジ振幅Aは、Cの最大固有値の平方根である。よって、
Figure 2009093611
となる。
このように、画像において算出されるエッジ振幅は、2つの法線ベクトルの差ベクトルの長さに対応する。2つの法線ベクトル(長さ1)は、二次元二等辺三角形の長さとなる(図10参照)。両方の法線ベクトル間の角度δも、三角形の面内にあるのだが、それは最終的に以下の式を用いてエッジ振幅から容易に導き出すことができる。
Figure 2009093611
投影モデルから取得したカラー画像はモデル画像となり、欧州特許第1,193,642号で提示されるアプローチのモデル生成ステップに送られ、カラーエッジ抽出により拡張される。あるいは、代わりにその他のエッジに基づく二次元マッチングアプローチを本発明に用いることも可能で、例えば、平均エッジ距離に基づくアプローチ(Borgefors、1988年)、ハウスドルフ距離に基づくアプローチ(Rucklidge、1997年)、または一般化ハフ変換に基づくアプローチ(Ballard、1981年またはUlrich et al.、2003年)がある。最初に、モデル画像においてエッジ振幅が算出される(Di Zenzo、1986年)。所定の閾値を超えるピクセルだけがモデルに含まれる。モデルの三次元描画には、オブジェクトの直接像では可視ではない多くのエッジが含まれていることが多い。例えば、このようなエッジは、湾曲面を十分な数の平らな面で近似するために用いられるCADソフトの三角測量法の結果生じる。このため、これらのエッジは二次元モデルに含まれてはならない。例えば、図4Bにおいて、円柱状の孔を近似する平らな面のエッジは削除されなければならない。上述の関係のため、ユーザは、最小面角δminに対して適切な閾値を送ることで、このようなエッジを削除することができる。その後、この最小角は、エッジ振幅に適用できる閾値Aminへと容易に変換することができる(工程114)。
Figure 2009093611
投影されたオブジェクトのシルエットは非常に重要な特徴であるため、どのような場合でも、これをアルゴリズムにより削除してはならない。このことは、あらゆる場合において、シルエットのエッジが閾値の基準を満たすよう、各画像チャネル(R、G、B)=(X+c、Y+c、Z+c)に対して十分な大きさの定数cを加えることで容易に確実となる。例えば、c=3と設定することでこれを達成できる。
図11Aは、一つのサンプルビューの3チャネルを示す。図11Bにおいて、δminを5度に、よって、Amin=0.087に設定した場合に生じるエッジが視覚化されている。円柱を近似する平らな面は8度間隔で方位付けされているため、垂直エッジが依然として可視である。δmin=15°(Amin=0.261)に設定した場合に生じるエッジが図11Cに示される。円柱のエッジはうまく削除されている。ほとんどのモデルについてはδmin=15°が有効である。したがって、δmin=15°は、本発明の実施にあたってデフォルト値として用いられる。3チャネルモデル画像が新しく生成されたことにより、単にエッジ振幅に対する閾値を送り、直接像では可視ではないオブジェクトエッジを排除することで、既存の二次元エッジに基づくマッチングアプローチを用いることが可能となる。このことは、これまでの認識アプローチにおいては適用されていない。
最終的に、二次元モデルは、関連する画像ピラミッドレベル上の3チャネル画像から生成される(詳細は、欧州特許第1,193,642号およびDi Zenzo、1986年参照)。最後の工程において、作成した二次元モデルが、画像内のクラッターからモデルを区別するために必要とされる顕著な特徴を十分に示しているかどうかが確認される(工程116)。本発明の好ましい実施形態において、この検証は、Ulrich、2003年で提案されるアプローチを用い、現行のピラミッドレベル上で得られたエッジを、原レベル上のエッジと比較して行われる。この検証が失敗した場合、このビューの二次元モデルおよびピラミッドレベルは廃棄される。図12は、各ピラミッドレベルについて、オンライン段階においてマッチングを行うために用いられるいくつかの二次元モデル例のエッジを示す。視覚化の目的で、より高位のピラミッドレベル上の二次元モデルは原解像度に調整されている。
三次元モデルは、いくつかあるピラミッドレベル上の複数の二次元モデルからなる。各二次元モデルについて、対応する三次元位置姿勢が保存される。なお、近傍のピラミッドレベル上の二次元モデルは、上述の親子関係によりツリー形式で結びつけられる。
[オブジェクト認識]
オンライン段階では、単眼カメラ画像において三次元オブジェクトを認識するために、また、カメラ座標系に対するオブジェクトの三次元位置姿勢を測定するために、前記作成された三次元モデルが使用される。まず、入力画像から画像ピラミッドが作られる(工程203)。前記認識は、少なくとも一つの有効な二次元モデルが得られる最高位のピラミッドレベルから開始される(工程205)。ビューの二次元モデルと現行の画像ピラミッドレベルの二次元モデルとの類似度を計測することによって、このピラミッドレベルの二次元モデルすべてがサーチされる。このためには、前記二次元モデルが必要な範囲で回転され拡大縮小されて、前記拡大縮小および回転された二次元モデルの、画像における各位置で、類似度が算出される。欧州特許第1,193,642号に記載された類似度が適用される。人工画像から二次元モデルが生成されたので、投影されたエッジの極性はわからず、それらの方向のみがわかる。従って、欧州特許第1,193,642号に記載された類似度からは、勾配の局所的な極性を無視するバリアント(variant)が選択される。あるいは代わりに、他のエッジベースの二次元マッチングアプローチを本発明に用いてもよく、例えば、平均エッジ距離に基づくアプローチ(Borgefors、1988年)、ハウスドルフ距離に基づくアプローチ(Rucklidge、1997年)、または一般化ハフ変換に基づくアプローチ(Ballard、1981年またはUlrich et al.、2003年)がある。所定の類似閾値を超えたマッチの二次元位置姿勢(位置、回転、拡大縮小)は、マッチ候補の一覧に保存される。次の下位のピラミッドレベル上で、ツリー内に親ノードを持たない二次元モデルがすべて、最も高位のピラミッドレベル上のビューで行った方法と同じ方法でサーチされる。さらに、前のピラミッドレベル上で見つかったマッチ候補は絞り込まれる。この絞り込みは、ツリーにおける子ビューをすべて選択し、これらの子ビューの二次元モデルと現行の画像ピラミッドレベルの二次元モデルとの間の類似度を算出して行われる。しかしながら、親ビューのマッチに応じて、非常に制限されたパラメータ範囲内だけで類似度を算出することでも十分である。欧州特許第1,193,642号に記載されているように、このことは、精査すべき位置、回転および拡大縮小の範囲が、親マッチの近傍に限定できることを意味する。この処理は、最も下位のピラミッドレベルまですべてのマッチ候補が追跡されるまで繰り返される(工程206)。ピラミッドアプローチとツリー構造に配列される階層的モデルビューとの組み合わせは、リアルタイムアプリケーションにとって重要であり、これまでの認識アプローチには適用されたことが無い。
残念ながら、上述の追跡は、カメラがオブジェクトの中心に向けられておらず、よってオブジェクトが画像の中心に現れない場合は不可能である。学習中に作成された二次元モデルは、オブジェクト中心に向けられるカメラを想定して作成されていることから、画像における二次元モデルおよび投影モデルは二次元投影変換によって関連付けられる。一例が図13に示されている。図13Aは、カメラがオブジェクトの中心に向けられている場合のビューを示す。3次元モデル生成中に、このビューから二次元モデルが作成される。サーチの間、オブジェクトは、図13Bまたは図13Cに示されるような、任意の画像位置に現れるかもしれない。像面におけるこの見かけの移動は、実際においてはカメラの光心を中心とした回転に対応する。カメラをその光心を中心として回転させると、その結果得られる画像は投影変換によって関連付けられ、これはホモグラフィ(homography)と呼ばれる(例えばHartleyおよびZisserman、2000年参照)。その結果、図13Aの二次元モデルを図13Bまたは図13Cの画像においてサーチすると、前記画像はホモグラフィによって関連付けられるのに二次元マッチング中は類似変換、すなわち移動、回転、縮小拡大のみが考慮されるため、前記モデルは見つからないであろう。マッチング中にホモグラフィの8自由度すべてを考慮すると、そのサーチはリアルタイムアプリケーション用には時間がかかりすぎる。したがって、本発明の好適な実施形態において、二次元モデルはマッチングを行う前の投影変換によって変換される。もし画像におけるオブジェクトの位置がわかっていれば、この変換のパラメータが算出できる。したがって、マッチ候補が次の下位のピラミッドレベルまで追跡される以前に、その子ビューの二次元モデルがマッチ候補の位置に応じて投影的に修正される(工程207)。これは、これまでのビューベース認識アプローチでは適用されていない極めて重要なステップである。三次元モデル生成中と同様にモデル中心に向けられたカメラの像面三次元モデルを投影することによって生成された二次元モデルポイントをxとする。さらに、カメラの内的な方位を維持するカメラ較正行列をKとする:
Figure 2009093611
ここで、f’はピクセルにおけるカメラの焦点距離、aはピクセルのアスペクト比、(cx、cy)はピクセルにおけるカメラの主点である。さらに、カメラの方位は、回転行列Rによって表されている。そして、(非同次(inhomogeneous))三次元世界点Xの、(同次(homogeneous))二次元像点xへの投影は、変換x=KRXによって表すことができる。一般原則を失うことなく、モデル生成中に回転行列Rを恒等行列に設定することができるので、x=KXとなる。もしカメラがその光心を中心としてRだけ回転すると、前記世界点は、回転したカメラの像において新たな点x’=KRXにマッピングされる。これらの結果から、xをx’にマッピングする前記変換は以下のように算出できる。
Figure 2009093611
ここで、KRK−1は3×3の同次変換行列であり、したがってホモグラフィHを表す。
したがって、二次元モデルポイントを画像における投影モデルの(同次)位置p=(c、r、l)に応じて変換したい場合、KとRを知らなければならない。較正行列Kは前記のカメラ較正プロセスから得られる。カメラの回転行列は、下記の方法で画像における投影モデルの位置から算出できる。まず、問題を明確に規定するために、z軸を中心にカメラが回転してはならないという制約を導入しなければならない。その上で、カメラのx軸およびy軸を中心としたその他の回転をpから求めることができる。まずpが、P=(Px、Py、Pz)=K−1pによって三次元空間における方向Pに変換される。その後、カメラのx軸およびy軸を中心とした回転角αおよびβがそれぞれ下記の数式によって算出できる。
Figure 2009093611
このように、回転行列Rは、下記Ry(β)、Rx(α)から、R=Ry(β)Rx(α)として求められる。
Figure 2009093611
さて、追跡中にマッチ候補の像位置に応じて子ビューの二次元モデルを投影的に修正することができる。モデルポイントはホモグラフィHを使用して変換される一方、欧州特許第1,193,642号で類似度に使用される勾配方向は、転置された、逆の、H−Tを使用して変換される。前記マッチングは投影的に修正されたモデルに対して行われる(工程208)。
画像におけるオブジェクトの位置に関する情報が得られるピラミッドでのマッチの追跡中に、前記の方法が機能する。一方で、最高位のピラミッドレベルでは、それより前の情報が無いため、網羅的なサーチを行わなければならない。このように、全画像位置においてマッチングが行われる。ただし、現行の画像位置に依存してモデルを変換することはコストがかかりすぎるであろう。幸い最高位のレベルでは通常、画像ピラミッドに付随するサブサンプリングのおかげで投影歪みは非常に小さい。したがって、ほとんどの場合、投影歪みは単に無視することができる。ただし、かかる歪みは、たとえば少ない数のピラミッドレベルのみが使用できる場合やカメラまでの距離に対するオブジェクトの奥行きが大きい場合などでは、最高位のピラミッドレベル上でも歪みを考慮しなければならないことがある。これらの場合への対処は、本発明の好適な実施形態においては、最高位のピラミッドレベル上にマッチングを適用する前に、球の表面上に平面の二次元モデルをマッピングし(工程117)かつ画像をマッピングする(工程202)ことによって行う。この利点は、カメラをその光心を中心として回転させる時に投影図が変化しないことである。残念ながら、歪みを導入することなく球面から平面にマッピングすることはありえない。しかし、一般的にこれらの歪みは投影歪みよりも小さい。したがって、最高位のピラミッドレベル上の歪みの度合いを低減し、それによりマッチングのロバスト性を上げるために、球マッピングが使用できる。一つの実施形態では、下記の工程を適用することにより球マッピングが行える。まず、再度、三次元空間においてP=(Px、Py、Pz)=K−1pにより、ピクセルpが方向Pに変換される。球マッピングが下記を適用することによって行われる。
Figure 2009093611
最後に、マッピングされた結果の三次元方向がピクセル座標に変換される。すなわちp’=KP’である。本発明の別の実施形態では、等方性球マッピングがかわりに適用される。まず、像面のポイントが極座標に変換される。
Figure 2009093611
その後、半径に対してのみ球マッピングが適用される。
Figure 2009093611
そして、前記ポイントがデカルト座標に変換される。
Figure 2009093611
または、前記2つの方法のかわりに、投影歪みを低減できる、別の同様のマッピングを、本発明の範囲から逸脱することなく適用してもよい。
球マッピングは、サーチ画像の画像ピラミッドの最高位レベルと、二次元モデルポイントとに適用される。サーチ画像の球マッピングの速度を上げるために、三次元モデルの生成中にオフラインでマッピングが算出される(工程105)。マッピングされた画像の各ピクセルについて、原画像のピクセル座標と双一次補間のための重みとが三次元モデル内に保存される。画像ピラミッドの最高位レベルを効率よくマッピングするためにオンライン段階でこの情報が使用される。(球面)最高位ピラミッドレベル上に見出される各マッチの位置が、それぞれの逆変換を使用して、球面投影から原画像へ変換される。ピラミッドの中の追跡は、前記の原(非球面)画像において行われる。
マッチングの結果、所定の類似度を超えた画像中の二次元マッチの二次元位置姿勢(位置、回転、拡大縮小)が得られる。各マッチについて、当該マッチに関連付けられているモデルビューの二次元マッチング位置姿勢と三次元位置姿勢に基づいて、前記マッチに対応する三次元オブジェクト位置姿勢が算出できる(工程209)。前記モデルビューの三次元位置姿勢が、同次4×4行列HVで表され、この行列がモデル基準座標系からカメラ座標系へのポイントの変換をおこなうものとする。さらに、二次元マッチング位置姿勢は、p=(r、c、l)(行および列方向の位置)、γ(回転)、およびs(拡大縮小)により求められる。その後、行列HVは、二次元マッチング位置姿勢を反映するように変更されなければならない。まず、二次元の拡大縮小が適用され、これはオブジェクトとカメラとの間の距離の逆スケール(拡大縮小)関数(inverse scaling)と理解される。
Figure 2009093611
そして、二次元回転が適用され、これはz軸を中心としたカメラの三次元回転と理解される。
Figure 2009093611
最後に、前記位置が、x軸とy軸とを中心としたカメラの三次元回転と理解される。2つの回転角は前記位置を三次元空間における方向Pに変換することにより算出できる。
Figure 2009093611
そして、x軸、y軸を中心とした回転角α、βはそれぞれ、
Figure 2009093611
となる。
これは、最終的な同次変換行列HV,s,γ,pとなり、これはカメラ座標系に対するオブジェクトの三次元位置姿勢を表している。
Figure 2009093611
得られた三次元位置姿勢の精度は、ビューのサンプリングと二次元マッチング中の二次元位置姿勢すなわち位置、回転、拡大縮小のサンプリングによって制限される。実際の適用においては、これは十分ではない。三次元位置姿勢絞り込みは最小二乗調整を使用して行われる。したがって、実際の適用を可能にするためには、位置姿勢絞込み工程(工程210)が不可欠である。これを行うために、マッチングから得られた前記三次元位置姿勢HV,s,γ,pを使用して三次元オブジェクトを投影しサーチ画像にする(工程211)。投影中、現行の位置姿勢では可視ではない線を抑制するために、隠線アルゴリズムが使用される。さらに、オブジェクトのエッジで、2つの隣接したオブジェクト面間の角度が所定の閾値を越えないようなエッジを表す線は、抑制される。この閾値は、オフライン段階での3チャネル画像におけるエッジ抽出の閾値を導き出すために使用された最小面角度と意味的に同じであるので、同じ値に設定される。投影モデルの可視エッジは適切なサンプリング距離、たとえば1ピクセルを使用してサンプリングされ、離散ポイントになる。サンプリングされた各エッジポイントについて、その近隣で、それに対応する、サブピクセルレベルで正確な画像エッジポイントを見つけるために、局所的なサーチが開始される(工程212)。前記サーチは投影されたモデルエッジに垂直な方向に制限される。さらに、見つかった候補対応の各々について、前記投影モデルエッジの垂線と画像勾配との間の角差が算出される。角差が閾値未満の対応のみが、有効対応として承認される。最後に、Levenberg−Marquardt(例えばPress et al.、1992年参照)など、ロバストな反復非線形最適化アルゴリズムを使用することにより、絞り込まれた三次元位置姿勢が得られる(工程213)。前記最適化中に、画像エッジポイントからその対応する投影モデルエッジまでの距離の二乗がそれぞれ、6つの位置姿勢パラメータ(3つの移動パラメータおよび3つの回転パラメータ)について正比例して最小化される。さらに、最適化中に角差に応じて距離が重み付けされる。誤差関数と偏導関数とを含む最小化プロセスは、Lanser,1998年に詳細に述べられている。最小化後、絞り込まれた位置姿勢パラメータが得られる。絞り込まれた位置姿勢パラメータから新たな対応が現れうるため、最適化アルゴリズムは外部反復に組み込まれている。したがって、本発明の一実施形態においては、各反復過程後に、位置姿勢の絞り込みのために陰線アルゴリズムを使用してモデルが再投影され、対応が再算出される。残念ながら陰線算出は膨大な算出時間を必要とし、特に多数のエッジから成る複合三次元モデルを使用する時など、リアルタイム算出には時間がかかりすぎる場合がある。したがって、本発明の好適な実施形態では、各反復過程において陰線アルゴリズムを適用することなく再投影を行う。ただし陰線アルゴリズムは最初の反復過程においてのみ適用する。最初の反復過程での陰線アルゴリズムの結果から、各投影モデルエッジの可視部分の2つの端点が、画像中に得られる。各端点と、光心とから、三次元における視線が画定される。二本の視線が三次元モデルエッジと交わる。この2つの交点によって、三次元モデルエッジの、初期位置姿勢で可視である部分が画定される。その後の反復過程で、完全な三次元モデルエッジではなく、最初の反復過程で可視であった部分のみが投影される。陰線アルゴリズムを適用する必要がないので、これによって位置姿勢絞込みが大幅に加速される。しかしその一方で、この単純化により起こるエラーによって、得られる精度が僅かではあるが悪化する場合が多い。
カメラレンズが大きな歪みを有するなら、マッチングを適用する前にその歪みが取り除かれるべきである。これはサーチ画像を修正することによって簡単に行え(工程201)、歪みの無い画像が得られる。サーチ画像の修正の速度をために、球マッピングの算出と同様に、三次元モデルの生成中にマッピングがオフラインで算出される(工程106)。まず、径方向の歪みを示さない、すなわちκ=0である、新たな(仮想の)カメラのパラメータが算出される。その後、修正された画像の各ピクセルについて、原画像のパラメータと仮想カメラのパラメータを使用して、原画像のピクセル座標が算出できる。前記ピクセル座標と双一次補間のための重みとが三次元モデル内に保存される。画像ピラミッドを算出する前にサーチ画像を効率的にマッピングするために、この情報がオンライン段階で使用される。三次元モデル生成中、原カメラのパラメータのかわりに、仮想カメラのパラメータが使用される。本発明の好適な実施形態において、両方のマッピング(球マッピングおよびレンズ歪みの修正)が組み合わされて単一のマップとなり、これによってオンライン段階の算出時間が低減される。
オブジェクトが特徴的なテキスチャを示す場合、本発明はこの付加的な情報から恩恵を受けることができる。本発明の好適な実施形態では、三次元モデルの生成後、ユーザがオブジェクトのいくつかの画像例を提供する。第一の工程で、前記画像例中のオブジェクトの三次元位置姿勢を測定するために三次元モデルが使用される。その後、測定された三次元位置姿勢を使用して、前記三次元モデルの各面が画像例に投影される。投影されたモデル面下で画像例に存在するテキスチャ情報は、三次元面上にその面の三次元位置姿勢に基づいて前記画像例のその部分を修正することによって、テキスチャ情報による前記モデル面の補強を行うために使用される。この工程は全ての面について、かつ全ての画像例について、繰り返される。前記の面が複数の画像例で可視であれば、この面に最も適した画像例が選択される。本発明の好適な実施形態においては、前記面が最も小さい投影歪みを示す画像例が選択される。別の実施形態においては、面内の抽出されたエッジが最も高いコントラストを示す画像例が選択される。最後に、二次元モデルのテキスチャ情報を追加することにより、三次元モデルが補強される(工程115)。その結果、三次元モデル内の各ビューは、(極性情報を含まない)幾何学的情報から生じるエッジと、(極性情報を含む/含まない)テキスチャ情報から生じるエッジとを含む二次元モデルを含む。本発明の別の実施形態においては、幾何学情報は完全に省略され、二次元モデルはテキスチャ情報を含むのみである。後者はたとえば、三次元モデルエッジが、選択された照度やオブジェクトの材質のせいで画像中に二次元エッジを生じさせることが無いのであれば、有効である。
サーチ画像の勾配方向情報を拡大することによって、認識の速度をさらに上げることができる(工程204)。欧州特許第1,193,642号の類似度は、モデルの正規化勾配を、サーチ画像の正規化勾配とを比較したものである。これは許可された変換の種類(例えば剛体変換)に応じてモデルエッジとその勾配ベクトルとを変換することにより行われ、変換された各モデルエッジポイントの勾配ベクトルは、サーチ画像の基礎となっている勾配ベクトルと比較される。実際の画像において、この測定は勾配の両方向において約1ピクセル分というエッジポイントの小さな変位に対してロバストである。なぜなら、この近隣の勾配方向は僅かにしか変化しないからである。このように、類似度の許容度は約1ピクセルである。三次元モデル内の二次元モデルの数は、この許容値に大きく依存する。2つの隣接したビューの間の差は、第1のビューに対する第2のビューの投影における抽出されたモデルエッジの小さな変位として解釈できる。もし変位が許容値よりも小さければ、適用された類似度の点では前記2つのビューは同等であるので、これらビューは統合されて一つのビューにできる。したがって、もし許容度を増加できる方法があれば、ビューの数が削減でき、よってオンライン段階での算出時間が低減できるであろう。相対的に移動可能であるいくつかの剛体成分にオブジェクトを分解することによってかかる変位をシミュレーションするアプローチ(米国特許第7,239,929号)はこの場合使用できない。なぜなら、必要な成分の数が大きすぎると算出時間が長くなるからである。本発明の好適な実施形態においては、勾配方向情報を拡大するためにサーチ画像における勾配に最大値フィルタの一種を適用する。このプロセスは図14に示されている。図14Aでは、サブピクセルレベルで精密な白い曲線の輪郭を画像中に描いて作成した人工サーチ画像例の拡大部分が示されている。ピクセル格子は白い縦横の線で可視化されている。エッジフィルタリング後に得られた前記画像の勾配ベクトルが図14Bに示されている。ベクトルの長さはエッジ振幅に比例している。勾配方向を拡大するために、3×3のサイズの最大値フィルタを画像中で移動させる。各位置で、フィルタの中心の勾配ベクトルが、フィルタ内の最大振幅を有する勾配ベクトルと置換される。例えば、図14Cにおいては、フィルタの位置が3×3の太線の正方形によって示されている。最大振幅を有する勾配は、フィルタマスク内の右下の角にある。その結果、フィルタマスクの中心のピクセルには右下角の勾配ベクトルが割り当てられる(図14D参照)。前記フィルタを画像全体に適用した最終結果が図14Eに示されている。両方向のエッジから始まって、エッジ方向が1ピクセル分伝播されたことがわかるであろう。その結果、拡大勾配画像を使用するときに、約2ピクセル分の小さな変位に対して類似度がロバストとなる。より大きなフィルタマスクを適用することによって、または小さなフィルタマスクを連続的に数回適用することによって、より大きな許容度を得ることができる。残念ながらフィルタマスクのサイズは任意の大きさに選択することはできない。さもないと、曲線エッジの近傍における誤差や、いくつかの近接したエッジを有する微細構造の近傍における誤差などが導入されてしまい、その結果マッチングのロバスト性が低下するであろう。本発明の好適な実施形態では、3×3フィルタマスクが使用される。速度とロバスト性のバランスが良好となるからである。
本発明は、単眼カメラ画像における三次元オブジェクト認識のためのシステムおよび方法、およびカメラ座標系に対するオブジェクトの三次元位置姿勢の測定のためのシステムおよび方法を提供する。ピラミッドアプローチとツリー構造に配列される階層的モデルビューとの、新規性を有する組み合わせは、リアルタイムアプリケーションにとって重要であり、これまでの認識アプローチには適用されたことが無い。新規性を有する3チャネルモデル画像生成は、エッジ振幅の閾値を越えるだけで実像では不可視のオブジェクトエッジを削除することにより、既存のエッジベースの二次元マッチングアプローチの使用を可能にする。これも、これまでの認識アプローチには適用されたことが無い。新規性を有する、トラッキング中の二次元モデルの投影変換は、認識アプローチのロバスト性の向上にとって重要である。これもまた、これまでの認識アプローチにおいて適用されたことが無い。最後に、その後の三次元位置姿勢の絞り込みを適用することにより高精度が得られる。絞込みのための最初の三次元位置姿勢は、二次元マッチング位置姿勢と、対応するビューの三次元位置姿勢とを組み合わせることによって得られる。径方向の歪みを効果的に除去するために使用できる別の方法が提供されている。さらに、最高位のピラミッドレベル上で、二次元マッチングのロバスト性を低減しかねないこともある投影歪みを除去するために、モデルと画像とを効果的にマッピングして球面投影を得る別の方法が提供されている。新規性を有する、マッチングに使用される勾配情報の拡大は、マッチされなければならないビューの数を削減できるので、高速認識に重要である。
[ロボットビジョンシステムの実施例]
図15において、基本的なロボットビジョンシステム例が図示されている。このシステムは、本発明で提示された方法を組み込んでいる。三次元オブジェクト認識の代表的な利用分野がロボットビジョンである。前記システムは、画像を獲得するための画像獲得装置1と、画像を分析するための画像プロセッサ2と、三次元モデルデータを含む記憶装置3と、ロボット4とを含む。前記画像プロセッサは、例えば適切にプログラムされたコンピュータなど、ハードウェアとソフトウェアとの適当な組み合わせとして設けられてもよい。前記ロボットはたとえば、オブジェクトを取り扱うグリッパまたはグラスパ5を備えている。かかるシステムは、ロボットの「手」が機械的な「目」によって導かれるので「ハンド・アイシステム」とも呼ばれている。オブジェクト認識アプローチの結果を使用するために、オブジェクトの三次元位置姿勢がロボットの座標系に変換されなければならない。このように、カメラ較正に加え、ハンド・アイシステムの較正、すなわちカメラ座標とロボット座標との変換を判定しなければならない。その上で、例えばオブジェクト6を把持せよ、などの、適切なロボット指令の作成が可能になる。一般的に、かかるシステムの実現の可能性には2つの形式があるだろう。第1の可能性は、カメラがロボットに接続され、よってロボットが動くとカメラも動くものである(図15A)。第2の可能性は、カメラが世界座標系に対して固定されるものである(図15B)。どちらの場合も、カメラに対するグリッパの相対的位置姿勢は「ハンド・アイ較正」の標準的な方法を使用することによって測定できる。その結果、実際には、オブジェクト認識は下記のように実施される。
オフライン段階では、下記の工程が行われる。A.1.カメラの内的方位を較正する(もし工程A.2.にて同時に行われない場合)。A.2.ロボットの「ハンド・アイ」較正を行う。A.3.見つけるべき三次元オブジェクトの三次元記述を提供する。A.4.オンライン段階でオブジェクトが見つけられるべきパラメータ範囲を特定する。A.5.前記特定された位置姿勢範囲中の三次元オブジェクト記述から三次元モデルを生成し、記憶装置に三次元モデルを記憶する。
オンライン段階では、下記の工程が行われる。B.1.画像獲得装置でオブジェクトの画像を獲得する。B.2.カメラ座標系に対するオブジェクトの三次元位置姿勢を測定するために記憶装置に記憶された三次元モデルを使用して三次元オブジェクト認識を行う。B.3.ロボット座標系におけるオブジェクトの三次元位置姿勢を得るために、カメラに対するオブジェクトの三次元位置姿勢とロボットの位置姿勢とを連結する。B.4.例えばオブジェクトを把持せよ、などの、適切なロボット指令を作成する。
本発明のいくつかの特定の実施形態を詳細に記載したが、好適な実施形態には、本発明の精神と範囲から逸脱することなく様々な変更が可能である。したがって、前記記載は、以下のクレームに指摘されたもの以外は本発明を制限するものではない。
図1は、オフライン段階、すなわち、三次元モデル生成のフローチャートである。 図2は、オンライン段階、すなわち、画像における三次元オブジェクトの認識および前記オブジェクトの三次元位置姿勢の測定のフローチャートである。 図3は、幾何学的カメラ較正中に用いられるカメラモデルの図である。 図4Aは、主に平らな表面および円柱からなる三次元オブジェクトの一例を示す。 図4Bは、隠線を取り除いて視覚化した図4Aの三次元オブジェクトを示す。 図5Aは、外的三次元オブジェクト表象の原座標系を、例えばDXFファイルで定義されるように示す。 図5Bは、原座標系を原点に移動して基準方向に回転させることで得られる、内的に用いられる基準座標系を示す。 図6Aは、基準位置姿勢を視覚化したものである。 図6Bは、位置姿勢の範囲を説明するために用いられる球座標系を視覚化したものである。 図7は、位置姿勢の範囲の一例を視覚化したものである。 図8Aは、ピラミッドレベル1上のビューを視覚化したものである。 図8Bは、ピラミッドレベル2上のビューを視覚化したものである。 図8Cは、ピラミッドレベル3上のビューを視覚化したものである。 図8Dは、ピラミッドレベル4上のビューを視覚化したものである。 図9は、4つのピラミッドレベルを備えたビューツリーの概略図である。 図10は、2つの近傍オブジェクト面の法線ベクトルの差角と、3チャネル画像における対応するエッジ振幅との関係を示す図である。 図11Aは、三次元オブジェクトの一つのサンプルビューの3チャネルを示す。 図11Bは、図11Aに示す3チャネル画像のエッジ振幅に、間違った閾値を適用した場合に得られるエッジを示す。 図11Cは、図11Aに示す3チャネル画像のエッジ振幅に、正しい閾値を適用した場合に得られるエッジを示す。 図12は、4つのピラミッドレベルそれぞれについて、2つの二次元モデル例のエッジを示す。 図13Aは、カメラがオブジェクトの中心に向けられた場合のオブジェクトビューを示す。 図13Bは、図13Aのカメラを、その光心を中心に右下へ回転させた場合に得られるオブジェクトビューを示す。 図13Cは、図13Aのカメラを、その光心を中心に左上へ回転させた場合に得られるオブジェクトビューを示す。 図14Aは、サブピクセルレベルで精密な白い曲線の輪郭を黒い像の中に描いて得た人工画像の拡大部分を視覚化したものである。 図14Bは、エッジフィルタを適用した後に得た勾配ベクトルを視覚化したものである。 図14Cは、勾配ベクトルを適用し、最大振幅の勾配ベクトルを選択することで勾配情報を近傍のピクセルに拡大するために用いることができる3×3フィルタマスクを視覚化したものである。 図14Dは、前記フィルタマスクを、図14Cにおいて視覚化された位置で適用した場合に得られる結果を視覚化したものである。 図14Eは、前記フィルタマスクを画像全体に適用した場合に得られる結果を視覚化したものである。 図15Aは、本発明において提示された、移動カメラを用いた方法を組み込んだ基本的なロボットビジョンシステムの一例の図である。 図15Bは、本発明において提示された、固定カメラを用いた方法を組み込んだ基本的なロボットビジョンシステムの一例の図である。
符号の説明
P ピクセル座標
f 焦点距離
x x方向におけるセンサ上のセンサ要素同士の距離
y y方向におけるセンサ上のセンサ要素同士の距離
(cx、cyT 画像における主点の位置
λ 緯度
φ 経度
d 距離
ω カメラのロール角
A エッジ振幅
N 面の法線ベクトル
δ 法線ベクトル間の角度
1 画像獲得装置
2 画像プロセッサ
3 記憶装置
4 ロボット
5 グリッパまたはグラスパ
6 オブジェクト

Claims (45)

  1. 三次元オブジェクト認識のための三次元モデルを構築する方法であって、
    (a)カメラの内的パラメータを提供するステップと、
    (b)三次元オブジェクトの幾何学的表象を提供するステップと、
    (c)三次元オブジェクトがカメラから可視であるような位置姿勢の範囲を提供するステップと、
    (d)異なる画像解像度について前記位置姿勢の範囲をサンプリングすることによって、前記三次元オブジェクトの仮想ビューを作成するステップと、
    (e) 同一の画像解像度に対応するビューが前記ツリーにおいて同一の階層レベルに属するように、すべてのビューをツリー構造により表現するステップと、
    (f)各画像について、適切な二次元マッチングアプローチを用いることにより、画像における二次元ビューを見つけるために使用可能な二次元モデルを作成するステップとを含む方法。
  2. 幾何学的カメラ較正を行うことによって、前記ステップ(a)における前記カメラの内的パラメータを得る、請求項1に記載の方法。
  3. 前記ステップ(b)の幾何学的表象は、コンピュータ支援設計(CAD)モデルである、請求項1または2に記載の方法。
  4. 前記三次元CADモデルは、DXFファイルによって表される、請求項3に記載の方法。
  5. 前記ステップ(c)の位置姿勢範囲の提供は、固定されたオブジェクト座標系における前記カメラの位置姿勢範囲の提供であって、
    (c1)前記三次元オブジェクト表象を基準オブジェクト座標系に変換するステップと、
    (c2)前記基準オブジェクト座標系において球座標の緯度、経度、距離の区間を提供することによって、カメラの位置を提供するステップと、
    (c3)前記カメラ座標系のZ軸が前記基準オブジェクト座標系の原点を通り、前記カメラ座標系のX軸が予め定められた平面に平行となるように、前記カメラを回転させるステップと、
    (c4)前記カメラロール角度の区間を提供することによって前記カメラの方位を提供するステップとを含む、請求項1〜4のいずれかに記載の方法。
  6. 前記ステップ(c3)において、前記予め定められた平面は、前記基準オブジェクト座標系の赤道面である、請求項5に記載の方法。
  7. 前記ステップ(c)の位置姿勢範囲の提供は、固定されたオブジェクト座標系における前記カメラの位置姿勢範囲の提供であって、
    (c1)前記三次元オブジェクト表象を基準オブジェクト座標系に変換するステップと、
    (c2)前記基準オブジェクト座標系においてX座標、Y座標、Z座標の区間を提供することによって、カメラの位置を提供するステップと、
    (c3)前記カメラ座標系のZ軸が前記基準オブジェクト座標系の原点を通り、前記カメラ座標系のX軸が予め定められた平面に平行となるように、前記カメラを回転させるステップと、
    (c4)前記カメラロール角度の区間を提供することによって前記カメラの方位を提供するステップとを含む、請求項1〜4のいずれかに記載の方法。
  8. 前記ステップ(c3)において、前記予め定められた平面は、前記基準オブジェクト座標系のX軸およびZ軸上に延びる平面である、請求項7に記載の方法。
  9. 前記ステップ(c4)において、前記カメラロール角度は、前記カメラのZ軸を中心とした回転である、請求項5〜8のいずれかに記載の方法。
  10. 前記ステップ(c)の位置姿勢範囲の提供は、固定されたカメラ座標系内での前記オブジェクトの位置姿勢範囲の提供である、請求項1〜4および7のいずれかに記載の方法。
  11. 前記ステップ(c1)における前記基準オブジェクト座標系は、幾何学的表象によって画定されたオブジェクト座標系と同じである、請求項5または7に記載の方法。
  12. 前記ステップ(c1)における基準オブジェクト座標系は、三次元オブジェクトの中心へ移された前記幾何学的表象によって画定され、所定の基準方位を向くよう回転させられたオブジェクト座標系である、請求項5または7に記載の方法。
  13. 異なる画像解像度について前記位置姿勢の範囲をサンプリングすることによる前記三次元オブジェクトの仮想ビューの作成は、画像ピラミッドの異なるレベルについて前記位置姿勢をサンプリングすることによる前記三次元オブジェクトの仮想ビューの作成である、請求項1〜12のいずれかに記載の方法。
  14. 前記ステップ(d)は、
    (d1)最高画像解像度のビュー、すなわち最下位ピラミッドレベル上のビューのオーバーサンプリングを算出するステップと、
    (d2)前記ビューを間引くステップであって、予め定められた閾値を越えた類似度を有する近傍のビューを次々に統合することによって間引きを行うステップと、
    (d3)前記ステップ(d2)で2つの近傍のビューが閾値を越えた類似度を有するということがなくなるまで、前記ステップ(d2)を繰り返すステップと、
    (d4)前記統合されたビューを前記三次元モデルにコピーするステップと、
    (d5)前記ステップ(d2)の類似度閾値を緩和した後に全ての画像解像度について前記ステップ(d2)〜(d4)を繰り返すステップとを含む、請求項1に記載の方法。
  15. 両方のビューの像面に前記オブジェクトを投影し、請求項1に記載のステップ(f)の二次元マッチングアプローチで使用される類似度測定に基づいて前記投影図間の類似度を算出することによって、前記ステップ(d2)における類似度が算出される、請求項14に記載の方法。
  16. 両方のビューの像面に前記オブジェクトの三次元バウンディングボックスのみを投影し、請求項1に記載のステップ(f)の二次元マッチングアプローチで使用される類似度測定に基づいて前記投影図間の類似度を算出することによって、前記ステップ(d2)における類似度が算出される、請求項14に記載の方法。
  17. 前記類似度測定に代わって、前記原類似度測定よりも早く算出することができる分析的近似を行う、クレーム15または16に記載の方法。
  18. 前記類似度測定の最もスピードの速い近似から開始して、前記原類似度測定が使用されるまで類似度測定を絞り込むことによって、前記ステップ(d2)および(d3)が反復される、請求項14に記載の方法。
  19. 次に高位のピラミッドレベルへ至るために前記画像を平滑化しサブサンプリングし、前記サブサンプリングされた画像上で類似度を算出することによって、前記ステップ(d5)の類似度閾値の緩和がおこなわれる、請求項14に記載の方法。
  20. ピラミッドレベルに応じて類似度の前記分析的近似中に位置の許容値を乗ずることによって、前記ステップ(d5)の類似度閾値の緩和を行う、請求項14に記載の方法。
  21. 前記ステップ(e)が、
    (e1)各ビューについて、当該ビューの三次元位置姿勢を前記三次元モデルに保存するステップと、
    (e2)各ビューについて、子ビューすべてに対する参照を前記三次元モデルに保存するステップと、
    (e3)各ビューについて、その親ビューに対する参照を前記三次元モデルに保存するステップとを含む、請求項1〜20のいずれかに記載の方法。
  22. 前記ステップ(f)が、
    (f1)各ビューの像面に前記三次元オブジェクトを投影して3チャネル画像を生じさせ、前記3チャネルとは前記三次元オブジェクトの面の法線ベクトルの三つの要素を表すステップと、
    (f2)前記3チャネル画像の勾配振幅を閾値処理することによって得られる画像エッジからなる二次元モデルを作成するステップとを含む、請求項1〜21のいずれかに記載の方法。
  23. 前記ステップ(f2)における二次元モデルの作成は、一般化ハフ変換、ハウスドルフ距離、またはエッジ勾配方向のドット積に基づくマッチングアプローチに使用できる二次元モデルの作成を含む、請求項22に記載の方法。
  24. 前記ステップ(f2)の閾値は、所定の最小面角度から算出される、請求項22に記載の方法。
  25. 前記ステップ(f1)において、各画像チャネルにある一定の値を加えて、投影されたオブジェクトのシルエットが前記ステップ(f2)の閾値処理によって削除されることの無いようにする、請求項22に記載の方法。
  26. 前記ステップ(f2)における閾値処理によって得られた画像エッジは自動的に確認され、確認できない場合には前記二次元モデルが廃棄される、請求項22に記載の方法。
  27. (g)投影歪みの影響を低減する前記像面の球マッピングを算出し、前記三次元モデルに前記球マッピングを保存するステップと、
    (h)前記球マッピングを使用して前記ステップ(f)で作成された二次元モデルをマッピングし、前記原二次元モデルに加えて、前記球マッピングされた二次元モデルを前記三次元モデルに保存するステップとをさらに含む、請求項1〜26のいずれかに記載の方法。
  28. (i)レンズ歪みの影響を除去する前記像面のマッピングを算出し、前記マッピングを前記三次元モデルに保存するステップをさらに含む、請求項1〜26のいずれかに記載の方法。
  29. 三次元オブジェクトを認識し、前記オブジェクトのひとつの画像からその三次元位置姿勢を測定する方法であって、
    (a)前記三次元オブジェクトの三次元モデルを提供するステップと、
    (b)前記三次元オブジェクトの電子サーチ画像を提供するステップと、
    (c)前記サーチ画像の異なる解像度を含むサーチ画像の表象を作成するステップと、
    (d)前記階層的ツリー構造において、親ビュー(father view)を持たない二次元モデルを、前記画像ピラミッドの各レベルの画像とマッチさせるステップと、
    (e)最下位ピラミッドまで追跡することにより、最上位ピラミッドレベルの二次元でのマッチの確認および絞り込み(refining)を行うステップと、
    (f)前記二次元マッチングの位置姿勢および前記各三次元ビューの位置姿勢から、初期三次元オブジェクトの位置姿勢を測定するステップと、
    (g)前記初期三次元オブジェクトの位置姿勢を絞り込むステップとを含む、方法。
  30. 前記ステップ(e)が、
    (e1)前記マッチ候補の位置に応じて子ビューの二次元モデルを投影変換するステップと、
    (e2)前記画像ピラミッドの各レベルの画像に対して、限定されたパラメータ範囲で子ビューの変換された二次元モデルをマッチさせるステップと、を含む、請求項29に記載の方法。
  31. 前記ステップ(d)または(e2)のそれぞれにおける前記マッチングは、一般化ハフ変換、ハウスドルフ距離、またはエッジ勾配方向のドット積に基づく、請求項29または30に記載の方法。
  32. 前記ステップ(d)またはステップ(e2)におけるマッチングはそれぞれ、勾配の局所的な極性を無視したエッジ勾配方向のドット積に基づく、請求項29または30に記載の方法。
  33. 前記ステップ(d)において、マッチングが行われる各ピラミッドレベルは、マッチングを適用する前に投影歪みを低減するために前記三次元モデルに保存された球マッピングを使用してマップされ、前記ステップ(d)において、前記球マッピングされた二次元モデルは前記原二次元モデルの代わりにマッチングに使用される、請求項29に記載の方法。
  34. 前記ステップ(d)または(e2)のそれぞれにおいて、マッチングが行われる各ピラミッドレベルは、マッチングが適用される前にレンズ歪みを除去するために前記三次元モデルに保存されたマッピングを使用してマップされる、請求項29または30に記載の方法。
  35. 前記ステップ(g)における前記初期三次元オブジェクト位置姿勢の絞込みは、サブピクセルレベルで正確な画像エッジポイントと対応する投影された三次元オブジェクトエッジとの間の距離を最小にすることによって行われる、請求項29に記載の方法。
  36. (g1)前記初期三次元オブジェクト位置姿勢を使用することによって前記三次元モデルエッジを前記サーチ画像投影し、その際に陰線アルゴリズムを使用して隠れたオブジェクトエッジを削除し、かつ、2つの隣接した面の間の角度が所定の最小角度を下回るような前記オブジェクトのエッジを削除する、ステップと、
    (g2)ピクセルグリッドに応じて、前記投影されたエッジをサンプリングして離間したポイントにするステップと、
    (g3)前記サンプリングされたエッジポイント各々について、その近傍でそれに対応する、サブピクセルレベルで正確な画像エッジポイントを探索するステップと、
    (g4)反復的な非線形の最適化アルゴリズムを使用して、前記対応ポイント間の距離の二乗の総和を最小化することにより、絞り込まれた三次元オブジェクト位置姿勢の6つのパラメータを決定するステップとを含む、請求項35に記載の方法。
  37. 前記ステップ(g3)において、対応するサブピクセルレベルで正確な画像エッジポイントの探索の方向が、投影されたモデルエッジに垂直な方向に制限される、請求項36に記載の方法。
  38. 前記ステップ(g3)において、閾値未満の角差との対応のみが有効な対応として承認され、前記角差は前記投影モデルエッジに対する垂線と前記画像勾配との間で算出される、請求項36に記載の方法。
  39. 前記ステップ(g4)において、最適化中に角差に応じて前記距離の二乗が重み付けされ、前記角差は前記投影モデルエッジに対する垂線と前記画像勾配との間で算出される、請求項36に記載の方法。
  40. 前記ステップ(g1)〜(g4)が反復され、前記反復は、前記絞り込まれた三次元オブジェクト位置姿勢が前記反復の最後2回分の間で大きく変化しなくなるまで行われる、請求項36に記載の方法。
  41. 前記ステップ(g1)〜(g4)が、所定の回数分反復される、請求項36に記載の方法。
  42. 前記ステップ(g1)において、陰線アルゴリズムは反復の1回目のみに適用され、その後の反復では、前記反復の1回目に可視であった三次元モデルエッジの部分のみが、前記陰線アルゴリズムを再度行うことなく投影される、請求項40または41に記載の方法。
  43. 前記勾配に最大値フィルタを適用することによって前記マッチングを行う前に前記画像における勾配方向を拡大し、各フィルタ位置において前記フィルタの中心の勾配ベクトルを前記フィルタ内の最大振幅を有する勾配ベクトルと置き換える、請求項31または32に記載の方法。
  44. テキスチャ情報で三次元モデルを補強する方法であって、
    (a)三次元オブジェクトのいくつかの画像例を提供するステップと、
    (b)請求項31に記載のステップを使用して、前記画像例の各々において前記三次元オブジェクトの三次元位置姿勢を測定するステップと、
    (c)前記画像例の各々について、前記ステップ(b)で測定された三次元位置姿勢を使用して、前記三次元モデルの各面を前記画像例に投影するステップと、
    (d)前記オブジェクト面の各々について、前記面の三次元位置姿勢を使用して前記投影された面が覆っている前記画像例の部分を修正するステップと、
    (e)前記テキスチャされ修正されたオブジェクト面から得られたテキスチャ情報で前記二次元モデルを補強し、幾何学的情報とテキスチャ情報とを含む二次元モデルとするステップとを含む、方法。
  45. 前記ステップ(e)の代わりに、下記のステップを行う、請求項44に記載の方法。
    (e)前記テキスチャされ修正されたオブジェクト面から得られたテキスチャ情報のみを使用して前記二次元モデルを再生成し、前記幾何学情報を削除するステップ。
JP2008040298A 2007-10-11 2008-02-21 三次元オブジェクト認識のためのシステムおよび方法 Active JP4785880B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07118329.7 2007-10-11
EP07118329A EP2048599B1 (en) 2007-10-11 2007-10-11 System and method for 3D object recognition

Publications (2)

Publication Number Publication Date
JP2009093611A true JP2009093611A (ja) 2009-04-30
JP4785880B2 JP4785880B2 (ja) 2011-10-05

Family

ID=38779887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008040298A Active JP4785880B2 (ja) 2007-10-11 2008-02-21 三次元オブジェクト認識のためのシステムおよび方法

Country Status (6)

Country Link
US (1) US8379014B2 (ja)
EP (1) EP2048599B1 (ja)
JP (1) JP4785880B2 (ja)
CN (1) CN101408931B (ja)
AT (1) ATE452379T1 (ja)
DE (1) DE602007003849D1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205095A (ja) * 2009-03-05 2010-09-16 3D Media Co Ltd 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体
JP2011129082A (ja) * 2009-11-20 2011-06-30 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
JP2011138490A (ja) * 2009-12-28 2011-07-14 Mitsubishi Electric Research Laboratories Inc シーンにおける物体の姿勢を求めるための方法
WO2012014545A1 (ja) * 2010-07-27 2012-02-02 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
JP2012532382A (ja) * 2009-07-01 2012-12-13 本田技研工業株式会社 3次元モデルを使用した物体認識
WO2012173141A1 (ja) * 2011-06-16 2012-12-20 オリンパス株式会社 画像処理装置、画像処理方法、およびプログラム
JP2013146813A (ja) * 2012-01-18 2013-08-01 Seiko Epson Corp ロボット装置および位置姿勢検出方法
JP2015032119A (ja) * 2013-08-01 2015-02-16 セコム株式会社 対象検出装置
KR20170026591A (ko) * 2014-09-05 2017-03-08 인텔 코포레이션 카메라 교정
CN107300100A (zh) * 2017-05-22 2017-10-27 浙江大学 一种在线cad模型驱动的级联式机械臂视觉引导逼近方法
JP2019032820A (ja) * 2017-06-16 2019-02-28 ダッソー システムズDassault Systemes 画像を入力とする関数を学習するためのデータセット
JP2019515364A (ja) * 2016-02-26 2019-06-06 カーネギー メロン ユニバーシティー テクスチャなし物体の姿勢を推定するシステム及び方法
KR20190133223A (ko) * 2017-04-28 2019-12-02 윌 비 컴퍼니 리미티드 입체물 인쇄 시스템 및 입체물 인쇄 방법
WO2020008936A1 (ja) * 2018-07-06 2020-01-09 キヤノン株式会社 画像処理装置、画像処理方法、システム、物品の製造方法
WO2021002249A1 (ja) * 2019-07-01 2021-01-07 株式会社小松製作所 学習済みの作業分類推定モデルの製造方法、学習用データ、コンピュータによって実行される方法、および作業機械を含むシステム
KR102249769B1 (ko) * 2019-12-06 2021-05-12 주식회사 모빌테크 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
JP2021086449A (ja) * 2019-11-28 2021-06-03 株式会社日立製作所 モデル作成装置及びモデル作成方法
KR102518014B1 (ko) * 2022-09-16 2023-04-06 흥일기업주식회사 부품 스캔 장치 및 방법

Families Citing this family (148)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US10127130B2 (en) 2005-03-18 2018-11-13 Salesforce.Com Identifying contributors that explain differences between a data set and a subset of the data set
US9129226B2 (en) * 2011-12-04 2015-09-08 Beyondcore, Inc. Analyzing data sets with the help of inexpert humans to find patterns
EP2028623B1 (en) * 2007-08-24 2011-10-19 Dassault Systèmes Method of computer-aided design of edges connecting faces of a modeled object
US8737721B2 (en) 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8525871B2 (en) * 2008-08-08 2013-09-03 Adobe Systems Incorporated Content-aware wide-angle images
US8229928B2 (en) * 2009-02-27 2012-07-24 Empire Technology Development Llc 3D object descriptors
EP2249286A1 (en) * 2009-05-08 2010-11-10 Honda Research Institute Europe GmbH Robot with vision-based 3D shape recognition
TWI389558B (zh) * 2009-05-14 2013-03-11 Univ Nat Central Method of determining the orientation and azimuth parameters of the remote control camera
US8649565B1 (en) * 2009-06-18 2014-02-11 Hrl Laboratories, Llc System for automatic object localization based on visual simultaneous localization and mapping (SLAM) and cognitive swarm recognition
US8442305B2 (en) * 2009-06-30 2013-05-14 Mitsubishi Electric Research Laboratories, Inc. Method for determining 3D poses using points and lines
DE102009048066A1 (de) * 2009-10-01 2011-04-07 Conti Temic Microelectronic Gmbh Verfahren zur Verkehrszeichenerkennung
CN101739666B (zh) * 2009-12-15 2011-12-21 西南交通大学 基于一维快速哈特莱变换和匹配追踪的图像稀疏分解快速方法
JP4850984B2 (ja) * 2009-12-28 2012-01-11 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
US8872887B2 (en) * 2010-03-05 2014-10-28 Fotonation Limited Object detection and rendering for wide field of view (WFOV) image acquisition systems
JP5035372B2 (ja) * 2010-03-17 2012-09-26 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5024410B2 (ja) * 2010-03-29 2012-09-12 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP4858626B2 (ja) 2010-04-16 2012-01-18 カシオ計算機株式会社 情報表示装置及びプログラム
EP2385483B1 (en) 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
US8873801B2 (en) * 2010-08-03 2014-10-28 Empire Technology Development Llc Identification of objects in a video
US9013550B2 (en) * 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
KR101743926B1 (ko) * 2010-09-20 2017-06-08 삼성전자주식회사 로봇 및 그 제어방법
CN102445147A (zh) * 2010-10-06 2012-05-09 鸿富锦精密工业(深圳)有限公司 影像量测机台测头模拟系统及方法
US8600192B2 (en) * 2010-12-08 2013-12-03 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
US9124873B2 (en) 2010-12-08 2015-09-01 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
JP5924862B2 (ja) * 2010-12-15 2016-05-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN102141398B (zh) * 2010-12-28 2013-01-30 北京航空航天大学 基于单目视觉的多机器人位置与姿态测量方法
CN102609550B (zh) * 2011-01-19 2015-11-25 鸿富锦精密工业(深圳)有限公司 产品三维模型自动摆正系统及方法
US8723959B2 (en) 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
US8917322B2 (en) * 2011-04-01 2014-12-23 Lockheed Martin Corporation Method and apparatus for digital video latency reduction by real-time warping
EP2523132A1 (en) * 2011-05-11 2012-11-14 Dassault Systèmes Designing a three-dimensional modeled assembly of objects in a three-dimensional scene
US9188973B2 (en) 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
DE102011109387A1 (de) 2011-08-04 2013-02-07 Conti Temic Microelectronic Gmbh Verfahren zur Erkennung von Verkehrszeichen
CN103875250A (zh) * 2011-08-12 2014-06-18 瑞典爱立信有限公司 摄像机和/或深度参数的信号通知
US8493459B2 (en) 2011-09-15 2013-07-23 DigitalOptics Corporation Europe Limited Registration of distorted images
US10796232B2 (en) 2011-12-04 2020-10-06 Salesforce.Com, Inc. Explaining differences between predicted outcomes and actual outcomes of a process
US10802687B2 (en) 2011-12-04 2020-10-13 Salesforce.Com, Inc. Displaying differences between different data sets of a process
US8908913B2 (en) * 2011-12-19 2014-12-09 Mitsubishi Electric Research Laboratories, Inc. Voting-based pose estimation for 3D sensors
US8630458B2 (en) * 2012-03-21 2014-01-14 Google Inc. Using camera input to determine axis of rotation and navigation
US8497859B1 (en) * 2012-04-03 2013-07-30 Google Inc. Display of information on or within a three-dimensional image
US8928730B2 (en) 2012-07-03 2015-01-06 DigitalOptics Corporation Europe Limited Method and system for correcting a distorted input image
US8983201B2 (en) 2012-07-30 2015-03-17 Microsoft Technology Licensing, Llc Three-dimensional visual phrases for object recognition
US9372871B2 (en) * 2012-08-24 2016-06-21 Google Inc. Combining unstructured image and 3D search results for interactive search and exploration
US9129429B2 (en) 2012-10-24 2015-09-08 Exelis, Inc. Augmented reality on wireless mobile devices
US9508146B2 (en) * 2012-10-31 2016-11-29 The Boeing Company Automated frame of reference calibration for augmented reality
US10262460B2 (en) * 2012-11-30 2019-04-16 Honeywell International Inc. Three dimensional panorama image generation systems and methods
US9227323B1 (en) 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
RU2530220C1 (ru) * 2013-03-18 2014-10-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Система и способ для автоматической регистрации анатомических точек в объемных медицинских изображениях
WO2014169238A1 (en) 2013-04-11 2014-10-16 Digimarc Corporation Methods for object recognition and related arrangements
CN104125390B (zh) * 2013-04-28 2018-03-23 浙江大华技术股份有限公司 一种用于球型摄像机的定位方法及装置
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
DE102013219909A1 (de) 2013-10-01 2015-04-02 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen
CN104574497B (zh) * 2013-10-24 2017-04-05 万里科技股份有限公司 一种配对一个2d摄影图像文件和一个3d网格的方法
KR101364375B1 (ko) 2013-10-25 2014-02-18 중앙대학교 산학협력단 3차원 데이터로부터 특정 객체를 추출하는 시스템 및 방법.
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
US9915857B2 (en) * 2013-12-09 2018-03-13 Geo Semiconductor Inc. System and method for automated test-pattern-free projection calibration
CN103644894B (zh) * 2013-12-10 2016-03-09 大连交通大学 一种复杂曲面目标识别及三维位姿测量的方法
EP3080783A4 (fr) * 2013-12-15 2018-01-10 7893159 Canada Inc. Methode et systeme de comparaison de modeles 3d
JP6380828B2 (ja) * 2014-03-07 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
EP2916290A1 (en) * 2014-03-07 2015-09-09 Thomson Licensing Method and apparatus for disparity estimation
DE102014005181A1 (de) * 2014-04-03 2015-10-08 Astrium Gmbh Positions- und Lagebestimmung von Objekten
JP6424020B2 (ja) * 2014-06-09 2018-11-14 株式会社キーエンス 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN104075694B (zh) * 2014-07-02 2016-09-07 武汉华中天勤防务技术有限公司 一种高速实时姿态测量方法
US9715724B2 (en) * 2014-07-29 2017-07-25 Applied Materials Israel Ltd. Registration of CAD data with SEM images
US9327406B1 (en) 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
US9710706B2 (en) * 2014-09-23 2017-07-18 GM Global Technology Operations LLC Method for classifying a known object in a field of view of a camera
US10613231B2 (en) * 2014-12-18 2020-04-07 Javad Gnss, Inc. Portable GNSS survey system
US10466041B2 (en) * 2014-12-22 2019-11-05 Bombardier Inc. Reference system for online vision inspection
TWI577493B (zh) 2014-12-26 2017-04-11 財團法人工業技術研究院 校正方法與應用此方法的自動化設備
US10134177B2 (en) * 2015-01-15 2018-11-20 Samsung Electronics Co., Ltd. Method and apparatus for adjusting face pose
CN104680966B (zh) * 2015-03-19 2017-11-14 京东方科技集团股份有限公司 一种显示装置的驱动方法及其驱动装置
US10275863B2 (en) 2015-04-03 2019-04-30 Cognex Corporation Homography rectification
US9542732B2 (en) * 2015-04-03 2017-01-10 Cognex Corporation Efficient image transformation
US9878447B2 (en) 2015-04-10 2018-01-30 Microsoft Technology Licensing, Llc Automated collection and labeling of object data
JP6554900B2 (ja) 2015-04-28 2019-08-07 オムロン株式会社 テンプレート作成装置及びテンプレート作成方法
CN104992432B (zh) * 2015-06-19 2017-10-20 北京邮电大学 多模图像配准方法
US9818043B2 (en) 2015-06-24 2017-11-14 Microsoft Technology Licensing, Llc Real-time, model-based object detection and pose estimation
TWI558208B (zh) * 2015-07-14 2016-11-11 旺玖科技股份有限公司 影像處理方法、影像處理裝置及顯示系統
TW201719572A (zh) * 2015-11-19 2017-06-01 國立交通大學 三維模型分析及搜尋方法
US9836673B2 (en) 2015-12-30 2017-12-05 International Business Machines Corporation System, method and computer program product for training a three dimensional object indentification system and identifying three dimensional objects using semantic segments
EP3206164B1 (en) 2016-02-12 2022-05-25 Cognex Corporation System and method for efficiently scoring probes in an image with a vision system
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
JP2017182274A (ja) * 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム
JP2017187882A (ja) 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
JP2019517079A (ja) 2016-05-24 2019-06-20 モルフォトラスト・ユーエスエー・リミテッド ライアビリティ カンパニーMorphotrust Usa,Llc 形状検知
US9875398B1 (en) 2016-06-30 2018-01-23 The United States Of America As Represented By The Secretary Of The Army System and method for face recognition with two-dimensional sensing modality
US10530972B2 (en) * 2016-09-21 2020-01-07 Htc Corporation Control method for optical tracking system
JP7071054B2 (ja) * 2017-01-20 2022-05-18 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN106919944B (zh) * 2017-01-20 2020-03-24 南京航空航天大学 一种基于orb算法的大视角图像快速识别方法
US10661442B2 (en) * 2017-02-03 2020-05-26 Abb Schweiz Ag Calibration article for a 3D vision robotic system
JP6732214B2 (ja) * 2017-03-10 2020-07-29 オムロン株式会社 画像処理装置、画像処理方法、テンプレート作成装置、物体認識処理装置及びプログラム
CN108734058B (zh) * 2017-04-18 2022-05-27 百度在线网络技术(北京)有限公司 障碍物类型识别方法、装置、设备及存储介质
EP3404583A1 (en) 2017-05-19 2018-11-21 MVTec Software GmbH System and method for model adaptation
JP7003455B2 (ja) * 2017-06-15 2022-01-20 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
US10621751B2 (en) * 2017-06-16 2020-04-14 Seiko Epson Corporation Information processing device and computer program
WO2019075278A1 (en) * 2017-10-11 2019-04-18 Patrick Baudisch SYSTEM AND METHOD FOR HANDLING ASSETS FOR MANUFACTURING
US10552665B2 (en) 2017-12-12 2020-02-04 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
FI129042B (en) 2017-12-15 2021-05-31 Oy Mapvision Ltd Computer vision system with a computer-generated virtual reference object
US10970425B2 (en) 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
DE102018200750A1 (de) 2018-01-18 2019-07-18 Elektrobit Automotive Gmbh Zweidimensionale Gitterstrukturrepräsentation einer dreidimensionalen Umwelt
US11562505B2 (en) 2018-03-25 2023-01-24 Cognex Corporation System and method for representing and displaying color accuracy in pattern matching by a vision system
US10311833B1 (en) 2018-03-27 2019-06-04 Seiko Epson Corporation Head-mounted display device and method of operating a display apparatus tracking an object
US10769437B2 (en) * 2018-04-10 2020-09-08 Seiko Epson Corporation Adaptive sampling of training views
US10878285B2 (en) 2018-04-12 2020-12-29 Seiko Epson Corporation Methods and systems for shape based training for an object detection algorithm
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
CN110555219B (zh) * 2018-05-31 2022-12-27 首都航天机械公司 一种基于图像识别的三维cad模型相似性检索系统及方法
CN108898585B (zh) * 2018-06-15 2024-01-12 广州大学 一种轴类零件检测方法及其装置
EP3755970A4 (en) * 2018-09-03 2021-11-24 ABB Schweiz AG ROBOT SYSTEM MANAGEMENT METHOD AND APPARATUS
US10634918B2 (en) 2018-09-06 2020-04-28 Seiko Epson Corporation Internal edge verification
CN109887030A (zh) * 2019-01-23 2019-06-14 浙江大学 基于cad稀疏模板的无纹理金属零件图像位姿检测方法
CN113822924B (zh) * 2019-01-28 2024-04-05 弗劳恩霍夫应用研究促进协会 空间中的元素定位
US10943401B2 (en) 2019-02-01 2021-03-09 International Business Machines Corporation Active visual recognition in mobile augmented reality
CN109981346B (zh) 2019-02-21 2020-07-10 清华大学 基于自治系统的网络空间坐标系创建方法及装置
JP7233261B2 (ja) * 2019-03-13 2023-03-06 キヤノン株式会社 3次元測量装置、撮像装置、制御方法及びプログラム
US11527012B2 (en) 2019-07-03 2022-12-13 Ford Global Technologies, Llc Vehicle pose determination
WO2021012122A1 (zh) * 2019-07-19 2021-01-28 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备、介质以及产品
US10853631B2 (en) 2019-07-24 2020-12-01 Advanced New Technologies Co., Ltd. Face verification method and apparatus, server and readable storage medium
CN110487789B (zh) * 2019-08-12 2020-03-17 中国矿业大学(北京) 基于磨片装置的岩石细观结构三维重建系统及方法
CN110751189B (zh) * 2019-09-26 2022-02-22 北京航空航天大学 一种基于感知对比度和特征选择的椭圆检测方法
CN110660104A (zh) * 2019-09-29 2020-01-07 珠海格力电器股份有限公司 工业机器人视觉识别定位抓取方法、计算机装置以及计算机可读存储介质
CN110706357B (zh) * 2019-10-10 2023-02-24 青岛大学附属医院 导航系统
CN110705552B (zh) * 2019-10-11 2022-05-06 沈阳民航东北凯亚有限公司 行李托盘识别方法及装置
CN111079565B (zh) * 2019-11-27 2023-07-07 深圳市华汉伟业科技有限公司 视图二维姿态模板的构建方法及识别方法、定位抓取系统
TWI724696B (zh) 2019-12-18 2021-04-11 財團法人工業技術研究院 工件孔洞量測方法
US11023730B1 (en) 2020-01-02 2021-06-01 International Business Machines Corporation Fine-grained visual recognition in mobile augmented reality
CN111275813B (zh) * 2020-01-20 2021-09-17 北京字节跳动网络技术有限公司 数据处理方法、装置和电子设备
CN113283442B (zh) * 2020-02-19 2024-05-10 北京四维图新科技股份有限公司 特征点的提取方法和装置
US20210279967A1 (en) * 2020-03-06 2021-09-09 Apple Inc. Object centric scanning
US11586844B2 (en) 2020-03-30 2023-02-21 Wipro Limited Method and system for detecting and tracking objects in a rotational environment
CN111540012B (zh) * 2020-04-15 2023-08-04 中国科学院沈阳自动化研究所 一种基于机器视觉的光照鲁棒的平面上物体识别定位方法
CN111915632B (zh) * 2020-07-26 2024-04-26 同济大学 一种基于机器学习的贫纹理目标物体真值数据库构建方法
US11597078B2 (en) * 2020-07-28 2023-03-07 Nvidia Corporation Machine learning control of object handovers
US11688142B2 (en) 2020-11-23 2023-06-27 International Business Machines Corporation Automatic multi-dimensional model generation and tracking in an augmented reality environment
CN112767412B (zh) * 2020-12-31 2024-04-12 东软睿驰汽车技术(沈阳)有限公司 车辆部件级分割方法、装置以及电子设备
CN114693798B (zh) * 2020-12-31 2023-12-26 北京小米移动软件有限公司 机械手控制方法及装置
CN112894815B (zh) * 2021-01-25 2022-09-27 西安工业大学 视觉伺服机械臂物品抓取最佳位姿检测方法
CN113313766B (zh) * 2021-03-09 2024-08-20 常州龙源智能机器人科技有限公司 机器人及其位姿计算方法、位姿计算装置
CN113091759B (zh) * 2021-03-11 2023-02-28 安克创新科技股份有限公司 位姿处理、地图构建方法及装置
CA3215196A1 (en) 2021-04-30 2022-11-03 Ethan Rublee Real time localization with image data
CN113781315B (zh) * 2021-07-21 2024-06-18 武汉市异方体科技有限公司 一种基于多视角的同源传感器数据融合滤波方法
KR102605786B1 (ko) * 2021-08-02 2023-11-29 한국전자기술연구원 구면 좌표계와 관절 특성 정보를 사용한 3차원 절대 좌표 사람 자세 추정 방법 및 시스템
KR20230020845A (ko) 2021-08-04 2023-02-13 현대자동차주식회사 전자장치 및 그의 객체 추적 방법
US11941863B2 (en) * 2021-08-04 2024-03-26 Datalogic Ip Tech S.R.L. Imaging system and method using a multi-layer model approach to provide robust object detection
CN114565679B (zh) * 2022-02-18 2024-04-26 中国人民解放军63660部队 一种基于相机位置的焦距、径向畸变及姿态标定的方法
US20240202245A1 (en) * 2022-12-20 2024-06-20 Autodesk, Inc. Active and passive querying of spatial recordings

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245455A (ja) * 2001-02-16 2002-08-30 Monolith Co Ltd 多変量空間処理方法および装置
JP2006301991A (ja) * 2005-04-21 2006-11-02 Pulstec Industrial Co Ltd 座標変換関数の補正方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5581672A (en) * 1991-12-19 1996-12-03 Aerohydro, Inc. System of relational entities for object-oriented computer-aided geometric design
EP0686932A3 (en) 1994-03-17 1997-06-25 Texas Instruments Inc Computer vision system to search for three-dimensional rectangular objects
US6526156B1 (en) 1997-01-10 2003-02-25 Xerox Corporation Apparatus and method for identifying and tracking objects with view-based representations
JP4341135B2 (ja) 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
US6580821B1 (en) 2000-03-30 2003-06-17 Nec Corporation Method for computing the location and orientation of an object in three dimensional space
US6956569B1 (en) 2000-03-30 2005-10-18 Nec Corporation Method for matching a two dimensional image to one of a plurality of three dimensional candidate models contained in a database
US7062093B2 (en) * 2000-09-27 2006-06-13 Mvtech Software Gmbh System and method for object recognition
EP1193642B1 (en) * 2000-09-27 2005-03-30 MVTec Software GmbH System and method for object recognition
CA2354301A1 (en) 2001-07-27 2003-01-27 Djamel Yahia Meddah Geometric hashing for model-based recognition of an object
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
CA2369845A1 (en) 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
EP1394727B1 (en) 2002-08-30 2011-10-12 MVTec Software GmbH Hierarchical component based object recognition
US7643685B2 (en) * 2003-03-06 2010-01-05 Animetrics Inc. Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery
US7822264B2 (en) 2003-08-15 2010-10-26 Scape A/S Computer-vision system for classification and spatial localization of bounded 3D-objects
DE102004005380A1 (de) 2004-02-03 2005-09-01 Isra Vision Systems Ag Verfahren zur Bestimmung der Lage eines Objekts im Raum
CN1271863C (zh) * 2004-04-01 2006-08-23 复旦大学 时间维受限的三维虚拟spiht树组织方法
US7145562B2 (en) * 2004-05-03 2006-12-05 Microsoft Corporation Integration of three dimensional scene hierarchy into two dimensional compositing system
EP1766552A2 (en) 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
US20060132488A1 (en) * 2004-12-17 2006-06-22 Electronics And Telecommunications Research Institute Apparatus and method for representing multi-level LOD three-dimensional image
EP1693782B1 (en) 2005-02-21 2009-02-11 Mitsubishi Electric Information Technology Centre Europe B.V. Method for facial features detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245455A (ja) * 2001-02-16 2002-08-30 Monolith Co Ltd 多変量空間処理方法および装置
JP2006301991A (ja) * 2005-04-21 2006-11-02 Pulstec Industrial Co Ltd 座標変換関数の補正方法

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205095A (ja) * 2009-03-05 2010-09-16 3D Media Co Ltd 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体
JP4649559B2 (ja) * 2009-03-05 2011-03-09 株式会社三次元メディア 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体
JP2012532382A (ja) * 2009-07-01 2012-12-13 本田技研工業株式会社 3次元モデルを使用した物体認識
JP2011129082A (ja) * 2009-11-20 2011-06-30 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
JP2011138490A (ja) * 2009-12-28 2011-07-14 Mitsubishi Electric Research Laboratories Inc シーンにおける物体の姿勢を求めるための方法
WO2012014545A1 (ja) * 2010-07-27 2012-02-02 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
JP2012026974A (ja) * 2010-07-27 2012-02-09 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
WO2012173141A1 (ja) * 2011-06-16 2012-12-20 オリンパス株式会社 画像処理装置、画像処理方法、およびプログラム
JP2013002956A (ja) * 2011-06-16 2013-01-07 Olympus Corp 画像処理装置、画像処理方法、およびプログラム
US9275473B2 (en) 2011-06-16 2016-03-01 Olympus Corporation Image processing apparatus, image processing method, and program
JP2013146813A (ja) * 2012-01-18 2013-08-01 Seiko Epson Corp ロボット装置および位置姿勢検出方法
JP2015032119A (ja) * 2013-08-01 2015-02-16 セコム株式会社 対象検出装置
KR20170026591A (ko) * 2014-09-05 2017-03-08 인텔 코포레이션 카메라 교정
KR102268878B1 (ko) * 2014-09-05 2021-06-24 인텔 코포레이션 카메라 교정
JP2017535980A (ja) * 2014-09-05 2017-11-30 インテル・コーポレーション カメラキャリブレーション
JP2019515364A (ja) * 2016-02-26 2019-06-06 カーネギー メロン ユニバーシティー テクスチャなし物体の姿勢を推定するシステム及び方法
KR20190133223A (ko) * 2017-04-28 2019-12-02 윌 비 컴퍼니 리미티드 입체물 인쇄 시스템 및 입체물 인쇄 방법
KR102269950B1 (ko) 2017-04-28 2021-06-29 윌 비 컴퍼니 리미티드 입체물 인쇄 시스템 및 입체물 인쇄 방법
CN107300100A (zh) * 2017-05-22 2017-10-27 浙江大学 一种在线cad模型驱动的级联式机械臂视觉引导逼近方法
JP2019032820A (ja) * 2017-06-16 2019-02-28 ダッソー システムズDassault Systemes 画像を入力とする関数を学習するためのデータセット
WO2020008936A1 (ja) * 2018-07-06 2020-01-09 キヤノン株式会社 画像処理装置、画像処理方法、システム、物品の製造方法
WO2021002249A1 (ja) * 2019-07-01 2021-01-07 株式会社小松製作所 学習済みの作業分類推定モデルの製造方法、学習用データ、コンピュータによって実行される方法、および作業機械を含むシステム
CN113825879A (zh) * 2019-07-01 2021-12-21 株式会社小松制作所 学习完成的作业分类推断模型的制造方法、学习用数据、由计算机执行的方法、以及包括作业机械的系统
JP2021086449A (ja) * 2019-11-28 2021-06-03 株式会社日立製作所 モデル作成装置及びモデル作成方法
JP7362453B2 (ja) 2019-11-28 2023-10-17 株式会社日立製作所 モデル作成装置及びモデル作成方法
KR102249769B1 (ko) * 2019-12-06 2021-05-12 주식회사 모빌테크 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
KR102518014B1 (ko) * 2022-09-16 2023-04-06 흥일기업주식회사 부품 스캔 장치 및 방법

Also Published As

Publication number Publication date
ATE452379T1 (de) 2010-01-15
CN101408931A (zh) 2009-04-15
JP4785880B2 (ja) 2011-10-05
CN101408931B (zh) 2013-02-20
DE602007003849D1 (de) 2010-01-28
US20090096790A1 (en) 2009-04-16
EP2048599A1 (en) 2009-04-15
EP2048599B1 (en) 2009-12-16
US8379014B2 (en) 2013-02-19

Similar Documents

Publication Publication Date Title
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
CN110288657B (zh) 一种基于Kinect的增强现实三维注册方法
JP6011102B2 (ja) 物体姿勢推定方法
JP4677536B1 (ja) 3次元物体認識装置及び3次元物体認識方法
CN113178009B (zh) 一种利用点云分割和网格修补的室内三维重建方法
US7522163B2 (en) Method and apparatus for determining offsets of a part from a digital image
Azad et al. Stereo-based 6d object localization for grasping with humanoid robot systems
CN111079565B (zh) 视图二维姿态模板的构建方法及识别方法、定位抓取系统
CN113012293A (zh) 石刻模型构建方法、装置、设备及存储介质
CN115345822A (zh) 一种面向航空复杂零件的面结构光自动化三维检测方法
GB2512460A (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
Li et al. 3D object recognition and pose estimation for random bin-picking using Partition Viewpoint Feature Histograms
US9147279B1 (en) Systems and methods for merging textures
Drost et al. Local hough transform for 3d primitive detection
CN114022542A (zh) 一种基于三维重建的3d数据库制作方法
Fan et al. Convex hull aided registration method (CHARM)
CN115601430A (zh) 基于关键点映射的无纹理高反物体位姿估计方法及系统
CN104166995B (zh) 一种基于马步测度的Harris‑SIFT双目视觉定位方法
Pacheco et al. Reconstruction of high resolution 3D objects from incomplete images and 3D information
CN114170284A (zh) 基于主动标志点投射辅助的多视图点云配准方法
Zhong et al. Triple screening point cloud registration method based on image and geometric features
Azad et al. Accurate shape-based 6-dof pose estimation of single-colored objects
Wu et al. Photogrammetric reconstruction of free-form objects with curvilinear structures
Canelhas Truncated signed distance fields applied to robotics
Zhang et al. Kinect-based universal range sensor for laboratory experiments

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110405

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110408

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110502

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110712

R150 Certificate of patent or registration of utility model

Ref document number: 4785880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250