JP5337243B2 - 表面特徴の適応型3次元走査システム - Google Patents

表面特徴の適応型3次元走査システム Download PDF

Info

Publication number
JP5337243B2
JP5337243B2 JP2011521417A JP2011521417A JP5337243B2 JP 5337243 B2 JP5337243 B2 JP 5337243B2 JP 2011521417 A JP2011521417 A JP 2011521417A JP 2011521417 A JP2011521417 A JP 2011521417A JP 5337243 B2 JP5337243 B2 JP 5337243B2
Authority
JP
Japan
Prior art keywords
camera
feature
image
dimensional
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011521417A
Other languages
English (en)
Other versions
JP2011530071A (ja
JP2011530071A5 (ja
Inventor
サン−ピエール,エリック
チュビク,ドラガン
エベール,パトリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Creaform Inc
Original Assignee
Creaform Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Creaform Inc filed Critical Creaform Inc
Publication of JP2011530071A publication Critical patent/JP2011530071A/ja
Publication of JP2011530071A5 publication Critical patent/JP2011530071A5/ja
Application granted granted Critical
Publication of JP5337243B2 publication Critical patent/JP5337243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

関連出願との相互参照
本出願は、2008年8月6日出願の米国仮特許出願第61/086554号を優先権主張するものであり、本明細書に同明細書を引用している。
以下の記述は一般に、物体の表面形状の3次元走査の分野に関する。
物体の表面の幾何学的モデルを構築すべく距離センサが開発されてきた。これらのセンサは、当該センサと表面における点の集合との距離を測定する。近距離測定の場合、通常は三角形分割に基づくレーザー距離センサが用いられる。次いで、複数の視点から集められた測定値から、物体の一部または全体の表面形状をモデル化することができる。このため、距離測定を共通の大域座標系に統合する前にセンサと物体の間の相対位置を決定しなければならない。外部の測位装置を用いるかまたは検知器内の自動参照機能を統合することができる。P.Hebertらによる国際公開第2006/094409A1号に、レーザーパターンプロジェクタと、レーザーパターンおよび再帰性反射目標特徴の画像を同時に取得する2つのカメラを一体化した自動参照機能付き携帯用距離センサが開示されている。これらの再帰性反射特徴は自動参照に用いられ、自身のスペクトル帯域がレーザーパターンプロジェクタのスペクトル帯域に合致するLEDを用いて照射される。これらの特徴の観測に基づいて、当該システムはレーザー三角形分割を写真測量の原理と組み合わせて自動参照を行う。
当該システムは携帯操作向けにコンパクトであり、距離センサの現在位置のマッチングおよび計算を行うために対象特徴の表面形状を再現しながら3次元点のモデルを逐次且つ同時に構築する。
このようなシステムを用いても、物体の表面のカラーテクスチャを取得することはできない。最初に物体の表面の3次元モデルを構成し、次いでカラーカメラを用いて、テクスチャ付きモデル表現に統合して一体化する前にモデルに整列配置可能な物体の表面の画像を集めることができる。しかし、このような方法は、走査しながら完全なモデルを逐次構成できないにも拘わらず2つのシステムを必要とする。
公知のシステムの別の制約は復元されたモデルの解像度に関するものである。上記のカメラは測位に用いられるため、広い視野が必要とされる。逆に、物体の表面形状、すなわち形状をより高い解像度で復元すべく、より小さい表面部分を画像内でより多くのピクセルにマッピングする必要がある。従って、形状の測位と復元される解像度との間でトレードオフがある。
表面テクスチャおよび物体の形状という2つの特徴を、操作性の高いレーザー距離センサにより逐次取得可能にするシステムおよび方法を提供する。本システムおよび方法は更に、自動参照能力を維持しつつ微細な解像度でそのような特徴を取得可能にする。
彩色画像を自動的に整列配置させながら、物体の形状と同時に表面テクスチャを取得可能にすべく、カラーカメラを用いる従来技術に記述されているシステムのカメラを代替することが考えられる。LEDによる視認可能な彩色照明(通常は赤色照明であって、LEDのスペクトル帯域がレーザーパターンプロジェクタのスペクトル帯域に合致している)を白色光照明で代替すること、走査時における表面ハイライトを最小限に抑えること、およびテクスチャを復元しなければならない箇所の近傍におけるレーザーモノクロ光同士の干渉を含む多くの問題に直面しよう。また、走査中に表面モデルにテクスチャを統合化する逐次的な方式を開発しなければならない。これらの課題を解決する新規なシステムおよび方法を提案した後でさえ、テクスチャおよび形状特徴の解像度は、測位と測定された特徴の解像度との間の上述したトレードオフにより依然として制約される。
物体の3次元表面形状特徴および/またはテクスチャ特徴を取得するシステムおよび方法を提供する。前記物体表面上にパターンを射影し、前記物体の基本2次元画像を取得し、前記物体の2次元特徴画像を取得し、前記物体上での前記射影パターンの反射により、前記基本2次元画像から2次元表面点を抽出し、前記2次元表面点を用いてセンサ座標系内の3次元表面点の集合を計算して、2次元表面形状/テクスチャ特徴の集合を抽出する。
本発明の広範な一態様によれば、物体の表面点を表すデータを取得するシステムを提供する。本システムは、物体表面上に射影パターンを生成するパターンプロジェクタ、当該物体の少なくとも一部の基本2次元画像を表すデータを取得する少なくとも1つの基本カメラ、および当該物体の少なくとも一部の特徴画像を表すデータを取得する特徴カメラを有する検知器であって、射影パターンが基本画像上で明らかであり、センサ座標系内における基本カメラ、パターンプロジェクタ、および特徴カメラの空間関係が既知である検知器と、当該表面上での射影パターンの反射により得られた2次元表面点の少なくとも1つの集合を表すデータを基本2次元画像データから抽出する基本画像プロセッサと、2次元表面点の集合を表すデータを用いてセンサ座標系内の3次元表面点の集合を計算する3次元表面点計算器と、3次元表面点の集合を特徴画像データへ数学的に射影して特徴画像データ内における3次元表面点の位置を取得すると共に、特徴画像データにおける射影された3次元表面点から短い距離にある3次元表面点の集合の特徴データを抽出する特徴画像プロセッサとを含んでいる。
一実施形態において、特徴カメラはテクスチャカメラであり、特徴画像はテクスチャ画像であって、特徴画像プロセッサはテクスチャ画像プロセッサを含み、特徴データはテクスチャパッチ内の得られたテクスチャデータである。
一実施形態において、特徴カメラは高解像度カメラであり、特徴画像は高解像度2次元画像であって、特徴画像プロセッサは高解像度画像プロセッサを含み、特徴データは高解像度2次元表面点である。
本発明の別の広範な態様によれば、物体の表面点を表すデータを取得する方法を提供する。本方法は、少なくとも1つの基本カメラを用いて物体の少なくとも一部の基本2次元画像を表すデータを、射影パターンが基本画像上で明らかな状態で取得するステップと、特徴カメラを用いて物体の少なくとも一部の特徴画像を表すデータを取得するステップと、当該表面上での射影パターンの反射により得られた2次元表面点の少なくとも1つの集合を表すデータを基本2次元画像データから抽出するステップと、2次元表面点の集合を表すデータを用いてセンサ座標系内の3次元表面点の集合を計算するステップと、3次元表面点の集合を特徴画像データへ数学的に射影して特徴画像データ内における3次元表面点の位置を取得するステップと、特徴画像データにおける射影された3次元表面点から短い距離にある3次元表面点の集合の特徴データを抽出するステップとを含んでいる。
一実施形態において、基本2次元画像および特徴画像は、物体の表面へ射影パターンを生成するパターンプロジェクタを有する検知器と、物体の基本2次元画像を取得する少なくとも1つの基本カメラと、物体の特徴画像を取得する特徴カメラを用いて得られ、センサ座標系内の基本カメラ、パターンプロジェクタ、および特徴カメラの空間関係が既知である。
別の態様によれば、距離センサとの密結合された、焦点距離がより長いレンズを有する追加的なカラーカメラを用いて特徴画像を取得するシステムおよび方法を提供する。低解像度形状測定のために距離センサにより取得された基本画像を用いて、特徴画像内の表面テクスチャの抽出を誘導する。当該追加的なカメラはまた、モノクロ(すなわちグレイスケール)であってよく、物体上の高解像度形状を捕捉すべく用いられる。同様に、基本画像を用いて高解像度特徴の抽出を誘導する。より一般的には、2つの特徴を高解像度で取得する場合、物体の表面をモデル化しながら、形状およびカラーテクスチャの解像度の両方を独立に適合させることができる。
別の態様によれば、物体の3次元表面点を取得するシステムを提供する。本システムは、前記物体表面上に射影パターンを生成するパターンプロジェクタ、前記物体上の基本2次元画像を取得する少なくとも1つの基本カメラ、および前記物体上の高解像度2次元画像を取得する特徴カメラを有する検知器を含んでいる。射影パターンが前記基本画像上で明らかであり、前記基本カメラと前記パターンプロジェクタとの間の参照、および前記基本カメラと前記特徴カメラとの間の参照が既知である。本システムは更に、画像プロセッサと、3次元表面点計算器と、高解像度画像プロセッサとを含んでいる。画像プロセッサは、前記表面へ前記射影パターンの反射により得られた少なくとも1つの2次元表面点集合を前記基本2次元画像から抽出する。3次元表面点計算器は、前記2次元表面点の集合を用いてセンサ座標系内の3次元表面点の集合を計算する。高解像度画像プロセッサは、前記3次元表面点の集合を前記高解像度2次元画像上に射影して高解像度2次元画像から少なくとも1つの2次元高解像度表面点集合を計算する。
別の態様によれば、物体の3次元表面点およびテクスチャを取得するシステムを提供する。本システムは、前記物体表面上に射影パターンを生成するパターンプロジェクタ、前記物体上の基本2次元画像を取得する少なくとも1つの基本カメラ、および前記物体上のテクスチャ画像を取得する特徴カメラを有する検知器を含んでいる。射影パターンが前記基本画像上で明らかであり、前記基本カメラと前記パターンプロジェクタとの間の参照、および前記基本カメラと前記特徴カメラとの間の参照が既知である。本システムは更に、画像プロセッサと、3次元表面点計算器と、テクスチャ画像プロセッサとを含んでいる。画像プロセッサは、前記表面へ前記射影パターンの反射により得られた少なくとも1つの2次元表面点集合を前記基本2次元画像から抽出する。3次元表面点計算器は、前記2次元表面点の集合を用いてセンサ座標系内の計算された3次元表面点の集合を計算する。テクスチャ画像プロセッサは、前記テクスチャ画像上に前記3次元表面点の集合を射影してテクスチャ画像から少なくとも1つのテクスチャパッチ集合を計算する。
別の態様によれば、物体の3次元表面点を取得するシステムを提供する。本システムは、前記物体表面上に射影パターンを生成するパターンプロジェクタ、前記物体上の基本2次元画像を取得する少なくとも1つの基本カメラ、および前記物体上の2次元特徴画像を高解像度で取得する特徴カメラを有する検知器を含んでいる。射影パターンが前記基本画像上で明らかであり、前記基本カメラと前記パターンプロジェクタとの間の参照、および前記基本カメラと前記特徴カメラとの間の参照が既知である。本システムは更に、前記表面へ前記射影パターンの反射により得られた少なくとも1つの2次元表面点集合を前記基本2次元画像から抽出する基本画像プロセッサと、前記2次元表面点の集合を用いてセンサ座標系内の3次元表面点の集合を計算する3次元表面点計算器と、前記3次元表面点の集合を前記2次元特徴画像上に射影して2次元特徴画像から少なくとも1つの2次元高解像度表面点集合を計算する高解像度画像プロセッサと、射影された表面点の集合を用いて2次元特徴画像から少なくとも1つのテクスチャパッチ集合を計算するテクスチャ画像プロセッサと、前記大域参照フレーム内における前記検知器の位置を参照すべく前記センサ座標系と大域参照フレームの関係を表す変換パラメータを計算する3次元測位計算器と、前記変換パラメータを用いてセンサ座標系内の前記3次元表面点の集合を前記大域参照フレーム内の変換された3次元表面点の集合に変換する3次元表面点変換器と、大域参照フレーム内の変換された3次元表面点の集合から局所接平面の集合を計算する局所接平面計算器と、テクスチャパッチの集合を局所接平面の集合にマッピングおよび集積して局所テクスチャ付き接平面の集合を生成するテクスチャ積分器と、変換された3次元表面点の集合を集積して前記物体の3次元表面モデルを生成すると共に局所テクスチャ付き接平面の集合を3次元表面モデルにマッピングする表面再構成装置とを含んでいる。
別の態様によれば、物体の3次元表面点を取得する方法を提供する。前記物体の表面上に射影パターンを生成する。前記物体の基本2次元画像を取得する。射影パターンは前記画像上で明らかであり、前記基本2次元画像と前記射影パターンとの間の参照が既知である。前記物体の高解像度2次元画像を取得する。前記基本2次元画像と前記高解像度2次元画像との間の参照が既知である。前記表面上での前記射影パターンの反射により前記基本2次元画像から少なくとも1つの2次元表面点集合を抽出する。前記2次元表面点の集合を用いてセンサ座標系内の3次元表面点の集合を計算する。3次元表面点の集合を前記高解像度2次元画像に射影して少なくとも1つの2次元高解像度表面点集合を高解像度2次元画像から計算する。
別の態様によれば、物体の3次元表面点およびテクスチャを取得する方法を提供する。前記物体の表面上に射影パターンを生成する。前記物体の基本2次元画像を取得する。射影パターンは前記画像上で明らかであり、前記基本2次元画像と前記射影パターンとの間の参照が既知である。前記物体のテクスチャ2次元画像を取得する。前記基本2次元画像と前記テクスチャ2次元画像との間の参照が既知である。前記表面上での前記射影パターンの反射により少なくとも1つの2次元表面点集合を前記基本2次元画像から抽出する。前記2次元表面点の集合を用いてセンサ座標系内の3次元表面点の集合を計算する。3次元表面点の集合を前記テクスチャ2次元画像に射影して少なくとも1つの2次元テクスチャパッチをテクスチャ画像集合から計算する。
3次元表面走査用装置の構成図である。 使用時における図1の装置の構成を、取得する間に測定対象物体と共に示す。 3次元表面走査用システムを示すブロック図である。 レーザートレースの近傍でテクスチャが抽出される物体表面の領域を示す。 特徴画像の微細解像度レーザートレースの誘導された抽出の詳細を示す。 例示的な携帯検知器をケースと共に示す。
各図面において同一特徴は同一参照番号により識別されることに注意されたい。
図1、2における適合される装置の構成を説明した後で、図3に示すブロック図によりシステム全体について述べる。
図1に、図3のシステムで用いる検知器40の例示的な実施形態の模式的な正面図を示す。装置40は2つの基本物体および本明細書において基本カメラ46と呼ぶ光検知器を含んでいる。本実施形態において、基本カメラ46は、進化した走査デジタルカメラである。当業者には容易に理解されるように、このようなカメラに加え、広範な種類の物体・光検知器が本発明の実装に適していて、今後間違いなく他のものも開発されるであろう。2つの基本カメラ46は、距離D1(52)だけ離れた射影中心すなわちベースラインを有していて、1対の受動型ステレオカメラを構成している。これらの基本カメラ46の視野は、例えば60度であってよく、且つこれらはモノクロカメラであってよい。
レーザーパターンプロジェクタ42は通常、ステレオペアのベースラインから距離D3(56)の位置に置かれ、各々が左側カメラおよびレーザーパターンプロジェクタの第一のケースおよび右側カメラおよびレーザーパターンプロジェクタの第2のケースに収められた2つの追加的な動作中のセンサが得られるコンパクトな三角形構造をなしている。これら2つの追加的な動作中のステレオペアについて、ベースラインD2(54)を図1に示す。レーザーパターンプロジェクタ42は、目に安全なクラスIIのレーザーであってよい。これは、赤い十字パターンを射影することができる。レーザーパターンプロジェクタ42のファン角は45度であってよい。
図1の構成において、検知器は光源50を更に含んでいる。光源は、基本カメラ46の周辺に分散配置された2つのLED集合を含んでいてよい。本実施形態において、光源50は、再帰性反射目標からより強い信号を取得すべくカメラ46の光軸になるべく近く配置されている。通常、光源50は基本カメラ46を囲むリング光として提供される。例えば、色走査器において、8つの白色LEDを含むリング光を用いてよい。高解像度走査器において、4つの赤色LEDを含むリング光を用いてよい。光源50は、物体62(図2参照)に配置されて測位特徴として用いられる再帰性反射目標60を照射する。再帰性反射目標60は、物体上に約10cm間隔で配置されていてよい。光源50は更に、彩色テクスチャを観測できるように物体の表面を照射することができる。
本明細書で特徴カメラ59と呼ぶ第2の物体・光検知器が、物体62の表面の高解像度形状および/またはカラーテクスチャを取得する検知器に追加されている。一実施形態において、特徴カメラ59は、物体62のズームイン画像、すなわち基本カメラ46により得られたる画像と比較してズームインされた画像を取得する高解像度光検知器を備えている。この高解像度特徴カメラ59は、13度の視野を有し、且つモノクロであってよい。別の実施形態において、特徴カメラ59は、物体62のカラーテクスチャ画像を取得するカラーカメラを備えている。このテクスチャ特徴カメラ59は、20度の視野を有し、且つカラーカメラであってよい。特徴カメラ59は、2つの基本カメラのベースライン軸から距離D4(58)の位置に置かれている。従って、全てのカメラ46および59とレーザーパターンプロジェクタ42との間に3次元測定用のベースラインが存在する。
しかし、更なる実施形態において、モノクロカメラを用いて物体のカラーテクスチャ画像ではなくグレイスケールテクスチャ画像を取得する点に注意されたい。線形偏光フィルタ48が、特徴カメラ59の前部且つ光源50の前部に取り付けられている。光源50上の、および特徴カメラ59におけるこのようなフィルタの組合せにより、鏡面ハイライトが低減または除去されて拡散反射が維持される。
基本カメラおよびレーザーパターンプロジェクタ42の三角形構成が特に興味深いのは、D3(56)により当該三角形が2つの45度の角度および十字パターン44の2つのレーザー平面間に90度の角度を有する二等辺三角形をなす場合である。この特定の構成により十字パターンは、各平面が画像の中心だけでなく各カメラの両方の射影中心に整列する向きに配置される。これは、1つのレーザー平面(非動作平面)が、観測されたシーンとは独立に、常に画像内の同じ位置で直線として撮像されることが主な利点である中心エピポーラ線に対応する。次いで関連する3次元情報を2つの画像の各々における歪んだ第2の光面から抽出することができる。
基本検知器全体はこのように再帰性反射目標60を同時に取得すべく、2つのレーザー表面形状測定装置46A−42および46B−42、1つの受動型ステレオペア46A−46B、および2つのモジュール46A−50および46B−50を含んでいる。各レーザー表面形状測定装置46A−42および46B−42は、基本カメラ46のうち1つとレーザーパターンプロジェクタ42の組合せにより定義される。受動型ステレオペア46A−46Bは2つの基本カメラ46A−46Bの組合せにより定義される。各モジュール46A−50および46B−50は基本カメラ46のうち1つとその各々の光源50の組合せにより定義される。この構成はコンパクトなものであってよい。特徴カメラ59は、3つのステレオペア(すなわち59−46A、59−46Bおよび59−42)を加える。しかし、特徴カメラ59は、ズームイン高解像度形状またはカラーテクスチャ画像取得のために用いられる。2つの特徴の測定はここに記述する実施形態で統合される。
この例示的な検知器40は、ベースラインD1(52)は通常、検知器40と物体62との間のスタンドオフ距離が300〜400mmの場合、誤差1ミリメートル未満で約190mmである。D3(56)の値はD1の半分に設定されている。D1を拡大縮小することにより、距離D2は自動的に追随する。距離D4(58)は通常、小型化のためD3以下である。D4の典型的な値は55mmである。
検知器40は通常、物体62に配置された測位特徴を用いて自動参照される携帯機器である点に注意されたい。しかし、検知器40は必ずしも携帯ではなく、例えば機械式アクチュエータに取り付けられていてもよく、外部参照センサまたはその他の任意の測位機器を用いて別途参照を実行してもよい。検知器40が携帯機器である場合、手で簡単に操作できるケース内に作られていることが好適である。携帯検知器40の全体的な重量は従って、典型的なユーザーの力を考慮すべきであって、例えば1.5kgに制約されてよい。同様に、携帯検知器40の寸法は、走査中に検知器の操作ができるものであって、例えば20cm×30cm×25cmに制約されていてよい。
図2に、測定対象の物体62を観測すべく配置された検知器40の3次元図を示す。2つの基本カメラ46および十字レーザーパターンプロジェクタ42を含む上述のコンパクトな三角形アーキテクチャを見ることができる。検知器40は、射影パターン44および測位特徴60の集合を含む画像を取得する。測位特徴60は、孤立したレーザー点または円形の再帰性反射目標のトレースを含んでいてよい。本実施形態において、特徴カメラ59は物体の表面のズームイン画像を取得する。
図6に、ユーザーが携帯するのに適したケース内の検知器40の例を示す。ケース90はハンドル部91を含んでいる。基本カメラ46A、46B、特徴カメラ59、およびレーザーパターンプロジェクタ42の相対位置は上で述べた通りである。ハンドル部91は、リング光48およびレーザーパターンプロジェクタ42のライト50を起動させるトリガースイッチ93を含んでいる。携帯検知器40は、例えばパソコンにインストールされた取得用ソフトウェアモジュールに導線94を用いて連結されている。容易に理解されるように、当業者が無線走査器を提供してもよい。
図3を参照するに、検知器40での利用に適した3次元表面走査システムを一般的に10で示す。検知器40を含むシステム全体の統合の他に、特徴画像プロセッサ15およびその3次元表面点計算器18とのやり取り38が特に注目されよう。特徴画像プロセッサ15は、センサ座標系内の計算された3次元低解像度表面点の集合により誘導されて、テクスチャ、すなわちこの場合はカラーテクスチャ、および/または形状をより微細な解像度で抽出することができる。また、各特徴画像13において抽出されたテクスチャパッチ74(図4参照)を大域座標系内の復元された部分形状にマッピングするテクスチャ積分器25もまた特に注目されよう。
図3の3次元表面走査システム10は、テクスチャ撮像および高解像度形状撮像機能の両方を実装する。図3の3次元表面走査システム10において、テクスチャおよび形状の両方が同時に得られる。しかし、別の実施形態では、テクスチャ撮像だけが実装されて高解像度形状撮像は除外される点に注意されたい。更に別の実施形態では、高解像度形状撮像だけが実装される。後者の場合、特徴カメラ59は通常、非彩色、すなわちグレイスケールカメラであって、テクスチャ積分器25は除外されている。また、図3の3次元表面走査システムは通常、ユーザーによるテクスチャ撮像および高解像度形状撮像機能の起動および停止を許すオプションを有している点にも注意されたい。
検知器
システム10は、図1、2に関して上でより詳細に述べた検知器40等の検知器11を含んでいる。検知器11は、観測されたシーンの基本画像の集合12を収集して画像プロセッサ14に送信する。これらの画像は、異なる視点を有する2つの基本カメラ46(図1参照)から収集することができ、これらの視点の各々は自身の射影中心を有している。基本画像12に含まれる関連情報は、他のフレーム取得に関して検知器11の相対位置の計算に利用できる測位特徴60と共に、物体の表面で反射されたレーザーパターン44の反射から生じる場合がある。所与のフレーム内の全ての画像が同時に取得されて、測位および表面測定の両方が含まれるため、測位と表面測定の同期化は暗黙的に行われる。
検知器11はまた、追加的なカメラ、すなわち特徴カメラ59(図1参照)を統合しており、その目的は特徴画像13を取得することである。特徴カメラ59の視点は既知、すなわち基本カメラ46の視点に関して参照され、基本カメラ46と特徴カメラ59は全て互いに同期化されている。通常、特徴画像13は、例えば高解像度画像またはカラー画像のいずれかである。
図3において、検知器11を、少なくとも1つの基本カメラ46および少なくとも1つの特徴カメラ59、基本画像の集合12を生成する基本カメラ46、および特徴画像13を生成する特徴カメラ59を含むものとして示す。
当業者には留意され容易に理解されるように、1対のカメラから立体視を生成するのではなく、「動作から立体視」または「動作から3次元」を生成して、測位に単一のカメラを用いてもよい。
画像プロセッサ
画像プロセッサ14は、各基本画像12から測位特徴および表面点を抽出する。各基本画像12に対して、2次元表面点の集合16と共に観測された2次元測位特徴の集合20が、それらの連結性を含めて出力される。これらの集合の各々の連結性が実際に2次元曲線セグメントを定義する。表面点および特徴は、それらの固有特徴に基づいて基本画像12内で識別される。これらの特徴と関連付けられた画素は、背景と対照をなしていて、重心または楕円フィッティング(E.Trucco and A.Verri,“Introductory techniquies for 3−D computer vision”,Prentice Hall,1998参照)を用いてそれらの位置を推定する前に、簡単な画像処理技術により分離することができる。円形の目標を用いることにより、フィッティングされた楕円の方程式から表面法線方向の情報を抽出することができ、センサ測位が容易になる。レーザーパターンプロジェクタが画像内の対照的な曲線セグメントを生成することにより異なる2次元形状を提示するため、表面点の集合が測位特徴から区別される。画像の曲線セグメントは単一ブロブとして分離され、これらのブロブの各々について、曲線セグメントが解析されてサブピクセル精度で曲線に沿った点の集合が抽出される。これは、曲線セグメント全体にわたり微分演算子を畳み込んで、その応答のゼロ交差点を補間することにより実現される。後者の動作は通常、ピーク検知と呼ばれる。
十字レーザーパターンの場合、本明細書に記述する装置のアーキテクチャの利点がある。2つの基本カメラ46および十字パターンプロジェクタ42を有する構成において、2つのレーザー平面のうち一方が各基本カメラ46内の一定の位置で1本の直線を生成するように基本カメラ46が整列配置されている。これは、所与のカメラ46に対する非動作レーザー平面である。これらの非動作レーザー平面は、両方のカメラ46に対して対向している。Hebert(P.Hebert“Self−Referenced Hand−Held Range Sensor”,in proc. of the 3rd International Conference on 3D Digital Imaging and Modeling(3DIM 2001),28May−1June2001,Quebec City,Canada,pp.5−12参照)により提案された本構成により画像処理タスクが大幅に簡素化される。これはまた、曲線セグメントを定義するそれらの3次元連結性と共に、十字レーザー平面への2次元表面点の各集合の割り当てを簡素化する。
2次元表面点の集合16が表面形状全体の走査を復元すべくシステム内の1本の経路を辿る間に、観測された2次元測位特徴の集合20は第2の経路を辿り、物体の表面に関する検知器11の相対位置を復元するために用いられる。しかし、これら2種類の集合は、後述するように大域座標系と共にセンサ座標系内の3次元情報を取得すべく更に処理される。
3次元表面点計算器
3次元表面点計算器18は、第1の入力として抽出された2次元表面点の集合16を取り込む。これらの点は、レーザー射影パターンのセグメント、例えば十字パターン44の2平面のうちの1つに関連付けられていてよい。関連付けが既知の場合、各々の2次元点は対応する照射光線とレーザー平面方程式を交差することによりセンサ座標系内の3次元点に変換することができる。光線の方程式は、関連付けられたカメラの射影行列から得られる。レーザー平面方程式は、較正済み手順(P.Hebert,“A Self−Referenced Hand−Held Range Sensor”,in proc. of the 3rd International Conference on 3D Digital Imaging and Modeling(3DIM 2001),28May−1June2001,Quebec City,Canada,pp.5−12参照)を用いて得られる。また、例えば正確な変換段階によりセンサ11を較正した後で参照テーブルを利用することにより、2次元点から直接3次元点を取得することも可能である。どちらの方式を用いてもよい。最初のケースでは、手順は簡単であって、高度な機器を必要としないが、カメラ固有および外部パラメータを極めて良好に推定する必要がある。
各2次元点をレーザーパターンの特定の構造に関連付けることを回避することも可能である。これは特に、より複雑または一般的なパターンの場合に興味深い。この場合、基本行列を使用し、エピポーラ制約を用いて点のマッチングを行うことにより3次元表面点を計算することが依然として可能である。曖昧性を排除してこれが行えるならば、カメラの既知の射影行列から三角形分割を計算してセンサ座標系内の3次元点を取得することができる。
3次元表面点計算器18は、後述するように、特徴画像プロセッサ15による高解像度2次元点の抽出を容易にすべくセンサ座標系内におけるこれらの計算された3次元低解像度表面点の集合19を特徴画像プロセッサ15に送る。計算された3次元表面点の集合は、センサ座標系内におけるこれらの3次元低解像度表面点の集合19とセンサ座標系内の高解像度表面点の集合17を含むセンサ座標系内における出力された計算済み3次元表面点の全ての集合21内でこれらを区別すべく低解像度であると言われる。
高解像度表面点の集合を計算すべく、3次元表面点計算器18は更に、入力として高解像度2次元表面点の集合17を取り込む。上述の低解像度3次元表面点の計算に用いたのと同じ手順を用いる。この手順は、特徴カメラ固有および外部パラメータの極めて良好な推定または参照テーブルの利用のいずれかを必要とする。
3次元表面点計算器18は、センサ座標系内の計算された3次元表面点の全ての集合21を出力する。これらの集合は組織化されていない集合であっても、または画像内の連結セグメントに関連付けられた3次元点が微分により3次元曲線の接線を推定するためにグループ化されるような仕方で組織化されていてよい。これらのセグメントは更に、そのソース画像に応じて高いかまたは低い解像度のセグメントにグループ化されていてよい。この情報は、復元された表面モデル35の品質を局所的に適合させるべく局所接平面計算器29または表面再構成装置34により利用できる。
特徴画像プロセッサ
特徴画像プロセッサ15は、より長い焦点距離のレンズが通常取り付けられた特徴カメラ59(図1参照)から得られた画像である特徴画像13を入力として取り込む。通常、特徴画像13は(より良い解像度のために)、測位特徴または物体に反射された全てのパターンを必ずしも含んでいる訳ではない走査の小部分をカバーするに過ぎない。従って、参照は基本画像12から知られ、特徴画像13と基本画像12との間の空間関係はカメラ較正から知られる。特徴画像13は、モノクロまたは彩色であってよい。前者の場合、抽出された特徴は本質的に形状またはモノクロテクスチャであるのに対し、後者の場合は更に色テクスチャ特徴を含んでいる。
高解像度形状情報、すなわち高解像度特徴2次元表面点の集合を計算すべく、特徴画像プロセッサ15は、センサ座標系内の3次元低解像度表面点の集合19を、固有パラメータが較正済みであってセンサ座標系に関する空間関係、すなわちその外部パラメータもまたカメラ較正を介して得られた特徴カメラ59の座標系に射影する。連結された3次元点の射影集合は、セグメントの集合を特徴画像13に射影する。特徴画像座標系内におけるこれらの取得された近似位置から、局所画像処理が適用されて、撮像されたレーザートレースから2次元の対応する点を抽出する。
これを行うべく、射影から得られた被連結2次元点の各集合は曲線セグメント、すなわち多角形80の区分線形近似を与える。図5に、特徴画像内におけるレーザートレース88の誘導された抽出の詳細を示す。区分線形近似、すなわち多角形80は、最初に基本画像から得られた、計算された3次元低解像度表面点の対応する連結集合の射影の後で特徴画像13上に重畳される。これらの点の射影は多角形80の頂点82である。多角形80は次いで再サンプリングされる。図5において、1つの部分を、線形部分毎に4つの追加的な位置84が得られる5つのサンプリング係数と共に示す。多角形80に沿った各々の点82、84において、特徴画像が法線方向86に沿ってサンプリングされる。通常、20〜30の画像サンプルがこれらの方向に沿って計算されて、1次元信号が得られる。サンプル間の距離は1画素の幅である。この1次元曲線から、サブ画素ピーク位置が推定されて、高解像度2次元表面点が得られる。最後に、これらの信号を用いて特徴画像内のレーザートレース88のピークが検知される。低解像度多角形が射影するピークの精度が向上した位置が取得される。各々の連結集合についてこれらの2次元表面点を集めるにより、高解像度2次元表面点の集合17が出力される。
局所特徴画像信号から局所法線方向を推定することも可能である点に注意されたい。
形状は、物体表面の一特徴である。独立に処理可能な他の特徴としてグレイスケールテクスチャおよびカラーテクスチャがある。以下の記述においてカラーテクスチャの取得および処理を想定しているが、グレイスケールテクスチャの取得および処理もまた可能である点に注意されたい。原理は、同じままである。すなわち、局所特徴の抽出は、センサ座標系内の3次元低解像度表面点の初期集合19の射影を用いて誘導される。多角形の近傍にレーザートレースが存在すれば、画素の色がレーザートレースの両側付近の領域で集められる。図4に、特徴画像内のレーザートレースの近傍で復元されたテクスチャパッチ74を示す。図の右側部分においてセグメントがズームインされている。レーザートレースからの2つの距離τ1(72)およびτ2(70)が、レーザートレースの近傍で復元されたテクスチャの幅を区切る。色は、τ1(72)〜τ2(70)の範囲の間の距離で復元される。τ72はレーザー照明との色の干渉を避けるように設定されている。一実施形態において、τ1(72)に対する典型的な値は10画素、およびτ2(70)に対しては25画素である。局所テクスチャを構成するこれらの画素の各々に対して、復元された曲線セグメントで、または形状が改良されていない場合は多角形で最も近い表面の(x、y、z、r、g、b)座標が割り当てられている。特徴画像プロセッサ15は、センサ座標系内の3次元座標により拡張されたテクスチャビットマップとして、画像テクスチャパッチの集合を出力する。所与のフレームにおいて、全ての視点から集められた全ての画像テクスチャパッチを合体する役割を有するテクスチャ積分器25に画像テクスチャパッチ74の集合が送られる。テクスチャ積分器25については局所接平面計算器の後で記述する。
3次元測位計算器
3次元測位計算器23のタスクは、計算された3次元表面点の各集合21および画像テクスチャパッチの集合に対して変換パラメータ26を提供することである。これらの変換パラメータ26により、構造を維持しながら、画像テクスチャパッチの各画素22の3次元表面点21または座標(x、y、z)を単一の大域座標系に変換することが可能になり、すなわち剛体変換である。本実施形態においてこれは、大域座標系内の参照3次元測位特徴の集合30を構築および維持することにより実現される。測位特徴は、3次元点の集合、付随する表面法線または他の任意の表面特徴を有する3次元点の集合であってよい。本実施形態において、測位特徴を利用した自動参照を用いているが、別の実施形態では他の測位システムを用いてもよい点に注意されたい。例えば、外部参照センサまたはその他の測位装置を用いてもよい。
図3の実施形態において、全ての測位特徴が、3座標軸に沿って点の位置を示す3つの要素を含む列ベクトル[x、y、z]Tとして表された3次元点であると仮定する。
検知器11が較正されているため、基本カメラ46の視点間で合致した測位特徴を用いてそれらの3次元点を推定する。観測された2次元測位特徴の集合は、エピポーラ制約を用いてマッチングされて曖昧でない合致を取得する。エピポーラ線は、基本カメラ46の較正された射影行列から計算された基本行列を用いて計算する。次いで、カメラ46の既知の射影行列から三角形分割が適用されて各フレームに対してセンサ座標系内の3次元測位特徴の単一集合を計算する。
走査セッションの開始時点では参照3次元測位特徴の集合30は空である。検知器11が第1の測定値の集合を与えるに従い、識別変換を用いて特徴が参照3次元測位特徴30の集合にコピーされる。当該集合は従って、参照3次元機能の全ての後続する集合に対する参照集合になり、当該第1のセンサ位置は全ての3次元表面点が整列配置された大域座標系を定義する。
参照3次元測位特徴の初期集合が生成された後で、後続する測位特徴の計算された集合が最初に参照集合30とマッチングされる。マッチング動作は、2つのタスクに分割される。すなわち、i)現行フレームのセンサ座標系内の計算された3次元測位特徴の集合と、大域座標系内の参照3次元特徴の集合との間で対応する特徴を見出して、ii)2つの集合を最適に整列配置する最適な3次元剛体変換の変換パラメータ26を計算する。パラメータが計算されたならば、これを現行フレームの計算された3次元測位特徴、センサ座標系内の計算された3次元表面点21、および画像テクスチャパッチ22の変換に用いることによりこれら全てを大域座標系に整列配置させる。
参照3次元測位特徴の集合Rを計算した後で、現行フレーム内の計算された3次元測位特徴の集合Oを、カメラ1、2から得られた、観測された2次元測位特徴の集合20P1、P2から計算する。3次元座標は三角形分割により得られる。3次元測位特徴のこれらの集合のマッチングは、全ての点(oi,ri)、但しoi∈Om且つr⊆im、の対が同じ物理的特徴を表すような各々N個の特徴を含む2つの部分集合Om⊆O且つRm⊆Rを見出す問題である。これらの部分集合の発見は、次式を満たすような点
Figure 0005337243
のセグメントの最大数を見出すことにより実現される。
Figure 0005337243
ここに、εは検知器の精度に対応すべく設定された所定の閾値である。この制約により、2つの集合内の対応する1対の点の間の距離の差が無視できる。
このマッチング動作は、集合Oからの点の各セグメントが集合R内の点の各セグメントと漸次的にマッチングされる組合せ最適化問題として解かれる。各々のマッチングされたセグメントは次いで、2つの集合の各々で残った点を用いて追加的なセグメントを形成することにより拡張される。2つのセグメントが制約(1)を満たすならば、第3のセグメントが形成され、制約が満たされる限り以下同様である。さもなければ当該対は廃棄されて次の対が調べられる。解は、(1)を満たすセグメントの最も大きい集合である。他のアルゴリズム(例えばM.Fischler and R.Bolles,(1981)“Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography”,Communications of the Assoc.for Computing Machinery,(June 1981),vol.24,no.6,pp.381−395参照)を同じ目的に用いることができる。
参照3次元測位特徴の集合30の要素の数が比較的少ない(通常は15未満)限り、上述の方法による計算の複雑度は実時間動作に受容可能である。しかし実際には、参照特徴の数は簡単に数百個もの測位特徴に達し得る。計算の複雑度は特徴の数に対して指数的に増大するため、対応する特徴の計算は実時間アプリケーションには遅くなり過ぎる恐れがある。当該問題は、検知器11の視野の有限性に制限されるため、どの特定の視点からも見える測位特徴の数が少ない点に注目して解かれる。
これは、所与のフレームについて計算された特徴が参照特徴30にマッチングできる場合、参照集合からのマッチングされた特徴が、計算された特徴の集合の大きさにより大きさが決定される小近傍内で特定されなければならないことを意味する。これはまた、当該近傍内の点の数も少なくなければならない(通常15未満)ことを意味する。この特性をマッチングの高速化に利用すべく、上述の方法を以下のように修正する。マッチングに先立って、各参照特徴に対して隣接する特徴の集合[Ni]を生成する。点の初期セグメントがマッチングされた後で、最初にマッチングされた特徴の近傍集合[Ni]内の点だけを用いて追加的なセグメントを加えることにより拡張される。これにより、マッチングに用いられた点の数は参照集合30の大きさによらず少ないままであり、従って計算の複雑度が指数関数的に増大することを防ぐ。
あるいは、検知器の位置および向きの空間相互関係を利用することにより、マッチング速度を向上させることができる。検知器の位置ずれが測位特徴の集合の大きさに対して小さいと仮定すれば、各々の観測された測位特徴に最も近い参照特徴を見出すことによりマッチングを実現することができる。同じ原理を2次元において、すなわち最も近い2次元測位特徴を見出すことに利用できる。
マッチングがなされたならば、2つの集合は、次式のコスト関数が最小化されるように最小2乗法の意味で最適変換パラメータ[M T]を計算することにより整列配置する必要がある。
Figure 0005337243
変換パラメータは、3×3回転行列Mおよび3×1変換ベクトルTからなる。そのような変換は、M.W.Walker,L.Shaoand R.A.Volz,“Estimating 3−D location paraeters using dual number quaternions”,CVGIP:Image Understanding,vol.54,no.3,November,1991,pp.358−367に記述されているように、双対四元数を用いて見出すことができる。この変換を計算すべく、少なくとも3つの共通測位特徴を見出しなければならない。さもなければ、現行フレームについて測位特徴と表面点の両方が廃棄される。
剛体変換を計算する代替方式は、観測された2次元測位特徴20と参照3次元測位特徴30の射影との間の距離を最小化するものである。透視射影変換Πを用いて、最小二乗法の意味で最適且つ剛体変換[M T]は次式を最小化する変換である。
Figure 0005337243
ここに、pi⊆P1またはpi⊆P2は観測された3次元特徴oi⊆Omに対応する観測された2次元特徴である。剛体変換[M T]は、Levenberg−Marquardt法等の最適化アルゴリズムを用いて上述のコスト関数を最小化することにより見出される。
剛体変換が計算されたならば、計算された3次元測位特徴の集合はセンサ座標系から大域座標系に変換される。変換された3次元測位特徴を用いて2通りの方法で参照3次元測位特徴の集合30が更新される。第一は、観測された特徴の部分集合だけが参照特徴の集合とマッチングされた場合、合致しなかった観測済み特徴は参照集合に加えられた新たに観測された特徴を表す。再び観測されて合致した特徴は(既に参照集合に存在するため)廃棄しても、または改良すなわち既存の特徴のフィルタリングに利用してもよい。例えば、平均的な特徴位置を計算すべく同一特徴の全ての観測を合算することができる。これにより、測定ノイズの分散が減少して測位システムの精度が向上する。
3次元表面点変換器
3次元測位計算器23により変換パラメータ26が得られたならば、表面点の処理ステップは簡単である。3次元表面点計算器18により得られたセンサ座標系内の計算された3次元表面点の集合21は次いで、3次元表面点変換器24により剛体変換パラメータ26MおよびTを用いて変換される。その結果得られた大域座標系内の変換された3次元表面点の集合27は従って、同一座標系において参照3次元測位特徴の集合30と自然に整列配置されている。最終的な大域座標系内の変換された3次元表面点の集合27は視覚化されるか、または表面再構成装置34の前に局所接平面計算器29に送られてもよい。表面再構成装置は、オプションとして参照3次元測位特徴30の重畳された集合と共に表示される、連続的な非冗長且つ恐らくはフィルタリングされた表面モデル35表現を推定する。
局所接平面計算器
局所接平面計算器29は、大域座標系内の変換された3次元表面点の集合27を入力として取り込み、物体表面上の3次元接平面の局所的推定を行う。この処理は表面再構成装置34内に統合できるが、物体表面上の局所接平面の推定に連続面表現が必要とされないことをより分かりやすく示すべく、ここでは分離されている。局所接平面の推定を実時間で行う一つの可能性は、規則的な体積格子を定義して、各ボクセル内の3次元表面点を集積することにある。集積された3次元点から、ボクセル内またはボクセルを囲む体積内にある3次元点に基づいて各ボクセル毎に接平面を計算することができる。この種のアプローチはT.P.Koninckx,P.Peers,P.Dutre,L.J.Van Gool,“Scene−Adapted Structured Light”,in proc.of Computer Vision and Pattern Recognition(CVPR 2005),vol.2,San Diego,USA,2005,pp.611−618,およびS.Rusinkiewicz,O.A.Hall−Holt,M.Levoy,“Real−time 3D model acquisition” in proc.of ACM SIGGRAPH 2002、San Antonio,USA,pp.438−446,またはD.Tubic,P.Hebert、D.Laurendeau,“3D surface modeling from curves”,Image and Vision Computing,August 2004,vol.22,no.9,pp.719−734で用いられている。
この初期非連続形状が局所的に安定した、すなわち例えば3次元点共分散行列の2つの最小固有値が同様である一方で第3の固有値がボクセル内で大幅に小さい場合、局所平面のパラメータをそれらの共分散行列の2つの1次モーメントから計算する。各局所接平面の幅は通常、直径が1乃至2ボクセル分の斜辺長の間にある円である。局所接平面計算器は、27からコピーされた大域座標系内の変換済み3次元表面点の集合31と共に、パラメータおよび幅を含む局所接平面の集合28を出力する。
局所接平面計算器29は、局所接平面の集合の計算の解像度を調整する接平面解像度調整器を含んでいてよい。当該調整器は、局所接平面計算器29の解像度パラメータの変更を可能にする手動または自動調整器であってよい。
テクスチャ積分器
テクスチャ積分器25は、全てのフレームで復元された画像テクスチャパッチの集合22を収集し、更に安定化された局所接平面の集合28を入力として取り込む。局所接平面が、利用可能になった時点で独立に与えられることを述べておく。これにより、表面が走査されるにつれて逐次的に当該処理を適用することが可能になり、フレームの集合が全て揃うまで進行を待つ必要が無い。
各局所接平面セグメントは、形状解像度とは独立に設定可能な選択された解像度で局所画像としてモザイク状にされる。これらのセルをテクセルと呼ぶ。テクスチャ積分器は更に、3次元測位計算器23から変換パラメータ26を入力として取り込む。これらの変換パラメータを用いて、現行のセンサ座標系と大域座標系との空間関係が既知であることにより、画像テクスチャパッチの集合22を再度射影することにより局所接平面にマッピングすることができる。テクスチャ画像パッチの集合内の各画素は、対応する局所接平面の更新に寄与する。このため、局所接平面内の全てのテクセルは局所平面にマッピングする画素から更新される。各画素は、距離に応じて減少する重みに基づいて全てのテクセルに寄与する。テクセルは、全てのフレームからの全ての寄与する画素の加重平均として得られる。
テクスチャ積分器25はまた、色強度補償を適用する。実際、テクセルに統合化する前に安定した色の測定値を取得することが好ましい。色強度は通常、光源50までの距離の2乗および光源50と接平面法線との間の角度の余弦に応じて変化する。一実施形態において、2つの基本カメラ46の被写体の周辺に8つの光源50が分散配置されている。更に、光源50および特徴カメラ59の正面の偏光フィルタ48の使用により、鏡面反射が除去されて拡散反射が維持される。従って光源50と表面がなす角度だけを考慮すればよく、色強度補償において表面と特徴カメラ59がなす角度は無視してよい。センサ設計または較正から、センサ座標系における光源位置が既知である。更に、各光源が加法的に組み合わさるため、光源が同一と仮定するかまたは強度を調整することにより、各テクセルへの色の照射をフレーム間で正規化できる。当該補償処理はまた、P.E.Debevec and J.Malik,“Recovering High Dynamic Range Radiance Maps from Photographs”,in proc. of ACM SIGGRAPH 1997,Los Angels,USA,pp.369−378に提案されている較正のような測光カメラ較正を用いる。テクスチャ積分器25により局所テクスチャ付き接平面32が生成される。
あるいは、テクスチャ積分器25により、対応する表面座標マッピング情報を有する2次元テクスチャマップ36を用意して表面再構成装置34に提供することができる。表面再構成装置34からのフィードバックとして三角形分割データ37を用いて2次元テクスチャマップ36を生成することができる。
表面再構成装置
表面再構成装置34は、大域座標系内の変換された3次元表面点の集合31および局所テクスチャ付き接平面の集合32を入力として取り込み、表面モデルを計算する。あるいは、対応する表面座標マッピング情報と共に2次元テクスチャマップ36を用いることができる。局所接平面が再構成された表面からも得られることに注意されたい。表面点の集合から、米国特許第7,487,063号明細書またはB.Curless,M.Levoy,“A Volumetric Method for Building Complex Models from Range Images”in proc. of ACM SIGGRAPH 1996,New Orleans,USA,pp.303−312に記述されている方法を用いて表面形状の連続表現を計算することができる。これら2通りのアプローチは体積表現を利用する。前者のアプローチは、効率化を目指す局所接平面に関する知見から利益が得られる。体積表現は次いで、三角形分割面表現に変換される。このため、マーチングキューブアルゴリズムを用いることができる(例えば、W.E.Lorensen and H.E.Cline,“Marching Cubes:A High Resolution 3D Surface Construction Algorithm”,in proc.of the ACM SIGGRAPH 87,Los Angeles,USA,vol.21,no.4,pp.163−170参照)。三角形分割面が得られたならば、重なり合う領域が混ざった状態で局所テクスチャ付き平面の集合が三角形分割面にマッピングされて連続面テクスチャが得られる。
表面再構成装置34は、変換された3次元表面点の集合の集積の解像度を調整するモデル解像度調整器を含んでいてよい。当該調整器は、表面再構成装置34用の解像度パラメータの変更を可能にする手動または自動調整器であってよい。
走査器40をテクスチャ走査に用いる場合、1インチ当たり200〜250ドット(DPI)のビットマップを局所接平面に関連付けることができる。テクスチャカラーをsRGB較正された24ビットで与えることができる。フィールドの深さは、例えば30cmであってよい。テクスチャ検知器40は、例えば形状解像度が0.1mmで毎秒約18,000回の測定を行うことができる。
走査器40を高解像度走査に用いる場合、高解像度ボクセル解像度は0.25mmであってよい。対照的に、高解像度能力を備えていない走査器40のボクセル解像度は1mmであってよい。フィールドの深さは、例えば30cmであってよい。高解像度検知器40は、例えば、x、y、z方向の解像度が0.05mmで毎秒約25,000回の測定を行うことができる。
例えば基本カメラ48、レーザープロジェクタ42、および特徴カメラ59等のセンサを含む各種の機器および構成要素を用いて図3に示す各種プロセッサが使用できる入力データを生成することができる。
ブロック図では好適な実施形態が異なるデータ信号連結を介して互いに通信する離散的構成要素のグループとして示されているが、これらがハードウェアおよびソフトウェア構成要素の組合せにより提供でき、いくつかの構成要素がハードウェアまたはソフトウェアシステムの所与の機能または動作により実装され、データ経路の多くがコンピュータアプリケーションまたはオペレーティングシステム内でのデータ通信により実装されているか、または任意の適当な公知または将来開発される有線および/または無線による方法および機器を用いて通信すべく接続可能であることが当業者には理解されよう。センサ、プロセッサおよび他の機器は、同一箇所に、あるいは互いの1つ以上から遠隔地に設置されていてもよい。図に示す構造は従って、現在の好適な実施形態を効率よく提示するものである。
多くの変更例が生じ得ることが当業者には理解されよう。従って、上の記述および添付の図面は本発明を例示するものであって限定を意図していないものと解釈されたい。更に、一般に本発明の原理に従うと共に、本発明が関わる技術分野における既知または慣習的な実施に含まれ、本明細書に開示した本質的な特徴に適用され、また以下に添付する請求項の範囲に含まれる本質的な特徴に適用されることによる本開示からの相違を含めて、本発明の任意の変型、用途、または適用が包含されるものと理解されたい。
10 3次元表面走査システム
12 基本画像の集合
13 特徴画像
14 画像プロセッサ
15 特徴画像プロセッサ
16 2次元表面点の集合
17 高解像度表面点の集合
18 3次元表面点計算器
19 3次元低解像度表面点の集合
20 2次元測位特徴の集合
21 3次元表面点の全ての集合
22 画像テクスチャパッチの各画素
23 3次元測位計算器
24 3次元表面点変換器
25 テクスチャ積分器
26 変換パラメータ
27 3次元表面点の集合
28 局所接平面の集合
29 局所接平面計算器
30 大域座標系内の参照3次元測位特徴の集合
31 大域座標系内の変換済み3次元表面点の集合
32 局所テクスチャ付き接平面
34 表面再構成装置
35 表面モデル
37 三角形分割データ
46 基本カメラ
52 ベースラインD1
53 ベースラインD3
54 ベースラインD2
56 距離D3
58 距離D4
59 特徴カメラ
62 物体
70 距離τ2
72 距離τ1
74 テクスチャパッチ
80 多角形
82 頂点
84 追加的な位置
86 法線方向
88 レーザートレース
90 ケース
91 ハンドル部
93 トリガースイッチ
94 導線
米国特許第7487063号明細書 国際公開第2006/094409号

Claims (18)

  1. 物体の表面点を表すデータを取得するシステムであって、
    前記物体表面上に射影パターンを生成するパターンプロジェクタ、前記物体の少なくとも一部の基本2次元画像を表す基本2次元画像データを基本解像度で取得する少なくとも1つの基本カメラ、および前記物体の少なくとも一部の特徴画像を表す特徴画像データを取得する特徴カメラを有する検知器であって、前記特徴カメラがテクスチャカメラおよび高解像度カメラの少なくとも一方であり、前記テクスチャカメラが前記物体の前記一部に関する特徴テクスチャ情報を取得すべく適合されたカメラであり、前記高解像度カメラが前記物体の前記一部に関する高解像度情報を高解像度で取得すべく適合されたカメラであり、
    前記投影パターンの少なくとも一部が前記特徴画像上で明らかであり、前記高解像度が前記基本解像度より高く、前記射影パターンが前記基本画像上で明らかであり、センサ座標系内における前記基本カメラ、前記パターンプロジェクタ、および前記特徴カメラの空間関係が既知であり、前記特徴カメラと前記基本カメラが同期化されて、該基本カメラと該特徴カメラが、それぞれ、前記基本2次元画像データと前記特徴画像データを取得すると同時に、前記パターンが前記パターンプロジェクタによって前記物体の表面に投影されている、検知器と、
    前記表面上での前記射影パターンの反射により得られた2次元表面点の少なくとも1つの集合を表す2次元点データを前記基本2次元画像データから抽出する基本画像プロセッサと、
    2次元表面点の集合を表す前記2次元点データを用いて前記センサ座標系内の3次元表面点の集合を計算する3次元表面点計算器と、
    前記3次元表面点の集合を前記特徴画像データへ数学的に射影して前記特徴画像データ内における前記3次元表面点の位置を取得すると共に、前記特徴画像データにおける前記射影された3次元表面点を用いて前記3次元表面点の集合の特徴データ抽出を誘導する特徴画像プロセッサとを含み、
    前記特徴カメラが前記高分解能カメラならば、前記抽出の誘導は局所画像処理を含み、前記特徴カメラが前記テクスチャカメラならば、前記誘導は、前記抽出された特徴データ上の投影パターンによる干渉を避け、
    前記抽出の誘導の特徴データを用いて、前記特徴カメラが前記高分解能カメラならば前記3次元表面点の精度が向上した位置を取得し、前記特徴カメラが前記テクスチャカメラならば前記3次元表面点のテクスチャを取得する、システム。
  2. 変換パラメータを取得し、前記変換パラメータが前記センサ座標系と大域座標系との空間関係を表す測位システムと、
    前記変換パラメータを用いて前記3次元表面点の集合を前記大域座標系内の変換された3次元表面点の集合に変換する3次元表面点変換器と
    を更に含む、請求項1に記載のシステム。
  3. 前記測位システムが、
    前記物体上の目標測位特徴の集合、すなわち前記目標測位特徴の各々が前記物体上の固定位置に置かれていて、大域座標系が前記目標測位特徴を用いて定義され、前記目標測位特徴の集合の少なくとも一部が前記基本2次元画像において明らかであって、前記目標測位特徴の集合が前記画像プロセッサにより前記基本2次元画像から抽出されている集合を含み、
    前記システムが更に、
    前記測位システムを用いて前記変換パラメータを計算する3次元測位計算器を含む、請求項2に記載のシステム。
  4. 前記変換された3次元表面点の集合および前記3次元表面点の前記特徴データを集積して前記物体の3次元表面モデルを生成する表面再構成装置を更に含む、請求項3に記載のシステム。
  5. 前記表面再構成装置が、前記変換された3次元表面点の集合の前記集積の解像度を調整するモデル解像度調整器を含む、請求項4に記載のシステム。
  6. 前記大域座標系内の前記変換された3次元表面点の集合から、局所接平面の集合を計算する局所接平面計算器を更に含み、
    前記表面再構成装置が前記局所接平面を用いて前記物体の前記3次元表面モデルを生成する、請求項4および5のいずれか一項に記載のシステム。
  7. 前記局所接平面計算器が、前記局所接平面の集合の計算の解像度を調整する接平面解像度調整器を含む、請求項6に記載のシステム。
  8. 前記特徴カメラがテクスチャカメラであり、前記特徴画像がテクスチャ画像であって、前記特徴画像プロセッサがテクスチャ画像プロセッサを含んでいて、前記特徴データがテクスチャパッチ内で得られたテクスチャデータである、請求項1〜5のいずれか一項に記載のシステム。
  9. 前記特徴カメラがテクスチャカメラであり、前記特徴画像がテクスチャ画像であって、前記特徴画像プロセッサがテクスチャ画像プロセッサを含んでいて、前記特徴データが画像テクスチャパッチ内で得られたテクスチャデータである、請求項6〜7のいずれか一項に記載のシステム。
  10. 前記テクスチャパッチの集合を前記局所接平面の集合にマッピングおよび集積して、2次元テクスチャマップの集合および局所テクスチャ付き接平面の集合を生成するテクスチャ積分器を更に含む、請求項9に記載のシステム。
  11. 前記特徴カメラが高解像度カメラであり、前記特徴画像が高解像度2次元画像であって、前記特徴画像プロセッサが高解像度画像プロセッサを含んでいて、前記特徴データが高解像度2次元表面点である、請求項1〜10のいずれか一項に記載のシステム。
  12. 前記特徴カメラが高解像度テクスチャカメラであり、前記特徴画像が高解像度テクスチャ画像であって、前記特徴画像プロセッサがテクスチャ画像プロセッサおよび高解像度画像プロセッサを含んでいて、前記特徴データが高解像度2次元表面点および画像テクスチャパッチ内で得られたテクスチャデータを含む、請求項1〜11のいずれか一項に記載のシステム。
  13. 物体の表面点を表すデータを取得する方法であって、
    少なくとも1つの基本カメラを基本解像度で用いて、前記物体の少なくとも一部の基本2次元画像を表す基本2次元画像データを、前記物体の表面へ射影された射影パターンが前記基本画像上で明らかな状態で取得するステップと、
    特徴カメラを用いて前記物体の少なくとも一部の特徴画像を表す特徴画像データを取得するステップであって、前記物体の前記表面に投影された前記投影パターンの少なくとも一部が、前記特徴画像上で明らかであり、前記特徴カメラがテクスチャカメラおよび高解像度カメラの少なくとも一方であり、前記テクスチャカメラが前記物体の前記一部に関する特徴テクスチャ情報を取得すべく適合されたカメラであり、前記高解像度カメラが前記物体の前記一部に関する高解像度情報を高解像度で取得すべく適合されたカメラであって、前記高解像度が前記基本解像度より高いステップと、
    前記表面上での前記射影パターンの反射により得られた2次元表面点の少なくとも1つの集合を表す2次元点データを前記基本2次元画像データから抽出するステップと、
    センサ座標系内における前記基本カメラ、前記パターンプロジェクタ、および前記特徴カメラの空間関係が既知であり、2次元表面の集合を表す前記2次元点データを用いてセンサ座標系内の3次元表面点の集合を計算するステップと、
    前記3次元表面の集合を前記特徴画像データへ数学的に射影して前記特徴画像データ内における前記3次元表面点の位置を取得するステップと、
    前記特徴画像データにおける前記射影された3次元表面点を用いて前記3次元表面点の集合の特徴データ抽出を誘導するステップとを含み、
    前記特徴カメラが前記高分解能カメラならば、前記誘導は局所画像処理を含み、前記特徴カメラが前記テクスチャカメラならば、前記誘導は、前記抽出された特徴データ上の投影パターンによる干渉を避け、
    前記抽出の誘導の特徴データを用いて、前記特徴カメラが前記高分解能カメラならば前記3次元表面点の精度が向上した位置を少なくとも一つ取得し、前記特徴カメラが前記テクスチャカメラならば前記3次元表面点のテクスチャを取得する、方法。
  14. 前記基本2次元画像および前記特徴画像が、前記物体の前記表面上に前記射影パターンを生成するパターンプロジェクタ、前記物体の基本2次元画像を取得する少なくとも1つの基本カメラ、および前記物体の特徴画像を取得する特徴カメラを有する検知器を用いて得られ、センサ座標系内における前記基本カメラ、前記パターンプロジェクタ、および前記特徴カメラの空間関係が既知であり、
    前記特徴カメラと前記基本カメラが同期化されて、該基本カメラと該特徴カメラが、それぞれ、前記基本2次元画像データと前記特徴画像データを取得すると同時に、前記パターンが前記パターンプロジェクタによって前記物体の表面に投影されている、請求項13に記載の方法。
  15. 前記センサ座標系と大域座標系との空間関係を表す変換パラメータを取得するステップと、
    前記変換パラメータを用いて前記3次元表面点の集合を前記大域座標系内の変換された3次元表面点の集合に変換するステップと
    を更に含む、請求項13および14のいずれか一項に記載の方法。
  16. 前記変換された3次元表面点の集合を集積して前記物体の3次元表面モデルを生成するステップを更に含む、請求項15に記載の方法。
  17. 前記大域座標系内の前記変換された3次元表面点の集合から局所接平面の集合を計算するステップと、
    前記局所接平面を用いて前記物体の前記3次元表面モデルを生成するステップとを更に含む、請求項16に記載の方法。
  18. 前記検知器のパターンプロジェクタが、レーザーパターンプロジェクタである、請求項1に記載のシステム。
JP2011521417A 2008-08-06 2009-07-30 表面特徴の適応型3次元走査システム Active JP5337243B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US8655408P 2008-08-06 2008-08-06
US61/086,554 2008-08-06
PCT/CA2009/001105 WO2010015086A1 (en) 2008-08-06 2009-07-30 System for adaptive three-dimensional scanning of surface characteristics

Publications (3)

Publication Number Publication Date
JP2011530071A JP2011530071A (ja) 2011-12-15
JP2011530071A5 JP2011530071A5 (ja) 2012-08-30
JP5337243B2 true JP5337243B2 (ja) 2013-11-06

Family

ID=41663253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011521417A Active JP5337243B2 (ja) 2008-08-06 2009-07-30 表面特徴の適応型3次元走査システム

Country Status (6)

Country Link
US (1) US8284240B2 (ja)
EP (1) EP2313737B1 (ja)
JP (1) JP5337243B2 (ja)
CN (1) CN102112845B (ja)
CA (1) CA2731680C (ja)
WO (1) WO2010015086A1 (ja)

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8786595B2 (en) * 2008-06-10 2014-07-22 Pinpoint 3D Systems and methods for estimating a parameter for a 3D model
US8379120B2 (en) 2009-11-04 2013-02-19 Eastman Kodak Company Image deblurring using a combined differential image
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5578844B2 (ja) 2009-12-21 2014-08-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
CN101853528B (zh) * 2010-05-10 2011-12-07 沈阳雅克科技有限公司 一种手持式三维型面信息提取方法及其提取仪
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US8582820B2 (en) 2010-09-24 2013-11-12 Apple Inc. Coded aperture camera with adaptive image processing
WO2012048420A1 (en) * 2010-10-15 2012-04-19 Silonex Inc. Optical positioning system and method
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8447099B2 (en) * 2011-01-11 2013-05-21 Eastman Kodak Company Forming 3D models using two images
US8452081B2 (en) * 2011-01-11 2013-05-28 Eastman Kodak Company Forming 3D models using multiple images
US9160898B2 (en) 2011-01-25 2015-10-13 Autofuss System and method for improved video motion control
US20120242795A1 (en) * 2011-03-24 2012-09-27 Paul James Kane Digital 3d camera using periodic illumination
FR2973281B1 (fr) * 2011-03-31 2013-04-26 Arkema France Procede d'obtention d'un objet presentant une surface en trois dimensions imprimee
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
DE102011101939A1 (de) * 2011-05-18 2012-11-22 Biobserve GmbH Verfahren zur Erstellung einer Verhaltensanalyse eines in einer Arena befindlichen Nagetieres und Verfahren zur Erstellung eines Abbildes des Nagetieres
US8811748B2 (en) 2011-05-20 2014-08-19 Autodesk, Inc. Collaborative feature extraction system for three dimensional datasets
WO2012168322A2 (en) 2011-06-06 2012-12-13 3Shape A/S Dual-resolution 3d scanner
CN103649680B (zh) 2011-06-07 2016-11-09 形创有限公司 用于3d扫描的传感器定位
KR101087172B1 (ko) * 2011-07-13 2011-11-28 동국대학교 경주캠퍼스 산학협력단 고온 금속 표면 3차원 형상 추출 시스템 및 방법
SE536060C2 (sv) 2011-09-08 2013-04-23 Metso Minerals Sweden Ab Styr- och positioneringssystem för indikering av monteringsläget för ett utbytbart slitfoderelement samt användande av en bildupptagningskamera
US8941651B2 (en) * 2011-09-08 2015-01-27 Honeywell International Inc. Object alignment from a 2-dimensional image
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
WO2013049597A1 (en) * 2011-09-29 2013-04-04 Allpoint Systems, Llc Method and system for three dimensional mapping of an environment
DE102011114674C5 (de) * 2011-09-30 2020-05-28 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
US9098908B2 (en) 2011-10-21 2015-08-04 Microsoft Technology Licensing, Llc Generating a depth map
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
CN104054023B (zh) * 2011-11-16 2017-11-17 欧特法斯公司 用于与机器人控制的物体映射的3d投影的系统和方法
US9661310B2 (en) * 2011-11-28 2017-05-23 ArcSoft Hanzhou Co., Ltd. Image depth recovering method and stereo image fetching device thereof
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US20130266228A1 (en) * 2012-04-10 2013-10-10 Siemens Industry, Inc. Automatic part identification and workflow generation
US20130271461A1 (en) * 2012-04-11 2013-10-17 Pinpoint 3D Systems and methods for obtaining parameters for a three dimensional model from reflectance data
US9217636B2 (en) * 2012-06-11 2015-12-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and a computer-readable storage medium
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US9816809B2 (en) * 2012-07-04 2017-11-14 Creaform Inc. 3-D scanning and positioning system
US9062962B2 (en) * 2012-07-05 2015-06-23 Flextronics Ap, Llc Laser measurement system and method in a CNC machine
EP2875314B1 (en) 2012-07-18 2017-08-16 Creaform Inc. System and method for 3d scanning of the surface geometry of an object
US8854362B1 (en) * 2012-07-23 2014-10-07 Google Inc. Systems and methods for collecting data
EP2698763A1 (de) * 2012-08-14 2014-02-19 Hölscher & Leuschner GmbH & Co. Verfahren zur Analyse eines lebenden Nutztieres
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US9117267B2 (en) * 2012-10-18 2015-08-25 Google Inc. Systems and methods for marking images for three-dimensional image generation
WO2014074003A1 (ru) * 2012-11-07 2014-05-15 Артек Европа С.А.Р.Л. Способ контроля линейных размеров трехмерных объектов
DE102012112321B4 (de) * 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
MY181876A (en) * 2012-12-14 2021-01-11 Bp Corp North America Inc Apparatus and method for three dimensional surface measurement
JP2016510108A (ja) * 2013-02-13 2016-04-04 3シェイプ アー/エス 色を記録する焦点走査装置
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US20140241612A1 (en) * 2013-02-23 2014-08-28 Microsoft Corporation Real time stereo matching
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
FI125913B (en) * 2013-03-25 2016-04-15 Mikkelin Ammattikorkeakoulu Oy A state-defining object for computer-aided design
US8958147B2 (en) * 2013-06-14 2015-02-17 Computer Power Supply, Inc. Apparatus for aiding manual, mechanical alignment of optical equipment
US9789462B2 (en) * 2013-06-25 2017-10-17 The Boeing Company Apparatuses and methods for accurate structure marking and marking-assisted structure locating
WO2015006790A1 (en) * 2013-07-18 2015-01-22 A.Tron3D Gmbh Method of capturing three-dimensional (3d) information on a structure
US9525802B2 (en) * 2013-07-24 2016-12-20 Georgetown University Enhancing the legibility of images using monochromatic light sources
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
TWI486551B (zh) * 2013-10-21 2015-06-01 Univ Nat Taiwan Science Tech 三維資料擷取方法及其系統
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
US9087381B2 (en) * 2013-11-13 2015-07-21 Thomas Tsao Method and apparatus for building surface representations of 3D objects from stereo images
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US10643343B2 (en) 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
KR102424135B1 (ko) * 2014-02-05 2022-07-25 크레아폼 인크. 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
JP2015216491A (ja) * 2014-05-09 2015-12-03 ソニー株式会社 撮像装置
US9769454B2 (en) * 2014-06-20 2017-09-19 Stmicroelectronics S.R.L. Method for generating a depth map, related system and computer program product
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
DE102014019671B4 (de) * 2014-12-30 2017-09-14 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102014113015B4 (de) * 2014-09-10 2017-05-11 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung, umfassend einen Handscanner mit Tragestruktur
DE102014019669B4 (de) 2014-12-30 2019-05-02 Faro Technologies, Inc. 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen
DE102014013677B4 (de) 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
GB2545603B (en) * 2014-09-10 2020-04-15 Faro Tech Inc A portable device for optically measuring three-dimensional coordinates
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
EP3198221A1 (en) * 2014-09-24 2017-08-02 Bombardier Inc. Laser vision inspection system and method
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
CN104506838B (zh) * 2014-12-23 2016-06-29 宁波盈芯信息科技有限公司 一种符号阵列面结构光的深度感知方法、装置及系统
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
US10280054B2 (en) 2015-03-06 2019-05-07 Walmart Apollo, Llc Shopping facility assistance systems, devices and methods
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
EP3304421B1 (en) * 2015-05-25 2022-05-04 Bespoke Medical Innovations Pty Ltd. Portable photogrammetry studio
US10247546B2 (en) * 2015-06-10 2019-04-02 Pfu Limited Image processing system and method for detecting a target object area based on height information
CN204854633U (zh) * 2015-08-17 2015-12-09 杭州思看科技有限公司 一种手持激光三维扫描仪的滤光和补光结构
US9546865B1 (en) * 2015-08-18 2017-01-17 The Boeing Company Surface inspection of composite structures
US10275565B2 (en) * 2015-11-06 2019-04-30 The Boeing Company Advanced automated process for the wing-to-body join of an aircraft with predictive surface scanning
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
JP6560366B2 (ja) * 2016-01-06 2019-08-14 富士フイルム株式会社 構造物の部材特定装置及び方法
EP3422955B1 (en) 2016-02-29 2023-10-18 Packsize International, LLC System and method for assisted 3d scanning
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
WO2017155970A1 (en) 2016-03-11 2017-09-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
US10317199B2 (en) 2016-04-08 2019-06-11 Shining 3D Tech Co., Ltd. Three-dimensional measuring system and measuring method with multiple measuring modes
AU2016401548B2 (en) 2016-04-08 2019-09-26 Shining 3D Tech Co., Ltd. Multi-measurement-mode three-dimensional measurement system and measurement method
GB2550117A (en) * 2016-05-04 2017-11-15 E M & I (Maritime) Ltd Inspection method
WO2018027259A1 (en) 2016-08-08 2018-02-15 Bionics Institute Systems and methods for monitoring neural activity
CN106403845B (zh) * 2016-09-14 2017-10-03 杭州思看科技有限公司 三维传感器系统及三维数据获取方法
US11060853B2 (en) * 2016-09-14 2021-07-13 Scantech (Hangzhou) Co., Ltd. Three-dimensional sensor system and three-dimensional data acquisition method
DE102017215334A1 (de) 2016-09-21 2018-03-22 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren, Computerprogrammprodukt und Messsystem zum Betrieb mindestens eines Triangulations-Laserscanners zur Identifizierung von Oberflächeneigenschaften eines zu vermessenden Werkstücks
WO2018085797A1 (en) 2016-11-04 2018-05-11 Aquifi, Inc. System and method for portable active 3d scanning
USD823920S1 (en) 2016-11-23 2018-07-24 Kaarta, Inc. Simultaneous localization and mapping (SLAM) device
FR3059416B1 (fr) * 2016-11-28 2019-08-09 Centre National De La Recherche Scientifique Systeme et procede de numerisation tridimensionnelle d’un objet
JP6897092B2 (ja) * 2016-12-22 2021-06-30 カシオ計算機株式会社 投影制御装置、投影制御方法及びプログラム
CN110192144A (zh) * 2017-02-08 2019-08-30 惠普发展公司,有限责任合伙企业 带开口的物体扫描仪
CN111200967B (zh) 2017-05-22 2023-06-06 深部脑刺激技术有限公司 用于监测神经活动的系统和方法
CN107202554B (zh) * 2017-07-06 2018-07-06 杭州思看科技有限公司 同时具备摄影测量和三维扫描功能的手持式大尺度三维测量扫描仪系统
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US10846914B2 (en) * 2018-01-11 2020-11-24 Sony Interactive Entertainment Inc. Back-facing patch culling with displacement
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
US20200014909A1 (en) 2018-07-03 2020-01-09 Faro Technologies, Inc. Handheld three dimensional scanner with autofocus or autoaperture
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
CN109141289B (zh) * 2018-08-01 2020-12-29 先临三维科技股份有限公司 三维扫描方法和系统
US10712730B2 (en) 2018-10-04 2020-07-14 The Boeing Company Methods of synchronizing manufacturing of a shimless assembly
RU2708940C1 (ru) * 2019-01-15 2019-12-12 Федеральное государственное бюджетное учреждение науки Институт теплофизики им. С.С. Кутателадзе Сибирского отделения Российской академии наук (ИТ СО РАН) Способ измерения трехмерной геометрии выпуклых и протяженных объектов
US10488185B1 (en) * 2019-03-14 2019-11-26 The Boeing Company Methods and systems for characterizing a surface of a structural component
US20200292297A1 (en) 2019-03-15 2020-09-17 Faro Technologies, Inc. Three-dimensional measurement device
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
CN110763156B (zh) * 2019-09-27 2021-10-01 深圳大学 一种基于光场的三维成像方法及系统
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
JP7329143B2 (ja) 2019-11-30 2023-08-17 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
JP7422563B2 (ja) * 2020-03-02 2024-01-26 ソニー・オリンパスメディカルソリューションズ株式会社 医療用投影装置および医療用観察システム
US20210303758A1 (en) * 2020-03-31 2021-09-30 Ultraleap Limited Accelerated Hardware Using Dual Quaternions
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
DE102021105176A1 (de) 2021-03-04 2022-09-08 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Vorrichtung und Verfahren zur Ermittlung und Darstellung einer Relativorientierung eines Gegenstandes
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
WO2023278143A1 (en) * 2021-06-27 2023-01-05 Endless Technologies Ltd. Generating a real-time video stream of a user face based on oblique real-time 3d sensing
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11913345B2 (en) * 2021-07-26 2024-02-27 General Electric Company System and method of using a tool assembly
WO2023156021A1 (de) * 2022-02-21 2023-08-24 Vision Tools Hard- Und Software Entwicklungs-Gmbh Anordnung und verfahren zur aufnahme von bildern
CN116644680B (zh) * 2023-05-08 2023-11-24 中国水利水电科学研究院 一种山丘区小流域河流洪水淹没区快速分析方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990016033A1 (en) 1989-06-07 1990-12-27 Norand Corporation Hand-held data capture system with interchangeable modules
JP2623367B2 (ja) 1990-11-05 1997-06-25 株式会社ユニスン 三次元形状測定装置の校正方法
EP0526881B1 (en) * 1991-08-06 2002-02-06 Canon Kabushiki Kaisha Three-dimensional model processing method, and apparatus therefor
JPH0712534A (ja) 1993-04-26 1995-01-17 Koyo Seiko Co Ltd 3次元形状測定装置
US6028672A (en) * 1996-09-30 2000-02-22 Zheng J. Geng High speed three dimensional imaging method
DE19502459A1 (de) 1995-01-28 1996-08-01 Wolf Henning Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
DE19634254B4 (de) 1995-09-04 2009-06-10 Volkswagen Ag Optisch-numerisches Verfahren zur Ermittlung der gesamten Oberfläche eines dreidimensionalen Objektes
US6285959B1 (en) 1996-02-06 2001-09-04 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
JP3912867B2 (ja) 1997-09-29 2007-05-09 シーケーディ株式会社 足型計測装置
JP3678022B2 (ja) * 1998-10-23 2005-08-03 コニカミノルタセンシング株式会社 3次元入力装置
JP2000205821A (ja) * 1999-01-07 2000-07-28 Nec Corp 三次元形状計測装置及びその三次元形状計測方法
DE19925462C1 (de) 1999-06-02 2001-02-15 Daimler Chrysler Ag Meß- und Prüfsystem sowie Meß- und Prüfverfahren für einen dreidimensionalen Körper in Zusammenhang mit dessen Fertigung
CA2278108C (en) 1999-07-20 2008-01-29 The University Of Western Ontario Three-dimensional measurement method and apparatus
US6341016B1 (en) 1999-08-06 2002-01-22 Michael Malione Method and apparatus for measuring three-dimensional shape of object
JP2003509321A (ja) * 1999-09-13 2003-03-11 日本板硝子株式会社 撥水性ガラス板の部分処理方法および該部分処理が施された撥水性ガラス板
JP4315545B2 (ja) 1999-10-19 2009-08-19 Hoya株式会社 3次元画像検出システムと3次元画像検出装置
WO2001069172A1 (en) 2000-03-10 2001-09-20 Perceptron, Inc. A non-contact measurement device
JP4010753B2 (ja) 2000-08-08 2007-11-21 株式会社リコー 形状計測システムと撮像装置と形状計測方法及び記録媒体
US6508403B2 (en) 2001-05-04 2003-01-21 Institut National D'optique Portable apparatus for 3-dimensional scanning
ATE519092T1 (de) 2002-01-16 2011-08-15 Faro Tech Inc Lasergestützte koordinatenmessapparatur und lasergestütztes koordinatenmessverfahren
CA2369710C (en) * 2002-01-30 2006-09-19 Anup Basu Method and apparatus for high resolution 3d scanning of objects having voids
JP3925266B2 (ja) * 2002-03-25 2007-06-06 コニカミノルタホールディングス株式会社 3次元形状入力装置および位置ずれ検出方法
DE10219054B4 (de) * 2002-04-24 2004-08-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
WO2004111927A2 (en) * 2003-06-13 2004-12-23 UNIVERSITé LAVAL Three-dimensional modeling from arbitrary three-dimensional curves
JP2005071264A (ja) * 2003-08-27 2005-03-17 Ricoh Co Ltd 三次元画像生成装置
JP2005228134A (ja) * 2004-02-13 2005-08-25 Konica Minolta Photo Imaging Inc 画象処理装置、画像処理方法及びプログラム
JP2006162386A (ja) * 2004-12-06 2006-06-22 Canon Inc 3次元モデル生成装置、3次元モデル生成システム及び3次元モデル生成プログラム
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
WO2006084385A1 (en) * 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
US7912673B2 (en) 2005-03-11 2011-03-22 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
JP2006267031A (ja) * 2005-03-25 2006-10-05 Brother Ind Ltd 3次元入力装置および3次元入力方法
WO2007061632A2 (en) * 2005-11-09 2007-05-31 Geometric Informatics, Inc. Method and apparatus for absolute-coordinate three-dimensional surface imaging
US20070229850A1 (en) * 2006-04-04 2007-10-04 Boxternal Logics, Llc System and method for three-dimensional image capture
EP2084491A2 (en) * 2006-11-21 2009-08-05 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US8090194B2 (en) * 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging

Also Published As

Publication number Publication date
US8284240B2 (en) 2012-10-09
CN102112845B (zh) 2013-09-11
US20110134225A1 (en) 2011-06-09
JP2011530071A (ja) 2011-12-15
EP2313737A1 (en) 2011-04-27
WO2010015086A1 (en) 2010-02-11
EP2313737A4 (en) 2014-10-15
EP2313737B1 (en) 2018-11-14
CA2731680C (en) 2016-12-13
CA2731680A1 (en) 2011-02-11
CN102112845A (zh) 2011-06-29

Similar Documents

Publication Publication Date Title
JP5337243B2 (ja) 表面特徴の適応型3次元走査システム
US7256899B1 (en) Wireless methods and systems for three-dimensional non-contact shape sensing
CA2656163C (en) Auto-referenced system and apparatus for three-dimensional scanning
CN104335005B (zh) 3d扫描以及定位系统
US8082120B2 (en) Hand-held self-referenced apparatus for three-dimensional scanning
Bonfort et al. General specular surface triangulation
JP5467404B2 (ja) 3d撮像システム
US8294958B2 (en) Scanner system and method for scanning providing combined geometric and photometric information
CA2686904C (en) Hand-held self-referenced apparatus for three-dimensional scanning
Win Curve and Circle Fitting of 3D Data Acquired by RGB-D Sensor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130802

R150 Certificate of patent or registration of utility model

Ref document number: 5337243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250