JP2006507087A - 局所的独自パターンを使用した能動的ステレオ技術による3次元画像の取得 - Google Patents

局所的独自パターンを使用した能動的ステレオ技術による3次元画像の取得 Download PDF

Info

Publication number
JP2006507087A
JP2006507087A JP2004555418A JP2004555418A JP2006507087A JP 2006507087 A JP2006507087 A JP 2006507087A JP 2004555418 A JP2004555418 A JP 2004555418A JP 2004555418 A JP2004555418 A JP 2004555418A JP 2006507087 A JP2006507087 A JP 2006507087A
Authority
JP
Japan
Prior art keywords
pattern
window
image
matching
local unique
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004555418A
Other languages
English (en)
Other versions
JP4473136B2 (ja
JP2006507087A5 (ja
Inventor
ディー ヘイガー,グレゴリー
レナード ウェッグブレイト,エリオット
Original Assignee
ストライダー ラブス,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ストライダー ラブス,インコーポレイテッド filed Critical ストライダー ラブス,インコーポレイテッド
Publication of JP2006507087A publication Critical patent/JP2006507087A/ja
Publication of JP2006507087A5 publication Critical patent/JP2006507087A5/ja
Application granted granted Critical
Publication of JP4473136B2 publication Critical patent/JP4473136B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image

Abstract

シーンの3次元画像を取得するシステム及び方法。当該システムは局所的独自パターン(LUP)をシーンに投影する投影デバイス及び2以上の観察位置の当該LUPを含む当該シーンの画像化のためのセンサーを有する。コンピュータデバイスは、ディスパリティマップを生成するためにパターンの局所的独自性を使用して当該画像にある対応するピクセルを整合させる。レンジマップはその後、画像化されたシーンにあるポイントを三角測量することにより生成され得る。

Description

この出願は、“Acquisition and Processing of a Scene Image By Active Stereo Using Locally Unique Patterns”と題し、2002年11月22日に出願された公有の米国仮出願60/428510号明細書であり、参照することにより本願に援用されるものの利益を主張する。
本発明は一般的には3次元画像取得システム及び方法に関し、より詳細にはステレオ技術による3次元画像取得システム及び方法に関する。
3次元画像化システムの使用は、コンピュータグラフィック、医学画像並びに自動製造及び検査などのアプリケーションでますます重要な役割を果たしている。3次元画像を取得するためには、シーン(画像化すべき領域で典型的には1又は2以上のオブジェクトを包含する。)にあるポイントへの距離又はレンジを決定する必要がある。3次元画像化システムに特有の要求事項はそれが使用されるアプリケーションに一部依存するが、多くのアプリケーションに共通の3次元画像化システムの望ましい特性及び性質は、高密度かつ高精度なレンジマップ、高速画像取得、表面特性及び照明の変化に対する堅牢性並びにスペクトル情報とレンジとの正確な相関である。
米国仮出願60/428510号明細書 米国特許第5838428号明細書 米国特許第4648717号明細書 米国特許第5621529号明細書 米国特許第6493095号明細書
技術的参考文献は、シーン内の3次元画像を取得するための本質的に異なる取り組みを開示する。これらの取り組みは、受動的タイプ及び能動的タイプの2つのタイプに大まかに分類される。受動的3次元画像化技術は、画像化されるシーンへの追加の放射エネルギーの導入を必要としない。受動的技術の第1グループは多数のカメラを利用し、それぞれのカメラが独自の観測位置からシーンの画像を取得する。結果として得られる画像は、特徴ベース又は領域ベースの整合方法により分析される。受動的技術の上述のグループは、テクスチャのほとんどない或いは不適切な照明のあるシーンの領域に対応するレンジマップで不正確さ及び/又はドロップアウトを生成するという不利点を有する。受動的技術の別のグループは、多数の焦点距離からのシーンの画像化及び識別を伴い、焦点距離はそれぞれのポイントに対し最も鮮明なピントを実現する。当該ポイントへのレンジがその後、レンジと焦点距離との単調な関係を利用して計算される。この技術のグループ(みなし“レンジ−焦点”技術)は、ほとんどテクスチャのない或いは不適切な照明の領域を有するレンジマップでの上述のドロップアウト/低精度の問題による影響を受ける。さらに、レンジ−焦点技術は、捕捉されなければならない画像数の理由により時間のかかるものとなる。
能動的3次元画像技術は、追加的な放射エネルギーの画像シーンへの導入に基づいている。能動的3次元画像技術は、飛行時間型、単一カメラ及びマルチカメラの3つのグループで構成されている。飛行時間型技術は、光が光源からシーン内のポイント及びその後の検出器へ進むのに必要な時間を測定する(典型的には、直接時間又は位相シフトによる。)。これらの技術は、長い捕捉時間を必要とし(それらは、シーン内のオブジェクト全体にわたり光源の走査を必要とするからである。)、高価な設備を利用し、かつ、スペクトルデータと測定されたレンジとを相互に関連付けることに困難性を示す。単一カメラ技術は、単一カメラにより画像化されたシーン内のポイントへの構造光の投影を伴う。構造光源は三角測量によるレンジ計算に使用されるポイントの1つを提供し、構造光は特定の投影ポイントを識別する。当該技術の例は、Pipitone et al.の米国特許第5838428号明細書、System and Method for High Resolution Range Imaging with Split Light Source and Pattern Mask、及び、Ross et al.の米国特許第4648717号明細書、Method of Three−Dimensional Measurement with Few Projected Patternsで説明される。被投影光は、シーン全体で連続的に走査される単一ドット若しくは平面、線グリッド又は空間的に符号化したパターンの3つの形態のうちの1つの形をとる。単一カメラ技術は、背景光が注意深く制御され得るアプリケーションにおいては有効な結果を実現するが、制御された背景光がない場合には堅牢性の欠如を被る。
能動的マルチカメラ技術は、上記で概略された受動的マルチカメラ技術に類似し、複数画像の対応ピクセルとの整合を支援するためにシーン上に投影される構造光パターンの追加を伴う。一般的に利用される能動的マルチカメラ技術(例えば、Morano et al.のStructured Light Using Pseudorandom Codesで説明される。)は、ランダムに生成された光パターンの投影を使用する。ランダムパターンの使用に伴う問題は、大きな整合ウィンドウ(それを使用すると画像化された表面の細部が欠落したり、或いはゆがめられたりする。)が正確な対応の計算を確実にするために必要とされることにある。さらに、光パターンがランダムに選ばれることの本質は、その性質が保証され得ず、整合障害及び結果として生じるドロップアウトに至ることを意味する。
能動的マルチカメラ技術の別のグループは、空間的に波長を変える光パターンを採用する。これらの技術に従って、シーン内のポイントへの入射光は、その近接のポイントとは異なるスペクトル構成を有し、複数画像の対応するポイントの識別を支援する。この技術概要の例には、Gordon et al.の米国特許第5621529号、Apparatus and Method for Projecting Laser Pattern with Reduced Speckle Noise、及び、Song et al.の米国特許第6493095号、Optional 3D Digitizer、System and Method for Digitizing an Objectに記載されるものが含まれる。しかし、この種の光パターンの投影により提供される整合プロセスの支援度は、隣接ピクセルに投影される光の類似性を理由に限定される。さらに、照明又は表面アルベドの急速な変化を有する領域は、整合プロセスにおけるさらなる不明確さを創出する。総合すれば、これらの制限は、領域であってその中で整合が失敗しドロップアウトをもたらす領域を創出する働きをすることになる。
上述の検討を考慮すると、既存の技術に関連する問題又は欠陥を克服する3次元画像取得システムが必要となる。
概略されるように、本発明の実施例に従ってシーンのディスパリティマップを取得するシステムは、シーンの少なくとも1つの部分に局所的独自パターンを投影する1又は2以上の放射エネルギー源、多数の観測位置からシーンの画像を取得するセンサー及び当該画像内の対応するピクセルを整合することによりディスパリティマップを生成するよう構成されるコンピュータデバイスを含む。当該ディスパリティマップは後に、画像化されたシーン内のポイントへのレンジを三角測量により計算するために利用される場合がある。
本システムの新規かつ有利な態様は、1又は2以上の局所的独自パターン(以下、「LUP」という。)の使用であり、当該パターンは、観測位置の1つで取得される画像内のピクセルが他の観測位置のそれぞれの画像とで独自の整合を有するよう選択される被投影パターンである。異なる画像のピクセル間で独自の整合が存在するために、シーン内のポイントへのレンジは、正確に、かつ不整合な又は不正確に整合された領域により生じるドロップアウトなしに計算され得る。この中でさらなる詳細が説明される様々な実施に従って、局所的独自パターンはバイナリパターンの形をとり、当該パターンは2値アルファベットパターン又は正弦波パターンで構成され、離散的連続正弦関数を示すパターン値から構成される。一連のLUP候補からの最適化されたLUPの選択は、直接スコアリング法又は擬似画像化スコアリング法により実現される。LUPの選択はまた、事前に投影されたLUPで取得される画像のために計算されるディスパリティマップに基づく場合もある。
本発明の一定の実施に従って、画像センサーは、それぞれが独自の観察位置を有する3つのカメラの形をとる。そしてディスパリティマップは、3つのカメラすべてから同時に計算されてもよく、或いは2つの2つ1組のディスパリティマップを生成し該2つの2つ1組のディスパリティマップを組み合わせることで複合ディスパリティマップを形成することにより計算されてもよい。当該カメラの2つ及び3カメラシステムの投影デバイスは、典型的なシーンでのレンジシャドウを極小化すべく位置合わせされ、垂直に間隔が空けられた関係で効果的に配置されてもよい。
本発明の独特の態様は、レンジマップを生成するために被投影パターンを実際に再生する必要がないことにある。この態様は、単一カメラで被投影構造光を採用する技術と対照的である。位置毎に異なる背景照明を提供する、本発明に従って構成されるシステムでは、これら照明の差が整合ウィンドウ内の画像の差に寄与する。さらに、オブジェクトの表面特性が位置毎に異なる場合には、これらの差が整合ウィンドウ内の画像の差に寄与する。
当該システムは、被投影パターンであってその表面からの反射が強度全体の有意な成分となるのに十分な強度を有する被投影パターンを使用する。従って、当該画像に与えられるパターンの差による位置毎の差は、整合ウィンドウを区別するのに十分となる。整合ウィンドウのすべての対で被投影パターンが常に異なるならば、その結果当該画像は異なり、当該整合は独自なものとなる。
3D画像を創出するために、被投影パターンで照らされたシーンの画像強度が、それぞれ独自の観察位置を有する2以上の感知器により取得される。整合プロセスが当該画像で実行され、結果として得られる整合されたピクセルが当該シーン内のポイントへのレンジを決定するよう使用される。被投影パターンは整合プロセスの整合度を高めるよう設計される。より詳細には、本発明は局所的独自の被投影パターンを利用する。本発明を説明する目的のため、パターンはいくつかの空間的に整理されたパターン値のグループであると解釈される。パターンウィンドウはパターンの一部である。局所的独自パターン(LUP)は、ある最小の固定サイズ及び/又は形状を持つすべてのパターンウィンドウが、パターン全体の固定サイズ及び/又は形状におけるある特定の近傍内に一度だけ出現するところのパターンである。本発明で使用されるLUPの特定の選択は、さらに詳細が後述されるように、画像化環境、当該シーンの幾何学的性質及び動的性質、分解すべき特徴サイズ並びに計算量に依存する。
図1は、本発明の実施例にしたがって設定される3D画像取得システム100の主な物理的構成要素を示す。投影デバイス102がLUPを画像化すべきシーン上に投影する。カメラ(固体として又は集団として104で表される。)の形をとる一連のセンサーが、複数の独自の観察位置からシーンの画像を取得する。コンピュータデバイス106が電子的に符号化した形態でカメラ104から画像を受信し、かつ、画像内のピクセルの整合を計算しその結果ディスパリティマップを生成すべく、捜索区域内のマルチバンド画像のウィンドウ上で整合を実施するための指示を実行する。コンピュータデバイス106はカメラ104及び投影デバイス102にUSB、IEEE−1394又は他の適切なインターフェースを介して連結されてもよい。コンピュータデバイス106はまたピクセル整合プロセスにより生成されたディスパリティマップを使用して当該画像からシーン内のポイントまでのレンジを計算するために三角測量アルゴリズムを実行する。整合及びレンジ計算機能の双方を実現する方法はコンピュータビジョンの標準教科書で説明され、当業者に良く知られている。
システム100の典型的な実施例では、カメラ104は960×1280ピクセルの解像度を有し、かつYUVフォーマットで画像を取得するカラーカメラであるSony DFW−SX900などの3つのデジタルカメラの形をとる。投影デバイス102は、768×1024ピクセルの最大解像度のカラー画像を投影するHitachi CP−X270などのコンピュータ制御LCDプロジェクタである。コンピュータデバイス106はWindows(登録商標)2000オペレーティングシステムを実行するDELL Dimension 8200のコンピュータである。
一部の例では、投影すべきLUPがマルチパターンレイヤー又はバンドで構成されてもよい。これらの場合、カメラ104で感知される画像は同数のバンドを含み、すなわち、通常は被投影画像バンド毎に1つの被取得画像バンドが存在する。これらのバンドは、例えば分離カラーバンドを使用する単一の取得サイクル中に感知されてもよく、或いは、逐次それぞれのバンドを投影しかつ取得することで一時的に感知されてもよく、或いは、カラーバンド及び一時的なバンドの如何なる組み合わせを介して感知されてもよい。
カメラ104から取得される画像は、それぞれのカメラから見えるシーン内のオブジェクト表面の画像を含む。これらの画像では、投影デバイスによってもまた照らされる表面がLUPを示す。さらに、以下に説明されるようにカメラ及び投影デバイスの配置の認識は、所与のパターンウィンドウが画像内に現れるサイズを決定することを可能にする。本発明の主要な態様は、パターンウィンドウの特定のサイズ及び形状が十分大きな近傍にわたって局所的に独自であるところのパターンを創出することである。十分大きいとは、感知された画像内の適切なサイズの整合ウィンドウが当該感知された画像内の対応する近傍にわたり同様に独自であることを保証するのに十分大きいことをいう。
画像取得は、上述のカメラ104を含む様々なセンサーにより行われてもよい。後述の考察では、“カメラ”の用語が係る装置を一般的に表すものとして使用される。さらに、カメラは識別可能な位置を有し、通常はその光心になるものと解釈される。“観察位置”、“カメラ位置”、及び、“カメラ”の用語はこのように相互に識別される。
本発明は3個以上のカメラを利用するが、まずは以下で参照され、かつ図2においてC1及びC2として表される単一対のカメラを参照して基本原理を詳細に説明することが有用である。係る1対のカメラを仮定すると、本発明の目的の1つは、互いに整合する2つのカメラ画像内にピクセル位置のマップを生成することである。結果として得られる一連の整合する位置群はディスパリティマップと呼ばれる。
ピクセル整合は、典型的には“整合ウィンドウ”として知られるピクセル位置を囲む空間領域を考慮することで実現される。この整合ウィンドウは問題の画像のすべてのバンドにわたって拡張するものと解釈される。図2は、カメラC1及びカメラC2にそれぞれ対応する2つの観察位置を示す整合の例を図解する。説明目的のため、カメラC1に関連する整合ウィンドウは固定であるとみなされる。カメラC1の画像内のピクセル位置Pが、他のカメラC2の画像内のいくつかのピクセル位置に整合されることになっている。整合のため、Pを囲む整合ウィンドウMが検討される。定義により、カメラC1の視線に沿って任意の2つのポイントがC1の画像中にある同一のピクセル位置上に投影される。図2は視線V1及び係る2つのポイントA及びBを示す。ポイントA及びBは第2画像では異なるピクセル位置に投影され、P2A及びP2Bで示される。第2画像において対応する整合ウィンドウはM2A及びM2Bとして示される。原則として、視線V1に沿った如何なるポイントをも選択することが可能であるが、対象とするアプリケーションでは、“設計作業レンジ”と呼ばれる一定の深さレンジ内でのみそれらのポイントを検討すれば十分である。
潜在的に対応するピクセル位置が沿う画像中の線は、技術的に“エピポーラ線”と呼ばれる。説明目的のため、“エピポーラバンド”の用語は、1又は2以上のエピポーラ線を含み、かつすべての画像バンドにわたって拡張するピクセルの集合を表現するものと解釈される。
本発明の本質的な特徴ではないが、感知された画像を再サンプルすることが一般的であり、エピポーラ線に沿ったピクセルが、技術的に画像レクティフィケーションと呼ばれる技術により、結果として得られる画像の行又は列に沿って収まるようにする。多重バンドから成る画像の場合、この操作がそれぞれの画像バンドで完全に同じように実行される。レクティフィケーションされた画像(以下、「被調整画像」という。)をステレオカメラ対から生成する技術はコンピュータビジョンの標準教科書で説明され、当業者によく知られている。
カメラ及びそれらの空間での相対的な位置を特定するいくつかの値が画像レクティフィケーションを実行するために、かつ後述の本発明の他の態様を実現するために要求される。これらの値は、1)カメラの光心間のベースライン距離B、及び、2)焦点距離感知システムの単位のための画像座標値とメートル法の座標値との間の内部倍率Fを含む。これらのパラメータは、当業者に良く知られるキャリブレーションプロセスを介して取得される。
シーン内の設計作業レンジをRmin〜Rmax、カメラ画像間のベースライン距離をB、倍率をFと仮定すると、2つの被調整画像間で可能性のある整合ピクセル位置の数Lは次のように計算され得る。
Figure 2006507087
例えば、上述の実施例では、2つのカメラのベースラインは189mmである。内部倍率は2700である。システムの作業レンジは1250mmから2150mmの間に選択された。これらの条件の下、Lは174となり、言い換えれば、多くとも174個の可能性のある整合ピクセル位置しか存在しないことになる。
整合プロセス中に、Mが第2画像中のL個の整合ウィンドウと比較される。図2のM2A及びM2Bがそのような整合ウィンドウの2つである。一方のカメラの視線に沿って位置するシステムの設計作業レンジ内の任意の2ポイントが他のカメラの整合ウィンドウのために独自の値を有する場合には、独自の整合が保証され得る。図2の例では、これは、L×(L−1)個の異なるM2A及びM2Bの選択のすべてで、M2AとM2Bとの値が異なるということに相当する。本発明に包含される当該取り組みを利用するシステムは、係る独自の画像値を創出すべく選択されるパターンを投影する。
本発明の本質的な特徴ではないが、LUPを値の行及び列から成るものとみなし、投影デバイスはパターンの行が一対の被調整画像のエピポーラバンドに対応するように配置されることが有用である。例えば、上述の実施例では、投影デバイス102は、被投影画像の行が1対のカメラ104からの被調整画像の行に平行となるように配置されてもよい。当業者にとって当然のことながら、投影デバイス及びカメラをこの結果を実現するように調整する多くの同等の方法が存在する。
好適な実施例では、LUPがまずエピポーラバンドに沿って収まるベースパターンを計算することで創出される。“ベースパターン”は、その中の特定のサイズ及び形状の如何なるパターンウィンドウをも他のすべての当該パターンウィンドウから区別可能であるという性質を有する。この条件は、ベースパターンが自身に循環的にラップされる場合を含むものと解釈される。このベースパターンはその後、詳細が後述されるように、LUPを生成すべく複製される。
本発明の重要な態様は、上述の整合ウィンドウの独自性を保証することである。すなわち、すべての整合ウィンドウが、十分なサイズのパターンウィンドウを包含することを保証すべく画像の十分に大きな領域の範囲を定めることが不可欠である。十分なサイズのパターンウィンドウは、局所的な独自性を保証し、同時に当該パターンが画像内でそれを適切に表現するのに十分精細にサンプルされることを保証する。これら両制約は、投影デバイスにより投影されるパターンウィンドウにより範囲が定められる領域と、感知された画像にある当該パターンにより範囲が定められる領域との間の関係を決定することにより満たされ得る。特に、サンプリングの制約は、被感知画像内のパターンウィンドウで範囲を定められた領域内に、その領域が如何に小さくなろうともそれを正確に表現するために十分な数の感知要素があるという意味を含む。同時に、整合ウィンドウは、被感知画像内にあるパターンウィンドウで範囲が定められる領域を含むよう当該パターンが如何に大きく現れようとも十分に大きいものでなければならない。
図3は、所与の二次元エピポーラ平面で考慮すべき状況を示す。図はポイントPに位置する投影デバイス、ポイントCに位置するカメラ及び接平面Tを有する平面上のポイントSを示す。ベースラインはPとCとをつなぐ線で規定されてもよい。θはベースラインとTとの間の角度である。値r及びbはそれぞれ、PからSへの距離及びPからCへの距離を表す。仮にθをPSとPCへの法線とで形成される角度とする。同様に、θがCSとPCへの法線とで形成される角度とする。sはCからSへの距離を表すものとする。
投影デバイス及びカメラの間の投影による短縮遠近効果は取るに足りないものと理解される。結果として、投影されたものと画像パターンウィンドウとで範囲が定められる角度を考慮する。より詳細には、被投影パターンウィンドウは線PSを中心とする小さい角度αで範囲が定められるものと想定する。要するに、一次的に当該パターンウィンドウが以下のサイズWで表面に現れることとなる。
Figure 2006507087
また、
Figure 2006507087
も既知である。ここでβは、観察しているカメラ画像のパターンウィンドウの投影により範囲が定められる角度である。それゆえに当然、以下の関係となる。
Figure 2006507087
同等に、
Figure 2006507087
となる。
典型的な実施例では、β/αの最小及び最大比率の計算方法は、作業レンジ内のポイントの精細なグリッドを考慮することであり、そのグリッド上の最小及び最大比率を計算することである。当該グリッドは1250mmから2150mmで、かつプロジェクタ軸の周りで±12°の角度範囲を超える作業レンジ内における一連のポイントとなるよう選択される。この角度範囲は、LUPが投影される角度範囲に合うか或いは上回るものとなる。好適な実施例では、プロジェクタとカメラとの最悪の場合のベースライン距離が、上述の典型的な実施例では189mmであるカメラ対の間の距離で境界とされる。ディスパリティが計算されるための最大表面角度は正面から60°であると理解され、3つより多い視点を使用せずに凸状のオブジェクトがモデルとされ得るに十分な値である。この情報により、β対αの最小及び最大比率は.88から1.13の範囲であると認められる。
したがって、上述の特定の実施例では、適切なサンプリングは、プロジェクタの解像度とカメラシステムの解像度とを2行2列のカメラピクセル領域の画像が.88行.88列の被投影ピクセル以上とならないことを確実にするよう準備されることにより保証される。すなわち、投影される任意の一連の値が、少なくとも2/.88=2.27倍に拡大されて現れる。任意の整合ウィンドウがm行n列サイズのパターンウィンドウを含むことを確実にするため、整合ウィンドウサイズは1.13倍、或いは、合計倍率2×1.13/.88=2.6でさらに拡大されなければならず、r=2.6×m、p=2.6×nで、r行p列のサイズの整合ウィンドウを与える。当業者には当然のことながら、整合ウィンドウサイズを増大させる適切な要因は、システムの設計パラメータの役割を果たす。同様に、当業者には当然のことながら、整合ウィンドウの独自性を保証することはできないが、システムは、より小さいサイズの整合ウィンドウで操作され得る。最後に、当業者にはまた当然のことながら、当該システムは、規定の最小より大きいサイズの整合ウィンドウで操作される場合がある。
カメラ及び投影システムは今、相互に既知である関係を有するので、上記で計算された値Lからベースパターンの必要なサイズを決定することが可能である。特に、適切なサイズの整合ウィンドウの整合の独自性は、任意のカメラ画像の少なくとも174列に及ぶ周期的で非循環的なベースパターンから成るパターン画像を取得の際に創出することで保証される。上記で開示されたような投影デバイスの設定に基づき、長さがL/2=87列のベースパターンを考慮すると、LC=f×2.27×87=f×2×87/.88のサイズでカメラ画像にそれが現れることが分かる。なお、fは.88から1.13の範囲の短縮遠近比率である。したがって、LCは任意のカメラ画像における174列全体の要求に合うか或いは上回るものとなる。
パターンの要素の構造、所要の整合ウィンドウサイズ及びパターン画像内のバンド数は、依然選択できる状態である。これらの値は、問題のアプリケーションに依存する。整合の堅牢さは、典型的には整合ウィンドウサイズのサイズの増大及び画像バンドの数の増大と共に増加する。しかし、ディスパリティマップで実現可能な空間的解像度は整合ウィンドウと反比例であり、その結果より小さいウィンドウで改善する。画像バンド数を増加させることは画像取得の複雑さを増し、画像品質に影響を及ぼす場合がある。例えば、シーンが動的である(すなわち、オブジェクトに動きがある。)状況は、逐次投影による多重バンドの取得が困難となる。極めて飽和したカラーのあるシーンは、カラーコーディングを介したパターンの取得を困難にする。最後に、パターン値の数の増大は整合ウィンドウサイズ及び所要のバンド数を減少させるが、整合信頼性を保証するため被感知画像の信号対雑音比に対しより強い要求を突きつける。
結果として、所与のシステム設定のために多くのLUPが存在する場合があり、それぞれが特定の利点及び不利点を有する。したがって、パターンを生成するとき、最適なものを選ぶべくそれらを“スコア”できることが有益である。本発明の実施例は2つの方法のうちの1つでスコアされたパターンを利用した。
第1の方法は、候補となるパターンを直接スコアすることである。例えば、バイナリパターンでは、類似度の公約数がハミング距離であり、2ストリングのビットが異なる位置の数として定義される。すべての起こり得るパターンウィンドウをバイナリパターンで考慮すると、離散的なパターンウィンドウのすべての対にわたって最小ハミング距離を計算することによりバイナリパターンをスコアすることができる。特に、スコアがゼロの場合、パターンウィンドウはストリングのどこかで繰り返される。スコアが大きくなるほど、パターンウィンドウ間にある差が大きくなり、したがって結果のパターンが予期しない混乱に対してより堅牢となる可能性がある。このスコアリング方法はこれより“ハミングスコアリング方法”として参照される。ハミング距離が1である特別な場合では、よく知られるグラフ考察方法を使用して効果的にLUPを生成することが可能である。当該ストリングはDebruijnシーケンスとして知られる。好適な実施例では、Debruijnシーケンスが、すべてゼロから成る或いはすべて1から成るストリングが許可されないとの修正を加えて生成される。
パターンをスコアする第2の方法は、パターンを投影しかつ画像化する効果を含む。特に、この方法は連続関数から成るパターンに適している。この場合、スコアはまずベースパターンを創出することで計算され、その後投影をシミュレートし、かつ、離散的な一連の画像ピクセルとしてそれを感知する。結果として得られる値の配列はここで、上記で検討されたバイナリパターンと同じだけ処理される。すなわち、一連の整合ウィンドウがここで定義され得る。これらの整合ウィンドウを定義するとき、2つの感知要素がパターンを別にサンプルする場合があるという事実を考慮することはさらに有益である。最悪の場合、それらは2分の1ピクセルのオフセットでパターンをサンプルする。パターンの望ましい性質は、これらの状況であっても一番近い整合(すなわちそれ自身から2分の1ピクセルだけオフセットされたものと比較される整合ウィンドウ。)が起こり得る整合の他のどれよりも高い整合スコアを有することである。この一連の推論に続き、所与のパターンウィンドウのスコアは、それ自身に対するその整合スコアの最低値から、離散的な他のすべての整合ウィンドウに対する最大の整合スコアを差し引いたものである。ベースパターン全体のスコアは、すべての整合ウィンドウのうちのこの値の最小値である。正のスコアを有するベースパターンはそれゆえ局所的に独自であり、より大きいスコアを有するものはサンプリングエラーに対し堅牢である可能性が高い。このスコアリング方法はここに“擬似画像化スコアリング方法”と定義される。
したがって、アプリケーションの要求に応じて、整合ウィンドウのサイズ及び形状、画像バンド数、ベースパターン長並びにベースパターンスコアリング関数を選択する。このような選択をすべて決定すると、特定の実施例は以下のアルゴリズムを使用してベースパターンを生成する。
1.ベースパターンストリング候補Pを生成する。候補がもう残っていない場合には、それまでに見つけた中で最適のものを返す。
2.Pが周期的パターンとみなされる場合、パターンスコアSを計算する。
3.Sが先行するすべてのスコアより大きい場合、最適な候補としてPを記憶する。
4.1に戻る。
特定の具体例は、1)バイナリパターン、2)正弦波パターンの2クラスのパターンを利用する。バイナリシーケンスは、困難な画像化環境(高い信号対雑音比が望まれる場合。)又は投影デバイス自身がバイナリである場合に極めて有効である。前者の例は、極めて大きな範囲のアルベドを有する表面を含むシーンである。後者の例は、ポイントの空間的グリッドを提供するよう設定されるレーザー源により駆動される照明デバイスである。
正弦波は連続領域の値から成り、したがってより空間的にコンパクトなパターンを生成する。それらはしたがって、高い空間的解像度が要求される場合に非常に適している。当該パターンに存在する最大の周波数と適切に境をなすことにより、被感知画像におけるサンプリングアーティファクトを制御することもまた可能である。
正弦波パターンは擬似画像化スコアリング方法を使用して計算され、擬似整合ウィンドウ対が正規化された相互相関をマルチバンド画像に使用してスコアされる。厳密に言うと、m行n列でかつbバンドに広がる候補の整合ウィンドウM及びMのため、正規化された相互相関が次のとおり定義される。まず、Mにおけるm×n×bのピクセル値のすべての平均値がMのそれぞれのピクセル値から差し引かれる。同じ操作がMでも行われる。このステップに続き、Mのm×n×bのピクセル値のすべてにわたる分散の平方根が計算され、それぞれのピクセル値が当該ウィンドウの分散で除される。同じことがMでも行われる。最後に、ゼロ平均でかつ分散が正規化された整合ウィンドウM及びMで対応するm×n×bのすべてのピクセル値の二つ一組の積の平均値として定義される相関関係が計算される。−1から1の範囲のこの値は整合ウィンドウM1及びM2の正規化された相互相関である。
ストリング候補は、4ピクセルと11ピクセルとの間の周期を持つ3つの正弦関数の周波数及び位相空間をサンプリングすることにより生成される。好適な実施例のために生成される特定のベースパターンは、それぞれ、4.2、9.5及び10.2ピクセルの周期、並びに、0、1、及び5.5ピクセルの位相シフトから成り、長さ140の離散的なベースパターンを生成すべくサンプルされる3つの正弦波から成る。このベースパターンは3バンドのパターン画像を構築するために使用される。このパターンはこれ以降、Sin4−9−10パターンとして参照される。上述の特定の実施例の設定で、Sin4−9−10パターンは、1行7列のピクセルサイズで3バンドの整合ウィンドウが正の整合スコアを生成するという性質を有する。さらに、整合スコアは整合ウィンドウの長さと共に増大する。所要の整合ウィンドウのコンパクトさは、高いディスパリティ解像度が要求される状況においてSin4−9−10パターンを有益なものとする。
このベースパターンは140の長さを有し、3行のパターン画像又は3バンドそれぞれに1行を使用して表され得る。特定の実施例は、3バンドを使用するSin4−9−10を表す。その結果として、それぞれのバンドのパターンは1行の高さである。
本発明の実施例はまた、バイナリパターンとして表示される離散的なシーケンスを利用してもよい。このようなバイナリパターンの1つが、上述のハミング(ダイレクト)スコアリング方法を使用してストリングをスコアすることにより生成されている。ストリング候補は一連の短いベースパターンを初めに創出することで生成され、その後続いて、所望の長さに到達するまで、見込みのあるパターンスコアを有するものに要素を追加する。結果として得られるパターンは、最小のハミング距離3を有する。それは、2つのバイナリストリングで構成される。第1ストリングは、101111001101011011100001011100010001100011101111000011111110110010010000 01000001100110110110100001001010100101010001111110101110011110010111001110である。第2ストリングは、001001011100110101010011110100100000101000011111100001111010100011010101 10110001110011000010111010101111011110000110100111110111110011100001000110である。
このベースパターンは146の長さを有し、2行のパターン画像又は2バンドのそれぞれで1行の何れかを使用して表され得る。以下に説明される特定の実施例は、2行を使用したパターンを表す。
結果として得られるベースパターンでは、2行8列のパターンウィンドウのすべては、他の類似サイズのパターンウィンドウから少なくとも3箇所で異なっており(すなわち、ハミング距離3を有する。)、ベースパターンの最後で始まり前方に“ラップ”するパターンウィンドウを含んでいる(すなわち、パターンは周期的なものとみなされる。)。このパターンはこれ以降、Bin2x8パターンとして参照される。
好適な実施例では、ベースパターンは、1若しくは2以上のバンド及び/又は1若しくは2以上の行から成るエピポーラバンドに位置される。ベースパターンは周期的パターンとしての独自性を保証しながら生成されるので、それらを連結し、かつ、エピポーラバンドに沿った位置の所定範囲に整合ウィンドウの所望の独自特性を維持することが可能である。このプロセスは、以下のアルゴリズムがベースパターンからのLUPの創出に使用されることを可能にする。
1.mはベースパターンの行数、nはその列数とする。Mは最終的な投影画像の行数、Nはその列数とする。
2.元のベースパターンのシーリング(N/n)コピーを連結させることにより、新しいベースパターンPを創出する。結果として得られるストリングを切り詰め、m行N列のサイズになるようにする。
3.Pのシーリング(M/m)コピーを積み重ね、その後結果をM番目の行で切り詰める。
このようにして創出されるLUPは“ストレートLUP”として参照される。
上述の特定の実施例のため、ディスパリティマップを計算すべく整合を実行する場合に、整合ウィンドウのサイズは、係数2.6で乗じられ最も近い偶数の整数に丸められたパターンウィンドウのサイズである。したがって、Bin2x8パターンでは、整合ウィンドウのサイズには5行21列が選択される。これにより、単一バンド画像を使用するBin2x8パターンに基づいたストレートLUPのディスパリティマップを計算するためのアルゴリズムはその後以下のように進行する。
1.C1カメラ画像のウィンドウからC2カメラ画像のウィンドウへの整合が、少なくとも5行21列の整合ウィンドウサイズを使用して実行される。相関閾値0.5及び局所分散閾値10−6を下回る整合は廃棄され、それらの相関スコアがゼロにセットされる。
2.任意的に、C2カメラ画像からC1カメラ画像への整合が同じウィンドウサイズを使用して実行される。C1−C2及びC2−C1整合でディスパリティ値が2以内に入らないディスパリティは廃棄され、それらの相関スコアがゼロにセットされる。
必要に応じ、ディスパリティマップを創出するためにステップ1のみを実行することが可能である点に留意する。
上述のLUPを創出するためのプロセスは、LUPを複数のバンドにセットすることで、高さが1ピクセルの小さいパターンウィンドウを創出することが可能になるという利点を有する。この性質は計算の効率化を図り、かつ、画像内のエピポーラバンドに直行する方向にある地物の高い空間的解像度をも提供する。特に、高さ1行のストレートLUPパターンは、列の構成要素すべてで同じ値を有する。したがって、1行p列の整合ウィンドウにあるパターン画像は、より大きなr行p列の整合ウィンドウに画像化されたものと同じ実効的内容を有する。したがって、カメラ画像の整合ウィンドウもまた高さ1行のみとなり得る。
しかし、エピポーラバンドに沿った外観の比較可能な解像度を提供することは不可能である。整合ウィンドウ幅が、所与のベースパターンのためのウィンドウ高さよりずっと広いからである。
エピポーラバンドに沿って追加の解像度が必要とされる場合、好適な実施例は、LUPが生成される際にベースパターンがエピポーラバンドに沿った固定量でオフセットされることを可能にする。これは、整合ウィンドウが複数行又は複数列の何れか、或いは双方に必要な独自特性を維持しながらスパンすることを可能にする。厳密に言うと、好適な実施例は以下のアルゴリズムで創出されるLUPを利用する。
1.mはベースパターンの行数、nはその列数とする。Mは最終的な投影画像の行数、Nはその列数とする。
2.元のベースパターンのシーリング(N/n)コピーを連結させることにより、新しいベースパターンPを創出する。
3.iが1からシーリング(M/m)になるまでの間、a.を繰り返す。
a.投影すべきパターンの(i―1)×m+1乃至i×mの行を(i−1)×mの位置だけ左に循環的にシフトさせたPにセットする。
4.結果がM行N列のサイズになるよう切り詰める。
このアルゴリズムの結果、ベースパターンはここで“回転”し、LUPに45°の角度で傾斜したテクスチャを生成する。係るLUPは、“被回転”LUPと呼ばれる。特に、被回転LUPを使用する場合、1行n列のパターンウィンドウが行に沿ったL個の位置で独自であるとき、n行1列サイズのパターンウィンドウもまた行に沿ったL個の位置で独自となる。n行1列のパターンウィンドウはまた列に沿ったL個の位置でも独自であり、1行n列のウィンドウも同様である。要するに、転置された形でパターンウィンドウを使用し、かつ、行及び列の双方に沿って使用することが可能である。2行n列のパターンの場合、対応する転置されたウィンドウサイズが次のように計算される。n’は、n以上の第1の2の倍数とする。そして、対応するパターンウィンドウサイズを(n’+1)行m列とする。例えば、Bin2x8パターンは、被回転LUPで使用される場合には、転置された9行2列のウィンドウサイズを有する。当業者には当然のことながら、2より多い行を有するベースパターンから創出される被回転パターンのウィンドウサイズを決定するために、類似の計算を実行することが可能である。
被回転LUPを所与とすると、ウィンドウが独自の整合を保証するのに十分なサイズであるという条件で、形及びサイズが変わるウィンドウを利用することがここで可能となる。特に、上述の特定の実施例はSin4−9−10パターンを被回転LUPのベースパターンとして使用する。パターンを評価するために使用される1行7列の整合ウィンドウの整合独自性を保証するために必要なウィンドウサイズは、短縮遠近効果を説明すべく少なくとも1行(7×1.13/0.88)列=1行9列にまで拡張されなければならない。結果として、次のアルゴリズムが被回転Sin4−9−10LUPのディスパリティマップの計算に使用される。
1.C1カメラ画像のウィンドウからC2カメラ画像のウィンドウへの整合が、少なくとも1行9列のウィンドウサイズを使用して実行される。相関閾値0.5及び局所分散閾値10−6を下回る整合は廃棄され、それらの相関スコアはゼロにセットされる。
2.任意的に、C2画像からC1カメラ画像への整合は、同じウィンドウサイズを使用して実行される。C1−C2及びC2−C1整合の双方でディスパリティ値が3以内に入らないディスパリティは廃棄され、それらの相関スコアがゼロにセットされる。
3.ステップ1及び2の結果はワイドディスパリティ整合と呼ばれる。
4.C1カメラ画像のウィンドウからC2カメラ画像のウィンドウへの整合が、少なくとも9行1列のウィンドウサイズを使用して実行される。相関閾値0.5及び分散閾値10−6を下回る整合は廃棄され、それらの相関スコアはゼロにセットされる。
5.任意的に、C2カメラ画像からC1カメラ画像への整合は、同じウィンドウサイズを使用して実行される。C1−C2及びC2−C1整合の双方でディスパリティ値が3以内に入らないディスパリティは廃棄され、それらの相関スコアがゼロにセットされる。
6.ステップ4及び5の結果はトールディスパリティ整合と呼ばれる。
7.ワイドディスパリティ整合とトールディスパリティ整合との相関値が比較される。最も高い相関スコアを有するディスパリティ値が保持される。
8.ワイドディスパリティ整合又はトールディスパリティ整合のうちの1つだけがディスパリティを計算できる領域では、そのディスパリティが保持される。
ディスパリティマップを創出するために、ステップ1乃至3だけ、ステップ4乃至6だけ、或いは、ステップ1乃至8のすべてを実行することが可能な点に留意する。
続くディスパリティマップの生成で、好適な実施例は任意的にディスパリティ計算の第2パスを実行する。それにより、ディスパリティが上記アルゴリズムを使用して計算されなかったピクセルの小領域が隣接のディスパリティから推測され、正規化された相互相関を使用してその後にスコアされる。閾値0.5を超えてスコアされるそれらの値は、有効なディスパリティとして保持される。
このディスパリティマップ計算に続き、ディスパリティ値は任意的に、局所最適化技術を使用してサブピクセル精度まで精緻化される。当該サブピクセルレジストレーションを実行する方法はそれら自身よく知られ、当業者にもよく知られるものである。
好適な実施例では、シーン内で観察されたポイントへのレンジは以下の方程式で計算される。
Figure 2006507087
ここでZは被調整カメラ画像の平面から問題の観察されたポイントまでの距離を表し、Dは整合されたピクセル間の画像平面距離として計算されるピクセルでのディスパリティ値、Bはベースライン距離、及び、Fはエピポーラ線に沿う内部倍率である。ディスパリティDが計算されたすべてのピクセルに対するレンジZの計算結果は、レンジマップと呼ばれる。
レンジマップ内のポイントの3次元座標は以下のように計算される。
Figure 2006507087
ここで、それぞれ、uc及びvcはカメラ画像の光心であり、fx及びfyがx及びy方向の内部倍率である。一般的な方法では、fx及びfyは上記Fと等しくなるよう設計される。これらのパラメータは、当業者によく知られるキャリブレーションプロセスにより計算される。値u及びvは、ピクセルの画像座標であり、カメラの画像配列に本来備わっているものである。値Zは、上述のようにそのピクセル位置のために計算されるレンジである。結果の3値(X、Y、Z)は、ディスパリティが計算された被調整画像に対して表される観察された画像ポイントの空間的位置であり、X方向は画像の行に沿って位置し右を指し、Y方向は画像の列に沿って位置し下を指し、かつ、Z方向は画像平面に直行しレンズを介し観察されたシーンに向かって前方を指す。好適な実施例では、他の外部供給される座標系に関して、レンジ及び3次元ポイント双方の計算がさらに可能であり、かつ、ディスパリティ値が計算されたピクセルの任意のサブセットのためのレンジ及び3次元ポイントの計算がさらに可能である。
上記検討はここで、カメラが2つより多い場合にも一般化され得る。図4は、3つのカメラC1乃至C3の配置を表す。当該3つのカメラは、カメラC1及びC3間に垂直配列に位置する投影デバイスPと共にL型に配置される。図4の実施例のための画像レクティフィケーションが、垂直及び水平方向に異なる目盛りを有する画像を生成すべく選択される。これらの値が選択され、“C1−C3”及び“C1−C2”のカメラ対の起こり得るディスパリティ値が所与の設計作業レンジで同一となるようにする。レクティフィケーションはまた、C1−C2対のエピポーラ方向がカメラC1及びC2の被調整画像の行に対応し、C1−C3対のエピポーラ方向がカメラC1及びC3の被調整画像の列に対応することを保証すべく選択される。
本発明の特定の実施例は、一方がC1−C2対のエピポーラバンドに沿って調整され、もう一方がC1−C3対のエピポーラバンドに沿って調整される2つのストレートLUPの何れかを投影することにより、或いは、C2−C3対のエピポーラバンドにそって近似的に調整される1つの被回転LUPを投射することにより、これら2つのカメラ対を利用する。前者の方法は、画像対のそれぞれがその画像対のために最適化されたパターンを感知するという利点を有する。後者の方法は、単一のLUPがいずれの或いはすべてのカメラ対によっても処理され得るという利点を有する。
特定の実施例では、C1−C3対及びC1−C2対からのディスパリティマップが独立して計算され、最大相関値を有するそれぞれの位置のディスパリティ値を採取することにより後に組み合わせられる。
LUPに基づいて計算すべきディスパリティのため、シーン内の対応するポイントが少なくとも1つのLUPによって照らされ、少なくとも1つのカメラ対によって画像化される必要がある。この条件を満たさない領域は“レンジシャドウ”と呼ばれる。
好適な実施例では、カメラ(C1及びC3)の2つが、一方が他方の上に配置され、それぞれが上方から下方に傾斜する角度でシーンを観察する。プロジェクタPはC1及びC3により規定される線に沿って位置される。第3のカメラC2は、他のカメラ及びプロジェクタから横方向に間隔が空けられる。この配置は、典型的なシーンではレンジシャドウがほとんど発生しないことを保証する。
図5は、2つのカメラC1及びC3並びにプロジェクタPを示し、レンジシャドウを生成するには、画像シーン内のオブジェクトの表面がどのように位置付けられる必要があるかを実例によって説明する。表面に対する接平面Tは、プロジェクタPの光心より低い位置にある必要がある。幾何学的にこれは可能であり図にも示される。しかし、典型的に発生するシーンでは、このような場合はほとんどない。
特定の典型的な実施例では、パターンは3バンドまでで表され、それぞれのバンドはグレースケール値で構成され、かつ放射エネルギー源として可視光を使用した上述のプロジェクタによりシーン表面上に投影される。投影デバイスは256のグレースケール値を生成可能であるが、パターンは、51乃至243の192のグレースケール値の範囲を占める。これらの値は、通常の観察条件の下、LUPの最適な観察を提供するよう選択される。上述のL型配置の3つのSony DFW−SX900カメラは、複数の観察位置からシーンの画像を取得するセンサーである。カメラは1/14秒の固定シャッター速度を使用して作動する。それらは、マニュアルフォーカスの12mmレンズ及びマニュアル調整絞りを装備する。この実施では、様々な数の画像バンドを、カメラに本来備わっているカラー機能を使用し、或いは/かつ、静的シーンにおける多重投影・取得サイクルを実行して取得してもよい。投影の際LUPがカラーバンドを利用する場合には、YUV画像がRGB表現に変換され、結果として得られる3バンド画像上で整合が実行される。被投影パターンがカラーを含んでいない場合、取得された画像のY要素だけが整合目的のために保持される。
本発明は、特定の好適な実施例及び実施を参照して説明された。様々な代替の実施例及び実施を以下に説明する。以下の検討は限定的ではなくむしろ説明を目的としたものであると認識される。
この上述部分では、いくつかの特定パターン、パターンウィンドウの特定形状およびサイズ並びに特定領域の独自性のためのLUPを説明するが、被投影パターンは如何なるサイズ若しくは形状でもよく、パターンウィンドウは如何なるサイズ若しくは形状でもよく、パターンウィンドウは空間的に連続的でなくてもよく、或いは、領域であってパターンウィンドウがその領域全体で独自となるところの領域は如何なるサイズ、形状、若しくはサンプリングスキームであってもよい。当業者には当然のことながら、パターンであってそのパターン全体で局所的独自性が定義され得るところのパターンには多くのサイズ及び形状が存在する。
好適な実施例では、LUPが離散的配列の値として計算される。好適な実施例の1つでは、ベースパターンは、変化する位相及び周波数を有する正弦波のサンプルされたグループの区別の結果である。パターンを選択するための類似度の測定は正規化された相互相関による。好適な実施例の別の1つでは、LUPは2シンボルのアルファベットで構築される。パターンを選択するための類似度の測定はハミング距離による。他の実施例では、LUPが2シンボルより長い個別的なアルファベットで構築されてもよい。他の実施例では、LUPは、振幅、空間周波数、位相又はこれらの任意の組み合わせが変化する異なる連続関数で構成されてもよい。連続関数はサンプルされ、かつ区別され、或いは適切な連続媒体を使用して実行されてもよい。
別の実施例では、類似度の様々な測定がパターンを選択するために使用され得る。これらの測定は、パターン値自身で直接規定される場合があり、ハミング距離、ベクトル距離、加重ベクトル距離又は他の離散的若しくは連続的なパターン類似度スコアリング方法などの測定を含む。測定はまた、投影すべきパターンの様々な特性が考慮される場合に規定されてもよく、パターンの拡大縮小及び短縮遠近効果、離散的サンプリング効果、投影デバイス及び/又は感知デバイスの点広がり関数並びに被サンプル画像のノイズを含む。スコアリング機能は、整合ウィンドウを比較するために使用される如何なる方法であってもよく、負の距離平方和、負の絶対距離の和、相対相関、正規化相対相関を含む。当業者には当然のことながら、パターンウィンドウをスコアリングする多くの同等の方法が存在する。
パターン値を2値(白又は黒)、濃淡値、カラー値、マルチスペクトル値又は投影すべき値の時間系列として符号化することにより、パターンは投影すべき画像に表現され得る。当業者には当然のことながら、パターンを画像に表現する他の多くの類似方法が存在する。
いくつかの媒体に表現される場合に、LUPはフィルタリングされてもよく、カラーバランスが取られ、コントラストが強められ、或いはそうでなければ、その投影又は画像化特性を改善すべく変更されてもよい。
LUPは、単一マルチバンド画像、同時に若しくは連続的に投影されるマルチ画像、又は、画像の複数の行若しくは列若しくはそれらの任意の組み合わせとして表現されるマルチバンドで構成されてもよい。
好適な実施例では、任意のサイズのLUPが、その長さを増大させるために単一ベースパターンを複製することにより、かつ、その高さを増大するためにLUPの上端及び下端にベースパターンのコピーを隣接することにより創出される。ベースパターンを上端及び下端に隣接させる場合には、ベースパターンを対応する位置に隣接させてもよく、左又は右への固定シフトを連携させながらベースパターンを隣接させてもよく、或いは、ランダムシフトによりベースパターンを隣接させてもよい。異なるバンドにおいて、同じシフトを使用してもよく、異なるシフトを使用してもよい。また、ベースパターンの解像度を変更することを選択してもよい。当該変更は、そのサイズを増大すべく値を複製することにより、新しい値を古い値の間に挿入することにより、或いは双方の組み合わせにより行われる。当業者には当然のことながら、ベースパターンを利用し、かつ、場合により相対的な位置、サイズ、方向、縦横比、解像度又は細部の鮮明度が変え、そのコピーからより大きいLUPを創出する多くの方法が存在する。
LUPは単一のベースパターンを複製することで構成されてもよく、複数のベースパターンを複製することで構成されてもよい。ベースパターンの複製は、複製が局所的独自性を維持するのであれば、規則的であっても不規則的であってもよい。
LUPはベースパターンを使用せずに創出されてもよい。LUPは、所望のサイズのランダムパターンを生成することにより、かつ、LUPであるかどうかを確認することにより構築されてもよい。別の方法として、1又は2以上の固定ルールに従ってパターンを生成し、かつ、それがLUPであるかどうかを確認してもよい。別の方法として、LUPを生成するルールを創出してもよい。別の方法として、上述のすべてを行い、その後、パターンがLUPとなるまでその精緻化を行うべく探索プロセスを起動してもよい。探索は決定論的であってもランダムであってもよい。当業者には当然のことながら、LUPを生成するために採用され得る多くのアルゴリズムが存在する。
好適な実施例で述べたように、異なるLUPが、周囲の画像化条件および画像化された表面の特性に起因する異なる性質を有する場合がある。結果として、使用すべき適切なLUPが時間と共に変化する場合がある。本発明の別の実施例では、LUPは周囲の状況のセンサー測定に基づいて選択され、或いは、先行の画像取得システムの処理結果に付随するものとされる場合がある。その後者の場合には、ドロップアウトの位置及び数を観察し、かつ、その位置にある画像の性質に基づいてLUPを調整することにより、パターンが整合される場合がある。LUPは記憶された一連のパターンから取り出されてもよく、オンラインで適用されてもよい。LUPは、シーンの1又は2以上の表面に投影される際に存在する周波数の範囲を改善すべく調整されてもよい。当業者には当然のことながら、3次元画像取得システムの性能を改善するようLDPを整合させる多くの同等の方法が存在する。
3次元画像取得システムのLUPのサイズは、プロジェクタ及び感知システムの解像度に加え、プロジェクタ及びセンサーの形状寸法の組み合わせによっても導き出されることができる。好適な実施例では、ディスパリティ値が計算され、シーンにあるすべてのポイントが“設計作業レンジ”と呼ばれる一定の深度範囲内にあるものと想定される。別の方法では、ディスパリティ値が作業レンジの想定なしに計算される場合がある。そうすることは、より広いセットの起こり得るディスパリティ値にわたって整合が実行されることを必要とする。画像内に投影されたパターンのサイズ及び形状、画像内の必要なディスパリティ値の数、並びに、その結果のパターン画像の生成を左右する値を決定する方法は、かなり多くの方法で実現されることができ、かつ、当業者によく知られている。
3次元画像取得システムでは、1又は2以上のデバイスがLUPをシーンの表面上に投影する。好適な実施例では、LUPを投影するデバイスは、Hitachi CP−X270プロジェクタなどの市販の液晶ディスプレイ(“LCD”)プロジェクタである。他の実施例では、LUPを投影するデバイスは別のタイプのLCDプロジェクタであってもよい。別の方法では、それはデジタルライトプロセッサ(“DLP”)プロジェクタであってもよい。また、回折装置と組み合わされた光源であってもよい。或いは、投影デバイスは、不透明な或いは半不透明なフィルムであってパターンがその上に刻み込まれたフィルムと組み合わされる光源であってもよい。当業者は、パターンを投影する他の手段も同等の結果を実現するが、それは被投影画像が所要のサイズ、輝度及び解像度を有する場合であることを認識する。
放射エネルギー源は、白色光、発光ダイオード(“LED”)、半導体レーザー又は所望のスペクトル内の他の如何なる放射源であってもよい。“放射エネルギー”の用語は電磁スペクトルの以下の如何なる部分をも含むものであると解釈される。
(a)可視光スペクトル
(b)紫外線光スペクトル
(c)赤外線光スペクトル
(d)紫外線から赤外線にまで広がるスペクトル
当業者は、放射エネルギーの他の波長が同等の結果を実現すべく使用され得るが、それは、使用される波長が、採用された投影デバイス、感知デバイス並びに所要の投影及び感知解像度と調和している限りであることを認識する。
エネルギー源は、当該エネルギー源が十分な異なるパターン値を生成でき、センサーが十分な解像度でエネルギー源を検出できるものであるならば、電磁スペクトル以外のものであってもよい。
一定のアプリケーションでは、パターンは人間の観察者にとって感知できないものであることが望ましい。この条件は、人間の視覚系では知覚されない電磁スペクトルの一部を使用することで達成される場合がある。紫外線及び赤外線はそのようなスペクトルの一部の2つの例である。別の方法では、可視スペクトルが使用されるが、パターンは、投影間隔内に2以上の一連のパターンを投影することにより知覚されないように表現され、或いは、パターンは、人間の視覚系で知覚される際には相互に相殺されるよう選択される。別の方法では、人間に知覚されない他のエネルギー源が使用されてもよい。当業者には当然のことながら、人間には知覚されないがシステムのセンサーには知覚可能である被投影パターンを表現する多くの方法が存在する。
センサーは、複数の観察位置からシーンの画像を取得する。好適な実施例では、感知手段が3つの市販のSony DFW−SX900などのCCDカメラにより提供される。他の実施例では、複数の観察位置からシーンの画像を取得する2以上のセンサーが他の製造元或いはモデルの複数のCCDカメラにより実現されてもよい。別の方法では、それらは複数のCMOSカメラにより実現される場合がある。また、それらはCCD及びCMOSカメラの双方により実現される場合もある。或いは、放射エネルギーの特定範囲の波長を強めるための特別なフィルターを装備したCCD又はCMOSカメラにより実現される場合もある。
画像取得用センサーは次のいずれかをさらに含むものであってもよい。
(a)従来の白黒カメラ
(b)線走査カメラ
(c)カラーカメラ
(d)赤外線カメラ
(e)紫外線カメラ
(f)マルチスペクトルカメラ
(g)他の同等の空間的感光型デバイス
当業者には当然のことながら、画像としてシーンを感知する際に同等の結果を実現すべく使用され得る他の類似のセンサーが存在する。
好適な実施例では、カメラは、固定シャッター速度、固定焦点距離及び固定絞りで動作する。別の実施例では、画像を取得するセンサーが周囲の環境或いは先行する画像取得システムの動作結果に合わせて適応するようにしてもよい。シャッター速度及び絞りは、被写界深度、コントラスト、輝度又は類似の画像品質を改善すべく調整されてもよい。ホワイトバランスは色分解を改善すべく調整されてもよい。焦点距離は画像の細部を改善すべく、或いは視野を増大すべく調整されてもよい。センサーは独立して或いは共に調整されてもよい。投影デバイス(群)はまた輝度、コントラスト又はカラーバランスで調整されてもよい。投影デバイス(群)は独立して或いは共に調整されてもよい。投影デバイス(群)は画像取得用センサーとは独立して調整されてもよく、画像取得用センサーと連動して調整されてもよい。当業者には当然のことながら、結果画像で計算されるディスパリティマップを最適化するために、画像取得用センサー及び投影デバイスを調整する多くの同等の手段が存在する。
複数の観察位置からシーンの画像を取得するセンサーは1つの位置につき1つの物理的センサーで実施される場合がある。また、より少ない数の物理的センサーと複数の位置からより少ない数の物理的センサーへ画像を切り替えるための装置とにより実施される場合もある。画像を切り替える装置は、ミラー、光弁、プリズム又は他の同等手段であってもよい。切り替えの実施の場合には、1つの物理的センサーに多重化されるいくつかの画像は、センサーの画像平面の異なる部分に連続的に或いは同時に取り込まれてもよい。別の方法では、複数のセンサーは、連続する画像取得の合間を移動させられるより少ない数の物理的センサーにより提供されてもよい。当業者には当然のことながら、より少ない数の物理的センサーを使用して複数の観察位置からのシーンの画像を取得する他の類似手段が存在する。
好適な実施例では、パターン投影用の放射エネルギー源がカメラのベースラインに沿って配置され、被投影画像の横列が2つのカメラの光心を繋ぐ線に大体平行になるようにする。別の方法では、プロジェクタが1又は2以上の画像取得用センサーと同期してもよい。また、被投影パターンの空間的性質と画像の空間的性質との関係が判断され得るのであれば、プロジェクタが空間の他の位置にあってもよい。
複数のパターン投影用デバイスがある場合、それらは同調して動作してもよい。それらは同調して連続でパターンを投影することにより動作してもよく、或いは同時に動作してもよい。それらは同一のスペクトルバンドで、或いは、異なるスペクトルバンドで投影してもよい。それらはそれぞれLUPを投影し、或いは、それらはそれらの共同作業の結果としてLUPを投影してもよい。
好適な実施例では、取得された画像が平行な走査線を持つように調整される。そのような2つの画像及び既知のウィンドウサイズを考慮すると、画像内の対応するピクセルを整合させる手段を使用して探索が実行できる。整合は、画像の候補領域間のスコアリング関数を極大化することにより発見される。当該候補領域では、該候補は少なくとも既知の最小のウィンドウサイズであり、探索領域は被感知画像に現れるように被投影パターンの非循環部分を包含する領域よりも大きいものではない。スコアリング関数は以下のいずれかを含む場合がある。
(a)当該候補領域間の差の二乗の負の合計
(b)当該候補領域の差の二乗の正規化された負の合計
(c)当該候補領域の相互相関
(d)当該候補領域の正規化された相互相関
(e)当該候補領域の絶対差の合計
(f)当該候補領域の絶対差の正規化された合計
当業者には当然のことながら、整合において同等の結果を実現する距離関数として使用され得る多くの他の類似関数が存在する。
好適な実施例では、整合は画像ウィンドウで独立して実行される。しかし、ウィンドウでの最適な整合はまた周囲のウィンドウでの整合に依存する。これらの制約の下でのウィンドウの最適な整合は、エピポーラ線に沿う動的プログラミングにより実行され、また、画像全体を介する動的プログラミングにより実行され、或いは、グラフ最適化技術を使用して実行され得る。整合は、画像内に規定される一連の整合する位置群を利用してもよく、また、結果として得られる整合ポイントの一連のレンジ値を選択することで規定される整合する位置群を利用してもよく、或いは双方の任意の組み合わせを利用してもよい。当業者には当然のことながら、一連の整合する位置群にわたる整合を実行する多くの同等の方法が存在する。
好適な実施例では、画像の単一レクティフィケーションが選択される。別の方法では、レクティフィケーションは、画像のそれぞれの対の性質を高めるために選択される場合がある。また、レクティフィケーションは、特定の距離にある表面、又は、1若しくは2以上の画像取得用センサー若しくは投影デバイスに対して特定の角度を形成する表面を強調するために選択される場合もある。システムは多重レクティフィケーションを利用する場合があり、1若しくは2以上の表面を強調し、1、2、若しくは3以上の画像取得用センサーからの画像を最適化し、或いは、投影デバイスの1つにより投影される局所的独自パターンの外観を最適化するために、それぞれ設計される。当業者には当然のことながら、画像レクティフィケーションを実現する多くの均等手段が存在する。
好適な実施例では、整合は、単一解像度での画像で実行される。しかし、LUPはまた、より低い解像度の特定セットでサンプリングされる際に局所的に独自であり続けるよう構築される場合がある。この場合、ディスパリティ計算もまた、より低い解像度でサンプリングされる画像で実行され得る。より低い解像度の画像でのディスパリティ計算は、より高い解像度でのディスパリティ計算を初期化し、改善し、或いは、加速させるために使用される場合がある。同様に、整合は、画像位置の選択されたサブセットで実行されてもよく、それらの位置は他の位置でのディスパリティを推測するために使用される。粗いものから精細に至るこれらのような方法は、当業者によく知られるものである。
好適な実施例では、被投影パターンがカラーバンドを利用しない場合、整合は、カラー(UV)コンポーネントが取り除かれたYUV画像上で実行される。そうでなければ、整合は、YUVコンポーネントのRGB表現で実行される。また、整合は、画像のYUV表現で直接実行される場合もある。また、他の線形又は非線形カラー変換が整合前に画像に適用される場合もある。また、整合は単一画像バンドで独立に実行され、その後結果が結合される場合もある。或いは、整合は、複数回収集された画像に同時に実行される場合もある。当業者には当然のことながら、異なる画像表現における整合を実行することにより同等の結果を実現するいくつかの方法が存在する。
被取得画像は、以下の操作のいずれか或いはその組み合わせを含む画像処理操作により予備的処理がなされてもよい。
(a)局所平均
(b)ローパスフィルタリング
(c)ハイパスフィルタリングと組み合わされたローパスフィルタリング
(d)中央値フィルタリング
(e)ガウス分布のラプラシアンによるフィルタリング
(f)ランク変換
(g)センサス変換
当業者には当然のことながら、整合プロセスが適用される前に被取得画像に適用される多くの類似する線形及び非線形画像処理操作が存在する。
好適な実施例では、整合は、シーンがパターンで照らされている間に取得される画像上で実行される。別の方法において整合は、まず投影される照明なしで、その後一様に照らされるシーンと共にシーンの画像を取得し、それぞれの画像位置での表面アルベドを相殺するためにこれら2つの画像を使用することを伴う。一様な照明及びパターン化照明の投影が長時間行われてもよく、また別の方法として、パターン及びそのインバースを投影することで達成されてもよく、或いは別の方法として、シーンアルベドがほぼ一定であるものの上に複数のスペクトルバンドの放射エネルギーを同時に投影することにより行われてもよい。当業者には当然のことながら、同等の結果を実現すべく被投影光の他形態を組み合わせてLUPを利用する多くの方法が存在する。
画像内の対応するピクセルを整合させる手段が、被調整画像の横列に沿って適用されるものとして説明されたが、この特定形態を有さない画像の対応するエピポーラ線に沿って適用されてもよい。整合プロセスは、任意の画像の領域の対応ピクセルを、他の任意の画像のエピポーラ線に沿って探索して整合させることを選択することで適用される場合がある。当業者には当然のことながら、整合手段を実行する多くの同等のアルゴリズムが存在する。
好適な実施例のいくつかの変形例では、2つのウィンドウを使用して整合が行われる。特定の2ウィンドウ整合技術に従って、第1ウィンドウは水平に方向付けられ、“ワイドディスパリティ整合”となり、第2ウィンドウは垂直に方向付けられ、“トールディスパリティ整合”となる。2つの相関スコアは比較され、それぞれのピクセルで、最大の相関スコアを有するディスパリティ値が維持される。別の方法では、他のサイズ或いは方向の多数のウィンドウがあってもよい。また、比較結果を組み合わせる手段は最大相関とはべつのものであってもよい。例えば、以下で構成されるグループから選択されてもよい。
(a)最大スコアとの整合
(b)整合領域の形状及びサイズのそれぞれの整合値の平均
(c)整合値の加重平均
(d)固定閾値を超える整合値の加重平均
(e)可変閾値を越える整合値の加重平均
(f)比較関数値とディスパリティ値との他の線形又は非線形結合
当業者には当然のことながら、様々なウィンドウの多くの異なる選択及びそれらの結果を組み合わせる多くの異なる手段が存在する。
好適な実施例では、整合ウィンドウはLUPの構造に基づく固定サイズのものであると解釈されている。しかし、整合ウィンドウサイズは、シーン内の任意のテクスチャの量、表面の傾斜又は偏向の予備的知識、画像の信号対雑音比、画像輝度、画像コントラスト、画像分散又は他の同等の画像尺度に基づいて整合が実行されるように、サイズ又は形状が変えられてもよい。整合ウィンドウは、意味のある外部テクスチャ要素が存在する場合には、最小好適サイズより小さくされる場合がある。整合ウィンドウは、少数の不正確な或いは欠落したディスパリティが許容できるものである状況では、最小好適サイズより小さくされる場合がある。当業者には当然のことながら、整合が進むにつれて、整合ウィンドウのサイズ及び形状は変化する。
好適な実施例は2カメラ及び3カメラの両方を使用して説明された。3つ以上のカメラを使用する場合には、それらは対として、より大きなグループとして、或いは、それらの組み合わせの何れかとして使用される場合がある。独立したグループとしてそれらを使用する場合、そこから生成されるディスパリティマップは、組み合わされ、或いは分離されて使用されてもよい。
上記開示された本発明の特定の実施例は3つのカメラで構成され、2つのカメラ対を独立して利用し、その後引き続いて、結果として得られるディスパリティマップを組み合わせる。被投影パターンは、それぞれが各カメラ対に対応する2つのストレートパターン、或いは、両方のカメラ対に対するLUPが存在するよう配置された単一の被回転LUPの何れかである。別の実施例では、斜め(C2−C3)のカメラ対を利用することが追加的に可能である。この場合、別のパターンが当該対に対して投影されてもよく、また、当該カメラ対のエピポーラバンドにLUPが存在するよう被回転パターンが構築されてもよく、或いは、それらの任意の組み合わせであってもよい。多数のカメラを使用する場合、LUPは単一対、大きい方のグループ又は集合全体に対して最適化されてもよい。1つのLUP又は多数のLUPがあってもよい。画像はすべてのLUPと同時に取得されてもよく、或いは、カメラの特定グループが特定のLUPを取得してもよい。LUPは、ストレートLUP、被回転LUP、ストレート及び被回転LUPの任意の組み合わせ、又はそれらの任意の組み合わせの場合がある。パターンのバンドは、それらがストレート、被回転、又はその何れでもないかどうかにより異なる場合がある。当業者には当然のことながら、同等の実施例を実現するために、多数のカメラによりLUPを組み合わせる多くの同等の方法が存在する。
特定の実施例は、第2カメラのウィンドウに対する第1カメラのウィンドウの整合スコアを計算することによりディスパリティを計算する。別の実施例では、第1カメラの所与の整合ウィンドウの整合スコアを、多数の他のカメラの整合ウィンドウと共に同時に計算することにより、ディスパリティが即座に計算されてもよい。そのような整合スコアを計算する場合、当該ウィンドウのスコアは、以下に含まれる個々の整合スコアの任意の組み合わせとして計算されてもよい。
1.整合スコアの合計
2.整合スコアの積
3.最小整合スコア
4.最大整合スコア
5.平均整合スコア
6.加重平均整合スコア
7.中間整合スコア
8.整合スコアを組み合わせる他の線形又は非線形関数
好適な実施例では、情報が多数のディスパリティマップから組み合わせられる。3つのカメラの場合、これができるように画像レクティフィケーションを用意することが可能である。カメラが3つより多い場合、ディスパリティマップを組み合わせることは不可能或いは不便である。別の実施例では、異なるカメラのグループからの情報がレンジマップとして組み合わされてもよく、また情報が3次元ポイントのセットとして組み合わされてもよく、また情報が三角メッシュとして組み合わされ、また情報が表面として組み合わされ、或いは情報が体積として組み合わされてもよい。当業者には当然のことながら、多数のカメラのグループから計算されるディスパリティ又はレンジ情報を組み合わせる多くの同等の手段が存在する。
好適な実施例では、ディスパリティマップがカメラ画像内で計算されるが、それは、当該カメラ画像内の被投影パターン値を修復することなしに行われる。別の実施例では、カメラ画像内に現れるパターン値が予測され、かつ、ディスパリティマップ又はレンジマップがこれらの修復されたパターン値とLUPとを比較することにより計算される場合がある。このようにディスパリティは、画像取得用センサーと投影デバイスとの間の既知の関係を使用することにより計算され得る。これらのディスパリティマップ又はレンジマップは、上記に開示されたものと同等である任意の手段を使用してカメラ画像から計算されるディスパリティマップ又はレンジマップに組み合わせられる場合がある。別の方法では、既存のディスパリティマップが被感知画像にあるようにLUPを修復し、修復されたパターンを投影デバイスにより投射されたものと比較することにより照合される場合がある。当業者には当然のことながら、被投影LUPを画像から修復されるパターンに整合させることにより計算されるディスパリティ又はレンジと、2以上の被感知画像を整合させることにより計算されるディスパリティ又はレンジとを組み合わせる多くの均等手段が存在する。
好適な実施例は投影デバイスがカメラ対のベースラインに沿って位置されることを説明する。投影要素はそのように位置されてもよく、カメラが視ることのできるシーンのいくつかの部分を照らし、かつ、被投影画像とカメラ画像との関係が構築され得るならば、他の場所に位置されてもよい。
2画像の対応する領域が識別されると、ピクセル対応に基づいてシーン内の画像からポイントへのレンジを計算する手段は、レンジ値を計算するために2つのシーンの整合された領域の位置を使用する。レンジ値はカメラC1の光心からの場合があり、またレンジ値はカメラC2の光心からの場合もあり、またレンジ値はカメラC3の光心から計算される場合もあり、またレンジ値は何れかのカメラに関し記載された何れかの位置から計算される場合もあり、或いはレンジ値は既知の外部参照ポイントから計算される場合もある。当業者には当然のことながら、ピクセル対応からレンジ値又は3次元ポイントの座標を計算する多くの均等手段が存在する。
当業者にとって当然のことながら、本発明は好適な実施例に関して上述されたが、それに限定されるものではない。上述の本発明の種々の特徴及び態様が個別に或いは合同で使用される場合がある。さらに、本発明は特別な環境で、かつ特別なアプリケーションのためにその実施例との関係で説明されたが、当業者にとって当然のことながら、その有効性はそれに限定されるものではなく、本発明は様々な環境及び実施で有益に利用され得る。
本発明の実施例に従った3次元画像取得システムの主要な構成要素を表す象徴図である。 エピポーラ線に沿って位置する整合ウィンドウを図示する光路図である。 パターンウィンドウにより範囲を定められる領域と被感知画像で範囲を定められる領域との間の関係を図示する光路図である。 本発明の3カメラ又は三眼鏡の実施例におけるカメラ及びプロジェクタ要素の好適な配置を表す象徴図である。 図4のカメラ及びプロジェクタの配置が如何にレンジシャドウの発生を極小化するかを表す象徴図である。

Claims (48)

  1. シーンのディスパリティマップを取得するシステムであって:
    (a)前記シーンの少なくとも1つの部分に局所的独自パターンを投影するよう構成される少なくとも1つの投影デバイス;
    (b)前記シーンの複数の画像を取得するセンサーであり前記複数の画像のそれぞれが独自の観察位置に関連するところのセンサー;及び、
    (c)前記ディスパリティマップを生成するために前記局所的独自パターンを包含する少なくとも2つの前記画像で対応するピクセルを整合させるよう構成されるコンピュータデバイス;
    を有することを特徴とするシステム。
  2. 前記コンピュータデバイスがさらに前記ディスパリティマップを使用して前記シーンのポイントへのレンジを計算するよう構成されることを特徴とする請求項1に記載のシステム。
  3. 前記局所的独自パターンがバイナリ値を有するパターン値から構成され、
    それぞれのパターン値は極値のいずれかである、
    ことを特徴とする請求項1に記載のシステム。
  4. 前記局所的独自パターンがグレーレベル値を有するパターン値から構成され、
    それぞれのパターン値は複数の起こり得る強度値から選択される強度を有する、
    ことを特徴とする請求項1に記載のシステム。
  5. 前記局所的独自パターンがカラー値を有するパターン値から構成され、
    それぞれのパターン値は赤、緑及び青のそれぞれに1つの3つの強度値を有する、
    ことを特徴とする請求項1に記載のシステム。
  6. 前記局所的独自パターンが多重スペクトル値を有するパターン値から構成され、
    それぞれのパターン値は複数のスペクトルバンドでの強度値を有し、
    前記スペクトルバンドは紫外線光、可視光及び赤外線光のうちの少なくとも1つを有する、
    ことを特徴とする請求項1に記載のシステム。
  7. 前記局所的独自パターンが一時的に符号化した値を有するパターン値から構成され、
    それぞれのパターン値は複数の一時的バンドから構成され、
    それぞれの一時的バンドは離散時間的に投影される、
    ことを特徴とする請求項1に記載のシステム。
  8. 前記局所的独自パターンが人間の観察者にとって視覚的に感知できないことを特徴とする請求項1に記載のシステム。
  9. 前記局所的独自パターンが1組のバンドを有し、
    それぞれの前記バンドは少なくとも1つの連続関数に対応する、
    ことを特徴とする請求項1に記載のシステム。
  10. 前記少なくとも1つの連続関数が周期関数であることを特徴とする請求項9に記載のシステム。
  11. 前記周期関数が正弦関数であることを特徴とする請求項10に記載のシステム。
  12. 前記1組のバンドが複数のバンドを有し、
    それぞれの前記バンドが周期関数に対応し、かつ、
    前記複数のバンドのうちの少なくとも2つが異なる位相又は周期を有する、
    ことを特徴とする請求項9に記載のシステム。
  13. 前記局所的独自パターンがベースパターンを複製することから構成されることを特徴とする請求項1に記載のシステム。
  14. 前記ベースパターンが連続する横線又は縦線で複製されることを特徴とする請求項13に記載のシステム。
  15. 前記ベースパターンが連続する縦線又は横線に1又は2以上のピクセルだけシフトされることを特徴とする請求項13に記載のシステム。
  16. 前記ベースパターンが第1、第2及び第3正弦波で構成され、
    該第1、第2及び第3正弦波はそれぞれ4.2、9.5及び10.2ピクセルの周波数、並びに、それぞれ0、1、及び5.5ピクセルの位相シフトを有し、かつ、長さ140のベースパターンを生成するためにサンプリングされる、
    ことを特徴とする請求項13に記載のシステム。
  17. 前記局所的独自パターンが個別的な文字のシンボルから構成されるシーケンスであることを特徴とする請求項1に記載のシステム。
  18. 前記局所的独自パターンが特定サイズの複数のパターンウィンドウを有し、かつ、前記局所的独自パターンは、それぞれのパターンウィンドウが他のすべてのパターンウィンドウとは少なくとも1つの特定ハミング距離だけ異なるという性質を有することを特徴とする請求項17に記載のシステム。
  19. すべての2行8列のパターンウィンドウが、それを含む任意の所与の2行146列のウィンドウ内にある他のすべての2行8列のパターンウィンドウと、少なくとも3のハミング距離だけ異なる、
    という性質を前記局所的独自パターンが有することを特徴とする請求項18に記載のシステム。
  20. すべての9行2列のパターンウィンドウが、それを含む任意の所与の9行146列のウィンドウ内にある他のすべての9行2列のパターンウィンドウと、少なくとも3のハミング距離だけ異なる、
    という性質を前記局所的独自パターンが有することを特徴とする請求項18に記載のシステム。
  21. 前記局所的独自パターンは、それぞれのパターンウィンドウが擬似画像化スコアリング方法に従って他のそれぞれのパターンウィンドウから区別可能であるという性質を有し、
    前記方法は、
    (a)パターンウィンドウと、2分の1のピクセルオフセットを考慮に入れたパターンウィンドウとの整合を表す第1整合スコアの最小値を導き出し、
    (b)該第1整合スコアの最小値と前記パターンウィンドウの他のパターンウィンドウへの整合を表す第2整合スコアの最大値との比較を行う、
    ステップを有することを特徴とする請求項17に記載のシステム。
  22. 前記局所的独自パターンがパターンスコアを最適化するよう選択され、
    前記パターンスコアは:
    (a)パターン拡大縮小及び短縮遠近効果;
    (b)離散的サンプリング効果;
    (c)少なくとも1つの投影デバイスの性質;
    (d)少なくとも1つのセンサーの性質;及び
    (e)前記シーンの性質;
    のうちの少なくとも1つの関数である、
    ことを特徴とする請求項1に記載のシステム。
  23. 前記コンピュータデバイスは整合ウィンドウを比較するよう構成され、
    前記整合ウィンドウは該整合ウィンドウが局所的独自パターンの画像を確実に有すべく十分大きくなるよう選択される、
    ことを特徴とする請求項1に記載のシステム。
  24. 前記コンピュータデバイスは整合ウィンドウを比較するよう構成され、
    前記整合ウィンドウが局所的独自パターンの画像を有するよう要求されるものより小さい、
    ことを特徴とする請求項1に記載のシステム。
  25. 前記コンピュータデバイスが:
    (a)第1のサイズ及び形状を有する整合領域の第1セットを比較するステップ;
    (b)前記第1のサイズ及び形状とは異なる第2のサイズ及び形状を有する整合領域の第2セットを比較するステップ;及び、
    (c)ステップ(a)及び(b)の結果を組み合わせるステップ;
    から構成され、
    それぞれの整合領域が局所的に非循環であるパターンウィンドウをカバーする、
    ことを特徴とする請求項1に記載のシステム。
  26. 整合領域の前記第1セットが横指向の矩形の形状であり、
    整合領域の前記第2セットが縦指向の矩形の形状である、
    ことを特徴とする請求項25に記載のシステム。
  27. 前記観察位置が第1観察位置及び第2観察位置を有し、
    前記第1観察位置が前記第2観察位置の上に配置され、
    前記投影デバイスが前記第1観察位置及び第2観察位置で規定される線に沿って配置される、
    ことを特徴とする請求項1に記載のシステム。
  28. 前記センサーが少なくとも3つの画像を取得し、
    それぞれの画像が独自の観察位置に関連する、
    ことを特徴とする請求項1に記載のシステム。
  29. 前記ディスパリティマップが前記少なくとも3つの画像のすべてから同時に計算されることを特徴とする請求項28に記載のシステム。
  30. 複数の2つ1組のディスパリティマップが計算され、
    複数の2つ1組のディスパリティマップのそれぞれは独自の画像対から計算され、
    前記複数の2つ1組のディスパリティマップは複合ディスパリティマップを形成するよう組み合わされる、
    ことを特徴とする請求項28に記載のシステム。
  31. 単一の局所的独自パターンが投影されることを特徴とする請求項30に記載のシステム。
  32. 少なくとも2つの局所的独自パターンが投影され、
    それぞれの局所的独自パターンは、1対の画像のために計算される前記2つ1組のディスパリティマップを最適化するよう選択される、
    ことを特徴とする請求項30に記載のシステム。
  33. 前記少なくとも1つの投影デバイスが前記観察位置の1つと同一の位置に配置されることを特徴とする請求項1に記載のシステム。
  34. 前記局所的独自パターンはオンラインで計算され、或いは、少なくとも1つの他の局所的独自パターン候補を使用して取得される画像で計算され事前に構築される少なくとも1つのディスパリティマップの性質に基づく1組のパターン候補から選択されることを特徴とする請求項1に記載のシステム。
  35. シーンのディスパリティマップを取得する方法であって:
    (a)前記シーンの少なくとも1部分に投影すべき局所的独自パターンを生じさせる生成ステップ;
    (b)前記シーンで取得される複数の画像であり、該複数の画像のそれぞれが独自の観察位置に関連するところの複数の画像を受信する受信ステップ;及び
    (c)前記ディスパリティマップを生成するために前記局所的独自パターンを含む少なくとも2つの前記画像の対応するピクセルを整合させる整合ステップ;
    を有することを特徴とする方法。
  36. 前記ディスパリティマップを使用して前記シーンにあるポイントへのレンジを計算するステップをさらに有することを特徴とする請求項35に記載の方法。
  37. 前記局所的独自パターンがグレーレベル値を有するパターン値から構成され、
    パターン値のそれぞれは、複数の起こり得る強度値から選択される強度を有する、
    ことを特徴とする請求項35に記載の方法。
  38. 前記局所的独自パターンが1組のバンドを有し、
    該バンドのそれぞれが少なくとも1つの連続関数に対応する、
    ことを特徴とする請求項35に記載の方法。
  39. 前記1組のバンドは、それぞれが周期関数に対応する複数のバンドを有し、かつ、該複数のバンドのうちの少なくとも2つが異なる位相又は周期を有することを特徴とする請求項38に記載の方法。
  40. 前記局所的独自パターンが個別的な文字のシンボルから構成されるシーケンスであることを特徴とする請求項35に記載の方法。
  41. 前記局所的独自パターンが特定サイズの複数のパターンウィンドウを有し、かつ、前記局所的独自パターンは、それぞれのパターンウィンドウが他のすべてのパターンウィンドウと少なくとも1つの特定ハミング距離だけ異なるという性質を有する、
    ことを特徴とする請求項40に記載の方法。
  42. 前記局所的独自パターンは、それぞれのパターンウィンドウが擬似画像化スコアリング方法に従って他のそれぞれのパターンウィンドウから区別可能であるという性質を有し、
    前記方法は、
    (a)パターンウィンドウと、2分の1のピクセルオフセットを考慮に入れたそれ自身との整合を表す第1整合スコアの最小値を導き出し、
    (b)該第1整合スコアの最小値と前記パターンウィンドウの他のパターンウィンドウへの整合を表す第2整合スコアの最大値との比較を行う、
    ステップを有することを特徴とする請求項40に記載の方法。
  43. 前記局所的独自パターンが、パターンスコアを最適化するよう選択され、
    前記パターンスコアは:
    (a)パターン拡大縮小及び短縮遠近効果;
    (b)離散的サンプリング効果;
    (c)少なくとも1つの投影デバイスの性質;
    (d)少なくとも1つのセンサーの性質;及び
    (e)前記シーンの性質;
    のうちの少なくとも1つの関数である、
    ことを特徴とする請求項35に記載の方法。
  44. 対応するピクセルを整合させる前記整合ステップが整合ウィンドウを比較する比較ステップを有し、
    前記整合ウィンドウは該整合ウィンドウが局所的独自パターンの画像を確実に有すべく十分大きくなるよう選択される、
    ことを特徴とする請求項35に記載の方法。
  45. 対応するピクセルを整合させる前記整合ステップが整合ウィンドウを比較する比較ステップを有し、
    前記整合ウィンドウは局所的独自パターンの画像を有するよう要求されるものより小さい、
    ことを特徴とする請求項35に記載の方法。
  46. 対応するピクセルを整合させる前記整合ステップが:
    (d)第1のサイズ及び形状を有する整合領域の第1セットを比較するステップ;
    (e)前記第1のサイズ及び形状とは異なる第2のサイズ及び形状を有する整合領域の第2セットを比較するステップ;及び、
    (f)ステップ(d)及び(e)の結果を組み合わせるステップ;
    を有し、
    それぞれの整合領域が局所的に非循環であるパターンウィンドウをカバーする、
    ことを特徴とする請求項35に記載の方法。
  47. 前記ピクセルを比較するステップが、
    複数の2つ1組のディスパリティマップであって該複数の2つ1組のディスパリティマップのそれぞれは独自の画像対から計算されるところの複数の2つ1組のディスパリティマップを計算する計算ステップ、及び、
    複合ディスパリティマップを形成するよう前記複数の2つ1組のディスパリティマップを組み合わせる組み合わせステップ、
    を有することを特徴とする請求項46に記載の方法。
  48. コンピュータ可読媒体であって:
    (d)投影デバイスをしてシーンの少なくとも1部分に局所的独自パターンを投影させ;
    (e)前記シーンの複数の画像であり該複数の画像のそれぞれが独自の観察位置に関連するところの複数の画像を受信し;かつ、
    (f)前記ディスパリティマップを生成するために前記局所的独自パターンを含む少なくとも2つの前記画像の対応するピクセルを整合させる;
    ステップを実行するための情報を記憶するコンピュータ可読媒体。
JP2004555418A 2002-11-22 2003-11-10 局所的独自パターンを使用した能動的ステレオ技術による3次元画像の取得 Expired - Fee Related JP4473136B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US42851002P 2002-11-22 2002-11-22
PCT/US2003/035952 WO2004049255A2 (en) 2002-11-22 2003-11-10 Acquisition of three-dimensional images by an active stereo technique using locally unique patterns

Publications (3)

Publication Number Publication Date
JP2006507087A true JP2006507087A (ja) 2006-03-02
JP2006507087A5 JP2006507087A5 (ja) 2006-11-30
JP4473136B2 JP4473136B2 (ja) 2010-06-02

Family

ID=32393415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004555418A Expired - Fee Related JP4473136B2 (ja) 2002-11-22 2003-11-10 局所的独自パターンを使用した能動的ステレオ技術による3次元画像の取得

Country Status (5)

Country Link
US (1) US7103212B2 (ja)
EP (1) EP1595224B1 (ja)
JP (1) JP4473136B2 (ja)
AU (1) AU2003298630A1 (ja)
WO (1) WO2004049255A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010533338A (ja) * 2007-07-12 2010-10-21 トムソン ライセンシング 2次元画像からの3次元オブジェクト認識システム及び方法
JP2010540970A (ja) * 2007-10-05 2010-12-24 アーテック・グループ・インコーポレーテッド 一体型の物体取り込みシステム及び表示装置並びに関連方法
JP2011504230A (ja) * 2007-11-15 2011-02-03 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 三角法を用いた物体の光学的測定方法
KR101259835B1 (ko) 2009-06-15 2013-05-02 한국전자통신연구원 깊이 정보를 생성하기 위한 장치 및 방법
KR20150145251A (ko) * 2013-04-18 2015-12-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 포착된 영상에 대한 깊이 데이터의 결정

Families Citing this family (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2435935A1 (en) * 2003-07-24 2005-01-24 Guylain Lemelin Optical 3d digitizer with enlarged non-ambiguity zone
FR2858509B1 (fr) * 2003-07-28 2005-10-14 Citilog Procede pour calibrer au moins deux cameras video l'une par rapport a l'autre pour prise de vues steroscopiques et dispositif permettant de mettre en oeuvre le procede
US7525526B2 (en) * 2003-10-28 2009-04-28 Samsung Electronics Co., Ltd. System and method for performing image reconstruction and subpixel rendering to effect scaling for multi-mode display
EP1694821B1 (en) * 2003-12-11 2017-07-05 Strider Labs, Inc. Probable reconstruction of surfaces in occluded regions by computed symmetry
EP1766552A2 (en) * 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
JP2006221603A (ja) * 2004-08-09 2006-08-24 Toshiba Corp 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム
EP1797523A4 (en) * 2004-08-23 2009-07-22 Sarnoff Corp METHOD AND DEVICE FOR PRODUCING A CONDENSED IMAGE
AU2005279700B2 (en) * 2004-08-30 2010-11-11 Commonweath Scientific And Industrial Research Organisation A method for automated 3D imaging
DE602005022460D1 (de) * 2004-08-30 2010-09-02 Commw Scient Ind Res Org Verfahren zur automatischen 3D-Bildgebung
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
KR20060063265A (ko) * 2004-12-07 2006-06-12 삼성전자주식회사 영상 처리 방법 및 장치
US7561731B2 (en) * 2004-12-27 2009-07-14 Trw Automotive U.S. Llc Method and apparatus for enhancing the dynamic range of a stereo vision system
ES2323287T3 (es) 2005-01-12 2009-07-10 Koninklijke Philips Electronics N.V. Percepcion de profundidad.
DE102005017624A1 (de) * 2005-04-15 2006-10-19 Robert Bosch Gmbh Verfahren zum Bestimmen der Rad- und/oder Achsgeometrie von Kraftfahrzeugen
EP1897033A4 (en) * 2005-06-16 2015-06-24 Strider Labs Inc SYSTEM AND METHOD FOR RECOGNIZING 2D IMAGES USING 3D CLASS MODELS
JP4577126B2 (ja) * 2005-07-08 2010-11-10 オムロン株式会社 ステレオ対応づけのための投光パターンの生成装置及び生成方法
US8305430B2 (en) * 2005-09-16 2012-11-06 Sri International System and method for multi-camera visual odometry
US20070091174A1 (en) * 2005-09-30 2007-04-26 Topcon Corporation Projection device for three-dimensional measurement, and three-dimensional measurement system
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
US20110096182A1 (en) * 2009-10-25 2011-04-28 Prime Sense Ltd Error Compensation in Three-Dimensional Mapping
JP5001286B2 (ja) 2005-10-11 2012-08-15 プライム センス リミティド 対象物再構成方法およびシステム
US7813591B2 (en) 2006-01-20 2010-10-12 3M Innovative Properties Company Visual feedback of 3D scan parameters
US7698014B2 (en) 2006-01-20 2010-04-13 3M Innovative Properties Company Local enforcement of accuracy in fabricated models
EP1994503B1 (en) * 2006-03-14 2017-07-05 Apple Inc. Depth-varying light fields for three dimensional sensing
CN101496033B (zh) * 2006-03-14 2012-03-21 普莱姆森斯有限公司 利用散斑图案的三维传感
CN101405767A (zh) * 2006-03-15 2009-04-08 皇家飞利浦电子股份有限公司 从图像确定深度图的方法,用于确定深度图的装置
KR100762670B1 (ko) * 2006-06-07 2007-10-01 삼성전자주식회사 스테레오 이미지로부터 디스패리티 맵을 생성하는 방법 및장치와 그를 위한 스테레오 매칭 방법 및 장치
ATE556397T1 (de) * 2006-09-28 2012-05-15 Bea Sa Sensor zur präsenzdetektion
FR2906899B1 (fr) * 2006-10-05 2009-01-16 Essilor Int Dispositif d'affichage pour la visualisation stereoscopique.
US7978892B2 (en) * 2006-10-25 2011-07-12 D4D Technologies, Llc 3D photogrammetry using projected patterns
WO2008053649A1 (fr) * 2006-11-02 2008-05-08 Konica Minolta Holdings, Inc. Procédé d'acquisition d'image grand angle et dispositif d'appareil photographique stéréo grand angle
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US8538166B2 (en) 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
US20080156619A1 (en) 2006-12-01 2008-07-03 Mehul Patel Range finder
DE102007022361A1 (de) * 2007-05-04 2008-11-06 Friedrich-Schiller-Universität Jena Vorrichtung und Verfahren zum berührungslosen Erfassen räumlicher Koordinaten einer Oberfläche
US20100220932A1 (en) * 2007-06-20 2010-09-02 Dong-Qing Zhang System and method for stereo matching of images
DE102007029440A1 (de) * 2007-06-26 2009-01-08 Mtu Aero Engines Gmbh Verfahren und Anordnung zum Erfassen einer Oberfläche eines Objekts
DE502007001505D1 (de) * 2007-07-20 2009-10-22 Sick Ag Verfahren zum Betrieb eines 3D-Sensors
KR100947463B1 (ko) * 2007-08-31 2010-03-17 에스엔유 프리시젼 주식회사 엘시디를 이용한 삼차원 형상 측정장치
FR2922074B1 (fr) * 2007-10-05 2010-02-26 Thales Sa Procede de synchronisation de flux video
US7986321B2 (en) * 2008-01-02 2011-07-26 Spatial Integrated Systems, Inc. System and method for generating structured light for 3-dimensional image rendering
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
US9170097B2 (en) 2008-04-01 2015-10-27 Perceptron, Inc. Hybrid system
US8531650B2 (en) 2008-07-08 2013-09-10 Chiaro Technologies LLC Multiple channel locating
US8396248B2 (en) * 2008-09-16 2013-03-12 Varian Medical Systems, Inc. Sequential stereo imaging for estimating trajectory and monitoring target position
EP2166304A1 (de) * 2008-09-23 2010-03-24 Sick Ag Beleuchtungseinheit und Verfahren zur Erzeugung eines selbstunähnlichen Musters
US7881603B2 (en) 2008-09-26 2011-02-01 Apple Inc. Dichroic aperture for electronic imaging device
US8610726B2 (en) * 2008-09-26 2013-12-17 Apple Inc. Computer systems and methods with projected display
FR2938330A1 (fr) * 2008-11-07 2010-05-14 Michelin Soc Tech Evaluation du relief de la surface d'un pneumatique par stereovision active
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US8462207B2 (en) * 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) * 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
DE102010029319B4 (de) * 2009-05-27 2015-07-02 Koh Young Technology Inc. Vorrichtung zur Messung einer dreidimensionalen Form und Verfahren dazu
US20100309290A1 (en) * 2009-06-08 2010-12-09 Stephen Brooks Myers System for capture and display of stereoscopic content
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8515196B1 (en) * 2009-07-31 2013-08-20 Flir Systems, Inc. Systems and methods for processing infrared images
DE102009040981A1 (de) * 2009-09-10 2011-03-17 Friedrich-Schiller-Universität Jena Verfahren zur dreidimensionalen Rekonstruktion von Objekten
US8619128B2 (en) * 2009-09-30 2013-12-31 Apple Inc. Systems and methods for an imaging system using multiple image sensors
US8830227B2 (en) * 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US9317970B2 (en) * 2010-01-18 2016-04-19 Disney Enterprises, Inc. Coupled reconstruction of hair and skin
US8982182B2 (en) * 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9610063B2 (en) * 2010-03-26 2017-04-04 The Johns Hopkins University Methods and apparatus for ultrasound strain imaging
CN101806586B (zh) * 2010-04-21 2011-08-31 上海交通大学 基于图像匹配的汽车密封条截面轮廓测量装置及测量方法
WO2011143813A1 (zh) * 2010-05-19 2011-11-24 深圳泰山在线科技有限公司 目标投影方法以及系统
GB2481459B (en) * 2010-06-25 2017-05-03 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E V Capturing a surface structure of an object surface
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9229106B2 (en) 2010-08-13 2016-01-05 Ryan Dotson Enhancement of range measurement resolution using imagery
US8538132B2 (en) 2010-09-24 2013-09-17 Apple Inc. Component concentricity
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
DE102011010265A1 (de) * 2011-02-01 2012-08-02 Friedrich-Schiller-Universität Jena Verfahren zur dreidimensionalen Rekonstruktion von Objekten unter Verwendung von Streifenprojektionsmustern
KR101212802B1 (ko) * 2011-03-31 2012-12-14 한국과학기술연구원 피사계 심도가 강조된 영상을 획득하는 방법 및 그 장치
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
CN102760234B (zh) 2011-04-14 2014-08-20 财团法人工业技术研究院 深度图像采集装置、系统及其方法
CN102859320A (zh) * 2011-04-28 2013-01-02 三洋电机株式会社 信息取得装置以及物体检测装置
US8494221B2 (en) * 2011-04-28 2013-07-23 Honeywell International Inc. Inverse star tracker using psuedo-random overlapping circles
GB2490872B (en) * 2011-05-09 2015-07-29 Toshiba Res Europ Ltd Methods and systems for capturing 3d surface geometry
DE102011101476B4 (de) 2011-05-11 2023-05-25 Cognex Ireland Ltd. Verfahren zur 3D-Messung von Objekten
WO2013016409A1 (en) * 2011-07-26 2013-01-31 Magna Electronics Inc. Vision system for vehicle
US9098908B2 (en) 2011-10-21 2015-08-04 Microsoft Technology Licensing, Llc Generating a depth map
US20130129192A1 (en) * 2011-11-17 2013-05-23 Sen Wang Range map determination for a video frame
US9041819B2 (en) 2011-11-17 2015-05-26 Apple Inc. Method for stabilizing a digital video
US8611642B2 (en) * 2011-11-17 2013-12-17 Apple Inc. Forming a steroscopic image using range map
US9396408B2 (en) * 2011-12-15 2016-07-19 Intel Corporation Techniques for improving stereo block matching with the pyramid method
DE102011121696A1 (de) * 2011-12-16 2013-06-20 Friedrich-Schiller-Universität Jena Verfahren zur 3D-Messung von tiefenlimitierten Objekten
WO2013106418A1 (en) * 2012-01-09 2013-07-18 Tk Holdings, Inc. Stereo-vision object detection system and method
DE102012002161A1 (de) * 2012-01-31 2013-08-01 Friedrich-Schiller-Universität Jena Verfahren und Vorrichtung zur 3D-Messung von Objekten
DE102012100955A1 (de) * 2012-02-06 2013-08-08 A.Tron3D Gmbh Vorrichtung zum Erfassen der dreidimensionalen Geometrie von Objekten
AU2013219966B2 (en) 2012-02-15 2015-04-02 Apple Inc. Scanning depth engine
WO2013134782A1 (en) * 2012-03-09 2013-09-12 The Johns Hopkins University Photoacoustic tracking and registration in interventional ultrasound
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
DE102012021185A1 (de) 2012-10-30 2014-04-30 Smart Optics Sensortechnik Gmbh Verfahren zur optischen 3D-Vermessung von Zähnen mit verkleinerter Point-Spread-Funktion
TWI591584B (zh) 2012-12-26 2017-07-11 財團法人工業技術研究院 三維感測方法與三維感測裝置
TWI503618B (zh) * 2012-12-27 2015-10-11 Ind Tech Res Inst 深度影像擷取裝置、其校正方法與量測方法
DE102013201061A1 (de) * 2013-01-23 2014-07-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Bestimmen räumlicher Koordinaten von Oberflächen makroskopischer Objekte
US20140241612A1 (en) * 2013-02-23 2014-08-28 Microsoft Corporation Real time stereo matching
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
WO2014145722A2 (en) * 2013-03-15 2014-09-18 Digimarc Corporation Cooperative photography
US20140293011A1 (en) * 2013-03-28 2014-10-02 Phasica, LLC Scanner System for Determining the Three Dimensional Shape of an Object and Method for Using
US20140307055A1 (en) 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US10089739B2 (en) * 2013-06-28 2018-10-02 Texas Instruments Incorporated Structured light depth imaging under various lighting conditions
US9544577B2 (en) * 2013-07-18 2017-01-10 A.Tron3D Gmbh Method of capturing three-dimensional (3D) information on a structure
US9356061B2 (en) 2013-08-05 2016-05-31 Apple Inc. Image sensor with buried light shield and vertical gate
US9372894B2 (en) * 2013-08-15 2016-06-21 International Business Machines Corporation Scoring relationships between entities based on proximity in space and time
CN104570574A (zh) * 2013-10-18 2015-04-29 宁夏先锋软件有限公司 一种利用2d图像自动成像的3d成像仪
US9622720B2 (en) 2013-11-27 2017-04-18 Clear Guide Medical, Inc. Ultrasound system with stereo image guidance or tracking
US8880151B1 (en) 2013-11-27 2014-11-04 Clear Guide Medical, Llc Surgical needle for a surgical system with optical recognition
US20140078264A1 (en) * 2013-12-06 2014-03-20 Iowa State University Research Foundation, Inc. Absolute three-dimensional shape measurement using coded fringe patterns without phase unwrapping or projector calibration
CN105829829B (zh) * 2013-12-27 2019-08-23 索尼公司 图像处理装置和图像处理方法
US9171403B2 (en) * 2014-02-13 2015-10-27 Microsoft Technology Licensing, Llc Contour completion for augmenting surface reconstructions
US9562760B2 (en) 2014-03-10 2017-02-07 Cognex Corporation Spatially self-similar patterned illumination for depth imaging
WO2015148604A1 (en) 2014-03-25 2015-10-01 Massachusetts Institute Of Technology Space-time modulated active 3d imager
US9589359B2 (en) 2014-04-24 2017-03-07 Intel Corporation Structured stereo
US9501826B2 (en) * 2014-05-06 2016-11-22 Intel Corporation Rectification techniques for heterogeneous camera arrays
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
DE102014019672B3 (de) * 2014-12-30 2016-01-07 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit Wellenlängenüberprüfung
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US20160150219A1 (en) * 2014-11-20 2016-05-26 Mantisvision Ltd. Methods Circuits Devices Assemblies Systems and Functionally Associated Computer Executable Code for Image Acquisition With Depth Estimation
KR20160071203A (ko) 2014-12-11 2016-06-21 삼성전자주식회사 이미지 신호 프로세서, 이의 작동 방법, 및 이를 포함하는 모바일 컴퓨팅 장치
WO2016099321A1 (ru) * 2014-12-19 2016-06-23 Андрей Владимирович КЛИМОВ Способ контроля линейных размеров трехмерных объектов
US10806346B2 (en) 2015-02-09 2020-10-20 The Johns Hopkins University Photoacoustic tracking and registration in interventional ultrasound
JP6554832B2 (ja) * 2015-03-11 2019-08-07 株式会社リコー ピッキングシステムおよびピッキング方法
DE102015205187A1 (de) * 2015-03-23 2016-09-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Projektion von Linienmustersequenzen
US10571668B2 (en) 2015-05-09 2020-02-25 Cognex Corporation Catadioptric projector systems, devices, and methods
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
KR102311688B1 (ko) 2015-06-17 2021-10-12 엘지전자 주식회사 이동단말기 및 그 제어방법
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (en) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensioning device with dynamic accuracy compatible with nist standard
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
CN105141939B (zh) * 2015-08-18 2017-05-17 宁波盈芯信息科技有限公司 一种工作范围可调的三维深度感知方法及装置
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) * 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US9978147B2 (en) * 2015-12-23 2018-05-22 Intel Corporation System and method for calibration of a depth camera system
US10025314B2 (en) * 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
IL244549A0 (en) * 2016-03-12 2016-07-31 Rubinchik Alexey Apparatus and method for 3D sculpting
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10659764B2 (en) * 2016-06-20 2020-05-19 Intel Corporation Depth image provision apparatus and method
US10609359B2 (en) 2016-06-22 2020-03-31 Intel Corporation Depth image provision apparatus and method
TWI612795B (zh) * 2016-09-13 2018-01-21 財團法人工業技術研究院 場景掃描方法及系統
US10554881B2 (en) 2016-12-06 2020-02-04 Microsoft Technology Licensing, Llc Passive and active stereo vision 3D sensors with variable focal length lenses
US10469758B2 (en) 2016-12-06 2019-11-05 Microsoft Technology Licensing, Llc Structured light 3D sensors with variable focal length lenses and illuminators
US10652553B2 (en) * 2016-12-07 2020-05-12 Qualcomm Incorporated Systems and methods of signaling of regions of interest
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
CN109219730B (zh) * 2017-05-02 2020-10-13 精益视觉科技私人有限公司 使用多视图立体视觉进行引脚角度检查的系统和方法
EP3444782B1 (en) 2017-08-19 2022-03-30 Cognex Corporation Coding distance topologies for structured light patterns for 3d reconstruction
CN109635619B (zh) 2017-08-19 2021-08-31 康耐视公司 用于三维重建的结构化光图案的编码距离拓扑
US10529085B2 (en) * 2018-03-30 2020-01-07 Samsung Electronics Co., Ltd. Hardware disparity evaluation for stereo matching
DE102018205191A1 (de) * 2018-04-06 2019-10-10 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Anordnung zum Erfassen von Koordinaten einer Objektoberfläche mittels Triangulation
DE102018108874A1 (de) * 2018-04-13 2019-10-17 Isra Vision Ag Verfahren und System zur Vermessung eines Objekts mittels Stereoskopie
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
US10909373B1 (en) * 2018-08-24 2021-02-02 Snap Inc. Augmented reality system using structured light
JP6907277B2 (ja) * 2018-08-30 2021-07-21 コグネックス・コーポレイション 歪みが低減された物体の3次元再構成を生成するための方法及び装置
CN109683440B (zh) * 2018-12-13 2024-03-29 深圳阜时科技有限公司 光学投影模组、感测装置、设备及光学投影模组组装方法
US11051001B2 (en) 2019-05-29 2021-06-29 Avigilon Corporation Method and system for generating a two-dimensional and a three-dimensional image stream
CN110830781B (zh) * 2019-10-30 2021-03-23 歌尔科技有限公司 一种基于双目视觉的投影图像自动校正方法及系统
KR20210106809A (ko) * 2020-02-21 2021-08-31 엘지전자 주식회사 이동 단말기
DE102020127894B4 (de) 2020-10-22 2022-09-22 Smart Optics Sensortechnik Gmbh Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten
DE102020008179B4 (de) 2020-10-22 2023-10-26 Smart Optics Sensortechnik Gmbh Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten
KR20230101899A (ko) * 2020-11-09 2023-07-06 아르텍 유럽, 에스.에이.알.엘. 중첩 시야의 센서들을 갖는 3차원 스캐너
CN114998408B (zh) * 2022-04-26 2023-06-06 宁波益铸智能科技有限公司 基于激光测量的冲床线ccd视觉检测系统
EP4332897A1 (de) * 2022-09-02 2024-03-06 Brütsch Elektronik AG Vorrichtung und verfahren zur durchführung eines intraoralen scans

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4175862A (en) * 1975-08-27 1979-11-27 Solid Photography Inc. Arrangement for sensing the geometric characteristics of an object
US4212073A (en) 1978-12-13 1980-07-08 Balasubramanian N Method and system for surface contouring
US4349277A (en) * 1980-06-11 1982-09-14 General Electric Company Non-contact measurement of surface profile
JPS586407A (ja) 1981-07-03 1983-01-14 Nec Corp ステレオ画像再生方法
US4648717A (en) 1984-02-06 1987-03-10 Robotic Vision Systems, Inc. Method of three-dimensional measurement with few projected patterns
US4653104A (en) 1984-09-24 1987-03-24 Westinghouse Electric Corp. Optical three-dimensional digital data acquisition system
JPS6282314A (ja) 1985-10-08 1987-04-15 Hitachi Ltd 光度差ステレオ計測方式
US4687326A (en) 1985-11-12 1987-08-18 General Electric Company Integrated range and luminance camera
US4846577A (en) * 1987-04-30 1989-07-11 Lbp Partnership Optical means for making measurements of surface contours
US5155775A (en) 1988-10-13 1992-10-13 Brown C David Structured illumination autonomous machine vision system
JPH03200007A (ja) 1989-12-28 1991-09-02 Nippon Telegr & Teleph Corp <Ntt> ステレオ計測装置
DE4130237A1 (de) 1991-09-11 1993-03-18 Zeiss Carl Fa Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen
JP2767340B2 (ja) 1991-12-26 1998-06-18 ファナック株式会社 物体の3次元位置・姿勢計測方式
JP2795784B2 (ja) 1992-09-24 1998-09-10 沖電気工業株式会社 複数視点3次元画像入力装置
JP3324809B2 (ja) 1993-01-12 2002-09-17 三洋機工株式会社 三次元測定用測定点指示具
US5633950A (en) 1993-12-28 1997-05-27 Honda Giken Kogyo Kabushiki Kaisha Method of image processing in optical measuring apparatus
US6028672A (en) 1996-09-30 2000-02-22 Zheng J. Geng High speed three dimensional imaging method
US5615003A (en) * 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
US5699444A (en) 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
US5621529A (en) 1995-04-05 1997-04-15 Intelligent Automation Systems, Inc. Apparatus and method for projecting laser pattern with reduced speckle noise
US5742291A (en) 1995-05-09 1998-04-21 Synthonics Incorporated Method and apparatus for creation of three-dimensional wire frames
US6044170A (en) 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
IL127534A (en) 1996-06-13 2001-08-26 Leuven K U Res & Dev Method and system for acquiring a three-dimensional shape description
US5838428A (en) 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
US5917937A (en) 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
WO1999058930A1 (en) 1998-05-14 1999-11-18 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
US6252623B1 (en) 1998-05-15 2001-06-26 3Dmetrics, Incorporated Three dimensional imaging system
US6198852B1 (en) 1998-06-01 2001-03-06 Yeda Research And Development Co., Ltd. View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry
US6377700B1 (en) 1998-06-30 2002-04-23 Intel Corporation Method and apparatus for capturing stereoscopic images using image sensors
US6195455B1 (en) 1998-07-01 2001-02-27 Intel Corporation Imaging device orientation information through analysis of test images
AU4975399A (en) 1998-07-08 2000-02-01 Lennard H. Bieman Machine vision and semiconductor handling
US6024449A (en) 1998-07-13 2000-02-15 Smith; Robert F. High speed topography measurement of semi-diffuse objects
JP3482990B2 (ja) * 1998-08-18 2004-01-06 富士ゼロックス株式会社 3次元画像撮影装置
CA2253085A1 (en) 1998-11-06 2000-05-06 Industrial Metrics Inc. Methods and system for measuring three dimensional spatial coordinates and for external camera calibration necessary for that measurement
US6118595A (en) 1999-02-24 2000-09-12 Miller; James E. Mounted immersive view
JP2000292135A (ja) 1999-04-07 2000-10-20 Minolta Co Ltd 3次元情報入力カメラ
CA2267519A1 (en) 1999-04-13 2000-10-13 Inspeck Inc. Optical full human body 3d digitizer
DE19928341C2 (de) 1999-06-21 2002-06-20 Inb Vision Ag Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
US6341016B1 (en) 1999-08-06 2002-01-22 Michael Malione Method and apparatus for measuring three-dimensional shape of object
DE19963333A1 (de) 1999-12-27 2001-07-12 Siemens Ag Verfahren zur Ermittlung von dreidimensionalen Oberflächenkoordinaten
CA2306515A1 (en) * 2000-04-25 2001-10-25 Inspeck Inc. Internet stereo vision, 3d digitizing, and motion capture camera
US6754370B1 (en) * 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
US7106885B2 (en) 2000-09-08 2006-09-12 Carecord Technologies, Inc. Method and apparatus for subject physical position and security determination
JP2002164066A (ja) 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
US20020159073A1 (en) 2001-03-20 2002-10-31 Chen Fang Frank Range-image-based method and system for automatic sensor planning

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010533338A (ja) * 2007-07-12 2010-10-21 トムソン ライセンシング 2次元画像からの3次元オブジェクト認識システム及び方法
JP2010540970A (ja) * 2007-10-05 2010-12-24 アーテック・グループ・インコーポレーテッド 一体型の物体取り込みシステム及び表示装置並びに関連方法
JP2011504230A (ja) * 2007-11-15 2011-02-03 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 三角法を用いた物体の光学的測定方法
KR101259835B1 (ko) 2009-06-15 2013-05-02 한국전자통신연구원 깊이 정보를 생성하기 위한 장치 및 방법
KR20150145251A (ko) * 2013-04-18 2015-12-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 포착된 영상에 대한 깊이 데이터의 결정
KR102186216B1 (ko) * 2013-04-18 2020-12-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 포착된 영상에 대한 깊이 데이터의 결정

Also Published As

Publication number Publication date
US20040105580A1 (en) 2004-06-03
WO2004049255A3 (en) 2004-07-29
EP1595224A2 (en) 2005-11-16
US7103212B2 (en) 2006-09-05
JP4473136B2 (ja) 2010-06-02
AU2003298630A8 (en) 2004-06-18
EP1595224B1 (en) 2020-03-18
WO2004049255A2 (en) 2004-06-10
EP1595224A4 (en) 2010-03-24
AU2003298630A1 (en) 2004-06-18

Similar Documents

Publication Publication Date Title
JP4473136B2 (ja) 局所的独自パターンを使用した能動的ステレオ技術による3次元画像の取得
US10902668B2 (en) 3D geometric modeling and 3D video content creation
US8090194B2 (en) 3D geometric modeling and motion capture using both single and dual imaging
KR101605224B1 (ko) 패턴 광을 이용한 깊이 정보 획득 장치 및 방법
US10083522B2 (en) Image based measurement system
US9058533B2 (en) Method for encoding information in illumination patterns
US6341016B1 (en) Method and apparatus for measuring three-dimensional shape of object
JP6347789B2 (ja) 周囲環境内を光学的に走査及び計測するシステム
JP6626335B2 (ja) 構造化光プロジェクタおよびそうしたプロジェクタを含む3次元スキャナ
Fechteler et al. Adaptive colour classification for structured light systems
US7456842B2 (en) Color edge based system and method for determination of 3D surface topology
US20130088575A1 (en) Method and apparatus for obtaining depth information using optical pattern
US20150015699A1 (en) Apparatus, system and method for projecting images onto predefined portions of objects
WO2007015059A1 (en) Method and system for three-dimensional data capture
CN111971525B (zh) 用立体镜测量物体的方法和系统
Pages et al. A new optimised De Bruijn coding strategy for structured light patterns
Li et al. Geometric calibration of a camera-projector 3D imaging system
KR20200046789A (ko) 이동하는 물체의 3차원 데이터를 생성하는 방법 및 장치
Garbat et al. Structured light camera calibration
JP2004108950A (ja) 光学式形状測定システム
Fong et al. Sensing deforming and moving objects with commercial off the shelf hardware
EP2646769B1 (en) System and method for creating a three-dimensional image file
US20200286248A1 (en) Structured light subpixel accuracy isp pipeline/fast super resolution structured light
CN113405461A (zh) 用于深度检测的结构光编码、解码方法及编码、解码装置
JP2022070697A (ja) 三次元形状計測方法および三次元形状計測装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4473136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees