JPH11509946A - 視差依存技法を用いた画像結合のための方法とシステム - Google Patents

視差依存技法を用いた画像結合のための方法とシステム

Info

Publication number
JPH11509946A
JPH11509946A JP9503893A JP50389397A JPH11509946A JP H11509946 A JPH11509946 A JP H11509946A JP 9503893 A JP9503893 A JP 9503893A JP 50389397 A JP50389397 A JP 50389397A JP H11509946 A JPH11509946 A JP H11509946A
Authority
JP
Japan
Prior art keywords
image
mosaic
scene
images
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP9503893A
Other languages
English (en)
Inventor
クマール,ラケシュ
ハンナ,キース,ジェイムズ
ベルゲン,ジェイムズ,アール.
アナンダン,パドマナバン
イラニ,マイケル
Original Assignee
サーノフ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーノフ コーポレイション filed Critical サーノフ コーポレイション
Publication of JPH11509946A publication Critical patent/JPH11509946A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Abstract

(57)【要約】 撮像された場面を表す複数の入力画像から3次元(3D)モザイクを発生させるシステムである。前記複数の入力画像は、1つの場面に対して少なくとも2つの画像を含み、前記少なくとも2つの画像は重なった領域を有する。本システムは、前記場面のパノラマ的展望を表す画像モザイクおよび前記場面の3次元幾何形状を表す形状モザイクを有する3Dモザイクを発生させる視差依存方式を用いて前記画像を組み合わせる。具体的には、ある実施の形態では、本システムは、前記撮像場面内のパラメータ表面に沿って前記入力画像を整合し、2次元画像モザイク中に前記画像を整合させる際に有用な並進ベクトルを誘導する。一旦整合されると、システムは場面内に物体を表す形状モザイクを発生する。

Description

【発明の詳細な説明】 視差依存技法を用いた画像結合のための方法とシステム 本発明は、画像処理システムに関し、より特定的には、視差依存技法(parall ax-based technique)を用いて多種の画像を1つのモザイクに結合する画像処理 システムに関する。 最近まで、画像処理システムは一般的に、ビデオフレーム、静止写真などとい った、個々システム上で、画像毎を基本に画像を処理してきた。それぞれ個々の フレームまたは写真は、フィルタをかけ、ワープを行い(warp)、および様々な パラメータ的な変換を適用することによって典型的に処理されてきた。場面のパ ノラマ写真を作るためには、個々の画像は組み合わされ、2次元的なモザイクを 、すなわち複数の個々の画像を含む画像を形成する。モザイクが単一の大きな画 像に見えるように画像の間の継ぎ目が見えないことを確実にするため、補足的な 画像処理がモザイク上でなされる。 画像の整列および継ぎ目を取り去る補足的な処理は、典型的にはコンピュータ ・ワークステーションを用いた技能者によって手動でなされる、すなわち、画像 の整列および結合処理はコンピュータで支援される。このようなコンピュータ支 援の画像処理システムにおいては、技能者が手動で処理される画像を選択し、手 動でこれらの画像を整列し、そしてコンピュータが画像に様々な画像結合処理を 適用して個々の画像の間のどのような継ぎ目または切れ目をも取り去る。画像の 操作は典型的には、マウス、トラックボール、キーボードなどといった様々なコ ンピュータ入力装置(device)を用いて達成される。手動によるモザイクの生成 は高価なので、当業者は画像モザイクを生成するための自動化されたシステムを 開発した。 モザイクを構築するための自動化されたシステムにおいては、モザイク内の情 報は一般には、2次元的な運動場(motion field)として表現される。運動は平 面の運動場として、例えばアフィン又は投影的な運動場として表される。このよ うなシステムは、1994年11月14日に提出された「モザイクに基づく画像 処理システム」というタイトルの米国特許出願第08/339,491号におい て開示されていおり、出典を明記することによりその開示内容を本願明細書の一 部と成す。‘419特許出願において開示された画像処理の方式は、多数の画像 を1つまたはそれ以上の2次元的なモザイクに結合する。しかしながら、そのシ ステムは、モザイク内の運動を表す変位場において誤りを引き起こすことのある 視差運動を説明していない。 別の型の画像処理システムにおいては、多数の画像は、モザイクを生成するこ となく、相対的な位置関係の推定、レンジ(range)・マップの回復(recovery )などといった写真測量的な情報を再生するために解析される。これらの画像解 析技術は、内部的なカメラ・パラメータ(例えば、焦点距離ピクセル解像度、ア スペクト比および画像中心)が既知であるということを仮定している。整列およ び写真測量的手法を用いる自動化された画像処理システムにおいては、整列と写 真測量的処理は次の2つのステップ、(1)領域に基づく(area-based)または 特徴に基づく(feature-based)継ぎ合わせ(match)スキームのなんらかの形式 を媒介にして様々な画像内のピクセル間の対応を確立すること、(2)3次元的 な場面情報を再生するためにピクセル変位を解析すること、を含む。 本発明は、3次元的場面モザイクを生成するための多数の画像を処理する方法 であり、多数の画像を提供するステップと、画像モザイクおよび形状モザイクを 含む前記3Dモザイクを構築するための前記画像を整合する(register)ステッ プとを備え、ここにおいて、前記画像モザイクは場面のパノラマ的展望図を表し 、前記形状モザイクは場面の3D幾何的図形配列を表す。 本発明はまた、多数の場面画像から3次元的な場面モザイクを生成するための システムであり、前記多数の画像を格納するための手段と、画像モザイクおよび 形状モザイクを含む3Dモザイクを構築するために前記画像を整合する(regist er)ための、前記格納手段に結合された整合(registration)プロセッサと、を 備え、ここにおいて、前記画像モザイクは場面のパノラマ的展望図を表し、前記 形状モザイクは場面の3D幾何形状を表す。 本発明の内容は、以下の添付図面とともになされる詳細な説明を検討すること によって容易に理解することができる。 図1は、本発明の画像処理システムを含む画像システムのブロック図を表す。 図2は、図1のシステムの入力画像および出力モザイクを概略的に表す。 図3は、参照したカメラによって発生された参照した画像、検査カメラによっ て発生された検査画像、およびカメラによって像を写された場面内の任意のパラ メータ表面の間の関係の幾何学的な表現である。 図4は、画像を整合し、整合された画像から視差情報を抽出するためのP−t hen−Pルーチンの流れ図である。 図5は、画像を整合し、整合された画像から視差情報を抽出するためのP−a nd−Pルーチンの流れ図である。 図6は、本発明の画像処理システムの機能ブロック図である。 図7は、位置(ポーズ、pose)推定ルーチンの流れ図である。 図8は、3Dの補正されたモザイク構築ルーチンの流れ図である。 図9は、図3の平面的なOMPの2次元的な幾何学表現であり、そこにおいて 場面は点を画像内に閉じ込める物体を含む。 図10は、本発明のシステムを用いて場面内の物体の高さを見積もるための実 験装置を表す。 図11は、現行の3Dモザイクの新しい展望を合成する創意的なシステムへの 応用のブロック図を表す。 3Dモザイクを形成するために像に写された場面を表す多数の画像を結合する 画像処理システムが最初に説明され、ここにおいて3Dモザイクは、場面のパノ ラマ的展望を表す画像モザイクおよび場面の3D幾何形状を表す形状モザイクを 含む。形状モザイクは、2次元的パラメータ表面および残りの視差場(parallax field)の2次元的な画像運動に分解される運動場によって、任意の2つの画像 の間の関係を定義する。運動場とパラメータ的な並進パラメータ(translation parameter)とを生成するには多くの技術が有効でありうるけれど、以下の説明 において2つの例示的なプロセスを検討する。第1のプロセスは、プレーン・ゼ ン・パララクス(平面・そして・視差、P-then-P)として知られていて、まずパ ラメータ表面(平面、plane)を沿って画像を場面内に整合し(register)、そ れから場面の3D幾何形状を表す視差場を決定する。第2の例示的なプロセスは 、プ レーン・アンド・パララクス(平面・及び・視差、P-and-P)として知られてい て、同時に画像を整合しまた視差場を決定する。どちらのプロセスでも、整合の 結果は、パラメータ表面に沿った画像の整合を得るための並進パラメータと、パ ラメータ表面に関して場面の3D幾何形状(運動)を表す視差場と、パラメータ 表面内の運動を表す平面的な運動場とである。これらの結果は、3Dモザイクを 形成するために入力画像を結合するために用いられることができる。 パラメータ表面の画像運動は、本質的には、2Dモザイクの従来の表現である 。パラメータ表面の運動は一般的には、2次元的運動場を直接に評価するための 多くの役に立つ技術を用いて評価されるパラメータ運動場として表現される。一 般的に言えば、直接的な方式は、2次元的なモザイクを形成するために多数の画 像を整列し、また結合するために十分である。このような2次元的なモザイクは 、画像の連続(sequence)によって捕らえられた場面内の2次元的パラメータ表 面の整列を表す。このパラメータ表面は、場面内にほとんどの物体が置かれる実 際の表面での有り得、あるいは場面内にて任意に選択された仮想的な表面でも有 り得る。場面内のすべての物体は、カメラがパラメータ表面に対して運動すると 、いわゆる視差運動を生ずる。このパラメータ的な運動は視差運動場(ここでは また視差場として引用されている)によって表される。視差場は、場面内におけ る、その表面の面内に存在しない物体のための値をもつ。その表面の面に存在す る物体は視差場内で表現されるけれど、それらの物体はゼロ視差を有する。より 詳しくいえば、視差場は、パラメータ表面の前および背後にある物体と、これら 物体の、表面からの距離(高さ)、すなわち場面の3D幾何形状と、を表す。こ うして、パラメータ表面およびその平面的な運動場とを組み合わせて視差場を用 いて、そのシステムは任意の水準まで場面の3次元的復元を発生できる。焦点距 離および光学的中心のようなカメラの目盛パラメータがわかれば、そのときは場 面の3次元的復元はユークリッド的である。 図1は、多数の画像から3Dモザイクを発生するために用いられるような画像 処理システム100のブロック図を表す。このシステムは、通例、ここで記述さ れるような画像処理システムとして機能するためにプログラムされた汎用計算機 である。システムはさらに、場面102を写す1つまたはそれ以上のカメラ10 4nを含む。例示的なシステム中には、2つのカメラ、カメラ1041およびカメ ラ1042を示す。各カメラは、単純化のために、ディジタル化されたビデオ情 報の一連のフレームを生ずるディジタル・ビデオ・カメラであると仮定されてい る。代わりに、カメラは、静止カメラ、従来のビデオ・カメラ、または赤外線セ ンサ、及び超音波センサといった別な形態のイメージ・センサ、その他であって もよく、その出力信号はシステム100に入力信号として用いられる前に独立し てディジタル化されている。いずれにしても、各カメラ1041および1042は 、場面のはっきり区別された眺めをもつ画像を発生する。とりわけ、その画像は 、場面の異なる眺めを写す各カメラから選択されたフレームでありうるし、また は場面を横切ってカメラを動かして撮影する(pan)際に1つのカメラからの一 連のフレームでもありうる。どちらの場合においても、本発明の画像処理システ ムへの入力信号は、単一の場面の異なる視点から撮られた少なくとも2つの画像 である。各画像は少なくとも他の1つの画像に示される場面と部分的に重なり合 う。システム100は、画像を1つの3Dモザイクに結合し、そのモザイクを出 力デバイス106に提示する。その出力デバイスは、ビデオ圧縮システム、ビデ オ記憶および検索システム、または3Dモザイクのための何か別のアプリケーシ ョンであってもよい。 図2は、システム100への入力画像200nおよび入力画像に応じてそのシ ステムによって発生された出力3Dモザイク202を概略的に示す。その入力画 像は、上述されたように、一連の画像であり、そこでは各画像は異なる視点から の場面を表す。システム100は画像を整合しまた結合し、画像モザイク204 、例えばすべての画像を通して広がる任意のパラメータ表面に沿って整列された 画像を有する2次元的モザイク、を形成する。画像を整列し画像モザイクを形成 することは、パラメータ的な並進パラメータと平面運動場との両方を必要とする 。画像モザイクに加えて、システムは、画像内の3D物体を互いにまた画像内の 3D物体をパラメータ表面に関連する運動場を含む形状モザイク206を発生す る。その形状モザイクは視差運動場208を含む。平面運動場は画像から画像へ と画像内に現れるパラメータ表面での運動を表す一方で、視差の流れ場は場面内 での3D物体の視差によってパラメータ表面に関して運動を表す。A.残存視差場の決定 2つのカメラの視点を検討して、1つを「参照」カメラとし他の1つを「検査 」カメラとする(例えば、それぞれ、図1のカメラ1041および1042)。一 般 ody transformation)を用いて写像する。 く回転(R)によって表される。透視図を用いて、投影された点Pの像の座標 ここでfはカメラの焦点距離である。 図3は、参照カメラによって発生された参照画像302、検査カメラによって 発生された検査画像304、および写された場面内の任意のパラメータ表面30 0の間の関係の幾何学的表現である。Sは関心のある表面(現実のまたは仮想の 表面300)を表し、PはS上に位置しない場面内の周囲の(environmental) 点(例えば、物体の位置)を表し、0およびMは各カメラの中心位置(焦点)を 表す。画像302上におけるPの像はpである。直線MPは位置Qにおいて面S と交わる。従来のワーピング処理は、表面S上のすべての点を整列することによ って画像302および画像304を整列するために使用されていて、Pの画像3 04上の像p’をQの画像302上の像qにワープさせる(warp)。したがって 、残存視差ベクトルはpqであり、それは線分PQの像である。ベクトルpqが 平面OMP上にあることがただちに図から明らかであり、その平面はpを通過す る エピポーラ(epipolar)平面である。そのようなベクトルは場面中の任意の点P に対して発生されるので、すべての視差ベクトルの集合は視差変位場を形作ると いうことが言える。各像点に関連づけられた視差変位ベクトルは、その像に関連 づけられたエピポーラ平面に沿って置かれるので、そのベクトルはエピポーラ場 と呼ばれる。この場は放射状の構造を持ち、各ベクトルは「エピポール(epipol e)」(別名、展開焦点(FOE:focus of expansion))と呼ばれる画像内の 通常の原点から放出するように見える。図3において、エピポールは点「t」に 位置する。図3から、エピポールは、直線OMの画像302との交点にあること が明らかである。視差変位場は、ここではまた単に視差場または視差運動場と呼 ばれる。 残存視差情報(例えば、視差場)を決定する際して、2つの画像は、従来のパ ラメータ運動推定方法を用いてパラメータ表面に沿って整列されている(整合さ れている)と仮定されている。また、これらの整列方式は、整列または整合の「 階層的直接方式」としてその技術分野において知られている。そのような1つの 方法は、出典を明記することによりその開示内容を本願明細書の一部と成す19 94年11月14日提出の共通譲受人による米国特許出願第08/339,49 1号に記述されている。以下に詳細に説明されるように、ひとたび本発明のシス テムが、パラメータ表面に沿って2つの画像を整列するための変換および平面運 動場を決定すれば、システムは場面内の物体のパラメータ表面の上または下の高 さを表す残存視差情報を決定する。B.画像の整列 3D場面を正確に表現するために上で記述された一般的な原理を用いて、本シ ステムは画像整列のための並進パラメータとともに、平面のおよび視差の運動を 両方とも再生しなければならない。例示するように、システムは、画像内の運動 および変換(transformation)パラメータを決定するために、別個にまたは順次 に2つの技術を用いる。第1の技術は「順次整合」方式であり、そこにおいて、 両カメラによって写された場面内の面(パラメータ表面)が、8変数平面変換を 用いてまず整合される。それから、別個の順次に実行されるステップを用いて、 残存する視差運動が評価される。第2の技術は「同時整合」方式であり、そこに おいて、システムは、平面および視差運動場とともにパラメータ変換を同時に評 価される。 i.順次整合 図4は、順次に整合を行ないまた視差場を決定するためにシステムによって実 行されるルーチン400の流れ図を表す。場面内に平面を整合するために、シス テムは階層的直接整合の技術を用いる。この技術は、平面内の運動のための平面 流れ場モデルを用いる。ひとたび多数の画像がステップ402においてシステム に入力されると、ルーチンは2つの順次的なステップを実行し並進パラメータお よび運動場を決定する。すなわち、ステップ404において、ルーチンは平面運 動場を引き出し、ステップ406において、ルーチンは並進パラメータと視差場 との両方を評価する。結果として生じるルーチンからの出力408は、入力画像 についての関連情報、例えば、平面に沿って画像を整列するための並進パラメー タと場面の3D幾何形状を表す平面のおよび視差の運動場である。 具体的には、場面内の点の総運動ベクトルは、平面運動(up,vp)および残 存視差運動(ur,vr)による運動ベクトルの総計として表される。こうして、 この運動ベクトルは式3で表される。 (u,v)=(up,uv)+(ur,vr) (3) さらに、平面(2次元的な)の運動場は以下のように表される。 up(x)=p1x+p2y+p5+p7x2+p8xy vp(x)=p3x+p4y+p6+p7xy+p8y2 (4) ここにおいて 2x,T2yおよびT2zはカメラ視野間の並進ベクトルを表し、Ωx、ΩyおよびΩz は角速度ベクトルを表し、fはカメラの焦点距離を表し、N2x、N2yおよびN2 z はカメラの中心から平面への法線ベクトルを表す。残存視差ベクトルはさらに 以下のように表される。 ur(x)=γ(fT2x−xT2z) vr(x)=γ(fT2y−yT2z) (6) ここにおいて視差マグニチュード場は式7で表される。 γ=H/PzT⊥ (7) ここにおいて、Hは関心を持っている点の平面からの垂直距離を表し、Pzは関 心のある点の深さ(本技術分野においてレンジとも呼ばれる)を表す。T⊥は第 1の(参照の)カメラの中心から平面への垂直距離であり、fはカメラの焦点距 離である。画像の各点において、視差マグニチュード場γは、参照表面からの対 応する3D点の高さに正比例し、その点の深さ、すなわちカメラの中心からのそ の点の距離に反比例する。 全体の運動場を決定するために、順次の方式は、まず式4を(up,vp)につ いて解き、それから式3を(ur,vr)について解く。荒く細かく(coarse-to- fine)反復的な様態にて整合を達成するために、多重解像度の画像ピラミッドを 形成するために、入力画像を副次標本化する(サブサンプルする、subsample) 。ピラミッドの各レベル内において、画像整合のうまく合うことのしるしとして 用いられる尺度は、画像上において関心のある選択された範囲にわたって集積さ れた差分平方の総和(SSD)の尺度である。典型的には、システムは最初に、 選択された領域として画像全体を選択し、そのあと、整合尺度が最小化されるま でより小さな領域を再帰的に選択する。整合を完遂するために、整合の尺度は、 (以下に定義される)2次元的流れ場変数に関連して最小化される。画像領域内 の流れ場を見積もるためのSSD誤差尺度は、 であり、ここにおいて、x=(x,y)は画像内の点の空間的な位置、Iは多重 解像度のピラミッド画像の強度、u(x)=(u(x,y),v(x,y))は 画像領域内の点(x,y)における像の速度を表し、(u)は領域内の全体の運 動場を表す。運動場は、1組の広域的および局所的パラメータによって形作られ ている。 この技法を用いるために、システムは、ステップ410において、まず2つの 入力画像の各々の多重解像度のピラミッド表現(例えば、ラプラスまたはガウス ・ピラミッド)を構築する。その後に、ステップ412において、ルーチンは、 荒く細かくの態様で、2つの画像を互いに整合する運動パラメータを評価する。 すなわち、特にはっきりとは示されていないが、荒く細かいくの整列を達成する ために、ピラミッドのレベルにわたってルーチンを反復する。具体的には、ルー チンは、前述の平面運動場の計算を使用してまた画像ピラミッドの各レベルにお いてSSDの最小化して、画像を整列する。ルーチンは、8個の運動パラメータ (p1からp8)と、2つの画像内に相当数のピクセルを含む、平面(例えば、「 現実の」または物理的な表面)内の領域に関する結果として生じる運動場とを評 価する。特に、ルーチンは、なんらかのパラメータ初期値(典型的には、ゼロ) から始め、それから、粗い解像度においてSSDを最小化するために繰返しパラ メータを更新し、画像ピラミッド内においてより細かい解像度で継続的に行なう 。整列の繰返しの各ステップの後に、パラメータの現在の組に基づいた変換が、 2つの画像間の残存変位を減少するために、検査画像に適用される。参照および 検査画像は、選択された画像領域(例えば、物理的平面内の重複領域)が「目に 見える」平面に沿って整列される。ルーチンは、ステップ414において、整列 を達成するために更に計算を反復することが必要か否かを問いただす。その決定 は、SSDの、あらかじめ決められたしきい値SSDレベルとの比較に基づく。 もし更なる整合が必要ならば、ルーチンはステップ412にループする。ひとた び画像が正確に整合されると、ルーチンはステップ414から406へ進む。 ステップ406において、ルーチンは、並進パラメータおよび視差場を計算す るために平面流れ場の情報を使う。ステップ418において、式4で表現される (up,vp)の値は、ステップ404で計算されるp1からp8の見積もられた値 を使って計算される。そして、(up,vp)の値および式6における(ur,vr )の表現は、SSD関数(式8)に代入される。それから、式8は方向並進T2( x,y,z) および視差ベクトル場γに関して解くために最小化される。ルーチンは、 パラメータがSSD最小化のために計算されるように、ステップ420から繰り 返す。明示的には示されないが、ルーチンはまた、並進パラメータの十分な精度 を得るために、ピラミッドのレベルにわたって反復する。ひとたびSSDが十分 なレベルまで最小化されれば、ルーチンはステップ408において、出力として 、並進パラメータ、平面運動場および視差運動場を発生する。これらの値は、画 像ピラミッドの様々なレベルを用いて発生され、このようなものとして、これら のパラメータおよび運動場は多重解像度のピラミッドとして発生されるというこ とに注目されたい。このため、パラメータおよび運動場のピラミッドが、3Dモ ザイクの多重解像度のピラミッドを生成するために直接に使われうる。 このシステムは通例、この順次の整合処理を用い、明確に定義された平面を含 む場面を表す画像を整列する。この処理の結果は、2Dモザイクおよび場面内の 3D幾何形状を表す運動場を生成するために、平面に沿って画像を整列するため の一組の並進パラメータである。言い替えれば、システムは2つのステップ処理 を用いて、3Dモザイクを生成するために使われるパラメータを発生する:その ステップは、平面への整合(ステップ404)と、視差情報の決定(ステップ4 06)である。この2つのステップ処理は、プレーン・ゼン・パララクス(P− then−P)方式と呼ばれている。 ii.同時整合 図5は、同時に、2つの画像を整合し視差場を生成するためのルーチン500 を表す。この同時的な整合の方式においては、システムは、式3および式6で定 義されるものとして全体の運動ベクトルにおいて(up,vp)および(ur,vr )の両方に関して同時に解く。 同時整合の方式を用いると、「現実の」平面は必要でない、このため、画像は 画像内に任意に置かれる「仮想的」平面に整合されることができる。このような ものとして、この方式は順次整合の方式よりも柔軟である。 ルーチン500が、ルーチン400と同じ方式で始まり、そこでは、ステップ 402および410が画像を入力し、それから多重解像度のピラミッドを構築す る。そのあとに、ルーチンは、ステップ504において、並進パラメータ、平面 運動場および視差場を計算する。その結果は、ステップ510に出力される。 より具体的には、式3および式4において(u,v)に関する表現は、式5に 代入され、完全な対象的関数を得る。結果となる関数は、ステップ504で、S SDに関して最小化され、同時に、画像ピラミッドの各レベルにおいて平面運動 パラメータ(p1からp8)、並進の方向T2(x,y,z)、および視差場γに関して解 く。そのようにして、この過程が、多重解像度の画像ピラミッドを用いて、粗く 細かくの形式で繰り返される。ピラミッドの粗いレベルにおいて得られた結果は 、次のレベルにおいて計算のための初期の評価として用いられる。ピラミッドの 各レベルにおいて、計算が反復されSSDを最小化する。しかしながら、各反復 における結果は格納され計算結果の多重解像度のピラミッドを形成する、すなわ ち、この過程は、並進パラメータおよび運動場に関する多重解像度のピラミッド を形 成する。ステップ506を通過する各反復の後に、評価された運動パラメータが 、ステップ508において、平面整合パラメータが最小の視差場(例えば、2つ のカメラによって写された3D場面の平均平面)を生み出す仮想的な平面に対応 するように規格化される。結果は、ステップ510において生み出されるもので あって、平面に沿って画像を整合し、2Dモザイク、平面を伴って運動を表す平 面運動場、およびその平面にない場面内の物体を表す視差ベクトル場を生成する 1組の並進パラメータである。言い換えれば、システムは、平面への整合および 視差情報の決定という同時的な1つのステップ過程を用いて3D整合を発生する 。この1つのステップ過程は、プレーン・アンド・パララクス(P−and−P )方式と呼ばれている。 iii.順次的および同時的な画像整合の結合 図6は、本発明のシステム100の機能のブロック図を表す。入力画像は一時 的に画像記憶装置600に格納される。第1に、システム100は順次整合を用 い参照および検査画像を整合すると共に、視差場の見積もりを与える(図4のル ーチン400に従って動作するP−then−P整合プロセッサ602)。第2 に、システムは同時整合を用い更なる画像整合と正確な視差場を提供する(図5 ルーチン500に従って動作するP−and−P整合プロセッサ604)。もし プロセッサ602または604のいずれかが、あらかじめ決められた正確さの尺 度(例えば、SSDの最小値)内においてパラメータ表面に関する正確とみなさ れる流れ場を発生すれば、システムは画像処理を止め、3Dモザイクを発生し始 める。例えば、単純な形状の物体を含む場面においては、P−then−P処理 は、場面の3Dモザイクを正確に生成するために十分かもしれない。多くの視差 物体を有するもっと複雑な場面は、正確な3Dモザイクを発生するために画像処 理の両方の形式を必要とするかもしれない。一般的に、整列の質は、検査画像と 参照画像との間の正規(normal)流れ場の大きさ(magnitude)を計算すること によって試験される。あらかじめ決められたしきい値(例えば、0.5)を越え 正規の(normal)流れを有するパラメータ表面内の領域は、整合されてないと分 類され、引き続くプロセッサによって更に処理される。もしこれらの領域が最小 のサイズを得れば、システムは画像が整合されたとみなし、次の処理は実行され な い。 2つのプロセッサの出力は、並進パラメータおよび運動場である。3Dモザイ ク発生器606は、3Dモザイクを生成するために、入力画像を並進パラメータ および運動場と結合させる。上で定義したように、3Dモザイクは画像モザイク および形状モザイクを含み、ここにおいて画像モザイクは画像によって表される 場面のパノラマ的展望であり、形状モザイクはパノラマ的展望内における場面の 3D幾何形状を表す。 3Dモザイクは、上述の基本的システムの様々な拡長および応用(608参照 )において用いられうる。システムのこれらの拡張および応用は、以下にて詳細 に検討される。C.発明の拡張 本発明の有効性を高めるいくつかの選択的処理がある。第1は、存在するモザ イクに新しい視点から撮られた新画像を関係させるための単純な技術を提供する 配置評価ルーチンである。第2の拡張は、存在するモザイクを、そのモザイクに よって表される場面の新画像と結合することによって新しい3Dモザイクを発生 するための技術である。第3の拡張は、3Dモザイク内の遮り(occlusion)を 感知し処理するための技術である。 i.配置評価 図7は、配置評価ルーチン700のフローチャートである。参照画像および検 査画像の両方が与えられると、システムは、参照画像モザイクおよび参照形状モ ザイクを形成するために、上述されたP−then−P処理および/またはP− and−P処理を用いて、画像の整列し、また視差場を決定する。参照モザイク は、そのとき3D場面の最初の表現として役立つ。参照画像および形状モザイク は、ステップ702において入力され、それからステップ704において多重解 像度のピラミッドに変換される。もし参照モザイクがピラミッドとして提供され ていれば、そのときはステップ704は無視できる。ステップ708において画 像ピラミッドに変換された、新視点から撮られた(ステップ706)場面の新画 像が与えられると、ルーチンは、ステップ710において、参照モザイクを形成 するために用いられる参照視野に関連した新視点の配置を計算する。新画像の配 置は、11個の配置パラメータによって、すなわち8個の平面運動パラメータ( p1からp8)と3個の並進パラメータ(T2(x、y、z))とによって表される。配置 パラメータを計算するために、システムは再び、画像を整合するために上で使わ れ、またSSDがあらかじめ決められた値を達成するまでステップ712を通っ て反復される、階層的直接技術を用いる。具体的には、視差場γが与えられると 、式8は11個の配置パラメータを評価するために式3を用いて最小化される。 上述されたような整合方式の場合には、新画像は、場面の3D表現と新画像との 両方の画像ピラミッドにわたる粗く細かくの整合処理を用いて整列される。配置 評価ルーチンの結果は、新画像のための視差運動場、並進パラメータ、および平 面運動場である。これらの結果を用いて、以下に検討するように、新しい画像を 3Dモザイクに統合できる。 ii.3D補正されたモザイクの生成 場面の多数の画像を互いに関係づけ、また配置評価を用いて参照3Dモザイク (例えば、現行モザイク)が与えられると、システムは、新しい画像情報が利用 できるなるなら、その画像情報を用いて現行モザイクを最新のものにできる。新 しい画像からの情報を現行モザイクのなかに統合するこの処理は、3Dモザイク の補正として知られる。 上述されたように、3Dモザイクは2つの部分を含む;すなわち、場面の様々 な画像の、1つの(現実のまたは仮想の)カメラ視点への組立てを表すモザイク 画像と、その展望に対応する視差マップ(形状モザイク)とである。視差マップ はそれ自身、様々な画像を互いに関連づける視差マップを整えることによって生 成されるモザイクであるということに注目されたい。3D補正されたモザイクを 構築するために、新しい画像が現行モザイクに整合され、それから新しい画像情 報が現行モザイクに合併(マージ)される。マージされた画像およびモザイクは 、次の新しい画像に関する現行モザイクとなる補正されたモザイクになる。 図8は、3D補正されたモザイクを構築するためのルーチン800の流れ図を 表す。ステップ802において、システムは現行3Dモザイクが供給され、それ から以下のようにモザイク組立処理が進行する。 1.ステップ804において、カメラは、現行モザイク内で表される場面の新 しい画像を提供する。新しい画像は場面の新しい視点から撮られる。 2.ステップ806において、ルーチンは、配置評価処理を用い、現行モザイ クを新画像に整合する11個の配置パラメータを計算する。 3.ステップ808において、ルーチンは、評価された配置パラメータを使っ て現行画像モザイクを再投射することによって、新視点から撮られた合成画像を 創り出す。その再投射は、式3を使って現行画像モザイクを前方へワープするこ とにより遂行される。前方への画像のワーピングから生じる合成画像内の穴の発 生を回避するために、ルーチンは従来どおり、ウォルバーグ著「ディジタル・画 像ワーピング」IEEE コンピュータ・ソサエティ出版、ロス・アラミトス、 カリフォルニア(1990)、で説明されているように、第2の画像を追加的に 標本化する(super-sample)。その再投射は、画像内の遮り(occlusion)に敏 感である。遮り(occlusion)の感知および処理が以下に説明される。 また、新画像を現行画像モザイクに整合でき、そして新画像を現行画像モザイ クにワープできる、ということに注目すべきである。しかしながら、このワーピ ングを達成するためには、正確に新画像をワープしまた場面の3D幾何形状を捉 えるために、新画像に関わる視差情報が必要とされる。必要な視差情報を発生す るためには、モザイク内にマージされた前の画像が一時的にメモリに格納され、 また新画像に関連して視差情報を発生するために参照画像として用いられるか、 あるいは2つの新しい画像およびそれぞれの視差場がステップ804で作られる 。いずれの場合にも、新画像がモザイクにワープされるべきでであれば、新画像 に視差場を提供しなければならない。これは、現行画像が新画像にワープされる ときは、必要とされない。図8は、モザイクを画像にワープするための処理のみ をあらわす。 4.ステップ810において、ルーチンは、合成画像を新画像内にマージし、 新しいモザイクを創る。この新モザイクは現行モザイクとして経路814に沿っ て供給される。合成画像は、新画像内に存在しない画像領域を含む。これらの新 領域は新画像に加えられ、その境界を拡大し新しい3Dモザイクを創る。マージ する過程において、円滑なモザイクの構築を達成するために、ルーチンは、合成 画像内および新画像内の共通領域の強度を一時的に平均化できるということに注 目されたい。 新しい視点に関する形状モザイクを構築するために、システムは、現行画像モ ザイクが再投射されたのと全く同じ方法で、現行形状モザイクを新画像の座標系 に前方ワープする。現行画像モザイクと新画像との間の配置パラメータが与えら れると、新画像内にて見えるのではなく現行モザイク内にて見える現行3Dモザ イクの内のこれらの部分の形状モザイクがまた評価されうる。再投射された形状 モザイクは、この追加的な視差情報マージされ新しい視点から見えるように3D モザイクを完成させる。 5.ステップ812において、ルーチンは新しい視点から見えるように補正さ れた3Dモザイクを表示する。そのようにして、新しい画像情報は正確に現行3 Dモザイク内に包含される。 iii.遮りの感知および処理 遮りのために、合成画像の創出において(上で詳述したように)、第2の画像 内の2つ以上の像点が、合成画像内の同じ点に投影する。図9に見られるように 、点P,点Qおよび点Rは検査画像304を同じ点に投影する。もし、検査画像 304に対するそれぞれの点の深さが知られていれば、そのときは点PおよびQ は点Rによって遮られることがわかる。言い換えれば、検査カメラの視点から、 点Pおよび点Qは、箱900によって遮られる。しかしながら、視差マップは、 各点の相対的な深さを導き出すために必要な情報を含まない。それにもかかわら ず、相対的な深さの情報は、参照画像302内の像点p,qおよびrの相対位置 から引き出しできる。画像302内のこれらの点は、画像内のエピポーラ線90 2にある。各画像(カメラ)の焦点0および焦点Mを線904で結ぶことによっ て、エピポールmが線902上に定義される。焦点Mが焦点Mよりも場面に近い ことが与えられると、線902上の点mからの点の順序は遮られた点を同定する 。この例において、点rは点p、点qに進み、このようなものとして、点Rは点 Pおよび点Qを遮る。しかしながら、焦点Oが焦点Mよりも場面に近ければ、そ のときは遮られた点の順序づけは逆になり、遮られた点は線902上の点mに最 も近くなる。システムは、画像内において遮られた点を決定するために、この比 較的単純な技術を用いる。ひとたび認識されると、遮られ た点は画像から削除され、フィルタをかけられ、あるいはそうでなければ遮られ た点によって発生された潜在的人工物が回避されるように処理される。D.3Dモザイクのための応用 前出の記述では、少なくとも2つの画像を単一の3Dモザイクに組み合わせる ために使用される画像処理システムを検討した。ビデオ情報を表すためのこのよ うな動的システムは多くの応用を持ち、その内のいくつかを以下に検討する。 i.物体の高度の評価 一般に、視差の流れベクトルは、高度に正比例し深さに反比例し、ここで深さ はカメラからの物体の距離である。このようなものとして、地上にある物体の空 中から見た3Dモザイクを用いて、その物体の地表からの高度を評価できる。深 さを消去して物体のパラメータ表面(地表)からの高度を評価するためには、本 発明によるシステムは、空中図形の特徴的な特性(以下、空中図形特性という) を使用するために適用される。具体的には、カメラから物体への深さは典型的に は、物体の地表からの高度よりかなり大きい。最下点の(nadir)空中図形にお いては、すべての点の深さはほぼ同一であり、それ故わずかな(weak)透視投影 を用いて物体の高度を評価できる。一方、斜めに見ると、所与の画像にわたって かなりの深さの変動がある。しかしながら、斜視の空中図形におけるいかなる点 に対しても、その画像点の深さは、カメラからの視野直線(sight ray)の線を 伸張してまたそれを地表面と交差させることによって得られた仮想3D点の深さ とほぼ同一である。したがって、本システムは、地表面に関する式を評価するこ とによって、視差式4及び5における深さを因数分解できる。 本発明による画像処理システムのこの特定の応用は、変位ベクトルの大きさを 使用し高度の大きさを推論すると共に、流れベクトルの方向を使用し高度の符号 を推論する。高さの符号は、その点が平面の上にあるか下にあるかを示す。順次 的方法に関しては、並進運動が画像平面に並行である場合に関する変位ベクトル の大きさ は式9によって与えられる。 1z≠0の場合に関するの変位ベクトルの大きさは式10で与えられる。 ここでは、 は、点(xw,yw)の展開焦点(FOE)からの距離である。 であるので、空中図形特性式9と式10は次の式11に統合される。 ここで、I=γ2/γFは整列パラメータと視差ベクトルの評価値から得られた測 定値であり、Sは並進ベクトルT1と距離T2⊥に依存する比例因数である。式1 1は式12に書き換え、場面内の任意の画像点の高度Hに関して解くことができ る。 トルである。 高度評価計算を最もよく利用するには、焦点長や画像中心といった真性のカメ ラ・パラメータを、標準的な技法によって決定すべきである。しかしながら、カ メラ・パラメータを校正することもまたこれらのパラメータを演繹的に(aprior i)得ることも不可能である応用がある。このようなものとして、ある数の交互 評価方法が、焦点長および/または画像中心が既知であるかまたは未知であるか のいずれかの場合の高度を評価するために開発されてきた。 焦点長と中心とが双方とも未知であり、少なくとも3つの点の高度が既知(参 焦点長とカメラ中心が双方とも既知であれば、正規(normal)平面は式12を 用いて評価できる。この式は、二次整合パラメータを平面の法線、並進、および 回転に関連させたが、並進方向は疑似パラメータ残余評価中に計算される。式1 0を一緒に用いて並進方向は、6つの未知数を含む8つの式の線形な一組、すな わち正規ベクトルNと回転ベクトルΩを提供する。式9にて使用された並進はT2 であり、一方、視差フロー・ベクトルに関して計算された並進はT1であるから 、パラメータp1からp8によって定義される二次変換が逆転される。代わりに、 逆二次変換を、視差ベクトル推定中に2つの画像を交換することによって直接的 に評価してもよい。このようなものとして、3Dモザイクまたはいかなる構成要 素の画像(現実であれ仮想であれ)において互いの点の高度を決定するために、 少なくとも1つの点の高度が必要である。 焦点長が未知であり画像中心が既知である場合に画像点の高度を決定するため には、場面中の2つの点の既知の高度を用いて式12を解く。焦点長が未知であ るので、式8によって与えられる8つのパラメータをすべて利用することはでき ない。しかしながら、線形パラメータp1からp4は焦点長に依存せず、このよう なものとして、これらのパラメータに関連する式10を使用できる。これらの式 を検査すると、Tz=0のとき、正規成分Nzは決定されることができない。しか しながら、成分NxとNyはスケーリング(縮小)因数に添うように決定できる。 焦点長は未知なので、この結果はまたTz≠0の場合に関して真である。このよ うなものとして、並進ベクトルはベクトル[fTx fTyz]の縮小版である 。したがって、Tzがゼロであろうとなかろうと、本方法は、ベクトルNおよび 次い でベクトルKの少なくとも1つの成分を決定できる。本方法は、少なくとも2つ の画像点の高度と式12を使用し、ベクトルKとモザイク内の任意の点の高度と を決定する。 上記の技法は、平面(地表)上に横たわるある数の物体の高度を決定するため に実験的に用いられてきた。図10は、実験的な設定を模式的に示すものである 。具体的には、カメラ1000は、さまざまな形状の物体1006が置かれた平 坦な面1004に近接した三脚1002に搭載されている。これらの物体は高度 において平面上1インチから4.9インチの範囲である。最初は、水平線から3 5度の角度にて平面上約69インチ、すなわち位置1において画像をカメラで撮 影する。次に、カメラをy−z面中に約4インチで前方に位置2へ移動する。位 置2において、第2の画像を撮る。上記の高度の評価技法は、位置2からの画像 (検査画像)を位置1において撮られた画像(参照画像)の高度に整合するため に、またさまざまな物体の高度を決定するために使用された。焦点長とカメラ中 心を知ることなくまた3点の高度が既知の場合で、本方法は全体場面の高度を決 定した。各物体の実際の高度に比較して、評価高度に関して最大の標準偏差は0 .2インチであった。 第2の実験では、検査画像は、カメラを位置3に、例えば位置1からx軸に沿 って横方向に約4インチ移動させて発生された。本方法を再度用いて、画像を整 合し高度地図を発生した。この実験の結果、最大の標準偏差は0.27インチを 示した。 前述の高度評価プロセスは3つのシナリオ、すなわち(1)カメラ情報がまっ たく未知である場合、(2)カメラの焦点長が既知でカメラ中心が未知(または その逆)である場合、(3)カメラ中心と焦点長の双方が既知である場合、の内 容について検討された。第3のシナリオにおいては、空中展望(図形)特性に関 する仮定は、無関係であり仮定されていない。第1と第2のシナリオでは、その 仮定が用いられている。それにもかかわらず、前述の式を少し修正し、高度に関 して解くためにこの仮定を使用することを避けることができる。 2つの画像のモザイク内にて物体の高度を見いだすために使用される上記の技 法を拡張し、3つ以上の画像から成るモザイクにおける高度情報を決定できる。 マルチフレーム技法は、単一の参照画像とすべての画像にわたって伸張する1つ の参照平面とにすべての画像を整合させるバッチ方法を用いる。ひとたびすべて の画像が平面に沿って整合されると、本方法は画像フレームのおのおのの対の間 での残余視差変位ベクトルを計算する。高度マップは評価された残余視差変位ベ クトルのシーケンスから推論される。 この計算を完結させるには、式11は式13のように書き換えられる。 ここで、IiとSiはおのおのフレームからフレームに変化する一方、式の右側 が画像シーケンス全体にわたって一定である。このようなものとして、IiとSi の比は、モザイク全体にわたって不変な量である。 一連のN個の検査フレーム、及び画像平面に対する3つの画像点の高度が与え られている場合、本方法は、N+3個の未知の値、すなわちN項、Si項および ベクトルKの値を含む3N個の線形式を解く。まず、本方法はN+3個に関する 未知数の解を見つけ、次にその値を使用して式13を解きモザイク内の他の点の 高度を評価する。焦点長および/または画像中心が既知の場合、その式は、1つ または2つのみの既知の画像高度値を使用して解くことができる。 画像高度計算を3D修正されたモザイク・ルーチンと合成し、地形のマッピン グ情報を生成できる。例えば、前述の高度評価システムを使用し地形の高度地図 を発生させて、また3D修正モザイク・ルーチンが、高度地図の発生するために 使用された同一の発生画像を使用し3D修正モザイクを発生する。その後に、新 しい展望(view)、例えば地形に対して垂直な展望、が合成され、また高度地図 を修正(新しい展望に順応するように変更)できる。このようなものとして、高 度地図は場面のいかなる任意の視点からも発生されることができる。その結果、 場面の斜視角度で捉えられる画像は、直交視点から場面の画像に変換されること でき、高度情報はその新しい視点から発生されることができる。 ii.合成図形の発生(ツイーニング(tweening)) 一般的に言えば、3D場面を表す既存の3Dモザイクとそのモザイクに関連し て新しい視点の配置とが与えられると、本システムは、その場面の合成画像を導 出できる。このようなものとして、場面の異なる視点を有する異なるカメラを使 用してその場面をとらえることによって、本システムは、カメラの視点以外の視 点から見た場面の展望である画像を合成できる。 図11は、スタジオの3Dモザイク表現を発生させるために使用された3Dス タジオ1100内のカメラ(camema(s))のハードウエア配置を示す。このスタ ジオは、本システムが記録できるあるタイプの3D場面を単に図示している。こ れはもちろん、なんらかの3D場面と置き換えてもよい。3Dモザイク発生プロ セスは、上述したように、場面の複数の画像を使用し、その場面を表す1つまた は複数のモザイクを生成する。このようなものとして、2次元グリッド1102 は、複数の1フィートx1フィートの正方形を規定し、スタジオに近接した領域 内にカメラ位置を定めるために使用される。一般に、グリッド正方形の特定の寸 法、すなわちカメラ位置の数は場面の複雑さに依存して変化する。また、グリッ ドの形状は記録中の場面の種類に依存して変化し、例えばスポーツ・イベントと 行いた、ある場面はグリッドで囲まれていてもよい。 モザイクのための画像を生成するためには、カメラ1104はグリッド正方形 のおのおのから1つの画像(または一連の画像、例えばビデオ)を記録する。そ の画像は典型的には、各グリッド正方形に対してさまざまなカメラの移動撮影パ ン(pan)、カメラの上下の移動、回転およびズーム(zoom)の位置において記 録され、複数の視点から複数の画像を発生する。上記の画像処理システムは、各 カメラ位置において記録された様々な画像から3Dモザイクを発生する。同様に して、3Dモザイクは、各グリッド点における他のカメラ位置に対して発生され る。例えば、3Dモザイク1106、1108および1110(画像モザイク部 分のみが図示される)は、グリッド位置1112、1114および1116から 記録されたものとして場面を表す。これらの3Dモザイクはマージされ、例えば 位置1120から見たものとして場面を表す合成画像1118を発生する。合成 視点で発生された画像は、「現実の」カメラ視点ではなく、むしろ様々なモザイ ク内に含まれる情報から合成される。 本発明によるシステムは、2つのプロセスの内の1つを用いて合成画像を発生 する。場面の合成画像の展望を発生するために使用される第1のプロセスは、個 別のモザイク(例えば、モザイク1106、1108、1110)のおのおのを 合成視点の位置(例えば、位置1120)にワープする。このため、各グリッド 点に対して各3Dモザイクが発生されるので、3Dモザイクはその関連するグリ ッド点へのそれぞれと共にメモリ(モザイク記憶装置1122)に格納される。 新しい視点位置が与えられると、そのモザイクはメモリから呼び出され、新しい 視点からの場面を表す合成画像を発生する。撮られている場面の複雑さに依存し て、本システムはメモリ内の3Dモザイクまたはこれらモザイクのサブセットを 呼び出してもよく、例えば、新しい展望の位置に最も近いモザイクを呼び出すよ うにしてもよい。新しい展望発生器1124を使用すると、呼び出された各3D モザイクは新しい視点位置(例えば、位置1120)にワープされ、そのモザイ クはマージされ新しい展望の画像1118を形成する。画像をマージすることは 、典型的には、新しい展望画像を形成するために使用された様々なモザイクの画 素を平均化することによって遂行される。しかしながら、画像をマージする他の 形態のが当業者に知られており、これらの3Dモザイクに適用できる。新しい展 望発生器によって発生された結果は、場面1100の新しい展望(例えば、画像 1118)となる。 第2のプロセスは、各カメラ展望の3Dモザイクを前に発生された3Dモザイ クの位置にワープする。図示されるように、カメラ位置1112からの3Dモザ イク1106が最初に生成され、カメラ位置1114から生成されたモザイク1 108が次に位置1112の座標系へワープされ、最後に、カメラ1118によ って生成されたモザイク1110が位置1112の座標系にワープされる。この ようなものとして、場面(特定的には示されていない)の複合3Dモザイクが、 参照座標系(例えば、位置1112)から見たものとして様々な3Dモザイクを 組み合わせる(マージする)ことによって発生される。もちろん、いかなる座標 系を参照座標系として用いてもよい。また、撮られている場面に依存して、各グ リッド点において発生されたすべての3Dモザイクより少ないモザイクが使用さ れ複合モザイクを生成してもよい。その後に、場面のいかなる合成展望が、複合 3Dモザイクを合成眺望の座標系、例えば位置1120にワープすることによっ て生成できる。その結果が、場面の新しい展望(画像1118)となる。 iii.場面変化の検出 本発明のシステムが、移動する撮像装置(例えば、カメラ)を介して場面を監 視しまた場面の変化を検出するために使用できる。本システムは、視差と視点の 変化とによる変化にに対して訂正し、したがって、先行技術のシステムよりも本 物でない場面変化に敏感でない。 具体的には、本システムは一連の画像を組み合わせることによって変化を検出 し、3Dモザイク(または修正された3Dモザイク)を形成する。一連の画像内 の任意の画像に関して、つまり3Dモザイクに付加されるべき任意の新しい画像 に関して、本システムは、P−then−Pプロセス、P−and−Pプロセス 、または配置評価を用いて、その連続中の前の画像および次の画像と選択された 画像を比較する。「現実の」移動物体を表す変更の「最終的な」領域は、前の画 像との比較と次の画像との比較の双方に出現する領域である。本システムは、他 のすべての変化領域を、視点の変化、つまり視差によるものであると見なす。こ の単純な発見的学習(ヒューリスティック、heuristic)は、反射や遮りなどの 視点に依存する多くの変化領域を解消するに際に非常によく動作する。 iv.他の応用分野 3Dモザイクは、2Dモザイクが現在使用されている応用分野でも使用できる 。具体的には、画像の冗長さは連続した画像をモザイクに組み合わせることによ って除去されるので、ビデオ伝送、ビデオ記憶および検索、ならびにビデオ分析 および処理に用途をモザイクは見い出す。モザイクを使用することによって、よ り少ないビデオデータが送信したり記憶したり分析したりする際に必要とされる 。このようなものとして、本発明によるシステムによって発生される3Dモザイ クは、画像情報が効率的に操作され、記憶され、および/または送信される必要 がある多くの分野に用途を見いだした。 本発明の教示を組み込んださまざまな実施態様を詳細に図示し説明したが、こ れらの教示を組み込んだ他の多くの変更された実施態様が工夫されることが当業 者には明かであろう。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ベルゲン,ジェイムズ,アール. アメリカ合衆国 ニュージャージー州 ホ ープウェル イースト プロスペクト ス トリート 57 (72)発明者 アナンダン,パドマナバン アメリカ合衆国 ニュージャージー州 ロ ーレンスヴィル カーヴァー プレイス ビー−2 (72)発明者 イラニ,マイケル アメリカ合衆国 ニュージャージー州 プ リンストンジャンクション レイニング レーン 11−ビー

Claims (1)

  1. 【特許請求の範囲】 1.複数の画像を処理し場面の3次元(3D)モザイクを発生させる方法であっ て、前記方法は、 該場面の複数の画像を提供するステップを備え、 前記画像を整合し、画像モザイクおよび形状モザイクを含む前記3Dモザイク を構築するステップを備え、前記画像モザイクは該場面のパラノマ的展望を表し 、前記形状モザイクが該場面の3次元的幾何形状を表す、 方法。 2.前記整合ステップは、 前記複数の画像内に各画像をパラメータ表面に沿って整合し、整合された画像 を生成させるステップと、 前記整合画像に反応して、前記画像を前記パラメータ表面に沿って整列する際 に有用な並進パラメータおよびパラメータ運動場を決定するステップと、 前記場面内において物体の視差を表す視差場を発生するステップと、 を更に備える請求項1に記載の方法。 3.前記複数の画像を複数の多重解像度ピラミッドに変換するステップを更に備 え、各画像ピラミッドは複数のレベルを含み、 前記複数の画像が予め定められた正確さに整合されるまで、前記整合ステップ および前記決定ステップは、前記多重解像度ピラミッド内において前記レベルの おのおのにわたって繰り返される、 請求項2に記載の方法。 4.前記整合ステップは、 整合画像を生成するためにパラメータ表面に沿って前記複数の画像に前記画像 を同時に整合するステップと、 該整合された画像に反応して、該パラメータ表面に沿って該画像を整合する際 に有用な並進パラメータおよびパラメータ運動場を決定するステップと、 前記パラメータ表面にはない物体の視差を表す視差場を発生するステップと、 を更に備える請求項1に記載の方法。 5.前記画像モザイクおよび前記形状モザイクを多重解像度ピラミッドに変換す るステップを備え、 新しい画像を多重解像度ピラミッドに変換するステップを備え、 該新しい画像を該画像モザイクおよび該形状モザイクに関連付けるための配置 パラメータを決定するステップを備え、該配置パラメータは前記新しい画像に関 する並進パラメータ、平面運動場、および視差運動場を含む、 請求項1に記載の方法。 6.既存の3Dモザイクを提供するステップと、 前記既存の3Dモザイクに関連して新しい画像のための配置パラメータを決定 するステップと、 前記新しい画像の画像座標に前記既存の3Dモザイクをワープさせ合成画像を 作成するステップであって、前記合成画像は該新しい画像の該座標から該3Dモ ザイクの展望を表し、 前記合成画像を前記新しい画像にマージし、前記新しい画像と前記既存の3D モザイクとの組み合わせである新しい3D画像を生成するステップと、 を更に備える請求項6に記載の方法。 前記新しい画像に順次に続く次の画像を提供するステップと 前記新しい画像、前記既存の3Dモザイク、前記次の画像の間の変化を検出す るステップであって、前記変化は視点の変化による視差を運動として検出するこ となく前記場面内の前記運動を表す。 7.該場面内の物体によって該場面内において遮られる前記3Dモザイク内の点 を検出するステップと、 該遮られた点が前記3Dモザイク中にアーチファクト(人工物、artifact)を 生成しないように、該検出された遮られた点を画像処理するステップと、 を更に備える請求項1に記載の方法。 8.前記パラメータ表面に対して前記3Dモザイク内の点の高度を評価するステ ップを更に備え、前記点の前記高度は前記場面内の物体の点の高さを表す高度地 図を形成する、 請求項1に記載の方法。 9.異なる視点からの場面を表す複数の3Dモザイクを提供するステップを更に 備え、3Dモザイクは各視点において発生され、 前記複数の3Dモザイクを参照座標系にワープさせるステップを更に備え、 前記複数の3Dモザイクを併合し、複合3Dモザイクを形成するステップを更 に更に備え、 前記場面の新しい視点のための座標を提供するステップを更に備え、 前記新しい視点の座標を前記複合3Dモザイクに関連付けるためにパラメータ を決定するステップを更に備え、 前記視点座標に前記複合3Dモザイクをワープさせ合成画像を作成するステッ プを更に備え、前記合成画像は該新しい視点から撮られた該複合3Dモザイクの 新しい展望を表す、 請求項1に記載の方法。 10.異なる視点からの場面を表す複数の3Dモザイクを提供するステップであ って、3Dモザイクは各視点において発生し、 前記場面の新しい視点のための座標を提供するステップと、 前記新しい視点座標を該複数の3Dモザイクに関連付けるためにパラメータを 決定するステップと、 前記視点座標に前記複数の3Dモザイクをワープさせ合成画像を作成するステ ップであって、前記合成画像は該新しい視点から撮られた該3Dモザイクの新し い視点を表し、 前記複数の3Dモザイクをマージし前記合成画像を形成するステップと、 を更に備える請求項1に記載の方法。 11.前記整合ステップは、 整合された画像を最初に生成するためにパラメータ表面に沿って前記複数の画 像内の各画像を整合するステップ、前記最初に整合された画像に反応して、該パ ラメータ表面に沿って該画像を最初に整列する際に有用な初期並進パラメータお よび初期パラメータ運動場を決定するステップ、該場面内にある物体の視差を表 す初期視差場を発生させるステップ、を含むプレイン−ゼン−パララックス・プ ロセスを実行するステップと、 同時に、前記複数の画像中の前記画像を前記パラメータ表面に沿って整合し整 合された最終的な画像を前記初期並進パラメータ、初期パラメータ運動場、およ び初期視差場を用いて生成し、該パラメータ表面に沿って該画像を整合させる際 に有用な最終並進パラメータおよび最終パラメータ運動場を前記整合された最終 画像に応じて決定し、該場面内の物体の視差を表す最終視差場を発生するステッ プと、 を更に備える請求項1に記載の方法。 12.場面の複数の画像から該場面の3次元(3D)モザイクを発生するシステ ムであって、 前記複数の画像を格納する手段を備え、 画像モザイクおよび形状モザイクを含む前記3Dモザイクを構築するために前 記画像を整合するための、前記格納手段に接続された、整合プロセッサを備え、 前記画像モザイクは該場面のパノラマ的展望を表し、前記形状モザイクが該場面 の3次元幾何形状を表す、 システム。 13.前記整合プロセッサは、 該画像モザイク内の該画像を整列するために使用される並進パラメータおよび パラメータ運動場を生成するために該複数の画像を通って伸張するパラメータ表 面に沿って前記画像を整列するための、それから、該場面内の物体を表す視差場 を決定するための、プレーン・ゼン・パララクス整合プロセッサを、更に備える 請求項12に記載のシステム。 14.前記整合プロセッサは、 該画像モザイク内の該画像を整列するために使用される並進パラメータおよび パラメータ運動場を生成するために該複数の画像を通って伸張するパラメータ表 面に沿って前記画像を整列するための、それから、該場面内の物体を表す視差場 を決定するための、プレーン・アンド・パララクス整合プロセッサを、更に備え る請求項12に記載のシステム。
JP9503893A 1995-06-22 1996-06-24 視差依存技法を用いた画像結合のための方法とシステム Ceased JPH11509946A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/493,632 1995-06-22
US08/493,632 US5963664A (en) 1995-06-22 1995-06-22 Method and system for image combination using a parallax-based technique
PCT/US1996/010485 WO1997001135A2 (en) 1995-06-22 1996-06-24 Method and system for image combination using a parallax-based technique

Publications (1)

Publication Number Publication Date
JPH11509946A true JPH11509946A (ja) 1999-08-31

Family

ID=23961056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9503893A Ceased JPH11509946A (ja) 1995-06-22 1996-06-24 視差依存技法を用いた画像結合のための方法とシステム

Country Status (6)

Country Link
US (1) US5963664A (ja)
EP (1) EP0842498A4 (ja)
JP (1) JPH11509946A (ja)
KR (1) KR100450469B1 (ja)
CA (1) CA2225400A1 (ja)
WO (1) WO1997001135A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337075A (ja) * 2005-05-31 2006-12-14 Mitsubishi Electric Corp 3次元情報復元装置
JP2011146762A (ja) * 2010-01-12 2011-07-28 Nippon Hoso Kyokai <Nhk> 立体モデル生成装置
JP2012118666A (ja) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd 三次元地図自動生成装置

Families Citing this family (224)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038349A (en) 1995-09-13 2000-03-14 Ricoh Company, Ltd. Simultaneous registration of multiple image fragments
US6389179B1 (en) 1996-05-28 2002-05-14 Canon Kabushiki Kaisha Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
WO1998004087A1 (fr) * 1996-07-18 1998-01-29 Sanyo Electric Co., Ltd. Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels
DE69725186T2 (de) * 1996-12-30 2004-06-17 Sharp K.K. Sprite-gestütztes videocodiersystem
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US5946645A (en) * 1997-04-09 1999-08-31 National Research Council Of Canada Three dimensional imaging method and device
US6512857B1 (en) * 1997-05-09 2003-01-28 Sarnoff Corporation Method and apparatus for performing geo-spatial registration
US6597818B2 (en) 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
JPH114398A (ja) * 1997-06-11 1999-01-06 Hitachi Ltd デジタルワイドカメラ
US6501468B1 (en) * 1997-07-02 2002-12-31 Sega Enterprises, Ltd. Stereoscopic display device and recording media recorded program for image processing of the display device
US6061468A (en) * 1997-07-28 2000-05-09 Compaq Computer Corporation Method for reconstructing a three-dimensional object from a closed-loop sequence of images taken by an uncalibrated camera
US20020113865A1 (en) * 1997-09-02 2002-08-22 Kotaro Yano Image processing method and apparatus
US6466701B1 (en) * 1997-09-10 2002-10-15 Ricoh Company, Ltd. System and method for displaying an image indicating a positional relation between partially overlapping images
US7409111B2 (en) * 1997-10-21 2008-08-05 Canon Kabushiki Kaisha Image synthesizing system for automatically retrieving and synthesizing images to be synthesized
JP3567066B2 (ja) * 1997-10-31 2004-09-15 株式会社日立製作所 移動体組合せ検出装置および方法
US6396961B1 (en) * 1997-11-12 2002-05-28 Sarnoff Corporation Method and apparatus for fixating a camera on a target point using image alignment
US6522325B1 (en) * 1998-04-02 2003-02-18 Kewazinga Corp. Navigable telepresence method and system utilizing an array of cameras
WO1999052288A1 (en) 1998-04-02 1999-10-14 Kewazinga Corp. A navigable telepresence method and system utilizing an array of cameras
US6324299B1 (en) * 1998-04-03 2001-11-27 Cognex Corporation Object image search using sub-models
US6192393B1 (en) * 1998-04-07 2001-02-20 Mgi Software Corporation Method and system for panorama viewing
US6333749B1 (en) * 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
JP4374625B2 (ja) * 1998-05-08 2009-12-02 ソニー株式会社 画像生成装置及び方法
US6198852B1 (en) * 1998-06-01 2001-03-06 Yeda Research And Development Co., Ltd. View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry
EP1418766A3 (en) * 1998-08-28 2010-03-24 Imax Corporation Method and apparatus for processing images
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP4146938B2 (ja) * 1998-09-08 2008-09-10 オリンパス株式会社 パノラマ画像合成装置及びパノラマ画像合成プログラムを格納した記録媒体
JP2003524927A (ja) * 1998-09-17 2003-08-19 イッサム リサーチ ディベロップメント カンパニー オブ ザ ヘブリュー ユニバーシティ オブ エルサレム パノラマ画像および動画を生成し表示するためのシステムおよび方法
US6681056B1 (en) * 1999-03-30 2004-01-20 International Business Machines Corporation Method and system for digital image acquisition and continuous zoom display from multiple resolutional views using a heterogeneous image pyramid representation
US6891561B1 (en) * 1999-03-31 2005-05-10 Vulcan Patents Llc Providing visual context for a mobile active visual display of a panoramic region
US6424351B1 (en) * 1999-04-21 2002-07-23 The University Of North Carolina At Chapel Hill Methods and systems for producing three-dimensional images using relief textures
US6661913B1 (en) 1999-05-05 2003-12-09 Microsoft Corporation System and method for determining structure and motion using multiples sets of images from different projection models for object modeling
US7620909B2 (en) 1999-05-12 2009-11-17 Imove Inc. Interactive image seamer for panoramic images
JP3867883B2 (ja) * 1999-06-01 2007-01-17 株式会社リコー 画像合成処理方法、画像合成処理装置及び記録媒体
CA2377881A1 (en) * 1999-06-28 2001-01-04 Cognitens, Ltd. Aligning a locally-reconstructed three-dimensional object to a global coordinate system
US6587601B1 (en) 1999-06-29 2003-07-01 Sarnoff Corporation Method and apparatus for performing geo-spatial registration using a Euclidean representation
JP2001024874A (ja) * 1999-07-07 2001-01-26 Minolta Co Ltd 画像処理装置および画像処理方法、ならびに画像処理プログラムを記録した記録媒体
US6198505B1 (en) * 1999-07-19 2001-03-06 Lockheed Martin Corp. High resolution, high speed digital camera
CA2278108C (en) 1999-07-20 2008-01-29 The University Of Western Ontario Three-dimensional measurement method and apparatus
US7098914B1 (en) * 1999-07-30 2006-08-29 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6507665B1 (en) * 1999-08-25 2003-01-14 Eastman Kodak Company Method for creating environment map containing information extracted from stereo image pairs
US7502027B1 (en) * 1999-09-13 2009-03-10 Solidworks Corporation Electronic drawing viewer
US7477284B2 (en) * 1999-09-16 2009-01-13 Yissum Research Development Company Of The Hebrew University Of Jerusalem System and method for capturing and viewing stereoscopic panoramic images
US6366689B1 (en) * 1999-10-14 2002-04-02 Asti, Inc. 3D profile analysis for surface contour inspection
JP4484288B2 (ja) 1999-12-03 2010-06-16 富士機械製造株式会社 画像処理方法および画像処理システム
US6516087B1 (en) 2000-01-10 2003-02-04 Sensar, Inc. Method for real time correlation of stereo images
US6798923B1 (en) * 2000-02-04 2004-09-28 Industrial Technology Research Institute Apparatus and method for providing panoramic images
US6690840B1 (en) * 2000-02-08 2004-02-10 Tektronix, Inc. Image alignment with global translation and linear stretch
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
US7810037B1 (en) 2000-02-11 2010-10-05 Sony Corporation Online story collaboration
US8407595B1 (en) 2000-02-11 2013-03-26 Sony Corporation Imaging service for automating the display of images
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US6741757B1 (en) * 2000-03-07 2004-05-25 Microsoft Corporation Feature correspondence between images using an image pyramid
WO2001071662A2 (en) * 2000-03-20 2001-09-27 Cognitens, Ltd. System and method for globally aligning individual views based on non-accurate repeatable positioning devices
US6834128B1 (en) * 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
US6788333B1 (en) * 2000-07-07 2004-09-07 Microsoft Corporation Panoramic video
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
US6701030B1 (en) * 2000-07-07 2004-03-02 Microsoft Corporation Deghosting panoramic video
US6704460B1 (en) * 2000-07-10 2004-03-09 The United States Of America As Represented By The Secretary Of The Army Remote mosaic imaging system having high-resolution, wide field-of-view and low bandwidth
FR2811849B1 (fr) * 2000-07-17 2002-09-06 Thomson Broadcast Systems Camera stereoscopique munie de moyens pour faciliter le reglage de ses parametres opto-mecaniques
GB0019399D0 (en) * 2000-08-07 2001-08-08 Bae Systems Plc Height measurement enhancemsnt
US7095905B1 (en) * 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
US7260274B2 (en) * 2000-12-01 2007-08-21 Imax Corporation Techniques and systems for developing high-resolution imagery
JP2002224982A (ja) * 2000-12-01 2002-08-13 Yaskawa Electric Corp 薄型基板搬送用ロボットおよび薄型基板検出方法
US6650396B2 (en) 2000-12-04 2003-11-18 Hytechnology, Inc. Method and processor for stereo cylindrical imaging
US7103677B2 (en) * 2000-12-06 2006-09-05 Microsoft Corporation Methods and systems for efficiently processing compressed and uncompressed media content
US7447754B2 (en) 2000-12-06 2008-11-04 Microsoft Corporation Methods and systems for processing multi-media editing projects
US6882891B2 (en) 2000-12-06 2005-04-19 Microsoft Corporation Methods and systems for mixing digital audio signals
US6774919B2 (en) * 2000-12-06 2004-08-10 Microsoft Corporation Interface and related methods for reducing source accesses in a development system
US6959438B2 (en) 2000-12-06 2005-10-25 Microsoft Corporation Interface and related methods for dynamically generating a filter graph in a development system
US6983466B2 (en) 2000-12-06 2006-01-03 Microsoft Corporation Multimedia project processing systems and multimedia project processing matrix systems
SE519884C2 (sv) * 2001-02-02 2003-04-22 Scalado Ab Metod för zoomning och för att framställa en zoomningsbar bild
US7046831B2 (en) * 2001-03-09 2006-05-16 Tomotherapy Incorporated System and method for fusion-aligned reprojection of incomplete data
US8958654B1 (en) * 2001-04-25 2015-02-17 Lockheed Martin Corporation Method and apparatus for enhancing three-dimensional imagery data
US7006707B2 (en) * 2001-05-03 2006-02-28 Adobe Systems Incorporated Projecting images onto a surface
US20030030638A1 (en) * 2001-06-07 2003-02-13 Karl Astrom Method and apparatus for extracting information from a target area within a two-dimensional graphical object in an image
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
US7103236B2 (en) * 2001-08-28 2006-09-05 Adobe Systems Incorporated Methods and apparatus for shifting perspective in a composite image
JP3720747B2 (ja) * 2001-09-28 2005-11-30 キヤノン株式会社 画像形成システム及び画像形成装置、及び画像形成方法
JP3776787B2 (ja) * 2001-11-02 2006-05-17 Nec東芝スペースシステム株式会社 三次元データベース生成システム
KR100433625B1 (ko) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치
KR100837776B1 (ko) * 2001-12-24 2008-06-13 주식회사 케이티 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치 및그 방법
US20030152264A1 (en) * 2002-02-13 2003-08-14 Perkins Christopher H. Method and system for processing stereoscopic images
WO2003077549A1 (en) * 2002-03-13 2003-09-18 Imax Corporation Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data
US7006706B2 (en) * 2002-04-12 2006-02-28 Hewlett-Packard Development Company, L.P. Imaging apparatuses, mosaic image compositing methods, video stitching methods and edgemap generation methods
JP4211292B2 (ja) * 2002-06-03 2009-01-21 ソニー株式会社 画像処理装置および画像処理方法、プログラム並びにプログラム記録媒体
US7321386B2 (en) * 2002-08-01 2008-01-22 Siemens Corporate Research, Inc. Robust stereo-driven video-based surveillance
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US8994822B2 (en) 2002-08-28 2015-03-31 Visual Intelligence Lp Infrastructure mapping system and method
US8483960B2 (en) 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
US6928194B2 (en) * 2002-09-19 2005-08-09 M7 Visual Intelligence, Lp System for mosaicing digital ortho-images
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
GB0222211D0 (en) * 2002-09-25 2002-10-30 Fortkey Ltd Imaging and measurement system
JP3744002B2 (ja) * 2002-10-04 2006-02-08 ソニー株式会社 表示装置、撮像装置、および撮像/表示システム
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US7746379B2 (en) * 2002-12-31 2010-06-29 Asset Intelligence, Llc Sensing cargo using an imaging device
US20040196282A1 (en) * 2003-02-14 2004-10-07 Oh Byong Mok Modeling and editing image panoramas
US7164800B2 (en) * 2003-02-19 2007-01-16 Eastman Kodak Company Method and system for constraint-consistent motion estimation
US7487063B2 (en) * 2003-06-13 2009-02-03 UNIVERSITé LAVAL Three-dimensional modeling from arbitrary three-dimensional curves
KR20060009392A (ko) * 2003-06-19 2006-01-31 사르노프 코포레이션 스케일러블 멀티 카메라 분배형 비디오 프로세싱 및 시각화감시 시스템을 제공하는 방법 및 장치
JP4280656B2 (ja) * 2003-06-20 2009-06-17 キヤノン株式会社 画像表示装置およびその画像表示方法
US7259778B2 (en) * 2003-07-01 2007-08-21 L-3 Communications Corporation Method and apparatus for placing sensors using 3D models
SE0302065D0 (sv) * 2003-07-14 2003-07-14 Stefan Carlsson Video - method and apparatus
US7190826B2 (en) * 2003-09-16 2007-03-13 Electrical Geodesics, Inc. Measuring the location of objects arranged on a surface, using multi-camera photogrammetry
US7463778B2 (en) * 2004-01-30 2008-12-09 Hewlett-Packard Development Company, L.P Motion estimation for compressing multiple view images
US7421112B2 (en) * 2004-03-12 2008-09-02 General Electric Company Cargo sensing system
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
FR2868168B1 (fr) * 2004-03-26 2006-09-15 Cnes Epic Appariement fin d'images stereoscopiques et instrument dedie avec un faible coefficient stereoscopique
EP1584896A1 (en) * 2004-04-06 2005-10-12 Saab Ab Passive measurement of terrain parameters
EP1587035A1 (en) * 2004-04-14 2005-10-19 Koninklijke Philips Electronics N.V. Ghost artifact reduction for rendering 2.5D graphics
US7187809B2 (en) * 2004-06-10 2007-03-06 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
DE102004041115A1 (de) * 2004-08-24 2006-03-09 Tbs Holding Ag Verfahren und Anordnung zur Erfassung biometrischer Daten
DE112004003011A5 (de) 2004-08-25 2007-08-09 Tbs Holding Ag Verfahren und Anordnung zur optischen Aufnahme biometrischer Daten
US7342586B2 (en) * 2004-09-13 2008-03-11 Nbor Corporation System and method for creating and playing a tweening animation using a graphic directional indicator
JP2006101224A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 画像生成装置、画像生成方法および画像生成プログラム
EP1820159A1 (en) 2004-11-12 2007-08-22 MOK3, Inc. Method for inter-scene transitions
WO2007094765A2 (en) * 2005-02-10 2007-08-23 Sarnoff Corporation Method and apparatus for performing wide area terrain mapping
US7363157B1 (en) 2005-02-10 2008-04-22 Sarnoff Corporation Method and apparatus for performing wide area terrain mapping
US8645870B2 (en) 2005-03-31 2014-02-04 Adobe Systems Incorporated Preview cursor for image editing
US7680307B2 (en) * 2005-04-05 2010-03-16 Scimed Life Systems, Inc. Systems and methods for image segmentation with a multi-stage classifier
US7499586B2 (en) * 2005-10-04 2009-03-03 Microsoft Corporation Photographing big things
US7471292B2 (en) * 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint
US7660464B1 (en) 2005-12-22 2010-02-09 Adobe Systems Incorporated User interface for high dynamic range merge image selection
EP1977395B1 (en) 2006-01-27 2018-10-24 Imax Corporation Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
CA2884702C (en) 2006-06-23 2018-06-05 Samuel Zhou Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US7912319B2 (en) * 2006-08-28 2011-03-22 Avago Technologies General Ip (Singapore) Pte. Ltd. Systems and methods for panoramic image construction using small sensor array
US7873238B2 (en) 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
US8019180B2 (en) * 2006-10-31 2011-09-13 Hewlett-Packard Development Company, L.P. Constructing arbitrary-plane and multi-arbitrary-plane mosaic composite images from a multi-imager
DE102006052779A1 (de) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
US20080118159A1 (en) * 2006-11-21 2008-05-22 Robert Wendell Sharps Gauge to measure distortion in glass sheet
US7865285B2 (en) * 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
US8593518B2 (en) 2007-02-01 2013-11-26 Pictometry International Corp. Computer system for continuous oblique panning
US8520079B2 (en) 2007-02-15 2013-08-27 Pictometry International Corp. Event multiplexer for managing the capture of images
US8385672B2 (en) 2007-05-01 2013-02-26 Pictometry International Corp. System for detecting image abnormalities
US9262818B2 (en) 2007-05-01 2016-02-16 Pictometry International Corp. System for detecting image abnormalities
US7991226B2 (en) 2007-10-12 2011-08-02 Pictometry International Corporation System and process for color-balancing a series of oblique images
DE102007053812A1 (de) 2007-11-12 2009-05-14 Robert Bosch Gmbh Konfigurationsmodul für ein Videoüberwachungssystem, Überwachungssystem mit dem Konfigurationsmodul, Verfahren zur Konfiguration eines Videoüberwachungssystems sowie Computerprogramm
US8531472B2 (en) 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
US9937022B2 (en) * 2008-01-04 2018-04-10 3M Innovative Properties Company Navigating among images of an object in 3D space
TW200937348A (en) * 2008-02-19 2009-09-01 Univ Nat Chiao Tung Calibration method for image capturing device
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8675068B2 (en) * 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8588547B2 (en) 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
US8401222B2 (en) 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
EP2261827B1 (en) * 2009-06-10 2015-04-08 Dassault Systèmes Process, program and apparatus for displaying an assembly of objects of a PLM database
WO2011068582A2 (en) * 2009-09-18 2011-06-09 Logos Technologies, Inc. Systems and methods for persistent surveillance and large volume data streaming
JP2011082918A (ja) * 2009-10-09 2011-04-21 Sony Corp 画像処理装置および方法、並びにプログラム
US9330494B2 (en) 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
CN101789123B (zh) * 2010-01-27 2011-12-07 中国科学院半导体研究所 一种创建基于单目机器视觉距离图的方法
US9237294B2 (en) 2010-03-05 2016-01-12 Sony Corporation Apparatus and method for replacing a broadcasted advertisement based on both heuristic information and attempts in altering the playback of the advertisement
US20130194414A1 (en) 2010-03-05 2013-08-01 Frédéric Poirier Verification system for prescription packaging and method
CN102792333B (zh) * 2010-03-19 2016-11-23 拉碧斯半导体株式会社 图像处理装置、方法、程序以及记录介质
DE102010016109A1 (de) 2010-03-24 2011-09-29 Tst Biometrics Holding Ag Verfahren zum Erfassen biometrischer Merkmale
JP5641200B2 (ja) 2010-05-28 2014-12-17 ソニー株式会社 画像処理装置、画像処理方法および画像処理プログラムならびに記録媒体
US8477190B2 (en) 2010-07-07 2013-07-02 Pictometry International Corp. Real-time moving platform management system
JP5413516B2 (ja) 2010-08-19 2014-02-12 日産自動車株式会社 立体物検出装置及び立体物検出方法
JP2012085252A (ja) * 2010-09-17 2012-04-26 Panasonic Corp 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体
FR2965616B1 (fr) * 2010-10-01 2012-10-05 Total Sa Procede d'imagerie d'une conduite longitudinale
US9832528B2 (en) 2010-10-21 2017-11-28 Sony Corporation System and method for merging network-based content with broadcasted programming content
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8823732B2 (en) 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
MX321872B (es) * 2011-02-21 2014-07-11 Nissan Motor Sistema de deteccion de objeto estacionario periodico y metodo de deteccion de objeto estacionario periodico.
MX339356B (es) 2011-06-10 2016-05-17 Pictometry Int Corp Sistema y metodo para formar una secuencia de video que contiene datos de gis en tiempo real.
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
KR20130036593A (ko) * 2011-10-04 2013-04-12 삼성디스플레이 주식회사 이미지 중첩 현상을 방지할 수 있는 3d 디스플레이 장치
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9153063B2 (en) * 2012-02-29 2015-10-06 Analytical Graphics Inc. System and method for data rendering and transformation images in 2- and 3- dimensional images
US9183538B2 (en) 2012-03-19 2015-11-10 Pictometry International Corp. Method and system for quick square roof reporting
WO2013146269A1 (ja) * 2012-03-29 2013-10-03 シャープ株式会社 画像撮像装置、画像処理方法およびプログラム
US9100635B2 (en) 2012-06-28 2015-08-04 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays and optic arrays
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
JP2014027448A (ja) * 2012-07-26 2014-02-06 Sony Corp 情報処理装置、情報処理方法、及びプログラム
SG11201500910RA (en) 2012-08-21 2015-03-30 Pelican Imaging Corp Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
CN103942754B (zh) * 2013-01-18 2017-07-04 深圳市腾讯计算机系统有限公司 全景图像补全方法及装置
CN105027227B (zh) 2013-02-26 2017-09-08 安科锐公司 电磁致动的多叶准直器
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9881163B2 (en) 2013-03-12 2018-01-30 Pictometry International Corp. System and method for performing sensitive geo-spatial processing in non-sensitive operator environments
US9244272B2 (en) 2013-03-12 2016-01-26 Pictometry International Corp. Lidar system producing multiple scan paths and method of making and using same
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9275080B2 (en) 2013-03-15 2016-03-01 Pictometry International Corp. System and method for early access to captured images
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9753950B2 (en) 2013-03-15 2017-09-05 Pictometry International Corp. Virtual property reporting for automatic structure detection
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
TWI496109B (zh) * 2013-07-12 2015-08-11 Vivotek Inc 影像處理器及其影像合成方法
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015105886A1 (en) 2014-01-10 2015-07-16 Pictometry International Corp. Unmanned aircraft structure evaluation system and method
US10111714B2 (en) 2014-01-27 2018-10-30 Align Technology, Inc. Adhesive objects for improving image registration of intraoral images
US9292913B2 (en) 2014-01-31 2016-03-22 Pictometry International Corp. Augmented three dimensional point collection of vertical structures
WO2015120188A1 (en) 2014-02-08 2015-08-13 Pictometry International Corp. Method and system for displaying room interiors on a floor plan
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
WO2016054089A1 (en) * 2014-09-29 2016-04-07 Pelican Imaging Corporation Systems and methods for dynamic calibration of array cameras
US10008027B1 (en) 2014-10-20 2018-06-26 Henry Harlyn Baker Techniques for determining a three-dimensional representation of a surface of an object from a set of images
US10292369B1 (en) * 2015-06-30 2019-05-21 Vium, Inc. Non-contact detection of physiological characteristics of experimental animals
AU2016377491A1 (en) 2015-12-23 2018-06-21 Mayo Foundation For Medical Education And Research System and method for integrating three dimensional video and galvanic vestibular stimulation
US10402676B2 (en) 2016-02-15 2019-09-03 Pictometry International Corp. Automated system and methodology for feature extraction
US10671648B2 (en) 2016-02-22 2020-06-02 Eagle View Technologies, Inc. Integrated centralized property database systems and methods
WO2017218834A1 (en) 2016-06-17 2017-12-21 Kerstein Dustin System and method for capturing and viewing panoramic images having motion parralax depth perception without images stitching
CN106162143B (zh) * 2016-07-04 2018-11-09 腾讯科技(深圳)有限公司 视差融合方法和装置
US10430994B1 (en) 2016-11-07 2019-10-01 Henry Harlyn Baker Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats
US10552981B2 (en) 2017-01-16 2020-02-04 Shapetrace Inc. Depth camera 3D pose estimation using 3D CAD models
US10477064B2 (en) 2017-08-21 2019-11-12 Gopro, Inc. Image stitching with electronic rolling shutter correction
WO2020097128A1 (en) * 2018-11-06 2020-05-14 Flir Commercial Systems, Inc. Automatic co-registration of thermal and visible image pairs
WO2021003263A1 (en) * 2019-07-01 2021-01-07 Geomagical Labs, Inc. Method and system for image generation
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
KR20220133973A (ko) 2020-01-30 2022-10-05 인트린식 이노베이션 엘엘씨 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11190748B1 (en) 2020-11-20 2021-11-30 Rockwell Collins, Inc. Dynamic parallax correction for visual sensor fusion
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4797942A (en) * 1987-03-02 1989-01-10 General Electric Pyramid processor for building large-area, high-resolution image by parts
JPH0766445B2 (ja) * 1988-09-09 1995-07-19 工業技術院長 画像処理方法
US5187754A (en) * 1991-04-30 1993-02-16 General Electric Company Forming, with the aid of an overview image, a composite image from a mosaic of images
US5568384A (en) * 1992-10-13 1996-10-22 Mayo Foundation For Medical Education And Research Biomedical imaging and analysis
US5550937A (en) * 1992-11-23 1996-08-27 Harris Corporation Mechanism for registering digital images obtained from multiple sensors having diverse image collection geometries
US5682198A (en) * 1993-06-28 1997-10-28 Canon Kabushiki Kaisha Double eye image pickup apparatus
US5530774A (en) * 1994-03-25 1996-06-25 Eastman Kodak Company Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337075A (ja) * 2005-05-31 2006-12-14 Mitsubishi Electric Corp 3次元情報復元装置
JP2011146762A (ja) * 2010-01-12 2011-07-28 Nippon Hoso Kyokai <Nhk> 立体モデル生成装置
JP2012118666A (ja) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd 三次元地図自動生成装置

Also Published As

Publication number Publication date
US5963664A (en) 1999-10-05
KR100450469B1 (ko) 2005-06-13
EP0842498A4 (en) 2000-07-19
CA2225400A1 (en) 1997-01-09
EP0842498A2 (en) 1998-05-20
KR19990028281A (ko) 1999-04-15
WO1997001135A3 (en) 1997-03-06
WO1997001135A2 (en) 1997-01-09

Similar Documents

Publication Publication Date Title
JPH11509946A (ja) 視差依存技法を用いた画像結合のための方法とシステム
Irani et al. About direct methods
Kumar et al. Registration of video to geo-referenced imagery
Capel Image mosaicing
Avidan et al. Novel view synthesis by cascading trilinear tensors
Newcombe et al. Live dense reconstruction with a single moving camera
Shum et al. Systems and experiment paper: Construction of panoramic image mosaics with global and local alignment
Hsu et al. Automated mosaics via topology inference
Kang et al. 3-D scene data recovery using omnidirectional multibaseline stereo
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
US6571024B1 (en) Method and apparatus for multi-view three dimensional estimation
Nair et al. A survey on time-of-flight stereo fusion
US5987164A (en) Block adjustment method and apparatus for construction of image mosaics
JP4887374B2 (ja) ステレオビジョンにおいて散乱視差場を求める方法
US6476803B1 (en) Object modeling system and process employing noise elimination and robust surface extraction techniques
Irani et al. Direct recovery of planar-parallax from multiple frames
JP3080141B2 (ja) 三次元画像の評価方法
KR20180048443A (ko) 다수의 카메라를 이용한 최적의 구형 영상 획득 방법
Zhao et al. Alignment of continuous video onto 3D point clouds
JP2000155831A (ja) 画像合成方法、画像合成装置、画像合成プログラムを記録した記録媒体
Koch et al. Automatic 3d model acquisition from uncalibrated image sequences
Kumar et al. 3D manipulation of motion imagery
JP3540696B2 (ja) 画像合成方法、画像合成装置、画像合成プログラムを記録した記録媒体
Pollefeys et al. 3D acquisition of archaeological heritage from images
Pollefeys et al. Acquisition of detailed models for virtual reality

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060509

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20060925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061031