JP4634142B2 - 改善された変換および符号化技法 - Google Patents

改善された変換および符号化技法 Download PDF

Info

Publication number
JP4634142B2
JP4634142B2 JP2004512086A JP2004512086A JP4634142B2 JP 4634142 B2 JP4634142 B2 JP 4634142B2 JP 2004512086 A JP2004512086 A JP 2004512086A JP 2004512086 A JP2004512086 A JP 2004512086A JP 4634142 B2 JP4634142 B2 JP 4634142B2
Authority
JP
Japan
Prior art keywords
image
classifier
points
depth
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004512086A
Other languages
English (en)
Other versions
JP2005529417A (ja
Inventor
フォックス、シモン、リチャード
フラック、ジュリアン、チャールズ
ハーマン、フィリップ、ビクター
Original Assignee
ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド filed Critical ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド
Publication of JP2005529417A publication Critical patent/JP2005529417A/ja
Application granted granted Critical
Publication of JP4634142B2 publication Critical patent/JP4634142B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Description

本発明は、2D画像から深さマップを導き出すための改善された技法に向けられており、詳細には、本発明は、画像シーケンスと関係づけられた1組の疎な3D点から稠密な深さマップを回復する方法に関する。
発明の背景
ストラクチャ・フロム・モーション(Structure-from-Motion(SfM))は、カメラの平面2Dフィルムバックプレーン上に投影されたシーンの3D情報を回復する方法の集まりである。SfMアルゴリズムから導き出された構造情報は一般に、画像フレームごとに1つの投影マトリックスによる、画像平面における特定の2D点とその対応する3D点との関係を表現する、1組の投影マトリックスの形をとる。SfMアルゴリズムは、シーンに関するそのような構造情報を決定するために特定の画像特徴を追跡することに依拠する。一般的に言えば、画像のうちの少ないパーセンテージだけが正確に追跡され得るのであり、それらの点は通常、はっきりした強度の不連続が明確な追跡手がかりを付与する、縁端および角に存在する。
同様に、ステレオまたは多眼ディスパリティ分析が、2D画像から3D点を決定するために使用され得る。SfM分析と同様に、3D点は、第2の画像との対応を明白に決定するために十分なコントラストが存在する場所で画像の少ないパーセンテージについて確定され得るにすぎない。
立体視画像レンダリング、ロボットナビゲーションおよび特殊効果アニメーションを含むが、これらに限らず、多くの用途において、そうした疎な3D点は不十分である。そうした用途は、画像における各2D点が3D点と関係づけられている稠密な深さマップを必要とする。
稠密な深さマップへの疎な3D点の変換のための先行技術は、疎な3Dデータの空間的補間かまたは、RANSACアルゴリズムといった仮説−検証アプローチのどちらか一方に依拠する。これらの両方のアプローチは、各個別の画像フレームで利用可能な疎な3D点データを使用するにすぎない。これは2つの主要な欠点につながる。第一に、いずれかの単一の画像で利用可能な疎な点の数が、稠密な深さマップを正確に導き出すために十分でないかもしれず、第二に、1つのフレームから次のものへの深さマップの一貫性が低劣であり得る。本発明は、これらの欠点に対処する疎な3Dデータから稠密な深さマップを導き出す方法を開示する。
出願人は、その内容が参照によってここに開示される同時係属PCT出願番号PCT/AU01/00975において、1つ以上の画像から深さマップを生成する方法を開示している。この方法は2つのステッププロセスを含んでいた。第1のステップにおいて、単一の画像と関係づけられた疎な深さデータが、その画像についての深さマップを生成するために使用された。第2段階では、画像シーケンスにおける各画像についての深さマップが、段階1で生成された結果を用いて生成された。この方法は理想的な状況ではうまく働くが、プロセスには多くの制限がある。出願人の先行出願では、画像シーケンスにおいて多数のキーフレームを選定することが必要であった。これらのキーフレームの各々について、対応する深さマップを生成するための式が生成され得るように、そのキーフレーム内の十分な数のピクセルについての深さデータがわかっていることが必要であった。すなわち、キーフレーム内の十分な数のピクセルについての深さが与えられれば、他のすべてのピクセルについての深さが決定され得るような関数が導き出すことができた。これらの関数がキーフレームについて生成されると、その後それらは、残りのフレームについての関数を順に生成するために使用することができた。
出願人の先行プロセスの制限のうちの1つは、2つの段階の必要性である。いかなる理由であれ第1段階で誤りが導入された場合、この誤りは第2段階全体に伝播されることが理解されるであろう。そうした状況において、結果として得られる深さマップは、満足なものではないかもしれない。
段階1が満足に完了されることはより大きな関心事であり、そのキーフレームについての深さマップを生成するための式を解くために、キーフレーム内の十分な数のピクセルについての深さがわかっていることが必要である。例えば、キーフレームが350,000ピクセルを有する場合、理想的には、17,500ピクセル(つまりピクセルの総数の5%)についての深さが、深さマップのための関数を生成可能にするためにわかっているはずであろう。深さがわかっているピクセルの数が十分でない場合、結果として得られる深さマップの品質は妥当ではないはずである。キーフレームについての正確な深さマップを生成することができなければ、段階2がうまく完了され得ることはありそうもない。従って、深さマップの生成のための単純化された方法の必要性が存在する。
発明の目的
従って、本発明の目的は、2段階プロセスを要求せず、キーフレームにおける不可欠な数のピクセルが既知であるために深さに依存しない、2D画像シーケンスからの深さマップの生成のための改善されたシステムを提供することである。
発明の概要
上記の目的を意図して、本発明は1態様において、画像シーケンスについての少なくとも1つの深さマップを創成する方法であって、
複数のフレームの画像データを受け取るステップと、
前記複数のフレームのうちの少なくとも1つにおける複数の点の深さデータを受け取るステップと、
画像データの関数として深さ特性を確認するためのアルゴリズムを決定するために前記画像データおよび前記深さデータを利用するステップと、
前記アルゴリズムを利用して少なくとも1つの前記フレームについての深さマップを決定するステップとを含む、方法を提供する。
別の態様において、本発明は、複数のフレームを含む2D画像シーケンスについて少なくとも1つの深さマップを創成する方法を提供し、個々の前記フレームは複数の点を含んでおり、前記方法は、
少なくとも1つの前記フレームにおける複数の前記点についての深さデータを受け取るステップと、
前記深さデータを有する前記点について画像データを決定するステップと、
前記画像データと前記深さデータとの関係を符号化するためにクラシファイヤに前記深さデータおよび前記画像データを入力するステップと、
前記符号化された関係を利用して2D画像の少なくとも1つの前記フレームについての深さマップを導き出すステップとを含む。
また別の態様において、本発明は、画像シーケンスについての深さマップを創成する方法であって、
前記画像シーケンスにおける複数の点についての深さデータを受け取るステップと、
画像特性および相対位置の関数として深さ特性を確認するためのクラシファイヤを訓練するために前記深さデータを利用するステップと、
前記画像特性を利用して前記画像シーケンスの各フレームについての深さマップを創成するステップとを含む、方法を提供する。
さらに別の態様において、本発明は、画像シーケンスについての深さマップを創成する方法であって、
前記画像シーケンスを複数の画像ショットに分割するステップと、
各画像ショットについて、複数の点についての深さデータを受け取り、画像特性および相対位置の関数として深さ特性を確認するための初期アルゴリズムを創成するためのそれぞれのクラシファイヤを訓練するために前記深さデータを利用するステップと、
複数の前記ショットからの少なくとも2つの初期アルゴリズムを結合することによって少なくとも1つの結合されたアルゴリズムを創成するステップと、
前記少なくとも1つの結合されたアルゴリズムを用いて前記画像シーケンスの各フレームについての深さマップを創成するステップとを含む、方法を提供する。
別の態様において、本発明は、画像シーケンスについての少なくとも1つの深さマップを創成する方法であって、
前記画像シーケンスを複数の画像ショットに分割するステップと、
少なくとも1つの画像ショットにおける複数の点についての深さデータを受け取るステップと、
前記深さデータおよび、画像特性および相対位置の関数として深さ特性を確認するためのクラシファイヤを利用するステップと、
前記画像特性を利用して前記少なくとも1つの画像ショットの少なくとも1つのフレームについての深さマップを創成するステップとを含む、方法を提供する。
画像データは、個々の点またはピクセルについてのRGB値を含み得て、また相対XY位置を含み得る。本発明はまた、画像内の多数の点についての深さデータを決定する初期ステップを含み得る。深さデータは、手動、自動または、手動および自動手段の組合せのいずれかによって決定され得る。
画像シーケンスを一連のショットに分割する場合、本発明の好ましい実施形態は、各フレームの両側の2つのクラシファイヤの結果を結合するであろう。
発明の詳細な説明
深さマップは、特定の視点からのシーンの3D輪郭を表現する。稠密な深さマップが2D画像と関係づけられている場合、それは、画像をキャプチャするために使用されたカメラと画像における各ピクセルについて観察された物体との間の距離を符号化する。本発明の目的は、以下の手段のうちの1つから導き出され得る、3D点の疎な集合だけが与えられたとした時に深さマップを回復することである。
これを達成するために、多数の画像フレームを含んでいる画像シーケンスは、一連のショットに分解され得る。ショットは理想的には、フレーム間の差異が比較的小さい1つ以上の画像フレームを含む。画像シーケンスにおけるショット境界の頻度および配置は、そのシーケンスにおける動きに依存し得る。ショット境界は、オペレータによって手動で、またはショット検出アルゴリズムを用いて自動的に識別され得る。ショット検出アルゴリズムは、入力として画像フレームのシーケンスを受け取り、1つ以上のショット境界を出力する。ショット境界は、画像シーケンスを、任意のグループ内の連続する画像間の差異が比較的小さいものであるような1つ以上のグループに効果的に区分する。自動ショット検出アルゴリズムは一般に、画像差分化(image differencing)に基づく。例えば、ショット境界がシーケンスの2つの連続する画像間に挿入されるべきかどうかを決定するために、2つの画像の各ピクセル間の全差分が計算される。この差分が既定の閾値より上であれば、ショット境界が挿入される。
3D点は、カメラからの点の距離を表現する関係する深さ値を備える2D点として定義され得て、以下のプロセスのいずれか1つか、またはいずれかの組合せによって生成され得る。
1.ストラクチャ・フロム・モーション(Structure-from-Motion)アルゴリズム:そうしたアルゴリズムは、初めに第1の画像における多数の特徴点を識別し、以降の画像で同じ特徴点を見つけようとするであろう。物体の角または縁端といったハイコントラスト領域は一般に、追跡のために識別される最も信頼できる特徴である。十分な対応する2D点が突き止められると、3D点を導き出すことが可能である。例えば、2つの画像間で8つの対応する2D点が既知であれば、ロング・ヒギンズ(Longuet-Higgens)アルゴリズムが画像間のエピポーラ(epipolar)ジオメトリを回復するために使用され得る。カメラ較正マトリックスと組合せて、対応した2D点は、それらの回復された3D位置を見つけるために三角測量され得る。
2.ステレオまたは多眼アルゴリズム:画像シーケンスが固定した相対的構成で2台以上のカメラを用いてキャプチャされた場合、各カメラの画像間の対応が、三角測量(triangulation)によって深さ推定値を導き出すために使用され得る。SfMアルゴリズムと同様に、対応する点はハイコントラスト領域で確実に識別され得るにすぎず、そのようなアルゴリズムから決定され得る正確な3D点の数を制限する。
3.手動点対応または直接的な深さ割り当て:3D点は、2つ以上の画像における点間の対応を示すことによるか、深さ値を単一の2D点と直接関係づけることによるかのどちらか一方によって、手動で識別され得る。
本発明は、2D点(入力)と3D点(出力)との間の関係を符号化するためにクラシファイヤを使用する。クラシファイヤは、1組の入力と1組の出力との間の関係を符号化するアルゴリズムと考えることができる。クラシファイヤは、多数の異なる状態にあるとしてよい内部コンフィギュレーションを有する。監視された分類において、クラシファイヤは、その内部状態を入力と出力との間の関係の例を用いて適応させる。このプロセスは、クラシファイヤの訓練と呼ぶことができる。クラシファイヤは、上述したプロセスから導き出された3D点を用いて訓練され得る。代替として、訓練を必要としないクラシファイヤが選定され得る。
明快さの目的で、以下の画像シーケンス内で時間tに生起する画像における場所x,yの2D点について説明する。
P{x,y,t,I}
ここに、Iは点Pの画像特性の集合である。好ましい実施形態において、画像特性Iは、2D点Pの赤、緑および青の色成分から構成される。赤、緑および青色成分の線形または非線形の組合せ、または高次統計を含むが、それらに限らない、あらゆる他の画像特性もまた、本発明の性質に影響を及ぼすことなく使用され得る。
3D点は、次のように定義される。
R={x,y,z,t,I}
ここに、zは、深さまたは、点Rのカメラからの距離に対応する。上述した技法によって生成される3D点は、クラシファイヤを訓練するために使用され得る。クラシファイヤは、1組の2D点とそれらの対応する3D点との間の関係を符号化する。この関係が時間につれて変化すると、クラシファイヤは既定の時間間隔Tにわたり訓練される。好ましい実施形態において、この時間間隔は、ショット検出によって識別された通り、画像シーケンスの分解に一致する。単一の時間間隔Tが時間上隣接していない1つ以上のショットを含み得ることに留意しなければならない。画像シーケンスは、例えばカメラが交互にインタビューする人とインタビューされる人に焦点を合わせるニュースインタビューの間において、2つ以上の異なるシーン間で交番し得る。そうした状況では、時間間隔Tは、1つのシーンからの全部の画像を含み得る(例えばインタビュアー)。図3は、図の中央の3つのフレームが単一のショット2に属するように、ショット検出アルゴリズムを用いて分解された画像シーケンスを示している。フレーム1は先行ショット14における画像であり、フレーム5は後続ショット15における画像である。ショットにおける各画像フレームは、それと関係づけられた多数の3D点4を有する。各3D点についての深さZが手動または自動で導き出されたかどうかは重要でなく、必要とされるのは、その深さがわかっている一連の点である。簡単のために、これらの3D点は、2D画像平面へのそれらの投影によって表現される。現在ショット内の全部の3D点は、それらがいずれのフレームにあるかに関わらず、訓練データとしてクラシファイヤに入力される。
訓練されたクラシファイヤ3は、時間間隔Tにわたり2D点Pと3D点Rとの間の関係またはマッピングを次のように表現することができる。
C{T}:P{x,y,t,I}≡R{x,y,z,t,I} tが間隔Tに該当する場合
言い換えると、画像フレームの特定の集合上で導き出された3D点を用いて訓練されたクラシファイヤはこの時、同じ時間間隔にわたるあらゆる他の2D点についての深さ値を回復するために使用され得る。
クラシファイヤを特定の時間間隔に制限することは、それが2D点から3D点を回復できる精度を向上させるが、時間につれて矛盾する結果につながり得る。それらの矛盾は一般に、2つのクラシファイヤの時間境界で現れる。
例えば、画像シーケンスが2つのショットに分解された状況を検討しよう。クラシファイヤは、各ショットにおける全部の3D点について訓練される。また、第1のショットがtからtまで(これらを含めて)の画像フレームを占有し、第2のショットがtからtまで(これらを含めて)の画像フレームを占有すると仮定する。tにおける画像フレームは第1のクラシファイヤを用いて分類され、tにおける画像フレームは第2のクラシファイヤを用いて分類される。特定の状況において、これは回復された深さマップにおける顕著な不連続を生じ得る。すなわち、第1のショットの物体は、分類の結果としてある特定の深さに現れるかもしれないが、第1のショットにおけるそれらの同じ物体が、第2のクラシファイヤの結果として第2のショットにおいて異なる深さに現れるかもしれない。この状況では、画像は見る人にとって跳びまわるように見える。
これが問題となり得る状況において、本発明の好ましい実施形態は、2つのやり方で一貫性の問題に対処する。
訓練の前に、クラシファイヤは一般に、いずれかのランダム状態に初期化される。クラシファイヤの性質に応じて、この初期状態は、訓練後のクラシファイヤの最終状態に重大な影響を及ぼし得る。CがCの後に生起する2つのクラシファイヤCおよびCの間の一貫性を改善するために、Cは、クラシファイヤCの初期状態と同じ状態に初期化され得る。代替として、Cは、クラシファイヤCの一部または完全に訓練された状態を用いて初期化され得る。例えば、第1のクラシファイヤがランダム状態s1に初期化されると仮定する。訓練の間、クラシファイヤは、その状態を例えばs1からs50まで繰り返し変えるかもしれない。第1のクラシファイヤの後に第2のクラシファイヤは、例えばランダム状態の代わりに状態s10に初期化され得る。第2のクラシファイヤのいずれかの状態を伴い第1のクラシファイヤを初期化するプロセスは、第1のクラシファイヤのブートストラップと称する。ブートストラップは、開始状態が一般に最終的な訓練された状態に近いので、クラシファイヤが訓練され得る速度を増大させるという付加的な利益を有する。
結果の一貫性をさらに改善するために、2つ以上のクラシファイヤが、2D点から3D点を決定するために結合され得る。例えば、時間tから時間tまでの時間間隔にわたって訓練されたクラシファイヤが、tとtとの間の中間点である時間上の特定の点に関係づけられていると考える。
3D点を決定したいと望むいずれかの点P{x,y,t,I}について、その時間中間点が時間tの直前および直後に生起する2つの最も近いクラシファイヤを決定する。図4は、2つのショット12および13に分解された、多数の画像フレームよりなる画像シーケンスを示している。時間tは、個々の連続する画像フレームとともに左から右へ増す。画像シーケンスのショット12内の画像7の一部である所与の2D点6について3D点を決定するために、2D点6の時間tの直前に時間中間点を備える第1のクラシファイヤ14と、その直後に時間中間点を備える第2のクラシファイヤ15が結合され得る。
第1のクラシファイヤ14は3D点Rを出力し、第2のクラシファイヤ15は3D点Rを出力すると仮定して、2D点Pが入力として与えられた場合、結合手段18が、RおよびRを結合することによって改善された3D点Rを生成することができる。結合手段18は、RとRとを単純に平均することができるが、理想的にはその入力の重みつき結合を使用する。好ましい実施形態において、重みは、点Pとクラシファイヤの時間中間点との間の時間距離に基づく。このプロセスのさらなる例証として、tとtとの間の時間間隔にわたって訓練された第1のクラシファイヤ14の時間中間点が、Tm1=0.5*(t+t)として定義されると考える。同様に、tとtとの間の時間間隔にわたって訓練された第2のクラシファイヤ10の時間中間点はTm2=0.5*(t+t)と定義される。
第1のクラシファイヤ14についてw=(t−tm1)/(tm2−tm1)および第2のクラシファイヤ15についてw=(tm2−t)/(tm2−tm1)のそれぞれの重みを計算することによって、2つのクラシファイヤの相対的寄与を決定することができる。その後、改善された3D点Rは次のように計算され得る。
=w*R+w*R
代替実施形態において、重みづけは、時間近接性に対する分類誤り推定値によって決定される。
本システムが、出願人の先行システムとは、従って画像シーケンスについての深さマップの生成のためのあらゆる他の方法とも著しく異なることは理解されるであろう。図1でわかるように、出願人の先行プロセスは、多数のキーフレームの選定および、各キーフレーム内の十分な数のピクセルに関する深さが既知であることを必要とした。各キーフレームについて、十分なピクセルが深さを割り当てられていると仮定すれば、その場合、深さマップが段階1で創成できた。各キーフレームの深さマップはその後、段階2において残りのフレームに関する以降の深さマップを開発するために使用された。このプロセスは、図2で例証されている本発明と著しく異なる。図2は、画像シーケンスからキーフレームを選定することがもはや不要であることを示している。さらに、特定のフレームまたはキーフレームが、十分な数のピクセルまたは点に割り当てられた深さを有することを保証することももはや不要である。そうではなく、本発明は、深さマップを創成するために多数のフレームにわたる多数のピクセルについての深さおよび画像データを受け取る。クラシファイヤのためのデータが、特にその画像シーケンスが静止物体のものである場合、単一のフレームに由来し得ることは理解されるであろうが、この状況においてさえ、2つのキーフレームについて2つの深さマップを生成し、その後それらのキーフレーム深さマップを使用して以降の深さマップを生成していた先行システムに代わり、クラシファイヤはショットの各フレームについて深さマップを生成するために使用されるという点で、それは出願人の先行出願とは異なる。
個々の場合において各ピクセルの画像データが既知であることは理解されるであろう。すなわち、RGB成分を考えた場合、各ピクセルについて、システムは相対XY位置および、RGB値を知っている。必要とされることは、ショットシーケンスにわたる多数のピクセルがそれらに割り当てられた深さを有することである。この深さは、手動または自動的に、または手動および自動の組合せで割り当てられ得る。この情報はその後、本発明のクラシファイヤに渡されて、それによってショットの各フレームに関する深さマップを創成し得る。
本発明のシステムは、隣接するショットにおけるクラシファイヤを利用することによってさらに改善され得る。すなわち、単一のクラシファイヤによってのみ生成された深さマップに頼るのではなく、隣接するクラシファイヤによって生成された深さへの参照がなされる。これはやはり図5において例証されている。この場合、第1のショット12は4フレームを含み、それらのデータはクラシファイヤ14に供給される。同様に、隣接するショット13は6フレームを含み、それらのデータは第2のクラシファイヤ15に供給される。フレーム1〜10のいずれかにおけるいずれかの点、例えば第4フレーム17における点16についての深さを決定するために、両方のクラシファイヤからの出力は、その点における深さを決定するために結合される。理想的には、どちらか一方のクラシファイヤへの信頼は、いずれのフレームが考慮されているかに依存して、ある特定のクラシファイヤに有利に重みづけされる。例えば、図4の例において、クラシファイヤ15の重みづけは、第1フレームに対して第5フレームにおいて相当に大きくなるはずである。同様に、クラシファイヤ14の重みづけは、フレーム10についてよりもフレーム5について大きくなるであろう。
重みづけは、画像内の物体の深さが時間につれて変化し得るという事実を考慮するように設計される。また、物体の深さは、物体の履歴的な深さに加え、物体の将来的な深さの両方に対する何らかの関連を有することも理解される。種々のクラシファイヤに重みづけすることによって、ショット間のより滑らかな移行が達成され得る。
より複雑なシステムでは、移行平滑化をさらに改善するために2超のクラシファイヤを結合することが可能となり得ることが理解されるはずである。例えば、ある特定のショットについてのクラシファイヤに加え、そのショットの両側の2つの隣接するクラシファイヤを含む、3つのクラシファイヤが使用され得る。
出願人の先行システムは、その時に知られていたものから著しい進歩を遂げたと考えられた。本システムは、出願人の先行システムからさらに著しい進歩を遂げている。いずれかの画像シーケンス内のフレームについて深さマップを決定するために2段階プロセスを実行することは、もはや不要である。さらに、段階1のための深さマップを導き出すために単一のフレーム内の十分な数のピクセルがわかっていることも、もはや不要である。逆に、本発明は、単一のフレームに依拠することもできるであろうが、一連のフレームから情報を導き出し、それによってそれらのフレームの各々についての深さマップを生成することができる。さらに、本システムは、例えば図4のフレーム9によって示されたように、たとえある特定のフレームについていかなる深さデータもわからない場合でさえ、実行することができるであろう。この状況では、クラシファイヤは残りのフレームにおける既知の深さデータを使用する。
本発明の方法および装置を例示的な適用によって要約し説明したが、多数の広範に異なる実施形態および応用が本発明の教示および範囲の内にあり、ここに提示された例は例証としてのものであるにすぎず、本発明の範囲を限定するものとして解釈してはならないことは、当業者には理解されるであろう。
は、出願人の同時係属特許出願の作業を例示している。 は、本発明の動作を例証している。 は、本発明の1実施形態におけるクラシファイヤの使用を例示している。 は、隣接クラシファイヤの使用による本発明の好ましい実施形態を例示している。

Claims (20)

  1. 画像シーケンスについての少なくとも1つの深さマップをコンピュータが創成する方法であって、
    前記画像シーケンスの1以上の各フレームの中の一部の、前記画像シーケンスの中の全ての点のうちの一部である複数の点についての深さデータを受け取るステップと、
    前記深さデータを有する前記複数の点についての相対位置及び前記画像シーケンスのフレーム間での相対位置の対応関係を含まない画像特性を受け取るステップと、
    画像特性および相対位置の関数として深さ特性を算出するためのクラシファイヤのアルゴリズムを決定するために、前記複数の点についての前記深さデータ、前記画像特性、及び前記相対位置を前記クラシファイヤに入力するステップと、
    前記クラシファイヤを利用して前記画像シーケンスの少なくとも1つのフレームについての深さマップを創成するステップとを含む、方法。
  2. 前記画像特性はRGB値を含む、請求項1記載の方法。
  3. 前記相対位置は相対xy位置を含む、請求項1または請求項2に記載の方法。
  4. 前記画像シーケンス内の少なくとも所定の数の点についての深さデータを算出する初期ステップをさらに含む、請求項1〜3のうちのいずれか1つに記載の方法。
  5. 前記クラシファイヤをブートストラップする初期ステップを含む、請求項1〜3のうちのいずれか1つに記載の方法。
  6. 画像シーケンスについての少なくとも1つの深さマップをコンピュータが創成する方法であって、
    前記画像シーケンスを複数の画像ショットに分割するステップと、
    前記画像ショットの1以上の各フレームの中の一部の、前記画像ショットの中の全ての点のうちの一部である複数の点についての深さデータを受け取るステップと、
    前記深さデータを有する前記複数の点についての相対位置及び前記画像ショットのフレーム間での相対位置の対応関係を含まない画像特性を受け取るステップと、
    画像特性および相対位置の関数として深さ特性を算出するためのクラシファイヤのアルゴリズムを決定するために、前記複数の点についての前記深さデータ、前記画像特性、及び前記相対位置を前記クラシファイヤに入力するステップと、
    前記クラシファイヤを利用して前記少なくとも1つの画像ショットの少なくとも1つのフレームについての深さマップを創成するステップとを含む、方法。
  7. 各ショットは対応するクラシファイヤを割り当てられる、請求項6記載の方法。
  8. 少なくとも1つの対応するクラシファイヤが先行クラシファイヤと類似の状態に初期化される、請求項7記載の方法。
  9. 画像シーケンスについての少なくとも1つの深さマップをコンピュータが創成する方法であって、
    複数のフレームのうちの1以上の各フレームの中の一部の、前記複数のフレームの中の全ての点のうちの一部である複数の点についての深さデータを受け取るステップと、
    前記深さデータを有する前記複数の点についての前記複数のフレーム間での相対位置の対応関係を含まない画像データを受け取るステップと、
    画像データの関数として深さ特性を算出するためのクラシファイヤのアルゴリズムを決定するために、前記複数の点についての前記画像データ及び前記深さデータを前記クラシファイヤに入力するステップと、
    前記クラシファイヤを利用して前記複数のフレームのうちなくとも1つについての深さマップを決定するステップとを含む、方法。
  10. 前記画像データはRGB値を含む、請求項9記載の方法。
  11. 前記画像データは相対xy位置を含む、請求項9または請求項10に記載の方法。
  12. 前記画像シーケンス内の少なくとも所定の数の点についての深さデータを算出する初期ステップをさらに含む、請求項9〜11のうちのいずれか1つに記載の方法。
  13. 画像シーケンスについての少なくとも1つの深さマップをコンピュータが創成する方法であって、
    前記画像シーケンスを複数の画像ショットに分割するステップと、
    各画像ショットについて、当該画像ショットの1以上の各フレームの中の一部の、当該画像ショットの中の全ての点のうちの一部である複数の点の、深さデータ、相対位置及び当該画像ショットのフレーム間での相対位置の対応関係を含まない画像特性を受け取り、画像特性および相対位置の関数として深さ特性を算出するためのクラシファイヤの初期アルゴリズムを生成するために、前記複数の点についての前記深さデータ、前記画像特性、及び前記相対位置を前記クラシファイヤに入力するステップと、
    複数の前記ショットからの少なくとも2つの初期アルゴリズムを結合することによって、これらの初期アルゴリズムの出力を用いた出力を得るための少なくとも1つの結合されたアルゴリズムを創成するステップと、
    前記少なくとも1つの結合されたアルゴリズムを用いて前記画像シーケンスの少なくとも1つのフレームについての深さマップを創成するステップとを含む、方法。
  14. 前記画像特性はRGB値を含む、請求項13記載の方法
  15. 前記相対位置は相対xy位置を含む、請求項13または請求項14に記載の方法。
  16. 前記画像シーケンス内の少なくとも所定の数の点についての深さデータを算出する初期ステップをさらに含む、請求項13〜15のうちのいずれか1つに記載の方法。
  17. 前記結合されたアルゴリズムは前記少なくとも2つの初期アルゴリズムの出力の平均を用いるように決定される、請求項13〜16のうちのいずれか1つに記載の方法。
  18. 前記結合されたアルゴリズムは前記少なくとも2つの初期アルゴリズムの出力の加重平均を用いるように決定される、請求項13〜16のうちのいずれか1つに記載の方法。
  19. 前記クラシファイヤをランダム状態に初期化する初期ステップを含む、請求項13〜18のうちのいずれか1つに記載の方法。
  20. 少なくとも1つの前記それぞれのクラシファイヤが先行クラシファイヤと類似の状態に初期化される、請求項13〜18のうちのいずれか1つに記載の方法。
JP2004512086A 2002-06-07 2003-06-02 改善された変換および符号化技法 Expired - Fee Related JP4634142B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AUPS2836A AUPS283602A0 (en) 2002-06-07 2002-06-07 Improved conversion and encoding techniques
PCT/AU2003/000686 WO2003105089A1 (en) 2002-06-07 2003-06-02 Improved conversion and encoding technioues

Publications (2)

Publication Number Publication Date
JP2005529417A JP2005529417A (ja) 2005-09-29
JP4634142B2 true JP4634142B2 (ja) 2011-02-16

Family

ID=3836398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004512086A Expired - Fee Related JP4634142B2 (ja) 2002-06-07 2003-06-02 改善された変換および符号化技法

Country Status (6)

Country Link
EP (2) EP1514238A4 (ja)
JP (1) JP4634142B2 (ja)
CN (1) CN1669053B (ja)
AU (1) AUPS283602A0 (ja)
CA (1) CA2488738C (ja)
WO (1) WO2003105089A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009004527A2 (en) * 2007-07-03 2009-01-08 Koninklijke Philips Electronics N.V. Computing a depth map
KR101650702B1 (ko) * 2008-12-19 2016-08-24 코닌클리케 필립스 엔.브이. 이미지들로부터의 깊이 맵들의 생성
CN101873506B (zh) * 2009-04-21 2012-01-25 财团法人工业技术研究院 提供深度信息的影像处理方法及其影像处理系统
CN101867810B (zh) * 2010-04-07 2011-12-14 宁波大学 一种深度视频序列的预处理方法
CN102196292B (zh) * 2011-06-24 2013-03-06 清华大学 基于人机交互生成视频深度图序列的方法及系统
US9533539B2 (en) * 2011-10-20 2017-01-03 GM Global Technology Operations LLC Vehicle suspension system and method of using the same

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262382A (ja) * 1994-03-17 1995-10-13 Fujitsu Ltd 画像処理システムにおける物体認識及び画像補間装置
US6252974B1 (en) * 1995-03-22 2001-06-26 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for depth modelling and providing depth information of moving objects
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
JP2910698B2 (ja) * 1996-10-15 1999-06-23 日本電気株式会社 三次元構造推定方法及び装置
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
WO1999006956A1 (en) * 1997-07-29 1999-02-11 Koninklijke Philips Electronics N.V. Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system
JP4112819B2 (ja) * 2000-05-11 2008-07-02 株式会社東芝 物体領域情報生成装置及び物体領域情報記述プログラム
US20030206652A1 (en) * 2000-06-28 2003-11-06 David Nister Depth map creation through hypothesis blending in a bayesian framework
CA2418800A1 (en) 2000-08-09 2002-02-14 Dynamic Digital Depth Research Pty Ltd. Image conversion and encoding techniques
US6795808B1 (en) * 2000-10-30 2004-09-21 Koninklijke Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and charges external database with relevant data

Also Published As

Publication number Publication date
WO2003105089A1 (en) 2003-12-18
CA2488738C (en) 2016-10-25
EP2146319A1 (en) 2010-01-20
CN1669053A (zh) 2005-09-14
JP2005529417A (ja) 2005-09-29
AUPS283602A0 (en) 2002-06-27
EP2146319B1 (en) 2017-08-16
EP1514238A1 (en) 2005-03-16
CN1669053B (zh) 2013-11-06
CA2488738A1 (en) 2003-12-18
EP1514238A4 (en) 2008-04-02

Similar Documents

Publication Publication Date Title
US7489812B2 (en) Conversion and encoding techniques
Torr et al. Maintaining multiple motion model hypotheses over many views to recover matching and structure
EP2291825B1 (en) System and method for depth extraction of images with forward and backward depth prediction
RU2382406C1 (ru) Способ улучшения карты диспарантности и устройство для реализации способа
KR102380862B1 (ko) 영상 처리 방법 및 장치
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
WO2007052191A2 (en) Filling in depth results
Moustakas et al. Stereoscopic video generation based on efficient layered structure and motion estimation from a monoscopic image sequence
CN112418288A (zh) 一种基于gms和运动检测的动态视觉slam方法
CN113888458A (zh) 用于对象检测的方法和系统
Yuan et al. 3D reconstruction of background and objects moving on ground plane viewed from a moving camera
CN111914913B (zh) 一种新型立体匹配优化方法
KR20080047673A (ko) 입체영상 변환 장치 및 그 방법
KR101125061B1 (ko) Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
JP4634142B2 (ja) 改善された変換および符号化技法
KR20150097251A (ko) 다중 영상간 대응점을 이용한 카메라 정렬 방법
JP5200042B2 (ja) 視差推定装置およびそのプログラム
Zenati et al. Dense stereo matching with application to augmented reality
Um et al. Three-dimensional scene reconstruction using multiview images and depth camera
JP4578653B2 (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
Xiu et al. An improved depth map estimation algorithm for view synthesis and multiview video coding
KR20050019124A (ko) 개선된 변환 및 부호화 기술
Turetken et al. Temporally consistent layer depth ordering via pixel voting for pseudo 3D representation
KR20190072987A (ko) 레이아웃 정보를 이용한 깊이 영상 후처리 방법
KR102438853B1 (ko) 평면 정보를 활용한 깊이 영상 추정 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090901

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090908

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090929

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091102

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100423

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100506

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100526

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100625

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101118

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees