JP2006516062A - ディジタル画像の奥行き順序付けを行う方法及び装置 - Google Patents
ディジタル画像の奥行き順序付けを行う方法及び装置 Download PDFInfo
- Publication number
- JP2006516062A JP2006516062A JP2006500274A JP2006500274A JP2006516062A JP 2006516062 A JP2006516062 A JP 2006516062A JP 2006500274 A JP2006500274 A JP 2006500274A JP 2006500274 A JP2006500274 A JP 2006500274A JP 2006516062 A JP2006516062 A JP 2006516062A
- Authority
- JP
- Japan
- Prior art keywords
- image
- segment
- depth
- ordering
- portions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/543—Motion estimation other than block-based using regions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
1つ又は複数のディジタル画像の部分の奥行きを相対化させる方法において、ディジタル画像はセグメンテーションによって正則化され、画像の画素の少なくとも部分が各々のセグメントに割り当てられる。連続した画像についてのセグメントの相対的な動きは画像マッチングによって推定される。セグメントの画像特徴は、セグメントのエッジが見つけられ、画素がエッジに割り当てられ、2重セグメントが規定される2重セグメンテーションによって正則化される。連続した画像についての2重セグメントの相対的な動きは、画像セグメントの相対的な奥行き順序を判定するために画像セグメント・マッチングによって推定される。
Description
本発明は、一般的に、ビデオ処理及び画像処理の技術分野に関し、特に、動き推定に基づいた、ビデオ・シーケンスのフレーム内の奥行き順序付けに関し、それを特に参照して説明することとする。
種々のビデオ・シーケンス処理アプリケーションの場合、画像の部分の動きすなわち奥行きの順序を見つける必要がある。そのようなアプリケーションは、例えば、スキャン・レートのアップコンバージョン、MPEG符号化や、動きベースの奥行き推定を有し、これらのアプリケーションの多くは計算量上の単純性を必要とする。動き推定の公知の方法はマッチング手法に基づいている。そのような手法では、各ビデオ・フレームはセグメントにパーティション化される。更に、パーティション(又はセグメント)の要素毎に、現行フレームにおけるセグメントのシフトされたバージョンと、後続フレームにおけるその位置との間の、非類似性の量すなわち「マッチ・ペナルティ」の量が最小になるように動きベクトルが推定される。
特に、動き推定と、動きベースの奥行き推定との公知の方法では、動きベクトルΔx=(Δx,Δy)すなわち奥行きdが、候補動き値すなわち候補奥行き値の限定群にわたってマッチ・エラーEを最小にした結果、画像の一部に割り当てられる。候補値はEのグラフを奥行きdすなわち動きベクトルΔxの関数として十分に密にサンプリングすることとする。更に、このグラフは、十分に目立った大域最小値を有することとする。
基本アルゴリズムが画像を正方形のブロックにパーティション化する一方、(最近の)研究は、いわゆるセグメントである、任意の幾何配置を備えている領域に画像をパーティション化することに充てられており、セグメント境界は、光度の不連続性又は色の不連続性に合わせられる。このようにして、セグメントは、情景における物体の部分であるものとして解釈することが可能である。このことは、動きフィールドすなわち奥行きフィールドの解像度と精度とを向上させることが可能である。
ビデオ・シーケンスからのセグメント・ベースの奥行き再構築の通常の方法では、2つの処理工程が、セグメント毎の動きベクトルを見つけた後で行われる。第1の工程はカメラの校正であり、それによって、カメラの位置とカメラの向きとをもたらす。第2の工程は、2つの後続フレームからの奥行き推定であり、これによって画素毎の奥行き推定がもたらされる。これらの処理工程は集約し得る。
この奥行き推定アルゴリズムでは、カメラ校正は仮現運動を奥行き値に変換することを可能にするうえで必要である。カメラ校正は、カメラの内部的な幾何特性及び光学特性と、特定の世界座標系に対するカメラ・フレームの3次元の位置及び向きに関する。カメラ校正は、しかし、不安定な手順である。更に、動きをカメラのパラメータや奥行きに変換するうえでの現行技術は、情景が静的である場合にのみ行うことが可能である。よって、公知の奥行き推定アルゴリズムは、情景における奥行きの差があまりないか、物体が情景の残りに対してそれ自体の動きを有する場合には使い道が限られる。
更に、領域の動きをその境界の動きと比較することによって奥行きの順序を導き出し得るということが分かっている。最近の手法はこのセグメンテーション及び奥行き順序付けの課題を同時に解決しようとした。画像における領域及びエッジを位置特定し、エッジを群にパーティション化し、領域にラベルを付ける、1つのそのような手法を記載したものがある(非特許文献1参照。)。更に、色セグメンテーション及び動き推定、動き割り当て、動き精緻化、並びに領域リンクである、別のそのような手法を記載したものもある(非特許文献2参照。)。
P.Smith,T.Drummond,R.Cipolla,Proceedings of the British Machine Vision Conference,Vol.2,Pages 369−378,September 1999 D.Tweed and A.Calway,Proceedings of the British Machine Vision Conference,pages 322−331,September 2000
P.Smith,T.Drummond,R.Cipolla,Proceedings of the British Machine Vision Conference,Vol.2,Pages 369−378,September 1999 D.Tweed and A.Calway,Proceedings of the British Machine Vision Conference,pages 322−331,September 2000
しかし、上記2つの手法の適用可能性は限定されているが、それは、第1の手法では2つの奥行きレイヤしか実現可能でなく、何れの手法でも相当に複雑な大極的最適化が用いられているからである。
本発明は、局所で動作し、領域対間のマッチング・エラーを比較して奥行き順序付けを得るという点で異なる。本発明は、動きベクトルのみに基づくものであり、それはカメラ校正を必要とせず、何れかの数の奥行きレイヤについて有効である。更に、閾値は一切導入されない。
本発明の一特徴によれば、2つ以上のディジタル画像に基づいて1つ又は複数の画像の部分の奥行き順序付けを行う装置を備える。ディジタル画像を受信する入力部が備えられている。第1正則化手段は、セグメンテーションによって、画素を有するディジタル画像の画像特徴を正則化するよう備えられており、画像の画素の少なくとも部分を各々のセグメントに割り当てる割り当て手段を有する。第1推定手段は、画像マッチングによって連続した画像のセグメントの相対的な動きを推定するよう備えられている。第2正則化手段は、2重セグメンテーションによってセグメントの画像特徴を正則化するよう備えられており、セグメントのエッジを見つける手段、画素をエッジに割り当てる割り当て手段、及び2重セグメントを規定する手段を有する。第2推定手段は、画像セグメント・マッチングによって連続した画像の2重セグメントの相対的な動きを推定して画像のセグメントの相対的な奥行き順序を判定するよう備えられている。出力部は、画像の部分の相対的な奥行き順序付けを出力するよう備えられている。
本発明の別の特徴によれば、2つ以上のディジタル画像を用いて1つ又は複数の画像の部分の奥行き順序付けを行う方法を備える。画素を有するディジタル画像の画像特徴は、セグメンテーションによって正則化され、画像の画素の少なくとも部分が各々のセグメントに割り当てられる。連続した画像のセグメントの相対的な動きは、画像マッチングによって推定される。セグメントの画像特徴は、セグメントのエッジを見つける工程、画素をエッジに割り当てる工程及び2重セグメントを規定する工程を有する2重セグメンテーションによって正則化される。連続した画像の2重セグメントの相対的な動きは、画像の部分の相対的な奥行き順序を判定するよう画像セグメント・マッチングによって推定される。
本発明の1つの効果は、ビデオ・シーケンスにおける連続したフレームからのディジタル画像の相対的な奥行き順序が判定される方法を改良することにある。
本発明の別の効果は、カメラ校正を必要とすることなく相対的な奥行き順序を判定することができることにある。
本発明の更に別の効果は、ディジタル画像における3つ以上の奥行きレイヤについて相対的な奥行き順序を判定することができることにある。
本発明の更に別の効果は、動きベクトル推定の精度を向上させることにある。
本発明の数多くの別の効果及び便益は、好適実施例の以下の詳細説明を検討することによって当業者に明らかとなる。
本発明は、種々の、構成部分と構成部分の配置とにおける形態をとる場合があり、種々の、工程と工程の配置とにおける形態をとる場合がある。添付図面は、好適実施例を示す目的のものに過ぎず、本発明を限定するものとして解されるものでない。
以下の好適実施例では、ディジタル画像の部分の奥行き順序関係を判定する方法を説明する。この画像はビデオ・ストリームからの後続画像であり得るが、奥行き順序付け方法はそれに限定されない。
図1を参照すれば、方法10は、フレーム内の画像20の部分の奥行き順序付けを行う。方法10の第1工程30は、フレームにおける画像20のセグメンテーションである。第2工程40は、ビデオ・ストリームからの後続セグメンテーション画像におけるマッチング部分を判定する。第3工程50は、画像20の2重セグメンテーションである。第4工程60は、画像セグメント・マッチングによって画像の2重セグメントの動きを判定する。出力70は、画像20の部分の相対的な奥行き順序である。
画像20は、画像の画素を有し、2つの2次元のディジタル画像I1(x,y)及びI2(x,y)として規定されるディジタル画像であり、x及びyは、画像の個々の画素を示す座標である。方法10は、M=Δx(x,y)とM=Δx(x,y)との関数対の計算を有する。Mは、画像I1における全ての画素が:
I2(x,y) = I1(x+Δx(x,y),y+Δy(x,y))
の公式によって画像I2における画素にマッピングされる。Mの構成は、同様な動きを有する画素群について一定である関数としてMを再定義することによって修正される。
I2(x,y) = I1(x+Δx(x,y),y+Δy(x,y))
の公式によって画像I2における画素にマッピングされる。Mの構成は、同様な動きを有する画素群について一定である関数としてMを再定義することによって修正される。
Mが一定とされる画素の集まりは、同様な動きを有すると考えられている画素を有する。そのような集まりを見つけるよう、画像15はセグメンテーション工程30によってセグメントに分割される。画像I1はよって、各々のセグメントを規定する境界によって囲まれる画素を有するセグメントに分割される。画像のセグメンテーションは、画像における画素毎に、有限のセグメントの群のうちの1つへのメンバーシップを判定することに相当し、その場合、セグメントは画素の連結された集まりである。画像セグメンテーション方法は、一般的に、特徴ベースの方法と領域ベースの方法とに分割することが可能である。奥行き順序付け方法10に関しては、画像セグメンテーションの種類が、最低限、動きの不連続性を識別することとする。動きの不連続性と色の不連続性は一致することとし、そのことは、セグメンテーション・アルゴリズムが好ましくはセグメント境界を色境界におくということを意味する。しかし、このアルゴリズムはセグメント境界を別の場所におく場合もある。これは画像セグメンテーションの主要目的の1つであるので、色ベースの画像セグメンテーション・アルゴリズムの特定の選択は、本願の奥行き順序付け方法には不可欠でない。図2は、色境界セグメンテーションを経たドール・ハウス・シーケンスからのフレームを示す。
方法10の第2工程40は、画像マッチングすなわちセグメント・ベースの動き推定である。特に好適実施例については、第2工程40は、画像I1と画像I2との間のセグメントについての変位関数Mの判定を有し、その場合、セグメントに一致してMをもたらす、画像I2におけるセグメントの投影を得る必要がある。これは、セグメントとのマッチングについていくつかの、画像I2の考えられるマッチング候補を選定し、候補毎にマッチング基準を計算し、更に、最善のマッチング結果を備えている候補を選定する。マッチング基準は、第1画像のセグメントが第2画像における投影とマッチングするという確実性の尺度である。候補投影のどれがセグメントと最もよくマッチングしているかを判定するよう、マッチング基準が投影毎に計算される。マッチング基準はディジタル撮像処理において用いられ、マッチング・エラー又はマッチング・ペナルティの関数を最小にするものとしてその実施形態において分かっている。マッチング関数を最小にすることによるマッチングのそのような関数及び方法は公知である。
よって、セグメントと候補動きベクトルとによって、次の画像におけるセグメントの画素の位置が予測される。よって、第2工程30では、予測された画素色と、第2画像においてみられる実際の色との比較が行われる。予測された色と実際の色との間の差は、集計され、マッチ・ペナルティ又は「SADエラー」と呼ばれている(SADは絶対差の和の頭字語である。)。最後に、最小のマッチ・ペナルティを有する候補動きベクトルが各セグメントに割り当てられる。このことを効率的に行うよう、候補動きベクトルの賢明な選択(例えば、隣接するセグメントの最適動きベクトル)が好ましくは行われるが、この特徴は本発明に不可欠でない。
奥行き順序付け方法10における第3工程50は、画像毎の2重セグメンテーションの規定である。前述のように、画像のセグメンテーションは、画像における画素毎に、有限なセグメント群のうちの1つへのメンバーシップを判定することに相当し、その場合、セグメントは画素の連結された集まりである。2重セグメンテーションの特に効果的な方法は、いわゆる「擬似セグメンテーション」方法である。擬似セグメンテーション方法では、セグメントのいわゆる「シード」が、画素の少なくとも部分がシードに割り当てられるように距離変換によって生成される。これによって、計算費用がかなり低減され、計算速度がかなり増加される。擬似セグメントはよって、後続する画像におけるセグメントのマッチングに用いることが可能である。
2重セグメンテーション工程50は、セグメントのエッジを見つける工程と画素をセグメントに割り当てる工程との2つの構成部分を有する。よって、元のセグメンテーションに基づいて、セグメント対(Si,Sj)毎に、全てのエッジ画素、すなわち、p∈Siであり、q∈Siであるように∃q∈N4(p)である画素p及び、p∈Sjであり、q∈Sjであるように∃q∈N4(p)である画素pが数eijによってラベルが付けられ、その場合、N4はpの4−近傍を表す。2重セグメントSijが次に作成され、その場合、シードはエッジ画素eijに相当する。シードはシード画素を有し、シード画素は、境界がくっきりとした部分に最も近い、画像の画素である。シードは、ディジタル画像の画素アレイ内の境界部分の近似を形成する。シードは画素アレイ内におさまるので、後続する計算を容易に行うことが可能である。シード画素は全て2つのセグメント間の検知境界に沿って規定され、それによって2画素の幅の2重鎖をもたらす。両側とも同じシードの部分である、境界に沿ったシード画素の鎖は、シードとしてみなされ、一意の識別子によって示される。エッジ検知の結果、シード画素は本質的には鎖を形成する。シード、特に、単一の画素よりも大きな幅を有するシード、は任意の形状のエッジ画素クラスタでもあり得る。距離変換は、画素(x,y)毎に、最も近いシード点までの最短距離d(x,y)をもたらす。ユークリッド距離、「シティー・ブロック」距離や「チェスボード」距離などの何れかの適切な距離定義を用い得る。画素毎に最も近いシード点までの距離を計算する方法は公知であり、方法10を実施するうえで何れかの適切な方法を用い得る。
好適実施例において用いられるアルゴリズムは、画像I(x,y)における画素全部に及ぶ2つのパスに基づいており、それによって、最も近いシードまでの距離を示すd(x,y)の値をもたらす。d(x,y)の値は初期化される。第1パスでは、画像Iの左上から右下まで、値d(x,y)はそれ自体とそれに隣接するもの各々とのうちの最小に、その隣接するものに至る距離を加えたものに等しく設定される。第2パスでは、画素が画像Iの右下から左上まで走査される一方で同様な手順をたどる。これらの2つのパスの後、全てのd(x,y)は、最も近いシード点までの最も近い距離を表す正確な値を有する。
d(x,y)距離アレイが正確な値によって充填される2つのパスの間、アイテム・バッファb(x,y)は、画素(x,y)毎に最も近いシードの識別によって更新される。距離変換の後、アイテム・バッファb(x,y)は画素(x,y)毎に最も近いシードに関連した値を有する。これによってディジタル画像がセグメンテーションされ、セグメントは同一値b(x,y)を備えている画素(x,y)によって形成される。よって、エッジの両側までのセグメント部分が2重セグメントを形成する。この特徴は、ドール・ハウス・シーケンスからのフレームの一部分を特徴として有している図2及び図3において最もよく分かる。これらの図にはアーチを表している。元のセグメンテーションである図2では、アーチは、エッジによって隔てられている、黒色セグメントと灰色セグメントとを有する。図3では、部分的に黒色の部分にあり、部分的に灰色の部分にある2重セグメンテーションが存在しており、元のセグメンテーションにおける何れかの別のエッジよりも、元のセグメンテーションにおける2つの部分の間のエッジに近い画素を有する。
方法10における第4工程60は、2つの候補について2重セグメント毎にマッチ・ペナルティを計算するというものである。元のセグメンテーションの各境界は2重セグメンテーションにおけるセグメントをもたらす。その場合、2重セグメンテーションが存在するので、画像マッチングがもう一度行われる。しかし、この工程において当該処理をより速くより効率的にするよう、境界毎の2つの候補のみ、すなわち、境界の両側にあるセグメントの最適な動きベクトル、が用いられる。これらは、マッチ・ペナルティを最小にする動きベクトルである。
よって、好適実施例では、セグメントSijの2つの候補は、元のセグメントSi及びSjの2つ以上の画像間又は2つ以上の画像フレーム間の最適な動きベクトルである。相当するマッチ・ペナルティは、Mi及びMjと呼ばれる。マッチ・ペナルティが判定された後、どのセグメントがより近いものであるか、すなわち出力70が判定される。この作業は、MiをMjと比較することによって実現される。MiがMjよりも少ない場合、Siがより近いセグメントである。よって、正確な判定が行われた可能性は、差異Mi−Mjによって表すことが可能である。
この改良された奥行き順序付け方法10が機能する理由を説明するよう、エッジは、セグメンテーションの定義によってセグメント内のテクスチャに対する比較的に大きな色コントラストによって特徴付けられる。エッジ(すなわち色コントラスト)は、より近いセグメントと同じ動きを有する。すなわち、エッジはそのセグメントに属する。より遠いセグメントの場合、画素は別のセグメントの下にあり、エッジの動きはセグメントの動きに関係しない。マッチ・ペナルティは色コントラストに影響されやすい。よって、それは、より近いセグメントの動きに相当する動きベクトルの場合に最小となる。
図4及び図5は、わずかにシフトされたカメラ位置でのディオニシオス・シーケンスのフレーム対の部分の奥行き順序付け方法の結果を示す。奥行きコントラストは、図5では黒色エッジ/白色エッジとして符号化され、明るい部分は上側であり、暗い部分は下側である。コントラストのサイズは、マッチ・ペナルティにおける差、すなわち奥行き順序付けにおける信頼度を示す。フォアグラウンド及びバックグランドは適切に順序付けされているということが分かり得る。
本発明の別の実施例として、2重セグメンテーションについて完全な画像マッチング(又は動き推定)を行い、元のセグメントについて限定数の候補のみ(例えば、セグメントを囲むエッジ全ての最適な動きベクトル)を検査することが考えられる。
奥行き順序付け方法10の効果の1つは、余分な計算費用が比較的小さいということを有する。2重セグメンテーションは、ディジタル画像におよぶ2つのパスの処理によって実施することが可能であり、セグメントについて2つの候補動きベクトルしか評価しなくてよいものである距離変換を有する。このことは、完全な2重セグメントについてではなく、エッジ周辺の小領域(例えば、4画素の幅)においてのみマッチングすることによってなお費用がかからないようにすることが可能である。
セグメントの奥行き順序は、RANSACベースのカメラ校正アルゴリズムにおいて用いる場合もあり、導き出される奥行き順序と不整合のパラメータ予測は廃棄し得る。
上記工程を行うコンピュータ・プログラム・コード部分を有するコンピュータ・プログラムは、ハード・ディスク若しくはフロッピー(登録商標)・ディスク又はCR−ROMなどの適切な情報担体上に記憶し得るか、コンピュータのメモリ部に記憶し得る。このコンピュータ・プログラムは、専用ハードウェア又は再構成可能なハードウェアにおいて直接実施される場合もある。
図6を参照すれば、ディジタル画像の奥行き順序付けを行う装置100は、上記方法によってディジタル画像の部分の奥行き順序付けを行う処理装置120を有する。処理装置120は、画像のセグメンテーションを行う第1正則化構成部分130、セグメントの動きを推定する第1画像マッチング構成部分140、画像の2重セグメンテーションを行う第2正則化構成部分150、及び第2画像マッチング構成部分160を有する。処理装置120は、それによってディジタル画像が受信され、処理装置120に転送されるその入力部110と接続される。処理装置120は、更に、ディジタル画像の部分の結果の相対的な奥行き順序が出力される出力部170に接続される。装置100は、3次元のテレビジョン・プロダクトなどの表示装置200が有し得る。
本発明は、好適実施例を参照しながら説明している。明らかに、修正及び改変を他者が上記の詳細説明を検討し、理解することによって思いつくことになる。本特許請求の範囲記載の範囲又はその同等のものの範囲内に収まっている限りそのような修正及び改変を全て有するものとして本発明を解することとするということが意図されている。
Claims (15)
- 1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置であって:
該ディジタル画像を受信する入力部;及び
セグメンテーションによって、画素を有する該ディジタル画像の画像特徴を正則化する第1正則化手段を備え、該第1正則化手段は、該画像の該画素の少なくとも部分を各々のセグメントに割り当てる割り当て手段を有し;
更に、画像マッチングによって連続した画像について該セグメントの相対的な動きを推定する第1推定手段;及び
2重セグメンテーションによって該セグメントの画像特徴を正則化する第2正則化手段を備え、該第2正則化手段は、該セグメントのエッジを見つける手段、画素を該エッジに割り当てる割り当て手段、及び2重セグメントを作成する手段を有し;
更に、画像セグメント・マッチングによって連続した画像について該2重セグメントの相対的な動きを推定して画像セグメントの相対的な奥行き順序を判定する第2推定手段;及び
該画像の部分の相対的な奥行き順序付けを出力する出力部を備えることを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置。 - 請求項1記載の、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置であって、該ディジタル画像が、2次元のビデオ・シーケンスのフレームを有することを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置。
- 請求項1記載の、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置であって、該第1推定手段が、
有限の候補値の群を規定する規定手段を有し、候補値は2つ以上の画像の画像特徴間の考えられるマッチングの候補を表し;
該第1推定手段が更に、候補値を評価するマッチング・ペナルティ関数を確立する確立手段;及び
該マッチング・ペナルティ関数の該評価の結果に基づいて候補値を選択する選択手段を有することを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置。 - 請求項1記載の、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置であって、該2重セグメントは、2つの隣接するセグメントの境界に沿った画素をシード画素とし、残りの画素の部分を、距離変換アルゴリズムを用いてシードの1つに割り当てることを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置。
- 請求項1記載の、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置であって、該第2推定手段は、
該2重セグメントに最適な動きベクトルを算出する算出手段;
該2重セグメントのマッチ・ペナルティを計算する計算手段;及び
該最適な動きベクトルを比較することによってより近いセグメントを選択する選択手段を有することを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置。 - 表示装置であって、請求項1記載の1つ又は複数のディジタル画像の部分の奥行き順序付けを行う装置を備えることを特徴とする表示装置。
- 1つ又は複数のディジタル画像の部分の相対的な奥行きの順序付けを行う方法であって:
1つ又は複数のディジタル画像を備える工程;及び
セグメンテーションによって、画素を有する該ディジタル画像の画像特徴を正則化する工程を備え、該正則化する工程は、該画像の該画素の少なくとも部分を各々のセグメントに割り当てる工程を有し;
更に、画像マッチングによって連続した画像について該セグメントの相対的な動きを推定する工程;及び
2重セグメンテーションによって該セグメントの画像特徴を更に正則化する工程を備え、該更に正則化する工程は、該セグメントのエッジを見つける工程、画素を該セグメントに割り当てる工程、及び2重セグメントを規定する工程を有し;
更に、画像セグメント・マッチングによって連続した画像について該2重セグメントの境界の相対的な動きを推定して該画像の部分の相対的な奥行き順序を判定する工程を備えることを特徴とする、1つ又は複数のディジタル画像の部分の相対的な奥行きの順序付けを行う方法。 - 請求項7記載の、1つ又は複数のディジタル画像の部分の奥行きの順序付けを行う方法であって、該ディジタル画像が、2次元のビデオ・シーケンスのフレームを有することを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う方法。
- 請求項7記載の、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う方法であって、該セグメントの該相対的な動きを推定する工程が、
有限の候補値の群を規定する工程を有し、候補値は2つ以上の画像の画像特徴間の考えられるマッチングの候補を表し;
該セグメントの該相対的な動きを推定する工程が更に、候補値を評価するマッチング・ペナルティ関数を確立する工程;及び
該マッチング・ペナルティ関数の該評価の結果に基づいて候補値を選択する工程を有することを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う方法。 - 請求項7記載の、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う方法であって、該2重セグメンテーションは擬似セグメンテーションによって達成され、該擬似セグメンテーションでは、隣接するセグメントの対毎に、該セグメントのうちの1つに属する画素と、別のセグメントに属する、該画素に隣接するもののうちの少なくとも1つとを有するシードが規定され、該画像における別の画素の少なくとも部分が、距離が最小のシードに割り当てられることを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う方法。
- 請求項7記載の、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う方法であって、該2重セグメントの該境界の相対的な動きを推定する工程は、
該2重セグメントに最適な動きベクトルを算出する工程;
該2重セグメントのマッチ・ペナルティを計算する工程;及び
該最適な動きベクトルを比較することによってより近いセグメントを選択する工程を有することを特徴とする、1つ又は複数のディジタル画像の部分の奥行き順序付けを行う方法。 - コンピュータ・プログラムであって、請求項7記載の1つ又は複数のディジタル画像の部分の奥行きの順序付けを行う方法をプロセッサが行うことを可能にすることを特徴とするコンピュータ・プログラム。
- 有形の媒体であって、請求項12記載のコンピュータ・プログラムを収容することを特徴とする有形の媒体。
- 専用ハードウェアであって、請求項7記載の1つ又は複数のディジタル画像の部分の奥行きの順序付けを行う方法をプロセッサが行うことを可能にすることを特徴とする専用ハードウェア。
- 再構成可能なハードウェアであって、請求項7記載の1つ又は複数のディジタル画像の部分の奥行きの順序付けを行う方法をプロセッサが行うことを可能にすることを特徴とする再構成可能なハードウェア。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US43821503P | 2003-01-06 | 2003-01-06 | |
PCT/IB2004/000017 WO2004061765A2 (en) | 2003-01-06 | 2004-01-05 | Method and apparatus for depth ordering of digital images |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006516062A true JP2006516062A (ja) | 2006-06-15 |
Family
ID=32713293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006500274A Withdrawn JP2006516062A (ja) | 2003-01-06 | 2004-01-05 | ディジタル画像の奥行き順序付けを行う方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20060165315A1 (ja) |
EP (1) | EP1584068A2 (ja) |
JP (1) | JP2006516062A (ja) |
KR (1) | KR20050090000A (ja) |
CN (1) | CN1723476A (ja) |
WO (1) | WO2004061765A2 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009505550A (ja) * | 2005-08-17 | 2009-02-05 | エヌエックスピー ビー ヴィ | 奥行き抽出のためのビデオ処理方法及び装置 |
US7499586B2 (en) * | 2005-10-04 | 2009-03-03 | Microsoft Corporation | Photographing big things |
US8325220B2 (en) | 2005-12-02 | 2012-12-04 | Koninklijke Philips Electronics N.V. | Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input |
CN101390131B (zh) * | 2006-02-27 | 2013-03-13 | 皇家飞利浦电子股份有限公司 | 呈现输出图像 |
US20080075323A1 (en) * | 2006-09-25 | 2008-03-27 | Nokia Corporation | System and method for distance functionality |
CN102256129B (zh) * | 2007-10-15 | 2013-01-02 | 华为技术有限公司 | 一种确定对应宏块的方法和系统 |
CN101415116B (zh) * | 2007-10-15 | 2011-08-03 | 华为技术有限公司 | 一种确定对应宏块的方法和系统 |
KR100918862B1 (ko) * | 2007-10-19 | 2009-09-28 | 광주과학기술원 | 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체 |
US20090196459A1 (en) * | 2008-02-01 | 2009-08-06 | Perceptron, Inc. | Image manipulation and processing techniques for remote inspection device |
CN101312539B (zh) * | 2008-07-03 | 2010-11-10 | 浙江大学 | 用于三维电视的分级图像深度提取方法 |
CN101631256B (zh) * | 2009-08-13 | 2011-02-09 | 浙江大学 | 用于三维电视系统中2d视频到3d视频的转换方法 |
CN101945288B (zh) * | 2010-10-19 | 2011-12-21 | 浙江理工大学 | 一种基于h.264压缩域图像深度图生成方法 |
CN101969564B (zh) * | 2010-10-29 | 2012-01-11 | 清华大学 | 一种用于三维立体电视的深度视频压缩的上采样方法 |
US9414047B2 (en) * | 2011-08-12 | 2016-08-09 | Telefonaktiebolaget Lm Ericsson (Publ) | Signaling change of camera parameter and/or depth parameter using update message |
US8749548B2 (en) * | 2011-09-01 | 2014-06-10 | Samsung Electronics Co., Ltd. | Display system with image conversion mechanism and method of operation thereof |
CN102622770B (zh) * | 2012-03-21 | 2014-09-03 | 西安交通大学 | 一种2d转3d技术中易于硬件实现的运动向量提取方法 |
CN105809671B (zh) * | 2016-03-02 | 2018-10-16 | 无锡北邮感知技术产业研究院有限公司 | 前景区域标注与深度次序推理的联合学习方法 |
US10339642B2 (en) | 2017-03-30 | 2019-07-02 | Adobe Inc. | Digital image processing through use of an image repository |
US10169549B2 (en) * | 2017-03-30 | 2019-01-01 | Adobe Inc. | Digital image processing including refinement layer, search context data, or DRM |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980702922A (ko) * | 1995-03-22 | 1998-09-05 | 마누엘쿠베로 | 깊이 모델링 및 이동 물체의 깊이 정보 제공방법 및 장치 |
JP4700892B2 (ja) * | 2000-09-07 | 2011-06-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 画像のマッチング |
KR20020064897A (ko) * | 2000-09-07 | 2002-08-10 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 디지털 이미지들의 세그멘테이션 |
-
2004
- 2004-01-05 US US10/541,053 patent/US20060165315A1/en not_active Abandoned
- 2004-01-05 KR KR1020057012676A patent/KR20050090000A/ko not_active Application Discontinuation
- 2004-01-05 JP JP2006500274A patent/JP2006516062A/ja not_active Withdrawn
- 2004-01-05 WO PCT/IB2004/000017 patent/WO2004061765A2/en not_active Application Discontinuation
- 2004-01-05 CN CNA2004800018781A patent/CN1723476A/zh active Pending
- 2004-01-05 EP EP04700144A patent/EP1584068A2/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
CN1723476A (zh) | 2006-01-18 |
KR20050090000A (ko) | 2005-09-09 |
US20060165315A1 (en) | 2006-07-27 |
WO2004061765A2 (en) | 2004-07-22 |
WO2004061765A3 (en) | 2004-09-16 |
EP1584068A2 (en) | 2005-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006516062A (ja) | ディジタル画像の奥行き順序付けを行う方法及び装置 | |
US11341750B2 (en) | Quasi-parametric optical flow estimation | |
KR100843112B1 (ko) | 이미지 매칭 | |
US11455712B2 (en) | Method and apparatus for enhancing stereo vision | |
US9681150B2 (en) | Optical flow determination using pyramidal block matching | |
KR100927734B1 (ko) | 다시점 영상 생성 장치 및 그 방법 | |
US20060098886A1 (en) | Efficient predictive image parameter estimation | |
JP6275719B2 (ja) | ビデオシーケンスの画像の色をサンプル化する方法および色クラスタリングへの適用 | |
US20080144716A1 (en) | Method For Motion Vector Determination | |
JP2006521740A (ja) | 動きベクトル決定方法 | |
JP2004520660A (ja) | 深度マップの計算 | |
Yang et al. | Depth-reliability-based stereo-matching algorithm and its VLSI architecture design | |
JPH09191461A (ja) | ビデオシーケンスの時間的に順次の画像の画素のための計算機による動き推定方法 | |
JP2001307104A (ja) | 動画像のオブジェクト抽出装置 | |
JP2004531012A (ja) | セグメント照合における優先順位付け | |
Subi et al. | Reliable Stereo Matching With Depth Measurement in Video Frames Using FPGA |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070104 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20070611 |