JP4898459B2 - 奥行きマップの生成 - Google Patents
奥行きマップの生成 Download PDFInfo
- Publication number
- JP4898459B2 JP4898459B2 JP2006553726A JP2006553726A JP4898459B2 JP 4898459 B2 JP4898459 B2 JP 4898459B2 JP 2006553726 A JP2006553726 A JP 2006553726A JP 2006553726 A JP2006553726 A JP 2006553726A JP 4898459 B2 JP4898459 B2 JP 4898459B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- value
- cost value
- values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Credit Cards Or The Like (AREA)
- Adornments (AREA)
- Slot Machines And Peripheral Devices (AREA)
Description
・画像に対応する信号を受け取る受領手段と、
・奥行きマップを生成するような奥行きマップ生成ユニット、
とを有する画像処理装置に関する。
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる、
ことを有することにおいて達成される。
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第三のピクセルへの第二の経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについての第二のコスト値を計算し、
・前記コスト値および前記第二のコスト値のうちの最小値を決定し、
・前記最小値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる、
ことを有する。
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有することにおいて達成される。
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有することにおいて達成される。
・第一のピクセルから、画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる、
ことを実行する機能を提供することにおいて達成される。
・画像の第一のピクセル108についてのコスト値が、第一のピクセル108から画像のピクセルの所定のサブセットに属する第二のピクセル110への経路112上に配置されている連結されたピクセルの対114、116および118、120の値の間の差を組み合わせることにより計算される。
・第一のピクセル108に対応する奥行き値130が、前記第一のピクセル108についてのコスト値である定数を割ることによって計算される。
・第一のピクセルは対応するコスト値が比較的小さければ比較的小さな奥行き値を割り当てられる、
・第一のピクセルは対応するコスト値が比較的大きければ比較的大きな奥行き値を割り当てられる。
表1 位置、コスト値および奥行き値の間の関係
ピクセル値の差E(x,y)の計算の第一の例は式(2)で与えられる。
ここでI(x,y)は画像の座標xおよびyをもつピクセルの輝度値であり、−1≦a≦1および−1≦b≦1である。
ここでC(x,y)は画像の座標xおよびyをもつピクセルの色の値である。式(4)では、ピクセル値の差E(x,y)の計算について、3つの異なる色成分R(赤)、G(緑)、B(青)に基づくさらなる代替が与えられる。
|B(x,y)−B(x−a,y−b)|) (4)
任意的に、ピクセル値差信号Eはフィルタ処理をして、所定の閾値に満たないあらゆるピクセル値差をある定数、たとえば0に制限する。
この重み付け因子W(j)は好ましくは、ピクセル対のうちピクセル値差E(x,y)が計算されるほうのピクセルと第一のピクセルとの間の空間的な距離jに関係する。典型的には、この重み付け因子W(j)は空間的距離が大きいと小さくなる。
・画像中の遷移に基づいて個別の入力画像についての奥行きマップを生成する奥行きマップ生成ユニット401、ならびに、
・前記入力画像と、前記奥行きマップ生成ユニット401によって与えられる前記個別の奥行きマップとに基づいてマルチビュー画像をレンダリングするレンダリングユニット406、
を有する。
・図1、2および3のいずれかに関連して説明されているように、第一のピクセルから、画像のピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセルの値の間の差を組み合わせることによって画像の第一のピクセルについてのコスト値を計算するためのコスト値計算ユニット402と、
・コスト値に基づいて第一のピクセルに対応する奥行き値の第一のものを割り当てる奥行き値割り当てユニット404、
とを有する。
D(x′,y′,n)=F(VF) (6)
ここで、D(x′,y′,n)は時刻nにおける画像の座標x′,y′をもつピクセルの奥行き値であり、関数F(j)はコスト値V(x′,y′,n)から奥行き値D(x′,y′,n)への線形または非線形変換である。この関数F(j)は好ましくは、コスト値V(x′,y′,n)に所定の定数をかける簡単なかけ算である:
D(x′,y′,n)=αV(x′,y′,n) (7)
ある特定のピクセルについてのコスト値の計算のために、隣接ピクセルについて計算されたコスト値が提供されることがあることを注意しておくべきだろう。換言すれば、コスト値の計算は好ましくは再帰的に実行されるのである。図6と関連した説明も参照されたい。
・入力画像を表すビデオ信号を受け取る受領ユニット502と、
・図4との関連で述べた、受け取った入力信号に基づいてマルチビュー画像を生成するマルチビュー画像生成ユニット401と、
・前記マルチビュー画像生成ユニット401によって与えられるマルチビュー画像を表示するマルチビューディスプレイ装置506、
とを有する装置の実施形態を概略的に示している。
・その特定のピクセルの特定のコスト値を、その特定のピクセルから画像のピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されているピクセル値の間の差を組み合わせることによって計算し、
・前記の計算された特定のコスト値に基づいてその特定のピクセルに対応するある特定の奥行き値を構築中の奥行きマップに割り当てる、
ことを意味する。
・当該特定ピクセル600の左に位置するピクセル602のコスト値およびこれら2つのピクセルの間のピクセル値差に基づく第一の候補コスト値、
・当該特定ピクセル600の上に位置するピクセル606のコスト値およびこれら2つのピクセルの間のピクセル値差に基づく第二の候補コスト値、
・当該特定ピクセル600の左上に位置するピクセル604のコスト値およびこれら2つのピクセルの間のピクセル値差に基づく第三の候補コスト値、
・当該特定ピクセル600の右上に位置するピクセル608のコスト値およびこれら2つのピクセルの間のピクセル値差に基づく第四の候補コスト値。
Claims (18)
- 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
前記第一のピクセルについてのコスト値が、前記計算手段によって、前記経路上に配置された諸ピクセルの値の差の絶対値のうち所定の閾値よりも大きいものを累積することによって計算されることを特徴とする方法。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
前記第一のピクセルについてのコスト値が、前記計算手段によって、前記経路上に配置されたピクセルの値の差の絶対値と、前記差についてのそれぞれの重み付け因子との積を累積することによって計算されることを特徴とする方法。 - 請求項2記載の方法であって、ある特定のピクセルの値とその隣接ピクセルの値との間の差に関係する前記重み付け因子の第一のものが、前記特定のピクセルと前記第一のピクセルとの間の距離に基づいていることを特徴とする方法。
- 請求項2記載の方法であって、ある特定のピクセルの値とその隣接ピクセルの値との間の差に関係する前記重み付け因子の第二のものが、前記特定のピクセルに対する前記隣接ピクセルの位置に基づいていることを特徴とする方法。
- 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、さらに:
・計算手段によって、前記第一のピクセルから、画像ピクセルの前記所定のサブセットに属する第三のピクセルへの第二の経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについての第二のコスト値を計算し、
・決定手段によって、前記コスト値および前記第二のコスト値のうちの最小値を決定し、
・割り当て手段によって、前記最小値に基づいて前記第一のピクセルに対応する奥行き値の前記第一のものを割り当てる、
ことを有することを特徴とする方法。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
計算手段によって、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算し、
前記第三のコスト値を計算するのを、前記第一のピクセルのコスト値を、前記第三のピクセルから前記第一のピクセルへの第三の経路上に配置されているさらなる諸ピクセルのさらなる値の間の差と組み合わせることによって行うことを含むことを特徴とする方法。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する、コンピュータによって実行される方法であって:
・計算手段によって、第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値または色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・割り当て手段によって、前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
計算手段によって、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算し、
それぞれの画像ピクセルに対応するコスト値が、さらなるピクセルについて計算されているさらなるコスト値に基づいて前記計算手段によって逐次計算され、画像のある第一の行のピクセルについてのコスト値の逐次の計算の第一のスキャン方向が、画像のある第二の行のピクセルについてのコスト値の逐次の計算の第二のスキャン方向とは逆向きであることを特徴とする方法。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有し、
前記第一のピクセルについてのコスト値が、前記計算手段によって、前記経路上に配置された諸ピクセルの値の差の絶対値のうち所定の閾値よりも大きいものを累積することによって計算されることを特徴とするユニット。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有し、
前記第一のピクセルについてのコスト値が、前記計算手段によって、前記経路上に配置されたピクセルの値の差の絶対値と、前記差についてのそれぞれの重み付け因子との積を累積することによって計算されることを特徴とするユニット。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有し、
計算手段が、前記第一のピクセルから、画像ピクセルの前記所定のサブセットに属する第三のピクセルへの第二の経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについての第二のコスト値を計算し、
決定手段が、前記コスト値および前記第二のコスト値のうちの最小値を決定し、
割り当て手段が、前記最小値に基づいて前記第一のピクセルに対応する奥行き値の前記第一のものを割り当てることを特徴とするユニット。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有し、
計算手段が、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算し、
前記第三のコスト値を計算するのを、前記第一のピクセルのコスト値を、前記第三のピクセルから前記第一のピクセルへの第三の経路上に配置されているさらなる諸ピクセルのさらなる値の間の差と組み合わせることによって行うことを特徴とするユニット。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成する奥行きマップ生成ユニットであって:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算する計算手段と、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てる割り当て手段、
とを有し、
計算手段が、前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算し、
それぞれの画像ピクセルに対応するコスト値が、さらなるピクセルについて計算されているさらなるコスト値に基づいて前記計算手段によって逐次計算され、画像のある第一の行のピクセルについてのコスト値の逐次の計算の第一のスキャン方向が、画像のある第二の行のピクセルについてのコスト値の逐次の計算の第二のスキャン方向とは逆向きであることを特徴とするユニット。 - ・画像に対応する信号を受け取る受領手段と、
・請求項8から請求項12のいずれか一項に記載されているように奥行きマップを生成する奥行きマップ生成ユニット、
とを有することを特徴とする画像処理装置。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てることを実行する機能を提供し、
前記第一のピクセルについてのコスト値が、前記経路上に配置された諸ピクセルの値の差の絶対値のうち所定の閾値よりも大きいものを累積することによって計算されることを特徴とするコンピュータプログラム。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当てることを実行する機能を提供し、
前記第一のピクセルについてのコスト値が、前記経路上に配置されたピクセルの値の差の絶対値と、前記差についてのそれぞれの重み付け因子との積を累積することによって計算されることを特徴とするコンピュータプログラム。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
・前記第一のピクセルから、画像ピクセルの前記所定のサブセットに属する第三のピクセルへの第二の経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについての第二のコスト値を計算し、
・前記コスト値および前記第二のコスト値のうちの最小値を決定し、
・前記最小値に基づいて前記第一のピクセルに対応する奥行き値の前記第一のものを割り当てる、
ことを実行する機能を提供することを特徴とするコンピュータプログラム。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
・前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算する、
ことを実行する機能を提供し、
前記第三のコスト値を計算するのを、前記第一のピクセルのコスト値を、前記第三のピクセルから前記第一のピクセルへの第三の経路上に配置されているさらなる諸ピクセルのさらなる値の間の差と組み合わせることによって行うことを含むことを特徴とするコンピュータプログラム。 - 画像の各ピクセルについて観察者への距離を表す奥行き値を含む奥行きマップを生成するための命令を有する、処理手段とメモリとを有するコンピュータ装置によって読み込まれるコンピュータプログラムであって、読み込まれたのちに、前記処理手段に:
・第一のピクセルから当該画像の境界に位置する画像ピクセルの所定のサブセットに属する第二のピクセルへの経路上に配置されている諸ピクセルの輝度値および色値の一方の差の絶対値に基づく値を累積することによって、画像の前記第一のピクセルについてのコスト値を計算し、
・前記コスト値に基づいて前記第一のピクセルに対応する奥行き値の第一のものを割り当て、
・前記第一のピクセルについてのコスト値に基づいてある第三のピクセルについての第三のコスト値を計算する、
ことを実行する機能を提供し、
それぞれの画像ピクセルに対応するコスト値が、さらなるピクセルについて計算されているさらなるコスト値に基づいて逐次計算され、画像のある第一の行のピクセルについてのコスト値の逐次の計算の第一のスキャン方向が、画像のある第二の行のピクセルについてのコスト値の逐次の計算の第二のスキャン方向とは逆向きであることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP04100625.5 | 2004-02-17 | ||
EP04100625 | 2004-02-17 | ||
PCT/IB2005/050482 WO2005083631A2 (en) | 2004-02-17 | 2005-02-07 | Creating a depth map |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007522589A JP2007522589A (ja) | 2007-08-09 |
JP4898459B2 true JP4898459B2 (ja) | 2012-03-14 |
Family
ID=34896072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006553726A Expired - Fee Related JP4898459B2 (ja) | 2004-02-17 | 2005-02-07 | 奥行きマップの生成 |
Country Status (8)
Country | Link |
---|---|
US (1) | US8036451B2 (ja) |
EP (1) | EP1719079B1 (ja) |
JP (1) | JP4898459B2 (ja) |
KR (1) | KR101183863B1 (ja) |
CN (1) | CN100568281C (ja) |
AT (1) | ATE382919T1 (ja) |
DE (1) | DE602005004125T2 (ja) |
WO (2) | WO2005083630A2 (ja) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
WO2008041178A2 (en) | 2006-10-04 | 2008-04-10 | Koninklijke Philips Electronics N.V. | Image enhancement |
US8488868B2 (en) * | 2007-04-03 | 2013-07-16 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
US8213711B2 (en) * | 2007-04-03 | 2012-07-03 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Method and graphical user interface for modifying depth maps |
EP2174293B1 (en) * | 2007-07-03 | 2011-04-27 | Koninklijke Philips Electronics N.V. | Computing a depth map |
KR101367282B1 (ko) * | 2007-12-21 | 2014-03-12 | 삼성전자주식회사 | 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치 |
US8855819B2 (en) * | 2008-10-09 | 2014-10-07 | Samsung Electronics Co., Ltd. | Method and apparatus for simultaneous localization and mapping of robot |
EP2446636A1 (en) | 2009-06-24 | 2012-05-02 | Dolby Laboratories Licensing Corporation | Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data |
TW201119353A (en) | 2009-06-24 | 2011-06-01 | Dolby Lab Licensing Corp | Perceptual depth placement for 3D objects |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
US20110025830A1 (en) | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
US8508580B2 (en) * | 2009-07-31 | 2013-08-13 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene |
TWI398158B (zh) * | 2009-12-01 | 2013-06-01 | Ind Tech Res Inst | 產生立體影像之影像深度的方法 |
US8610758B2 (en) | 2009-12-15 | 2013-12-17 | Himax Technologies Limited | Depth map generation for a video conversion system |
US9426441B2 (en) * | 2010-03-08 | 2016-08-23 | Dolby Laboratories Licensing Corporation | Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning |
US9344701B2 (en) | 2010-07-23 | 2016-05-17 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation |
GB2483285A (en) | 2010-09-03 | 2012-03-07 | Marc Cardle | Relief Model Generation |
US9185388B2 (en) | 2010-11-03 | 2015-11-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
KR101700621B1 (ko) * | 2010-12-15 | 2017-02-01 | 한국전자통신연구원 | 임의의 측정거리에 적용가능한 적응형 초고속 및 고해상도 3차원 영상복원 방법 |
US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US9288476B2 (en) | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US20120236114A1 (en) * | 2011-03-18 | 2012-09-20 | Te-Hao Chang | Depth information generator for generating depth information output by only processing part of received images having different views, and related depth information generating method and depth adjusting apparatus thereof |
EP2697975A1 (en) | 2011-04-15 | 2014-02-19 | Dolby Laboratories Licensing Corporation | Systems and methods for rendering 3d images independent of display size and viewing distance |
JP5355616B2 (ja) * | 2011-04-21 | 2013-11-27 | 株式会社エム・ソフト | 立体視画像生成方法および立体視画像生成システム |
JP5291755B2 (ja) * | 2011-04-21 | 2013-09-18 | 株式会社エム・ソフト | 立体視画像生成方法および立体視画像生成システム |
KR101811637B1 (ko) | 2011-05-02 | 2017-12-26 | 삼성전자주식회사 | 선택적인 픽셀 비닝 장치 및 방법 |
CN102903143A (zh) * | 2011-07-27 | 2013-01-30 | 国际商业机器公司 | 用于将二维图像三维化的方法和系统 |
JP2014504468A (ja) * | 2011-08-18 | 2014-02-20 | ベイジン・ゴランド・テック・カンパニー・リミテッド | 画像運動情報に基づく2dから3dへの変換方法 |
US9471988B2 (en) | 2011-11-02 | 2016-10-18 | Google Inc. | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image |
US9661307B1 (en) | 2011-11-15 | 2017-05-23 | Google Inc. | Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D |
WO2013109192A1 (en) * | 2012-01-18 | 2013-07-25 | Agency For Science, Technology And Research | Method and device for image processing |
US9111350B1 (en) * | 2012-02-10 | 2015-08-18 | Google Inc. | Conversion of monoscopic visual content to stereoscopic 3D |
US8644596B1 (en) | 2012-06-19 | 2014-02-04 | Google Inc. | Conversion of monoscopic visual content using image-depth database |
US9547937B2 (en) | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
EP2747028B1 (en) | 2012-12-18 | 2015-08-19 | Universitat Pompeu Fabra | Method for recovering a relative depth map from a single image or a sequence of still images |
US9299152B2 (en) * | 2012-12-20 | 2016-03-29 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Systems and methods for image depth map generation |
US9674498B1 (en) | 2013-03-15 | 2017-06-06 | Google Inc. | Detecting suitability for converting monoscopic visual content to stereoscopic 3D |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
US9299188B2 (en) | 2013-08-08 | 2016-03-29 | Adobe Systems Incorporated | Automatic geometry and lighting inference for realistic image editing |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
US10764561B1 (en) | 2016-04-04 | 2020-09-01 | Compound Eye Inc | Passive stereo depth sensing |
US10134198B2 (en) | 2016-04-19 | 2018-11-20 | Adobe Systems Incorporated | Image compensation for an occluding direct-view augmented reality system |
US10403045B2 (en) | 2017-08-11 | 2019-09-03 | Adobe Inc. | Photorealistic augmented reality system |
US10422648B2 (en) | 2017-10-17 | 2019-09-24 | AI Incorporated | Methods for finding the perimeter of a place using observed coordinates |
US11393114B1 (en) | 2017-11-08 | 2022-07-19 | AI Incorporated | Method and system for collaborative construction of a map |
US10944957B2 (en) * | 2018-03-22 | 2021-03-09 | Microsoft Technology Licensing, Llc | Active stereo matching for depth applications |
WO2021108626A1 (en) * | 2019-11-27 | 2021-06-03 | Compound Eye Inc. | System and method for correspondence map determination |
US11069071B1 (en) | 2020-01-21 | 2021-07-20 | Compound Eye, Inc. | System and method for egomotion estimation |
US11270467B2 (en) | 2020-01-21 | 2022-03-08 | Compound Eye, Inc. | System and method for camera calibration |
DE102020108898A1 (de) | 2020-03-31 | 2021-09-30 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum betreiben einer fahrzeugkameravorrichtung, fahrzeugkameravorrichtung und fahrzeug |
US11688073B2 (en) | 2020-04-14 | 2023-06-27 | Samsung Electronics Co., Ltd. | Method and system for depth map reconstruction |
US11561102B1 (en) | 2020-04-17 | 2023-01-24 | AI Incorporated | Discovering and plotting the boundary of an enclosure |
US11508077B2 (en) * | 2020-05-18 | 2022-11-22 | Samsung Electronics Co., Ltd. | Method and apparatus with moving object detection |
US11615594B2 (en) * | 2021-01-21 | 2023-03-28 | Samsung Electronics Co., Ltd. | Systems and methods for reconstruction of dense depth maps |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05244435A (ja) * | 1992-02-28 | 1993-09-21 | Fujitsu Ltd | 画像の階層符号化方法および画像符号化装置 |
JPH08287253A (ja) * | 1995-04-11 | 1996-11-01 | N T T Data Tsushin Kk | 物体形状の推定方法および物体形状推定装置 |
JP2001346066A (ja) * | 2000-06-05 | 2001-12-14 | Matsushita Electric Ind Co Ltd | 映像表示装置 |
JP2004522382A (ja) * | 2001-07-23 | 2004-07-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ステレオスコピック画像処理機器および方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW335466B (en) * | 1995-02-28 | 1998-07-01 | Hitachi Ltd | Data processor and shade processor |
JP2004520660A (ja) * | 2001-05-23 | 2004-07-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 深度マップの計算 |
US7024054B2 (en) * | 2002-09-27 | 2006-04-04 | Eastman Kodak Company | Method and system for generating a foreground mask for a composite image |
AU2003292490A1 (en) * | 2003-01-17 | 2004-08-13 | Koninklijke Philips Electronics N.V. | Full depth map acquisition |
-
2005
- 2005-02-07 JP JP2006553726A patent/JP4898459B2/ja not_active Expired - Fee Related
- 2005-02-07 US US10/597,976 patent/US8036451B2/en not_active Expired - Fee Related
- 2005-02-07 CN CNB200580005096XA patent/CN100568281C/zh not_active Expired - Fee Related
- 2005-02-07 WO PCT/IB2005/050481 patent/WO2005083630A2/en active Application Filing
- 2005-02-07 WO PCT/IB2005/050482 patent/WO2005083631A2/en active IP Right Grant
- 2005-02-07 DE DE602005004125T patent/DE602005004125T2/de active Active
- 2005-02-07 AT AT05702909T patent/ATE382919T1/de not_active IP Right Cessation
- 2005-02-07 EP EP05702909A patent/EP1719079B1/en not_active Not-in-force
- 2005-02-07 KR KR1020067016549A patent/KR101183863B1/ko not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05244435A (ja) * | 1992-02-28 | 1993-09-21 | Fujitsu Ltd | 画像の階層符号化方法および画像符号化装置 |
JPH08287253A (ja) * | 1995-04-11 | 1996-11-01 | N T T Data Tsushin Kk | 物体形状の推定方法および物体形状推定装置 |
JP2001346066A (ja) * | 2000-06-05 | 2001-12-14 | Matsushita Electric Ind Co Ltd | 映像表示装置 |
JP2004522382A (ja) * | 2001-07-23 | 2004-07-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ステレオスコピック画像処理機器および方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20060124704A (ko) | 2006-12-05 |
US20070146232A1 (en) | 2007-06-28 |
DE602005004125T2 (de) | 2008-12-18 |
EP1719079B1 (en) | 2008-01-02 |
WO2005083630A3 (en) | 2006-03-09 |
WO2005083630A2 (en) | 2005-09-09 |
ATE382919T1 (de) | 2008-01-15 |
US8036451B2 (en) | 2011-10-11 |
CN1922631A (zh) | 2007-02-28 |
JP2007522589A (ja) | 2007-08-09 |
WO2005083631A3 (en) | 2006-02-23 |
WO2005083631A2 (en) | 2005-09-09 |
DE602005004125D1 (de) | 2008-02-14 |
EP1719079A2 (en) | 2006-11-08 |
CN100568281C (zh) | 2009-12-09 |
KR101183863B1 (ko) | 2012-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4898459B2 (ja) | 奥行きマップの生成 | |
KR101168384B1 (ko) | 깊이 맵을 생성하는 방법, 깊이 맵 생성 유닛, 이미지 처리 장치, 및 컴퓨터 프로그램 제품 | |
JP4644669B2 (ja) | マルチビュー画像の生成 | |
US8553972B2 (en) | Apparatus, method and computer-readable medium generating depth map | |
CN101635859B (zh) | 一种实现平面视频转立体视频的方法和装置 | |
US9030469B2 (en) | Method for generating depth maps from monocular images and systems using the same | |
JP4762994B2 (ja) | 視差マップ | |
JP2007520822A (ja) | 奥行きマップの生成 | |
KR101377733B1 (ko) | 업-스케일링 | |
WO2006075304A2 (en) | Depth perception | |
US20120050485A1 (en) | Method and apparatus for generating a stereoscopic image | |
JP4862004B2 (ja) | 奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラム | |
JP2021111859A (ja) | 立体画像生成装置及びそのプログラム | |
KR101953130B1 (ko) | 홀 렌더링을 사용하는 멀티-뷰 영상 처리 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110629 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111129 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111226 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |