JP2010136371A - 深さ推定装置および方法、および3dビデオ変換装置および方法 - Google Patents

深さ推定装置および方法、および3dビデオ変換装置および方法 Download PDF

Info

Publication number
JP2010136371A
JP2010136371A JP2009273702A JP2009273702A JP2010136371A JP 2010136371 A JP2010136371 A JP 2010136371A JP 2009273702 A JP2009273702 A JP 2009273702A JP 2009273702 A JP2009273702 A JP 2009273702A JP 2010136371 A JP2010136371 A JP 2010136371A
Authority
JP
Japan
Prior art keywords
depth
input video
depth value
value
characteristic information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009273702A
Other languages
English (en)
Other versions
JP5579422B2 (ja
Inventor
Aron Baik
アロン 白
Yong Ju Jung
用 柱 鄭
Ji Won Kim
智 元 金
Du-Sik Park
斗 植 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2010136371A publication Critical patent/JP2010136371A/ja
Application granted granted Critical
Publication of JP5579422B2 publication Critical patent/JP5579422B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 深さ情報が含まれていない2Dの単眼映像を3Dビデオ(Stereoscopic Video)に変換するときに、必要な深さ情報を提供することができる深さ推定装置および方法と、この深さ推定装置および方法を用いた3Dビデオ変換装置および方法を開示する。
【解決手段】 入力映像に対する特性(feature)情報を抽出し、抽出された特性情報を用いて入力映像の各部分の奥行き方向の成分である深さ(depth)値を推定する深さ推定装置を開示する。
【選択図】 図1

Description

本発明は、深さ推定装置および方法と3Dビデオ変換装置および方法に関し、より詳細には、深さ情報が含まれていない2Dの単眼映像を3Dビデオ(Stereoscopic Video)に変換するときに、必要な深さ情報を提供することができる深さ推定装置および方法と深さ推定装置および方法を用いた3Dビデオ変換装置および方法に関する。
最近、3Dビデオへの関心が増幅するに伴い、3Dビデオに関する研究が活発に進められている。
一般的に、人間は、両目間の視差によって立体感を最も大きく感じるものと知られている。したがって、3Dビデオは、人間のこのような特性を用いて実現することができる。例えば、特定の被写体を、視聴者の左目を用いて見させる左目映像と視聴者の右目を用いて見させる右目映像とに区別し、左目映像と右目映像を同時に表示することによって視聴者が特定の被写体を3Dビデオとして見ることができるようにする。結局、3Dビデオは、左目映像と右目映像とに区分された両眼(binocular)映像を製作し、これを表示することによって実現することができる。
深さ情報がない単眼(monocular)2Dビデオを3Dビデオに変換するためには、2Dビデオに深さ情報を付加してレンダリング(rendering)する作業が必要となる。
入力映像に対する少なくとも1つの特性(feature)を考慮して入力映像を3Dビデオに変換するのに必要な深さを推定する装置および方法と、これを用いて入力映像を3Dビデオに変換する装置および方法を提供することによって、2Dビデオが3Dビデオに変換されるようにすることを目的とする。
1つ以上の実施形態は、深さ情報が提供されなくても、2Dビデオのための深さ情報(depth information)を生成するレンダリングプロセス(rendering process)を介して実行される深さ測定を有し、深さ測定および/または単眼2Dビデオ(monocular 2D video)を3Dビデオ(3D video)に変換する装置およびシステムを提供する。
1つ以上の実施形態は、入力映像(input video)から入力映像の特徴を示す少なくとも1つの特性情報(feature information)を抽出する特性情報抽出部(feature information extraction unit)と、前記特性情報抽出部で抽出された前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定する深さ設定部(depth establishment unit)とを備える深さ推定装置(apparatus for estimatig depth)を提供することができる。なお、ここで、前記特性情報は、前記入力映像のある予め設定された深さ値(pre−established depth values)とは、独立した異なる値である。
1つ以上の実施形態は、入力映像から少なくとも1つの特性情報を抽出する特性情報抽出部と、前記入力映像の部分に対する前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定する深さ設定部と、前記入力映像の前記部分の前記設定された深さ値を用いて前入力映像を3Dビデオにレンダリング(rendering)するレンダリング部とを備える3Dビデオ変換装置を提供する。
1つ以上の実施形態は、入力映像から少なくとも1つの特性情報を抽出するステップと、前記入力映像の部分に対する前記少なくとも1つの特性情報に基づいて前記入力映像の前記部分に対する深さ値を設定するステップとを含む深さ推定方法を提供する。
1つ以上の実施形態は、入力映像の特徴を示す少なくとも1つの特性情報を抽出するステップと、前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を用いて前記入力映像を3Dビデオにレンダリングするステップとを含む3Dビデオ変換方法を提供する。
1つ以上の実施形態は、入力映像から、入力映像の特徴を示す少なくとも1つの特性情報を抽出する抽出部と、前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定する設定部とを備える深さ推定装置を提供する。
1つ以上の実施形態は、入力映像から入力映像の特徴を示す少なくとも1つの特性情報を抽出するステップと、前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定するステップとを含む深さ推定方法を提供する。
入力映像に対する少なくとも1つの特性を考慮して入力映像を3Dビデオに変換するための深さ値を推定する装置および方法と、これを用いて入力映像を3Dビデオに変換する装置および方法を提供することによって、2Dビデオが3Dビデオに変換されるようにすることができる。
1つ以上の実施形態に係る深さ推定装置の構造を示す図である。 1つ以上の実施形態に係る深さ推定装置の構造を示す図である。 1つ以上の実施形態に係る深さ推定装置の構造を示す図である。 1つ以上の実施形態に係る深さ推定装置の構造を示す図である。 1つ以上の実施形態に係る3Dビデオ変換装置の構造を示す図である。 1つ以上の実施形態に係る3Dビデオ変換装置の構造を示す図である。 1つ以上の実施形態に係る3Dビデオ変換装置の構造を示す図である。 1つ以上の実施形態に係る3Dビデオ変換装置の構造を示す図である。 1つ以上の実施形態に係る深さ推定方法を示すフローチャートである。 1つ以上の実施形態に係る深さ推定方法を示すフローチャートである。 1つ以上の実施形態に係る深さ推定方法を示すフローチャートである。 1つ以上の実施形態に係る深さ推定方法を示すフローチャートである。 1つ以上の実施形態に係る3Dビデオ変換方法を示すフローチャートである。 1つ以上の実施形態に係る3Dビデオ変換方法を示すフローチャートである。 1つ以上の実施形態に係る3Dビデオ変換方法を示すフローチャートである。 1つ以上の実施形態に係る3Dビデオ変換方法を示すフローチャートである。
以下、添付の図面を参照しながら、本発明の実施形態について詳しく説明する。
図1は、1つ以上の実施形態に係る深さ推定装置の構造を示す図である。ここで、深さ推定装置120は、例えば、特性情報抽出部121と、深さ設定部122とを備えることができる。ここで、後述する説明全般に渡り、「装置」という用語は、1つのエンクロージャ(enclosure)に制限されたり、または各要素がそれぞれ1つのエンクロージャに実現されることに制限されるものではなく、物理システム(physical system)の要素と同義語として理解されなければならない。むしろ、実施形態により、「装置」は、互いに異なる構成要素を用いて互いに異なるエンクロージャおよび/または装置に分離されて実現されたり、または結合して実現されることができる。他の例として、それぞれの装置/システムまたは方法は、さらに1つ以上のプロセッシングエレメント/装置(processing elements/devices)を介して制御することもでき、または分散ネットワークによって実現することもできる。さらに、追加的かつ代案的な実施形態も同様に可能である。
深さ推定装置120に入力ビデオ110が提供されれば、特性情報抽出部121は、入力ビデオ110に対する少なくとも1つの特性情報を抽出して深さ設定部122に提供する。
1つ以上の実施形態によれば、入力ビデオ110は、深さ情報を有さない単眼映像とすることができる。他の例として、入力ビデオ110は、空間的に交互的なステレオビデオ、時間的に交互的なステレオビデオ、および深さ情報を有する単眼ビデオとすることができる。
また、1つ以上の実施形態によれば、特性情報抽出部121が抽出する特性情報は、映像の特徴を示す情報であり、例えば、境界(edge)情報、カラー(color)情報、輝度(luminance)情報、モーション(motion)情報、および/またはヒストグラム(histogram)情報などを示している。なお、特性情報としては、上記の情報の他の代案例も可能である。また、特性情報は、ビデオのフレームのように1つの映像に対する情報とすることもでき、複数の映像またはフレームに対する情報とすることもでき、ビデオに対する情報とすることもできる。
深さ設定部122は、特性情報抽出部121から提供される少なくとも1つの特性情報に基づいて入力ビデオ110に対する深さ値を設定する。深さ値は、例えば、入力ビデオ110を構成する各部分の奥行き方向の成分の情報である。
深さ推定装置120は、このように、入力ビデオ110の特徴に応じた特性情報に基づいて入力ビデオ110に深さ値を設定することによって、2Dの入力ビデオ110を立体ビデオ(Stereoscopic Video)(以下、「3Dビデオ」とする)に変換することができる。もし、入力ビデオの1つ以上の深さ情報が既に存在すれば、深さ推定部120は、抽出された特性情報に基づいて入力ビデオの1つ以上の画素に対する深さを推定するために、入力ビデオを変換したり修正することができる。少なくとも1つの特性情報は、予め存在したり、または予め設定された1つ以上の画素の深さ値と独立する。ここで、1つ以上の画素に対する深さの測定は、予め存在したり、または予め設定された深さ値および抽出された特性情報すべてに基づいたり、または抽出された特性情報のみに基づくことができる。代案的に、例えば、入力ビデオに対して予め存在したり、予め設定された深さ値が存在しなければ、入力ビデオは、ある事前の深さ情報を有さない単なる2Dビデオとすることができる。これが存在しないために、抽出された少なくとも1つの特性情報は、予め存在したり、予め設定された深さ値から独立的となる。
1つ以上の実施形態によれば、深さ推定装置120は、図1に示された実施形態だけではなく、多様な実施形態で実現することができる。したがって、以下では、図2〜図4を参照しながら、深さ推定装置120の多様な実施形態について詳察する。
図2は、1つ以上の実施形態に係る深さ推定装置の構造を示す図である。ここで、深さ推定装置220は、例えば、特性情報抽出部223と、深さ設定部226とを備えることができる。一実施形態によれば、深さ設定部226は、例えば、深さマップ初期化部(depth map initialization unit)222と、深さ更新部(depth update unit)225とを備えることができる。
深さ推定装置220に入力ビデオ210が提供されれば、深さマップ初期化部222は、入力ビデオ210を構成する予め設定された少なくとも1つの画素(pixel)に対する初期深さ値(initial depth)を設定して深さマップ224に格納する。少なくとも1つの画素は、入力ビデオ210のフレームのように1つの映像に対する情報とすることもでき、入力ビデオ210の複数の映像またはフレームに対する情報とすることもできる。例えば、識別されたオブジェクトに対応する1つのフレームの部分の深さが単純に他のフレームにおける同じオブジェクトに適当されることができる。
1つ以上の実施形態によれば、入力ビデオ210は、単眼ビデオとすることができる。
また、1つ以上の実施形態によれば、深さマップ初期化部222は、入力ビデオ210シーケンス(sequence)の各フレーム(frame)ごとに初期深さ値を設定して深さマップ224に格納することができる。
また、1つ以上の実施形態によれば、深さマップ初期化部222は、初期深さ値を、下記式(1)を用いて設定することができる。
Figure 2010136371
ここで、xとyは入力ビデオ210内(入力ビデオのフレーム内)におけるイメージ座標、すなわち、入力ビデオ210の2次元平面上での位置示す座標を意味し、zは、それぞれの座標の奥行きに応じた深さを示す座標を意味する。このとき、zは、例えば、視点(view point)から入力ビデオ210に表現される被写体の距離に応じて0〜1の間の値とすることができる。例えば、被写体が観察者から遠く離れていれば被写体の深さは深くなり、この場合にz値は1に近い値とすることができる。反対に、被写体が観察者の近くに位置していれば被写体の深さは浅くなり、この場合にz値は0に近い値とすることができる。さらに、Nは、入力ビデオ210を構成するイメージの水平ラインの個数を意味する。
式(1)を詳察すれば、初期深さ値は、入力ビデオ210を構成するイメージのy座標値が依存することが分かる。一般的に、入力ビデオ210に表現される被写体の場合、入力ビデオ210の上端に位置する被写体は、入力ビデオ210の下端に位置する被写体よりも遠い距離に位置している。
したがって、このような特性を用いて入力ビデオ210の上端に位置する被写体を入力ビデオ210の下端に位置する被写体よりも深さを深くすることによって、初期深さ値を設定することができる。
このように、深さ推定装置220が深さマップ初期化部222を介して初期深さ値を設定して深さマップ224に格納すれば、ユーザは深さマップ224に格納されている初期深さ値を用いて2Dの入力ビデオ210を3Dビデオに変換するためのレンダリング作業を行うことによって、推定された深さマップ情報を用いて入力ビデオ210を3Dビデオに変換することができる。
しかしながら、深さマップ初期化部222が設定した初期深さ値は、入力ビデオ210の少なくとも1つの画素間の特性を考慮して平滑化(smoothing)した深さ値ではないという点において、初期深さ値を用いて変換された3Dビデオは多少不正確な深さを有することがある。
したがって、1つ以上の実施形態に係る深さ推定装置220は、深さマップ初期化部222が設定した初期深さ値に基づき、入力ビデオ210の少なくとも1つの画素間の特性情報を用いて深さ値を適切に調節することによって、深さがない入力ビデオ210に比較的正確な深さ情報を付与することができる。
このために、特性情報抽出部223は、入力ビデオ210に対する少なくとも1つの特性情報を抽出して深さ更新部225に提供する。
1つ以上の実施形態によれば、特性情報抽出部222が抽出する少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などとすることができる。
その後、深さ更新部225は、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリング(filtering)を実行して入力ビデオ210に対する最終的な深さ値を演算し、演算された深さ値を用いて深さマップ224を更新する。
1つ以上の実施形態によれば、特性情報抽出部222は、少なくとも1つの特性情報に基づいて入力ビデオ210の少なくとも1つの注目画素とその注目画素に隣接する隣接画素との間の加重値(weight)を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部223は、少なくとも1つの注目画素とその注目画素に隣接する隣接画素との間の特性情報の類似度に依存するように加重値を演算することができる。
また、1つ以上の実施形態によれば、深さ更新部225は、特性情報抽出部223で演算された加重値を考慮してフィルタリングを実行することができる。
これに関し、特性情報抽出部223および深さ更新部225の動作について、例を挙げて詳しく説明する。
特性情報抽出部223が入力ビデオ210に対する輝度情報を抽出すれば、輝度情報に基づいて加重値が演算される。
特性情報抽出部223は、輝度情報の類似度に応じて入力ビデオ210を構成する少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の加重値を演算することができる。
例えば、特性情報抽出部223が入力ビデオ210を構成するa画素と、a画素と隣接したx画素、y画素、z画素、およびw画素の間の加重値を演算すると仮定する。もし、x画素、y画素、z画素、およびw画素の順でa画素の輝度と類似するとすれば、x画素、y画素、z画素、およびw画素の順に加重値の大きさが決定されるようになる。
その後、深さ更新部225は、深さマップ224に格納されているx画素、y画素、z画素、およびw画素の初期深さ値を特性情報抽出部223で演算された加重値の大きさに応じて反映してa画素の第1(a)深さ値を算定した後、深さマップ224に格納されているa画素の初期深さ値を第1(a)深さ値に更新することができる。
これと同時に、深さ更新部225は、a画素の場合と同じ方法で、x画素、y画素、z画素、およびw画素に対してそれぞれの隣接画素との加重値を考慮して、x画素、y画素、z画素、およびw画素それぞれに対する第1(b)深さ値を算定した後、深さマップ224に格納されているx画素、y画素、z画素、およびw画素の初期深さ値を第1(b)深さ値に更新することができる。
x画素、y画素、z画素、およびw画素の初期深さ値が第1(b)深さ値に更新されれば、深さ更新部225は、x画素、y画素、z画素、およびw画素の第1(b)深さ値をa画素と、x画素、y画素、z画素、およびw画素の間の加重値の大きさに応じて反映してa画素に対する新たな第2(a)深さ値を算定した後、深さマップ224に格納されているa画素の第1(a)深さ値を第2(a)深さ値に更新することができる。
この場合にも、深さ更新部225は、a画素の場合と同じ方法で、深さマップ224に格納されているx画素、y画素、z画素、およびw画素の第1(b)深さ値をそれぞれの隣接した画素との加重値を考慮して、第2(b)深さ値に更新することができる。
このように、深さ更新部225は、上述した深さ値を更新する過程を継続して繰り返すことによって、深さマップ224に格納されている深さ値をフィルタリングすることができる。
結局、1つ以上の実施形態に係る深さ推定装置220は、入力ビデオ210の少なくとも1つの画素に対して、少なくとも1つの注目画素とその注目画素に隣接した隣接画素の間の特性情報に基づいて深さ値を適切に調節することによって、入力ビデオ210が比較的正確な深さを有する3Dビデオに変換されるようにできる。
これに関し、1つ以上の実施形態によれば、特性情報抽出部223は、加重値を、下記式(2)を用いて演算することができる。
Figure 2010136371
ここで、ωは加重値、(x,y)は入力ビデオ210の少なくとも1つの画素に対する座標を、(x’,y’)は少なくとも1つの画素(x,y)に隣接した画素に対する座標を、Yは入力ビデオ210に対する少なくとも1つの特性情報を、σはフィルタパラメータを意味する。
また、1つ以上の実施形態によれば、深さ更新部225は、下記式(3)を用いて深さマップ224に格納されている深さ値を更新することができる。
Figure 2010136371
ここで、z(x,y)は入力ビデオ210を構成する少なくとも1つの画素の深さを、z(x’,y’)は少なくとも1つの画素に隣接した画素の深さを、ωは加重値を、kは正規化因子を意味する。
上述したように、深さ更新部225は、例えば、式(3)の演算を繰り返し実行することによって、深さマップ224に格納されている深さ値を更新することができる。
1つ以上の実施形態によれば、深さマップ初期化部222は、少なくとも1つの特性情報を用いて初期深さ値を設定した後、初期深さ値を深さマップ224に格納することができる。
これにより、深さマップ初期化部222は、多少平滑化が実行された初期深さ値を設定することができる。
結局、1つ以上の実施形態に係る深さ推定装置220は、深さマップ初期化部222を介して多少平滑化が実行された初期深さ値を設定することによって、深さ更新部225が深さマップ224に格納された深さ値を平滑化するために実行しなければならない反復演算の複雑性を減らすことができる。
このとき、1つ以上の実施形態によれば、深さ推定装置220は、特性情報抽出部223の他にもさらに異なる特性情報抽出部(図示せず)を備えることができる。
この場合、深さマップ初期化部222は、さらに異なる特性情報抽出部から少なくとも1つの特性情報が提供されて初期深さ値を設定することができる。
1つ以上の実施形態によれば、深さ推定装置220は、入力ビデオ210がより柔軟な深さを有する3Dビデオに変換が可能なように、深さマップ224を後処理する後処理部(図示せず)をさらに備えることができる。
また、1つ以上の実施形態によれば、深さ推定装置220は、前処理部221をさらに備えることができる。
前処理部221は、入力ビデオ210のカラー空間(color space)を変換したり、入力ビデオ210が予め設定された(predetermined)ビデオストリームにエンコードされた映像の場合、入力ビデオ210をデコーディングして入力ビデオ210のモーションベクトルを抽出することができる。
もし、前処理部221が入力ビデオ210のカラー空間を変換する機能を実行する場合、特性情報抽出部223は、入力ビデオ210の特性情報をより正確に抽出することができる。
例えば、入力ビデオ210がRGBカラー空間やYCbCrカラー空間でなされている映像の場合、前処理部221は、入力ビデオ210のカラー空間をLカラー空間に変換することによって、特性情報抽出部223が入力ビデオ210の特性情報をより正確に抽出するようにできる。
また、前処理部221が入力ビデオ210をデコーディングして入力ビデオ210のモーションベクトルを抽出する機能を実行する場合、特性情報抽出部223は、モーションベクトルを用いて入力ビデオ210の特性情報を抽出することができる。
図3は、1つ以上の実施形態に係る深さ推定装置の構造を示す図である。深さ推定装置(depth estimation apparatus)320は、例えば、特性情報抽出部(feature information extraction unit)322と、アップスケーリング部(up−scalling unit)325と、深さ設定部(depth establishment unit)326とを備えることができる。また、1つ以上の実施形態によれば、深さ設定部326は、深さマップ初期化部(depth map initialization unit)321と、深さ更新部(depth update unit)324とを備えることができる。
深さマップ初期化部321は、入力ビデオ310の複数の画素を少なくとも1つのブロック(block)に区分した後、少なくとも1つのブロックに対する初期深さ値を設定して深さマップ323に格納する。
例えば、入力ビデオ310の複数の画素がa、b、c、d、e、f画素であると仮定すれば、深さマップ初期化部321は、この複数の画素を(a,b)、(c,d)、(e,f)のように互いに隣接した画素どうし少なくとも1つのブロックに区分した後、少なくとも1つのブロックに対する初期深さ値を設定して深さマップ323に格納することができる。
1つ以上の実施形態によれば、入力ビデオ310は、単眼ビデオとすることができる。また、1つ以上の実施形態によれば、深さマップ初期化部321は、式(1)または、例えば他の特徴によって初期深さ値を設定することができる。
このとき、(x,y)は、少なくとも1つのブロックに対する座標を意味する。
特性情報抽出部322は、入力ビデオ310に対する少なくとも1つの特性情報を抽出して深さ更新部324に提供する。
1つ以上の実施形態によれば、特性情報抽出部322が抽出する少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
深さ更新部324は、特性情報抽出部322から抽出された少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して少なくとも1つのブロックに対する第2深さ値を演算し、第2深さ値を用いて深さマップ323を更新する。
1つ以上の実施形態によれば、特性情報抽出部322は、少なくとも1つの特性情報に基づいて少なくとも1つの注目ブロックとその注目ブロックに隣接する隣接ブロックとの間の加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部322は、少なくとも1つの注目ブロックとその注目ブロックに隣接する隣接ブロックの間の特性情報の類似度に依存するように加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部322は、式(2)を用いて加重値を演算することができる。
このとき、(x,y)は少なくとも1つの注目ブロックに対する座標を示し、(x’,y’)は少なくとも1つの注目ブロックに隣接した隣接ブロックの座標を示す。
また、1つ以上の実施形態によれば、深さ更新部324は、特性情報抽出部322で演算された加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、深さ更新部324は、式(3)を用いてフィルタリングを実行することができる。
このとき、(x,y)は少なくとも1つの注目ブロックに対する座標を、(x’,y’)は少なくとも1つの注目ブロックに隣接した隣接ブロックの座標を意味する。
アップスケーリング部325は、更新された深さマップ323を複数の画素単位でアップスケーリングする。
結局、1つ以上の実施形態に係る深さ推定装置320は、入力ビデオ310の複数の画素を少なくとも1つのブロックに区分して深さマップ323を生成した後にこれをアップスケーリングすることによって、比較的単純な演算によって入力ビデオ310を3Dビデオに変換するための深さマップを生成することができる。
1つ以上の実施形態によれば、深さマップ初期化部321は、特性情報抽出部322から抽出された少なくとも1つの特性情報を用いて初期深さ値を設定した後、初期深さ値を深さマップ323に格納することができる。
これにより、深さマップ初期化部321は、多少平滑化が実行された初期深さ値を設定することができる。
結局、1つ以上の実施形態に係る深さ推定装置320は、深さマップ初期化部321を介して多少平滑化が実行された初期深さ値を設定することによって、深さ更新部324が深さマップ323に格納された深さ値を平滑化するために実行しなければならない反復演算の複雑性を減らすことができる。
このとき、1つ以上の実施形態によれば、深さ推定装置320は、特性情報抽出部322の他にもさらに異なる特性情報抽出部(図示せず)を備えることができる。
この場合、深さマップ初期化部321は、さらに異なる特性情報抽出部から少なくとも1つの特性情報が提供されて初期深さ値を設定することができる。
1つ以上の実施形態によれば、深さ推定装置320は、入力ビデオ310がより柔軟な深さを有する3Dビデオに変換が可能なように、アップスケーリングされた深さマップを後処理する後処理部(図示せず)をさらに備えることができる。
また、1つ以上の実施形態によれば、深さ推定装置320は、前処理部(図示せず)をさらに備えることができる。
前処理部は、入力映像320のカラー空間を変換したり、入力映像320が予め設定されたビデオストリームにエンコードされた映像の場合、入力映像320をデコーディングして入力映像320のモーションベクトルを抽出することができる。
もし、前処理部が入力映像320のカラー空間を変換する機能を実行する場合、特性情報抽出部322は、入力ビデオ310の特性情報をより正確に抽出することができる。
例えば、入力映像320がRGBカラー空間やYCbCrカラー空間でなされている映像の場合、前処理部は、入力映像320のカラー空間をLカラー空間に変換することによって、特性情報抽出部322が入力ビデオ310の特性情報をより正確に抽出するようにできる。
また、前処理部が入力ビデオ310をデコーディングして入力ビデオ310のモーションベクトルを抽出する機能を実行する場合、特性情報抽出部322は、モーションベクトルを用いて入力ビデオ310の特性情報を抽出することができる。
図4は、1つ以上の実施形態に係る深さ推定装置の構造を示す図である。深さ推定装置430は、特性情報抽出部438と、深さ設定部442とを備えることができる。1つ以上の実施形態によれば、深さ設定部442は、深さマップ初期化部437と、深さ更新部440とを備えることができる。
深さマップ初期化部437は、入力ビデオ410の少なくとも1つの画素に対する初期深さ値を設定して深さマップ439に格納する。
1つ以上の実施形態によれば、入力ビデオ410は、単眼映像とすることができる
特性情報抽出部438は、入力ビデオ410に対する少なくとも1つの特性情報を抽出して深さ更新部440に提供する。
1つ以上の実施形態によれば、特性情報抽出部438が抽出する少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
深さ更新部440は、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して入力ビデオ410に対する最終的な深さ値を演算し、この深さ値を用いて深さマップ439を更新する。
1つ以上の実施形態によれば、特性情報抽出部438は、少なくとも1つの特性情報に基づいて入力ビデオ410の少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部438は、少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の特性情報の類似度に依存するように加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部438は、式(2)を用いて加重値を演算することができる。
また、1つ以上の実施形態によれば、深さ更新部440は、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、深さ更新部440は、式(3)を用いてフィルタリングを実行することができる。
1つ以上の実施形態に係る深さ推定装置430は、上述したように、深さマップ初期化部437が初期深さ値を設定すれば、深さ更新部440が少なくとも1つの特性情報を用いて深さマップ439を更新することによって、入力ビデオ410に対する深さ値を推定することができる。
また、1つ以上の実施形態に係る深さ推定装置430は、入力ビデオ410をダウンスケーリング(down−scaling)し、ダウンスケーリングされた入力映像に対する第2深さ値を推定した後に第2深さ値を初期深さ値として用いることによって、入力ビデオ410の深さ値を推定するための演算過程を簡素化することができる。
これに関し、1つ以上の実施形態に係る深さ推定装置430は、ダウンスケーリング部431と、第2特性情報抽出部433と、第2深さ設定部441と、アップスケーリング部436とをさらに備えることができる。
このとき、1つ以上の実施形態によれば、第2深さ設定部441は、第2深さマップ初期化部432と、第2深さ更新部435とを備えることができる。
ダウンスケーリング部431は、深さ推定装置430に入力される入力ビデオ410を予め設定された解像度にダウンスケーリングする。
例えば、入力ビデオ410の解像度が1024×768であれば、ダウンスケーリング部431は、入力ビデオ410を800×600の解像度にダウンスケーリングすることができる。
第2深さマップ初期化部432は、ダウンスケーリング部431によってダウンスケーリングされた入力映像420の少なくとも1つの画素に対する第2初期深さ値を設定して第2深さマップ434に格納する。
1つ以上の実施形態によれば、第2深さマップ初期化部432は、式(1)を用いて第2初期深さ値を設定することができる。
第2特性情報抽出部433は、ダウンスケーリングされた入力映像420に対する少なくとも1つの第2特性情報を抽出して第2深さ更新部435に提供する。
1つ以上の実施形態によれば、第2特性情報抽出部433が抽出する少なくとも1つの第2特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
第2深さ更新部435は、少なくとも1つの第2特性情報および第2初期深さ値に基づいてフィルタリングを実行してダウンスケーリングされた入力映像420に対する第2深さ値を演算し、第2深さ値を用いて第2深さマップ434を更新する。
1つ以上の実施形態によれば、第2特性情報抽出部433は、少なくとも1つの第2特性情報に基づいてダウンスケーリングされた入力映像420の少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の第2加重値を演算することができる。
このとき、1つ以上の実施形態によれば、第2特性情報抽出部433は、少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の特性情報の類似度に依存するように第2加重値を演算することができる。
このとき、1つ以上の実施形態によれば、第2特性情報抽出部433は、式(2)を用いて第2加重値を演算することができる。
また、1つ以上の実施形態によれば、第2深さ更新部435は、第2加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、第2深さ更新部435は、式(3)を用いてフィルタリングを実行することができる。
アップスケーリング部436は、更新された第2深さマップ434を入力ビデオ410に対する解像度に基づいてアップスケーリングして深さマップ初期化部437に提供する。
このとき、1つ以上の実施形態によれば、アップスケーリング部436は、少なくとも1つの第2特性情報および少なくとも1つの特性情報を用いて第2深さマップ434をアップスケーリングすることができる。
アップスケーリング部436が更新された第2深さマップ434をアップスケーリングすれば、深さマップ初期化部437は、アップスケーリングされた第2深さマップに格納された深さ値を、入力ビデオ410の少なくとも1つの画素に対する初期深さ値として設定して深さマップ439に格納する。
このように、1つ以上の実施形態に係る深さ推定装置430は、ある程度フィルタリングがなされた深さ値を初期深さ値として設定することによって、深さ更新部440が入力ビデオ410に対する深さ値をフィルタリングし、深さマップ439を更新するために実行しなければならない演算の複雑度を減らすことができる。
結局、1つ以上の実施形態に係る深さ推定装置430は、入力ビデオ410をダウンスケーリングした後、初期深さマップを生成する複合的な接近方法を用いて最終的に深さマップを生成することによって、入力ビデオ410の深さを推定するための全般的な演算過程を減らすことができる。
ここで、図4に示された深さ推定装置430は、入力ビデオ410を1回ダウンスケーリングして深さマップを生成すると示されているが、本発明が必ずこれに限定されることはない。
すなわち、1つ以上の実施形態によれば、深さ推定装置430は、入力ビデオ410をn回ダウンスケーリングし、n番目にダウンスケーリングされた入力映像から深さマップを生成してこれをアップスケーリングすることによって、n−1番目にダウンスケーリングされた入力映像の深さマップを生成するための初期深さマップとして用いることができる。また、n−1番目にダウンスケーリングされた入力映像の深さマップの場合にも、これをアップスケーリングしてn−2番目にダウンスケーリングされた入力映像の深さマップを生成するための初期深さマップとして用いることができる。
結局、1つ以上の実施形態に係る深さ推定装置430は、上述した過程を繰り返し実行して生成した深さマップを、最終的に入力ビデオ410の深さマップを生成するための初期深さマップとして用いることによって、入力ビデオ410の深さを推定するために実行しなければならない演算を簡素化することができる。
以上では、図1〜4を参照しながら、深さ推定装置に関する本発明の多様な実施形態について詳察した。以下では、図5〜8を参照しながら、深さ推定装置を用いて入力映像を3Dビデオに変換する3Dビデオ変換装置に対する本発明の多様な実施形態について詳察する。
図5は、1つ以上の実施形態に係る3Dビデオ変換装置の構造を示す図である。3Dビデオ変換装置520は、例えば、特性情報抽出部521と、深さ設定部522と、レンダリング部523とを備えることができる。
3Dビデオ変換装置520に入力ビデオ510が入力されれば、特性情報抽出部521は、入力ビデオ510に対する少なくとも1つの特性情報を抽出して深さ設定部522に提供する。
1つ以上の実施形態によれば、入力ビデオ510は、単眼映像とすることができる。
また、1つ以上の実施形態によれば、特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
深さ設定部522は、特性情報抽出部521から提供される少なくとも1つの特性情報に基づいて入力ビデオ510に対する深さ値を設定する。
結局、1つ以上の実施形態に係る3Dビデオ変換装置520は、入力ビデオ510の特性情報に基づいて入力ビデオ510に対する深さ値を設定し、この深さ値を用いて2Dの入力ビデオ510を3Dビデオにレンダリングすることによって、入力ビデオ510が3Dビデオに変換されるようにできる。
1つ以上の実施形態によれば、3Dビデオ変換装置520は、図5に示された実施形態だけではなく、多様な実施形態に拡張することができる。したがって、以下では、図6〜8を参照しながら、3Dビデオ変換装置520の多様な実施形態について詳察する。
図6は、1つ以上の実施形態に係る3Dビデオ変換装置の構造を示す図である。
3Dビデオ変換装置620は、特性情報抽出部622と、レンダリング部625と、深さ設定部626とを備えることができる。
1つ以上の実施形態によれば、深さ設定部626は、深さマップ初期化部621と、深さ更新部624とを備えることができる。
3Dビデオ変換装置620に入力ビデオ610が入力されれば、深さマップ初期化部621は、入力ビデオ610の少なくとも1つの画素に対する初期深さ値を設定して深さマップ623に格納する。
1つ以上の実施形態によれば、入力ビデオ610は、単眼映像とすることができる。
また、1つ以上の実施形態によれば、深さマップ初期化部621は、入力ビデオ610シーケンスの各フレームごとに初期深さ値を設定して深さマップ623に格納することができる。
また、1つ以上の実施形態によれば、深さマップ初期化部621は、初期深さ値を、式(1)を用いて設定することができる。
特性情報抽出部622は、入力ビデオ610に対する少なくとも1つの特性情報を抽出して深さ更新部624に提供する。
1つ以上の実施形態によれば、少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
深さ更新部624は、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して入力ビデオ610に対する最終的な深さ値を演算し、このように演算された深さ値を用いて深さマップ623を更新する。
1つ以上の実施形態によれば、特性情報抽出部622は、少なくとも1つの特性情報に基づいて入力ビデオ610の少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の加重値を演算することができる。
また、1つ以上の実施形態によれば、特性情報抽出部622は、少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の特性情報の類似度に依存するように加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部622は、式(2)を用いて加重値を演算することができる。
また、1つ以上の実施形態によれば、深さ更新部624は、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、深さ更新部624は、式(3)を用いてフィルタリングを実行することができる。
レンダリング部625は、深さ更新部624によって更新された深さマップ623を用いて入力ビデオ610を3Dビデオにレンダリングする。
1つ以上の実施形態によれば、深さマップ初期化部621は、少なくとも1つの特性情報を用いて初期深さ値を設定した後、この初期深さ値を深さマップ623に格納することができる。
これにより、深さマップ初期化部621は、多少平滑化が実行された初期深さ値を設定することができる。
結局、1つ以上の実施形態に係る3Dビデオ変換装置620は、深さマップ初期化部621を介して多少平滑化が実行された初期深さ値を設定することによって、深さ更新部624が深さマップ623に格納された深さ値を平滑化するために実行しなければならない反復演算の複雑性を減らすことができる。
このとき、1つ以上の実施形態によれば、3Dビデオ変換装置620は、特性情報抽出部622の他にもさらに異なる特性情報抽出部(図示せず)を備えることができる。
この場合、深さマップ初期化部621は、さらに異なる特性情報抽出部から少なくとも1つの特性情報が提供されて初期深さ値を設定することができる。
1つ以上の実施形態によれば、3Dビデオ変換装置620は、入力ビデオ610がより柔軟な深さを有する3Dビデオに変換が可能なように、深さマップ623を後処理する後処理部(図示せず)をさらに備えることができる。
また、1つ以上の実施形態によれば、3Dビデオ変換装置620は、前処理部(図示せず)をさらに備えることができる。
このような前処理部は、入力ビデオ610のカラー空間を変換したり、入力ビデオ610が予め設定されたビデオストリームにエンコードされた映像の場合、入力ビデオ610をデコーディングして入力ビデオ610のモーションベクトルを抽出する。
もし、前処理部が入力ビデオ610のカラー空間を変換する機能を実行する場合、特性情報抽出部622は、入力ビデオ610の特性情報をより正確に抽出することができる。
例えば、入力ビデオ610がRGBカラー空間やYCbCrカラー空間でなされている映像の場合、前処理部は、入力ビデオ610のカラー空間をLカラー空間に変換することによって、特性情報抽出部622が入力ビデオ610の特性情報をより正確に抽出するようにできる。
また、前処理部が入力ビデオ610をデコーディングして入力ビデオ610のモーションベクトルを抽出する機能を実行する場合、特性情報抽出部622は、モーションベクトルを用いて入力ビデオ610の特性情報を抽出することができる。
図7は、1つ以上の実施形態に係る3Dビデオ変換装置の構造を示す図である。
図7を参照すれば、3Dビデオ変換装置720が示されている。
3Dビデオ変換装置720は、特性情報抽出部722と、アップスケーリング部725と、レンダリング部726と、深さ設定部727とを備えることができる。
1つ以上の実施形態によれば、深さ設定部727は、深さマップ初期化部721と、深さ更新部724とを備えることができる。
深さマップ初期化部721は、入力ビデオ710の複数の画素を少なくとも1つのブロックに区分した後、少なくとも1つのブロックに対する初期深さ値を設定して深さマップ723に格納する。
例えば、入力ビデオ710の複数の画素をa、b、c、d、e、f画素と仮定すれば、深さマップ初期化部721は、複数の画素を(a,b)、(c,d)、(e,f)のように互いに隣接した画素どうしを少なくとも1つのブロックに区分した後、少なくとも1つのブロックに対する初期深さ値を設定して深さマップ723に格納することができる。
1つ以上の実施形態によれば、入力ビデオ710は、単眼映像とすることができる。
また、1つ以上の実施形態によれば、深さマップ初期化部721は、式(1)を用いて初期深さ値を設定することができる。
このとき、(x,y)は、少なくとも1つのブロックに対する座標を意味する。
特性情報抽出部722は、入力ビデオ710に対する少なくとも1つの特性情報を抽出して深さ更新部724に提供する。
1つ以上の実施形態によれば、特性情報抽出部722が抽出する少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
深さ更新部724は、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して少なくとも1つのブロックに対する第2深さ値を演算し、第2深さ値を用いて深さマップ723を更新する。
1つ以上の実施形態によれば、特性情報抽出部722は、少なくとも1つの特性情報に基づいて少なくとも1つの注目ブロックとその注目ブロックに隣接する隣接ブロックの間の加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部722は、少なくとも1つの注目ブロックとその注目ブロックに隣接する隣接ブロックの間の特性情報の類似度に依存するように加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部722は、式(2)を用いて加重値を演算することができる。
このとき、(x,y)は少なくとも1つのブロックに対する座標を、(x’,y’)は少なくとも1つの注目ブロックに隣接した隣接ブロックの座標を意味する。
また、1つ以上の実施形態によれば、深さ更新部724は、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、深さ更新部724は、式(3)を用いてフィルタリングを実行することができる。
このとき、(x,y)は少なくとも1つのブロックに対する座標を、(x’,y’)は少なくとも1つの注目ブロックに隣接した隣接ブロックの座標を意味する。
アップスケーリング部725は、更新された深さマップ723を複数の画素単位でアップスケーリングする。
レンダリング部726は、アップスケーリングされた深さマップを用いて入力ビデオ710を3Dビデオにレンダリングする。
結局、1つ以上の実施形態に係る3Dビデオ変換装置720は、入力ビデオ710の複数の画素を少なくとも1つのブロックに区分して深さマップ723を生成した後にこれをアップスケーリングすることによって、比較的単純な演算によって入力ビデオ710を3Dビデオに変換することができる。
1つ以上の実施形態によれば、深さマップ初期化部721は、少なくとも1つの特性情報を用いて初期深さ値を設定した後、初期深さ値を深さマップ723に格納することができる。
これにより、深さマップ初期化部721は、多少平滑化が実行された初期深さ値を設定することができる。
結局、1つ以上の実施形態に係る3Dビデオ変換装置720は、深さマップ初期化部721を介して多少平滑化が実行された初期深さ値を設定することによって、深さ更新部724が深さマップ723に格納された深さ値を平滑化するために実行しなければならない反復演算の複雑性を減らすことができる。
このとき、1つ以上の実施形態によれば、3Dビデオ変換装置720は、特性情報抽出部722の他にもさらに異なる特性情報抽出部(図示せず)を備えることができる。
この場合、深さマップ初期化部721は、さらに異なる特性情報抽出部から少なくとも1つの特性情報が提供されて初期深さ値を設定することができる。
1つ以上の実施形態によれば、3Dビデオ変換装置720は、入力ビデオ710がより柔軟な深さを有する3Dビデオに変換が可能なように、アップスケーリングされた深さマップを後処理する後処理部(図示せず)をさらに備えることができる。
また、1つ以上の実施形態によれば、3Dビデオ変換装置720は、前処理部(図示せず)をさらに備えることができる。
前処理部は、入力ビデオ710のカラー空間を変換したり、入力ビデオ610が予め設定されたビデオストリームにエンコードされた映像である場合、入力ビデオ710をデコーディングして入力ビデオ710のモーションベクトルを抽出する。
もし、前処理部が入力ビデオ710のカラー空間を変換する機能を実行する場合、特性情報抽出部722は、入力ビデオ710の特性情報をより正確に抽出することができる。
例えば、入力ビデオ710がRGBカラー空間やYCbCrカラー空間でなされている映像の場合、前処理部は、入力ビデオ710のカラー空間をLカラー空間に変換することによって、特性情報抽出部722が入力ビデオ710の特性情報をより正確に抽出するようにできる。
また、前処理部が入力ビデオ710をデコーディングして入力ビデオ710のモーションベクトルを抽出する機能を実行する場合、特性情報抽出部722は、モーションベクトルを用いて入力ビデオ710の特性情報を抽出することができる。
図8は、1つ以上の実施形態に係る3Dビデオ変換装置の構造を示す図である。
3Dビデオ変換装置830は、特性情報抽出部838と、深さ設定部843と、レンダリング部841とを備えることができる。
このとき、1つ以上の実施形態によれば、深さ設定部843は、深さマップ初期化部837と、深さ更新部840とを備えることができる。
深さマップ初期化部837は、入力ビデオ810の少なくとも1つの画素に対する初期深さ値を設定して深さマップ839に格納する。
1つ以上の実施形態によれば、入力ビデオ810は、単眼映像とすることができる。
特性情報抽出部838は、入力ビデオ810に対する少なくとも1つの特性情報を抽出して深さ更新部840に提供する。
1つ以上の実施形態によれば、少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
深さ更新部840は、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して入力ビデオ810に対する深さ値を演算し、深さ値を用いて深さマップ839を更新する。
1つ以上の実施形態によれば、特性情報抽出部838は、少なくとも1つの特性情報に基づいて入力ビデオ810の少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部838は、少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の特性情報の類似度に依存するように加重値を演算することができる。
このとき、1つ以上の実施形態によれば、特性情報抽出部838は、式(2)を用いて加重値を演算することができる。
また、1つ以上の実施形態によれば、深さ更新部840は、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、深さ更新部840は、式(3)を用いてフィルタリングを実行することができる。
レンダリング部841は、更新された深さマップ839を用いて入力ビデオ810を3Dビデオにレンダリングする。
1つ以上の実施形態に係る深さ推定装置830は、上述したように、深さマップ初期化部837が初期深さ値を設定すれば、深さ更新部840が少なくとも1つの特性情報を用いて深さマップ839を更新することによって、入力ビデオ810に対する深さ値を推定することができる。
また、1つ以上の実施形態に係る深さ推定装置830は、入力ビデオ810をダウンスケーリングし、ダウンスケーリングされた入力映像に対する第2深さ値を推定した後に第2深さ値を初期深さ値として用いることによって、入力ビデオ810の深さ値を推定するための演算過程を簡素化することができる。
これに関し、1つ以上の実施形態に係る深さ推定装置830は、ダウンスケーリング部831と、第2特性情報抽出部833と、第2深さ設定部842と、アップスケーリング部836とをさらに備えることができる。
このとき、1つ以上の実施形態によれば、第2深さ設定部842は、第2深さマップ初期化部832と、第2深さ更新部835とを備えることができる。
ダウンスケーリング部831は、3Dビデオ変換装置830に入力される入力ビデオ810を予め設定された解像度にダウンスケーリングする。
例えば、入力ビデオ810の解像度が1024×768であれば、ダウンスケーリング部831は、入力ビデオ810を800×600の解像度にダウンスケーリングすることができる。
1つ以上の実施形態によれば、入力ビデオ810は、単眼映像とすることができる。
第2深さマップ初期化部832は、ダウンスケーリング部831によってダウンスケーリングされた入力映像820の少なくとも1つの画素に対する第2初期深さ値を設定して第2深さマップ834に格納する。
1つ以上の実施形態によれば、第2深さマップ初期化部832は、式(1)を用いて第2初期深さ値を設定することができる。
第2特性情報抽出部833は、ダウンスケーリングされた入力映像820に対する少なくとも1つの第2特性情報を抽出して第2深さ更新部835に提供する。
1つ以上の実施形態によれば、第2特性情報抽出部833が抽出する少なくとも1つの第2特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
第2深さ更新部835は、少なくとも1つの第2特性情報および第2初期深さ値に基づいてフィルタリングを実行してダウンスケーリングされた入力映像820に対する第2深さ値を演算し、第2深さ値を用いて第2深さマップ834を更新する。
1つ以上の実施形態によれば、第2特性情報抽出部833は、少なくとも1つの第2特性情報に基づいてダウンスケーリングされた入力映像820の少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の第2加重値を演算することができる。
このとき、1つ以上の実施形態によれば、第2特性情報抽出部833は、少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の特性情報の類似度に依存するように第2加重値を演算することができる。
このとき、1つ以上の実施形態によれば、第2特性情報抽出部833は、式(2)を用いて第2加重値を演算することができる。
また、1つ以上の実施形態によれば、第2深さ更新部835は、第2加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、第2深さ更新部835は、式(3)を用いてフィルタリングを実行することができる。
アップスケーリング部836は、更新された第2深さマップ834を入力ビデオ810に対する解像度に基づいてアップスケーリングして深さマップ初期化部837に提供する。
このとき、1つ以上の実施形態によれば、アップスケーリング部836は、少なくとも1つの第2特性情報および少なくとも1つの特性情報を用いて第2深さマップ834をアップスケーリングして深さマップ初期化部837に提供する。
アップスケーリング部836が更新された第2深さマップ834をアップスケーリングして提供すれば、深さマップ初期化部837は、アップスケーリングされた第2深さマップに格納された深さ値を、入力ビデオ810の少なくとも1つの画素に対する初期深さ値として設定して深さマップ839に格納する。
このように、ある程度フィルタリングがなされた深さ値を初期深さ値として設定することによって、深さ更新部840が入力ビデオ810に対する深さ値をフィルタリングし、深さマップ839を更新するために実行しなければならない演算の複雑度を減らすことができる。
結局、1つ以上の実施形態に係る3Dビデオ変換装置830は、入力ビデオ810をダウンスケーリングした後、初期深さマップを生成する複合的な接近方法を用いて最終的に深さマップを生成することによって、入力ビデオ810の深さを推定するための全般的な演算過程を減らすことができる。
ここで、図8に示された3Dビデオ変換装置830は、入力ビデオ810を1回ダウンスケーリングして深さマップを生成すると示されているが、本発明が必ずこれに限定されることはない。
すなわち、1つ以上の実施形態によれば、3Dビデオ変換装置830は、入力ビデオ810をn回ダウンスケーリングし、n番目にダウンスケーリングされた入力映像から深さマップを生成してこれをアップスケーリングすることによって、n−1番目にダウンスケーリングされた入力映像の深さマップを生成するための初期深さマップとして用いることができる。また、n−1番目にダウンスケーリングされた入力映像の深さマップの場合にも、これをアップスケーリングしてn−2番目にダウンスケーリングされた入力映像の深さマップを生成するための初期深さマップとして用いることができる。
結局、1つ以上の実施形態に係る3Dビデオ変換装置830は、上述した過程を繰り返し実行して生成した深さマップを最終的に入力ビデオ810の深さマップを生成するための初期深さマップとして用いることで、入力ビデオ810の深さを推定するために実行しなければならない演算を簡素化することができる。
図9は、1つ以上の実施形態に係る深さ推定方法を示すフローチャートである。
ステップS910では、入力映像に対する少なくとも1つの特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS920では、ステップS910で抽出した少なくとも1つの特性情報に基づいて入力映像に対する深さ値を設定する。
1つ以上の実施形態によれば、深さ推定方法は、図9に示された方法の他にも多様な実施形態に拡張することができる。したがって、以下では、図10〜12を参照しながら、深さ推定方法に対する本発明の多様な実施形態について詳察する。
図10は、1つ以上の実施形態に係る深さ推定方法を示すフローチャートである。
ステップS1010では、入力映像に対する少なくとも1つの特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS1020では、少なくとも1つの画素に対する初期深さ値を設定して深さマップに格納する。
1つ以上の実施形態によれば、ステップS1020では、式(1)を用いて初期深さ値を設定することができる。
ステップS1030では、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して入力映像に対する最終的な深さ値を演算し、深さ値を用いて深さマップを更新する。
1つ以上の実施形態によれば、ステップS1010では、少なくとも1つの特性情報に基づいて少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の加重値を演算するステップを含むことができる。
このとき、1つ以上の実施形態によれば、加重値は式(2)を用いて演算することができる。
また、1つ以上の実施形態によれば、ステップS1030では、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、ステップS1030では、式(3)を用いてフィルタリングを実行することができる。
図11は、1つ以上の実施形態に係る深さ推定方法を示すフローチャートである。
ステップS1110では、入力映像の複数の画素を少なくとも1つのブロックに区分した後、少なくとも1つのブロックに対する初期深さ値を設定して深さマップに格納する。
1つ以上の実施形態によれば、ステップS1110では、式(1)を用いて初期深さ値を設定することができる。
このとき、(x,y)は、少なくとも1つのブロックに対する座標を意味する。
ステップS1120では、少なくとも1つのブロックに対する少なくとも1つの特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つのブロックに対する少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS1130では、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して少なくとも1つのブロックに対する第2深さ値を演算し、第2深さ値を用いて深さマップを更新する。
1つ以上の実施形態によれば、ステップS1120では、少なくとも1つの特性情報に基づいて少なくとも1つの注目ブロックとその注目ブロックに隣接する隣接ブロックの間の加重値を演算するステップを含むことができる。
このとき、1つ以上の実施形態によれば、加重値は式(2)を用いて演算することができる。
このとき、(x,y)は少なくとも1つの注目ブロックに対する座標を、(x’,y’)は少なくとも1つの注目ブロックに隣接した隣接ブロックの座標を意味する。
また、1つ以上の実施形態によれば、ステップS1130では、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、ステップS1130では、式(3)を用いてフィルタリングを実行することができる。
このとき、(x,y)は少なくとも1つの注目ブロックに対する座標を、(x’,y’)は少なくとも1つの注目ブロックに隣接した隣接ブロックの座標を意味する。
ステップS1140では、更新された深さマップを複数の画素単位にアップスケーリングする。
図12は、1つ以上の実施形態に係る深さ推定方法を示すフローチャートである。
ステップS1210では、入力映像を予め設定された解像度でダウンスケーリングする。
ステップS1220では、ダウンスケーリングされた入力映像の少なくとも1つの画素に対する第2初期深さ値を設定して第2深さマップに格納する。
1つ以上の実施形態によれば、ステップS1220では、式(1)を用いて第2初期深さ値を設定することができる。
ステップS1230では、ダウンスケーリングされた入力映像に対する少なくとも1つの第2特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つの第2特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS1240では、少なくとも1つの第2特性情報および第2初期深さ値に基づいてフィルタリングを実行してダウンスケーリングされた入力映像に対する第2深さ値を演算し、第2深さ値を用いて第2深さマップを更新する。
1つ以上の実施形態によれば、ステップS1230では、少なくとも1つの第2特性情報に基づいて少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の第2加重値を演算するステップを含むことができる。
このとき、1つ以上の実施形態によれば、第2加重値は式(2)を用いて演算すれることができる。
また、1つ以上の実施形態によれば、ステップS1240では、第2加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、ステップS1240では、式(3)を用いてフィルタリングを実行することができる。
ステップS1250では、更新された第2深さマップを入力映像に対する解像度に基づいてアップスケーリングする。
ステップS1260では、入力映像に対する少なくとも1つの特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS1270では、アップスケーリングされた第2深さマップに格納された深さ値を、入力映像の少なくとも1つの画素に対する初期深さ値として設定して深さマップに格納する。
ステップS1280では、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して入力映像に対する最終的な深さ値を演算し、深さ値を用いて深さマップを更新する。
1つ以上の実施形態によれば、ステップS1260では、少なくとも1つの特性情報に基づいて少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の加重値を演算するステップを含むことができる。
このとき、1つ以上の実施形態によれば、加重値は式(2)を用いて演算することができる。
また、1つ以上の実施形態によれば、ステップS1280では、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、ステップS1280では、式(3)を用いてフィルタリングを実行することができる。
以上では、図9〜12を参照しながら、深さ推定方法に対する本発明の多様な実施形態について詳察した。以下では、図13〜16を参照しながら、深さ推定方法を用いて入力映像を3Dビデオに変換する3Dビデオ変換方法に対する本発明の多様な実施形態について詳察する。
図13は、1つ以上の実施形態に係る3D映像変換方法を示すフローチャートである。
ステップS1310では、入力映像に対する少なくとも1つの特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報であり得る。
ステップS1320では、ステップS1310で抽出した少なくとも1つの特性情報に基づいて入力映像に対する深さ値を設定する。
ステップS1330では、深さ値を用いて入力映像を3Dビデオにレンダリングする。
1つ以上の実施形態によれば、3Dビデオ変換方法は、図13に示された方法の他にも多様な実施形態に拡張することができる。したがって、以下では、図14〜16を参照しながら、3Dビデオ変換方法に対する本発明の多様な実施形態について詳察する。
図14は、1つ以上の実施形態に係る3Dビデオ変換方法を示すフローチャートである。
ステップS1410では、入力映像に対する少なくとも1つの特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS1420では、入力映像の少なくとも1つの画素に対する初期深さ値を設定して深さマップに格納する。
1つ以上の実施形態によれば、ステップS1420では、式(1)を用いて初期深さ値を設定することができる。
ステップS1430では、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して入力映像に対する最終的な深さ値を演算し、深さ値を用いて深さマップを更新する。
1つ以上の実施形態によれば、ステップS1410では、少なくとも1つの特性情報に基づいて少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の加重値を演算するステップを含むことができる。
このとき、1つ以上の実施形態によれば、加重値は式(2)を用いて演算することができる。
また、1つ以上の実施形態によれば、ステップS1430では、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、ステップS1430では、式(3)を用いてフィルタリングを実行することができる。
ステップS1440では、更新された深さマップを用いて入力映像を3Dビデオにレンダリングする。
図15は、1つ以上の実施形態に係る3Dビデオ変換方法を示すフローチャートである。
ステップS1510では、入力映像の複数の画素を少なくとも1つのブロックに区分した後、少なくとも1つのブロックに対する初期深さ値を設定して深さマップに格納する。
1つ以上の実施形態によれば、ステップS1510では、式(1)を用いて初期深さ値を設定することができる。
このとき、(x,y)は、少なくとも1つのブロックに対する座標を意味する。
ステップS1520では、少なくとも1つのブロックに対する少なくとも1つの特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つのブロックに対する少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS1530では、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して少なくとも1つのブロックに対する第2深さ値を演算し、第2深さ値を用いて深さマップを更新する。
1つ以上の実施形態によれば、ステップS1520では、少なくとも1つの特性情報に基づいて少なくとも1つの注目ブロックとその注目ブロックに隣接する隣接ブロックの間の加重値を演算するステップを含むことができる。
このとき、1つ以上の実施形態によれば、加重値は式(2)を用いて演算することができる。
このとき、(x,y)は少なくとも1つの注目ブロックに対する座標を、(x’,y’)は少なくとも1つの注目ブロックに隣接した隣接ブロックの座標を意味する。
また、1つ以上の実施形態によれば、ステップS1530では、加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、ステップS1530では、式(3)を用いてフィルタリングを実行することができる。
このとき、(x,y)は少なくとも1つの注目ブロックに対する座標を、(x’,y’)は少なくとも1つの注目ブロックに隣接した隣接ブロックの座標を意味する。
ステップS1540では、更新された深さマップを複数の画素単位でアップスケーリングする。
ステップS1550では、アップスケーリングされた深さマップを用いて入力映像を3Dビデオにレンダリングする。
図16は、1つ以上の実施形態に係る3Dビデオ変換方法を示すフローチャートである。
ステップS1610では、入力映像を予め設定された解像度にダウンスケーリングする。
ステップS1620では、ダウンスケーリングされた入力映像の少なくとも1つの画素に対する第2初期深さ値を設定して第2深さマップに格納する。
1つ以上の実施形態によれば、ステップS1620では、式(1)を用いて第2初期深さ値を設定することができる。
ステップS1630では、ダウンスケーリングされた入力映像に対する少なくとも1つの第2特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つの第2特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS1640では、少なくとも1つの第2特性情報および第2初期深さ値に基づいてフィルタリングを実行してダウンスケーリングされた入力映像に対する第2深さ値を演算し、第2深さ値を用いて第2深さマップを更新する。
1つ以上の実施形態によれば、ステップS1630では、少なくとも1つの第2特性情報に基づいて少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の第2加重値を演算するステップを含むことができる。
このとき、1つ以上の実施形態によれば、第2加重値は式(2)を用いて演算することができる。
また、1つ以上の実施形態によれば、ステップS1640では、第2加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、ステップS1640では、式(3)を用いてフィルタリングを実行することができる。
ステップS1650では、更新された第2深さマップを入力映像に対する解像度に基づいてアップスケーリングする。
ステップS1660では、入力映像に対する少なくとも1つの特性情報を抽出する。
1つ以上の実施形態によれば、少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報などであり得る。
ステップS1670では、アップスケーリングされた第2深さマップに格納された深さ値を、入力映像の少なくとも1つの画素に対する初期深さ値として設定して深さマップに格納する。
ステップS1680では、少なくとも1つの特性情報および初期深さ値に基づいてフィルタリングを実行して入力映像に対する最終的な深さ値を演算し、深さ値を用いて深さマップを更新する。
1つ以上の実施形態によれば、ステップS1660では、少なくとも1つの特性情報に基づいて少なくとも1つの注目画素とその注目画素に隣接する隣接画素の間の加重値を演算するステップを含むことができる。
このとき、1つ以上の実施形態によれば、加重値は式(2)を用いて演算することができる。
また、1つ以上の実施形態によれば、ステップS1680では、第2加重値を考慮してフィルタリングを実行することができる。
このとき、1つ以上の実施形態によれば、ステップS1680では、式(3)を用いてフィルタリングを実行することができる。
ステップS1690では、更新された深さマップを用いて入力映像を3Dビデオにレンダリングすることができる。
なお、本発明に係る深さ推定方法および3Dビデオ変換方法は、コンピュータにより実現される多様な動作を実行するためのプログラム命令を含むコンピュータ読取可能な記録媒体を含む。当該記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むこともでき、記録媒体およびプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知であり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれる。また、記録媒体は、プログラム命令、データ構造などを保存する信号を送信する搬送波を含む光または金属線、導波管などの送信媒体でもある。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。前記したハードウェア要素は、本発明の動作を実行するために一以上のソフトウェアモジュールとして作動するように構成することができ、その逆もできる。
上述したように、本発明の好ましい実施形態を参照して説明したが、該当の技術分野において熟練した当業者にとっては、特許請求の範囲に記載された本発明の思想および領域から逸脱しない範囲内で、本発明を多様に修正および変更させることができることを理解することができるであろう。すなわち、本発明の技術的範囲は、特許請求の範囲に基づいて定められ、発明を実施するための最良の形態により制限されるものではない。
110 入力ビデオ
120 深さ推定装置
121 特性情報抽出部
122 深さ設定部

Claims (63)

  1. 入力映像から該入力映像の特徴を示す少なくとも1つの特性情報を抽出する特性情報抽出部と、
    前記特性情報抽出部で抽出された前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定する深さ設定部と、
    を備えることを特徴とする深さ推定装置。
  2. 前記少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、およびヒストグラム情報のうちの少なくとも1つであることを特徴とする請求項1に記載の深さ推定装置。
  3. 前記深さ設定部は、
    前記入力映像内の異なる位置の部分を、互いに異なる初期深さ値に設定する深さマップ初期化部、
    を備えることを特徴とする請求項1に記載の深さ推定装置。
  4. 前記深さ設定部は、
    前記入力映像の少なくとも1つの画素の初期深さ値を設定し、前記設定された初期深さ値を深さマップに格納する深さマップ初期化部と、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記入力映像の前記部分の前記深さ値を演算し、前記演算された深さ値に基づいて前記深さマップを更新する深さ更新部と、
    を備えることを特徴とする請求項1に記載の深さ推定装置。
  5. 前記特性情報抽出部は、
    前記少なくとも1つの特性情報に基づいて前記少なくとも1つの注目画素と該注目画素に隣接する隣接画素の間の加重値を演算し、
    前記深さ更新部は、前記加重値に基づいて前記フィルタリングを実行することを特徴とする請求項4に記載の深さ推定装置。
  6. 前記深さマップ初期化部は、
    前記少なくとも1つの特性情報に基づいて前記初期深さ値を設定し、前記初期深さ値を前記深さマップに格納することを特徴とする請求項4に記載の深さ推定装置。
  7. 前記入力映像のカラー空間を変換したり、または
    前記入力映像が予め設定されたビデオストリームにエンコードされた映像の場合、前記入力映像をデコーディングして前記入力映像のモーションベクトルを抽出する前処理部、
    をさらに備えることを特徴とする請求項4に記載の深さ推定装置。
  8. 前記入力映像を予め設定された解像度でダウンスケーリングするダウンスケーリング部と、
    前記ダウンスケーリングされた入力映像の少なくとも1つの画素の第2初期深さ値を設定し、前記第2初期深さ値を第2深さマップに格納する第2深さマップ初期化部と、
    前記ダウンスケーリングされた入力映像から他の少なくとも1つの第2特性情報を抽出する第2特性情報抽出部と、
    前記少なくとも1つの第2特性情報および前記第2初期深さ値に基づいてフィルタリングを実行することによって、前記ダウンスケーリングされた入力映像の第2深さ値を演算し、前記第2深さ値を用いて前記第2深さマップを更新する第2深さ更新部と、
    前記入力映像の解像度に基づいて、前記更新された第2深さマップをアップスケーリングするアップスケーリング部と、
    をさらに備え、
    前記深さマップ初期化部は、前記アップスケーリングされた第2深さマップに格納された深さ値に基づいて前記初期深さ値を設定することを特徴とする請求項4に記載の深さ推定装置。
  9. 前記深さ設定部は、
    前記入力映像の複数の画素を少なくとも1つのブロックにそれぞれグルーピングすることによって、前記入力映像の前記少なくとも1つのブロックの初期深さを設定し、前記初期深さ値を深さマップに格納する深さマップ初期化部と、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記少なくとも1つのブロックの第2深さ値を演算し、前記第2深さ値に基づいて前記深さマップを更新する深さ更新部と、
    を備えることを特徴とする請求項1に記載の深さ推定装置。
  10. 前記複数の画素に基づいて前記更新された深さマップをアップスケーリングするアップスケーリング部、
    をさらに備えることを特徴とする請求項9に記載の深さ推定装置。
  11. 前記入力映像に対して予め存在して予め設定された深さ値は、知らされないか存在せず、前記深さ設定部が初期に前記少なくとも1つの特性情報のみに基づいて前記入力映像の前記部分の前記深さ値を設定することを特徴とする請求項1に記載の深さ推定装置。
  12. 入力映像から該入力映像の特徴を示す少なくとも1つの特性情報を抽出する特性情報抽出部と、
    前記特性情報抽出部で抽出された前記少なくとも1つの特性情報に基づいて、前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定する深さ設定部と、
    前記入力映像の前記各部分に設定された深さ値を用いて前記入力映像を3Dビデオにレンダリングするレンダリング部と、
    を備えることを特徴とする3Dビデオ変換装置。
  13. 前記深さ設定部は、
    前記入力映像の異なる位置の部分を、互いに異なる初期深さ値に設定する深さマップ初期化部、
    を備えることを特徴とする請求項12に記載の深さ推定装置。
  14. 前記深さ設定部は、
    前記入力映像の少なくとも1つの画素の初期深さ値を設定し、前記少なくとも1つの画素の前記設定された初期深さを深さマップに格納する深さマップ初期化部と、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記入力映像の前記部分の前記深さ値を演算し、前記演算された深さ値を用いて前記深さマップを更新する深さ更新部と、
    を備え、
    前記レンダリング部は、前記更新された深さマップを用いて前記入力映像を前記3Dビデオにレンダリングすることを特徴とする請求項12に記載の3Dビデオ変換装置。
  15. 前記特性情報抽出部は、
    前記少なくとも1つの特性情報に基づいて前記少なくとも1つの注目画素と該注目画素に隣接する隣接画素の間の加重値を演算し、
    前記深さ更新部は、
    前記加重値に基づいて前記フィルタリングを実行することを特徴とする請求項14に記載の3Dビデオ変換装置。
  16. 前記入力映像を予め設定された解像度でダウンスケーリングするダウンスケーリング部と、
    前記ダウンスケーリングされた入力映像の少なくとも1つの画素の第2初期深さ値を設定し、前記第2初期深さ値を第2深さマップに格納する第2深さマップ初期化部と、
    前記ダウンスケーリングされた入力映像から少なくとも1つの第2特性情報を抽出する第2特性情報抽出部と、
    前記少なくとも1つの第2特性情報および前記第2初期深さ値に基づいてフィルタリングを実行することによって、前記ダウンスケーリングされた入力映像の第2深さ値を演算し、前記第2深さ値を用いて前記第2深さマップを更新する第2深さ更新部と、
    前記入力映像の解像度に基づいて前記更新された第2深さマップをアップスケーリングするアップスケーリング部と、
    をさらに備え、
    前記深さマップ初期化部は、前記アップスケーリングされた第2深さマップに格納された深さ値に基づいて前記初期深さ値を設定することを特徴とする請求項14に記載の3Dビデオ変換装置。
  17. 前記少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報のうちのいずれか1つ以上であることを特徴とする請求項12に記載の3Dビデオ変換装置。
  18. 前記深さ設定部は、
    前記入力映像の複数の画素を少なくとも1つのブロックにそれぞれグルーピングすることによって、前記入力映像の前記少なくとも1つのブロックに対する初期深さ値を設定し、前記初期深さ値を深さマップに格納する深さマップ初期化部と、
    前記初期深さ値に基づいてフィルタリングを実行して前記少なくとも1つのブロックに対する第2深さ値を演算し、前記第2深さ値を用いて前記深さマップを更新する深さ更新部と、
    を備えることを特徴とする請求項12に記載の3Dビデオ変換装置。
  19. 前記複数の画素に基づいて前記更新された深さマップをアップスケーリングするアップスケーリング部、
    をさらに備え、
    前記レンダリング部は、前記アップスケーリングされた深さマップを用いて前記入力映像を3Dビデオにレンダリングすることを特徴とする請求項18に記載の3Dビデオ変換装置。
  20. 前記入力映像に対して予め存在して予め設定された深さ値は、知らされないか存在せず、前記深さ設定部が初期に前記少なくとも1つの特性情報のみに基づいて前記入力映像の前記部分の前記深さ値を設定することを特徴とする請求項12に記載の3Dビデオ変換装置。
  21. 入力映像から該入力映像の特徴を示す少なくとも1つの特性情報を抽出するステップと、
    前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定するステップと、
    を含むことを特徴とする深さ推定方法。
  22. 前記入力映像の前記部分に対する深さ値を設定するステップは、
    前記入力映像内で前記入力映像の前記部分の位置特性に基づいて前記入力映像の前記部分の初期深さを設定し、互いに異なる位置特性を有する前記入力映像の部分が互いに異なる初期深さを有するように設定するステップ、
    をさらに含むことを特徴とする請求項21に記載の深さ推定方法。
  23. 前記深さを設定するステップは、
    前記入力映像の少なくとも1つの画素の初期深さ値を設定し、前記初期深さ値を深さマップに格納するステップと、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記入力映像の前記部分の前記深さ値を演算し、前記演算された深さ値に基づいて前記深さマップを更新するステップと、
    を含むことを特徴とする請求項21に記載の深さ推定方法。
  24. 前記少なくとも1つの特性情報を抽出するステップは、
    前記少なくとも1つの特性情報に基づいて前記少なくとも1つの注目画素と該注目画素に隣接する隣接画素の間の加重値を演算するステップ、
    を含み、
    前記深さマップを更新するステップは、
    前記加重値を考慮して前記フィルタリングを実行することを特徴とする請求項23に記載の深さ推定方法。
  25. 前記入力映像を予め設定された解像度でダウンスケーリングするステップと、
    前記ダウンスケーリングされた入力映像の少なくとも1つの画素の第2初期深さ値を設定し、前記第2初期深さ値を第2深さマップに格納するステップと、
    前記ダウンスケーリングされた入力映像から少なくとも1つの第2特性情報を抽出するステップと、
    前記少なくとも1つの第2特性情報および前記第2初期深さ値に基づいてフィルタリングすることによって、前記ダウンスケーリングされた入力映像の第2深さ値を演算し、前記第2深さ値を用いて前記第2深さマップを更新するステップと、
    前記入力映像の解像度に基づいて前記更新された第2深さマップをアップスケーリングするステップと、
    をさらに含み、
    前記少なくとも1つの画素の前記初期深さ値を設定するステップは、
    前記アップスケーリングされた第2深さマップに格納された深さに基づいて前記初期深さを設定するステップ、
    をさらに含むことを特徴とする請求項23に記載の深さ推定方法。
  26. 前記少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報のうちのいずれか1つ以上であることを特徴とする請求項21に記載の深さ推定方法。
  27. 前記深さ値を設定するステップは、
    前記入力映像の複数の画素を少なくとも1つのブロックにそれぞれグルーピングすることによって、前記入力映像の前記少なくとも1つのブロックの初期深さ値を設定し、前記初期深さ値を深さマップに格納するステップと、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記少なくとも1つのブロックの第2深さ値を演算し、前記第2深さ値に基づいて前記深さマップを更新するステップと、
    を含むことを特徴とする請求項17に記載の深さ推定方法。
  28. 前記複数の画素に基づいて前記更新された深さマップをアップスケーリングするステップ、
    をさらに含むことを特徴とする請求項27に記載の深さ推定方法。
  29. 前記入力映像に対して予め存在して予め設定された深さ値は、知らされていないか存在せず、前記深さ設定部が初期に前記少なくとも1つの特性情報のみに基づいて前記入力映像の前記部分の前記深さ値を設定することを特徴とする請求項21に記載の深さ推定方法。
  30. 入力映像から、該入力映像の特徴を示す少なくとも1つの特性情報を抽出するステップと、
    前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定するステップと、
    前記入力映像の各部分の前記設定された深さ値を用いて前記入力映像を3Dビデオにレンダリングするステップと、
    を含むことを特徴とする3Dビデオ変換方法。
  31. 前記深さ値を設定する前記ステップは、
    前記入力映像内の異なる位置の部分を異なる初期深さ値に設定するステップ、
    をさらに含むことを特徴とする請求項30に記載の3Dビデオ変換方法。
  32. 前記深さ値を設定するステップは、
    前記入力映像の少なくとも1つの画素の初期深さ値を設定し、前記設定された初期深さ値を深さマップに格納するステップと、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記入力映像の前記各部分の前記深さ値を演算し、前記演算された深さ値に基づいて前記深さマップを更新するステップと、
    を含み、
    前記入力映像を前記3Dビデオにレンダリングするステップは、前記更新された深さマップを用いて前記入力映像を前記3Dビデオにレンダリングすることを特徴とする請求項30に記載の3Dビデオ変換方法。
  33. 前記少なくとも1つの特性情報を抽出するステップは、
    前記少なくとも1つの特性情報に基づいて前記少なくとも1つの注目画素と該注目画素に隣接する隣接画素の間の加重値を演算するステップ、
    を含み、
    前記深さマップを更新するステップは、前記加重値を考慮して前記フィルタリングを実行することを特徴とする請求項32に記載の3Dビデオ変換方法。
  34. 前記入力映像を予め設定された解像度でダウンスケーリングするステップと、
    前記ダウンスケーリングされた入力映像の少なくとも1つの画素の第2初期深さ値を設定し、前記第2初期深さ値を第2深さマップに格納するステップと、
    前記ダウンスケーリングされた入力映像の少なくとも1つの第2特性情報を抽出するステップと、
    前記少なくとも1つの第2特性情報および前記第2初期深さ値に基づいてフィルタリングを実行することによって、前記ダウンスケーリングされた入力映像の第2深さ値を演算し、前記第2深さ値を用いて前記第2深さマップを更新するステップと、
    前記入力映像の解像度に基づいて前記更新された第2深さマップをアップスケーリングするステップと、
    をさらに含み、
    前記少なくとも1つの画素の前記初期深さ値を設定する前記ステップは、前記アップスケーリングされた第2深さマップに格納された深さ値に基づいて前記初期深さ値を設定することを特徴とする請求項32に記載の3Dビデオ変換装置。
  35. 前記少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報のうちのいずれか1つ以上であることを特徴とする請求項34に記載の3Dビデオ変換方法。
  36. 前記深さ値を設定するステップは、
    前記入力映像の複数の画素を少なくとも1つのブロックにそれぞれグルーピングすることによって、前記入力映像の前記少なくとも1つのブロックの初期深さ値を設定し、前記初期深さ値を深さマップに格納するステップと、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記少なくとも1つのブロックの第2深さ値を演算し、前記第2深さ値に基づいて前記深さマップを更新するステップと、
    を含むことを特徴とする請求項34に記載の3Dビデオ変換方法。
  37. 前記複数の画素に基づいて前記更新された深さマップをアップスケーリングするステップ、
    をさらに含み、
    前記レンダリングするステップは、前記アップスケーリングされた深さマップを用いて前記入力映像を3Dビデオにレンダリングすることを特徴とする請求項36に記載の3Dビデオ変換方法。
  38. 前記入力映像に対して予め存在して予め設定された深さ値は、知らされていないか存在せず、前記深さ設定部が初期に前記少なくとも1つの特性情報のみに基づいて前記入力映像の前記部分の前記深さ値を設定することを特徴とする請求項30に記載の3Dビデオ変換方法。
  39. 入力映像から、該入力映像の特徴を示す少なくとも1つの特性情報を抽出する特性情報抽出部と、
    前記特性情報抽出部で抽出された前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行きに応じた深さ値を設定する深さ設定部と、
    を備えることを特徴とする深さ推定装置。
  40. 前記少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報のうちの少なくとも1つであることを特徴とする請求項39に記載の深さ推定装置。
  41. 前記深さ設定部は、
    前記入力映像内の異なる位置の部分を異なる初期深さ値に設定する深さマップ初期化部、
    をさらに備えることを特徴とする請求項39に記載の深さ推定装置。
  42. 前記深さ設定部は、
    前記入力映像の少なくとも1つの画素の初期深さ値を設定し、前記初期深さ値を深さマップに格納する深さマップ初期化部と、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記入力映像の前記部分の前記深さ値を演算し、前記演算された深さ値に基づいて前記深さマップを更新する深さ更新部と、
    を備えることを特徴とする請求項39に記載の深さ推定装置。
  43. 前記特性情報抽出部は、
    前記少なくとも1つの特性情報に基づいて前記少なくとも1つの注目画素と該注目画素に隣接する隣接画素の間の加重値を演算し、
    前記深さ更新部は、
    前記加重値に基づいて前記フィルタリングを実行することを特徴とする請求項42に記載の深さ推定装置。
  44. 前記深さマップ初期化部は、
    前記少なくとも1つの特性情報に基づいて前記初期深さ値を設定し、前記初期深さ値を前記深さマップに格納することを特徴とする請求項42に記載の深さ推定装置。
  45. 前記入力映像のカラー空間を変更したり、または他の映像に相対的である前記入力映像に対するモーションベクトルを抽出する前処理部、
    をさらに備えることを特徴とする請求項42に記載の深さ推定装置。
  46. 前記入力映像を予め設定された解像度でダウンスケーリングするダウンスケーリング部と、
    前記ダウンスケーリングされた入力映像の少なくとも1つの画素の第2初期深さ値を設定し、前記第2初期深さ値を第2深さマップに格納する第2深さマップ初期化部と、
    前記ダウンスケーリングされた入力映像から少なくとも1つの第2特性情報を抽出する第2特性情報抽出部と、
    前記少なくとも1つの第2特性情報および前記第2初期深さ値に基づいてフィルタリングを実行することによって、前記ダウンスケーリングされた入力映像の第2深さ値を演算し、前記第2深さ値を用いて前記第2深さマップを更新する第2深さ更新部と、
    前記入力映像の解像度に基づいて前記更新された第2深さマップをアップスケーリングするアップスケーリング部と、
    をさらに含み、
    前記深さマップ初期化部は、前記アップスケーリングされた第2深さマップに格納された深さに基づいて前記初期深さ値を設定することを特徴とする請求項42に記載の深さ推定装置。
  47. 前記深さ設定部は、
    前記入力映像の複数の画素を少なくとも1つのブロックにそれぞれグルーピングすることによって、前記入力映像の前記少なくとも1つのブロックの初期深さ値を設定し、前記初期深さ値を深さマップに格納する深さマップ初期化部と、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記少なくとも1つのブロックの第2深さ値を演算し、前記第2深さ値に基づいて前記深さマップを更新する深さ更新部と、
    を備えることを特徴とする請求項39に記載の深さ推定装置。
  48. 前記複数の画素に基づいて前記更新された深さマップをアップスケーリングするアップスケーリング部、
    をさらに備えることを特徴とする請求項47に記載の深さ推定装置。
  49. 前記入力映像に対して予め存在して予め設定された深さ値は、知らされないか存在せず、前記深さ設定部が初期に前記少なくとも1つの特性情報のみに基づいて前記入力映像の前記部分の前記深さ値を設定することを特徴とする請求項39に記載の深さ推定装置。
  50. 前記入力映像の前記部分の前記設定された深さ値を用いて前記入力映像を3Dビデオにレンダリングするレンダリング部、
    をさらに備えることを特徴とする請求項39に記載の深さ推定装置。
  51. 入力映像から少なくとも1つの特性情報を抽出するステップと、
    前記少なくとも1つの特性情報に基づいて前記入力映像を構成する部分に、各部分の奥行き方向の成分である深さ値を設定するステップと、
    を含むことを特徴とする深さ推定方法。
  52. 前記入力映像の前記部分の前記深さ値を設定するステップは、
    前記入力映像内で前記入力映像の前記部分の位置特性に基づいて前記入力映像の前記部分の初期深さ値を設定し、互いに異なる位置特性を有する前記入力映像の部分が互いに異なる初期深さ値を有するように設定されるようにするステップ、
    をさらに含むことを特徴とする請求項51に記載の深さ推定方法。
  53. 前記深さ値を設定するステップは、
    前記入力映像の少なくとも1つの画素の初期深さ値を設定し、前記初期深さ値を深さマップに格納するステップと、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記入力映像の前記部分の前記深さ値を演算し、前記演算された深さ値に基づいて前記深さマップを更新するステップと、
    を含むことを特徴とする請求項51に記載の深さ推定方法。
  54. 前記少なくとも1つの特性情報を抽出するステップは、
    前記少なくとも1つの特性情報に基づいて前記少なくとも1つの注目画素と該注目画素に隣接する隣接画素の間の加重値を演算するステップと、
    前記深さマップを更新するステップは、
    前記加重値に基づいて前記フィルタリングを実行することを特徴とする請求項53に記載の深さ推定方法。
  55. 前記入力映像を予め設定された解像度でダウンスケーリングするステップと、
    前記ダウンスケーリングされた入力映像の少なくとも1つの画素の第2初期深さを設定し、前記第2初期深さ値を第2深さマップに格納するステップと、
    前記ダウンスケーリングされた入力映像から少なくとも1つの第2特性情報を抽出するステップと、
    前記少なくとも1つの第2特性情報および前記第2初期深さ値に基づいてフィルタリングを実行することによって、前記ダウンスケーリングされた入力映像の第2深さ値を演算し、前記第2深さ値を用いて前記第2深さマップを更新するステップと、
    前記更新された第2深さマップを前記入力映像の解像度に基づいてアップスケーリングするステップと、
    をさらに含み、
    少なくとも1つの画素の前記初期深さ値を設定する前記ステップは、
    前記アップスケーリングされた第2深さマップに格納された深さ値に基づいて前記初期深さ値を設定することを特徴とする請求項53に記載の深さ推定方法。
  56. 前記少なくとも1つの特性情報は、境界情報、カラー情報、輝度情報、モーション情報、またはヒストグラム情報のうちのいずれか1つ以上であることを特徴とする請求項51に記載の深さ推定装置。
  57. 前記深さ値を設定する前記ステップは、
    前記入力映像の複数の画素を少なくとも1つのブロックにそれぞれグルーピングすることによって、前記入力映像の前記少なくとも1つのブロックの初期深さ値を設定し、前記初期深さ値を深さマップに格納するステップと、
    前記初期深さ値に基づいてフィルタリングを実行することによって、前記少なくとも1つのブロックの第2深さ値を演算し、前記第2深さ値に基づいて前記深さマップを更新するステップと、
    を含むことを特徴とする請求項51に記載の深さ推定方法。
  58. 前記複数の画素に基づいて前記更新された深さマップをアップスケーリングするステップ、
    をさらに含むことを特徴とする請求項57に記載の深さ推定方法。
  59. 前記入力映像に対して予め存在して予め設定された深さ値は、知らされないか存在せず、前記深さ設定部が初期に前記少なくとも1つの特性情報のみに基づいて前記入力映像の前記部分の前記深さ値を設定することを特徴とする請求項51に記載の深さ推定方法。
  60. 前記入力映像の前記部分の前記設定された深さ値を用いて前記入力映像を3Dビデオにレンダリングするステップ、
    をさらに含むことを特徴とする請求項51に記載の深さ推定方法。
  61. 請求項21の方法を少なくとも1つの処理装置が実行するように制御するコンピュータ読み取り可能なコードを記録したコンピュータ読み取り可能な記録媒体。
  62. 請求項30の方法を少なくとも1つの処理装置が実行するように制御するコンピュータ読み取り可能なコードを記録したコンピュータ読み取り可能な記録媒体。
  63. 請求項51の方法を少なくとも1つの処理装置が実行するように制御するコンピュータ読み取り可能なコードを記録したコンピュータ読み取り可能な記録媒体。
JP2009273702A 2008-12-04 2009-12-01 深さ推定装置および方法、および3dビデオ変換装置および方法 Active JP5579422B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080122655A KR101506926B1 (ko) 2008-12-04 2008-12-04 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법
KR10-2008-0122655 2008-12-04

Publications (2)

Publication Number Publication Date
JP2010136371A true JP2010136371A (ja) 2010-06-17
JP5579422B2 JP5579422B2 (ja) 2014-08-27

Family

ID=41381830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009273702A Active JP5579422B2 (ja) 2008-12-04 2009-12-01 深さ推定装置および方法、および3dビデオ変換装置および方法

Country Status (5)

Country Link
US (2) US9137512B2 (ja)
EP (1) EP2194726A1 (ja)
JP (1) JP5579422B2 (ja)
KR (1) KR101506926B1 (ja)
CN (1) CN101754040B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2398103A1 (en) 2010-06-15 2011-12-21 NGK Insulators, Ltd. Fuel cell
JP2013541067A (ja) * 2010-08-10 2013-11-07 モノタイプ.イメージング.インコーポレイテッド マルチビューシーン内のグラフイックス表示
KR101680186B1 (ko) * 2011-08-30 2016-11-28 삼성전자주식회사 영상 촬영 장치 및 그 제어 방법

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101491556B1 (ko) * 2008-12-02 2015-02-09 삼성전자주식회사 깊이 추정 장치 및 방법
JP4966431B2 (ja) * 2009-09-18 2012-07-04 株式会社東芝 画像処理装置
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
KR101054043B1 (ko) * 2010-05-23 2011-08-10 강원대학교산학협력단 2차원 의료영상으로부터 3차원 영상을 생성하는 방법
US8593574B2 (en) 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US20130113795A1 (en) * 2010-07-26 2013-05-09 City University Of Hong Kong Method for generating multi-view images from a single image
KR20120018906A (ko) * 2010-08-24 2012-03-06 삼성전자주식회사 컬러 영상과 깊이 영상의 모션 벡터 공유를 이용한 부호화/복호화 장치 및 방법
CN102387374B (zh) * 2010-08-30 2015-07-29 三星电子株式会社 用于获得高精度深度图的设备和方法
US8571314B2 (en) * 2010-09-02 2013-10-29 Samsung Electronics Co., Ltd. Three-dimensional display system with depth map mechanism and method of operation thereof
JP5058316B2 (ja) * 2010-09-03 2012-10-24 株式会社東芝 電子機器、画像処理方法、及び画像処理プログラム
KR20120023431A (ko) * 2010-09-03 2012-03-13 삼성전자주식회사 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치
US20120188334A1 (en) * 2010-09-22 2012-07-26 Berfort Management Inc. Generating 3D stereoscopic content from monoscopic video content
US9305398B2 (en) 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
KR20120049997A (ko) * 2010-11-10 2012-05-18 삼성전자주식회사 영상 변환 장치 및 이를 이용하는 디스플레이 장치와 그 방법들
JP5132754B2 (ja) * 2010-11-10 2013-01-30 株式会社東芝 画像処理装置、方法およびそのプログラム
KR101669819B1 (ko) * 2010-11-11 2016-10-27 삼성전자주식회사 깊이 영상의 고정밀 복원을 위한 필터링 장치 및 방법
CN102006493A (zh) * 2010-11-26 2011-04-06 北京新岸线网络技术有限公司 一种3d视频图像的视差调节方法及装置
CN102480621B (zh) * 2010-11-29 2015-07-22 扬智科技股份有限公司 用来将二维影片转换为三维影片的方法与装置
CN102036090B (zh) * 2010-12-16 2012-05-02 清华大学 一种用于数字电视终端的电视信号转换装置
KR101119941B1 (ko) * 2010-12-17 2012-03-16 강원대학교 산학협력단 입체영상의 화질 개선 장치 및 방법
JP2012186781A (ja) * 2011-02-18 2012-09-27 Sony Corp 画像処理装置および画像処理方法
KR101763944B1 (ko) 2011-02-18 2017-08-01 엘지디스플레이 주식회사 영상표시장치
US10122986B2 (en) * 2011-02-18 2018-11-06 Sony Corporation Image processing device and image processing method
US20120274626A1 (en) * 2011-04-29 2012-11-01 Himax Media Solutions, Inc. Stereoscopic Image Generating Apparatus and Method
EP2525581A3 (en) * 2011-05-17 2013-10-23 Samsung Electronics Co., Ltd. Apparatus and Method for Converting 2D Content into 3D Content, and Computer-Readable Storage Medium Thereof
JP2012247891A (ja) * 2011-05-26 2012-12-13 Sony Corp 画像処理装置、画像処理方法、およびプログラム
KR101231661B1 (ko) * 2011-06-24 2013-02-08 동서대학교산학협력단 컬러세그먼트 추출과 깊이지도를 활용한 입체영상 제작 방법
US20130050415A1 (en) * 2011-08-30 2013-02-28 Himax Technologies Limited System and Method of Handling Data Frames for Stereoscopic Display
US8837816B2 (en) * 2011-09-27 2014-09-16 Mediatek Inc. Method and apparatus for generating final depth information related map that is reconstructed from coarse depth information related map through guided interpolation
CN102447939A (zh) * 2011-10-12 2012-05-09 绍兴南加大多媒体通信技术研发有限公司 一种影视作品2d转3d的优化方法
KR101660808B1 (ko) * 2011-11-24 2016-09-29 에스케이플래닛 주식회사 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
KR101978172B1 (ko) * 2011-11-29 2019-05-15 삼성전자주식회사 깊이 영상을 고해상도로 변환하는 방법 및 장치
CN103152587B (zh) * 2011-12-06 2016-08-03 北京大学深圳研究生院 一种基于视频压缩码流中辅助增强信息的2d视频转3d视频方法
CN103152586B (zh) * 2011-12-06 2016-01-13 北京大学深圳研究生院 一种基于深度模板的2d视频转3d视频传输及重建方法
US9137519B1 (en) 2012-01-04 2015-09-15 Google Inc. Generation of a stereo video from a mono video
US8824778B2 (en) 2012-01-13 2014-09-02 Cyberlink Corp. Systems and methods for depth map generation
CN103220539B (zh) * 2012-01-21 2017-08-15 瑞昱半导体股份有限公司 图像深度产生装置及其方法
WO2013115463A1 (ko) * 2012-02-01 2013-08-08 에스케이플래닛 주식회사 영상 처리 장치 및 방법
KR101332638B1 (ko) * 2012-02-10 2013-11-25 시모스 미디어텍(주) 깊이 맵 보정 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
KR101306608B1 (ko) * 2012-02-24 2013-09-11 국민대학교산학협력단 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하는 방법 및 이를 이용하는 3차원 영상제공 시스템
US9210405B2 (en) 2012-03-22 2015-12-08 Qualcomm Technologies, Inc. System and method for real time 2D to 3D conversion of video in a digital camera
KR20130114420A (ko) 2012-04-09 2013-10-18 한국전자통신연구원 2차원 동영상의 3차원 동영상으로의 변환 방법 및 장치
WO2013166656A1 (zh) * 2012-05-08 2013-11-14 青岛海信信芯科技有限公司 一种提取及优化图像深度图的方法与装置
KR101957873B1 (ko) * 2012-06-04 2019-03-13 삼성전자주식회사 3차원 영상을 위한 영상 처리 장치 및 방법
CN102724527B (zh) * 2012-06-19 2014-07-16 清华大学 可配置多场景模型的深度估计方法及使用该方法的系统
CN103778598B (zh) * 2012-10-17 2016-08-03 株式会社理光 视差图改善方法和装置
US9098911B2 (en) 2012-11-01 2015-08-04 Google Inc. Depth map generation from a monoscopic image based on combined depth cues
US9299152B2 (en) * 2012-12-20 2016-03-29 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for image depth map generation
US10257506B2 (en) 2012-12-28 2019-04-09 Samsung Electronics Co., Ltd. Method of obtaining depth information and display apparatus
US20140198098A1 (en) * 2013-01-16 2014-07-17 Tae Joo Experience Enhancement Environment
US9619884B2 (en) * 2013-10-03 2017-04-11 Amlogic Co., Limited 2D to 3D image conversion device and method
CN104660900B (zh) * 2013-10-30 2018-03-02 株式会社摩如富 图像处理装置及图像处理方法
KR101694522B1 (ko) * 2014-02-11 2017-01-10 한국전자통신연구원 2차원 동영상을 3차원 동영상으로 변환하는 방법 및 장치
CN103945205B (zh) * 2014-04-04 2015-11-11 西安交通大学 兼容2d与多视点裸眼3d显示的视频处理装置及方法
US9369727B2 (en) * 2014-07-10 2016-06-14 Intel Corporation Storage of depth information in a digital image file
US9507995B2 (en) * 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing
US9803985B2 (en) * 2014-12-26 2017-10-31 Here Global B.V. Selecting feature geometries for localization of a device
EP3236657A1 (en) * 2016-04-21 2017-10-25 Ultra-D Coöperatief U.A. Dual mode depth estimator
KR101720161B1 (ko) * 2016-07-11 2017-03-27 에스케이플래닛 주식회사 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
KR101947782B1 (ko) 2017-02-22 2019-02-13 한국과학기술원 열화상 영상 기반의 거리 추정 장치 및 방법. 그리고 이를 위한 신경망 학습 방법
US10735707B2 (en) 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
CN108062741B (zh) * 2017-12-15 2021-08-06 上海兴芯微电子科技有限公司 双目图像处理方法、成像装置和电子设备
TWI678681B (zh) * 2018-05-15 2019-12-01 緯創資通股份有限公司 產生深度圖的方法及其影像處理裝置與系統
CN110400344B (zh) * 2019-07-11 2021-06-18 Oppo广东移动通信有限公司 深度图处理方法和装置
WO2023224326A1 (ko) * 2022-05-18 2023-11-23 삼성전자 주식회사 깊이 정보를 획득하는 증강 현실 디바이스 및 그 동작 방법
CN117241104B (zh) * 2023-11-07 2024-01-16 中南大学 一种dibr-3d视频版权保护的零水印方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105338A (ja) * 1992-09-17 1994-04-15 Fujitsu Ltd 画像データ前処理フィルタ装置
JPH07296165A (ja) * 1994-04-28 1995-11-10 Canon Inc 3次元画像撮影用カメラ
JPH1032841A (ja) * 1996-07-18 1998-02-03 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置および方法
JPH1198531A (ja) * 1997-09-24 1999-04-09 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及び方法
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
WO2008062351A1 (en) * 2006-11-21 2008-05-29 Koninklijke Philips Electronics N.V. Generation of depth map for an image

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100358021B1 (ko) 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
US6266072B1 (en) * 1995-04-05 2001-07-24 Hitachi, Ltd Graphics system
JPH0937301A (ja) 1995-07-17 1997-02-07 Sanyo Electric Co Ltd 立体映像変換回路
JPH1069543A (ja) * 1996-08-29 1998-03-10 Oki Electric Ind Co Ltd 被写体の曲面再構成方法及び被写体の曲面再構成装置
US6504569B1 (en) 1998-04-22 2003-01-07 Grass Valley (U.S.), Inc. 2-D extended image generation from 3-D data extracted from a video sequence
JP2003106812A (ja) 2001-06-21 2003-04-09 Sega Corp 画像情報処理方法、その方法を利用したシステム及びプログラム
US7558420B2 (en) 2002-08-20 2009-07-07 Kazunari Era Method and apparatus for generating a stereographic image
KR100505334B1 (ko) 2003-03-28 2005-08-04 (주)플렛디스 운동 시차를 이용한 입체 영상 변환 장치
JP4644669B2 (ja) 2003-08-05 2011-03-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチビュー画像の生成
US7262767B2 (en) * 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
KR100757259B1 (ko) 2004-10-25 2007-09-11 전자부품연구원 압축 동영상의 움직임 벡터를 이용하여 2차원 영상을3차원 영상으로 변환하는 방법
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
JP5085059B2 (ja) * 2006-06-28 2012-11-28 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
US20080205791A1 (en) * 2006-11-13 2008-08-28 Ramot At Tel-Aviv University Ltd. Methods and systems for use in 3d video generation, storage and compression
KR20080047673A (ko) * 2006-11-27 2008-05-30 (주)플렛디스 입체영상 변환 장치 및 그 방법
KR100931311B1 (ko) 2006-12-04 2009-12-11 한국전자통신연구원 프레임 간 깊이 연속성 유지를 위한 깊이 추정 장치 및 그방법
US8330801B2 (en) 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
CA2627999C (en) * 2007-04-03 2011-11-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
US20080252652A1 (en) * 2007-04-13 2008-10-16 Guofang Jiao Programmable graphics processing element
US7889949B2 (en) * 2007-04-30 2011-02-15 Microsoft Corporation Joint bilateral upsampling
JP4878330B2 (ja) 2007-05-09 2012-02-15 国立大学法人 東京大学 対象物の関節構造の取得方法及び装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105338A (ja) * 1992-09-17 1994-04-15 Fujitsu Ltd 画像データ前処理フィルタ装置
JPH07296165A (ja) * 1994-04-28 1995-11-10 Canon Inc 3次元画像撮影用カメラ
JPH1032841A (ja) * 1996-07-18 1998-02-03 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置および方法
JPH1198531A (ja) * 1997-09-24 1999-04-09 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及び方法
JP2000261828A (ja) * 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
WO2008062351A1 (en) * 2006-11-21 2008-05-29 Koninklijke Philips Electronics N.V. Generation of depth map for an image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2398103A1 (en) 2010-06-15 2011-12-21 NGK Insulators, Ltd. Fuel cell
JP2013541067A (ja) * 2010-08-10 2013-11-07 モノタイプ.イメージング.インコーポレイテッド マルチビューシーン内のグラフイックス表示
US10134150B2 (en) 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
KR101680186B1 (ko) * 2011-08-30 2016-11-28 삼성전자주식회사 영상 촬영 장치 및 그 제어 방법

Also Published As

Publication number Publication date
CN101754040B (zh) 2015-04-22
KR20100064196A (ko) 2010-06-14
EP2194726A1 (en) 2010-06-09
US9137512B2 (en) 2015-09-15
JP5579422B2 (ja) 2014-08-27
CN101754040A (zh) 2010-06-23
US20100141757A1 (en) 2010-06-10
KR101506926B1 (ko) 2015-03-30
US20130235153A1 (en) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5579422B2 (ja) 深さ推定装置および方法、および3dビデオ変換装置および方法
KR101978172B1 (ko) 깊이 영상을 고해상도로 변환하는 방법 및 장치
KR101491556B1 (ko) 깊이 추정 장치 및 방법
EP2169619A2 (en) Conversion method and apparatus with depth map generation
KR101710444B1 (ko) 깊이 맵 생성 장치 및 방법
US8213708B2 (en) Adjusting perspective for objects in stereoscopic images
JP6412690B2 (ja) 深さ情報を取得する方法及びディスプレイ装置
Ward et al. Depth director: A system for adding depth to movies
WO2020039166A1 (en) Method and system for reconstructing colour and depth information of a scene
CN108124489B (zh) 信息处理方法、装置、云处理设备以及计算机程序产品
EP3819869B1 (en) Method and apparatus with depth image generation
JP4892113B2 (ja) 画像処理方法及び装置
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
KR20150093048A (ko) 그래픽스 데이터를 렌더링하는 방법 및 장치
KR101511315B1 (ko) 스테레오스코픽 컨텐츠를 위한 다이나믹 플로팅 윈도우 생성 방법 및 시스템
Lee et al. Automatic 2d-to-3d conversion using multi-scale deep neural network
Islam et al. Warping-based stereoscopic 3d video retargeting with depth remapping
KR20130112131A (ko) 스테레오 엔도스코프를 이용한 수술용 이미지와의 정합 속도 향상 방법
JP2015103960A (ja) 画像奥行き指定方法、プログラム、および装置
KR101794709B1 (ko) 임의 시점의 영상 생성 방법, 이를 수행하기 위한 기록 매체 및 장치
KR20130112132A (ko) 스테레오 엔도스코프의 풀 에이치디 영상을 이용한 3차원 가시화 속도 향상 방법
EP4191526A1 (en) Apparatus and method with object posture estimating
KR20120110805A (ko) 스테레오 엔도스코프의 풀 에이치디 영상을 이용한 3차원 화면 가시화 방법
Ng et al. An approach to 2D-To-3D conversion for multiview displays
KR20120110807A (ko) 3차원 화면으로 구성된 화면의 기초 라인 실시간 변경 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140709

R150 Certificate of patent or registration of utility model

Ref document number: 5579422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250