JP2001526477A - 画像変換および符号化技術 - Google Patents

画像変換および符号化技術

Info

Publication number
JP2001526477A
JP2001526477A JP2000524763A JP2000524763A JP2001526477A JP 2001526477 A JP2001526477 A JP 2001526477A JP 2000524763 A JP2000524763 A JP 2000524763A JP 2000524763 A JP2000524763 A JP 2000524763A JP 2001526477 A JP2001526477 A JP 2001526477A
Authority
JP
Japan
Prior art keywords
depth
depth map
image
contour
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000524763A
Other languages
English (en)
Other versions
JP4698831B2 (ja
Inventor
ハーマン、フィリップ、ヴィクター
Original Assignee
ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AUPP0778A external-priority patent/AUPP077897A0/en
Priority claimed from AUPP2865A external-priority patent/AUPP286598A0/en
Application filed by ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド filed Critical ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド
Publication of JP2001526477A publication Critical patent/JP2001526477A/ja
Application granted granted Critical
Publication of JP4698831B2 publication Critical patent/JP4698831B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Abstract

(57)【要約】 2D画像内の少なくとも1つの物体を識別する段階と、前記各物体に識別タグを割り当てる段階と、前記各物体に深度タグを割り当てる段階と、前記各物体の輪郭を決定しかつ定義する段階とを有することを特徴とする2D画像の立体画像への変換に使用する深度マップの作成方法。

Description

【発明の詳細な説明】
【0001】 (技術分野) 本発明は、広くは、立体画像合成に関し、より詳しくは、2次元画像(2D)
を更に符号化して伝送し、立体画像表示の目的で復号化すべく2次元画像を変換
する改善された方法に関する。
【0002】 (背景技術) 本件出願人は、これまでに、PCT/AU96/00820において、原2D
画像から立体ディスプレイのための左目および右目画像を作成する方法であって
、 a.原画像内の少なくとも1つの物体を識別する段階と、 b.各物体を輪郭付けする段階と、 c.各物体の深度特性(depth characteristic)を定義する段階と、 d.各物体の選択された領域を、それぞれ、各物体の深度特性の関数として決 定された量だけ横方向に変位させて、観察者の左右の目で見ることができる2つ
の引伸ばし画像を形成する段階とからなる方法を開示している。
【0003】 これらの段階は、個別的におよび集合的に、動的深度キューイング(Dynamic
Depth Cueing; DDC)と呼ぶことができる。
【0004】 (発明の開示) 本発明は、本件出願人に係る上記システムを更に改良するものである。
【0005】 本発明は、その一態様として、2D画像の立体画像への変換に使用する深度マ
ップの作成方法であって、 2D画像内の少なくとも1つの物体を識別する段階と、 前記各物体に識別タグを割り当てる段階と、 前記各物体に深度タグを割り当てる段階と、 前記各物体の輪郭を決定し、定義する段階とを有することを特徴とする深度マッ
プ作成方法を提供する。
【0006】 本発明は、その他の態様として、2D画像の立体画像への変換に使用する深度
マップの符号化方法において、 物体に物体識別子を割り当てる段階と、 前記物体に深度タグを割り当てる段階と、 前記物体の輪郭を定義する段階とを有することを特徴とする深度マップの符号
化方法を提供する。
【0007】 物体の輪郭は、一連の座標、曲線および/または幾何学的形状により定義され
る。識別タグは、一意的な数値を用いると便利である. 本発明の他の態様では、ベジエ曲線(bezier curves)を使用して2Dから3 Dへの変換プロセスで物体の輪郭を創成させる方法を提供する。
【0008】 本発明の更に別の態様では、曲線を使用して2Dから3Dへの変換プロセスで
物体を定義する方法を提供する。
【0009】 本発明の他の態様では、幾何学的形状を使用して2Dから3Dへの変換プロセ
スで物体の輪郭を定義する方法を提供する。
【0010】 本発明の他の態様では、深度マップ情報(該情報はバーチカルブランキングイ
ンターバル(Vertical Blanking Interval)またはMPEGデータストリーム内
に含まれている)の伝送方法を提供する。
【0011】 本発明の更に別の態様では、汎用(generic)ライブラリを使用して2Dから 3Dへの変換プロセスの補助を行う方法を提供する。
【0012】 (発明を実施するための最良の形態) 本発明のより良き理解を与えるため、本発明の好ましい実施形態を示す添付図
面を参照して本発明を説明する。
【0013】 物体識別 変換すべき2D画像での物体は、視覚による点検(inspection)を通じて、人
であるオペレータにより識別されることができる。オペレータは、一般に、コン
ピュータマウス、光ペン、スタイラスまたは他のデバイスを用いて、画像中の各
物体または物体群にタグを付し、そして、それらの物体に一意的な数値を割り当
てる。この数値は、オペレータが手動操作で創出するか、コンピュータにより特
定シーケンスで自動的に創出することができる。
【0014】 また、物体は、コンピュータを用いて完全に自動的に識別されるか、またはコ
ンピュータが物体(単一または複数)の位置を確定することをオペレータが補助
することにより半自動的に識別されることができる。
【0015】 物体を自動的に識別するため、コンピュータは、物体のサイズ、色、移動速度
、陰影、質感、輝度、ぼやけ、焦点、過去、現在および未来の画像間の差異等の
特徴を使用する。物体の識別を補助するのに、ニューラルネットワークまたはエ
キスパートシステムを使用することもできる。
【0016】 半自動物体識別では、オペレータは、当該物体が見出される画像の性質に関す
るアドバイスをコンピュータに与えることにより、コンピュータを補助すること
ができる。例えば、オペレータは、当該シーンが汎用フォーマットの「News Rea
der」のシーンであることをコンピュータにアドバイスでき、この場合には、コ ンピュータは、ニュースキャスターの頭部および肩部、デスクおよび背景等を配
置しようと試みる。オペレータは、想定される汎用シーンのメニューから選択で
きる。オペレータは、コンピュータによりなされた任意の物体の選択を手動操作
により無効にし、および/または、訂正、調節することができる。コンピュータ
プログラムは、例えばニューラルネットワークまたはエキスパートシステムを用
いてこれらの訂正から学習し、物体識別および番号付けの精度を連続的に改善で
きる。
【0017】 ひとたび物体が識別され、番号付けされたならば、物体は、連続フレームにわ
たって画像内で移動するときに、手動操作により、自動的にまたは半自動的にト
ラッキングされる。
【0018】 また、オペレータは、同じシーケンス上の作業、または同様なシーンの従前の
変換からの作業で、他のオペレータにより作成された物体識別情報を使用するこ
ともできる。
【0019】 物体の輪郭付け 単一または複数の物体の輪郭付けは、手動により、あるいは、自動的にまたは
半自動的に決定される。
【0020】 手動操作による輪郭付けでは、オペレータは、コンピュータマウス、光ペン、
スタイラスまたは他のデバイスを用いて単一または複数の物体の輪郭をトレース
する。オペレータは、1つずつの画素ベースで物体の輪郭を選択し、直線近似ま
たは曲線近似、ベジエ曲線を使用し、あるいは、曲線形状または汎用形状のライ
ブラリからぴったり適合させることができる。また、オペレータは、既にほぼ正
確な形状になっている汎用形状のライブラリから選択し、形状を拡大縮小または
調節して、動的に適合させることができる。例えば、オペレータが人の輪郭の選
択を望む場合には、人の汎用輪郭をライブラリから検索して、手動操作により、
半自動的にまたは自動的に適宜調節することができる。また、オペレータは、円
形、楕円形、三角形、正方形等の幾何学的形状のライブラリから選択することも
できる。
【0021】 自動的輪郭付けの場合に、コンピュータは、サイズ、色、移動速度、陰影、輝
度、ぼやけ、焦点、過去、現在および未来の画像間の差異等の特徴を使用できる
。物体の輪郭を決定するのに、ニューラルネットワークまたはエキスパートシス
テムを使用することもできる。
【0022】 半自動輪郭付けでは、オペレータは、当該物体が見出される画像の性質に関す
るアドバイスをコンピュータに与えることにより、コンピュータを補助すること
ができる。例えば、オペレータは、当該シーンが汎用フォーマットの「News Rea
der」のシーンであることをコンピュータにアドバイスでき、この場合には、コ ンピュータは、ニュースキャスターの頭部および肩部、デスクおよび背景等を配
置しようと試みる。オペレータは、想定される汎用物体のメニューから選択でき
る。オペレータは、コンピュータによりなされたあらゆる物体の選択を手動操作
により無効にし、および/または、訂正および調節することができる。コンピュ
ータプログラムは、例えばニューラルネットワークまたはエキスパートシステム
を用いてこれらの訂正から学習し、輪郭付けの精度を連続的に改善できる。
【0023】 ひとたび物体が輪郭付けされたならば、物体は、連続フレームにわたって画像
内で移動するときに、手動操作により、あるいは、自動的にまたは半自動的にト
ラッキングされる。
【0024】 また、オペレータは、同じシーケンス上の作業、または同様なシーンの従前の
変換からの作業で、他のオペレータにより作成された物体輪郭付け情報を使用す
ることもできる。また、オペレータは、予め定義された輪郭のライブラリ(該ラ
イブラリには、円形、楕円形、三角形、正方形等の幾何学的形状が含まれる)か
ら選択し、ライブラリの輪郭を手動操作、半自動的または自動的に調節して、選
択された物体に適合させることもできる。ライブラリは、個々の輪郭(例えば、
News Reader)により、または物体(例えば、Horse Race, Evening News等)の 特定ファミリに基いて、索引付けすることができる。
【0025】 深度の定義 単一または複数の物体の深度は、手動操作、あるいは、自動的または半自動的
に決定できる。物体の深度は、任意の英数字、視覚、聴覚または触覚情報を用い
て割り当てられる。好ましい実施形態では、物体の深度は、物体を特定の色で陰
影付けすることにより表示される。一般に、ひとたび変換されると、観察者に最
も近い3D位置に現れる物体については白色、および観察者から最も離れた3D
距離にある物体については黒色に陰影付けされる。この規則は変えることができ
ることは明白であり、例えば、反転させたり、相対深度または絶対深度を表示す
る彩色とすることができる。
【0026】 他の実施形態では、物体の深度には数値が割り当てられる。この値は、線形ま
たは非線形に連続した正または負の数値にすることができ、単一または複数の数
字を含むことができる。好ましい実施形態では、この値は、この値を単一バイト
で符号化できるようにするため、0〜255の範囲内にある。ここで、255は
、ひとたび変換されると、観察者に最も近い3D位置に現れる物体を表し、一方
0は、観察者から最も離れた3D距離にある物体を表す。この規則は変えること
ができることは明白であり、例えば、逆転させたり、他の範囲の数字を使用する
ことができる。
【0027】 手動操作による深度定義では、オペレータは、コンピュータマウス、光ペン、
スタイラスまたは他のデバイスを使用して、物体または物体群の深度を割り当て
ることができる。オペレータは、ポインティングデバイスを物体の輪郭内に置き
、深度値を入力することにより物体の深度を割り当てることができる。深度は、
数字、英数字、または記号としてオペレータにより入力される。そして、所定範
囲の許容値からオペレータにより割り当てられるか、コンピュータにより自動的
に割り当てられる。また、オペレータは、許容深度のライブラリまたはメニュー
から物体の深度を選択できる。
【0028】 また、オペレータは、物体内に一定範囲内の深度、または時間、物体位置また
は移動速度またはこれらのファクタの任意の組合せにより変化する深度範囲を割
り当てることができる。例えば、物体は、観察者に最も近い縁部と、観察者から
最も離れた縁部とを備えたテーブルであるとする。3Dに変換するとき、テーブ
ルの見かけ深度はその縦方向に沿って変化しなければならない。これを達成する
ため、オペレータはテーブルを多数のセグメントに分割し、各セグメントに個々
の深度を割り当てる。あるいは、オペレータは、陰影の量がテーブルの特定位置
での深度を表すように物体に陰影付けすることにより、連続的に変化する深度を
物体内に割り当てることができる。このテーブルの例では、明るい影が近い側の
物体を表し、暗い影が遠い側の物体を表す。テーブルの例では、最も近い縁部に
明るい影が付され、最も遠い縁部に到達するまで、影は徐々に暗くなっていく。
【0029】 物体内の深度の変化は、線形でも非線形でも良く、時間、物体の位置、移動ま
たはこれらのファクタの任意の組合せに従って変化してもよい。
【0030】 物体内の深度の変化は、ランプ(ramp)型することができる。リニアランプは
、始点(A)および終点(B)を有することとなる。点A、Bにおける色が定義
される。点Aから点Bへの階調度が垂線上に適用される。
【0031】 ラジアルランプ(Radial Ramp)は、中心点(A)からの半径(B)までの距 離を使用するが、リニアランプと同様な傾斜を定義する。
【0032】 ラジアルランプに対する簡単な拡張は、外側の縁を先細にさせるか、中心点を
可変サイズにすることができる。
【0033】 線形拡張は、垂線からの距離ではなく、線分からの距離である。この例では、
色は、線分についてのものおよび「外側(outside)」についての色が定義され る。線分に沿う色が定義され、この色は「外側」の色に向かってテーパしている
【0034】 種々のランプは容易に符号化される。また、ランプは、より複雑な曲線、方程
式、および可変透明度等に基いて定められる。
【0035】 他の例では、フレームの一期間にわたって、物体は画像の前方から後方へと移
動する。オペレータは、第1フレームの物体についての深度、および最終または
次のシーンにおける物体の深度を割り当てることができる。次に、コンピュータ
は、物体の深度を、連続フレームにわたって、線形法または他の所定方法で補間
する。このプロセスも完全に自動化でき、これにより、コンピュータは、物体が
ある時間にわたって移動するときに、物体のサイズ変化に基いて物体の深度の変
化を割り当てる。
【0036】 自動深度定義において、コンピュータは、サイズ、色、移動速度、陰影、輝度
、ぼやけ、焦点、および過去、現在、未来間における画像の差異等の特性を使用
できる。ニューラルネットワークまたはエキスパートシステムを用いて、物体の
深度を決定することもできる。
【0037】 半自動深度定義において、オペレータは、深度が割り当てられる画像の性質に
関するアドバイスをコンピュータに与えることにより、コンピュータを補助でき
る。例えば、オペレータは、当該シーンが汎用フォーマットの「News Reader」 のシーンであることをコンピュータにアドバイスでき、この場合には、コンピュ
ータは、ニュースキャスターの頭部および肩部、デスクおよび背景等を配置し、
これらを論理的深度シーケンスとして配置することを試みる。オペレータは、想
定される汎用物体および深度のメニューから選択できる。オペレータは、コンピ
ュータによりなされた任意の物体の深度を手動操作により無効にし、および/ま
たは、訂正および調節することができる。コンピュータプログラムは、例えばニ
ューラルネットワークまたはエキスパートシステムを用いてこれらの訂正から学
習し、深度割当ての精度を連続的に改善できる。
【0038】 ひとたび物体に特定深度が割り当てられたならば、物体は、連続フレームにわ
たって画像内で移動するときに、手動操作により、あるいは、自動的にまたは半
自動的にトラッキングされる。
【0039】 また、オペレータは、同じシーケンス上の作業、または同様なシーンの従前の
変換からの作業で、他のオペレータにより作成された深度定義を使用することも
できる。
【0040】 多数のオペレータ ビデオシーケンスをタイムリーな方法で変換するためには、多数のオペレータ
が2Dソースマテリアルで作業する必要がある。これらのオペレータは、同じ前
提で配置されるとしても、例えばインターネットのようなオンラインコンピュー
タサービスを用いることで、世界中のどこにでも置くことができる。このような
状況で、ソースマテリアルのセキュリティを確保するには、音声情報を除去し、
そして画像の色を変更する必要がある。これにより、物体の輪郭を決定するオペ
レータの能力に何らの影響をも与えずに、原ソースマテリアルへの著作権侵害を
防止できる。物体の輪郭の実際の選択は比較的簡単なプロセスであるので、これ
は、労働コストが低い国で行うのが最もコスト有効性に優れている。この構成を
用いる場合、変換手順は次のようにするのが便利であろう。
【0041】 1.監督オペレータが、3Dに変換すべきビデオシーケンスを識別し、シーケ
ンスの各フレームに番号を付す。
【0042】 2.監督オペレータが、必要に応じて、必要なセキュリティ処置を適用する。
【0043】 3.監督オペレータが、前述のようにして輪郭付けする必要のあるシーン中の
物体あるいは物体群を識別し、それぞれに一意的なタグを付す。
【0044】 4.ビデオシーケンスは、次に、適当なデジタルフォーマットに変換され、オ
ンラインサービスを介して遠隔宛先または宛先群に伝送される。長いビデオシー
ケンスだと、これは不経済であるかもしれないので、この場合には、CD−RO
Mまたは他のバックアップ媒体による配送が好ましい。
【0045】 5.このシーケンスは、オペレータまたはオペレータ達が物体の操作を行う遠
隔の場所で受け取られる。
【0046】 6.操作の結果として、識別された物体輪郭(このデータは後で圧縮される)
が得られるので、ファイルサイズは、一般に、原画像よりかなり小さくなるであ
ろう。この場合には、物体情報は、オンラインe−メールサービスを用いて監督
オペレータに便利に戻される。
【0047】 7.監督オペレータは、受け取った物体の輪郭の品質制御を行い、フレーム番
号を原ビデオソースマテリアルに一致させる。
【0048】 8.次に、監督オペレータは、物体輪郭と原ソースマテリアルを、各物体につ
いて必要な深度情報を適用する次のオペレータに渡す。
【0049】 深度情報の適用は芸術的で創作的なプロセスであるので、これは、小さいオペ
レータのグループにより、中央の位置で行うことが、本質的ではないにせよ望ま
しいことである。これはまた、長いシーケンスにわたって物体の深度の一貫性を
保証する。
【0050】 複雑な深度定義 よりリアリスティックに見える3Dを作成するには、簡単なランプまたは線形
変化よりも複雑な深度定義を用いることが必要となることがある。これは、例え
ば樹木のような多くの深度変化をもつ複雑な内部構造を有する物体にとって特に
望まれることである。このような物体の深度マップは、物体に質感バンプマップ
を付加することにより作成できる。例えば、樹木を考慮する場合、第1段階は樹
木の輪郭の周囲をトレースし、次に樹木に深度を割り当てることである。次に、
質感バンプマップを付加して、樹木の各葉にそれ自体の深度を付与する。このよ
うな質感マップは、比較的簡単な物体に細部を付与する上で、本発明にとって有
効であると考えられる。
【0051】 しかしながら、樹木の葉または他の複雑な物体のような微細な部分については
この方法は好ましくはない。なぜならば、この方法は、樹木等が風で動いたりカ
メラアングルがフレーム毎に変化するような場合に非常に複雑化してしまうから
である。より好ましい他の方法は、原物体の輝度(あるいは、黒色または白色成
分)を用いて必要なバンプマップを創成することである。一般に、観察者に近い
物体は明るく、観察者から遠い物体は暗くなる。従って、近い要素に明るい光輝
度値を割り当て、遠い要素に暗い光輝度値を割り当てることにより、バンプマッ
プが自動的に創成される。この技術の利点は、物体自身がバンプマップの創成に
利用され、フレーム間で物体がどんな動きをしても、自動的にトラッキングされ
ることができることである。物体の他の特性を使用してバンプマップを創成する
こともでき、これらの特性として、色差、彩度、色のグループ分け、反射、陰影
、焦点、鮮鋭度等があるが、これらに限定されるものではない。
【0052】 物体の特性から得られるバンプマップ値は、物体内の深度変化範囲が、画像全
体の一般的な深度範囲と一貫性を保つように調整するのが好ましい。
【0053】 深度マップ 物体を検出し、物体の輪郭を決定し、深度を割り当てるプロセスを、本発明者
は、深度マップの創成と呼ぶことにする。好ましい実施形態では、深度マップは
、関連2D画像内の物体を256個の個々の深度の1つに定義できるようにする
80×60×8ビットの解像度の濃度階調画像からなるものとする。
【0054】 あるいは、曲線の形状は、連続的なxy座標と、ある線A上にあって、曲線に
より結合されたこれらの点x1y1およびx2y2との間の直線からの曲線の変
位との間の距離の比として定義できる。これらの点の間の曲線は、線Aから曲線
の中間点まで測定した最大変位Bを有している。従って、曲線は次のように定義
される。
【0055】 曲線=B/A この曲線は、−128から+128の値をもつことが好ましく、0は、2つの点
の間の直線を表す。曲線に割り当てられた値は2つの測定値の比であるので、同
じ曲線値が、同じB/A比をもつ他の曲線にも割り当てられることに留意された
い。
【0056】 深度マップの符号化 深度マップは多くの方法で符号化できる。好ましい実施形態では、物体番号、
深度および物体輪郭が、次のように符号化される。Fig3に示す人の輪郭を考
えるものとする。人には、深度20をもつ物体番号1が割り当てられる。物体の
輪郭は、前述のようにして特定のx、y位置に決定されている。一般に、物体輪
郭の方向が変化する箇所には、特定のマークが付される。このマークとして、英
数字、形状、色または他の視覚表示形態がある。これらの各マークは、特定のx
、y位置を有している。好ましい実施形態では、これは、0から255の範囲内
にある。各x、yの対の間に、曲線が存在する。各曲線は、全ての可能な曲線形
状のライブラリからの選択により決定される。好ましい実施形態では、各曲線は
、1バイトを用いて曲線を定義できるようにするため、一般に−127から+1
27の範囲内の値が付与される。x、y位置から次のx、y位置まで時計回り方
向に進行する曲線には正の値が割り当てられ、反対に反時計回り方向に進行する
曲線には負の値が割り当てられる。他の割当てを適用することもできる。
【0057】 深度の閾値処理 変換アルゴリズムに深度閾値を付加するこにより、閾値より前の物体が歪まな
いようにすることができる。これは、前景物体が後景物体と交差するときに、前
景物体の縁部に、いくつかの小さい歪みが生じることを防止する。
【0058】 好ましい変換アルゴリズムでは、深度マップを使用して、最終シーンの3Dプ
ロファイルを形成する連続深度マップを創成する。このプロセスに閾値が適用さ
れると、深度マップが処理されて閾値遷移点が検出され、該遷移点より上および
下の深度が独立的に処理される。
【0059】 従って、この物体の深度マップは次のように定義される。
【0060】 <物体番号><物体深度><x1、y1、曲線1、x2、y2、曲線2…x1
、y1> 物体深度情報は、現在の物体の深度を発生させるのに必要なデータを保有して
いる。前述のように、この深度データは、単一データ、ランプ(リニア、ラジア
ル、その他)、または単一物体の深度を記述する他の方法で構成できる。次の方
法は、単一物体の深度データを符号化できる手段を示すものである。
【0061】 深度データは、単一深度値について次のように符号化される。
【0062】 <深度フラグ1><深度値> 深度データは、その深度値としてリニアランプをもつ物体について次のように
符号化される。
【0063】 <深度フラグ2><x1、y1、深度値1、x2、y2、深度値2> ここで、物体の深度は、x1、y1での深度値1からx2、y2での深度値2ま
で線形に変化する。
【0064】 深度データは、その深度値として非リニアランプをもつ物体について次のよう
に符号化される。
【0065】 <深度フラグ3><x1、y1、深度値1、x2、y2、深度値2、ガンマ>
ここで、ガンマはx1、y1とx2、y2との間の範囲にわたる深度の非リニア
変化を記述する値である。
【0066】 深度データは、その深度値としてラジアルランプをもつ物体について次のよう
に符号化される。
【0067】 <深度フラグ4><x1、y1、深度値1、半径、深度値2> ここで、物体はx1、y1で深度値1を有し、深度は線形に変化するか、x1、
y1からラジアル画素離れた全ての点の深度値2の値まで変化する。
【0068】 物体の深度マップがひとたび伝送されたならば、物体が移動するか形状を変え
るまでは深度マップを再度伝送する必要はないことが理解されよう。物体が位置
変化をする場合にのみ、次のようにして、物体の位置にオフセットを割り当てる
ことにより、物体の新しい位置が伝送される。
【0069】 <物体番号><xオフセット、yオフセット> 同様に、物体の深度が変化し、物体の位置またはサイズは変化しない場合には、
下記のものが伝送される。
【0070】 <物体番号><深度> また、隣接接触物体がx、y座標を共有すること、従って、シーンの全ての物体
の深度マップを一意的に定義すべく伝送されることを要する重複部分がx、y座
標に存在することも理解されよう。
【0071】 伝送または記憶する必要がある付加データの量を最小にするためには、深度マ
ップを有するデータを圧縮することが望まれる。圧縮は、任意の形態のデータ圧
縮アルゴリズムを使用でき、その多くは当業者に知られている。圧縮の例として
、ランレングス符号化およびハフマン符号化があるが、これらに限定されるもの
ではない。物体はフレームからフレームへとは移動しないかもしれないので、フ
レーム間の深度マップの差異を伝送することだけが必要である。フレーム間の差
異を測定および処理できるようにする技術も当業者には知られている。
【0072】 深度マップ情報は、アナログテレビジョン信号のバーチカルブランキングイン
ターバル(VBI)、または歪みメッシュ伝送について前述したようなMPEG
またはデジタルテレビジョン信号の他のデジタル伝送ストリームに含められるこ
とが好ましい。同様に、深度マップデータは、DVDのVOBファイルに付加で
きる。
【0073】 VBIおよびMPEGデータストリームにデータを入れる方法は知られており
、好ましい実施形態は、標準テレビジョン画像内にClosed Captioning and Tele
textを含めるのに現在使用されている技術である。他の好ましい実施形態では、
データは、MPEGデータストリームのユーザデータ領域内に含めることができ
る。
【0074】 このデータをVBIまたはMPEG2ストリームに入れる点に関し、次の計算
は同様なサイズのデータ条件を表示する。
【0075】 仮定: VBI仕様は、32バイト/ビデオラインを考慮に入れる 画像当たりの物体の最大数=20 物体当たりの最大X、Y座標=20 物体#、物体深度、X、Yおよび形状データの各々は1バイトを要する。
【0076】 この場合には、バイト/物体=1+1+3(20)=62バイトとなる。従っ
て、20個の物体のVBIデータ=20×62=1240バイト/フレームとな
る。
【0077】 これは最悪の場合であり、実際には一般的なシーンは200バイト/フレーム
を必要とすることに留意されたい。この値は、適当なデータ圧縮を行い、重複部
分等を考慮に入れることにより、大幅に小さくなる。
【0078】 この情報をMPEGデータストリーム内に含めることにより、MPEGスタン
ダードは、データストリームを受信位置に配給することを可能にする。MPEG
ストリーム内にデータを配給する技術は、深度マップを受信デコーダに配給する
のにも使用できる。また、この情報を、MPEG信号のサウンドチャンネルの1
つに含めることもできる。MPEG信号がCD−ROMまたはDVD等の媒体に
記録される場合には、この情報を別々のデジタルファイルまたはアナログファイ
ルとしてデジタルオーディオファイル内に含めることができる。MPEG信号は
他の手段のディスクに記録することもできる。当業者には、他の技術は明白であ
ろう。
【0079】 MPEGデータストリームの一部として、原深度マップを伝送することもでき
る。好ましい実施形態では、深度マップの解像度は、得られる3D画像の物体の
深度の気付き得る誤差が明らかになる前に、一般に、640×480×8画素か
ら80×60×8画素に低下される。この解像度は、MPEG符号化ビデオ信号
のDTCブロックサイズと同じである。従って、深度マップ情報は、3Dに変換
されるときに各ブロックの深度を定義するDTCブロックに付加情報を付加する
ことにより、MPEG信号に入れることができる。また深度マップは、例えばオ
ーディオチャンネルのような前述のMPEGデータストリームまたは当業者に知
られた他の方法に含めることができる。解像度が低下された深度マップは、JP
EG、MJPEG、MPEG等を含む(但し、これらに限定されるものではない
)標準画像圧縮技術を用いてMPEGデータストリームに入れる前に圧縮するこ
とができる。
【0080】 他の好ましい実施形態では、物体の輪郭はベジエ曲線を用いて定義される。F
ig4に示す人の輪郭を考えるものとする。ベジエ曲線は、図示のx、y座標で
得られる輪郭に適用される。従って、物体の深度マップは次のように定義される
【0081】 <物体番号><物体深度><x1、y1、x1a、y1a、x2b、y2b、
…x1b、y1b> また、ベジエ曲線はFig5に示すように、3つのx、y座標のみを必要とす
る方法でも得ることができ、次のように定義できる。
【0082】 <物体番号><物体深度><x1、y1、x1a、y1a、x2、y2、…x
8a、y8a> この方法は、曲線を定義するのにより少数の要素で済むため好ましいものであ
る。
【0083】 他の好ましい実施形態では、物体の輪郭は幾何学的形状を用いて定義される。
Fig5に示す人の輪郭を考えるものとする。図示の構成になる輪郭に、幾何学
的形状が適用される。頭部を形成する円形は、x1、y1および半径r1により
定義される。三角形は、x2a、y2a、x2b、y2b、x2c、y2cとし
て記述され、他の多角形も同様である。各幾何学的形状は、一般的な形式、 <形状><パラメータ> をもたせることができる。従って、物体の深度マップは次のように定義される。
【0084】 <物体番号><物体深度><形状1><パラメータ>…<形状n><パラメー
タ> これらのいずれかの方法(圧縮または非圧縮)を用いて創成される輪郭および
/または深度マップは、これらの関連2D画像を用いて(または用いないで)任
意の適当なアナログまたはデジタルフォーマットおよび媒体に記憶することがで
きる。記憶媒体として、フロッピディスク、ハードディスク、CD−ROM、レ
ーザディスク、DVD、RAM、ROM、磁気記録テープ、ビデオテープ、ビデ
オカセット等があるが、これらに限定されるものではない。記憶された輪郭およ
び/または深度マップは、後で呼び出され、および/または3D画像の創成のた
めの歪みメッシュの創成のためまたは更に調節および微調節すべく、深度マップ
を再構成することを可能にする。
【0085】 デコーダ これまでに、歪みメッシュを2D画像から3D画像への変換に使用できること
が開示されている。
【0086】 今では、深度マップから必要な歪みグリッドを創成することができる。この深
度マップ自体は、2Dビデオ内で伝送される付加情報から創成される。深度マッ
プからの歪みグリッドの創成は、リアルタイム、セミリアルタイム、またはオフ
ラインで行うことができ、局部的にまたは遠隔場所で適当な伝送媒体を介して行
うことができる。創成は、ソフトウェアまたはハードウェアで実施することがで
きる。
【0087】 かくして、2D画像の一部として歪みメッシュのサブ画素点(sub pixel poin
ts)を伝送するのではなく、深度マップの再創成に必要な情報を伝送することが
できる。この場合、深度マップはデコーダで再構成され、歪みグリッドへの変換
が行われる。これらの変換は、リアルタイム、セミリアルタイム、または遠隔の
場所からオフラインで行うことができ、ソフトウェアまたはハードウェアで実施
できる。深度マップデータから深度マップに変換し、次に歪みグリッドに変換す
る好ましい方法が、Fig1にソフトウェアフローチャートで、そして、Fig
2にハードウェアで示されている。ソフトウェア変換プロセスの個々の要素は、
次のように機能する。
【0088】 画像シーケンスソース−2Dフィルムまたはビデオまたはいくつかの他の画像
シーケンスソース 領域および深度ソース−これは、画像シーケンスとともに送られる情報であり
、好ましい実施形態では、VBIまたはMPEGデータストリームに入れられる
。このソースは、各物体の位置、形状および深度に関する情報を含んでいる。
【0089】 深度付領域の深度マップへの適用−物体を描写するため、物体内の「領域」が
、深度情報に従って充填/陰影付けされる。陰影付けされた領域の外側の全領域
は、手を付けずに残される。このプロセスにより、原深度マップの再構成がなさ
れる。
【0090】 深度マップのぼかし−次に、任意のハードエッジを除去するため、ハードな深
度マップがぼかされる(ガウス画像、ファスト等)。ぼかしにより物体間に滑ら
かな移行部が形成され、画像のオーバーラップがなくなる。ぼかしは、水平方向
に僅かに重点が置かれる。垂直ぼかしは、画像に上下にブリーディング(bleedi
ng)することにより、停止画像が裂けないようにし、これにより近い物体と遠い
物体との間により滑らかな移行部が得られる。
【0091】 深度マップを用いた画像処理−ぼかされた深度マップは、次に、歪みグリッド
の変位のためのソースとして使用される(白色は最大変位、黒色は無変位)。水
平軸線に沿う歪み量は、任意の所与の位置での深度マップの深度に従って調整さ
れる。好ましい実施形態では、左側画像の変位は右方であり、右側画像の変位は
左方である。画像には全体的な強制視差が適用され、これにより、白い(前景)
変位物体がスクリーンレベルに収斂される。これにより、黒い(後景)領域は、
変位されない画像に等しい強制視差を有する。変位方向および強制視差は、変換
画像が表示される3Dディスプレイシステムの特別条件に適合するように変化さ
れる。
【0092】 ひとたび歪みグリッドが創成されると、2D画像の3D画像への変換は、すで
に開示されている方法によって行われる。
【0093】 Fig2には、歪みグリッドから左右別々の画像を創成するためのハードウェ
ア変換器の好ましい実施形態が示されており、これは完全デジタル化できる。F
ig2(a)には、このプロセスを実施する方法が示されており、次のように作
動する。
【0094】 このシステムは、同時アクセスを可能にする多ポート型の2つのラインストア
(line stores)を使用している。ビデオのラインは1つのラインに書き込まれ 、一方、他のラインストアは、読み出されて出力ビデオ信号を発生する。カレン
トラインの終時に、ラインストアがスワップされる。
【0095】 深度情報はビデオ信号から抽出されて、現在画像の深度マップを再創成する。
各出力画素について、深度マップは(歪みグリッドの)画素オフセットに翻訳さ
れる。画素オフセットは、ビデオラインがラインストアから読み出されるときに
画素カウンタに付加される。画素オフセットは小数値であるため、所望の画素の
各側から画素値を読み出して、中間値を補間する必要がある。ビデオデコーダか
らの奇数/偶数フィールド信号は、フィールドシーケンスビデオ出力を制御して
、観察者のシャッターガラスを出力ビデオ信号に同期させるのに使用される。基
本回路は、このビデオフォーマットを必要とする3Dディスプレイ用の別々の左
右ビデオ信号を発生させるべく二重にすることができる。
【0096】 Fig2(b)には、DDCデコーダの機能ブロック図が示されている。第1
プロセスは、VBIまたはMPEGデータストリームに挿入される入力ビデオか
ら物体データを抽出することである。抽出されたデータは、圧縮形式であり、後
にマイクロプロセッサにより、解凍される。マイクロプロセッサからの出力は、
原物体輪郭情報であり、各物体の深度情報を作成するため再び処理される。この
データは3つの回転フィールドバッファ(バッファはマイクロプロセッサにより
制御される)の組に導かれる。第1バッファは原深度マップを再び創成する。次
に、深度マップは次のバッファに導かれ、ここで水平および垂直ぼかしが適用さ
れる。ひとたびぼかしが適用されたならば、得られたデータは最終バッファに適
用され、ここで、データはFig2(a)に示す深度/画素オフセット変換器に
導かれる。ひとたばデータがオフセット変換器に転送されたならば、最終バッフ
ァがクリアされて、次の深度マップを受け入れる用意が整えられる。
【0097】 Fig2(c)には、DDCデコーダプロセスが示されている。Fig2(c
)は、プロセスをタイミング図として示し、現在のマイクロプロセッサは全ての
復号プロセスを同時に行うことができるほど充分に高速ではないとの仮定に立っ
ている。従って、復号プロセスはパイプラインプロセスで連続的に行われる。マ
イクロプロセッサ性能が改善されると、これらのうちの多くのプロセス(全部の
プロセスではないとしても)を同時に行うことが期待される。Fig2(c)(
1)には、4つのビデオフレームが示されており、各フレームは奇数フィールド
および偶数フィールドからなる。Fig2(c)(2)では、フレーム4の物体
リストが創成され、一方、Fig2(c)(3)ではフレーム4の深度マップが
創成される。Fig2(c)(4)では水平ぼかしおよび垂直ぼかしが適用され
、Fig2(c)(5)では、フレーム4の深度マップが出力され、バッファが
クリヤされて、次の物体リストの用意が整えられる。従って、Fig2(c)(
5)で、フレーム4の深度マップおよび2D画像を同時に利用して、3Dに変換
することができる。Fig2(c)は個々のフレームのプロセスを示し、実際に
、任意の一時点で4つの異なるフレームの深度マップがハードウェアの異なるセ
クションにより創成されることに注意されたい。
【0098】 別のデコーダ 前述のように、現在利用できるマイクロプロセッサは、全部の復号化プロセス
を同時に行うことができるほど充分に高速ではない。従って、高速マイクロプロ
セッサの使用を必要としないデコーダの別の好ましい実施形態について説明する
。この別のデコーダは、2Dおよび3Dコンピュータグラフィックの処理のため
に開発された集積回路を使用する。このような専用グラフィックプロセッサは、
一秒間当たり500,000個以上の多角形を描写できる。これらの集積回路は 大量に製造されているので安価であり、低コストのDDCデコーダの製造を実現
できる。デコーダは、グラフィックプロセッサの最も簡単な多角形描写能力を使
用して、陰影が付されていない質感がマッピングされた多角形を得る。
【0099】 復号化プロセスは、あたかも手動操作で行うかのようにしてプロセスを説明す
ることにより一層容易に理解されよう。これは、Fig9のフローチャートおよ
びFig10以降の図面に示されている。プロセスは、歪んでいないメッシュを
作成し、比較的滑らかな変形を達成するのに必要な、xy平面内の多数の多角形
を使用することにより開始する。好ましい実施形態では、単位フィールド当たり
10,000個の多角形が一般的に使用される。Fig10には、歪んでいない メッシュのセクションの一例が示されている。3D(この例では、Fig11に
示すように、頂部が観察者の方向を向いている円錐体)に変換すべき物体の深度
マップが、メッシュの多角形のz軸が深度マップの対応画素の値に基いて定めら
れるように修正されたメッシュに適用される。これは、Fig12に示されてい
る。このプロセスの次の段階は、各多角形のz軸方向高さを等価のx軸変位に翻
訳することである。これは、Fig13からFig16に示されている。Fig
13には、z軸方向の高さメッシュを通るx軸セクションが示されている。Fi
g14では、尖点の列がx軸に沿って選択され、尖点(y=0)の回りで90°
回転される。Fig15は尖点(45°)での回転の効果を示し、Fig16は
90°回転後の効果を示すものである。このプロセスは、深度マップのz軸高さ
をx変位に有効に翻訳する全てのx列について反復される。
【0100】 プロセスの次の段階は、Fig17に示すような歪んでいないメッシュ上に原
ビデオフレームをマッピングすることである。歪んでいないメッシュは、次に、
Fig18に示すように、以前に創成されたx軸方向変位マップに形態付け(mo
rphed)される。次に、得られたビデオ画像が、メッシュの変位《Fig19》 に従って膨張する。これは、本件出願人の以前の出願PCT/AU96/008
20に開示されている画像の引伸ばしと同じ効果を有する。引き伸ばされた画像
は、1対の立体画像を形成するのに使用でき、他はFig13の尖点を90°だ
け回転することにより形成され、これにより、Fig20に示すようなメッシュ
および対応画像が作成される。
【0101】 2D/3Dグラフィックスプロセッサを用いたハードウェアでこのプロセスを
実施するとき、z軸方向高さを等価のx軸方向変位に翻訳する段階を省略できる
。観察者に近い多角形は、観察者から離れた多角形よりも更に横方向に変位させ
るべきであることは知られているので、Fig18の変位メッシュは、Fig1
1の深度マップから直接作成できる。これは、深度マップの濃度階調値と対応す
る各多角形の変位との間に直接的関係があるので、達成できる。この簡単化され
たプロセスがFig21のフローチャートに示されている。
【0102】 別のハードウェアデコーダ Fig8には、2D/3Dグラフィックスプロセッサに基くハードウェアDD
Cデコーダのブロック図が示されている。DDCデータからの深度マップの抽出
および創成は、Fig2(b)に示し、前述したように行われる。デコーダの作
動は、次の通りである。入力ビデオ信号は、ビデオストリームからDDC情報を
抽出し各ビデオフィールドの深度マップを再生するDDCデータデコーダに導か
れる。またビデオ信号は、RGB、YUVまたは他の標準ビデオフォーマットに
も変換され、二重フィールドストア内に入れられる。これは、新しいフィールド
がローディングされるのと同時に、ビデオフィールドが2D/3Dグラフィック
スプロセッサに読み出されることを可能にする。DDCデータデコーダからの深
度マップ出力は、2D/3Dグラフィックスプロセッサにより処理すべき多角形
の形状を定義する深度マップ/多角形メッシュ変換器に導かれる。グラフィック
プロセッサへの他の入力は、当該多角形が適用される質感マップとして使用され
る原2Dビデオ画像である。グラフィックスプロセッサからの出力は、ビデオが
インターレースフォーマットで読み出されるようにするフィールドストアに導か
れる。これは、後にPAL/NTSCエンコーダに導かれ、PAL/NTSCエ
ンコーダの出力は標準フィールドシーケンス3Dビデオ信号となる。
【0103】 深度マップの再使用 同一シーンまたは類似シーンが再び表示される場合には同じ深度マップが再使
用される、全深度マップを受信機に伝送する必要がないことも好ましいであろう
。このため、デコーダが、以前に送られた深度マップをメモリに記憶しておけば
再使用でき、以前に送られた深度マップを再処理する必要がないため望ましい。
深度マップまたは得られる歪みメッシュはデコーダのメモリに記憶させることが
できる。このメモリは、RAM、EEPROM、フラッシュメモリ、磁気または
光学記憶手段からなる揮発性または不揮発性メモリで構成できるが、これらに限
定されるものではない。また、汎用深度マップおよび/または歪みグリッドをデ
コーダに記憶させることを考えることもできる。これにより、深度マップを伝送
または変換する必要なくして、頻繁に生じるシーンを変換することが可能になる
。深度マップの適用をデフォルトとするデコーダを一意的に識別するデータを、
ビデオ信号に含めることにより、正しい深度マップが選択される。また、デコー
ダに、新しい深度マップまたは別の深度マップを受け入れる能力をもたせて、深
度マップおよび/または歪みグリッドのライブラリがデコーダ内に維持されるよ
うにすることを考えることもできる。このライブラリは、RAM、EEPROM
、フラッシュメモリ、磁気または光学的記憶手段等(但し、これらに限定される
ものではない)の媒体内に保持できる。ビデオ信号に含まれる特定の深度マップ
または歪みグリッドを伝送することによりライブラリを更新することも考えられ
る。このような深度マップまたは歪みグリッドを含む外部または内部プラグイン
モジュールにより、およびビデオ信号、モデムまたはインターネットを介してデ
コーダにダウンロードすることにより、ライブラリを維持することを考えること
もできる。当業者には、ライブラリを維持する他の手段は明らかであろう。
【0104】 ビデオ信号に含まれるDDCデータの一般的フォーマットには、好ましい実施
形態では、デコーダに下記データの性質を表示するヘッダフラグを含めることが
できる。このフォーマットには多数の既存の規格を使用でき、次のようなフォー
マットがある。
【0105】 <フラグ#><デコーダにより活用されるデータ> フラグの例として下記のものがあるが、これらに限定されるものではない。
【0106】 フラグ1−次のデータは深度マップである。
【0107】 フラグ2−次のデータは、存在する物体の再配置である。
【0108】 フラグ3−次のデータは、物体の深度の変化に関するものである。
【0109】 フラグ4−次のデータは、以前に伝送された深度マップの再使用に関するもの
である。
【0110】 フラグ5−次のデータは、ライブラリ内での深度マップの使用に関するもので
ある。
【0111】 フラグ6−次のデータは、ライブラリ内での深度マップの修正に関するもので
ある。
【0112】 フラグ7−次のデータは、ライブラリ内での新しい深度マップの付加に関する
ものである。
【0113】 フラグ8−次のデータは、既存のライブラリの深度マップの削除に関するもの
である。
【0114】 フラグ9−次のデータは、移動視差遅延(motion parallax delays)の使用に
関するものである。
【0115】 フラグ10−次のデータは、強制視差(forced parallax)の使用に関するも のである。
【0116】 フラグ11−次のデータは、数学的アルゴリズムの使用に関するものである。
【0117】 フラグ12−次のデータは、数学的アルゴリズムライブラリの使用に関するも
のである。
【0118】 別の構成として、各データパケットを異なる長さとすることができ、これによ
り、各パケットを一意的に定義し、フラグの必要性を緩和させることができる。
【0119】 前述の記載において、歪みグリッドに同じプロセスを適用できる。
【0120】 また、ライブラリ内の指定された範囲から自動的に選択することにより、デコ
ーダが、関連する3D画像への適用に最も適した深度マップを決定できるように
することを考えることもできる。例えば、DDCデータは、デコーダに指示して
、特定の索引位置間の深度マップのライブラリまたは汎用カテゴリ、例えば、Ev
ening News、Horse Raceを検索させることもできる。これにより、デコーダは、
物体のサイズ、形状、速度、方向、色、陰影、ぼやけ等に基いて、適当なマップ
を選択することができる。
【0121】 復号化プロセスの副次的成果として、復号化プロセス中に創成される原深度マ
ップは、2D画像および物体深度情報を必要とする3Dディスプレイシステムに
使用するのに適したフォーマットに利用できるようにすることができる。これら
の表示は、事実上、自動ステレオスコープおよび/または立体的なものとするこ
とができる。
【0122】 別のアプローチ あるいは、メッシュ歪みプロセスは、数学的アルゴリズムにより定義すること
もできる。このアルゴリズムはデコーダに記憶され、この場合には、DDCデー
タはアルゴリズムが適用されるパラメータからなる。例えば、次の一般的な公式
を考える。
【0123】 f(x,y)=[1−exp(−|(|x|−rx). dx|)]. sin( ((PI.x) /rx) +PI/2). [1−exp(−|(|y|−ry). dy|)]. sin( ((PI.y)/ry)+PI/2) ここで、 PIは、定数3.14159… |x|は、xの絶対値 rxは、xの範囲であり、−rx≦x≦rx ryは、yの範囲であり、−ry≦y≦ry dxは、xについての減衰率 dyは、yについての減衰率である。
【0124】 次の値が、DDCデータを介して方程式に代入されるならば、、Fig7の歪
みグリッドが作成される。
【0125】 rx=ry=50 dx=dy=0.1 DDCデータに関しては、下記が伝送される。
【0126】 <フラグ11><50、50、0.1、0.1> また、これらのパラメータは、ライブラリの形態でデコーダのメモリに記憶さ
れ、DDCデータ内のライブラリ索引を送ることにより呼び出される。
【0127】 DDCデータに関しては、下記が伝送される。
【0128】 <フラグ12><ライブラリ索引> フラグ9の移動視差を用いた別の例を考察する。従来技術は、水平方向に移動
する2D画像が、移動視差の使用により3Dに変換されることを示している。画
像の移動は、カメラパンのようなカメラの水平移動によるものであることが望ま
しい。この技術では、観察者の一方の目が現在のビデオフィールドを受け、他方
の目が以前のフィールドを受ける。すなわち、各目に提供される画像間に遅延が
存在する。どちらの目が遅延画像を受けるかの選択、および遅延の大きさの選択
は、2D画像の水平移動の方向および速度に基いて定まる。遅延は、一般に、1
から4フィールドの範囲内にある。方向および遅延の選択は、2D画像内の全移
動ベクトルを考察することにより、およびベクトルの大きさ、方向および安定性
に基いてこれらのパラメータを選択することによりなされる。従来技術では、こ
れらの計算を観察箇所でリアルタイムに行う必要があり、このため大きな処理能
力を必要とする。好ましい方法は、伝送箇所で移動ベクトル、従ってフィールド
遅延の方向および大きさを計算し、次に、これらの値をビデオ信号の一部として
伝送することであることが判明している。従って、好ましい実施形態では、伝送
されるデータは次のようになる。
【0129】 <フラグ9><方向および遅延> ここで、<方向および遅延>は、一般に、−4から+4の範囲内にある。
【0130】 次に、DDCデコーダはこのデータを再生し、フィールド遅延の正しい大きさ
および方向を処理された画像に挿入するのにこのデータを使用する。
【0131】 歪みメッシュはまた、可変焦点レンズおよび鮮鋭度検出アルゴリズムを用いて
、カメラにより観察される画像内の物体の深度を決定するカメラを、既存の2D
ビデオカメラまたはフィルムカメラに付加することによってもリアルタイムで得
られる。物体の深度は、各画像の画素間の相関関係が物体の深度を表示する1対
の立体カメラから得ることもできる。歪みメッシュデータを得るべく処理する前
の、これらの形状からの出力は、深度マップを創成するのに使用できる。これは
、原2D画像を処理することにより、および本願で説明した物体深度を表示すべ
く陰影を付すか他の表示を付与することにより達成される。各物体の輪郭は、物
体のサイズ、色、移動速度、陰影、質感、輝度、ぼやけ、並びに過去、現在およ
び将来の画像間の差異等の物体の特徴から得ることができる。物体の識別を補助
するのに、ニューラルネットワークまたはエキスパートシステムを使用すること
もできる。また、カメラ内の画像を変位させ、カメラの画像センサで連続画像の
物理的オフセットを得ることも提案されている。この変位は、光学的に、電子−
光学的に、機械的に、電子−機械的に、電子的に、または当業者に知られた他の
方法で行うことができる。この変位は、単一方向すなわちx方向に、あるいは多
方向に、連続的にまたはランダムに行うことができる。カメラセンサ上での物体
の変位は、カメラに近い物体については大きい。連続画像中の画素を相関付ける
ことにより、各物体の深度が決定される。あるいは、複数のカメラを使用するこ
ともできる。
【0132】 シーン内の物体の深度を決定するのに、他の技術を用いることもできる。これ
らの技術として、光学、レーザ、超音波またはマイクロウェーブの原理で作動す
るレンジファインダの使用、またはシーン内の物体の投影、およびグリッドの歪
みからの物体の深度の決定等があるが、これらに限定されるものではない。
【0133】 多数のコンピュータ援用製図(CAD)ソフトウェアパッケージは、製図すべ
き画像のワイヤフレームモデルを作成可能にする。物体の小面の投影であるこれ
らのワイヤフレームモデルは、シーン内での物体の位置の決定に使用できる。
【0134】 同様に、3Dスタジオのようなパッケージからの3D非立体画像の描写プロセ
スの一部は、カメラから各画素までの距離を出力することを可能にする。この描
写は、白色で示されるカメラへの最近接物体および黒色で示されるカメラからの
最遠方物体を有する濃度階調画像を作成できる。この濃度階調マップは、立体3
Dへの変換を行うための互換性のある深度マップとして使用できる。
【図面の簡単な説明】
【Fig1】 深度マップデータから歪みグリッドへの好ましい変換方法を示す図面である。
【Fig2(a)】 深度マップデータから歪みグリッドへの好ましい変換方法を示す図面である。
【Fig2(b)】 深度マップデータから歪みグリッドへの好ましい変換方法を示す図面である。
【Fig2(c)】 深度マップデータから歪みグリッドへの好ましい変換方法を示す図面である。
【Fig3】 本発明による物体の輪郭を決定する種々の技術のうちの1つを示す図面である
【Fig4】 本発明による物体の輪郭を決定する種々の技術のうちの1つを示す図面である
【Fig5】 本発明による物体の輪郭を決定する種々の技術のうちの1つを示す図面である
【Fig6】 本発明による物体の輪郭を決定する種々の技術のうちの1つを示す図面である
【Fig7】 サンプル歪みグリッドを示す図面である。
【Fig8】 別のデコーダのためのハードウェアデコーダを示すブロック図である。
【Fig9】 別のデコーダの復号化プロセスを示すサンプルフロー図である。
【Fig10】 歪んでいないメッシュの一例を示す図面である。
【Fig11】 円錐体のサンプル深度マップを示す図面である。
【Fig12】 深度マップにより修正されたサンプルメッシュを示す図面である。
【Fig13】 深度マップの高さZをX変位に翻訳する1つの方法を示す図面である。
【Fig14】 深度マップの高さZをX変位に翻訳する1つの方法を示す図面である。
【Fig15】 深度マップの高さZをX変位に翻訳する1つの方法を示す図面である。
【Fig16】 深度マップの高さZをX変位に翻訳する1つの方法を示す図面である。
【Fig17】 歪んでいないメッシュ上の原フレームを示す図面である。
【Fig18】 X変位マップにより修正されたサンプルメッシュを示す図面である。
【Fig19】 原フレームメッシュと変位メッシュとのサンプル結合を示す図面である。
【Fig20】 別の目についての引き伸ばされたサンプル合成画像を示す図面である。
【Fig21】 簡単化された変位フローチャートを示す図面である。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GD,GE,GH,GM ,HR,HU,ID,IL,IS,JP,KE,KG, KP,KR,KZ,LC,LK,LR,LS,LT,L U,LV,MD,MG,MK,MN,MW,MX,NO ,NZ,PL,PT,RO,RU,SD,SE,SG, SI,SK,SL,TJ,TM,TR,TT,UA,U G,US,UZ,VN,YU,ZW Fターム(参考) 5C061 AA29 AB08 AB24 5C082 AA01 AA27 AA37 BA12 BA34 BA46 BB15 BC07 CA22 CA55 DA53 MM10

Claims (42)

    【特許請求の範囲】
  1. 【請求項1】 2D画像の立体画像への変換に使用する深度マップの作成方
    法であって、 2D画像内の少なくとも1つの物体を識別する段階と、 前記物体に識別タグを割り当てる段階と、 前記物体に深度タグを割り当てる段階と、 前記物体の輪郭を決定し、定義する段階とを有することを特徴とする深度マッ
    プ作成方法。
  2. 【請求項2】 前記物体の輪郭は、一連の座標、曲線および/または幾何学
    的形状により定義されることを特徴とする請求項1記載の深度マップ作成方法。
  3. 【請求項3】 前記識別タグは一意的な数値であることを特徴とする請求項
    1または2記載の深度マップ作成方法。
  4. 【請求項4】 前記少なくとも1つの物体を識別する段階は、2D画像と汎
    用シーンのライブラリとを比較する段階を有することを特徴とする請求項1〜3
    のいずれか1項記載の深度マップ作成方法。
  5. 【請求項5】 前記輪郭を決定する段階は、物体を画素ごとにトレースする
    ことを更に有することを特徴とする請求項1〜4のいずれか1項記載の深度マッ
    プ作成方法。
  6. 【請求項6】 前記輪郭を決定する段階は、物体の輪郭を近似する直線を使
    用することを更に有することを特徴とする請求項1〜4のいずれか1項記載の深
    度マップ作成方法。
  7. 【請求項7】 前記輪郭を決定する段階は、物体の輪郭を近似する曲線近似
    を使用することを更に有することを特徴とする請求項1〜4のいずれか1項記載
    の深度マップ作成方法。
  8. 【請求項8】 前記輪郭を決定する段階は、物体の輪郭を近似するベジエ曲
    線を使用することを更に有することを特徴とする請求項1〜4のいずれか1項記
    載の深度マップ作成方法。
  9. 【請求項9】 前記輪郭を決定する段階は、物体と、物体の輪郭を近似する
    曲線および/または汎用形状または幾何学的形状のライブラリとを比較すること
    を更に有することを特徴とする請求項1〜4のいずれか1項記載の深度マップ作
    成方法。
  10. 【請求項10】 前記曲線および/または汎用形状または幾何学的形状を、
    物体に最も良く適合するように調整することを更に有することを特徴とする請求
    項9記載の深度マップ作成方法。
  11. 【請求項11】 前記深度タグは色コードを有することを特徴とする請求項
    1〜10のいずれか1項記載の深度マップ作成方法。
  12. 【請求項12】 白色は観察者に比較的近い物体を表し、黒色は観察者から
    比較的遠い物体を表すことを特徴とする請求項11記載の深度マップ作成方法。
  13. 【請求項13】 前記深度タグは数値であることを特徴とする請求項1〜1
    0のいずれか1項記載の深度マップ作成方法。
  14. 【請求項14】 前記数値は0から255の範囲にあることを特徴とする請
    求項13記載の深度マップ作成方法。
  15. 【請求項15】 前記少なくとも1つの物体は複数のセグメントに更に分割
    され、各セグメントには深度タグが割り当てられることを特徴とする請求項1〜
    14のいずれか1項記載の深度マップ作成方法。
  16. 【請求項16】 前記深度の変化がランプ関数により定義されることを特徴
    とする請求項15記載の深度マップ作成方法。
  17. 【請求項17】 前記ランプ関数はリニアまたはラジアルランプであること
    を特徴とする請求項16記載の深度マップ作成方法。
  18. 【請求項18】 前記物体を画像の連続フレーム上にトラッキングし、それ
    ぞれの各フレームの物体に深度タグを決定し、割り当てることを更に有すること
    を特徴とする請求項1〜17のいずれか1項記載の深度マップ作成方法。
  19. 【請求項19】 前記物体に質感バンプマップを付加することを更に有する
    ことを特徴とする請求項1〜18のいずれか1項記載の深度マップ作成方法。
  20. 【請求項20】 前記質感バンプマップは、物体を複数の構成部分に破断し
    、各構成部分に別々の深度タグを割り当てることにより定義されることを特徴と
    する請求項19記載の深度マップ作成方法。
  21. 【請求項21】 前記質感バンプマップは、物体の個々の構成部分の輝度値
    により定義されることを特徴とする請求項19記載の深度マップ作成方法。
  22. 【請求項22】 前記質感バンプマップは、物体の個々の構成部分の色差、
    彩度、色のグループ分け、反射、陰影、焦点および/または鮮鋭度により定義さ
    れることを特徴とする請求項19記載の深度マップ作成方法。
  23. 【請求項23】 各2D画像の80×60×8ビット解像度の濃度階調画像
    を作成することを更に有することを特徴とする請求項1〜22のいずれか1項記
    載の深度マップ作成方法。
  24. 【請求項24】 ビデオシーケンスの2D画像の立体画像への変換に使用す
    る深度マップの作成方法であって、 ビデオシーケンスの各フレームを識別し、番号付けする段階と、 ビデオシーケンス内の少なくとも1つの物体を識別する段階と、 各物体に識別タグを割り当てる段階と、 ビデオシーケンスを複数の部分シーケンスに分割する段階と、 部分シーケンスを複数のオペレータに伝送し、各オペレータが、前記識別タグ
    が前もって割り当てられた部分シーケンスの各物体について輪郭を決定し、定義
    する段階と、 前記複数のオペレータから前記部分シーケンスを受ける段階と、 該部分シーケンスを照合して、ビデオシーケンスを再構成する段階と、 各物体に深度タグを割り当てる段階とを有することを特徴とする深度マップ作
    成方法。
  25. 【請求項25】 前記ビデオシーケンスが複数の部分シーケンスに分割され
    る前に、セキュリティ処置をビデオシーケンスに付加する段階を更に有すること
    を特徴とする請求項24記載の深度マップ作成方法。
  26. 【請求項26】 前記セキュリティ処置は、ビデオシーケンスからオーディ
    オを除去し、および/または、ビデオシーケンスの色を変更することを有するこ
    とを特徴とする請求項25記載の深度マップ作成方法。
  27. 【請求項27】 2D画像の立体画像への変換に使用する深度マップの符号
    化方法であって、 物体に物体識別子を割り当てる段階と、 前記物体に深度タグを割り当てる段階と、 物体の輪郭を定義する段階とを有することを特徴とする深度マップの符号化方
    法。
  28. 【請求項28】 前記物体の輪郭は一連のx、y座標により定義され、各x
    、y座標は曲線により分離されることを特徴とする請求項27記載の深度マップ
    の符号化方法。
  29. 【請求項29】 前記曲線はライブラリに記憶され、一意的な番号が割り当
    てられることを特徴とする請求項28記載の深度マップの符号化方法。
  30. 【請求項30】 前記物体の輪郭はまた、各曲線の方向に関するデータを有
    していることを特徴とする請求項28または29記載の深度マップの符号化方法
  31. 【請求項31】 前記各曲線はベジエ曲線であることを特徴とする請求項2
    8〜30のいずれか1項記載の深度マップの符号化方法。
  32. 【請求項32】 前記物体の輪郭は少なくとも1つの幾何学的形状により定
    義されることを特徴とする請求項27記載の深度マップの符号化方法。
  33. 【請求項33】 前記少なくとも1つの幾何学的形状は、形状の形態および
    形状のパラメータにより定義されることを特徴とする請求項32記載の深度マッ
    プの符号化方法。
  34. 【請求項34】 前記物体の深度タグを符号化は、 一種類の深度を割り当て、 物体に深度を割り当てることを有することを特徴とする請求項27〜33のい
    ずれか1項記載の深度マップの符号化方法。
  35. 【請求項35】 前記深度の種類には、単一値、リニアランプまたはラジア
    ルランプが含まれることを特徴とする請求項34記載の深度マップの符号化方法
  36. 【請求項36】 アナログテレビジョン信号のバーチカルブランキングイン
    ターバルに深度マップデータを埋め込む段階を有することを特徴とする立体視覚
    システムで見るための2D画像および深度マップデータを伝送する方法。
  37. 【請求項37】 デジタルテレビジョン信号のMPEGに深度マップデータ
    を埋め込むことを有することを特徴とする立体視覚システムで見るための2D画
    像および深度マップデータを伝送する方法。
  38. 【請求項38】 DVDのVOBファイルに深度マップデータを埋め込むこ
    とを有することを特徴とする立体視覚システムで見るための2D画像および深度
    マップデータを伝送する方法。
  39. 【請求項39】 2D画像および該2D画像に対応する深度マップデータを
    受ける段階と、 深度マップデータ内で識別された物体を決定する段階と、 前記物体の対応する深度を決定する段階と、 深度に基いて物体に陰影を付す段階と、 画像を処理して、歪み量は深度に基いて定められる歪みグリッドを形成する段
    階と を有することを特徴とする深度マップデータの復号化方法。
  40. 【請求項40】 前記歪みグリッドを形成する前、物体間の移行を滑らかに
    するように、深度マップをぼかすことを更に有することを特徴とする請求項39
    記載の深度マップデータの復号化方法。
  41. 【請求項41】 複数の多角形から歪んでいないメッシュを作成する段階と
    、 前記メッシュに深度マップを適用する段階とを有し、メッシュ内の多角形の高
    さは深度マップに記録された深度に基いて定まり、 多角形の高さを翻訳変位に変換して、歪みメッシュを創成する段階と、 歪みメッシュを、深度マップデータに対応する2D画像に適用する段階とを更
    に有することを特徴とする深度マップデータの復号化方法。
  42. 【請求項42】 深度マップのライブラリを含む深度マップデータを符号化
    するデコーダであって、 入力データが前記ライブラリと比較され、前記データが深度マップの前記ライ
    ブラリ中の深度マップに一致しない場合に、デコーダが請求項41に記載の方法
    を用いて入力データを処理することを特徴とするデコーダ。
JP2000524763A 1997-12-05 1998-12-03 画像変換および符号化技術 Expired - Fee Related JP4698831B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
AUPP0778 1997-12-05
AUPP0778A AUPP077897A0 (en) 1997-12-05 1997-12-05 Improved image conversion and encoding techniques
AU0778 1998-04-08
AU2865 1998-04-08
AUPP2865 1998-04-08
AUPP2865A AUPP286598A0 (en) 1998-04-08 1998-04-08 Improved image conversion and encoding techniques
PCT/AU1998/001005 WO1999030280A1 (en) 1997-12-05 1998-12-03 Improved image conversion and encoding techniques

Publications (2)

Publication Number Publication Date
JP2001526477A true JP2001526477A (ja) 2001-12-18
JP4698831B2 JP4698831B2 (ja) 2011-06-08

Family

ID=25645669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000524763A Expired - Fee Related JP4698831B2 (ja) 1997-12-05 1998-12-03 画像変換および符号化技術

Country Status (9)

Country Link
US (3) US7894633B1 (ja)
EP (2) EP2252071A3 (ja)
JP (1) JP4698831B2 (ja)
KR (1) KR100560507B1 (ja)
CN (1) CN1173296C (ja)
CA (1) CA2305735C (ja)
ID (1) ID27878A (ja)
MY (1) MY124160A (ja)
WO (1) WO1999030280A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302284A (ja) * 2005-04-19 2006-11-02 Honeywell Internatl Inc 2d画像ドメインデータを3d高密度レンジマップに変換するためのシステムおよび方法
JP2007502454A (ja) * 2003-08-05 2007-02-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチビュー画像の生成
JP2008518317A (ja) * 2004-10-26 2008-05-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視差マップ
US7643672B2 (en) 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
JP2010507822A (ja) * 2006-10-26 2010-03-11 シーリアル テクノロジーズ ソシエテ アノニム コンテンツ生成システム
JP2010522469A (ja) * 2007-03-23 2010-07-01 トムソン ライセンシング 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
JP2012510195A (ja) * 2008-11-24 2012-04-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 柔軟な出力を有する3dビデオ・プレーヤー
WO2013081304A1 (ko) * 2011-11-28 2013-06-06 에스케이플래닛 주식회사 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체
KR101330523B1 (ko) 2011-11-29 2013-11-18 (주)리얼디스퀘어 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
KR101356544B1 (ko) * 2012-03-29 2014-02-19 한국과학기술원 3차원 입체영상 생성 방법 및 장치
KR101388668B1 (ko) * 2011-11-29 2014-04-25 (주)리얼디스퀘어 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
KR101390961B1 (ko) 2011-11-29 2014-05-07 (주)리얼디스퀘어 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체
JP2014209247A (ja) * 2006-10-26 2014-11-06 シーリアル テクノロジーズソシエテ アノニムSeereal Technologies S.A. 3dコンテンツ生成システム、その方法、及び通信方法
US9367767B2 (en) 2013-10-11 2016-06-14 Casio Computer Co., Ltd Data processor and computer-readable non-volatile recording medium for storing program for data processing

Families Citing this family (200)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8253729B1 (en) * 1983-05-09 2012-08-28 Geshwind David M Trimming depth buffer during 2D to 3D conversion
US7116323B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US7116324B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
AUPQ119799A0 (en) * 1999-06-25 1999-07-22 Dynamic Digital Depth Research Pty Ltd Ddc/3 image conversion and encoding techniques
AUPQ416699A0 (en) * 1999-11-19 1999-12-16 Dynamic Digital Depth Research Pty Ltd Depth map compression technique
US7035451B2 (en) 2000-08-09 2006-04-25 Dynamic Digital Depth Research Pty Ltd. Image conversion and encoding techniques
US6664962B1 (en) * 2000-08-23 2003-12-16 Nintendo Co., Ltd. Shadow mapping in a low cost graphics system
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
JP4708619B2 (ja) * 2001-07-31 2011-06-22 キヤノン株式会社 立体画像形成システムおよび立体画像形成方法
EP2357839A3 (en) * 2002-03-27 2012-02-29 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US20030198290A1 (en) * 2002-04-19 2003-10-23 Dynamic Digital Depth Pty.Ltd. Image encoding system
US7489812B2 (en) * 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
JP2006513502A (ja) * 2003-01-17 2006-04-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 完全な奥行きマップを得る方法
US20070008404A1 (en) * 2003-05-07 2007-01-11 Seijiro Tomita Method and system for displaying stereoscopic image
CN100414566C (zh) * 2003-06-19 2008-08-27 邓兴峰 平面图像全景重建立体图像的方法
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7650036B2 (en) * 2003-10-16 2010-01-19 Sharp Laboratories Of America, Inc. System and method for three-dimensional video coding
EP1728208A1 (en) * 2004-03-12 2006-12-06 Koninklijke Philips Electronics N.V. Creating a depth map
US20050207486A1 (en) * 2004-03-18 2005-09-22 Sony Corporation Three dimensional acquisition and visualization system for personal electronic devices
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
US8774560B2 (en) * 2005-01-11 2014-07-08 University Of Central Florida Research Foundation, Inc. System for manipulation, modification and editing of images via remote device
KR101199498B1 (ko) 2005-03-31 2012-11-09 삼성전자주식회사 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체
US20080278487A1 (en) * 2005-04-07 2008-11-13 Nxp B.V. Method and Device for Three-Dimensional Rendering
KR100913173B1 (ko) * 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100932977B1 (ko) 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
EP1750460A1 (en) * 2005-08-05 2007-02-07 Samsung SDI Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
US8274553B2 (en) * 2005-10-18 2012-09-25 Texas Instruments Incorporated System and method for displaying stereoscopic digital motion picture images
US7523405B2 (en) * 2005-11-16 2009-04-21 Microsoft Corporation Displaying 2D graphic content using depth wells
WO2007074842A1 (ja) * 2005-12-27 2007-07-05 Matsushita Electric Industrial Co., Ltd. 画像処理装置
US7692696B2 (en) * 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
JP5041458B2 (ja) * 2006-02-09 2012-10-03 本田技研工業株式会社 三次元物体を検出する装置
US7469071B2 (en) * 2006-02-14 2008-12-23 Fotonation Vision Limited Image blurring
IES20060558A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Image blurring
US20070189750A1 (en) * 2006-02-16 2007-08-16 Sony Corporation Method of and apparatus for simultaneously capturing and generating multiple blurred images
IES20060564A2 (en) * 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
KR100699050B1 (ko) * 2006-06-30 2007-03-28 삼성전자주식회사 문자정보를 음성정보로 출력하는 이동통신 단말기 및 그방법
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
US8493448B2 (en) * 2006-12-19 2013-07-23 Koninklijke Philips N.V. Method and system to convert 2D video into 3D video
KR100894874B1 (ko) * 2007-01-10 2009-04-24 주식회사 리얼이미지 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법
US8077964B2 (en) * 2007-03-19 2011-12-13 Sony Corporation Two dimensional/three dimensional digital information acquisition and display device
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
CA2627999C (en) * 2007-04-03 2011-11-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
US10605610B2 (en) * 2007-04-09 2020-03-31 Ian Cummings Apparatus and methods for reducing data transmission in wireless client-server navigation systems
WO2009004527A2 (en) * 2007-07-03 2009-01-08 Koninklijke Philips Electronics N.V. Computing a depth map
JP2011509451A (ja) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像データのセグメント化
CN101483765B (zh) * 2008-01-11 2011-09-21 华为技术有限公司 一种图像处理方法、编解码方法及装置
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
KR101488199B1 (ko) * 2008-03-12 2015-01-30 삼성전자주식회사 영상 처리 방법, 영상 재생 방법, 그 장치 및 기록매체
FR2929421B1 (fr) * 2008-03-25 2012-04-27 Thales Sa Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique
US8670607B2 (en) * 2008-04-03 2014-03-11 Nlt Technologies, Ltd. Image processing method, image processing device and recording medium
KR100950046B1 (ko) * 2008-04-10 2010-03-29 포항공과대학교 산학협력단 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
US8184196B2 (en) * 2008-08-05 2012-05-22 Qualcomm Incorporated System and method to generate depth data using edge detection
KR101497503B1 (ko) 2008-09-25 2015-03-04 삼성전자주식회사 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치
WO2010050691A2 (en) 2008-10-27 2010-05-06 Samsung Electronics Co,. Ltd. Methods and apparatuses for processing and displaying image
US8345956B2 (en) * 2008-11-03 2013-01-01 Microsoft Corporation Converting 2D video into stereo video
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
KR101659576B1 (ko) 2009-02-17 2016-09-30 삼성전자주식회사 영상 처리 방법 및 장치
WO2010095838A2 (ko) 2009-02-17 2010-08-26 삼성전자 주식회사 그래픽 화면 처리 방법 및 장치
US20100309287A1 (en) * 2009-03-20 2010-12-09 Rodriguez Tony F 3D Data Representation, Conveyance, and Use
US8620147B2 (en) * 2009-03-31 2013-12-31 Samsung Electronics Co., Ltd. Method and apparatus for transmitting compressed data using digital data interface, and method and apparatus for receiving compressed data using digital data interface
CN101562755B (zh) * 2009-05-19 2010-09-01 无锡景象数字技术有限公司 一种由平面视频制作3d视频的方法
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
JP2011101229A (ja) * 2009-11-06 2011-05-19 Sony Corp 表示制御装置、表示制御方法、プログラム、出力装置、および送信装置
US8368696B2 (en) * 2009-06-19 2013-02-05 Sharp Laboratories Of America, Inc. Temporal parallax induced display
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
WO2010151555A1 (en) 2009-06-24 2010-12-29 Dolby Laboratories Licensing Corporation Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data
EP2268045A1 (en) * 2009-06-26 2010-12-29 Lg Electronics Inc. Image display apparatus and method for operating the same
US8872976B2 (en) 2009-07-15 2014-10-28 Home Box Office, Inc. Identification of 3D format and graphics rendering on 3D displays
JP5647242B2 (ja) * 2009-07-27 2014-12-24 コーニンクレッカ フィリップス エヌ ヴェ 3dビデオ及び補助データの結合
CN101968895A (zh) * 2009-07-27 2011-02-09 鸿富锦精密工业(深圳)有限公司 二维图像转换系统及方法
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US8508580B2 (en) 2009-07-31 2013-08-13 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US9294751B2 (en) 2009-09-09 2016-03-22 Mattel, Inc. Method and system for disparity adjustment during stereoscopic zoom
US8624959B1 (en) * 2009-09-11 2014-01-07 The Boeing Company Stereo video movies
JP5415217B2 (ja) * 2009-10-02 2014-02-12 パナソニック株式会社 三次元映像処理装置
WO2011071978A1 (en) * 2009-12-09 2011-06-16 StereoD, LLC Three dimensional image rendering
US8538135B2 (en) 2009-12-09 2013-09-17 Deluxe 3D Llc Pulling keys from color segmented images
US8638329B2 (en) * 2009-12-09 2014-01-28 Deluxe 3D Llc Auto-stereoscopic interpolation
KR101281961B1 (ko) * 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
US9042636B2 (en) * 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
US8743178B2 (en) * 2010-01-05 2014-06-03 Dolby Laboratories Licensing Corporation Multi-view video format control
US20100164952A1 (en) * 2010-01-25 2010-07-01 Michael Roderick Stereoscopic image production method and system
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
WO2011097306A1 (en) * 2010-02-04 2011-08-11 Sony Corporation 2d to 3d image conversion based on image content
US8442297B2 (en) * 2010-02-23 2013-05-14 Arinc Incorporated Methods of evaluating the quality of two-dimensional matrix dot-peened marks on objects and mark verification systems
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
US9697751B2 (en) 2010-03-09 2017-07-04 Microsoft Technology Licensing, Llc Interactive representation of clusters of geographical entities
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US8760498B2 (en) * 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
KR101385514B1 (ko) * 2010-06-08 2014-04-16 주식회사 에스칩스 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
TWI462567B (zh) 2010-06-18 2014-11-21 Realtek Semiconductor Corp 三維處理電路及處理方法
CN102300106B (zh) * 2010-06-28 2014-03-12 瑞昱半导体股份有限公司 三维处理电路及处理方法
US8848038B2 (en) * 2010-07-09 2014-09-30 Lg Electronics Inc. Method and device for converting 3D images
CN103026387B (zh) * 2010-07-26 2019-08-13 香港城市大学 用于从单一的图像生成多视图像的方法
JP5687702B2 (ja) * 2010-08-31 2015-03-18 本田技研工業株式会社 車両周辺監視装置
US8582866B2 (en) * 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8831273B2 (en) 2010-09-10 2014-09-09 Reald Inc. Methods and systems for pre-processing two-dimensional image files to be converted to three-dimensional image files
US9485497B2 (en) 2010-09-10 2016-11-01 Reald Inc. Systems and methods for converting two-dimensional images into three-dimensional images
JP5595505B2 (ja) 2010-09-10 2014-09-24 富士フイルム株式会社 立体撮像装置および立体撮像方法
JP5502205B2 (ja) * 2010-09-10 2014-05-28 富士フイルム株式会社 立体撮像装置および立体撮像方法
US8896664B2 (en) 2010-09-19 2014-11-25 Lg Electronics Inc. Method and apparatus for processing a broadcast signal for 3D broadcast service
US20120068996A1 (en) * 2010-09-21 2012-03-22 Sony Corporation Safe mode transition in 3d content rendering
JP5281624B2 (ja) * 2010-09-29 2013-09-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
JP5281623B2 (ja) * 2010-09-29 2013-09-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
US9305398B2 (en) 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
US8619124B2 (en) * 2010-10-14 2013-12-31 Industrial Technology Research Institute Video data processing systems and methods
JP5250604B2 (ja) * 2010-10-26 2013-07-31 富士フイルム株式会社 立体画像表示装置、立体画像表示方法およびプログラム
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
JP5559012B2 (ja) 2010-11-12 2014-07-23 キヤノン株式会社 画像処理装置及びその制御方法
US20120120190A1 (en) * 2010-11-16 2012-05-17 Hung-Chia Lee Display device for use in a frame sequential 3d display system and related 3d display system
US20120120191A1 (en) * 2010-11-17 2012-05-17 Hung-Chia Lee Image processor for use in a frame sequential 3d display system and related 3d display system
US10140699B2 (en) 2010-12-07 2018-11-27 University Of Iowa Research Foundation Optimal, user-friendly, object background separation
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US9386294B2 (en) 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
US8624891B2 (en) * 2011-01-17 2014-01-07 Disney Enterprises, Inc. Iterative reprojection of images
WO2012100221A1 (en) 2011-01-20 2012-07-26 University Of Iowa Research Foundation Automated determination of arteriovenous ratio in images of blood vessels
US20140035909A1 (en) * 2011-01-20 2014-02-06 University Of Iowa Research Foundation Systems and methods for generating a three-dimensional shape from stereo color images
US9635345B2 (en) * 2011-01-24 2017-04-25 Intel Corporation Method and system for acquisition, representation, compression, and transmission of three-dimensional data
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
JP5357199B2 (ja) * 2011-03-14 2013-12-04 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
EP2697975A1 (en) 2011-04-15 2014-02-19 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
US8681182B2 (en) 2011-04-19 2014-03-25 Deluxe 3D Llc Alternate viewpoint rendering
KR20120127992A (ko) * 2011-05-16 2012-11-26 삼성전자주식회사 컨텐츠변환장치, 컨텐츠변환방법 및 그 저장 매체
KR20120133571A (ko) * 2011-05-31 2012-12-11 삼성전자주식회사 3d 영상변환장치, 3d 영상변환장치에 의해 구현되는 방법 및 그 저장매체
US9509972B2 (en) 2011-06-24 2016-11-29 Lg Electronics Inc. Encoding/decoding method and apparatus using a skip mode
US20130004059A1 (en) * 2011-07-01 2013-01-03 Amir Said Aligning stereoscopic images
US9351028B2 (en) * 2011-07-14 2016-05-24 Qualcomm Incorporated Wireless 3D streaming server
US20130016098A1 (en) * 2011-07-17 2013-01-17 Raster Labs, Inc. Method for creating a 3-dimensional model from a 2-dimensional source image
WO2013025151A1 (en) * 2011-08-12 2013-02-21 Telefonaktiebolaget L M Ericsson (Publ) Signaling of camera and/or depth parameters
US8928729B2 (en) * 2011-09-09 2015-01-06 Disney Enterprises, Inc. Systems and methods for converting video
US8995755B2 (en) 2011-09-30 2015-03-31 Cyberlink Corp. Two-dimensional to stereoscopic conversion systems and methods
KR101675041B1 (ko) 2011-10-05 2016-11-10 비트애니메이트 인코포레이티드 해상도가 향상된 3d 비디오 렌더링 시스템 및 방법
CN103096026A (zh) * 2011-10-31 2013-05-08 鸿富锦精密工业(深圳)有限公司 安全监控系统及安全监控方法
US20130141433A1 (en) * 2011-12-02 2013-06-06 Per Astrand Methods, Systems and Computer Program Products for Creating Three Dimensional Meshes from Two Dimensional Images
US9530060B2 (en) * 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
TWI478102B (zh) * 2012-01-20 2015-03-21 Realtek Semiconductor Corp 影像深度產生裝置與其方法
US9324190B2 (en) 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
US10848731B2 (en) 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US11282287B2 (en) 2012-02-24 2022-03-22 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US9959634B2 (en) * 2012-03-13 2018-05-01 Google Llc Method and system for identifying depth data associated with an object
US9552129B2 (en) 2012-03-23 2017-01-24 Microsoft Technology Licensing, Llc Interactive visual representation of points of interest data
US9545196B2 (en) 2012-05-04 2017-01-17 University Of Iowa Research Foundation Automated assessment of glaucoma loss from optical coherence tomography
US9838669B2 (en) * 2012-08-23 2017-12-05 Stmicroelectronics (Canada), Inc. Apparatus and method for depth-based image scaling of 3D visual content
US20140062999A1 (en) * 2012-09-05 2014-03-06 Shenzhen China Star Optoelectronics Technology Co., Ltd. Display system and display control method thereof
KR101648094B1 (ko) * 2012-09-25 2016-08-12 니폰 덴신 덴와 가부시끼가이샤 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록매체
US9250653B2 (en) 2012-09-28 2016-02-02 City University Of Hong Kong Capturing, processing, and reconstructing audio and video content of mobile devices
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US20140184596A1 (en) * 2012-12-28 2014-07-03 Microsoft Corporation Image based rendering
US9214138B2 (en) 2012-12-28 2015-12-15 Microsoft Technology Licensing, Llc Redundant pixel mitigation
US9135742B2 (en) 2012-12-28 2015-09-15 Microsoft Technology Licensing, Llc View direction determination
US8983176B2 (en) * 2013-01-02 2015-03-17 International Business Machines Corporation Image selection and masking using imported depth information
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
WO2014143891A1 (en) 2013-03-15 2014-09-18 University Of Iowa Research Foundation Automated separation of binary overlapping trees
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9563955B1 (en) * 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
US9489774B2 (en) * 2013-05-16 2016-11-08 Empire Technology Development Llc Three dimensional user interface in augmented reality
JP2015104016A (ja) * 2013-11-26 2015-06-04 キヤノン株式会社 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
CN103646426A (zh) * 2013-12-13 2014-03-19 武汉恩倍思科技有限公司 一种将2d平面照片转换为3d立体照片的方法
JP6118948B2 (ja) * 2014-03-03 2017-04-19 コンソーシアム・ピー・インコーポレーテッドConsortium P Incorporated 除外区域を用いたリアルタイム位置検出
WO2015143435A1 (en) 2014-03-21 2015-09-24 University Of Iowa Research Foundation Graph search using non-euclidean deformed graph
US9407896B2 (en) * 2014-03-24 2016-08-02 Hong Kong Applied Science and Technology Research Institute Company, Limited Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions
US9196027B2 (en) 2014-03-31 2015-11-24 International Business Machines Corporation Automatic focus stacking of captured images
US9449234B2 (en) 2014-03-31 2016-09-20 International Business Machines Corporation Displaying relative motion of objects in an image
US9300857B2 (en) 2014-04-09 2016-03-29 International Business Machines Corporation Real-time sharpening of raw digital images
US10122992B2 (en) 2014-05-22 2018-11-06 Disney Enterprises, Inc. Parallax based monoscopic rendering
US9721385B2 (en) 2015-02-10 2017-08-01 Dreamworks Animation Llc Generation of three-dimensional imagery from a two-dimensional image using a depth map
US9897806B2 (en) 2015-02-10 2018-02-20 Dreamworks Animation L.L.C. Generation of three-dimensional imagery to supplement existing content
US10368104B1 (en) * 2015-04-01 2019-07-30 Rockwell Collins, Inc. Systems and methods for transmission of synchronized physical and visible images for three dimensional display
US10115194B2 (en) 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
DE102015210453B3 (de) * 2015-06-08 2016-10-13 Bitmanagement Software GmbH Verfahren und vorrichtung zum erzeugen von daten für eine zwei- oder dreidimensionale darstellung zumindest eines teils eines objekts und zum erzeugen der zwei- oder dreidimensionalen darstellung zumindest des teils des objekts
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10129523B2 (en) 2016-06-22 2018-11-13 Microsoft Technology Licensing, Llc Depth-aware reprojection
US10237531B2 (en) 2016-06-22 2019-03-19 Microsoft Technology Licensing, Llc Discontinuity-aware reprojection
US10558855B2 (en) * 2016-08-17 2020-02-11 Technologies Holdings Corp. Vision system with teat detection
HK1224513A (zh) * 2016-10-14 2017-08-18 萬維數碼有限公司 通過機器學習技術改進 的自動轉換質量的方法
WO2018172881A1 (ja) * 2017-03-24 2018-09-27 株式会社半導体エネルギー研究所 半導体装置、表示システム及び電子機器
US10229537B2 (en) * 2017-08-02 2019-03-12 Omnivor, Inc. System and method for compressing and decompressing time-varying surface data of a 3-dimensional object using a video codec
US10692247B2 (en) * 2017-08-02 2020-06-23 Omnivor, Inc. System and method for compressing and decompressing surface data of a 3-dimensional object using an image codec
US10534837B2 (en) 2017-11-13 2020-01-14 Samsung Electronics Co., Ltd Apparatus and method of low complexity optimization solver for path smoothing with constraint variation
CN112771539B (zh) * 2018-09-25 2023-08-25 马特波特公司 采用使用神经网络从二维图像预测的三维数据以用于3d建模应用
US10769848B1 (en) * 2019-05-24 2020-09-08 Adobe, Inc. 3D object reconstruction using photometric mesh representation
US11501470B2 (en) 2020-05-27 2022-11-15 Microsoft Technology Licensing, Llc Geometric encoding of data

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3772465A (en) * 1971-06-09 1973-11-13 Ass Of Motion Picture Televisi Image modification of motion pictures
SE365325B (ja) * 1971-11-04 1974-03-18 Rothfjell R
DE2967279D1 (en) * 1978-05-31 1984-12-06 Haydn Victor Purdy Method of and apparatus for reproduction of character images, particularly for typesetting apparatus
US4773098A (en) * 1980-05-27 1988-09-20 Texas Instruments Incorporated Method of optical character recognition
US4783829A (en) * 1983-02-23 1988-11-08 Hitachi, Ltd. Pattern recognition apparatus
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
US5644654A (en) * 1987-04-06 1997-07-01 Canon Kabushiki Kaisha Image processing apparatus capable of efficient coding of complex shape information
JPH0766445B2 (ja) * 1988-09-09 1995-07-19 工業技術院長 画像処理方法
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
JPH03218581A (ja) * 1989-11-01 1991-09-26 Hitachi Ltd 画像セグメンテーション方法
US5130815A (en) 1990-07-20 1992-07-14 Mti Associates Method and apparatus for encoding a video signal having multi-language capabilities
JPH0568268A (ja) * 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
US5537638A (en) * 1991-10-25 1996-07-16 Hitachi, Ltd. Method and system for image mapping
FR2683648B1 (fr) 1991-11-12 1996-12-13 Apple Computer Procede de choix d'objets dans une sequence d'images mobiles et piste d'essai de reussite correspondante.
US5333209A (en) * 1992-03-24 1994-07-26 At&T Bell Laboratories Method of recognizing handwritten symbols
US5469535A (en) * 1992-05-04 1995-11-21 Midway Manufacturing Company Three-dimensional, texture mapping display system
JPH0644755A (ja) * 1992-07-24 1994-02-18 Sony Corp ビデオ信号の伝送方法及び記録装置
EP0619677A3 (en) 1993-04-09 1995-03-08 Matsushita Electric Ind Co Ltd Digital video signal encryption system.
JPH0778267A (ja) * 1993-07-09 1995-03-20 Silicon Graphics Inc 陰影を表示する方法及びコンピュータ制御表示システム
CA2106222C (en) 1993-09-15 2000-10-31 Russell D. N. Mackinnon Object oriented communication network
GB9322260D0 (en) 1993-10-28 1993-12-15 Pandora Int Ltd Digital video processor
US5511153A (en) * 1994-01-18 1996-04-23 Massachusetts Institute Of Technology Method and apparatus for three-dimensional, textured models from plural video images
US5640468A (en) * 1994-04-28 1997-06-17 Hsu; Shin-Yi Method for identifying objects and features in an image
US5673377A (en) * 1994-09-02 1997-09-30 Ray Dream, Inc. Method and system for displaying a representation of a three-dimensional object with surface features that conform to the surface of the three-dimensional object
JPH0877356A (ja) * 1994-09-09 1996-03-22 Fujitsu Ltd 三次元多眼画像の処理方法及び処理装置
JPH08138053A (ja) * 1994-11-08 1996-05-31 Canon Inc 被写体情報処理装置及び遠隔装置
US5790086A (en) * 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
US5798762A (en) * 1995-05-10 1998-08-25 Cagent Technologies, Inc. Controlling a real-time rendering engine using a list-based control mechanism
US5617334A (en) * 1995-07-21 1997-04-01 The Trustees Of Columbia University In The City Of New York Multi-viewpoint digital video coder/decoder and method
US5864342A (en) * 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
US5793900A (en) * 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US5806005A (en) * 1996-05-10 1998-09-08 Ricoh Company, Ltd. Wireless image transfer from a digital still video camera to a networked computer
GB9613039D0 (en) * 1996-06-21 1996-08-28 Philips Electronics Nv Image data compression for interactive applications
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
US5809139A (en) * 1996-09-13 1998-09-15 Vivo Software, Inc. Watermarking method and apparatus for compressed digital video
US6055330A (en) * 1996-10-09 2000-04-25 The Trustees Of Columbia University In The City Of New York Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
JPH10191020A (ja) * 1996-12-20 1998-07-21 Canon Inc 被写体画像切出し方法及び装置
US5974175A (en) 1997-01-22 1999-10-26 Fujitsu Limited Image processing apparatus and method for detecting a contour of an object from images of a motion picture and extracting the object therefrom
JP3008875B2 (ja) * 1997-02-25 2000-02-14 日本電気株式会社 被写体抽出装置
US6031564A (en) * 1997-07-07 2000-02-29 Reveo, Inc. Method and apparatus for monoscopic to stereoscopic image conversion
US6630931B1 (en) * 1997-09-22 2003-10-07 Intel Corporation Generation of stereoscopic displays using image approximation
US6029173A (en) * 1997-11-26 2000-02-22 Navigation Technologies Corporation Method and system for representation and use of shape information in geographic databases
US6504569B1 (en) * 1998-04-22 2003-01-07 Grass Valley (U.S.), Inc. 2-D extended image generation from 3-D data extracted from a video sequence
AUPQ416699A0 (en) * 1999-11-19 1999-12-16 Dynamic Digital Depth Research Pty Ltd Depth map compression technique

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007502454A (ja) * 2003-08-05 2007-02-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチビュー画像の生成
JP4644669B2 (ja) * 2003-08-05 2011-03-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチビュー画像の生成
US7643672B2 (en) 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
JP2008518317A (ja) * 2004-10-26 2008-05-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視差マップ
JP2006302284A (ja) * 2005-04-19 2006-11-02 Honeywell Internatl Inc 2d画像ドメインデータを3d高密度レンジマップに変換するためのシステムおよび方法
JP2014209247A (ja) * 2006-10-26 2014-11-06 シーリアル テクノロジーズソシエテ アノニムSeereal Technologies S.A. 3dコンテンツ生成システム、その方法、及び通信方法
JP2010507822A (ja) * 2006-10-26 2010-03-11 シーリアル テクノロジーズ ソシエテ アノニム コンテンツ生成システム
JP2010522469A (ja) * 2007-03-23 2010-07-01 トムソン ライセンシング 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
JP2012510195A (ja) * 2008-11-24 2012-04-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 柔軟な出力を有する3dビデオ・プレーヤー
JP2016167838A (ja) * 2008-11-24 2016-09-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 柔軟な出力を有する3dビデオ・プレーヤー
KR101622269B1 (ko) * 2008-11-24 2016-05-18 코닌클리케 필립스 엔.브이. 출력 포맷을 디스플레이의 3d 프로세싱 능력에 매칭하는 3d 비디오 재생
JP2015084523A (ja) * 2008-11-24 2015-04-30 コーニンクレッカ フィリップス エヌ ヴェ 柔軟な出力を有する3dビデオ・プレーヤー
WO2013081304A1 (ko) * 2011-11-28 2013-06-06 에스케이플래닛 주식회사 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체
KR101390961B1 (ko) 2011-11-29 2014-05-07 (주)리얼디스퀘어 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체
KR101388668B1 (ko) * 2011-11-29 2014-04-25 (주)리얼디스퀘어 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
KR101330523B1 (ko) 2011-11-29 2013-11-18 (주)리얼디스퀘어 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
KR101356544B1 (ko) * 2012-03-29 2014-02-19 한국과학기술원 3차원 입체영상 생성 방법 및 장치
US9367767B2 (en) 2013-10-11 2016-06-14 Casio Computer Co., Ltd Data processor and computer-readable non-volatile recording medium for storing program for data processing

Also Published As

Publication number Publication date
US20040032980A1 (en) 2004-02-19
CN1173296C (zh) 2004-10-27
EP1044432A1 (en) 2000-10-18
US7551770B2 (en) 2009-06-23
JP4698831B2 (ja) 2011-06-08
EP2252071A2 (en) 2010-11-17
KR100560507B1 (ko) 2006-03-15
CN1281569A (zh) 2001-01-24
KR20010032346A (ko) 2001-04-16
EP2252071A3 (en) 2017-04-12
WO1999030280A1 (en) 1999-06-17
ID27878A (id) 2001-05-03
US20040032488A1 (en) 2004-02-19
CA2305735A1 (en) 1999-06-17
EP1044432A4 (en) 2007-02-21
US7894633B1 (en) 2011-02-22
MY124160A (en) 2006-06-30
CA2305735C (en) 2008-01-08
US7054478B2 (en) 2006-05-30

Similar Documents

Publication Publication Date Title
JP4698831B2 (ja) 画像変換および符号化技術
US6466205B2 (en) System and method for creating 3D models from 2D sequential image data
US8953905B2 (en) Rapid workflow system and method for image sequence depth enhancement
US8897596B1 (en) System and method for rapid image sequence depth enhancement with translucent elements
US9020241B2 (en) Image providing device, image providing method, and image providing program for providing past-experience images
US8160390B1 (en) Minimal artifact image sequence depth enhancement system and method
US20090219383A1 (en) Image depth augmentation system and method
US7245768B1 (en) Depth map compression technique
JP2000503177A (ja) 2次元映像(motion picture)を3次元映像に変換する方法及び装置
CN101287142A (zh) 基于双向跟踪和特征点修正的平面视频转立体视频的方法
JP2004505394A (ja) イメージ変換および符号化技術
KR102581134B1 (ko) 광 강도 이미지를 생성하기 위한 장치 및 방법
CN111447428A (zh) 平面至立体图像的转换方法、装置、计算机可读存储介质及设备
CN113853796A (zh) 用于体积视频编码和解码的方法、装置和计算机程序产品
KR100335617B1 (ko) 3차원 입체영상 합성방법
AU738692B2 (en) Improved image conversion and encoding techniques
JP7405702B2 (ja) 仮想視点レンダリング装置、方法及びプログラム
JP2019149112A (ja) 合成装置、方法及びプログラム
US10078905B2 (en) Processing of digital motion images
MXPA00005355A (en) Improved image conversion and encoding techniques
CN116993642A (zh) 一种建筑工程临建工程全景视频融合方法、系统及介质
CN111476707A (zh) 一种2d转换3d与vr的虚拟设备
JPH10234035A (ja) 画像符号化復号化方法および装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110302

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees