JP5792632B2 - デプスマップの符号化 - Google Patents

デプスマップの符号化 Download PDF

Info

Publication number
JP5792632B2
JP5792632B2 JP2011547971A JP2011547971A JP5792632B2 JP 5792632 B2 JP5792632 B2 JP 5792632B2 JP 2011547971 A JP2011547971 A JP 2011547971A JP 2011547971 A JP2011547971 A JP 2011547971A JP 5792632 B2 JP5792632 B2 JP 5792632B2
Authority
JP
Japan
Prior art keywords
video
depth
image
depth image
given
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011547971A
Other languages
English (en)
Other versions
JP2012516637A (ja
JP2012516637A5 (ja
Inventor
ライ ポーリン
ライ ポーリン
ドン ティエン
ドン ティエン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2012516637A publication Critical patent/JP2012516637A/ja
Publication of JP2012516637A5 publication Critical patent/JP2012516637A5/ja
Application granted granted Critical
Publication of JP5792632B2 publication Critical patent/JP5792632B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

関連出願の引用
本願は、2009年1月30日に提出された米国仮出願第61/206,496号「Temporal Filtering of Depth Maps(デプスマップの時間フィルタリング)」の利益を主張するものであり、本願ではそれを全体として参照により本願に援用する。
符号化システムに関する実装について記述する。各種の具体的実装は、デプスマップの符号化に関連するものである。
現在、多くのアプリケーションシステムにおいて、異なるビデオ画像ビューの間の対応を見つけるデプス推定法によって、デプスマップが得られる。カメラ設定の不適合、撮影位置の違い、および、デプス推定エラーに起因して、生成されるデプスマップに欠陥が生じることがある。そのようなデプスマップを利用すると、生成される仮想ビューに、許容されないレンダリングエラーがもたらされうるであろう。
一般的な態様によって、第1のビデオ画像に対応する第1のデプス画像が、アクセスされる。第1のデプス画像の所与の部分について、第1のビデオ画像のうちの同一位置のビデオ部分が判定される。第1のビデオ画像のうちの同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルが、アクセスされる。第2のビデオ画像に対応する第2のデプス画像が、アクセスされる。第2のデプス画像のデプス部分が、第1のデプス画像の所与の部分から、ビデオ動作ベクトルに基づいて判定される。第1のデプス画像の所与の部分が、第2のデプス画像のデプス部分に基づいて更新される。
1つ以上の実装の詳細を、添付の図面および以下の記述の中で述べる。1つの具体的な形で記述される場合でも、実装はさまざまな形で構成あるいは実施されうることは明確にすべきである。例えば、ある実装が、方法としても行われうるし、例えば、一組の操作を行うように構成された装置、または、一組の操作を行うための命令を記憶する装置のような、装置としても実施されうるし、あるいは、信号の中にも実施されうる。他の態様および特徴は、添付の図面および請求項と共に以下の詳細記述を考察することから明らかになるであろう。
左の基準ビューからの左のデプスマップの一例を示す図である。 右の基準ビューからの右のデプスマップの一例を示す図である。 デプスマップの時間フィルタリングを行うための装置の実装を示す図である。 デプスを有する3つの入力ビュー(K=3)から9つの出力ビュー(N=9)を生成するためのフレームワークの実装を示す図である。 ビデオ送信システムの実装を示す図である。 ビデオ受信システムの実装を示す図である。 ビデオ処理デバイスの実装を示す図である。 「Leaving_Laptop」として知られるMPEGテストシーケンスにおける、ラップトップ領域の周辺の3つの異なるタイムスタンプにおけるデプスマップの例を示す図である。 「Leaving_Laptop」として知られるMPEGテストシーケンスにおける、ラップトップ領域の周辺の3つの異なるタイムスタンプにおけるデプスマップの例を示す図である。 「Leaving_Laptop」として知られるMPEGテストシーケンスにおける、ラップトップ領域の周辺の3つの異なるタイムスタンプにおけるデプスマップの例を示す図である。 「Leaving_Laptop」として知られるMPEGテストシーケンスにおける、フロア領域の周辺のデプスマップの例を示す図である。 「Leaving_Laptop」として知られるMPEGテストシーケンスにおける、フロア領域の周辺のデプスマップの例を示す図である。 「Leaving_Laptop」として知られるMPEGテストシーケンスにおける、フロア領域の周辺のデプスマップの例を示す図である。 時刻t−1および時刻t+1における2つの対応する領域を用いて、時刻tにおけるデプスマップDの範囲内の領域に適用されたフィルタリング操作の例を示す図である。 デプスマップの時間フィルタリングを行うための方法の実装を示す図である。
3次元テレビジョン(3DTV)や自由視点ビデオ(FVV:free−viewpoint video)のような新しいビデオアプリケーションを容易にするため、複数のビデオビューおよび対応するピクセル毎のデプスマップを含むデータ形式が、一般的に用いられている。このデータ形式は、マルチビュー・プラス・デプス形式(MVD:multi−view plus depth)と呼ばれる。
少なくとも1つの実装において、異なるタイムスタンプにおいてデプスマップ全体に時間フィルタリングを行って、デプスマップにおける時間的な整合性を向上させると共に、デプスがフラットであるか、またはスムーズに変化する領域における輪郭の誤りを除去することを提案する。
少なくとも1つの実装において、ビデオ情報を用いてデプスマップ間の対応を識別することにより、対応する領域/対象に時間を越えてフィルタリングを適用するようにすることを提案する。
処理されたデプスマップは、典型的には、静的領域における時間的整合性が向上し、かつ、バンディング(輪郭の誤り)が大幅に減少するであろう。これらの向上によって、処理されたデプスマップを用いてレンダリングされる仮想ビューのレンダリング品質が向上するだけでなく、静的領域についてのデプスが安定化して(時間予測に利する)輪郭の誤りが除去される(空間予測に利する)ため、符号化効率も高まるはずである。
図1は、本原理の一実施形態によって本原理が適用されうる、「Leaving_Laptop」として知られるMPEGテストシーケンスに対応する第6のビューについて生成された例示的なデプスマップを示す図である。図2は、本原理の一実施形態によって本原理が適用されうる、「Leaving_Laptop」として知られるMPEGテストシーケンスに対応する第9のビューについて生成された例示的なデプスマップを示す図である。ユーザエンドでは、例えば、送信または記憶されたビデオ画像ビュー(基準ビュー)と、対応するデプスマップとを入力として用いるDIBR(depth image based rendering:デプスイメージに基づくレンダリング)の技法を用いて、中間的なビデオビュー(仮想ビュー)が生成されてもよい。
図3は、本原理の一実施形態によって本原理が適用されうる、デプスマップの時間フィルタリングを行うための例示的装置300を示す図である。装置300は動作分析器310を含んでおり、その出力が、通信によって、重み算出器320の入力および時間フィルタ330の第3の入力に接続されていて、それらに動作ベクトルを提供している。重み算出器320の出力が、通信によって、時間フィルタ330の第1の入力に接続されていて、それにフィルタの重みを提供している。動作分析器310の入力が、ビデオシーケンスを受信するための、装置300の入力として利用可能である。時間フィルタ330の第2の入力が、デプスシーケンスを受信するための、装置300の入力として利用可能である。時間フィルタ330の出力が、フィルタを通したデプスマップシーケンスを出力するための、装置300の出力として利用可能である。装置300の操作は、以下でさらに詳しく説明する。
図3の実装、および本願で説明するその他のデバイスは、1つの端末またはポートで2つ以上の入力信号を受信してもよい。例えば、1つ以上の時間フィルタ330の実装では、デプスシーケンスとフィルタの重みと動作ベクトルとを、1つの入力ポートで受信してもよい。
図4は、本原理の一実施形態による、本原理が適用されうる、デプスを有する3つの入力ビュー(K=3)から9つの出力ビュー(N=9)を生成するための例示的なフレームワーク400を示す図である。フレームワーク400は、多視点の出力をサポートする自動立体3Dディスプレイ410と、第1のデプスイメージに基づくレンダラ420と、第2のデプスイメージに基づくレンダラ430と、復号されたデータのためのバッファ440とを含んでいる。復号されたデータは、MVD(Multiple View plus Depth)データとして知られる表現である。9つのビューを、V1乃至V9で示す。3つの入力ビューに対応するデプスマップを、D1、D5、D9で示す。捕捉されたカメラ位置(例えばPos1、Pos2、Pos3)の間に、どのような仮想カメラ位置が、図4に示すように、利用可能なデプスマップ(D1、D5、D9)を用いて生成されてもよい。図4で分かるように、データを捕捉するのに用いられる実際のカメラ(V1、V5、およびV9)間の基線は、広いことがある。結果として、符号化効率は時間的相関に依存するであろうから、これらのカメラ間の相関は著しく低下し、これらのカメラの符号化効率が劣化する可能性がある。
図5は、本原理の一実装による、本原理が適用されうる、例示的なビデオ送信システム500を示す図である。ビデオ送信システム500は、例えば、衛星、ケーブル、電話回線、地上波放送のような、多様な媒体のいずれかを用いて信号を送信するための、ヘッドエンドまたは送信システムであってもよい。送信は、インターネットまたは何らかの他のネットワーク経由で提供されてもよい。
ビデオ送信システム500は、デプスを有する圧縮ビデオを生成および配信することができる、これは、例えばデコーダを有しうる受信器エンドで、デプス情報、または、デプス情報を合成するのに用いられうる情報を含む符号化された信号を生成することによって達成される。
ビデオ送信システム500は、エンコーダ510と、符号化された信号を送信することができる送信器520とを含んでいる。エンコーダ510は、ビデオ情報を受信して、デプスを有する符号化された信号を生成する。エンコーダ510は、例えば、各種の情報の断片を受信し、それらを、構造化された形式で記憶または送信するアセンブリユニットを含むサブモジュールを含んでいてもよい。各種の情報の断片は、例えば、符号化された、または、符号化されていないビデオと、符号化された、または、符号化されていないデプス情報と、符号化された、または、符号化されていない要素、例えば動作ベクトル、符号化モード指標、シンタックス要素等を含んでいてもよい。
送信器520は、例えば、符号化された画像、および/または、それに関する情報を表す、1つ以上のビットストリームを有するプログラム信号を送信するように構成されていてもよい。典型的な送信器は、例えば、誤り訂正符号化を提供することと、信号の中にデータをインタリーブすることと、信号の中のエネルギーを無作為化することと、および/または、信号を1つ以上の搬送波上で変調することとのうち、1つ以上の機能を果たす。送信器は、アンテナ(図示せず)を有するか、またはアンテナとのインタフェースを有していてもよい。従って、送信器520の実装は、変調器を含むか、または変調器に限定されてもよい。
図6は、本原理の一実施形態による、本原理が適用されうる、例示的なビデオ受信システム600を示す図である。ビデオ受信システム600は、例えば、衛星、ケーブル、電話回線、地上波放送のような、多様な媒体で信号を受信するように構成されてもよい。信号は、インターネットまたは何らかの他のネットワーク経由で受信されてもよい。
ビデオ受信システム600は、例えば、携帯電話、コンピュータ、セットトップボックス、テレビジョン、または、符号化されたビデオ画像を受信するその他のデバイスであってもよく、例えば、ユーザに表示するため、または記憶するために、復号されたビデオを提供する。従って、ビデオ受信システム600は、その出力を、例えば、テレビ画面、コンピュータのモニタ、(記憶、処理、および表示のための)コンピュータ、もしくは、何らかの他の記憶、処理、または表示デバイスに提供してもよい。
ビデオ受信システム600は、ビデオ情報を含むビデオコンテンツを受信して処理することができる。ビデオ受信システム600は、例えば本願の実装において説明した信号のような、符号化された信号を受信することができる受信器610と、受信された信号を復号することができるデコーダ620とを有する。
受信器610は、例えば、符号化された画像を表す複数のビットストリームを有するプログラム信号を受信するように構成されてもよい。典型的な受信器は、例えば、変調され符号化されたデータ信号を受信することと、1つ以上の搬送波からのデータ信号を復調することと、信号の中のエネルギーの無作為化を除去することと、信号の中のデータのインタリーブを除去することと、および/または、信号の誤り訂正の復号とのうち、1つ以上の機能を果たす。受信器610は、アンテナ(図示せず)を有するか、またはアンテナとのインタフェースを有していてもよい。受信器610の実装は、復調器を含むか、または復調器に限定されてもよい。デコーダ620は、ビデオ情報およびデプス情報を含むビデオ信号を出力する。
図7は、本原理の一実施形態による、本原理が適用されうる、例示的なビデオ処理デバイス700を示す図である。ビデオ処理デバイス700は、例えば、セットトップボックス、または、符号化されたビデオを受信するその他のデバイスであってもよく、例えば、ユーザに表示するため、または記憶するために、復号されたビデオを提供する。従って、ビデオ処理デバイス700は、その出力を、テレビジョン、コンピュータのモニタ、またはコンピュータもしくは他の処理デバイスに提供してもよい。
ビデオ処理デバイス700は、フロントエンド(FE)デバイス705とデコーダ710とを有する。フロントエンドデバイス705は、例えば、符号化された画像を表す複数のビットストリームを有するプログラム信号を受信し、かつ、復号するために複数のビットストリームから1つ以上のビットストリームを選択するように構成された受信器であってもよい。典型的な受信器は、例えば、変調され符号化されたデータ信号を受信することと、データ信号を復調することと、データ信号の1つ以上の符号化(例えば、チャネル符号化および/またはソース符号化)を復号することと、および/または、データ信号を誤り訂正することとのうち、1つ以上の機能を果たす。フロントエンドデバイス705は、例えばアンテナ(図示せず)からプログラム信号を受信してもよい。フロントエンドデバイス705は、受信したデータ信号をデコーダ710に提供する。
デコーダ710は、データ信号720を受信する。データ信号720は、例えば、1つ以上のAVC(Advanced Video Coding)、SVC(Scalable Video Coding)、またはMVC(Multi−view Video Coding)互換性を持つストリームを含んでもよい。
AVCは、詳細には、既存のInternational Organization for Standardization/International Electrotechnical Commission(ISO/IEC)Moving Picture Experts Group−4(MPEG−4)Part 10 Advanced Video coding(AVC)標準/International Telecommunications Union、Telecommunication Sector(ITU−T)H.264 Recommendation(以下、「H.264/MPEG−4 AVC標準」または、その変化形、例えば「AVC標準」または単純に「AVC」)のことを言う。
MVCは、詳細には、AVC標準の多視点ビデオ符号化(multi−view video coding「MVC」)拡張部分(Annex H)のことを言うのであって、H.264/MPEG−4 AVC、MVC拡張部分(「MVC拡張部分」または単純に「MVC」)と呼ばれることもある。
SVCは、詳細には、AVC標準のスケーラブルビデオ符号化(scalable video coding「SVC」)拡張部分(Annex G)のことを言うのであって、H.264/MPEG−4 AVC、SVC拡張部分(「SVC拡張部分」または単純に「SVC」)と呼ばれることもある。
デコーダ710は、受信信号720のすべて、またはその一部を復号し、復号されたビデオ信号730を出力として提供する。復号されたビデオ730は、選択器750に提供される。また、デバイス700は、ユーザ入力770を受信するユーザインタフェース760を備えている。ユーザインタフェース760は、ユーザ入力770に基づいて、画像選択信号780を選択器750に提供する。画像選択信号780およびユーザ入力770は、複数の画像、シーケンス、スケーラブルバージョン、ビュー、または利用可能な復号されたデータのその他の選択肢のうち、どれをユーザが表示してほしいのかを示す。選択器750は、選択された画像を出力790として提供する。選択器750は、画像選択情報780を用いて、復号されたビデオ730の中の画像のうちでどれを出力790として提供するかを選択する。
各種の実装において、選択器750はユーザインタフェース760を有しており、また、他の実装においては、別個のインタフェース機能が行われることなく、選択器750がユーザ入力770を直接受信するため、ユーザインタフェース760は必要とされない。選択器750は、例えば、ソフトウェアの中に、あるいは集積回路として実装されてもよい。一実装では、選択器750は、デコーダ710に組み込まれており、また別の実装では、デコーダ710、選択器750、およびユーザインタフェース760は、すべて統合されている。
一応用例では、フロントエンド705が、各種のテレビ番組の同報を受信して、処理するために1つを選択する。1つの番組の選択は、所望の視聴チャネルのユーザ入力に基づく。フロントエンドデバイス705へのユーザ入力は図7には示していないが、フロントエンドデバイス705は、ユーザ入力770を受信する。フロントエンドデバイス705は、同報を受信し、同報スペクトルの関連部分を復調した上で、復調された番組のいずれかの外側の符号化を復号することによって、所望の番組を処理する。フロントエンドデバイス705は、復号された番組をデコーダ710に提供する。デコーダ710は、デバイス760とデバイス750とを含む統合ユニットである。こうしてデコーダ710はユーザ入力を受信し、それは、番組の中で見たいと思うビューの指標をユーザが提供したものである。デコーダ710は、選択されたビューだけでなく、他のビューからも必要な基準画像を復号し、テレビ画面(図示せず)に表示するための復号されたビュー790を提供する。
上記応用例の続きだが、ユーザが、表示されるビューを切り替えることを望んだり、次いで、新たな入力をデコーダ710に提供したりしてもよい。ユーザから「ビュー変更」を受信した後、デコーダ710は、古いビューと新しいビューの両方を復号するだけでなく、古いビューと新しいビューとの間にあるいかなるビューをも復号する。すなわち、デコーダ710は、古いビューを撮影しているカメラと新しいビューを撮影しているカメラとの間に物理的に位置しているカメラから撮影されたいかなるビューをも復号する。また、フロントエンドデバイス705は、古いビューと、新しいビューと、それらの間のビューとを識別する情報を受信する。そのような情報は、例えば、ビューの位置についての情報を有する制御器(図7には図示せず)、またはデコーダ710によって提供されてもよい。他の実装は、フロントエンドデバイスと統合された制御器を有するフロントエンドデバイスを用いてもよい。
デコーダ710は、これらの復号されたビューのすべてを出力790として提供する。ポストプロセッサ(図7には図示せず)が、古いビューから新しいビューへのスムーズな移行を提供するためにビュー間を補間し、この移行をユーザに表示する。新しいビューへの移行の後、ポストプロセッサは、新しいビューだけが必要であることを、(図示しない1つ以上の通信リンクを通して)デコーダ710およびフロントエンドデバイス705に通知する。その後、デコーダ710は、新しいビューだけを出力790として提供する。
システム700を用いて、一連のイメージの複数のビューを受信した上で1つのビューをディスプレイに表示し、そして各種のビューをスムーズに切り替えてもよい。スムーズにとは、別のビューへ移動するためビューの間に補間することを含んでもよい。加えて、システム700によって、ユーザが対象または場面を回転させたり、その他のやり方で、対象または場面の三次元表現を見たりすることができてもよい。例えば、対象の回転は、ビュー間のスムーズな移行が得られるように、または単純に三次元表現を得るために、ビューからビューへの移動、およびビュー間を補間することに対応してもよい。すなわち、ユーザは、表示されることになる「ビュー」として、補間されたビューを「選択」してもよい。
3DTVおよびFVVの応用例については、典型的には複数のビデオビューおよび対応するデプスマップ(例えばMVD形式)を入力として採用するDIBR技法を用いて、仮想ビューをレンダリングすることができる。典型的には、デプスマップは、一定のマッチングコストを最小化することによってビデオビュー間のピクセル対応を確立するデプス推定ルーチンによって得られる。デプス値は、アクティブなデバイス(レンジカメラ等)によって測定されるのではなく推定されるため、デプスマップは、推定誤差を非常に生じやすく、生成される仮想ビューのレンダリング品質が低下しやすい。
推定によるデプスマップにありうる1つの欠陥は、静的領域における時間的な不整合である。図8,9、10は、「Leaving_Laptop」として知られるMPEGテストシーケンスにおける、ラップトップ領域の周辺の3つの異なるタイムスタンプにおける例示的なデプスマップをそれぞれ示す図である。具体的には、図8は、MPEGテストシーケンス「Leaving_Laptop」のフレーム5についての例示的なデプスマップ800を示し、図9は、フレーム10についての例示的なデプスマップ900を示し、図10は、フレーム15についての例示的なデプスマップ1000を示す図である。デプス推定は、フレーム毎に行われるため、時間的な整合性をチェックするためのメカニズム(ここでは、これを「時間的非依存デプスマップ」と呼ぶ)は構築されてこなかった。ラップトップの境界線と、そのデプス値とがフレーム毎に変化することを観察することができるが、そのため、典型的には、レンダリングされる仮想ビューにおいてチラツキの欠陥が生じるであろう。さらに、デプス値が時間と共に変化するため、そのような時間的な不整合の問題を伴うデプスマップを符号化すると、ビットレートが高速になるであろう。
デプスマップについて頻繁に観察されるもう1つの欠陥は、デプス値がスムーズに変化する領域におけるバンディング(輪郭の誤り)である。図11、12、13は、「Leaving_Laptop」として知られるMPEGテストシーケンスにおける、フロア領域の周辺の例示的なデプスマップをそれぞれ示す図である。具体的には、図11は、MPEGテストシーケンス「Leaving_Laptop」のフレーム5についての例示的なデプスマップ1100を示し、図12は、フレーム10についての例示的なデプスマップ1200を示し、図13は、フレーム15についての例示的なデプスマップ1300を示す図である。図11、12、13から、フロア領域のデプスマップは、何らかの人工的な輪郭を示すことが分かる。そのような領域におけるデプス値は、スムーズに変化しているはずである。そのようなパターンは典型的には、想定されるスムーズな変化よりも符号化することが難しいため、これらの輪郭では、デプスマップに関する符号化効率が低下しうるであろう。
このような問題に対処するため、本開示で記述した少なくとも1つの実装が、時間的整合性を向上させ、かつ、輪郭の誤りを減少または除去することを目的として、推定によるデプスマップのための時間フィルタリング技法を提案する。ビデオ情報を用いて、時間フィルタリングが適用されるべき対応する領域を識別する。生じるデプスマップは、時間的な不整合が向上し、かつバンディング(輪郭の誤り)も減少して、仮想ビューについてのレンダリング品質を向上させ、デプス符号化効率も向上するであろう。
少なくとも1つの実装において、時間的整合性を向上させ、かつ、推定によるデプスマップの欠陥を除去するため、最初のデプス推定が行われた後で(例えば、時間的非依存デプスマップが推定された後で)、時間フィルタリングを行うことを提案する。このシナリオでは、所与のタイムスタンプにおいてデプスマップをフィルタリングする(すなわち、もっと一般的には、更新する)ために、以前のタイムスタンプと将来のタイムスタップとの両方からのデプスマップを用いることができる。フィルタリングプロセスに含まれることになるデプスマップの時間ウィンドウは、異なるタイムスタンプにおけるデプスマップの中で利用可能な対応する領域の位置を特定することによって、判定することができる。異なるタイムスタンプにおける対応する領域を識別するために、ビデオビューの中の動作情報が(デプスにおける情報の代わりに)用いられる。目標は、誤ったデプス推定結果、例えば静的な領域の輪郭が変化することや人工的な輪郭を除去することであるため、ローパス特性を備えたフィルタリング操作が、少なくとも1つの実装において利用される。例えば、時間的な加重平均およびメディアンフィルタは、例示的なプロセスの候補である。以下で、ビデオからの動作情報を持つデプスマップの時間フィルタリングに関する、提案の概念の一実施形態を提供する。本原理の一実施形態によるフィルタリングプロセスの一般的ブロック図を図3に提供する。
所与のビューについて、ピクセル位置(x、y)および時刻tにおける、ビデオ照度ピクセル値、および、対応する推定によるデプスマップ値を、それぞれI(x,y,t)およびD(x,y,t)と表示しよう。ここでは、時刻tにおいてDにおける一領域について時間フィルタリングを行うことを望むと仮定し
Figure 0005792632
、以下のステップは、時間フィルタリングがどのように達成されるかを説明する。
1.ビデオからの動作情報に基づいて異なるタイムスタンプにおける対応する領域を識別する
一実施形態では、ビデオからの動作情報に基づく、異なるタイムスタンプにおける対応する領域の識別は、図3の動作分析器310を用いて行われる。
デプス情報は誤っていることがあることが知られているため、ビデオフレーム内の同一位置の領域
Figure 0005792632
を用いて、動作情報を抽出し、異なる時刻での対応を確立する。このように、t’≠tの場合に、I(x,y,t’)とI(x,y,t)との間の対応する領域を識別するために、いかなる従来の動作分析技法が利用されてもよい。例えば、ビデオ符号化において典型的に行われるような単純なブロックに基づく動作探索は、1つのありうる選択肢である。合理的な時間的距離の範囲内
Figure 0005792632
でフィルタリングが行われるように、時間的な境界が設定されてもよい。対象が移動するため、一部のタイムスタンプでは所与の領域が対応を有しないこともありうる。これは、場合によっては、動作探索コスト関数に何らかの閾値を設定することによって検出されうる。
この動作分析段階の後、所与のビデオ画像領域
Figure 0005792632
について、tとt’との間の対応する領域について動作ベクトル(mvxt'、mvyt')が得られ、異なるタイムスタンプ
Figure 0005792632
において利用可能な対応の候補が識別される。ここで留意すべきだが、所与の領域についてのデプス対応
Figure 0005792632
は、これらの動作ベクトルを用いて確立され、対応する領域
Figure 0005792632
が得られる。この操作は、以下で述べるステップ3(時間平均)において行われる。

2.フィルタの重みを判定する
一実施形態では、フィルタの重みの判定は、図3の重み算出器320を用いて行われる。
フィルタリングを行うため、ステップ1で見つけられた動作ベクトルをコピーすることによって識別されたデプス対応のそれぞれに、wt'の重みが与えられる。フィルタリングされたデプスは、
Figure 0005792632
の範囲内で、D”(x,y,t)=Σwt'×D(x+mvxt',y+mvyt',t’)であって、ここで、Σwt'=1であり、両方の加算は、Tの選択された時間範囲に入るt’に対して行われる。最もシンプルな平均法は、時刻t’に関わらず重みwが同じである、均一の重み付けを用いることである。少なくとも1つの実装では、重みを判定する時に考慮されるべき他の属性も提案する。
動作基準:複数のタイムスタンプにわたって静止を続ける対象については、それらのデプスは変化すべきでない。従って、(mvxt’,mvyt’)がほとんどゼロであると観察された場合、時間フィルタリングを適用すれば、デプスマップにおいてこの領域についての時間的整合性を向上させうるとの確信が高まる。他方で、対象が移動する場合、時間と共にそのデプスも変化することがある。時間フィルタの感度が鈍いならば、デプスマップに何らかのエラーをもたらす可能性がある。この論理的根拠に基づいて、小さい動作を伴う対応には、より大きい重み付けwを適用し、大きい動作を伴う対応には、より小さい重み付け(w=0ですら可能)を適用することができる。
時間的距離基準:上記の動作基準の他に、考慮に価するもう1つの基準は、t’とtとの間の時間的距離である。典型的なローパスフィルタリングのシナリオでは、最大の重みは、一般に、t’=tに対して割り当てられ、重みは、t’がtから離れるにつれて減少する。例えば、重み0.5×{1,−2,4,−2,1}を、t’={t−2,t−1,t,t+1,t+2}に割り当てることができる。ここで留意すべきだが、ステップ1で対応が見つからないタイムスタンプがいくつかある場合には、重みは、Σwt’=1を保証するため、適宜調整される必要がある。例えば、t’=t+1で合致するものがない場合には、重みは、t’={t−2,t−1,t,t+2}について0.25×{1,−2,4,1}になるであろう。ここで留意すべきだが、マイナスの重みを用いると、例えば、フィルタが、理想的なローパスフィルタのそれに近い周波数特性を持つことができるようになる。
特殊な場合(メディアンフィルタ):選択されたフィルタが、メディアンフィルタである場合には、
Figure 0005792632
の範囲内の各ピクセルについて、フィルタリングされた値D”(x,y,t)が、ステップ1で識別された対応する位置におけるピクセルの中央値である。ここで留意すべきだが、この場合、各ピクセルの時間的中央値は、同じタイムスタンプから来ないかもしれないため、フィルタリングの重みは、ピクセルに基づいて割り当てられる。また、留意すべきだが、メディアンフィルタは、中央値に1の重みを置いた重み付けフィルタであると説明してもよい。
3.時間平均
一実施形態では、図3の時間フィルタ330を用いて時間平均が行われる。
所与の領域
Figure 0005792632
についてフィルタリングを行うには、ステップ1で見つけられた動作ベクトル(mvxt',mvyt')を用いて、対応する領域
Figure 0005792632
を得る。今、重みwt'が判定されたため、フィルタリングされたデプス値D”を以下のように算出し、Tのタイムスタンプ範囲内で選択された各種のt’の値について合計を行うことができる。
D”(x,y,t)=Σwt'×D(x+mvxt',y+mvyt',t’)
ここでΣwt'=1である。
フィルタリングされたデプスマップを生成するため、最初のデプス値を、フィルタリングされたデプス値と置き換える。
時刻tにおけるデプスマップD(x,y,t)全体についてフィルタリングが行われた後、次のデプスマップについて、t+1において手順が繰り返されるであろう。ここで留意すべきだが、この時点で、D(x,y,t+1)についてのフィルタリングを行うために、すでにフィルタリングされたマップD”(x,y,t)を用いることも、または、代わりに元のD(x,y,t)を用いることもできる。一般的な目的では、どちらの方法も考えられる。過剰なフィルタリングという起こり得る問題を避けるため、1つの実装は、t+1でデプスマップをフィルタリングするために、最初のデプスマップを用いる。対照的に、別の実装は、これまでのデプスマップと現行のデプスマップとの間の連続性を高めることを目的として、すでにフィルタリングされたマップを用いる。
図14は、本原理の一実施形態によって、時刻tにおけるデプスマップDの範囲内の一領域に適用されるフィルタリング操作の一例を、時刻t−1および時刻t+1におけるその2つの対応する領域を用いて示し、また、異なる領域間の関係を描いた図である。所与のデプス領域について、時刻tにおけるビデオフレームIの範囲内のその同一位置の領域が、最初に得られる。次いで、この同一位置のビデオ領域と他のビデオフレームの中の領域との間の対応を識別するために、動作分析が行われ、動作ベクトル(mvxt-1,mvyt-1)および(mvxt+1,mvyt+1)が出力される。斜線で描いた、時刻t−1および時刻t+1におけるデプスマップの中の対応する領域が、これらの動作ベクトルを用いて得られる。最後に、フィルタの重みが、対応するデプス領域(斜線)に適用され、場合によっては、時刻tにおける所与のデプス領域についてのフィルタリングされた値を演算するため、時刻tにおける所与のデプス領域に適用されるであろう。
図15は、本原理の一実施形態による、デプスマップの時間フィルタリングを行うための例示的な方法を示す図である。ステップ1510では、時刻tにおけるデプスマップおよび対応するビデオが、入力として得られる。ステップ1515では、フィルタリングされることになるデプスマップの中の一領域が選択される。ステップ1520では、ビデオフレームの中の同一位置の領域についての動作分析が行われ、得られた動作情報が記録される。ステップ1525では、フィルタの重みが(例えば、動作、時間基準等に基づいて)判定される。ステップ1530では、動作情報を用いて、フィルタリングされることになるデプス領域について、他のデプスマップの中の対応する領域が得られる。ステップ1535では、領域が、他のデプスマップにおける対応する領域と一緒に、かつ、判定された重みを用いて、フィルタリングされる。ステップ1540では、現行のデプスマップが完了したか否かが判定される。そうであれば、制御権はステップ1545に渡される。そうでない場合、制御権は、ステップ1515に戻される。ステップ1545では、t=t+1においてフィルタリングすべきデプスマップがもっとあるのか否かが判定される。そうであれば、制御権は、ステップ1510に戻される。そうでない場合、方法は終了する。
先に述べたように、フィルタリング操作は、更新と呼ばれることがある。用いられる用語に関わらず、デプスマップの所与の部分をフィルタリング/更新する操作は、他のデプスマップからのデプス値にアクセスすることとそれを用いることを含むことがある。実際、各種の実施形態では、所与のデプスマップは考慮されないため、所与のデプスマップの所与の部分をフィルタリング/更新することは、他のデプスマップからのデプス値にアクセスしてそれを用いることだけを含む。
各種の実装は、同じタイムスタンプにおける他のビューからのデプスマップ、および/または、異なるタイムスタンプにおける他のビューからのデプスマップを用いることによって、デプスマップの所与の部分を更新する。異なるタイムスタンプにおける同じビューからのデプスマップに加えて、またはその代わりに、他のビューからのデプスマップが、用いられてもよい。同じビューからのデプスマップを用いる一定の実装は、例えば、チラツキの問題に対処することができる。同様に、異なるビューからのデプスマップの使用は、1つ以上の特定の欠陥または雑音タイプに対応するのに特に適していることがある。
各種の実装は、測定されたデプスマップをフィルタリング/更新するものであって、その場合のデプス値は、推定されたのではなく、測定されたものである。測定されたデプスマップは、推定されたデプスマップとは別の欠陥を示すことがある。しかし、本原理は、同じ利点または追加の利点を、特に、異なるデプスマップを測定するために異なる装置が用いられる場合に提供しうる。装置は、例えば、異なるビューを考察する場合に、または、所与のビューについて装置が変更された場合に、または、所与のビューが、異なる条件下で用いられる複数の測定デバイスを有する場合に、異なることがある。
ビデオブロックについての動作ベクトルを判定し、デプスブロックに関してフィルタリング操作を行うために、同じ動作ベクトルを用いてデプスマップ間の対応を見つけるような一定の実装について、ここまで記述してきた。しかし、他の実装は、フィルタリング操作を行うために、厳密な動作ベクトルの代わりに、またはそれに加えて、動作ベクトルの変形を用いて、デプスマップ間の対応を見つける。例えば、一実装では、厳密な動作ベクトルを用いてデプスマップ間の対応を見つけるが、次いで、その動作ベクトルが修正され、従ってこの場合、異なる対応が判定される。次いで、両方の対応が、フィルタリング操作の中で用いられる。そのような実装は、より大きな対応を提供し、従って、フィルタリング操作に関して、より多くの候補を提供する。動作ベクトルのそのような修正の1つは、同じ対象またはエリアの中に依然として存在する別のエリアを対応が指示する(例えば、最前面または最背面)ように、動作ベクトルをわずかに変化させることである。
本願では、動作ベクトルという用語は、典型的には、時刻tにおける所与のブロックに適用され、(例えば、異なるタイムスタンプを有する)異なる時刻における画像に対する、そのブロックの動作を示す。動作ベクトルは、しかし、2つの画像間の相対的動作を特徴づけると理解される。従って、動作ベクトルは、両方の画像の対応するブロックに適用される。
本願の中で記述した実装および特徴の一部は、H.264/MPEG−4 AVC(AVC)標準、またはMVC拡張部分を備えたAVC標準、またはSVC拡張部分を備えたAVC標準の文脈で用いられてもよい。しかし、これらの実装および特徴は、(既存の、または将来の)別の標準の文脈で、または、標準に関係しない文脈で用いられてもよい。従って、ここでは、具体的な特徴および態様を有する1つ以上の実装を提供する。しかし、記述された特徴および態様は、他の実装にも適用されうる。
加えて、多くの実装が、エンコーダ、デコーダ、プロセッサ(例えば、デコーダからの出力を処理するポストプロセッサ、エンコーダへの入力を提供するプリプロセッサ)等のうち1つ以上に実装されてもよい。少なくとも1つの実装では、デプス値を更新することは、デプスを符号化する前に行われてもよい。少なくとも1つの他の実装では、デプスは、エンコーダで計算されるのではなく、受信器/テレビジョンで、またはデプスを符号化したり送信したりすることなくビデオ画像ソースで計算される。代わりに、デプス画像なしでビデオだけが送信されてもよい。次いで、例えば、受信器は受信器に接続されているテレビジョンに新しいビューをレンダリングできることを望むわけだから、受信器がデプスを推定してもよい。さらに、本開示によって他の実装が考えられる。
このようにして、具体的な特徴および態様を有する1つ以上の実装を提供する。しかし、記述した実装の特徴および態様は、他の実装にも適合されうる。実装は、SEIメッセージ、スライスヘッダ、他の高レベルシンタックス、非高レベルシンタックス、帯域外情報、データストリームのデータ、暗黙のシグナリングを含むが、それに限定されず、各種の技法を用いて情報を信号で伝達してもよい。従って、本書で記述した実装は、具体的な文脈で記述されていることがあるが、そのような記述は、特徴および概念をそのような実装または文脈に限定していると決してみなされてはならない。
明細書における本原理の「一実施形態」または「実施形態」または「一実装」または「実装」、およびその変形への言及は、その実施形態に関して述べた具体的な特徴、構造、特性等が、本原理の少なくとも1つの実施形態に含まれていることを意味する。従って、「一実施形態では」または「ある実施形態では」または「一実装では」または「ある実装では」という句が現れること、および他のいずれかの変形が本明細書を通してさまざまな場所に現れることは、すべて同じ実施形態を言及しているとは限らない。
理解されるべきだが、以下の「/」、「および/または」、「のうち少なくとも1つ」のいずれかの使用は、例えば、「A/B」、「Aおよび/またはB」、および「AとBとのうち少なくとも1つ」の場合には、第1に記載された選択肢(A)だけの選択、または第2に記載された選択肢(B)だけの選択、または両方の選択肢(AとB)の選択を含むことが意図されている。別の例として、「A、B、および/またはC」および「A、BおよびCのうち少なくとも1つ」および「A、B、またはCのうち少なくとも1つ」の場合、そのような語句は、第1に記載された選択肢(A)だけの選択、または第2に記載された選択肢(B)だけの選択、または第3に記載された選択肢(C)だけの選択、または第1と第2とに記載された選択肢(AとB)だけの選択、または第1と第3とに記載された選択肢(AとC)だけの選択、または第2と第3とに記載された選択肢(BとC)だけの選択、または3つの選択肢すべて(AとBとC)の選択を含むことが意図されている。当分野および関連分野の当業者には容易に理解できるとおり、これは、記載された項目すべてに拡大適用されてもよい。
また本書では、「画像(picture)」および「イメージ(image)」という用語は、交換できるように用いられており、例えば、静止画像の全体または一部、あるいはビデオシーケンスからの画像の全部または一部のことを言う。周知のように、画像は、フレームまたはフィールドであってもよい。加えて、本書では、画像はフレームの一部であって、例えばフレームの上半分であるか、または1つのマクロブロックであってもよい。別の例として、デプス画像は、例えば、デプスマップ全体であってもよいし、例えば、対応するビデオフレームの1つのマクロブロックについてのデプス情報を含むだけである、部分的なデプスマップであってもよい。
本書で述べた実装は、例えば方法として、またはプロセス、装置、ソフトウェアプログラム、データストリーム、または信号として実装されてもよい。実装の1つの形式の文脈で論じられただけであった(例えば、方法として論じられただけ)としても、論じられた特徴の実装は、他の形式(例えば、装置またはプログラム)でも実装されうる。装置は、例えば、適切なハードウェア、ソフトウェア、ファームウェアの中に実装されてもよい。方法は、例えば、プロセッサのような装置の中に実装されてもよく、プロセッサとは、マイクロプロセッサと集積回路とプログラマブル論理デバイスとを含めて、一般に処理デバイスのことを言う。また、プロセッサは、例えばコンピュータ、携帯電話、携帯情報端末(「PDA」)、エンドユーザ間の情報通信を円滑化するその他のデバイス等の、通信デバイスも含む。
本書で述べた各種のプロセスおよび特徴の実装は、各種の多様な装置またはアプリケーション、特に、例えば、データ符号化および復号に関連する装置またはアプリケーションの中に実施されてもよい。そのような装置の例には、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダに入力を提供するプリプロセッサ、ビデオコーダ、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA、その他の通信デバイスが含まれる。明確であるべきだが、装置は、移動可能であってもよく、移動する車両の中に設置されていてもよい。
加えて、方法は、プロセッサによって実行される命令によって実装されてもよく、そのような命令(および/または実装によって生成されるデータ値)は、例えば集積回路、ソフトウェア搬送波、または他のストレージデバイス、例えばハードディスク、コンパクトディスケット、ランダムアクセスメモリ(「RAM」)、またはリードオンリーメモリ(「ROM」)のようなプロセッサ読取可能媒体に記憶されてもよい。命令は、プロセッサ読取可能媒体上に有形に実施されたアプリケーションプログラムを形成していてもよい。命令は、例えばハードウェア、ファームウェア、ソフトウェアとして、またはそれらを組み合わせた形であってもよい。命令は、例えば、オペレーティングシステム、別個のアプリケーション、または、その2つの組み合わせの中にあってもよい。プロセッサは、従って、例えば、プロセスを実行するように構成されたデバイスと、プロセスを実行するための命令を有するプロセッサ可読媒体(例えばストレージデバイス)を有するデバイスとの両方であるとして特徴付けられてもよい。また、プロセッサ可読媒体は、命令に加えて、または命令の代わりに、実装によって生成されたデータ値を記憶してもよい。
当業者には明らかであろうが、実装によって、例えば記憶されるか、または送信されてもよい情報を搬送するようにフォーマットされた各種の信号が生じることがある。情報には、例えば、方法を行うための命令、または上記の実装のうちの1つによって生成されたデータ、例えばシンタックスまたはデプスマップ、または1つ以上のデプスマップを処理するためのパラメータが含まれうる。例えば、信号が、上記の実施形態のシンタックスを読み取る、または書き込むための規則をデータとして搬送するか、または、上記の実施形態によって書かれた実際のシンタックス値をデータとして搬送するようにフォーマットされてもよい。そのような信号は、例えば、(例えば、スペクトルの無線周波数部分を用いて)電磁波として、またはベースバンド信号として、フォーマットされてもよい。フォーマッティングは、例えば、データストリームを符号化することと、符号化されたデータストリームを使って搬送波を変調することとを含んでもよい。信号が搬送する情報は、例えばアナログ情報またはデジタル情報であってもよい。信号は、周知のように、各種の異なる有線または無線リンク経由で送信されてよい。信号は、プロセッサ可読媒体に記憶されてもよい。
ここまで複数の実装について述べてきた。理解されるであろうが、それでもなお、各種の修正が行われうる。例えば、異なる実装の要素を組み合わせ、補完し、修正し、または除去して、他の実装を生じさせることができる。加えて、当業者であれば理解するであろうが、他の構造およびプロセスが、開示された構造およびプロセスと置換され、結果として生じる実装が、少なくとも実質的に同じ要領で、少なくとも実質的に同じ機能を果たし、開示された実装と同じ結果を実質的に達成しうる。従って、これらの実装およびその他の実装は、本願によって意図されており、以下の請求項の範囲内にある。
本発明は以下の態様を含む。
(付記1)
第1のビデオ画像に対応する第1のデプス画像にアクセスするステップと、
前記第1のデプス画像の所与の部分について、前記第1のビデオ画像のうちの同一位置のビデオ部分を判定するステップと、
前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルにアクセスするステップと、
前記第2のビデオ画像に対応する第2のデプス画像にアクセスするステップと、
前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定するステップと、
前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新するステップと、
を備える、方法。
(付記2)
前記第2のデプス画像の前記デプス部分を判定するステップが、前記第1のデプス画像の前記所与の部分に、前記第1のビデオ画像のうちの前記同一位置のビデオ部分と同じ動作が与えられるように、前記ビデオ動作ベクトルを用いて、前記第2のデプス画像の前記デプス部分を前記第1のデプス画像の前記所与の部分から判定するステップを含む、付記1に記載の方法。
(付記3)
前記第2のビデオ画像が、前記第1のビデオ画像のタイムスタンプとは異なるタイムスタンプを有する、付記1に記載の方法。
(付記4)
前記方法が、ビデオエンコーダと、前記ビデオエンコーダ用のプリプロセッサと、前記ビデオエンコーダ用のポストプロセッサと、ビデオデコーダと、前記ビデオデコーダ用のプリプロセッサと、または、前記ビデオデコーダ用のポストプロセッサとのうち1つ以上に実装される、付記1に記載の方法。
(付記5)
前記第1のデプス画像の前記所与の部分を更新するステップが、時間的加重平均とメディアンフィルタとのうち1つ以上を、前記第1のデプス画像の前記所与の部分または前記第2のデプス画像の前記デプス部分のうち1つ以上の値に適用させるステップを含む、付記1に記載の方法。
(付記6)
前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とに適用されるそれぞれの重みが、動作基準と時間的距離基準とのうち1つ以上に基づいて判定される、付記5に記載の方法。
(付記7)
前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とに適用されるそれぞれの重みが、前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とにおける動作のそれぞれの量に基づいて判定される、付記6に記載の方法。
(付記8)
それぞれの重みの特定の1つの値が、動作の量が減少するのにつれて増加する、付記7に記載の方法。
(付記9)
前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とに適用されるそれぞれの重みが、前記第1のビデオ画像と前記第2のビデオ画像との間の時間的距離に基づいて判定される、付記6に記載の方法。
(付記10)
それぞれの重みの特定の1つの値が、時間的距離が増加するのにつれて減少する、付記9に記載の方法。
(付記11)
メディアンフィルタが適用される場合、それぞれの重みが、ピクセルに基づいて、前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とに適用される、付記5に記載の方法。
(付記12)
前記ビデオ動作ベクトルを判定するステップをさらに含む、付記1に記載の方法。
(付記13)
前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第3のビデオ画像に関する動作を示す別のビデオ動作ベクトルにアクセスするステップと、
前記第3のビデオ画像に対応する第3のデプス画像にアクセスするステップと、
前記第3のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記別のビデオ動作ベクトルに基づいて判定するステップと、
をさらに備え、
前記第1のデプス画像の前記所与の部分を更新するステップが、前記第3のデプス画像の前記デプス部分および前記第2のデプス画像の前記デプス部分にさらに基づく、付記1に記載の方法。
(付記14)
第1のビデオ画像に対応する第1のデプス画像にアクセスするための手段と、
前記第1のデプス画像の所与の部分について、前記第1のビデオ画像のうちの同一位置のビデオ部分を判定するための手段と、
前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルにアクセスするための手段と、
前記第2のビデオ画像に対応する第2のデプス画像にアクセスするための手段と、
前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定するための手段と、
前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新するための手段と、
を備える、装置。
(付記15)
第1のビデオ画像に対応する第1のデプス画像にアクセスするステップと、
前記第1のデプス画像の所与の部分について、前記第1のビデオ画像のうちの同一位置のビデオ部分を判定するステップと、
前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルにアクセスするステップと、
前記第2のビデオ画像に対応する第2のデプス画像にアクセスするステップと、
前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定するステップと、
前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新するステップと、
をプロセッサに少なくとも行わせるための命令を記憶している、プロセッサ可読媒体。
(付記16)
第1のビデオ画像に対応する第1のデプス画像にアクセスするステップと、
前記第1のデプス画像の所与の部分について、前記第1のビデオ画像のうちの同一位置のビデオ部分を判定するステップと、
前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルにアクセスするステップと、
前記第2のビデオ画像に対応する第2のデプス画像にアクセスするステップと、
前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定するステップと、
前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新するステップと、
を少なくとも行うために構成されたプロセッサを備える、装置。
(付記17)
第1のビデオ画像に対応する第1のデプス画像にアクセスするための、かつ、第2のビデオ画像に対応する第2のデプス画像にアクセスするための時間フィルタと、
前記第1のビデオ画像のうちの同一位置のビデオ部分についてのビデオ動作ベクトルを判定するための動作分析器であって、前記第1のビデオ画像のうちの前記同一位置のビデオ部分が第1のデプス画像の所与の部分に対応し、かつ、前記ビデオ動作ベクトルが前記第1のビデオ画像のうちの前記同一位置のビデオ部分の前記第2のビデオ画像に関する動作を示す、動作分析器と、
を備え、
前記時間フィルタが、前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定し、かつ、前記時間フィルタが、前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新する、装置。
(付記18)
第1のビデオ画像に対応する第1のデプス画像にアクセスするための、かつ、第2のビデオ画像に対応する第2のデプス画像にアクセスするための時間フィルタと、
前記第1のビデオ画像のうちの同一位置のビデオ部分についてのビデオ動作ベクトルを判定するための動作分析器であって、前記第1のビデオ画像のうちの前記同一位置のビデオ部分が前記第1のデプス画像の所与の部分に対応し、かつ、前記ビデオ動作ベクトルが前記第1のビデオ画像のうちの同一位置のビデオ部分の前記第2のビデオ画像に関する動作を示す、動作分析器と、
を備え、
前記時間フィルタが、前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定し、かつ、前記時間フィルタが、前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新し、
前記装置は、前記第1のデプス画像の前記更新された所与の部分を含む信号を変調するための変調器をさらに備える、装置。
(付記19)
第1のビデオ画像と、第2のビデオ画像と、前記第1のビデオ画像に対応する第1のデプス画像と、前記第2のビデオ画像に対応する第2のデプス画像とを含む信号を復調するための復調器と、
前記第1のデプス画像にアクセスするための、かつ、前記第2のデプス画像にアクセスするための時間フィルタと、
前記第1のビデオ画像のうちの同一位置のビデオ部分についてのビデオ動作ベクトルを判定するための動作分析器であって、前記第1のビデオ画像のうちの前記同一位置のビデオ部分が前記第1のデプス画像の所与の部分に対応し、前記ビデオ動作ベクトルが前記第1のビデオ画像のうちの前記同一位置のビデオ部分の前記第2のビデオ画像に関する動作を示す、動作分析器と、
を備え、
前記時間フィルタが、前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定し、かつ、前記時間フィルタが、前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新する、装置。

Claims (17)

  1. 第1のビデオ画像に対応する第1のデプス画像にアクセスするステップと、
    前記第1のデプス画像の所与の部分について、前記第1のビデオ画像のうちの同一位置のビデオ部分を判定するステップと、
    前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルにアクセスするステップであって、前記第2のビデオ画像は前記第1のビデオ画像のタイムスタンプとは異なるタイムスタンプを有する、ステップと、
    前記第2のビデオ画像に対応する第2のデプス画像にアクセスするステップと、
    前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定するステップと、
    前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新するステップであって、時間的加重平均とメディアンフィルタとのうち1つ以上を、前記第1のデプス画像の前記所与の部分および前記第2のデプス画像の前記デプス部分のうち1つ以上の値に適用して、前記第1のデプス画像の更新された前記所与の部分を出力するステップを含む、ステップと、
    を備える、方法。
  2. 前記第2のデプス画像の前記デプス部分を判定するステップが、前記第1のデプス画像の前記所与の部分に、前記第1のビデオ画像のうちの前記同一位置のビデオ部分と同じ動作が与えられるように、前記ビデオ動作ベクトルを用いて、前記第2のデプス画像の前記デプス部分を前記第1のデプス画像の前記所与の部分から判定するステップを含む、請求項1に記載の方法。
  3. 前記方法が、ビデオエンコーダと、前記ビデオエンコーダ用のプリプロセッサと、前記ビデオエンコーダ用のポストプロセッサと、ビデオデコーダと、前記ビデオデコーダ用のプリプロセッサと、または、前記ビデオデコーダ用のポストプロセッサとのうち1つ以上に実装される、請求項1に記載の方法。
  4. 前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とに適用されるそれぞれの重みが、動作基準と時間的距離基準とのうち1つ以上に基づいて判定される、請求項1に記載の方法。
  5. 前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とに適用されるそれぞれの重みが、前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とにおける動作のそれぞれの量に基づいて判定される、請求項4に記載の方法。
  6. それぞれの重みの特定の1つの値が、動作ベクトルの大きさが減少するのにつれて増加する、請求項5に記載の方法。
  7. 前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とに適用されるそれぞれの重みが、前記第1のビデオ画像と前記第2のビデオ画像との間の時間的距離に基づいて判定される、請求項4に記載の方法。
  8. それぞれの重みの特定の1つの値が、時間的距離が増加するのにつれて減少する、請求項7に記載の方法。
  9. メディアンフィルタが適用される場合、それぞれの重みが、ピクセルに基づいて、前記第1のデプス画像の前記所与の部分と前記第2のデプス画像の前記デプス部分とに適用される、請求項1に記載の方法。
  10. 前記ビデオ動作ベクトルを判定するステップをさらに含む、請求項1に記載の方法。
  11. 前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第3のビデオ画像に関する動作を示す別のビデオ動作ベクトルにアクセスするステップと、
    前記第3のビデオ画像に対応する第3のデプス画像にアクセスするステップと、
    前記第3のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記別のビデオ動作ベクトルに基づいて判定するステップと、
    をさらに備え、
    前記第1のデプス画像の前記所与の部分を更新するステップが、前記第3のデプス画像の前記デプス部分および前記第2のデプス画像の前記デプス部分にさらに基づく、請求項1に記載の方法。
  12. 第1のビデオ画像に対応する第1のデプス画像にアクセスするための手段と、
    前記第1のデプス画像の所与の部分について、前記第1のビデオ画像のうちの同一位置のビデオ部分を判定するための手段と、
    前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルにアクセスするための手段であって、前記第2のビデオ画像は前記第1のビデオ画像のタイムスタンプとは異なるタイムスタンプを有する、手段と、
    前記第2のビデオ画像に対応する第2のデプス画像にアクセスするための手段と、
    前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定するための手段と、
    前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新するための手段であって、時間的加重平均とメディアンフィルタとのうち1つ以上を、前記第1のデプス画像の前記所与の部分および前記第2のデプス画像の前記デプス部分のうち1つ以上の値に適用して、前記第1のデプス画像の更新された前記所与の部分を出力する手段を含む、手段と、
    を備える、装置。
  13. 第1のビデオ画像に対応する第1のデプス画像にアクセスするステップと、
    前記第1のデプス画像の所与の部分について、前記第1のビデオ画像のうちの同一位置のビデオ部分を判定するステップと、
    前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルにアクセスするステップであって、前記第2のビデオ画像は前記第1のビデオ画像のタイムスタンプとは異なるタイムスタンプを有する、ステップと、
    前記第2のビデオ画像に対応する第2のデプス画像にアクセスするステップと、
    前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定するステップと、
    前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新するステップであって、時間的加重平均とメディアンフィルタとのうち1つ以上を、前記第1のデプス画像の前記所与の部分および前記第2のデプス画像の前記デプス部分のうち1つ以上の値に適用して、前記第1のデプス画像の更新された前記所与の部分を出力するステップを含む、ステップと、
    をプロセッサに少なくとも行わせるための命令を記憶している、プロセッサ可読媒体。
  14. 第1のビデオ画像に対応する第1のデプス画像にアクセスするステップと、
    前記第1のデプス画像の所与の部分について、前記第1のビデオ画像のうちの同一位置のビデオ部分を判定するステップと、
    前記第1のビデオ画像のうちの前記同一位置のビデオ部分の第2のビデオ画像に関する動作を示すビデオ動作ベクトルにアクセスするステップであって、前記第2のビデオ画像は前記第1のビデオ画像のタイムスタンプとは異なるタイムスタンプを有する、ステップと、
    前記第2のビデオ画像に対応する第2のデプス画像にアクセスするステップと、
    前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定するステップと、
    前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新するステップであって、時間的加重平均とメディアンフィルタとのうち1つ以上を、前記第1のデプス画像の前記所与の部分および前記第2のデプス画像の前記デプス部分のうち1つ以上の値に適用して、前記第1のデプス画像の更新された前記所与の部分を出力するステップを含む、ステップと、
    を少なくとも行うために構成されたプロセッサを備える、装置。
  15. 第1のビデオ画像に対応する第1のデプス画像にアクセスするための、かつ、第2のビデオ画像に対応する第2のデプス画像にアクセスするための時間フィルタであって、前記第2のビデオ画像は前記第1のビデオ画像のタイムスタンプとは異なるタイムスタンプを有する、時間フィルタと、
    前記第1のビデオ画像のうちの同一位置のビデオ部分についてのビデオ動作ベクトルを判定するための動作分析器であって、前記第1のビデオ画像のうちの前記同一位置のビデオ部分が第1のデプス画像の所与の部分に対応し、かつ、前記ビデオ動作ベクトルが前記第1のビデオ画像のうちの前記同一位置のビデオ部分の前記第2のビデオ画像に関する動作を示す、動作分析器と、
    を備え、
    前記時間フィルタが、前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定し、かつ、前記時間フィルタが、前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新し、該更新は、時間的加重平均とメディアンフィルタとのうち1つ以上を、前記第1のデプス画像の前記所与の部分および前記第2のデプス画像の前記デプス部分のうち1つ以上の値に適用して、前記第1のデプス画像の更新された前記所与の部分を出力することを含む、装置。
  16. 第1のビデオ画像に対応する第1のデプス画像にアクセスするための、かつ、第2のビデオ画像に対応する第2のデプス画像にアクセスするための時間フィルタであって、前記第2のビデオ画像は前記第1のビデオ画像のタイムスタンプとは異なるタイムスタンプを有する、時間フィルタと、
    前記第1のビデオ画像のうちの同一位置のビデオ部分についてのビデオ動作ベクトルを判定するための動作分析器であって、前記第1のビデオ画像のうちの前記同一位置のビデオ部分が前記第1のデプス画像の所与の部分に対応し、かつ、前記ビデオ動作ベクトルが前記第1のビデオ画像のうちの同一位置のビデオ部分の前記第2のビデオ画像に関する動作を示す、動作分析器と、
    を備え、
    前記時間フィルタが、前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定し、かつ、前記時間フィルタが、前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新し、該更新は、時間的加重平均とメディアンフィルタとのうち1つ以上を、前記第1のデプス画像の前記所与の部分および前記第2のデプス画像の前記デプス部分のうち1つ以上の値に適用して、前記第1のデプス画像の更新された前記所与の部分を出力することを含み、
    前記第1のデプス画像の前記更新された所与の部分を含む信号を変調するための変調器をさらに備える、装置。
  17. 第1のビデオ画像と、第2のビデオ画像と、前記第1のビデオ画像に対応する第1のデプス画像と、前記第2のビデオ画像に対応する第2のデプス画像とを含む信号を復調するための復調器であって、前記第2のビデオ画像は前記第1のビデオ画像のタイムスタンプとは異なるタイムスタンプを有する、復調器と、
    前記第1のデプス画像にアクセスするための、かつ、前記第2のデプス画像にアクセスするための時間フィルタと、
    前記第1のビデオ画像のうちの同一位置のビデオ部分についてのビデオ動作ベクトルを判定するための動作分析器であって、前記第1のビデオ画像のうちの前記同一位置のビデオ部分が前記第1のデプス画像の所与の部分に対応し、前記ビデオ動作ベクトルが前記第1のビデオ画像のうちの前記同一位置のビデオ部分の前記第2のビデオ画像に関する動作を示す、動作分析器と、
    を備え、
    前記時間フィルタが、前記第2のデプス画像のデプス部分を、前記第1のデプス画像の前記所与の部分から、前記ビデオ動作ベクトルに基づいて判定し、かつ、前記時間フィルタが、前記第1のデプス画像の前記所与の部分を、前記第2のデプス画像の前記デプス部分に基づいて更新し、該更新は、時間的加重平均とメディアンフィルタとのうち1つ以上を、前記第1のデプス画像の前記所与の部分および前記第2のデプス画像の前記デプス部分のうち1つ以上の値に適用して、前記第1のデプス画像の更新された前記所与の部分を出力することを含む、装置。
JP2011547971A 2009-01-30 2010-01-27 デプスマップの符号化 Expired - Fee Related JP5792632B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US20649609P 2009-01-30 2009-01-30
US61/206,496 2009-01-30
PCT/US2010/000208 WO2010087955A1 (en) 2009-01-30 2010-01-27 Coding of depth maps

Publications (3)

Publication Number Publication Date
JP2012516637A JP2012516637A (ja) 2012-07-19
JP2012516637A5 JP2012516637A5 (ja) 2013-03-14
JP5792632B2 true JP5792632B2 (ja) 2015-10-14

Family

ID=42122982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011547971A Expired - Fee Related JP5792632B2 (ja) 2009-01-30 2010-01-27 デプスマップの符号化

Country Status (7)

Country Link
US (1) US9569819B2 (ja)
EP (1) EP2384584B1 (ja)
JP (1) JP5792632B2 (ja)
KR (1) KR101675555B1 (ja)
CN (1) CN102356637B (ja)
BR (1) BRPI1007451A2 (ja)
WO (1) WO2010087955A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101590767B1 (ko) * 2009-06-09 2016-02-03 삼성전자주식회사 영상 처리 장치 및 방법
JP4966431B2 (ja) * 2009-09-18 2012-07-04 株式会社東芝 画像処理装置
CN102741879B (zh) * 2009-11-18 2015-07-08 财团法人工业技术研究院 由单眼图像产生深度图的方法及其系统
US20110211749A1 (en) * 2010-02-28 2011-09-01 Kar Han Tan System And Method For Processing Video Using Depth Sensor Information
WO2012061549A2 (en) * 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
JP2014140089A (ja) * 2011-05-10 2014-07-31 Sharp Corp 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
US8817073B2 (en) * 2011-08-12 2014-08-26 Himax Technologies Limited System and method of processing 3D stereoscopic image
US20130229485A1 (en) * 2011-08-30 2013-09-05 Nokia Corporation Apparatus, a Method and a Computer Program for Video Coding and Decoding
US9213883B2 (en) * 2012-01-10 2015-12-15 Samsung Electronics Co., Ltd. Method and apparatus for processing depth image
KR101896307B1 (ko) * 2012-01-10 2018-09-10 삼성전자주식회사 깊이 영상을 처리하는 방법 및 장치
KR101938205B1 (ko) 2012-03-19 2019-01-14 한국전자통신연구원 깊이 영상 필터링 방법 및 그 장치
US9286658B2 (en) * 2012-03-22 2016-03-15 Qualcomm Incorporated Image enhancement
WO2013157439A1 (ja) * 2012-04-17 2013-10-24 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
US9307252B2 (en) 2012-06-04 2016-04-05 City University Of Hong Kong View synthesis distortion model for multiview depth video coding
JP5830705B2 (ja) * 2012-09-25 2015-12-09 パナソニックIpマネジメント株式会社 画像信号処理装置および画像信号処理方法
WO2014121108A1 (en) * 2013-01-31 2014-08-07 Threevolution Llc Methods for converting two-dimensional images into three-dimensional images
US10080036B2 (en) 2013-05-16 2018-09-18 City University Of Hong Kong Method and apparatus for depth video coding using endurable view synthesis distortion
US10368097B2 (en) * 2014-01-07 2019-07-30 Nokia Technologies Oy Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures
WO2015109598A1 (en) 2014-01-27 2015-07-30 Mediatek Singapore Pte. Ltd. Methods for motion parameter hole filling
WO2015115946A1 (en) * 2014-01-30 2015-08-06 Telefonaktiebolaget L M Ericsson (Publ) Methods for encoding and decoding three-dimensional video content
WO2015158570A1 (en) * 2014-04-17 2015-10-22 Koninklijke Philips N.V. System, method for computing depth from video
US10237530B1 (en) * 2016-06-29 2019-03-19 Amazon Technologies, Inc. Depth-map augmentation techniques
US10212408B1 (en) 2016-06-29 2019-02-19 Amazon Technologies, Inc. Depth-map augmentation techniques
EP3358844A1 (en) 2017-02-07 2018-08-08 Koninklijke Philips N.V. Method and apparatus for processing an image property map
KR102472767B1 (ko) 2017-09-14 2022-12-01 삼성전자주식회사 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
US10643336B2 (en) 2018-03-06 2020-05-05 Sony Corporation Image processing apparatus and method for object boundary stabilization in an image of a sequence of images
EP3706070A1 (en) 2019-03-05 2020-09-09 Koninklijke Philips N.V. Processing of depth maps for images
CN110400344B (zh) * 2019-07-11 2021-06-18 Oppo广东移动通信有限公司 深度图处理方法和装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175863A (ja) * 1999-12-21 2001-06-29 Nippon Hoso Kyokai <Nhk> 多視点画像内挿方法および装置
CN1236628C (zh) * 2000-03-14 2006-01-11 株式会社索夫特4D 产生立体图像的方法和装置
US7180663B2 (en) 2002-06-19 2007-02-20 Robert Bruce Collender 3D motion picture theatre
ES2515090T3 (es) 2002-07-31 2014-10-29 Koninklijke Philips N.V. Método y aparato para codificar una señal de vídeo digital
JP3988879B2 (ja) 2003-01-24 2007-10-10 日本電信電話株式会社 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体
KR100834749B1 (ko) 2004-01-28 2008-06-05 삼성전자주식회사 스케일러블 비디오 스트림 재생장치 및 그 방법
EP1723800A1 (en) 2004-03-01 2006-11-22 Koninklijke Philips Electronics N.V. A video signal encoder, a video signal processor, a video signal distribution system and methods of operation therefor
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US8879857B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US8970680B2 (en) * 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
WO2008029345A1 (en) * 2006-09-04 2008-03-13 Koninklijke Philips Electronics N.V. Method for determining a depth map from images, device for determining a depth map
US8509313B2 (en) * 2006-10-10 2013-08-13 Texas Instruments Incorporated Video error concealment
EP2087466B1 (en) 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
JP5138031B2 (ja) * 2007-05-11 2013-02-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 深度関連情報を処理する方法、装置及びシステム
US8411205B2 (en) * 2007-07-11 2013-04-02 Olympus Corporation Noise reducing image processing apparatus
KR101483660B1 (ko) * 2007-07-26 2015-01-16 코닌클리케 필립스 엔.브이. 깊이-관련 정보 전파를 위한 방법 및 장치
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR20100105877A (ko) * 2008-01-11 2010-09-30 톰슨 라이센싱 비디오 및 깊이 코딩
JP5153940B2 (ja) * 2008-06-24 2013-02-27 トムソン ライセンシング 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
CN101374243B (zh) 2008-07-29 2010-06-23 宁波大学 一种应用于3dtv与ftv系统的深度图编码压缩方法
JP5243612B2 (ja) * 2008-10-02 2013-07-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 中間画像合成およびマルチビューデータ信号抽出
KR101642964B1 (ko) * 2010-11-03 2016-07-27 삼성전자주식회사 정밀도 향상을 위한 뎁스 카메라의 노출 시간 동적 제어 방법 및 장치

Also Published As

Publication number Publication date
US9569819B2 (en) 2017-02-14
CN102356637A (zh) 2012-02-15
JP2012516637A (ja) 2012-07-19
EP2384584A1 (en) 2011-11-09
EP2384584B1 (en) 2017-03-15
US20110273529A1 (en) 2011-11-10
BRPI1007451A2 (pt) 2016-09-13
WO2010087955A1 (en) 2010-08-05
KR101675555B1 (ko) 2016-11-11
KR20110122817A (ko) 2011-11-11
CN102356637B (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
JP5792632B2 (ja) デプスマップの符号化
JP5346076B2 (ja) 奥行きを用いた視点間スキップモード
EP3700209B1 (en) Method and device for processing video image
JP5607716B2 (ja) 統合デプス推定
JP2012516637A5 (ja)
JP5937212B2 (ja) デプス符号化
US10284810B1 (en) Using low-resolution frames to increase frame rate of high-resolution frames
WO2009131703A2 (en) Coding of depth signal
US20120140819A1 (en) Depth map coding
KR20120083913A (ko) 깊이 맵 처리를 위한 방법 및 디바이스
WO2006054257A1 (en) Motion vector field projection dealing with covering and uncovering
US20190141332A1 (en) Use of synthetic frames in video coding
US9210448B2 (en) Moving picture decoding device, moving picture decoding method and integrated circuit
US9894384B2 (en) Multiview video signal encoding method and decoding method, and device therefor
WO2010021664A1 (en) Depth coding
CN109756737B (zh) 图像预测方法和装置
JP2015087851A (ja) 画像処理装置及び画像処理プログラム
US9955166B2 (en) Method and device for processing video signal
CN110572677A (zh) 视频编解码方法和装置、存储介质及电子装置
CN115152214A (zh) 基于画面划分的图像编码装置和方法
EP2986002A1 (en) Video signal processing method and device

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20130128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20140221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140428

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150806

R150 Certificate of patent or registration of utility model

Ref document number: 5792632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees