JP2017512440A - ステレオビデオのための深度認識向上 - Google Patents

ステレオビデオのための深度認識向上 Download PDF

Info

Publication number
JP2017512440A
JP2017512440A JP2016555588A JP2016555588A JP2017512440A JP 2017512440 A JP2017512440 A JP 2017512440A JP 2016555588 A JP2016555588 A JP 2016555588A JP 2016555588 A JP2016555588 A JP 2016555588A JP 2017512440 A JP2017512440 A JP 2017512440A
Authority
JP
Japan
Prior art keywords
image
right image
left image
depth
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016555588A
Other languages
English (en)
Other versions
JP6178017B2 (ja
Inventor
シルピ・サフ
マイナック・ビスワス
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=52630500&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2017512440(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2017512440A publication Critical patent/JP2017512440A/ja
Application granted granted Critical
Publication of JP6178017B2 publication Critical patent/JP6178017B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

画像を向上させるためのシステム、方法、およびデバイスが、本明細書で説明される。いくつかの態様では、デバイスは、左画像および右画像を記憶するように構成されたメモリユニットを備える。左画像および右画像は、それぞれ、異なる視点からの同じシーンを表現する。デバイスは、左画像および右画像をメモリユニットから取り出すように構成されたコーダをさらに備える。コーダは、左画像と右画像との間の空間的な向き差分に基づいて、深度マップを決定するように構成される。デバイスは、コーダに結合されたプロセッサをさらに備える。プロセッサは、左画像または右画像の、ユーザによって選択されている部分を識別するように構成される。プロセッサは、ユーザによって選択されている部分を取り囲む向上領域を、深度マップに基づいて決定するようにさらに構成される。プロセッサは、向上領域を向上させるようにさらに構成される。

Description

本開示は、深度ベースの画像向上の分野に関する。より詳細には、本開示は、ステレオ画像から計算された深度を使用する単眼画像の向上に関する。
画像やビデオなどの視覚媒体は、カメラまたはビデオカメラを用いて取り込まれ得る。しばしば、カメラまたはビデオカメラが十分な機能を含み、適切なレンズを含む場合、取り込まれた媒体は、エンドユーザによって望まれるカラー、コントラスト、シャープネス、および/または類似のものを反映する。しかしながら、フル機能搭載のカメラもしくはビデオカメラおよび/または倍率の高いレンズは高価であり得る。さらに、フル機能搭載のカメラもしくはビデオカメラおよび/または倍率の高いレンズは、かさばることがあり、ある種の状況では持ち運ぶことが困難であり得る。
現在、セルフォンまたはタブレットなどのポータブルデバイスは、内蔵カメラを含む。視覚媒体を取り込むための能力に加えて多様な機能をポータブルデバイスが含むので、多くの人々は、ポータブルデバイスのほうを優先して、かさばる高価なカメラおよびレンズを持ち運ぶことを控える。しかしながら、ポータブルデバイスに内蔵されたカメラは、限定された数の機能しか有しない。加えて、内蔵カメラは、一般に、基本的なレンズを有する。したがって、内蔵カメラによって取り込まれる視覚媒体は、一般に、より劣悪な品質のものであり、所望のカラー、コントラスト、シャープネス、および/または類似のものを欠く。
取り込まれた視覚媒体を処理し、向上させるために、ポータブルデバイスまたは別のデバイスにおいて利用可能なアプリケーションが使用され得る。たとえば、アプリケーションは、カラーを調整し、コントラストを向上させ、エッジを鮮明にし、および/または類似のことをするために、エンドユーザによって使用され得る。しかしながら、アプリケーションの多くは、プロセッサ集約的であり得、および/または追加のハードウェアを必要とし得る。アプリケーションがバッテリー消費および/またはデバイスのサイズを増大させる場合があるので、このことはポータブルデバイスにおいて特に問題となり得る。
本発明のシステム、方法、およびデバイスは、いくつかの態様をそれぞれ有し、それらのうちの単一の態様だけが、その望ましい属性を担うわけではない。添付の特許請求の範囲によって表現されるような本発明の範囲を限定することなく、いくつかの特徴が、ここで簡単に説明される。この説明を考察した後、また特に「発明を実施するための形態」と題するセクションを読んだ後、本発明の特徴が、ワイヤレスネットワークの中のアクセスポイントとステーションとの間の改善された通信を含む利点をどのようにもたらすのかが理解されよう。
本開示の一態様は、画像を向上させるための方法を提供する。方法は、メモリユニットに記憶されている左画像および右画像を取り出すことを備える。左画像および右画像は、それぞれ、異なる視点からの同じシーンを表現し得る。方法は、左画像と右画像との間の空間的な向きの差分に基づいて、深度マップを決定することをさらに備える。方法は、左画像または右画像の、ユーザによって選択されている部分を識別することをさらに備える。方法は、ユーザによって選択されている部分を取り囲む向上領域を、決定された深度マップに基づいて決定することをさらに備える。方法は、向上領域を向上させることをさらに備える。
本開示の別の態様は、画像を向上させるための装置を提供する。装置は、メモリユニットに記憶されている左画像および右画像を取り出すための手段を備える。左画像および右画像は、それぞれ、異なる視点からの同じシーンを表現し得る。装置は、左画像と右画像との間の空間的な向きの差分に基づいて、深度マップを決定するための手段をさらに備える。装置は、左画像または右画像の、ユーザによって選択されている部分を識別するための手段をさらに備える。装置は、ユーザによって選択されている部分を取り囲む向上領域を、決定された深度マップに基づいて決定するための手段をさらに備える。装置は、向上領域を向上させるための手段をさらに備える。
本開示の別の態様は、実行されたとき、装置に、メモリユニットに記憶されている左画像および右画像を取り出させるコードを備える非一時的コンピュータ可読媒体を提供する。左画像および右画像は、それぞれ、異なる視点からの同じシーンを表現し得る。媒体は、実行されたとき、装置に、左画像と右画像との間の空間的な向きの差分に基づいて、深度マップを決定させるコードをさらに備える。媒体は、実行されたとき、装置に、左画像または右画像の、ユーザによって選択されている部分を識別させるコードをさらに備える。媒体は、実行されたとき、装置に、ユーザによって選択されている部分を取り囲む向上領域を、決定された深度マップに基づいて決定させるコードをさらに備える。媒体は、実行されたとき、装置に、向上領域を向上させるコードをさらに備える。
本開示の別の態様は、画像を向上させるためのデバイスを提供する。デバイスは、左画像および右画像を記憶するように構成されたメモリユニットを備える。左画像および右画像は、それぞれ、異なる視点からの同じシーンを表現し得る。デバイスは、左画像および右画像をメモリユニットから取り出すように構成されたコーダをさらに備える。コーダは、左画像と右画像との間の空間的な向きの差分に基づいて、深度マップを決定するようにさらに構成され得る。デバイスは、コーダに結合されたプロセッサをさらに備える。プロセッサは、左画像または右画像の、ユーザによって選択されている部分を識別するように構成され得る。プロセッサは、ユーザによって選択されている部分を取り囲む向上領域を、決定された深度マップに基づいて決定するようにさらに構成され得る。プロセッサは、向上領域を向上させるようにさらに構成され得る。
ソースデバイスがステレオ画像を向上させる例示的なシステムを示すブロック図である。 向上されたステレオ画像をソースデバイスが宛先デバイスへ送信する例示的なシステムを示すブロック図である。 本開示の技法を実施し得る例示的なエンコーダのブロック図である。 本開示の技法を実施し得る例示的なデコーダのブロック図である。 フレームのシーケンシングを示す図である。 深度計算フローを示す図である。 画像を向上させるためのフローを示す図である。 画像を向上させるための別のフローを示す図である。 例示的な元の画像を示す図である。 図9における元の画像に基づいて、エンコーダによって計算され得る深度マップを示す図である。 改善およびアップスケールされた後の図9の深度マップを示す図である。 図10Bの変倍された深度マップ使用して向上された様々な画像を示す図である。 図10Bの変倍された深度マップ使用して向上された様々な画像を示す図である。 図10Bの変倍された深度マップ使用して向上された様々な画像を示す図である。 画像を向上させるための例示的な方法を示す図である。
上述されたように、倍率の高いレンズおよび/または他の構成要素を有するフル機能搭載のカメラまたはビデオカメラは、高価であり得る。取り込まれた視覚媒体(たとえば、画像、ビデオなど)を処理および向上させて、倍率の高いレンズおよび/または他の構成要素によって生み出される効果を模倣するために、ポータブルデバイスなどのデバイスにおいて利用可能なアプリケーションが使用され得る。たとえば、カラーを調整し、コントラストを向上させ、エッジを鮮明にし、幾何学的形状を変化させ、および/または類似のことをするために、アプリケーションがエンドユーザによって使用され得る。しかしながら、アプリケーションの多くはプロセッサ集約的であり、および/または向上機能の一部または全部を実装するための追加のハードウェアを必要とする。一例として、向上させるべき媒体の部分を処理または決定することは、プロセッサ集約的であり得る。加えて、向上させるべき媒体の部分および/または向上させるべきでない媒体の部分を決定するために、深度マップエンジンなどの特別なハードウェアが必要であり得る。アプリケーションがバッテリー消費および/またはデバイスのサイズを増大させる場合があるので、そのようなアプリケーションのプロセッサ集約的な性質、および/または追加のハードウェアを含む必要性が、ポータブルデバイスにおいて特に問題となり得る。
したがって、本明細書で説明するシステムおよび方法は、アプリケーションが向上機能を実行することを可能にするために、デバイスにおける既存のハードウェアを使用する。加えて、本明細書で説明するシステムおよび方法は、デバイスがアイドル状態であるか、充電中であるか、または別の状況でバッテリー消費が課題でない状態にある間、プロセッサ集約的である動作などのいくつかの動作をデバイスが実行することを可能にする。このようにして、本明細書で説明するシステムおよび方法は、バッテリー消費を最小限に抑え、デバイスのサイズを維持しまたは低減すらさせながら、デバイスが様々な向上機能を提供することを可能にする。
本明細書で説明する技法は任意のタイプおよび任意の数の画像または画像のシーケンス(たとえば、ビデオ)に適用され得るが、本明細書で開示する技法は、ステレオ画像および/またはステレオビデオに関して説明される。ステレオ画像(すなわち、画像のステレオペア)は、一般に、共通のシーンの第1の画像および第2の画像を含む。第1および第2の画像は、本開示全体にわたって、左画像および右画像、左ビューおよび右ビュー、または左(L)フレームおよび右(R)フレームと呼ばれることもある。ステレオペアの第1および第2の画像は、3Dオブジェクトを有するシーンを作り出すために、同時に、または矢継ぎ早に表示され得る。ステレオ画像またはステレオビデオは、2つのカメラを使用して取り込まれ得、左フレームおよび右フレームのストリームとして送信される。時々、一般的でないが、ステレオ画像またはステレオビデオは、Lフレームとして送信され、そのフレームに関する深度マップ(D)が随伴する。しかしながら、本明細書で説明するような他の場合には、ステレオ画像またはステレオビデオは、フレームに関する深度マップなしに送信される。しかしながら、深度マップは、LフレームおよびRフレームを使用して計算され得る。2つのビュー(LおよびR)が与えられた深度マップを計算することは、通常、複雑で計算量を多く必要とするプロセスである。リアルタイムの実装形態は、通常、視差(たとえば、深度マップを決定するために使用され得る)を計算するためにハードウェアモジュールを独占的に必要とする。しばしば、最良の視差計算アルゴリズムは、それらがリアルタイムで実施され得ないか、またはかなり大きい処理リソースを有するデバイスでしかリアルタイムで実施され得ないように複雑である。したがって、深度マップを計算することは、一般に、白紙の状態から行われる場合、余分な設計および実装の労力を要する。しかしながら、本明細書で説明するように、深度を計算するために既存のシステムが再利用され、その労力のむだを防ぐことができる。ビデオの深度マップが利用可能であるとき、深度認識向上がステレオ画像またはステレオビデオに適用され得る。
本開示で使用されるような「視差」という用語は、概して、ある画像の中の画素の、他の画像の中の対応する画素に対する水平偏位(たとえば、2つの画像の間の空間的な向きの差分)を表現する。対応する画素とは、本開示で使用されるとき、概して、左画像および右画像が2D画像または3D画像を描画するために同期されているときの、3Dオブジェクトの中の同じ点に関連した画素(左画像の中の画素および右画像の中の画素)を指す。
画像のステレオペアに関する複数の視差値が、視差マップと呼ばれるデータ構造に記憶され得る。画像のステレオペアに関連した視差マップは、第2の画像の中の対応する画素を見つけるために、第1の画像の中の任意の所与の(x,y)座標におけるdとしての値が、第2の画像の中の座標(x,y)における画素に適用される必要があるx座標での移動に対応するような、第1の画像の中の画素座標(x,y)を視差値(d)にマッピングする2次元(2D)関数、d(x,y)を表す。たとえば、特定の例として、視差マップが、第1の画像の中の座標(250,150)における画素に関して6としてのd値を記憶し得る。この例では、6としてのd値が与えられると、第1の画像の中のクロマ値およびルミナンス値などの画素(250,150)を表現するデータは、第2の画像の中の画素(256,150)において出現する。
2D画像の中で利用可能な初歩の情報は、各画素のカラー値である。したがって、対応する画素を識別するための1つの技法は、第1の画像(参照画像とも呼ばれる)の中のすべての画素のカラー値の、第2の画像(ターゲット画像とも呼ばれる)の画素の中での最良の整合を探すことであり、ここで、ターゲット画像とは、画像のステレオペアの中の随伴画像を指す。ターゲット画像は左画像または右画像のうちの一方であり得、参照画像は左画像または右画像のうちの他方であり得る。修正されるステレオペアが検討されているとき、ターゲット画像の中での探索空間は、参照画像の中と同じエピポーラ線の中の画素に限定され得る。しかしながら、この技法は、オブジェクトの中の同じ点に関連する画素のカラー値が同じであることを想定し、そのことは、常に適切な想定であるとは限らない。たとえば、オブジェクト表面は、一般に、すべての方向で光を一様に反射せず、ステレオセットを取得するために使用される2画像取込みセンサーは、相異なる比色較正を有し得る。さらに、線に沿ったいくつかの画素の中に同じカラー値が見出されることがあり、何らかの潜在的な整合をもたらし得る。さらに、特定の画素または画素のグループがターゲット画像の中で隠蔽されることがあり、それらが参照画像のオブジェクトの後方にあり、したがって、3D画像の中で目に見えないことを意味する。したがって、対応する画素が識別されない画素に関して、視差値が利用可能でない場合がある。そのような値が場合によっては利用可能でないとき、視差値を決定するために補間または類似の技法が使用され得る。
一実施形態では、深度マップが、視差マップに基づいて形成され得る。たとえば、視差マップは、視差値が0からセット数(たとえば、255)までわたるように変倍され得る。変倍された視差マップは、本明細書で深度マップと呼ばれる。概して、深度マップの中の変倍された値は、グレースケール(たとえば、セット数が255である場合、8ビットのグレースケール)に相当する。したがって、以下に説明および例示されるように、深度マップは、グレースケール画像を通して図式的に表され得る。
ほとんどのポータブルデバイスは、データを効率よく他のデバイスへ送信するために、エンコーダおよび/またはデコーダを含む。特に、エンコーダおよび/またはデコーダは、視覚媒体が媒体全体にわたってより迅速に送信され得るように、視覚媒体を圧縮および/または復元するために使用され得る。本明細書で説明するように、既存のエンコーダおよび/またはデコーダが、追加の機能を実行するために活用され得る。たとえば、エンコーダおよび/またはデコーダは、深度マップをリアルタイムで生成し、画像または画像のシーケンスの中の深度情報を決定するために使用され得る。そのような深度情報は、関係する画像の部分(たとえば、組み合わされるとオブジェクトを備える画素)、および関係しない画像の部分(たとえば、異なるオブジェクトの一部である隣接する画素)を識別する際に有用であり得る。エンドユーザは画像の部分を選択することができ、深度情報に基づいて、選択された部分に関係する画像の部分がデバイスのプロセッサによって向上され得、および/または選択された部分に関係しない画像の部分がプロセッサによって劣化され得る。本明細書で開示するようなシステムおよび方法が、図1〜図14に関してより詳細に説明される。
図1は、ソースデバイスがステレオ画像を向上させる例示的なシステムを示すブロック図である。図1に示すように、システム100は、画像ソース116、エンコーダ120、プロセッサ122、および画像ディスプレイ123を有するソースデバイス112を含み得る。ソースデバイス112は、ワイヤレスハンドセット、いわゆるセルラーもしくは衛星無線電話、またはピクチャおよび/もしくはビデオ情報を通信チャネル上で通信することができる任意のワイヤレスデバイスなどのワイヤレス通信デバイスを備えてよく、その場合、通信チャネルはワイヤレス通信チャネルを備え得る。
画像ソース116は、第1のビュー150および第2のビュー152を含む画像のステレオペアを、エンコーダ120およびプロセッサ122に提供する。画像ソース116は、第1のビュー150および第2のビュー152をエンコーダ120およびプロセッサ122に、同時に、または異なる時間において提供することができる。たとえば、第1のビュー150および第2のビュー152は、第1のビュー150および第2のビュー152が画像ソース116に記憶された直後に、または記憶された後速やかに、エンコーダ120に提供され得る。第1のビュー150および第2のビュー152は、次いで、エンドユーザが第1のビュー150および/または第2のビュー152を向上させたいと望むことを示すとき、プロセッサ122に提供され得る。
画像ソース116は、画像センサーアレイ(たとえば、デジタル静止画像カメラまたはデジタルビデオカメラ)、1つもしくは複数の記憶された画像を備えるコンピュータ可読記憶媒体、デジタル画像を外部ソースから受信するためのインターフェース、ビデオゲームもしくは他の対話式マルチメディアソースを実行することなどによってデジタル画像を生成する処理ユニット、または画像データの他のソースを備えてよい。画像ソース116は、一般に、取り込まれる画像、事前に取り込まれた画像、および/またはコンピュータ生成の画像のうちの任意の1つまたは複数のソースに相当し得る。いくつかの例では、画像ソース116は、セルラー(すなわち、モバイル)電話のカメラに相当し得る。概して、本開示での画像への参照は、静止画像とビデオデータのフレームの両方を含む。したがって、本開示の態様は、デジタル静止画像と、取り込まれるデジタルビデオデータまたはコンピュータ生成のデジタルビデオデータのフレームの両方に適用され得る。
たとえば、画像ソース116は、異なる眺めにおけるシーンの2つのビューを取り込み得る。様々な例では、画像ソース116は、標準的な2次元カメラ、シーンの立体視ビューを提供する2つのカメラシステム、シーンの複数のビューを取り込むカメラアレイ、深度情報に加えて1つのビューを取り込むカメラ、またはシーンの立体視ビューを一緒に提供する第1のデバイス上の第1のカメラおよび第2のデバイス上の第2のカメラを備えてよい。
エンコーダ120は、第1のビュー150および第2のビュー152を使用して深度マップ154を生成する。エンコーダ120は、深度マップ154をプロセッサ122に転送する。プロセッサ122は、第1のビュー150、第2のビュー152、および深度マップ154を使用して、第1のビュー150の向上されたバージョンである向上された第1のビュー156を生成し、および/または第2のビュー152の向上されたバージョンである向上された第2のビュー158を生成する。プロセッサ122は、向上された第1のビュー156および/または向上された第2のビュー158を、画像ディスプレイ123へ送信する。
向上された第1のビュー156および/または向上された第2のビュー158に基づいて、画像ディスプレイ123は、向上された2次元画像または3次元画像を描画することができる。たとえば、画像ディスプレイ123は、向上された第1のビュー156および向上された第2のビュー158を同期させて、単一の2次元画像を形成および表示することができる。別の例として、画像ディスプレイ123は、向上された第1のビュー156および向上された第2のビュー158の2次元のバージョンを、(たとえば、3次元の効果を作り出すために)同時または交互に表示することができる。別の例として、画像ディスプレイ123は、向上された第1のビュー156および向上された第2のビュー158を同期させて、単一の3次元画像を形成および表示することができる。
一般に、人間視覚システム(HVS)は、オブジェクトへの集束角に基づいて深度を知覚する。見ている人の目が見ている人から比較的遠いオブジェクトよりも大きい角度でオブジェクト上に集束することに起因して、見ている人に比較的近いオブジェクトは見ている人により近いものとして知覚される。ピクチャやビデオなどのマルチメディアにおいて3次元をシミュレートするために、画像ディスプレイ123は、2つの画像、すなわち見ている人の目の各々に対して1つの画像(左および右)を、見ている人に表示することができる。画像内の同じ空間的ロケーションに位置するオブジェクトは、概して、画像が表示されているスクリーンと同じ深度にあるものとして知覚される。
深度の錯覚を作り出すために、オブジェクトは、画像の各々の中の水平軸に沿ったわずかに異なる位置において示され得る。2つの画像の中のオブジェクトのロケーションの間の差分が、視差と呼ばれる。一般に、スクリーンに比べて見ている人により近くにオブジェクトを出現させるために負の視差値が使用され得、その一方で、スクリーンに比べてユーザからより遠くにオブジェクトを出現させるために正の視差値が使用され得る。正または負の視差を有する画素は、いくつかの例では、より高いまたはより低い解像度で表示されて、シャープネスまたは不鮮明さを増大または減少させ、さらに焦点から正または負の深度としての効果を作り出し得る。
画像ディスプレイ123は、立体視ディスプレイまたは裸眼立体視ディスプレイを備えてよい。一般に、立体視ディスプレイは、1つの画像を一方の目に、また第2の画像を他方の目に導くゴーグルや眼鏡などのヘッドマウントユニットを、見ている人が装着しながら、2つの画像を表示することによって3次元をシミュレートする。いくつかの例では、各画像は同時に表示される(たとえば、偏光眼鏡またはカラーフィルタリング眼鏡を使用する)。いくつかの例では、適切な画像を対応する目だけに見せるように、画像は高速で互い違いにされ、眼鏡またはゴーグルはディスプレイと同期して高速で互い違いにシャッタリングする。裸眼立体視ディスプレイは眼鏡を使用しないが、代わりに、見ている人の対応する目に適切な画像を導き得る。たとえば、裸眼立体視ディスプレイは、見ている人の目がどこに位置するのかを決定するためのカメラ、および見ている人の目に画像を導くための機械的および/または電子的な手段が装備され得る。
図2は、向上されたステレオ画像をソースデバイスが宛先デバイスへ送信する例示的なシステムを示すブロック図である。図2に示すように、システム200は、画像ソース116、エンコーダ120、プロセッサ122、出力インターフェース224を有するソースデバイス112を含み得、画像ディスプレイ232、デコーダ230、および入力インターフェース228を有する宛先デバイス214をさらに含み得る。図2の例では、宛先デバイス214は、符号化画像データ262をソースデバイス112から受信する。ソースデバイス112および/または宛先デバイス214は、ワイヤレスハンドセット、いわゆるセルラーもしくは衛星無線電話、またはピクチャおよび/もしくはビデオ情報を通信チャネル上で通信することができる任意のワイヤレスデバイスなどのワイヤレス通信デバイスを備えてよく、その場合、通信チャネルはワイヤレス通信チャネルを備え得る。宛先デバイス214は、3次元(3D)ディスプレイデバイスまたは3D描画デバイスと呼ばれることがある。
図1に関して上記で説明したように、画像ソース116は、第1のビュー150および第2のビュー152を含む画像のステレオペアを、エンコーダ120およびプロセッサ122に提供する。画像ソース116は、第1のビュー150および第2のビュー152をエンコーダ120およびプロセッサ122に、同時に、または異なる時間において提供することができる。たとえば、第1のビュー150および第2のビュー152は、第1のビュー150および第2のビュー152が画像ソース116に記憶された直後に、または記憶された後速やかに、エンコーダ120に提供され得る。第1のビュー150および第2のビュー152は、次いで、エンドユーザが第1のビュー150および/または第2のビュー152を向上させたいと望むことを示すとき、プロセッサ122に提供され得る。
エンコーダ120は、第1のビュー150および第2のビュー152を使用して深度マップ154を生成する。エンコーダ120は、深度マップ154をプロセッサ122に転送する。プロセッサ122は、第1のビュー150、第2のビュー152、および深度マップ154を使用して、第1のビュー150の向上されたバージョンである向上された第1のビュー156を生成し、および/または第2のビュー152の向上されたバージョンである向上された第2のビュー158を生成する。プロセッサ122は、向上された第1のビュー156および/または向上された第2のビュー158を、エンコーダ120へ送信する。
エンコーダ120は、向上された第1のビュー156に関するおよび/または向上された第2のビュー158に関する符号化画像データを含む、符号化画像データ262を形成する。いくつかの例では、エンコーダ120は、符号化画像データ262をソースデバイス112から宛先デバイス214へ送信するのに必要とされるビット数を低減するために、様々な可逆または不可逆コーディング技法を適用し得る。エンコーダ120は、符号化画像データ262を出力インターフェース224に伝える。
向上された第1のビュー156および/または向上された第2のビュー158がデジタル静止画像であるとき、エンコーダ120は、向上された第1のビュー156および/または向上された第2のビュー158を、たとえば、ジョイントフォトグラフィックエキスパートグループ(JPEG)画像として符号化するように構成され得る。向上された第1のビュー156および/または向上された第2のビュー158がビデオデータのフレームであるとき、エンコーダ120は、向上された第1のビュー156および/または向上された第2のビュー158を、たとえば、モーションピクチャエキスパートグループ(MPEG)、MPEG-2、国際電気通信連合(ITU)H.261、ISO/IEC MPEG-1ビジュアル、ITU-T H.262もしくはISO/IEC MPEG-2ビジュアル、ITU H.263、そのSVC拡張およびマルチビュービデオコーディング(MVC)拡張を含むISO/IEC MPEG-4ビジュアルおよびITU-T H.264(ISO/IEC MPEG-4アドバンストビデオコーディング(AVC)とも呼ばれる)、ITU-T H.265、または他のビデオ符号化規格などのビデオコーディング規格に従って符号化するように構成され得る。ITU-T H.264/MPEG-4(AVC)規格は、たとえば、ISO/IECムービングピクチャエキスパートグループ(MPEG)とともにITU-Tビデオコーディングエキスパートグループ(VCEG)によって、共同ビデオ部会(JVT)と呼ばれる集合的パートナーシップの製作物として考案された。いくつかの態様では、本開示で説明する技法は、概してH.264規格に適合するデバイスに適用され得る。H.264規格は、本明細書でH.264規格もしくはH.264仕様、またはH.264/AVC規格もしくは仕様と呼ばれることがある、ITU-T検討グループによる2005年3月の日付のついたITU-T勧告H.264、Advanced Video Coding for generic audiovisual servicesに記載されている。共同ビデオ部会(JVT)は、H.264/MPEG-4 AVCへの拡張に取り組み続けている。MVCのドラフトは、「Advanced video coding for generic audiovisual services」、ITU-T勧告H.264、2010年3月に記載されている。加えて、高効率ビデオコーディング(HEVC)は、現在、ITU-Tビデオコーディングエキスパートグループ(VCEG)およびISO/IECモーションピクチャエキスパートグループ(MPEG)のビデオコーディング共同研究部会(JCT-VC)によって開発中である。「HEVCワーキングドラフト7」と呼ばれるHEVC規格のドラフトは、文書HCTVC-I1003、Brossら、「High Efficiency Video Coding (HEVC) Text Specification Draft 7」、ITU-T SG16 WP3およびISO/IEC JTC1/SC29/WG11のビデオコーディング共同研究部会(JCT-VC)、第9回会合、ジュネーブ、スイス、2012年4月27日〜2012年5月7日の中にある。この文書は、その全体が参照により本明細書に組み込まれる。
いくつかの実施形態では、図示しないが、エンコーダ120は、深度マップ154を符号化するように構成され、深度マップ154は、次いで、ビットストリームの中で符号化画像データ262の一部として送信される。このプロセスは、取り込まれた1つのビューに対して1つの深度マップを、またはいくつかの送信されるビューに対して複数の深度マップを生成することができる。エンコーダ120は、1つまたは複数のビューおよび深度マップを受信し得、複数のビューをジョイントコーディングすることができるH.264/AVC、MVCのようなビデオコーディング規格、または深度およびテクスチャをジョイントコーディングすることができるスケーラブルビデオコーディング(SVC)を用いて、それらをコーディングし得る。
向上された第1のビュー156および/または向上された第2のビュー158がビデオデータのフレームに相当するとき、エンコーダ120は、向上された第1のビュー156および/または向上された第2のビュー158をイントラ予測モードまたはインター予測モードで符号化し得る。一例として、ITU-T H.264規格は、ルーマ成分に対して16×16、8×8、または4×4、およびクロマ成分に対して8×8などの様々なブロックサイズでのイントラ予測、ならびにルーマ成分に対して16×16、16×8、8×16、8×8、8×4、4×8および4×4、およびクロマ成分に対して対応する変倍されたサイズなどの、様々なブロックサイズでのインター予測をサポートする。本開示では、「N×N」および「NバイN」は、垂直寸法および水平寸法の観点からブロックの画素寸法を指すために互換的に使用され得る(たとえば、16×16画素または16バイ16画素)。概して、16×16ブロックは垂直方向に16個の画素、および水平方向に16個の画素を有する。同様に、N×Nブロックは、概して、垂直方向にN個の画素、および水平方向にN個の画素を有し、ここで、Nは、16よりも大きくてよい正の整数値を表す。ブロックの中の画素は、行および列をなして配置され得る。ブロックはまた、N×Mであってよく、ここで、NおよびMは必ずしも等しくない整数である。
16バイ16よりも小さいブロックサイズは、16バイ16マクロブロックのパーティションと呼ばれることがある。同様に、N×Nブロックに対して、N×Nよりも小さいブロックサイズは、N×Nブロックのパーティションと呼ばれることがある。ビデオブロックは、画素領域における画素データのブロック、または(たとえば、離散コサイン変換(DCT)、整数変換、ウェーブレット変換、またはコード化ビデオブロックと予測ビデオブロックとの間の画素差分を表す残差ビデオブロックデータへの概念的に類似の変換などの、変換の適用の後の)変換領域における変換係数のブロックを備え得る。場合によっては、ビデオブロックは、変換領域における量子化変換係数のブロックを備え得る。
より小さいビデオブロックは、より良い解像度をもたらすことができ、高いレベルのディテールを含むビデオフレームのロケーションに対して使用され得る。一般に、サブブロックと呼ばれることがあるマクロブロックおよび様々なパーティションは、ビデオブロックであるものと見なされ得る。加えて、スライスが、マクロブロックおよび/またはサブブロックなどの複数のビデオブロックであるものと見なされ得る。各スライスは、ビデオフレームの独立に復号可能なユニットであり得る。あるいは、フレーム自体が復号可能なユニットであってよく、またはフレームの他の部分が復号可能なユニットとして規定されてもよい。「コード化ユニット」または「コーディングユニット」という用語は、全体的なフレーム、フレームのスライス、シーケンスもしくはスーパーフレームとも呼ばれるピクチャグループ(GOP)、または適用可能なコーディング技法に従って規定される独立に復号可能な別のユニットなどの、ビデオフレームの任意の独立に復号可能なユニットを指すことがある。
一般に、マクロブロックおよび様々なサブブロックまたはパーティションは、すべてビデオブロックであるものと見なされ得る。加えて、スライスが、マクロブロックおよび/またはサブブロックもしくはパーティションなどの一連のビデオブロックであるものと見なされ得る。一般に、マクロブロックは、画素の16バイ16エリアを規定するクロミナンス値およびルミナンス値のセットを指し得る。ルミナンスブロックは、16バイ16セットとしての値を備え得るが、8バイ8ブロック、4バイ4ブロック、8バイ4ブロック、4バイ8ブロック、または他のサイズなどの、より小さいビデオブロックにさらに区分されてよい。2つの異なるクロミナンスブロックが、マクロブロックに対するカラーを規定し得、画素の16バイ16エリアに関連付けられたカラー値の8バイ8でサブサンプリングされたブロックをそれぞれ備え得る。マクロブロックは、マクロブロックに適用されたコーディングモードおよび/またはコーディング技法を規定するためのシンタックス情報を含み得る。マクロブロックまたは他のビデオブロックは、スライス、フレーム、または他の独立したユニットなどの復号可能なユニットにグループ化され得る。各スライスは、ビデオフレームの独立に復号可能なユニットであり得る。あるいは、フレーム自体が復号可能なユニットであってよく、またはフレームの他の部分が復号可能なユニットとして規定されてもよい。
出力インターフェース224は、符号化画像データ262を宛先デバイス214へ送信する。入力インターフェース228は、符号化画像データ262を出力インターフェース224から受信する。本開示の態様は、必ずしもワイヤレスの適用例または設定に限定されない。たとえば、本開示の態様は、無線テレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、インターネットビデオ送信、記憶媒体へ符号化される符号化デジタルビデオ、または他のシナリオに適用され得る。したがって、通信チャネルは、符号化されたビデオおよび/またはピクチャデータの送信に適当な、ワイヤレスまたは有線の媒体の任意の組合せを備え得る。
出力インターフェース224は、符号化画像データ262を含むビットストリームを、宛先デバイス214の入力インターフェース228へ送り得る。たとえば、出力インターフェース224は、トランスポートレベルカプセル化技法(たとえば、MPEG-2システム技法)を使用して、符号化画像データ262をビットストリームの中にカプセル化し得る。出力インターフェース224は、たとえば、ネットワークインターフェース、ワイヤレスネットワークインターフェース、無線周波数送信機、送信機/受信機(トランシーバ)、または他の送信ユニットを備え得る。他の例では、ソースデバイス112は、符号化画像データ262を含むビットストリームを、たとえば、コンパクトディスクなどの光学記憶媒体、デジタルビデオディスク、ブルーレイディスク、フラッシュメモリ、磁気媒体、または他の記憶媒体などの物理媒体に記憶するように構成され得る。そのような例では、記憶媒体は、宛先デバイス214のロケーションへ物理的にトランスポートされ得、データを取り出すための適切なインターフェースユニットによって読み取られ得る。いくつかの例では、符号化画像データ262を含むビットストリームは、出力インターフェース224によって送信される前に、変調器/復調器(モデム)によって変調され得る。
画像ソース116は、複数のビュー(すなわち、向上された第1のビュー156および向上された第2のビュー158)を形成し得るが、ソースデバイス112は、向上された第1のビュー156または向上された第2のビュー158のみを送信してよい。たとえば、画像ソース116は、異なる角度から見られるべきシーンの4ペアのビューを生成するように意図された8つのカメラアレイを備えてよい。ソースデバイス112は、各ペアの1つの画像のみを宛先デバイス214へ送信してよい。いくつかの実施形態では、ソースデバイス112は、単一の画像と一緒に、深度マップ154などの追加情報を送信し得る。したがって、この例では、8つのビューを送信するのではなく、ソースデバイス112は、符号化画像データ262を含むビットストリームという形で、4つのビューを、および/または4つのビューの各々に関する深度/視差情報(たとえば、深度マップ154)を加えて送信し得る。いくつかの例では、プロセッサ122は、画像に関する視差情報(たとえば、深度マップ154)を、ユーザから、または別の外部デバイスから受信し得る。
符号化画像データ262を有するビットストリームを受信しデータをカプセル化解除した後、いくつかの例では、入力インターフェース228が、符号化画像データ262をデコーダ230に(または、いくつかの例では、ビットストリームを復調するモデムに)提供し得る。
デコーダ230は、符号化画像データ262を入力インターフェース228から受信する。デコーダ230は、符号化画像データ262を復号して、向上された第1のビュー156および/または向上された第2のビュー158を抽出する。向上された第1のビュー156および/または向上された第2のビュー158に基づいて、画像ディスプレイ123と同じかまたは類似である画像ディスプレイ232が、2次元または3次元の画像を描画することができる。図2に示さないが、向上された第1のビュー156および/または向上された第2のビュー158は、ソースデバイス112または宛先デバイス214のいずれかにおいて、さらなる処理を受けてよい。
図3は、本開示で説明する態様による技法を実施し得るエンコーダの一例を示すブロック図である。エンコーダ120は、本開示の技法のうちのいずれかまたはすべてを実行するように構成され得る。たとえば、モード選択ユニット340(たとえば、動き推定ユニット342)は、エンコーダ120によって受信された画像のシーケンス(たとえば、左画像と後続の右画像)に基づいて、深度マップを決定するように構成され得る。しかしながら、本開示の態様はそのように限定されない。いくつかの例では、本開示で説明する技法は、エンコーダ120の様々な構成要素の間で共有され得る。いくつかの例では、それに加えてまたはその代わりに、プロセッサ(図示せず)が本開示で説明する技法のうちのいずれかまたはすべてを実行するように構成され得る。
エンコーダ120は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディングを実行し得る。イントラコーディングは空間予測に依拠して、所与のビデオフレーム内またはピクチャ内のビデオにおける空間的冗長性を低減または除去する。インターコーディングは時間予測に依拠して、互いに隣接するフレーム内またはビデオシーケンスのピクチャ内のビデオにおける時間的冗長性を低減または除去する。イントラモード(Iモード)は、いくつかの空間ベースのコーディングモードのいずれかを指すことがある。単方向予測(Pモード)または双予測(Bモード)などのインターモードは、いくつかの時間ベースのコーディングモードのいずれかを指すことがある。エンコーダ120はまた、本明細書で説明するインターコーディング技法を使用して、視差マップおよび/または深度マップを生成し得る。
図3に示すように、エンコーダ120は、符号化されるべき画像内またはビデオフレーム内の現在の画像ブロックを受信する。図3の例では、エンコーダ120は、モード選択ユニット340、参照フレームメモリ364、加算器350、変換処理ユニット352、量子化ユニット354、およびエントロピー符号化ユニット356を含む。モード選択ユニット340は、動き推定ユニット342、動き補償ユニット344、イントラ予測ユニット346、およびパーティションユニット348を含む。ビデオブロック再構成のために、エンコーダ120はまた、逆量子化ユニット358、逆変換ユニット360、および加算器362を含む。ブロック境界をフィルタ処理して、再構成されたビデオからのブロッキネスアーティファクトを除去するために、デブロッキングフィルタ(図3に示さず)も含まれ得る。所望される場合、デブロッキングフィルタは、通常、加算器362の出力をフィルタ処理することになる。デブロッキングフィルタに加えて追加のフィルタ(ループ内フィルタまたはポストループフィルタ)も使用されてよい。そのようなフィルタは簡潔のために図示されないが、所望される場合、加算器350の出力を(ループ内フィルタとして)フィルタ処理し得る。
符号化プロセスの間、エンコーダ120は、コーディングされるべき画像、ビデオフレーム、またはスライスを受信する。画像、フレーム、またはスライスは、複数のブロックに分割され得る。動き推定ユニット342および動き補償ユニット344が、受信されたブロックのインター予測コーディングを、1つまたは複数の参照フレームの中の1つまたは複数のブロックに対して実行して、時間予測を提供する。あるいは、イントラ予測ユニット346が、受信されたブロックのイントラ予測コーディングを、コーディングされるべきブロックと同じフレームまたはスライスの中の1つまたは複数の隣接ブロックに対して実行して、空間予測を提供してもよい。エンコーダ120は、複数のコーディングパス(たとえば、ビデオデータの各ブロック用に適切なコーディングモードを選択すること)を実行し得る。
その上、パーティションユニット348は、前のコーディングパスにおける前の区分方式の評価に基づいて、画像またはビデオデータのブロックをサブブロックに区分し得る。たとえば、パーティションユニット348は、最初に、画像、フレーム、またはスライスを最大のコーディングユニット(LCU)に区分し得、レートひずみ分析に基づいてLCUの各々をサブコーディングユニット(CU)に区分し得る(たとえば、レートひずみ最適化)。モード選択ユニット340(たとえば、パーティションユニット348)は、LCUのサブCUへの区分を示す4分木データ構造をさらに生成し得る。4分木のリーフCUは、1つまたは複数のPUおよび1つまたは複数のTUを含み得る。
モード選択ユニット340は、コーディングモード(たとえば、イントラまたはインター)のうちの1つを誤差結果に基づいて選択し得、得られたイントラコード化ブロックまたはインターコード化ブロックを、加算器350に提供して残差ブロックデータを生成し得、また加算器362に提供して参照フレームとして使用するための符号化ブロックを再構成し得る。モード選択ユニット340はまた、動きベクトル、イントラモードインジケータ、パーティション情報、および他のそのようなシンタックス情報などのシンタックス要素を、エントロピー符号化ユニット356に提供する。
動き推定ユニット342および動き補償ユニット344は高集積化され得るが、概念的な目的のために別個に示される。動き推定ユニット342によって実行される動き推定すなわち動き情報の予測は、ビデオブロックに関する動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在のフレーム(または、他のコード化ユニット)内でコーディングされている現在のブロックに対する参照フレーム(または、他のコード化ユニット)内の予測ブロックに比べた、現在のビデオフレームまたはピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、コーディングされるべきブロックに画素差分の観点から密に整合すると見出されるブロックであり、絶対差分和(SAD)、2乗差分和(SSD)、または他の差分メトリクスによって決定され得る。いくつかの例では、エンコーダ120は、参照フレームメモリ364に記憶された参照ピクチャのサブ整数画素位置に対する値を算出し得る。たとえば、エンコーダ120は、参照ピクチャの1/4画素位置、1/8画素位置、または他の分数画素位置の値を補間し得る。したがって、動き推定ユニット342は、全画素位置および分数画素位置に対する動き探索を実行し得、分数画素の精度で動きベクトルを出力し得る。
動き推定ユニット342は、PUの位置を参照ピクチャの予測ブロックの位置に対して比較することによって、インターコード化スライスの中のビデオブロックのPUに関する動きベクトルを算出する。参照ピクチャは、第1の参照ピクチャリスト(たとえば、リスト0)、第2の参照ピクチャリスト(たとえば、リスト1)、または第3の参照ピクチャリスト(たとえば、リストC)の中から選択され得、それらの各々は、参照フレームメモリ364に記憶されている1つまたは複数の参照ピクチャを識別する。参照ピクチャは、空間的および/または時間的にPUに隣接するブロックの動き情報に基づいて選択され得る。選択された参照ピクチャは、参照インデックスによって識別され得る。動き推定ユニット342は、算出された動きベクトルおよび/または参照インデックスを、エントロピー符号化ユニット356および/または動き補償ユニット344へ送る。
加えて、動き推定ユニット342は、シーケンス(たとえば、左画像および右画像)の中で受信された2つの画像を比較し、受信された画像の中の各部分(たとえば、各画素、画素の各グループなど)に関する視差値を、本明細書で説明するような方式で決定することによって、視差マップを生成する。たとえば、視差値は、2つの画像の間の動きを分析することによって決定され得る。動き推定ユニット342は、視差マップをアップスケールして深度マップを生成することができる。
動き補償ユニット344によって実行される動き補償は、動き推定ユニット342によって決定される動きベクトルに基づいて、予測ブロックをフェッチまたは生成することを伴い得る。現在のビデオブロックのPUに関する動きベクトルを受信すると、動き補償ユニット344は、参照ピクチャリストのうちの1つの中で動きベクトルが指し示す予測ブロックの位置を特定し得る。加算器350は、コーディングされている現在のビデオブロックの画素値から予測ブロックの画素値を減算することによって残差ビデオブロックを形成し、以下に説明するような画素差分値を形成する。いくつかの実施形態では、動き推定ユニット342は、ルーマ成分に対して動き推定を実行することができ、動き補償ユニット344は、ルーマ成分に基づいて算出される動きベクトルをクロマ成分とルーマ成分の両方のために使用することができる。モード選択ユニット340は、ビデオスライスのビデオブロックを復号する際にデコーダ230によって使用するための、ビデオブロックおよびビデオスライスに関連したシンタックス要素を生成し得る。
イントラ予測ユニット346は、いくつかの実施形態では、動き推定ユニット342および動き補償ユニット344によって実行されるインター予測への代替として、現在のブロックをイントラ予測し得る。特に、イントラ予測ユニット346は、現在のブロックを符号化するために使用するべきイントラ予測モードを決定し得る。いくつかの例では、イントラ予測ユニット346は、様々なイントラ予測モードを使用して(たとえば、別個の符号化パスの間に)、現在のブロックを符号化し得、イントラ予測ユニット346(または、いくつかの例では、モード選択ユニット340)は、テストされたモードの中から使用するべき適切なイントラ予測モードを選択し得る。
たとえば、イントラ予測ユニット346は、テストされる様々なイントラ予測モードに対するレートひずみ分析を使用してレートひずみ値を算出し得、テストされるモードの中からレートひずみ特性が最良のイントラ予測モードを選択し得る。レートひずみ分析は、一般に、符号化ブロックと、符号化ブロックを生成するために符号化された、符号化されていない元のブロックとの間のひずみ(または、誤差)の量、ならびに符号化ブロックを生成するために使用されたビットレート(すなわち、ビット数)を決定する。イントラ予測ユニット346は、どのイントラ予測モードがブロックに対して最良のレートひずみ値を示すのかを決定するために、様々な符号化ブロックに関するひずみおよびレートから比を算出し得る。
ブロックのためのイントラ予測モードを選択した後、イントラ予測ユニット346は、ブロックのために選択されたイントラ予測モードを示す情報を、エントロピー符号化ユニット356に提供し得る。エントロピー符号化ユニット356は、選択されたイントラ予測モードを示す情報を符号化し得る。エンコーダ120は、複数のイントラ予測モードインデックステーブルおよび複数の修正イントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)を含み得る送信されるビットストリーム構成データの中に、コンテキストの各々に対して使用するための様々なブロックに関する符号化コンテキストの定義、最も考えられるイントラ予測モードの表示、イントラ予測モードインデックステーブル、および修正イントラ予測モードインデックステーブルを含め得る。
上述されたように、エンコーダ120は、モード選択ユニット340によって提供される予測データをコーディングされている元のビデオブロックから減算することによって、残差ビデオブロックを形成する。加算器350は、この減算動作を実行する1つまたは複数の構成要素を表す。変換処理ユニット352は、DCTまたは概念的に類似の変換(たとえば、ウェーブレット変換、整数変換、サブバンド変換など)などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換は、画素値領域からの残差情報を周波数領域などの変換領域に変換し得る。変換処理ユニット352は、得られた変換係数を量子化ユニット354へ送り得る。量子化ユニット354は、変換係数を量子化してビットレートをさらに低減する。量子化プロセスは、係数の一部または全部に関連したビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。いくつかの例では、量子化ユニット354は、次いで、量子化変換係数を含む行列のスキャンを実行し得る。あるいは、エントロピー符号化ユニット356がスキャンを実行してよい。
量子化の後、エントロピー符号化ユニット356が、量子化変換係数をエントロピーコーディングする。たとえば、エントロピー符号化ユニット356は、CAVLC、CABAC、SBAC、PIPEコーディング、または別のエントロピーコーディング技法を実行し得る。コンテキストベースのエントロピーコーディングの場合には、コンテキストは隣接ブロックに基づき得る。エントロピー符号化ユニット356によるエントロピーコーディングの後、符号化ビットストリームが、別のデバイス(たとえば、デコーダ230)へ送信され得、または後で送信もしくは取出しができるように保管され得る。
逆量子化ユニット358および逆変換ユニット360は、それぞれ、逆量子化および逆変換を適用して、画素領域における残差ブロックを再構成する(たとえば、後で参照ブロックとして使用できるように)。動き補償ユニット344は、参照フレームメモリ364の中に記憶されているフレームのうちの1つの予測ブロックに残差ブロックを加算することによって、参照ブロックを算出し得る。動き補償ユニット344はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定の際に使用するためのサブ整数画素値を算出し得る。加算器362は、動き補償ユニット344によって生成された動き補償された予測ブロックに、再構成された残差ブロックを加算して、参照フレームメモリ364の中に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオフレームの中のブロックをインターコーディングするための参照ブロックとして、動き推定ユニット342および動き補償ユニット344によって使用され得る。
図4は、本開示で説明する態様による技法を実施し得るデコーダの一例を示すブロック図である。デコーダ230は、本開示の技法のうちのいずれかまたはすべてを実行するように構成され得る。たとえば、動き補償ユニット472は、視差マップおよび/または深度マップを生成するように構成され得る。しかしながら、本開示の態様はそのように限定されない。いくつかの例では、本開示で説明する技法は、デコーダ230の様々な構成要素の間で共有され得る。いくつかの例では、それに加えてまたはその代わりに、プロセッサ(図示せず)が本開示で説明する技法のうちのいずれかまたはすべてを実行するように構成され得る。
図4の例では、デコーダ230は、エントロピー復号ユニット470、動き補償ユニット472、イントラ予測ユニット474、逆量子化ユニット476、逆変換ユニット478、参照フレームメモリ482、および加算器480を含む。デコーダ230は、いくつかの例では、エンコーダ120(図3)に関して説明した符号化パスと概して相反の復号パスを実行し得る。動き補償ユニット472は、エントロピー復号ユニット470から受信される動きベクトルに基づいて予測データを生成し得、イントラ予測ユニット474は、エントロピー復号ユニット470から受信されるイントラ予測モードインジケータに基づいて予測データを生成し得る。
復号プロセスの間、デコーダ230は、符号化された画像またはビデオスライスのブロックおよび関連したシンタックス要素を表す符号化画像ビットストリームを、エンコーダ120から受信する。デコーダ230のエントロピー復号ユニット470は、ビットストリームをエントロピー復号して、量子化係数、動きベクトル、もしくはイントラ予測モードインジケータ、および/または他のシンタックス要素を生成する。エントロピー復号ユニット470は、動きベクトルおよび他のシンタックス要素を動き補償ユニット472に転送する。デコーダ230は、画像、ビデオスライスレベル、および/またはブロックレベルにおけるシンタックス要素を受信し得る。
画像またはビデオスライスがイントラコード化(I)スライスとしてコーディングされるとき、イントラ予測ユニット474は、シグナリングされたイントラ予測モードおよび現在のフレームまたはピクチャの前に復号されたブロックからのデータに基づいて、現在の画像またはビデオスライスのブロックに関する予測データを生成し得る。画像またはフレームがインターコード化(たとえば、B、P、またはGPB)スライスとしてコーディングされるとき、動き補償ユニット472は、エントロピー復号ユニット470から受信された動きベクトルおよび他のシンタックス要素に基づいて、現在のビデオスライスのビデオブロックに関する予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つの中の参照ピクチャのうちの1つから生成され得る。デコーダ230(たとえば、動き補償ユニット472)は、参照フレームメモリ482に記憶されている参照ピクチャに基づくデフォルトの構成技法を使用して、参照フレームリスト、すなわち、リスト0、リスト1、および/またはリストCを構成し得る。動き補償ユニット472は、動きベクトルおよび他のシンタックス要素を構文解析することによって、現在のビデオスライスのビデオブロックに関する予測情報を決定し、予測情報を使用して、復号されている現在のビデオブロックに関する予測ブロックを生成する。たとえば、動き補償ユニット472は、受信されたシンタックス要素のうちのいくつかを使用して、ビデオスライスのブロックをコーディングするために使用される予測モード(たとえば、イントラ予測またはインター予測)、インター予測スライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)、スライスに関する参照ピクチャリストのうちの1つまたは複数に関する構成情報、画像もしくはスライスの各インターコード化ブロックに関する動きベクトル、画像もしくはスライスの各インターコード化ブロックに関するインター予測条件、および/または現在の画像もしくはビデオスライスの中のブロックを復号するための他の情報を決定する。
加えて、動き補償ユニット472は、シーケンス(たとえば、左画像および右画像)の中で受信された2つの画像を比較し、受信された画像の中の各部分(たとえば、各画素、画素の各グループなど)に関する視差値を、本明細書で説明するような方式で決定することによって、視差マップを生成する。たとえば、視差値は、2つの画像の間の動きを分析することによって決定され得る。動き補償ユニット472は、視差マップをアップスケールして深度マップを生成することができる。
動き補償ユニット472はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット472は、ビデオブロックの符号化の間にエンコーダ120によって使用されるような補間フィルタを使用して、参照ブロックのサブ整数画素に対して補間された値を算出し得る。この場合、動き補償ユニット472は、エンコーダ120によって使用された補間フィルタを、受信されたシンタックス要素から決定し得、その補間フィルタを使用して予測ブロックを生成し得る。
逆量子化ユニット476は、ビットストリームの中で提供されエントロピー復号ユニット470によって復号された量子化変換係数を逆量子化(たとえば、de quantize)する。逆量子化プロセスは、量子化の程度と、同じく適用されるべき逆量子化の程度とを決定するために、ビデオスライスの中の各ビデオブロックに対してエンコーダ120によって算出される量子化パラメータQPYを使用することを含み得る。
逆変換ユニット478は、逆変換(たとえば、逆DCT)、逆整数変換、または概念的に類似の逆変換プロセスを変換係数に適用して、画素領域における残差ブロックを生成する。
場合によっては、逆変換ユニット478は、2次元(2D)逆変換(水平方向と垂直方向の両方での)を係数に適用し得る。本開示の技法によれば、逆変換ユニット478は、代わりに、TUの各々の中の残差データに、水平1D逆変換、垂直1D逆変換を適用してよく、または変換を適用しなくてもよい。適切なタイプの逆変換を変換係数に適用するために、エンコーダ120において残差データに適用された変換のタイプが、デコーダ230にシグナリングされ得る。
動き補償ユニット472が動きベクトルおよび他のシンタックス要素に基づいて現在のブロックに関する予測ブロックを生成した後、デコーダ230は、逆変換ユニット478からの残差ブロックを動き補償ユニット472によって生成される対応する予測ブロックと加算することによって、復号ビデオブロックを形成する。加算器480は、この加算動作を実行する1つまたは複数の構成要素を表す。所望される場合、ブロッキネスアーティファクトを除去するために、デブロッキングフィルタも適用されて復号ブロックをフィルタ処理してよい。他のループフィルタ(コーディングループの中の、またはコーディングループの後の)も、画素遷移を平滑化し、または別のやり方でビデオ品質を改善するために使用されてよい。所与のフレームまたはピクチャの中の復号ビデオブロックは、次いで、その後の動き補償のために使用される参照ピクチャを記憶する参照ピクチャメモリ482に記憶される。参照フレームメモリ482はまた、後で図1のイメージデバイス123または図2の画像ディスプレイ232などのディスプレイデバイス上で提示できるように、復号ビデオを記憶する。
深度マップの計算
本明細書で開示する技法は、エンコーダ120などのエンコーダに関して説明される。しかしながら、これは限定されることを意味しない。類似の結果を達成するために、同じ技法がデコーダ230などのデコーダによって使用され得る。
エンコーダ120などのエンコーダは、未加工のビデオフレームを標準的な圧縮フォーマットに変換する。圧縮プロセスは、インターコード化フレームに対して画素関連/ブロック関連の動きを計算する、動き検出アルゴリズムによって補助される。上記で説明したように、インターコード化フレームは、2つのタイプ、すなわち、PフレームおよびBフレームであり得る。Pフレームは、前のイントラコード化フレーム(Iフレーム)を参照する順方向の動き値を含む。Bフレームは、前および次のイントラコード化フレームを参照する双方向の動き値を含む。イントラコード化フレームは、空間的に符号化される。イントラコード化フレームは、ストリームの中のいかなる動き値またはいかなる他のフレームにも関連しない。インターコード化フレームの中の動き値は、2つのビデオフレームの間の視差すなわち差分である。一実施形態では、普通の2Dビデオストリーム(たとえば、単一のカメラを使用して取り込まれる画像)が、3Dビデオストリーム(たとえば、2つのカメラを使用して取り込まれる画像)の交互配置された左(L)ビューおよび右(R)ビューを含むビデオストリームと置き換えられる場合、動き値は、LフレームおよびRフレームの各ペアの間の視差(たとえば、LフレームとRフレームとの間の空間的な向きの差分)を表す。
エンコーダは、交互配置されたステレオビデオの互い違いのフレームを、IフレームおよびPフレームとして符号化するように構成され得る。図5は、フレームのシーケンシングを示す。図5に示すように、シーケンスは、4つのフレーム、すなわち、L1 502、R1 504、L2 506、およびR2 508を含む。簡単のために、4つのフレームのみが示されるが、本明細書で説明する技法は任意の数のフレームに適用される。一実施形態では、L1 502がエンコーダ120によって受信される最初のフレームであり、R2 508がエンコーダ120によって受信される最後のフレームである。Lフレーム(たとえば、L1 502およびL2 506)は、Iフレームとして符号化され、Rフレーム(たとえば、R1 504およびR2 508)は、Pフレームとして符号化される。したがって、エンコーダ120によって受信されるようなフレームのシーケンスは、IフレームとPフレームとの間で互い違いになる。このことは、視差値が算出され得ることを確実にする助けとなる。
図6は、深度計算フローを示す。図6に示すように、エンコーダ120は、フレームのシーケンスL1 502、R1 504、L2 506、およびR2 508をデータ608として受信する。一実施形態では、エンコーダ120は、Pフレームが主としてインターコード化マクロブロック(MB)を有するように、高ビットレート設定に設定される。一例として、最小MBサイズは8×8であり得る。インターコード化マクロブロックが、対応する後方のLフレームを参照する動きベクトル情報を含むので、Rフレームの中にできるだけ多くのインターコード化マクロブロックを有することが望ましくあり得る。
エンコーダ120は、動きベクトル情報をMBからデータ610として抽出することができ(ボックス602によって表される)、インターコーディングおよびイントラコーディングされたブロックが、ダウンサンプリングされた深度マップ620の中に図式的に表され得る。図示されないが、ダウンサンプリングされた深度マップ620の中の黒いブロックは、イントラコード化ブロックを表し得る。LフレームとRフレームとの間に整合が見出され得ない場合、イントラコード化ブロックは、閉塞領域または暴露領域において共通であり得る。
一実施形態では、X方向でのMB動きは、2つのステレオフレーム(深度マップに変換され得る)の間のブロック関連の視差を近似的に表すことができる。MBサイズが小さければ小さいほど、深度マップの解像度は高くなる。MBフレームは、さらに、メディアンフィルタリング(たとえば、5×5メディアンフィルタ)などの改善によって、イントラコード化パッチと雑音の多い深度値とが取り除かれ得る(ボックス604によって表される)。一例では、最小MBサイズが8×8画素であるので、MB動き画像は、元の入力フレームと比較して8倍にダウンサンプリングされる。向上アルゴリズムを適用するために、画像は8倍(または、別の類似の値)にアップサンプルされなければならないことがある。
アップスケーリングはボックス606によって表される。一実施形態では、エンコーダ120は、深度マップ620の画素を反復することによって深度マップ620をアップスケールする。エンコーダ120は、フィルタカーネルのサイズ、フィルタ処理されている画素のカーネルの中心からの空間的距離(たとえば、sd)、ならびに/またはフィルタ処理されている画素において計算される視差の勾配およびフィルタ処理されている画素において計算される画像のカラー成分の勾配(たとえば、id)を使用することによって、各画素向けの深度フィルタを決定し得る。深度フィルタは、2つのガウシアン成分、すなわち、空間的成分(たとえば、-e-(sd*sd)/λs)、ならびに画像のカラーおよび深度値の勾配成分(たとえば、e-(id*id)/λc)の積であり得、ここで、λsおよびλcが対応するガウシアンカーネルの分布係数を決定し得る。エンコーダ120は、前にフィルタ処理された深度マップに複数回のフィルタ処理の繰返しを実行して、深度マップを改善し得る。別の実施形態では、エンコーダ120は、センサー入力を使用して深度マップ620をアップスケールする。たとえば、エンコーダ120は、単純な双線形アップスケールを使用して初期推定値を作り出し得る。エンコーダ120は、初期推定での深度遷移を識別し、遷移において補外を使用して深度値を埋め、埋められた深度値を平滑化し得る(たとえば、深度遷移における深度値の差分を低減する)。アップスケーリングの結果は、より少数の黒いブロックを含むとともにダウンサンプリングされた深度マップ620のアップサンプリングされたバージョンである深度マップ624によって、図式的に表され得る。
ボックス606によって表されエンコーダ120によって実行されるアップスケーリングは、いくつかの利点を有し得る。たとえば、ステレオ画像からの深度マップ計算は、計算量を多く必要とするプロセスであり得る。本明細書で説明するプロセスを使用すると、エンコーダ120がより小さい画像を処理し、または疎な(たとえば、ダウンサンプリングされた)深度マップを生成する場合、エンコーダ120は、計算リソース使用量を低減し処理速度を増大させることができる。加えて、不正確である場合、アップスケールされた深度マップは、深度マップのセグメント化および最終の向上品質に影響を及ぼし得る。したがって、本明細書で説明するプロセスを使用すると、エンコーダ120は、一般的なアップスケーリングプロセスを使用するエンコーダと比較して、深度マップのセグメント化および/または最終の向上品質を改善することができる。
一実施形態では、エンコーダ120によって生成される深度マップは、一般的なアップスケーリングプロセスを使用して生成される深度マップよりも、向上品質が高い。グランドトゥルース深度マップ(たとえば、理想的な深度マップ)は、エンコーダ120によって生成される深度マップよりも向上品質が高くなり得るが、エンコーダ120は、グランドトゥルース深度マップを生成するときに使用されることになるものよりも少数のサンプル(たとえば、1/256のサンプル数)を使用してよい。
深度マップを使用する画像向上の実行
一実施形態では、深度マップ624などの深度マップは、ステレオ画像またはステレオビデオを向上させるために使用され得る。たとえば、深度マップ624は、シーンの中のエッジ向上(たとえば、シーンの中のオブジェクトを鮮明にすること)を実証するために使用され得る。別の例として、深度マップ624は、シーンの中のコントラストを調整し、シーンの中のカラーを変更し、シーンの中の幾何学的形状を変更し、および/または類似のことをするために使用され得る。エッジ向上は、シーンの中のオブジェクトの深度に基づいて強度を変化させ得る。一実施形態では、カーソルを使用してピクチャの中のオブジェクトを選択するという発想である。アルゴリズムは、深度マップに基づいてオブジェクトまたは領域を画像の残部から分離して取り出し、深度に基づいて異なる程度の向上または異なるフィルタを適用する。
図7は、画像を向上させるためのフローを示す。図7に示すように、画像702が、プロセッサ122によって、向上された画像708に向上される。画像702の一部分が点710において選択される。プロセッサ122は、選択に応答して、またはもっと前の時間における深度マップ704の生成に応答して、深度マップ704をエンコーダ120から取り出すことができる。一例として、点710における画像702の深度値はDである。Dを中心として±Δとしてのしきい値が、プロセッサ122によって設定され得る。しきい値±Δは、あるいは、最大深度範囲に基づいてプロセッサ122によって計算されてもよい。
サイズN×Nのブラシストローク(または、類似の形状)を使用すると、プロセッサ122は、点710から始めてD±Δ(たとえば、Dプラスまたはマイナスしきい値)としての深度を有する画像702の連続部分を識別することによって、点710を取り囲む領域Rを拡大することができる。一実施形態では、領域Rは任意の形態または形状をなしてよい。
いくつかの実施形態では、プロセッサ122は、D±Δとしての深度以外の深度を有する画像702の一部分に到達すると、領域Rをある方向に拡大するのをやめる。他の実施形態では、プロセッサ122は、領域Rが事前設定された境界条件に達すると、領域Rをある方向に拡大するのをやめる。さらに他の実施形態では、プロセッサ122は、領域Rの境界が点710からいくらかの距離に到達すると、領域Rをある方向に拡大するのをやめる。
プロセッサ122は、次いで、プロセッサ122が領域Rを拡大するのをやめると、領域R内の画像702の部分を向上させることができる。たとえば、領域R内の部分は、高域フィルタを使用することによって向上され得る。領域Rの外側の画像の部分は、深度Dと画像702のそれぞれの部分の深度との間の差分に比例するガウシアンブラー(gaussian blur)を使用することによって平滑化(または、不鮮明に)されてよい。別の例として、領域R内の部分は、領域R内の画素のカラーを修正することによって向上されてよい。別の例として、領域R内の部分は、切り取られてよく、および/または画像702の別の部分に移動されてよい。図7に示すように、深度マップ706の白い部分は、点710が選択されているときの領域Rの形状およびサイズを表す。同様に、画像708の中の領域712は、点710が選択されているときの領域Rの形状およびサイズを概略的に表す。領域714は、点710が選択されているときの領域Rの外側の画像708のエリアを概略的に表す。
図8は、画像を向上させるための別のフローを示す。図8に示すように、画像702の相異なる近接しない部分が、(しきい値内の)同じ深度値を有し得る。たとえば、深度マップ802の白い部分はすべて、しきい値内の同じ深度値を有する。しかしながら、深度マップ802の中の白い部分の間にギャップがあるので、白い部分のすべてがプロセッサ122によって向上されるとは限らない。図7に関して上記で説明したように、点710が画像702の中で選択される。したがって、画像702のいくつかの部分は、しきい値内の同じ深度値を含むが、点710に近接するとともに点710における深度のしきい値内の深度値を有する画素を含む画像702の部分だけが向上される(たとえば、エッジが深度マップ802の中に到達する点まで、点710を取り囲む画像702の部分が向上される)。深度マップ706は、そのような基準を満たす画像702の部分を示す。したがって、画像708の領域712は向上され、画像708の他の部分は、そのままにされるか、または劣化されるかのいずれかである。
例示的なユースケース
図9は、例示的な元の画像902を示す。図10Aは、図9における元の画像902に基づいて、エンコーダ120によって計算され得る深度マップ1002を示す。図10Bは、改善およびアップスケール(たとえば、0〜255スケールまで)された後の深度マップ1002を示す。
図11〜図13は、本明細書で説明するような変倍された深度マップ1002を使用して向上される様々な画像を示す。図11に示すように、点1104が選択され、点1104に近接するとともに深度値をしきい値内で共有する画素が向上される。点1106および画像902の他の部分は劣化される。
図12に示すように、点1106が選択され、点1106に近接するとともに深度値をしきい値内で共有する画素が向上される。点1104および画像902の他の部分は劣化される。
図13に示すように、点1308が選択され、点1308に近接するとともに深度値をしきい値内で共有する画素が向上される。点1104および1106ならびに画像902の他の部分は劣化される。
図14は、画像を向上させるための例示的な方法1400を示す。方法1400は、ポータブル電子デバイスの1つまたは複数の構成要素によって実行され得る。たとえば、方法1400は、たとえば、エンコーダ120(たとえば、動き推定ユニット342)、デコーダ230(たとえば、動き補償ユニット472)および/またはプロセッサ122によって実行され得る。いくつかの実施形態では、他の構成要素が、本明細書で説明するステップのうちの1つまたは複数を実施するために使用され得る。
ブロック1402において、メモリユニットに記憶されている左画像および右画像が取り出される。一実施形態では、左画像および右画像は、それぞれ同じシーンを表現する。ブロック1404において、左画像と右画像との間の空間的な向きの差分に基づく深度マップが決定される。
ブロック1406において、左画像または右画像の、ユーザによって選択されている部分が識別される。ブロック1408において、ユーザによって選択されている部分を取り囲む向上領域が、決定された深度マップに基づいて決定される。ブロック1410において、向上領域が向上される。
例に応じて、本明細書で説明される技法のいずれかのいくつかの行為またはイベントは異なる順序で実行されてもよく、一緒に追加され、統合され、または省略されてもよい(たとえば、説明される行為またはイベントのすべてが技法の実施のために必要とは限らない)ことを認識されたい。その上、いくつかの例では、行為またはイベントは、順次的にではなく、たとえばマルチスレッド処理、割り込み処理、またはマルチプロセッサを通じて同時に実行され得る。
1つまたは複数の例では、説明される機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶され、またはコンピュータ可読媒体を介して送信されてよく、かつハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体などの有形媒体に相当するコンピュータ可読記憶媒体、または、たとえば、通信プロトコルに従って、ある場所から別の場所へコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的な有形コンピュータ可読記憶媒体、または(2)信号もしくは搬送波などの通信媒体に相当し得る。データ記憶媒体は、本開示で説明した技法を実装するための命令、コード、および/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であってよい。コンピュータプログラム製品はコンピュータ可読媒体を含んでよい。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、フラッシュメモリ、または、命令もしくはデータ構造の形式の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体を含み得る。また、任意の接続が、適切にコンピュータ可読媒体と呼ばれる。たとえば、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから命令が送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まず、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスク、およびブルーレイディスクを含み、ディスク(disk)は通常、磁気的にデータを再生し、ディスク(disc)はレーザーで光学的にデータを再生する。上記のものの組合せも、コンピュータ可読媒体の範囲内に含まれるべきである。
命令は、1つもしくは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価の集積論理回路もしくは個別論理回路のような、1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用される「プロセッサ」という用語は、前述の構造、または本明細書で説明される技法の実装に適した任意の他の構造のいずれかを指し得る。加えて、いくつかの態様では、本明細書で説明される機能は、符号化および復号のために構成された専用のハードウェアモジュールおよび/もしくはソフトウェアモジュール内に備えられてよく、または複合コーデックに組み込まれてよい。また、技法は、1つまたは複数の回路または論理要素で完全に実装されてよい。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。様々なコンポーネント、モジュール、またはユニットが、開示される技法を実行するように構成されるデバイスの機能的態様を強調するために、本開示において説明されるが、必ずしも異なるハードウェアユニットによる実現を必要としない。そうではなくて、上で説明されたように、様々なユニットは、コーデックハードウェアユニットの中で組み合わされてよく、または適切なソフトウェアおよび/もしくはファームウェアとともに、前述のような1つもしくは複数のプロセッサを含む、相互動作可能なハードウェアユニットの集合によって提供されてよい。様々な例が説明された。これらおよび他の例は以下の特許請求の範囲内に入る。
100 システム
112 ソースデバイス
116 画像ソース
120 エンコーダ
122 プロセッサ
123 画像ディスプレイ
150 第1のビュー
152 第2のビュー
154 深度マップ
156 拡張された第1のビュー
158 拡張された第2のビュー
200 システム
214 宛先デバイス
224 出力インターフェース
228 入力インターフェース
230 デコーダ
232 画像ディスプレイ
262 符号化画像データ
340 モード選択ユニット
342 動き推定ユニット
344 動き補償ユニット
346 イントラ予測ユニット
348 パーティションユニット
350 加算器
352 変換処理ユニット
354 量子化ユニット
356 エントロピー符号化ユニット
358 逆量子化ユニット
360 逆変換ユニット
362 加算器
364 参照フレームメモリ
470 エントロピー復号ユニット
472 動き補償ユニット
474 イントラ予測ユニット
476 逆量子化ユニット
478 逆変換ユニット
480 加算器
482 参照フレームメモリ

Claims (30)

  1. 画像を向上させるための方法であって、
    メモリユニットに記憶されている左画像および右画像を取り出すステップであって、前記左画像および前記右画像が、それぞれ、異なる視点からの同じシーンを表現する、ステップと、
    前記左画像と前記右画像との間の空間的な向きの差分に基づいて、深度マップを決定するステップと、
    前記左画像または前記右画像の、ユーザによって選択されている部分を識別するステップと、
    前記ユーザによって選択されている前記部分を取り囲む向上領域を、前記決定された深度マップに基づいて決定するステップと、
    前記向上領域を向上させるステップと
    を備える方法。
  2. 前記左画像または前記右画像の、前記ユーザによって選択されていない部分を劣化させるステップをさらに備える、請求項1に記載の方法。
  3. 前記左画像または前記右画像の、前記ユーザによって選択されていない部分を劣化させるステップが、前記左画像または前記右画像の、前記ユーザによって選択されていない前記部分を不鮮明にするステップを備える、請求項2に記載の方法。
  4. 深度マップを決定するステップが、
    前記左画像と前記右画像との間の空間的な向きの前記差分に基づいて視差マップを決定するステップであって、前記左画像および前記右画像の部分の間の空間的な向きの、より大きい差分がより大きい視差を示す、ステップと、
    前記視差マップをアップスケールするステップと、
    前記アップスケールされた視差マップに基づいて前記深度マップを決定するステップと
    をさらに備える、請求項1に記載の方法。
  5. 視差マップを決定するステップが、前記左画像の中のブロックと前記右画像の中の対応するブロックとの間の距離を決定するステップを備え、第1のブロックおよび第2のブロックがしきい値内で同一である場合、前記第1のブロックが前記第2のブロックに対応する、請求項4に記載の方法。
  6. 前記ユーザによって選択されている前記部分が第1の深度を備え、前記部分を取り囲む向上領域を決定するステップが、
    前記左画像または前記右画像の、前記ユーザによって選択されている前記部分から始めて、前記第1の深度のしきい値内の深度を有する前記左画像または前記右画像の連続部分を識別するステップと、
    前記第1の深度のしきい値内の深度を有しないか、事前設定された境界を表すか、または前記ユーザによって選択されている前記部分からのしきい値距離である、前記左画像または前記右画像の部分が識別されるまで、前記ユーザによって選択されている前記部分を取り囲む前記向上領域のサイズを増大させるステップと
    をさらに備える、請求項1に記載の方法。
  7. 向上させるステップが、前記向上領域を鮮明にするステップ、前記向上領域を前記左画像または前記右画像の異なる部分に移動させるステップ、または前記向上領域のカラーを調整するステップのうちの少なくとも1つを備える、請求項1に記載の方法。
  8. 画像を向上させるための装置であって、
    メモリユニットに記憶されている左画像および右画像を取り出すための手段であって、前記左画像および前記右画像が、それぞれ、異なる視点からの同じシーンを表現する、手段と、
    前記左画像と前記右画像との間の空間的な向きの差分に基づいて、深度マップを決定するための手段と、
    前記左画像または前記右画像の、ユーザによって選択されている部分を識別するための手段と、
    前記ユーザによって選択されている前記部分を取り囲む向上領域を、前記決定された深度マップに基づいて決定するための手段と、
    前記向上領域を向上させるための手段と
    を備える装置。
  9. 前記左画像または前記右画像の、前記ユーザによって選択されていない部分を劣化させるための手段をさらに備える、請求項8に記載の装置。
  10. 前記左画像または前記右画像の、前記ユーザによって選択されていない部分を劣化させるための手段が、前記左画像または前記右画像の、前記ユーザによって選択されていない前記部分を不鮮明にするための手段を備える、請求項9に記載の装置。
  11. 深度マップを決定するための手段が、
    前記左画像と前記右画像との間の空間的な向きの前記差分に基づいて視差マップを決定するための手段であって、前記左画像および前記右画像の部分の間の空間的な向きの、より大きい差分がより大きい視差を示す、手段と、
    前記視差マップをアップスケールするための手段と、
    前記アップスケールされた視差マップに基づいて前記深度マップを決定するための手段と
    をさらに備える、請求項8に記載の装置。
  12. 視差マップを決定するための手段が、前記左画像の中のブロックと前記右画像の中の対応するブロックとの間の距離を決定するための手段を備え、第1のブロックおよび第2のブロックがしきい値内で同一である場合、前記第1のブロックが前記第2のブロックに対応する、請求項11に記載の装置。
  13. 前記ユーザによって選択されている前記部分が第1の深度を備え、前記部分を取り囲む向上領域を決定するための手段が、
    前記左画像または前記右画像の、前記ユーザによって選択されている前記部分から始めて、前記第1の深度のしきい値内の深度を有する前記左画像または前記右画像の連続部分を識別するための手段と、
    前記第1の深度のしきい値内の深度を有しないか、事前設定された境界を表すか、または前記ユーザによって選択されている前記部分からのしきい値距離である、前記左画像または前記右画像の部分が識別されるまで、前記ユーザによって選択されている前記部分を取り囲む前記向上領域のサイズを増大させるための手段と
    をさらに備える、請求項8に記載の装置。
  14. 向上させるための手段が、前記向上領域を鮮明にするための手段、前記向上領域を前記左画像または前記右画像の異なる部分に移動させるための手段、または前記向上領域のカラーを調整するための手段のうちの少なくとも1つを備える、請求項8に記載の装置。
  15. 深度マップを取り出すための前記手段および深度マップを決定するための前記手段がエンコーダを備え、識別するための前記手段、向上領域を決定するための前記手段、および向上させるための前記手段がプロセッサを備える、請求項8に記載の装置。
  16. 実行されたときに、装置に、
    メモリユニットに記憶されている左画像および右画像を取り出すことであって、前記左画像および前記右画像が、それぞれ、異なる視点からの同じシーンを表現する、取り出すことと、
    前記左画像と前記右画像との間の空間的な向きの差分に基づいて、深度マップを決定することと、
    前記左画像または前記右画像の、ユーザによって選択されている部分を識別することと、
    前記ユーザによって選択されている前記部分を取り囲む向上領域を、前記決定された深度マップに基づいて決定することと、
    前記向上領域を向上させることと
    を行わせるコードを備える、非一時的コンピュータ可読記録媒体。
  17. 実行されたとき、装置に、前記左画像または前記右画像の、前記ユーザによって選択されていない部分を劣化させるコードをさらに備える、請求項16に記載の媒体。
  18. 実行されたとき、装置に、前記左画像または前記右画像の、前記ユーザによって選択されていない前記部分を不鮮明にさせるコードをさらに備える、請求項17に記載の媒体。
  19. 実行されたとき、装置に
    前記左画像と前記右画像との間の空間的な向きの前記差分に基づいて視差マップを決定することであって、前記左画像および前記右画像の部分の間の空間的な向きの、より大きい差分がより大きい視差を示す、決定することと、
    前記視差マップをアップスケールすることと、
    前記アップスケールされた視差マップに基づいて前記深度マップを決定することと
    を行わせるコードをさらに備える、請求項16に記載の媒体。
  20. 実行されたとき、装置に、前記左画像の中のブロックと前記右画像の中の対応するブロックとの間の距離を決定させるコードをさらに備え、第1のブロックおよび第2のブロックがしきい値内で同一である場合、前記第1のブロックが前記第2のブロックに対応する、請求項19に記載の媒体。
  21. 前記ユーザによって選択されている前記部分が第1の深度を備える、請求項16に記載の媒体。
  22. 実行されたとき、装置に、
    前記左画像または前記右画像の、前記ユーザによって選択されている前記部分から始めて、前記第1の深度のしきい値内の深度を有する前記左画像または前記右画像の連続部分を識別することと、
    前記第1の深度のしきい値内の深度を有しないか、事前設定された境界を表すか、または前記ユーザによって選択されている前記部分からのしきい値距離である、前記左画像または前記右画像の部分が識別されるまで、前記ユーザによって選択されている前記部分を取り囲む前記向上領域のサイズを増大させることと
    を行わせるコードをさらに備える、請求項21に記載の媒体。
  23. 実行されたとき、装置に、前記向上領域を鮮明にすること、前記向上領域を前記左画像または前記右画像の異なる部分に移動させること、または前記向上領域のカラーを調整することのうちの少なくとも1つを行わせるコードをさらに備える、請求項16に記載の媒体。
  24. 画像を向上させるためのデバイスであって、
    左画像および右画像を記憶するように構成されたメモリユニットであって、前記左画像および前記右画像が、それぞれ、異なる視点からの同じシーンを表現する、メモリユニットと、
    前記左画像および前記右画像を前記メモリユニットから取り出すように構成されたコーダであって、前記コーダが前記左画像と前記右画像との間の空間的な向きの差分に基づいて、深度マップを決定するようにさらに構成された、コーダと、
    前記コーダに結合されたプロセッサであって、前記プロセッサが前記左画像または前記右画像の、ユーザによって選択されている部分を識別するように構成された、プロセッサとを備え、前記プロセッサが、前記ユーザによって選択されている前記部分を取り囲む向上領域を、前記決定された深度マップに基づいて決定するようにさらに構成され、前記プロセッサが、前記向上領域を向上させるようにさらに構成される、
    デバイス。
  25. 前記プロセッサが、前記左画像または前記右画像の、前記ユーザによって選択されていない部分を劣化させるようにさらに構成される、請求項24に記載のデバイス。
  26. 前記プロセッサが、前記左画像または前記右画像の、前記ユーザによって選択されていない前記部分を不鮮明にさせるようにさらに構成される、請求項25に記載のデバイス。
  27. 前記コーダが、
    前記左画像と前記右画像との間の空間的な向きの前記差分に基づいて視差マップを決定することであって、前記左画像および前記右画像の部分の間の空間的な向きの、より大きい差分がより大きい視差を示す、決定することと、
    前記視差マップをアップスケールすることと、
    前記アップスケールされた視差マップに基づいて前記深度マップを決定することと
    を行うようにさらに構成される、請求項24に記載のデバイス。
  28. 前記コーダが、前記左画像の中のブロックと前記右画像の中の対応するブロックとの間の距離を決定するようにさらに構成され、第1のブロックおよび第2のブロックがしきい値内で同一である場合、前記第1のブロックが前記第2のブロックに対応する、請求項27に記載のデバイス。
  29. 前記ユーザによって選択されている前記部分が第1の深度を備え、前記プロセッサが、
    前記左画像または前記右画像の、前記ユーザによって選択されている前記部分から始めて、前記第1の深度のしきい値内の深度を有する前記左画像または前記右画像の連続部分を識別することと、
    前記第1の深度のしきい値内の深度を有しないか、事前設定された境界を表すか、または前記ユーザによって選択されている前記部分からのしきい値距離である、前記左画像または前記右画像の部分が識別されるまで、前記ユーザによって選択されている前記部分を取り囲む前記向上領域のサイズを増大させることと
    を行うようにさらに構成される、請求項24に記載のデバイス。
  30. 前記プロセッサが、前記向上領域を鮮明にすること、前記向上領域を前記左画像または前記右画像の異なる部分に移動させること、または前記向上領域のカラーを調整することのうちの少なくとも1つを行うようにさらに構成される、請求項24に記載のデバイス。
JP2016555588A 2014-03-07 2015-02-23 ステレオビデオのための深度認識向上 Active JP6178017B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/201,261 2014-03-07
US14/201,261 US9552633B2 (en) 2014-03-07 2014-03-07 Depth aware enhancement for stereo video
PCT/US2015/017104 WO2015134222A1 (en) 2014-03-07 2015-02-23 Depth aware enhancement for stereo video

Publications (2)

Publication Number Publication Date
JP2017512440A true JP2017512440A (ja) 2017-05-18
JP6178017B2 JP6178017B2 (ja) 2017-08-09

Family

ID=52630500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016555588A Active JP6178017B2 (ja) 2014-03-07 2015-02-23 ステレオビデオのための深度認識向上

Country Status (6)

Country Link
US (1) US9552633B2 (ja)
EP (1) EP3114643A1 (ja)
JP (1) JP6178017B2 (ja)
KR (1) KR101844705B1 (ja)
CN (1) CN106068527B (ja)
WO (1) WO2015134222A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013562A (ja) * 2018-07-16 2020-01-23 株式会社リコー ビジュアルオドメトリ方法、装置及びコンピュータ読み取り可能な記憶媒体
JP2023008998A (ja) * 2021-07-02 2023-01-19 ビューワークス カンパニー リミテッド ステレオ映像を用いた高深度映像生成方法及び装置、並びに高深度映像生成モデル学習装置{method and apparatus for generating high depth of field image, apparatus for training high depth of field image generation model using stereo image}

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552633B2 (en) * 2014-03-07 2017-01-24 Qualcomm Incorporated Depth aware enhancement for stereo video
US10057593B2 (en) * 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US10171792B2 (en) * 2014-08-15 2019-01-01 The University Of Akron Device and method for three-dimensional video communication
US9772405B2 (en) * 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
US9569692B2 (en) 2014-10-31 2017-02-14 The Nielsen Company (Us), Llc Context-based image recognition for consumer market research
US20160189355A1 (en) * 2014-12-29 2016-06-30 Dell Products, Lp User controls for depth based image editing operations
US20160295194A1 (en) * 2015-03-30 2016-10-06 Ming Shi CO., LTD. Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images
US20180213201A1 (en) * 2015-07-21 2018-07-26 Heptagon Micro Optics Pte. Ltd. Generating a disparity map based on stereo images of a scene
US9761000B2 (en) * 2015-09-18 2017-09-12 Qualcomm Incorporated Systems and methods for non-obstacle area detection
CN105354805B (zh) * 2015-10-26 2020-03-06 京东方科技集团股份有限公司 深度图像的去噪方法和去噪设备
US10451714B2 (en) 2016-12-06 2019-10-22 Sony Corporation Optical micromesh for computerized devices
US10536684B2 (en) * 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
CN109753846A (zh) * 2017-11-03 2019-05-14 北京深鉴智能科技有限公司 目标跟踪硬件实现系统和方法
US10580151B2 (en) * 2017-12-05 2020-03-03 Qualcomm Incorporated Tile-based low-resolution depth storage
JP7106859B2 (ja) * 2017-12-27 2022-07-27 トヨタ自動車株式会社 画像表示装置
TWI719440B (zh) * 2018-04-02 2021-02-21 聯發科技股份有限公司 立體匹配方法及相應立體匹配裝置
EP3550837A1 (en) * 2018-04-06 2019-10-09 Comcast Cable Communications LLC Method for generating quantization matrices based on viewing conditions
US10498948B1 (en) * 2018-06-05 2019-12-03 Applied Materials, Inc. Methods and apparatus for absolute and relative depth measurements using camera focus distance
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
EP3629585A1 (en) * 2018-09-25 2020-04-01 Koninklijke Philips N.V. Image synthesis
CN112771850B (zh) 2018-10-02 2022-05-24 华为技术有限公司 使用3d辅助数据的运动补偿方法、系统以及存储介质
CN109767466B (zh) * 2019-01-10 2021-07-13 深圳看到科技有限公司 画面渲染方法、装置、终端及对应的存储介质
WO2021230646A1 (en) * 2020-05-12 2021-11-18 Samsung Electronics Co., Ltd. System and method for depth map recovery
US11468587B2 (en) 2020-05-12 2022-10-11 Samsung Electronics Co., Ltd. System and method for depth map recovery
WO2022036338A2 (en) * 2021-11-09 2022-02-17 Futurewei Technologies, Inc. System and methods for depth-aware video processing and depth perception enhancement
CN114519710B (zh) * 2022-02-22 2024-07-12 平安科技(深圳)有限公司 视差图生成方法和装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1418766A2 (en) * 1998-08-28 2004-05-12 Imax Corporation Method and apparatus for processing images
EP2634772A1 (en) * 2012-02-28 2013-09-04 BlackBerry Limited Methods and devices for selecting objects in images
EP2638169A1 (en) * 2010-11-09 2013-09-18 Ineos Commercial Services UK Limited Process and apparatus for producing ethylene via preparation of syngas

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
AU2009273297B8 (en) * 2008-07-21 2013-03-07 Interdigital Madison Patent Holdings Coding device for 3D video signals
WO2010012310A1 (en) 2008-07-31 2010-02-04 Tele Atlas B.V. Method of displaying navigation data in 3d
JP5444955B2 (ja) * 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
CN102428501A (zh) * 2009-09-18 2012-04-25 株式会社东芝 图像处理装置
US20100164952A1 (en) * 2010-01-25 2010-07-01 Michael Roderick Stereoscopic image production method and system
WO2011133496A2 (en) 2010-04-21 2011-10-27 Samir Hulyalkar System, method and apparatus for generation, transmission and display of 3d content
JP5556394B2 (ja) * 2010-06-07 2014-07-23 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
US20120008852A1 (en) * 2010-07-07 2012-01-12 Himax Media Solutions, Inc. System and method of enhancing depth of a 3d image
US8406470B2 (en) * 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
US8629901B2 (en) * 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
US9007441B2 (en) 2011-08-04 2015-04-14 Semiconductor Components Industries, Llc Method of depth-based imaging using an automatic trilateral filter for 3D stereo imagers
WO2013081435A1 (ko) * 2011-12-02 2013-06-06 엘지전자 주식회사 3d 영상 표시 장치 및 방법
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US20140043447A1 (en) * 2012-08-09 2014-02-13 Sony Corporation Calibration in the loop
US20140104268A1 (en) * 2012-10-15 2014-04-17 Lenny Lipton Method and apparatus for correcting stereoscopic display edge violations
US9083959B2 (en) * 2013-02-20 2015-07-14 Intel Corporation Real-time automatic conversion of 2-dimensional images or video to 3-dimensional stereo images or video
US9552633B2 (en) * 2014-03-07 2017-01-24 Qualcomm Incorporated Depth aware enhancement for stereo video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1418766A2 (en) * 1998-08-28 2004-05-12 Imax Corporation Method and apparatus for processing images
EP2638169A1 (en) * 2010-11-09 2013-09-18 Ineos Commercial Services UK Limited Process and apparatus for producing ethylene via preparation of syngas
EP2634772A1 (en) * 2012-02-28 2013-09-04 BlackBerry Limited Methods and devices for selecting objects in images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013562A (ja) * 2018-07-16 2020-01-23 株式会社リコー ビジュアルオドメトリ方法、装置及びコンピュータ読み取り可能な記憶媒体
JP2023008998A (ja) * 2021-07-02 2023-01-19 ビューワークス カンパニー リミテッド ステレオ映像を用いた高深度映像生成方法及び装置、並びに高深度映像生成モデル学習装置{method and apparatus for generating high depth of field image, apparatus for training high depth of field image generation model using stereo image}

Also Published As

Publication number Publication date
US9552633B2 (en) 2017-01-24
BR112016020544A8 (pt) 2021-06-15
CN106068527B (zh) 2018-12-04
KR101844705B1 (ko) 2018-04-02
CN106068527A (zh) 2016-11-02
US20150254811A1 (en) 2015-09-10
BR112016020544A2 (pt) 2017-08-15
KR20160130414A (ko) 2016-11-11
WO2015134222A1 (en) 2015-09-11
JP6178017B2 (ja) 2017-08-09
EP3114643A1 (en) 2017-01-11

Similar Documents

Publication Publication Date Title
JP6178017B2 (ja) ステレオビデオのための深度認識向上
KR102431537B1 (ko) 루마 및 크로마 성분에 대한 ibc 전용 버퍼 및 디폴트 값 리프레싱을 사용하는 인코더, 디코더 및 대응하는 방법들
JP2021168479A (ja) デプスマップの推定および更新を用いる効率的なマルチビュー符号化
JP6026534B2 (ja) 深度範囲の変動を伴う動き深度マップのコーディング
KR101773693B1 (ko) 스킵 및 직접 모드들에 대한 3d 비디오 코딩에서의 디스패리티 벡터 유도
JP6312854B2 (ja) 3dビデオコーディングにおけるデルタdc残差コーディングの簡易化
JP6698351B2 (ja) ビュー内でのおよびビューにわたる深度ルックアップテーブルの予測コーディング
TWI539791B (zh) 三維視頻寫碼中導出之視差向量
JP6246919B2 (ja) 深度イントラコーディングのためのウェッジレットパターン拡張
JP6262260B2 (ja) 深度マップイントラコード化のための予測子
JP6396493B2 (ja) 3dビデオコーディングにおける大型予測ブロックのセグメントごとのdcコーディングの簡易化
JP6446488B2 (ja) ビデオデータデコーディング方法及びビデオデータデコーディング装置
JP2015525988A (ja) 3dビデオコーディングのための深度マップのイントラコーディング
JP2017505025A (ja) 3dビデオコーディングにおける深度イントラ予測モードおよび深度インター予測モードのための簡易深度コーディング(sdc)のシグナリング
JP2017512032A (ja) 3dビデオコーディングのための制限付き深度イントラモードコーディング
TWI535273B (zh) 經組態以寫碼視訊資訊之設備及視訊寫碼裝置、編碼及解碼視訊資訊之方法與非暫態電腦可讀媒體
KR20150063126A (ko) 비디오 인코딩 및 디코딩 방법, 장치 및 시스템
CN110754091B (zh) 用于360度视频编码的解块滤波
CN105637766B (zh) 二元分割模式的推导方法及装置
KR20230035453A (ko) 다중 라인 인트라 예측을 위한 인트라 보간 필터
JP6571646B2 (ja) マルチビュービデオのデコード方法及び装置
KR20140124919A (ko) 객체 기반 적응적 밝기 보상 방법 및 장치
RU2809192C2 (ru) Кодер, декодер и соответствующие способы межкадрового предсказания
CN110944177B (zh) 视频解码方法及视频解码器,视频编码方法及视频编码器
BR112016020544B1 (pt) Realce consciente de profundidade para vídeo estéreo

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170316

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170712

R150 Certificate of patent or registration of utility model

Ref document number: 6178017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250