JP5947218B2 - 複数のビデオストリームを結合符号化するための方法および構成 - Google Patents

複数のビデオストリームを結合符号化するための方法および構成 Download PDF

Info

Publication number
JP5947218B2
JP5947218B2 JP2012545263A JP2012545263A JP5947218B2 JP 5947218 B2 JP5947218 B2 JP 5947218B2 JP 2012545263 A JP2012545263 A JP 2012545263A JP 2012545263 A JP2012545263 A JP 2012545263A JP 5947218 B2 JP5947218 B2 JP 5947218B2
Authority
JP
Japan
Prior art keywords
encoded
data
structure data
esd
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012545263A
Other languages
English (en)
Other versions
JP2013515415A (ja
Inventor
マツク,ジヤン−フランソワ
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2013515415A publication Critical patent/JP2013515415A/ja
Application granted granted Critical
Publication of JP5947218B2 publication Critical patent/JP5947218B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Description

本発明は、複数の入力ビデオストリームを結合符号化するための方法に関する。
いくつかの用途では、送信または記憶する前に、いくつかのビデオストリームを同時に圧縮する必要がある。1つの明確な解決策は、各ストリームを独立して符号化することである。大部分の既存の符号器は、多かれ少なかれ、処理の大部分が符号化に関連するシンタックス要素の計算を含んでいる同じ基準のアーキテクチャに従うので、こうすることは、概して非常に処理電力を消費する。大部分の従来の符号器は、受信した入力ビデオデータから、かつこれらの計算された符号化に関連するシンタックス要素から、一連の予測画素ブロックをさらに構成する。これらの予測画素ブロックは次いで処理されるが、一般に、入力ビデオストリームの対応するブロックから予測画素ブロックを減算するステップ、あるいはその反対の減算するステップを含み、それにより一連の残差画素ブロックを得る。処理は、この一連の残差画素ブロックの変換をさらに含み、その後に続いて、符号化に関連するシンタックス要素と組み合わせて量子化およびエントロピー符号化を行い、従来の符号化されたビデオストリームを得る。
このような符号化法は、現在広く普及しているが、符号器が各入力ストリームに対して符号化に関連するシンタックス要素を計算する必要があるため、なお、多くの処理電力を必要とする。これには多くの処理作業が必要になる。特にいくつかの入力ストリームが結合符号化される場合は、この処理作業は、次いで、符号化される入力ストリーム数が掛け算されることになる。
他方で、入力ストリームの全体の組の圧縮効率を最大化する目的で、すべての入力ストリームを結合符号化するなど、代替の符号化機構が開発されてきた。例として、以下でMVCと略記される「マルチビュービデオ符号化(Multiview Video Coding)」拡張が、H.264/AVCビデオ符号化規格のAnnex Hとして最近標準化された。MVCの目的は、これらのビデオストリーム間の類似性を利用することにより、1組の入力ビデオストリームを結合符号化することに良好な圧縮性能を提供することである。その名前が示唆するように、1つの可能な用途は、いくつかのカメラにより取得された所与のシーンのいくつかのビューを符号化することである。これらのカメラ間の距離が短くなればなるほど、複数のビューを結合して圧縮するためにMVCを用いて良好な圧縮が得られるようになる。しかし、MVC手法の欠点は、符号化されたストリーム間に、強い符号化の相互依存性を生ずることである。これは、特に複数の符号化されたストリームのうちの1つのビデオストリームを復号化するためには、ビュー間予測ステップで必要な他のすべてのビューからすべてのデータを同様に復号する必要があるので、復号器側で欠点が生ずる。同様に、所与のビデオストリームを表示することを望む場合、復号器は、MVC符号化法に従って、表示されるストリームが依存するすべての符号化されたストリームを復号する必要がある。
本発明の目的は、符号器側と復号器側の両方で、処理電力をあまり必要としない、複数のビデオストリームを符号化するための代替的な符号化および復号法を述べることである。
本発明によれば、この目的は、複数のビデオストリームを符号化するための方法を提供することにより達成され、前記方法は、前記複数のビデオストリームを受信するステップと、予測画素ブロックの複数のシーケンスを構成するステップと、前記複数のビデオストリームの対応するブロックと共に予測画素ブロックの前記複数のシーケンスの前記予測画素ブロックを処理し、かつエントロピー符号化して、符号化された残差画素データの複数のシーケンスを生成するステップとを含み、予測画素ブロックの前記複数のシーケンスが、前記複数のビデオストリームから生成された符号化構造データから構成され、また符号化された残差画素データの前記複数のシーケンスが、前記複数のビデオストリームの符号化されたデータとして、前記符号化構造データを含む参照データと共に提供される。
この方法では、符号化された残差画素データストリームの複数のシーケンスは、符号化構造データを含む参照データと共に生成されることになる。これは、複数のうちの個々のストリームごとに行われるのではなく、符号化構造データは、1回決定される必要があるに過ぎないので、結合符号化プロセスそれ自体をはるかに容易にする。
実施形態では、前記処理およびエントロピー符号化は、予測画素ブロックの前記複数シーケンスの予測画素ブロックと、前記複数のビデオストリームの対応するブロックとの間の差から、残差画素ブロックの複数のシーケンスを生成して、前記各シーケンスの前記残差画素ブロックを変換し、量子化し、かつエントロピー符号化し、それにより符号化された残差画素データの前記複数のシーケンスを得るステップを含む。
他の実施形態では、前記符号化構造データは、さらにエントロピー符号化されて、前記参照データとして、符号化された符号化構造データを提供する。
符号化構造データは、前記複数のうちの少なくとも1つのビデオストリームから導出された中間ストリームから生成することができる。
この中間ストリームは、例えば、前記複数のうちの少なくとも2つのビデオストリームを平均することにより得ることができるが、それはまた、複数のうちの1つのストリームを選択することでもありうる。
符号化構造データはまた、前記少なくとも2つのビデオストリームに対する符号化判断を解析することにより、かつ前記符号化構造データ中に含まれるように単一の予測選択を選ぶことにより、前記複数のうちの少なくとも2つのビデオストリームから生成することができる。
実施形態では、前記解析は、前記符号化判断を、所定の最適化基準と比較することに基づく。
本発明は、符号化された残差画素データの少なくとも1つのシーケンスを含む少なくとも1つの符号化されたビデオストリームと、入力符号化構造データを含む参照データとを復号するための方法についても同様に関係しており、前記方法は、符号化された残差画素データの複数のシーケンス、および前記入力符号化構造データを含む前記参照データの複数のシーケンスを受信するステップと、前記少なくとも1つの符号化されたビデオストリームに関する符号化された残差画素データの少なくとも1つのシーケンス、および前記符号化構造データを含む前記参照データを選択して、前記符号化構造データと共に前記少なくとも1つの符号化されたビデオストリームに関する符号化された残差画素データの前記少なくとも1つのシーケンスをエントロピー符号化し、かつ処理し、少なくとも1つの復号されたビデオストリームとして、復号された画素ブロックの少なくとも1つのシーケンスを提供するステップを含む。
この方法では、符号化構造データを含む参照ストリームと共に、このような複数の符号化された残差画素ブロックを受信する復号器は、復号されるビデオに関する参照ストリームと、符号化された残差画素データの適切なシーケンスとを選択する必要があるだけである。復号または再構成は、例えば、最終的に復号された画素ブロックが得られる予測構成を含む、エントロピー復号および処理のステップを行うことにより、比較的簡単に行うことができる。いくつかのビデオストリームが復号される必要がある場合、本方法の実施形態は、符号化構造が、復号されるすべてのストリームに対して同じであり、かつ例えば、予測構成などを含む処理が、同じ演算を、各ストリームの一部である復号された残差画素ブロックに適用することを示唆することができるので、より興味深いものとなる。これらの処理ステップは、復号されるすべてのストリームに対して同じであるため、それらは、例えば、SIMDと略記される単一命令多重データ処理(Single Instruction、 Multiple Data)手法を用いて、並列実装で効率的に実行することができる。同じ符号構造がすべてのストリームにより共用され、かつ予測構成が結合並列処理で効率的に実施されうるので、いくつかの符号化されたストリームを結合復号するためのはるかに簡単な復号器が、それにより得られる。
実施形態では、前記少なくとも1つの符号化されたビデオストリームに関する符号化された残差画素データの前記少なくとも1つのシーケンスが、逆量子化および逆変換を受けて、それにより、復号された残差画素ブロックの少なくとも1つのシーケンスを取得し、画素ブロックの少なくとも1つの予測が、前記符号化構造データから、かつバッファされた画素ブロックから構成され、前記少なくとも1つの復号された残差画素ブロックと組み合わされて、それにより復号された画素ブロックの前記少なくとも1つのシーケンスを取得する。
他の変形形態では、前記符号化構造データは、前記参照入力データから抽出され符号化された符号化構造データをエントロピー復号することにより、前記参照データから導出される。
本発明は、同様に、主題の方法を実施するための符号器および復号器に関する。
さらなる実施形態は、添付の特許請求の範囲で述べられる。
本特許請求の範囲で使用される用語「結合された(coupled)」は、直接接続だけに限定されるものと解釈されるべきではないことに留意されたい。したがって、「装置Bに結合された装置A」という表現の範囲は、装置Aの出力が、装置Bの入力に直接的に接続される装置またはシステムに限定されるべきではない。それは、Aの出力とBの入力の間に経路が存在し、その経路は、他の装置または手段を含むものでありうることを意味する。特許請求の範囲で使用される「備える/含む(comprising)」という用語は、その後に列挙される手段に限定されるものと解釈されるべきではないことに留意されたい。したがって、「手段AおよびBを備える装置」という表現の範囲は、構成要素AおよびBだけからなる装置に限定されるべきではない。それは、本発明に対して単に関連するだけの装置の構成要素がAとBであることを意味する。
添付の図面と併せて実施形態の以下の記述を参照することにより、本発明の上記の、また他の目的および特徴がさらに明らかとなり、本発明それ自体を最もよく理解するようになろう。
従来技術の符号器の実施形態の基本的な方式を示す図である。 従来技術のMVC符号器の基本的な実施形態を示す図である。 結合符号器、中間ノード、および個々の、もしくは結合復号器を備えるエンドツーエンドの符号化および送信方式を示す図である。 伝統的なAVCおよびMVCの従来技術手法、および本発明による実施形態に従う手法を用いて得られた符号化の相互依存性の概要を示す図である。 本発明による結合符号器の第1の実施形態JE1を示す図である。 図3aの結合符号器JE1の第1の実施形態に含まれる単一のビデオ符号器モジュールE1の実施形態を示す図である。 本発明による結合符号器の第2の実施形態JE2を示す図である。 図3cの結合符号器JE2の第2の実施形態に含まれる他の単一のビデオ符号器モジュールE2の実施形態を示す図である。 本発明による結合符号器の第3の実施形態JE3を示す図である。 本発明による結合符号器の第4の実施形態JE4を示す図である。 図5aの「結合符号化の判断を行う」モジュールJEDの第1の実施形態JED1の細部を示す図である。 図5aの「結合符号化の判断を行う」モジュールJEDの第2の実施形態JED2の細部を示す図である。 本発明による復号器JD1の第1の実施形態を示す図である。 本発明による復号器JD2の第2の実施形態を示す図である。
以下のものは、単に本発明の原理を説明しているに過ぎないことに留意されたい。したがって、当業者であれば、本明細書で明示的に記述または示されていないが、本発明の原理を実施する様々な構成を考案できることが理解されよう。本明細書に記載されたすべての例、および条件付き言語は、主として、読者が本発明の原理と、本発明者により本技術を促進することに寄与する概念とを理解するのを支援する教育目的のために過ぎないことが明確に意図されており、またこのように具体的に記述された例および条件に限定されるものではないと解釈されるべきである。さらに、本発明の原理、態様、および実施形態を記載する本明細書のすべての記述、ならびにその特有の例は、その構造的および機能的に均等物を共に包含することが意図されている。さらにこのような均等物は、現在知られている均等物と、将来開発される均等物、すなわち、構造に関係なく同じ機能を行うように開発された要素とを共に含むことが意図される。
本明細書のどのブロック図も、本発明の原理を実施する例示的な回路の概念図を表していることを当業者であれば理解すべきである。同様に、どのフローチャート、流れ図、状態遷移図、図、疑似コード、および同様のものは、このようなコンピュータまたはプロセッサが明示的に示されているかどうかにかかわらず、コンピュータ可読媒体中で実質的に表すことができ、かつそのようにコンピュータまたはプロセッサにより実行されうる様々なプロセスを表していることが理解されよう。
この文書を通して、「入力ビデオストリーム」、および「出力ビデオストリーム」という表記は、実際のストリーミングビデオの形態を有することができるが、(記憶された)データファイル、またはそれらの任意の組合せにも関係しうる入力および出力データを指すことも理解すべきである。したがって、本記述で述べられる本実施形態は、これらのビデオデータのオンラインとオフラインの符号化の両方、およびその任意の組合せを指す。
多くの用途では、画素単位で完全に同一ではないが同じコンテンツを表すいくつかのビデオストリームは、送信または記憶される前に同時に圧縮される、または符号化されることが必要である。典型的な例は、しばしば、マルチビュービデオとして示される、互いに近接して位置するいくつかのカメラを用いてシーンを取り込むときに得られる1組のビデオストリームである。これらの用途の場合、カメラから最大の距離に存在する対象物に対応するシーンの部分に、通常、類似性が生ずる。これらの対象物の場合、異なるカメラ間の不一致は、通常、最小である。例えば、これらの変形形態に対して適用される色値、照度値などに関して異なる後処理を行うために、または各バージョンが特有の透かしを有しているためになど互いにわずかに異なる、同じビデオコンテンツのいくつかの変形形態を同時に符号化することを望む場合、この状況がさらに生ずる可能性がある。
従来技術の解決策は、これらの入力ビデオストリームのそれぞれを別個に符号化し、それにより、符号化される各ビデオストリームに対して、図1aで示すものなど、標準の符号器を使用する。この図1aは、典型的なビデオ符号器ETの主要な構成要素を示している。符号化プロセスそれ自体は標準化されていないが、大部分の既存の符号器は、同じ基準アーキテクチャに従っており、その場合、処理の大部分は、通常、ビットレートまたは品質による一定の制約下で最良の圧縮を行う符号化に関連するシンタックス要素を計算することを含む。これらのシンタックス要素は、符号化される入力ビデオストリームから計算される。このような入力ビデオストリームは、画素の色値などの画素ビデオデータ、ならびに何らかのさらなる入力データを含むことができる。後者は、例えば、画素の幅および高さで表されるフレームサイズ、フレームレート、色空間、クロマサンプリングのタイプなどを含むことができる。この入力ビデオストリームは、一方で、これらの符号化判断を行うように構成されたブロックへと転送され、それは、シーケンスおよびピクチャのパラメータセットなどのデータ、スライス、およびマクロブロックヘッダ、ならびにビデオのすでに復号された部分に基づいて、画素データのイントラ予測およびインター予測をどのように構成すべきかを復号器に後に説明するすべての情報を通常含む、これらの符号化に関連するシンタックス要素を生成する。例として、H.264符号化規格を用いると、その中で規定されたカテゴリ2のシンタックス要素は、おそらく、シーケンス、ピクチャのパラメータセットに対する、カテゴリ0、1のシンタックス要素など、いわゆる非VCL NALユニットの何らかの他のシンタックス要素と併せて、このような符号化に関連するシンタックス要素に対応するものと考えることができる。
この特許出願で述べられるいくつかの実施形態をよく理解できるようにするために、データを区分する機能を有するこのH.264符号化規格の簡単な説明を以下で行う。
このH.264符号化規格によれば、各ビデオフレームは、マクロブロックレベルに分割され、かつ符号化されるが、各マクロブロックは、画素の16×16ブロックである。
並列化またはエラー耐性を可能にするために、マクロブロックは、一緒にグループ化してスライスにすることができる。各マクロブロックに対して、符号化されたビットストリームは、第1に、すでに復号されたマクロブロックに基づき、そのマクロブロックの予測をどのように計算すべきかを復号器に送信するデータを含み、第2に、復号され、予測に加えられてマクロブロックの画素値が再構成される残差データを含む。各マクロブロックは、マクロブロックの予測が、現在のスライス中で再構成されたマクロブロックに基づいて形成される「イントラ予測」モードで、または参照フレームと呼ばれるすでに復号されたフレーム中の画素のブロックに基づいてマクロブロックの予測が形成される「インター予測」モードで符号化される。イントラ予測符号化モードは、現在のスライス内で空間予測を適用するが、その場合、前に符号化され、復号され、かつ再構成された現在のスライス中の隣接するサンプルから、符号化されるマクロブロックが予測される。イントラ予測モードで符号化されるマクロブロックは、Iタイプのマクロブロックと呼ばれる。インター予測符号化モードは、符号化されるマクロブロックが、前の、かつ/または将来の参照フレーム中のサンプルから予測される時間予測に基づく。インター予測モードで符号化されたマクロブロックは、各サブブロックが、単一の参照フレームから予測された場合、Pタイプのマクロブロックであり、あるいは各サブブロックが、1つまたは2つの参照フレームから予測された場合、Bタイプのマクロブロックとすることができる。
デフォルトのH.264の挙動は、ラスター走査の順序(すなわち、左から右への走査線)でマクロブロックをスライスへとグループ化することである。しかし、H.264規格は、以降ではFMOと略記されるフレキシブルなマクロブロックの順序付け(flexible macroblock ordering)と呼ばれる他の機能をさらに導入した。FMOは、ビデオフレームを複数のスライスグループへと区分し、その場合、各スライスグループは、場合によっては順不動の位置にあり、かつフレーム中のどこにでも存在できる1組のマクロブロックを含む。
移送に関しては、各スライスは、デフォルトモードを用いて、以降ではNALと略記される1つのネットワーク抽象化層(network abstraction layer)ユニット内で移送されうる。しかし、H.264/AVC規格はさらに、スライスの移送中のエラー耐性を向上するために、いくつかのNALユニットにわたって各スライスのデータを区分するさらなる機能を述べている。
いくつかの区分にわたって1つのスライスのデータを区分するこの機能によれば、1つのスライスの符号化されたコンテンツは、3NALユニットにわたって分散されることになる。すなわち、NALユニット区分A、NALユニット区分B、およびNALユニット区分Cである。規格によれば、NALユニット区分Aは、そのスライスのカテゴリ2のシンタックス要素を含むことになり、残差データではないすべてのスライスに関連するシンタックス要素を表す。これらのカテゴリ2のシンタックス要素は、イントラ符号化されたマクロブロック、インター符号化されたマクロブロックに対する、イントラ予測モード、動きベクトルを含むスライスヘッダ、およびスライス内の各マクロブロックに対するヘッダデータを含む。NALユニット区分Bは、カテゴリ3のシンタックス要素を含むことになるが、それは、イントラ予測符号化が使用された場合、考慮中のスライスのマクロブロックのイントラ符号化された残差データであり、またNALユニット区分Cは、カテゴリ4のシンタックス要素を含むことになるが、それは、このタイプの符号化が使用された場合、インター符号化された残差データである。
図1aに戻ると、入力ビデオはまた、いくつかのモジュールへと転送され、モジュールは共に、入力ビデオストリームの対応するブロックと併せて、予測画素ブロックを処理するように構成されている。図1aの実施形態では、第1のモジュールは、予測構成ブロックにより提供される予測画素ブロックを、入力ビデオからの対応する画素ブロックから減算するように構成されており、その逆も同様である。得られた残差画素ブロックは、次いで、さらに変換され、量子化される。他の実施形態では、それらには、フィルタリング演算を行うことができる。H.264で得られる残差画素データは、カテゴリ3および4のシンタックス要素に対応する。それらには、H.264のカテゴリ2のシンタックス要素など、関連するシンタックス要素と共に、組み合わせたエントロピー符号化を受けることになる。組み合わせたエントロピー符号化は、図1aで示すものなど、最初にエントロピー符号化を行い、その後に組合せステップを行うことができるが、あるいは逆に、データをエントロピー符号化する前にそれらをまず組み合わせることにより実施できることに留意されたい。「エントロピー符号化」は、例えば、イントラ予測モード、または動きベクトルなどの予測符号化、ならびに規格で指定されている可変長符号化(Exp−Golomb、CAVLC)、または算術符号化(CABAC)ステップを含む、シンタックス要素を圧縮するために適用される1組の演算を含むものとして理解されるべきである。
大部分の従来の符号器では、ブロックの変換および量子化の計算は、前方(forward)で行われるが、通常、逆方向のフィードバックステップも存在する。これらのフィードバックステップは、通常、復号器が予測を行うものと同じ復号フレームの組を用いることを確認するために追加される。このような符号器は、これらのフィードバックステップが存在しない「開ループ」符号器とは反対の「閉ループ」符号器と呼ばれる。他方で、符号器間の主微分器は、符号化に関連するシンタックス要素を規定する途中に存在しており、フレームのタイプ、スライス、イントラ予測対インター予測の選択、イントラ予測モードと動きベクトル計算の選択を行うことを示唆する。これらのステップは、したがって、概して「符号化判断を行う」ブロック内で行われ、また通常、復号器に対して符号器に大幅なさらなる複雑さを加える。
上記で述べたように、複数のビデオストリームの符号化は、符号化すべき各ビデオシーケンスに対して、このような最新の符号器を用いてこれらの個々のビデオストリームを別個に符号化することにより達成することができる。しかし、これは多くの処理作業を必要とする。
代替的なMVC符号化が、圧縮を向上させるために導入されており、それは、現在のH.264/AVC規格に関して提案された拡張である。図1bで概略的に示すように、MVC符号器は、図1aのものなど、通常のH.264/AVC符号器ETに存在するものと同様の構成要素を再使用することにより実施することができる。MVCでは、複数の入力ビデオからのビデオフレームの全体の組は、ビデオフレームの単一のシーケンスとして見なされ、フレームの再順序付けステップが、通常のH.264/AVC符号化の前に行われる。複数の入力を結合符号化するこのMVC法は、したがって、符号化の相互依存性を生ずる。これは、ビデオシーンが、各ビデオストリームのビュー1、ビュー2、およびビュー3を生成する3つのカメラで取り込まれた場合の以下の例により理解することができる。3つのビューを共に効率よく圧縮または符号化するために、典型的なMVC符号化構造は、ビュー1を、標準のH.264/AVCフレーム間予測機構を用いて、通常の(単一の)ビデオストリームとして符号化し、ビュー2を、ビュー2内の標準のフレーム間予測と組み合わせて、ビュー1からの予測画素ブロックを用いて符号化し、かつビュー3を、ビュー3内の標準のフレーム間予測と組み合わせて、ビュー1およびビュー2からの予測を用いて符号化することになり、それを図2b(I)で示しており、各矢印は、参照として使用されるフレームから出て、フレーム間予測のためにその参照フレームを使用するフレームを指している。したがって、ビュー2を復号するためには、ビュー1およびビュー2に関するデータが、復号器に送信される必要がある。ビュー3を復号するためには、ビュー1、ビュー2、およびビュー3に関するデータが復号器に送信されなくてはならない。したがって、単一のビュー、またはビデオストリームを表示するために必要なデータおよび処理資源は、どのビューが要求されるかに応じて大きく異なる可能性がある。
したがって、MVCは圧縮効率を向上させることができるが、それは、なお、計算量が非常に大きくなるという欠点を有する。
図2b(II)は、通常のH.264/AVC符号器を用いてビューを別個に符号化するための相互依存性を示している。この場合、3つの符号化されたビューは、符号化の相互依存性を示していないが、前に述べたように、各ビューは、別個に圧縮される必要があり、計算作業が増加するという欠点がある。
従来技術の方法のこれらの欠点は、本発明による結合符号器および復号器の実施形態により克服される。任意選択の中間ノードIMを介していくつかの復号器JDおよびJD’に結合されたこのような結合符号器JEの高レベルの方式が図2aで示されている。この実施形態では、3つのビデオ入力ストリームIV1からIV3が、結合符号器JEに供給される。これは、共通の符号化構造データをそこから抽出するように構成される。これは、任意選択でエントロピー符号化され、かつ符号化された、または符号化されない符号化構造データとして提供することができ、参照データIREFに含まれて、この結合符号器JEのOUTREFで示される参照出力に提供される。結合符号器JEは、入力ビデオストリームのそれぞれに対して、符号化された残差画素データのシーケンスを決定するようにもさらに構成される。符号化された残差画素データのこれらのシーケンスは、それぞれ、IV1に対してERPD1、IV2に対してERPD2、およびIV3に対してERPD3で示される。この実施形態では、これらのデータはまた、各出力端子OUT1、OUT2、およびOUT3で、別個の出力ストリームまたはデータとして供給される。しかし、他の実施形態では、これらの各出力データは、多重化または時分割する方法で送達することができ、したがって、それらは、1つの出力端子だけで供給することができる。その場合、任意選択の中間ノードは、そこから適切なものを抽出し、おそらく、1つのストリームへと再度組み合わせて正しい宛先へと転送する必要がある。このような中間ノードで行われるデータを抽出し、さらにデータをカプセル化し、かつ再送信するプロセスは当業者にはよく知られており、したがって、これ以上説明しないものとする。
中間ノードIMは、したがって、その宛先にさらに転送するために、適切なデータを識別し、かつ抽出するようにさらに構成される。これは、複数の符号化された残差データストリームをフィルタすることにより、かつ図2aの2つの復号器JDおよびJD’であるその最終的な宛先にさらに送信するために、必要なビデオデータをトランスポートストリームへとカプセル化することにより行うことができる。この図2sでは、復号器JD’は、第3のビデオIV3の符号化データを受信することが必要であるに過ぎず、したがって、中間ノードIMは、このビューに関する符号化された残差画素データERPD3を有する参照データだけを抽出し、これを共通の参照データIREFと結合復号器JD’に提供することになる。この復号器は、これらの入力データに基づいて第3のビデオストリームを復号することができる。復号されたビデオストリームは、DV3で示され、出力端子DOUTに提供される。
復号器JDは、第1および第2のビデオストリームの符号化データを受信するように構成され、また中間ノードは、したがって、参照符号化構造データIREFと共に、IV1およびIV2の符号化された残差画素データERPD1およびERPD2を提供することになる。この符号器JDでは、すべてのこの情報は、元のビデオストリームIV1およびIV2を可能な限り良好に再構成する目的で、正しく復号されたビデオデータを得るためなど、復号するために使用されることになる。復号ストリームは、DV1およびDV2で示され、また各出力端子DOUT1およびDOUT2に提供される。中間ノードが存在しない場合、すべての符号化された残差画素データは、直接送信され、復号器に送信されうることに留意されたい。その場合、このような復号器は、入力データから、参照符号化構造データ、ならびに復号される必要のあるビデオに関する符号化された残差画素データを抽出するように構成される。復号または再構成は、最終的に復号された画素ブロックになる予測構成を通常含むエントロピー復号および処理のステップを行うことにより、比較的容易に行うことができる。符号化構造は、復号されるすべてのストリームに対して同じであるので、予測構成は、同じ演算を、各ストリームのすでに復号された部分に適用することにある。これらの処理ステップは、復号されるすべてのストリームに対して同じであるので、それらは、例えば、SIMDと略記される単一命令複数データ手法を使用して、並列実装で効率的に実行することができる。したがって、同じ符号化構造がすべてのストリームにより共用され、かつ予測構成が結合並列プロセスで効率的に実施できるので、いくつかの符号化されたストリームを結合復号する非常に簡単な復号器が得られる。
すべてのビューが、共通の符号化構造IREFから符号化されることになるので、符号化されたビュー間で生じた相互依存性は、図2b(III)で示すように簡単なままである。
このような結合符号器と、これらの結合符号器により符号化された符号化ビデオストリームを復号するように構成された復号器とのいくつかの実施形態を次に述べるものとする。
図3aで示されている結合符号器JE1の第1の実施形態は、IV1およびIV2で示される2つの入力ビデオストリームを、各入力端子IN1およびIN2で受信するように構成されている。符号化構造データESDは、中間的な参照ストリームとして選択された両方のビデオストリームの一方をまず従来方法で符号化することにより決定される。この選択は、Sで示される選択モジュールで行われる。この選択はいくつかの方法で行うことができる。例えば、入力ストリームの1つを、中間ストリームとしてランダムに選択することができる。代替的には、入力ストリームは、何らかの特定の基準に従って、またはヒューリスティックな方法で選択することができる。これらの基準は、すべての入力ストリームからの平均画素値ストリームの計算に基づくことができ、したがって、この平均ストリームを最もよく近似する入力ストリームを、中間ストリームとして選択することができる。この選択/近似は、例えば、PSNRまたはSSIM値を用いる何らかのメトリックに基づくこともできる。あるシーンのマルチビュービデオの捕捉に対応する入力ストリームの場合、例えば、カメラが直線的に位置合せされている場合の中間ビューなど最も中心のビューに最もよく一致するストリームは、中間ストリームとして選択することができる。互いに関する制御パラメータのいくつかの値を用いて、わずかに異なる画像フィルタリングを適用することにより得られた入力ストリームの場合、中央の制御パラメータ値に対応するストリーム、または入力ストリームを作成するために使用されるすべての制御パラメータ値の平均の最も近くにある制御パラメータ値に対応するストリームを選択することができる。このようなフィルタリングは、例えば、色変更、照度、コントラスト、不鮮明化などのために異なる値を適用することを含むことができ、その場合、制御パラメータを変えることは、したがって、この色変更、または照度、またはコントラストを指す。この制御パラメータの平均値を計算すること、次いで、この平均値に最もよく一致するストリームを選択することは、中間ストリームを得ることになる。
代替的には、得られた符号化構造が、入力ストリームの全体的な圧縮に対して、最もよい平均の圧縮率−歪み(rate−distortion)性能を提供する入力ビデオがさらに選択されて、参照ストリームになることができる。
当業者は、前述の選択手順を実現するための詳細な実施形態を生成することに適応している。したがって、図3aで示されたものなど、このような選択モジュールSの詳細な実施形態は、これ以上詳細に述べないものとする。
図3aで示された結合符号器の実施形態JE1では、第1のビデオストリームが中間ストリームとして選択され、図3aの選択モジュールSのSREF出力端子上に供給される。この中間ストリームは、次いで、例えば、図1aで示されたものなど、従来の符号器ETにより従来方法で符号化される。EV1Tで示される符号化されたストリームは、符号化データをエントロピー復号するためにエントロピー復号器にさらに送信されて、フィルタが、その後に、構文解析または解析を行うことができ、符号化構造それ自体に関するすべてのシンタックス要素を抽出することができる。こうすることは、符号化構造データESD1を、残差画素データRPD1から分離することを可能にする。解析は、概して、フィルタ演算それ自体の一部であるが、また何らかの専用モジュールにより実施することもできる。このフィルタリング演算の結果は、一方で符号化構造データもしくはストリームESD1であり、他方では、RPD1で示される残差画素データである。ESD1は次いで、モジュールE1などで示される符号器モジュールの実施形態に対する入力参照データとして使用することができ、またそれは、同一出願人および発明者による、「method and arrangement for video coding」で示される同時係属の特許出願の主題である符号器と強い類似性を示している。
この符号器モジュールの実施形態E1は、図3bで示されている。この実施形態は、入力ビデオストリームを受信するための第1の入力端子INE1を含み、それは、したがって、実際のストリームとすることができるが、また前に説明したように、記憶されたファイルとすることもできる。図3a−bの実施形態では、この入力ビデオはIV2である。この実施形態E1は、PPB2で示される一連の予測画素ブロックを構成し、かつその予測画素ブロックから、および到来するビデオストリームIV2の対応するブロックから、RPB2で示される一連の残差画素ブロックを生成するようにさらに構成される。従来技術の符号器との差は、この実施形態E1は、現在、フィルタにより提供されたESD1などの符号化構造データを含む参照データを受信するために、INRefで示されるさらなる入力端子を備えていることである。この入力符号化構造データESD1は、次に、IV2の予測画素ブロックの構成のために使用される。こうすることは、前に述べた図1aの従来技術の符号器ETのものと比較して、はるかに複雑さの低いE1が得られる。符号化構造は、予測画素ブロックがそれに基づいて構成されるさらなる入力として使用されるので、従来技術の「符号化判断を行う」ブロックで実施されるビデオシーケンスの詳細な解析はこれ以上必要がない。E1により行われる符号化プロセスの複雑さは、それにより大幅に低減される。
残差画素ブロックRPB2は、従来技術の符号器と同様に名付けられたモジュールで実施される図3bの実施形態で変換、量子化、およびエントロピー符号化がさらに行われて、ERPD2で示される符号化された残差画素データを得る。しかし、他の実施形態では、すべての処理は、単一のプロセッサで行うことができ、したがって、様々なモジュール間に明確な区別はない。
符号化された残差画素データERPD2は、図3bのモジュールE1の第1の出力端子OUTE1に出力データとして送信される。この実施形態では、符号化構造データESD1は、参照出力端子OUTrefE1に符号化された符号化構造EESD1を提供するためなど、さらにエントロピー符号化される。
図3aに戻って参照すると、フィルタにより提供される残差画素データRPD1は、同様に名付けられたモジュールで再度エントロピー符号化される。符号化された残差画素データERPD1は、結合符号器JE1の第1の出力端子OUT1に送信される。第2の入力ビデオのIV2の、またE1により提供される符号化された残差画素データERPD2は、この結合符号器JE1の第2の出力端子OUT2にさらに提供される。符号化された符号化構造データEESD1は、この結合符号器JE1の参照出力端子OUTREF上に参照データIREFとして送信される。
他の代替的な実施形態JE2が図3cで示される。この実施形態では、第1の入力ビデオストリームが、従来方法で符号化される中間ストリームとして、選択モジュールSにより再度選択される。従来の符号化は、ここでは、NALユニット区分を有するH.264規格に従うものであり、1つのスライスの符号化されたコンテンツは、3つのNALユニット、すなわち、NALユニット区分A、NALユニット区分B、およびNALユニット区分Cにわたって分散されることを意味する。規格によれば、NALユニット区分Aは、そのスライスのカテゴリ2のシンタックス要素を含むことになり、残差データではなく、符号化構造データに関係するすべてのスライスに関連するシンタックス要素を表す。これらのカテゴリ2のシンタックス要素は、イントラ符号化されたマクロブロック、およびインター符号化されたマクロブロックなど対する、イントラ予測モード、および動きベクトルを含む、スライス内の各マクロブロックに対するスライスヘッダおよびヘッダデータを含む。NALユニット区分Bは、カテゴリ3のシンタックス要素を含むことになり、それは、イントラ予測符号化が使用された場合、考慮中のスライスのマクロブロックのイントラ符号化された残差データであり、またNALユニット区分Cは、カテゴリ4のシンタックス要素を含むことになり、それは、このタイプの符号化が使用された場合、インター符号化された残差データである。この従来の符号器は、ETHで示され、また符号化された中間ストリームは、EV1Hhで示される。これはNALユニットへの区分を含むので、フィルタは符号化された符号化構造データEESD1を含むNALユニット区分Aを、符号化された残差データERPD1を含む他の区分BおよびCから容易に分離することができる。区分は共に、結合符号器JE2の第1の出力端子OUT1に、符号化された残差画素データERPD1として容易に提供することができる。
EESD1は、他の単一のビデオ符号器モジュールE2への入力データとして働くことになり、それは、参照入力としてEESD1を用いて、EV2の残差画素データを決定するようにさらに構成される。このモジュールE2の実施形態は、図3dでより詳細に示されている。この実施形態は、図3bで示されたE1とは、符号化されない構造データに代えて、参照データIREFとして、符号化された符号化構造データを受信するように構成された点でのみ異なる。したがって、E2は、符号化されない符号化構造データESD1をEESD1から決定するように構成されたエントロピー復号器ED1をさらに備える。この符号化構造データは、IV2に対する残差画素データRPD2を決定するために、符号器E1が実施するものと同様の方法で使用されることになる。これらはさらに処理され、エントロピー符号化されて、符号化された残差画素データERPD2が得られ、出力端子OUTE2に提供される。結合符号器JE2には、出力参照端子OUTREF上で参照データIREFとしてすでにEESD1が提供されているので、E2でESD1を再度エントロピー符号化する必要はない。しかし、異なる結合符号器では、E2のこのような変形形態を含むことができ、その場合、ESDは、再度エントロピー符号化されて、JE2の出力端子に提供される。
このような結合符号器は、したがって、例えば、ステレオ−ビデオ、またはマルチビュー−ビデオの圧縮に対して特に有用である。例えば、立体視ベースの3Dビデオ、または自由視点ビデオを用いる用途では、通常、何らかのオブジェクトまたはシーンのいくつかのビューを取り込む必要がある。例えば、立体視では、2つのビデオは、通常、互いに非常に近接している。広範囲の視点にわたる複数のビデオストリームを取り込むとき、様々なストリームは、通常、互いに近接する視点を有するストリームのクラスタにグループ化することができる。近接した視点を有する2つ以上のビデオストリームを記憶し、または送信するために、従来技術の方法は、様々なビューを独立して圧縮し、かつ記憶し/送信することになる。この従来技術の場合、複雑さおよび記憶/送信コストは、符号化するビューの数と共に直線的に増加することになる。この結合符号器JE1およびJE2は代替形態を提供し、ビデオストリームの1つだけをまず符号化し、さらに例えば、JE2におけるように、NALユニットの区分を有するH.264規格符号化法を用いて符号化する場合、得られたストリームの区分Aに関係する符号化構造を再使用して、他の同様のビデオストリームを効率的に符号化する。こうすることは、後者のストリームに対する符号化の複雑さを激減させ、この符号化規格が従来の符号器で使用される場合、すべてのストリームは、記憶/送信媒体上の同じ区分Aを共用することが可能になる。
図4で示す結合符号器の第3の実施形態JE3では、共通の符号化構造データEESDが、すべての、またはいくつかの入力ストリームから得られた、ISで示される中間ストリームから作成される。これは、やはりいくつかの方法で行うことができる。例えば、すべての入力ストリームのすべての画素値を平均することにより、または用途に応じた一定の基準を満たすストリームを平均するだけで、またはさらに、入力ストリームの全体的な圧縮に対する圧縮率−歪み性能を最適化する、ストリームの画素データに対する他の操作による。
この実施形態JE3では、この中間ストリームISは、画素レベルで入力ストリームを平均化することにより作成されるが、そのステップでは再度、例えば、規格H.264符号化など、従来の符号化がこの中間ストリームに対して適用される。従来の符号器は、再度、ETHで指定される。その結果の符号化された中間ストリームは、EISThで示される。この符号化されたストリームは、次いで、区分Aをフィルタするために再度フィルタされうるが、それは、これだけが入力ビデオストリームIV1およびIV2の符号化中にさらに必要になるからである。符号化構造データEESDを含む区分Aは、次いで、結合符号器JE3の参照出力端子OUTREF上に参照データIREFとして送信され、またJE3内に含まれる2つの単一の符号器モジュールE2でさらに使用される。これらの単一の符号器モジュールE2の動作は、図3dを参照して以前の段落で述べられている。
図4で左端の符号器モジュールE2は、したがって、IV1およびEEDSを受信し、またIV1に対する符号化された残差画素データERPD1をそこから生成するように構成される。右端の符号器モジュールE2は、IV2およびEESDを受信するように構成され、またIV2に対する符号化された残差画素データERPD2をそこから生成するように構成される。ERPD1、ERPD2、およびEESDは、JE3の各出力端子OUT1、OUT2、およびOUTREF上に送信される。
図5aで示されている結合符号器JE4のさらに他の実施形態では、符号化構造データは、符号化アルゴリズムを共にすべての入力ストリームに適用することにより、入力ストリームIV1とIV2の両方から決定される。この結合符号器JE4のアーキテクチャは、図1aの最新の符号器ETといくつかの類似性を示しているが、主な差異は、「符号化判断を行う」ブロックJEDにあり、それは、ここでは、単一の結合符号化構造データストリームJESDを出力するためになど、複数の入力ビデオストリーム、ならびにすべてのストリームのバッファされた画素データを共に処理するように構成されている。しかし、単一の結合符号化構造データストリームが、バッファされた画素データをさらに考慮することなく、2つ以上の入力ビデオストリームだけから導出される他の実施形態も可能である。
この結合符号化構造は、次いで、IV1およびIV2に対して、それぞれ、一連の予測画素ブロックPPB1およびPPB2を構成するために、結合符号器JE4内でさらに使用される。残差画素ブロックRPB1およびRPB2の各シーケンスは、予測画素ブロックPPB1およびPPB2のこれらの各シーケンスと、各入力ビデオストリームIV2およびIV1からの対応するブロックとの間の差から生成されることになる。残差画素ブロックのこれらの各シーケンスは、次いで、例えば、変換され、量子化されるなどさらに処理されて、量子化された残差画素データQRPD1およびQRPD2の各シーケンスを取得し、それは、この結合符号器JE4の各出力端子OUT1およびOUT2に提供されるERPD1およびERPD2で示される符号化された残差画素データの各シーケンスを取得するためになど、その後にエントロピー符号化さる。符号化構造データJESDはまた、この実施形態では、符号化された符号化構造データEJESDとして送達される前にエントロピー符号化ステップを受けることになるが、EJESDは、結合符号器JE4の参照出力端子OUTREF上で参照データIREFとして提供される。
このような「結合符号化の判断を行う」ブロックJEDの2つの実施形態が、次に図5bおよび5cを参照して述べられる。多くの他のものも可能であることに留意されたい。
図5bで示す第1の実施形態JED1は、IV1に対する「符号化判断を行う1」、およびIV2に対する「符号化判断を行う2」で示された、いくつかの知られた「単一の符号化判断を行う」ブロックを備える。これらのものは、各入力ビデオストリームIV1およびIV2、ならびに各バッファされた画素データ1およびバッファされた画素データ2からESD1およびESD2で示される符号化構造データを独立して構成するように構成される。得られた符号化構造データESD1およびESD2は、次いで、その結合符号化性能に関して、すべての入力ビデオストリームIV1およびIV2と比較される。この比較は、スライスの粒度(granularity)レベルで行うことができる。しかし、当業者であれば、これを、さらにマクロブロックで、またはフレームレベルでなど、他の粒度レベルに一般化することもできる。
結合符号化データ構造JESDは、独立して計算された符号化構造データESD1およびESD2ごとに、ESD1およびESD2に固有の対応する予測および残差量子化ステップを、入力ビデオIV1とIV2の両方に対するその特定のスライスに適用することにより、スライスレベルで計算することができる。次いで、この特定の符号化構造データESD1、ESD2結合性能が、何らかのメトリックにより評価される。このメトリックは、例えば、圧縮率−歪み品質を判定することに基づくことができる。この圧縮率−歪み性能に関して最良の品質メトリック値を生ずる符号化構造データが次いで選択されて、結合符号化構造データJESDとなる。このような品質メトリック値は、例えば、元のスライスと、この特定のESD1またはESD2を用いて符号化されたスライスとの間のPSNRのすべての入力ストリームにわたる合計を測定することを含むことができる。この場合、最大のメトリック値は、この比較ステップにより求められる。代替的には、この特定のESD1、ESD2にそれぞれ必要な符号化サイズの合計を、この特定の符号化構造を用いることにより得られたすべての入力ビデオの残差と共に決定することができる。この場合、このメトリックに対して最小の値を生ずるESDが選択されることになる。
図5cで示す第2の実施形態JED2では、入力ビデオストリームIV1およびIV2は、単一の結合符号化構造データストリームを生成するために結合して解析される。各マクロブロックに対して、イントラ予測またはインター予測である、予測モードの選択、ならびにイントラ予測の場合はイントラ符号化モード、およびインター予測の場合は動きベクトルの対応する決定など、符号化判断が行われる。この符号化判断は、符号器のすべての符号化された出力ストリーム、すなわち、EJESD、ERPD2、およびERPD1の圧縮率−歪み性能を結合して最適化する目的で行われる。この最適化は、例えば、所与のビットレートバジェットの下で、符号器のすべての出力ストリームの復号された画像品質を最大化することにより行うことができる。代替的には、すべてのストリームに対して必要な画像品質を保証するのに必要なビットレートが最小化されうる。例として、すべての入力ビデオ対するPスライス中の所与のマクロブロックを結合して処理する手順が次に述べられる。各入力ビデオストリームIV1およびIV2の各マクロブロック、および参照として使用されうるすでに符号化された画素値のバッファからの対応するブロックに対して、イントラ予測モード、および可能なイントラ符号化モード(図5cでiによりインデックスが付されている)を用いて、1組の予測ブロックが計算される、あるいはインター予測の場合、1組の可能な対の動きベクトル(x、y)、および参照フレーム(n)が計算される。入力ビデオIV1に対する1組の可能な予測選択は、Pred1、iでイントラ符号化モードをインデックス付けしたiと、Pred1、(x、y)−nとで示されるが、ただし、x、yは、2次元の動きベクトルを示し、nはこの動きベクトルを決定するために使用される参照フレームの数を示す。同様に、入力ビデオ2の場合、1組の可能な予測選択は、iでイントラ符号化モードをインデックス付けしたPred2、iと、Pred2、(x、y)−nとで示される。これらのすべての予測モードは、次いで、すべての入力ストリームに対して結合メトリックを用いて比較される。この比較に基づいて、単一の予測モードが選択されることになり、また図5cで、選択された予測モードとして示されているこの選択された予測は、そのマクロブロックに対する結合符号化構造JSEDの一部となる。各入力ビデオストリームに対して、それぞれ、MBpred1およびMBpred2で示されたこの特定のマクロブロックに対する対応する予測ブロックは、次いで、このようにして得られる結合符号化構造データストリームJESDに含まれる量子化パラメータQPを決定するために、おそらく、入力ストリームJV1およびJV2の対応するブロックと併せてさらに処理される。
他の実施形態JED1に関するものと同様に、予測を比較するモジュールにより行われる予測の比較に適用されるメトリックを規定するためには、やはり多くの可能性が存在する。例えば、すべての残差の全エネルギーを最小化することを目指すことも可能である。この全エネルギーは、元の画素値と予測画素値の間の差の二乗の、ブロックのすべての画素にわたる和の、すべての入力ビデオにわたる和として計算することができる。
量子化パラメータQPそれ自体の選択は、例えば、固定された選択に基づくことができるが、あるいは符号化されたマクロブロックの合計サイズが、所与のサイズ(ビットで)バジェットに適合するように選択することができる。
この実施形態JED2では、予測モードの選択、および量子化パラメータQPの選択は、分離されていることに留意されたい。最新の符号器におけるように、当業者は、符号化ループ(エントロピー符号化を含むことができる)のフィードバックに基づいて、予測モードと量子化パラメータQPの両方を選択することに関する手法を一般化することができるはずであり、その場合、パラメータが、例えば、合計のビットバジェットの下で、符号化されたマクロブロックの(すべての入力ビデオストリームにわたる)合計品質を最大化するように選択される、または例えば、必要な最小の品質の下に、すべての入力ビデオストリームに対して符号化されたMBの合計サイズを最小化することにより圧縮を最大化するように選択される。
さらに、前の段落で述べた原理はまた、量子化パラメータQPの選択を最適化するために改善することができる。これは、大域的な(スライス、フレーム、またはシーケンスレベルにおける)圧縮率−歪性能を最適化するために、QPマクロブロック値を最適化できるようにするラグランジュの最適化法などの最新の技法を用いることを含むことができる。
示された実施形態JE1からJE4の大部分は、したがって、符号化されたストリームの符号化構造(データ区分が使用される場合、区分Aにパッケージされる可能性が高い)が、符号器により行われるすべての重要な符号化判断、すなわち、イントラおよびインター予測モード、ピクチャバッファ管理、動きベクトルなどを含むことを利用している。この符号化構造が固定されると、データ区分が使用される場合、区分BおよびCなどの残差データの符号化プロセスは、単に、選択された予測モードを適用すること、残差データを計算すること、整数ブロック変換および量子化を適用すること、ならびに得られた結果の最終的なエントロピー符号化を行うことで構成されるに過ぎない。最も簡単な形態では、N個の入力ストリームの符号化は、したがって、共通の区分Aと、それぞれが入力ストリームの1つに対応するN個の(共用されない)区分とからなる出力が得られる。所与の1つの符号化ストリームは、その専用の区分を共通の区分と組み立てることによるN+1個の作成された区分から抽出されうる。復号器は、次いで、これらの2つの区分を処理して必要なビューを表示することができる。
本発明の好ましい使用事例は、強い類似性を有する入力ストリームに適用されるため、特有の符号化構造は、すべての入力ストリームに対して効率的な符号化判断を含むことができる。したがって、いくつかの入力された生のビデオストリームの結合符号化に関して、すべてのストリームに使用される特有の符号化構造からなる共用の区分と、その符号化された残差データからなる個々のストリームごとの専用の区分とを提供することは、簡単であるが、なお非常に有効な方法を提供する。
中間ストリームの選択または作成に基づく実施形態では、本発明による符号器のさらに他の実施形態は、前に述べた実施形態の1つを、図1aを参照して述べた最新の符号化機構と組み合わせることができる。例として、このような実施形態は、中間ストリームの符号化構造を用いて符号化される各入力ストリームの各スライスに対して、例えば、図3cを参照して説明した方法に従ってそのスライスの残差データをまず計算し、そのスライスの予測画素ブロックを加えた後、フィードバックステップにより計算され、得られた復号スライスを、入力ビデオの同じスライスと比較するように構成することができる。元のスライスに対して復号されたスライスの品質、例えば、PSNRと略記されるピーク信号対雑音比を用いて測定された品質が一定の閾値に満たない場合、元のスライスは、良好な品質の符号化スライスが得られる新しい符号化構造を計算するために、図1aのものなど、最新の符号器へと転送されうる。この場合、そのスライスに対して計算された符号化構造は、対応する入力ストリームに関係する符号化ストリームに加えられることになる。同様に、復号プロセス中に、そのスライスに対して計算された符号化構造が、共通の符号化構造に代えて使用される必要がある。
ビデオピクチャそれ自体をスライスすることはまた、複数の入力ビデオストリームにわたるその類似性に応じてマクロブロックをFMOスライスにグループ化するように、符号化プロセス中に選択することもできる。ビュー間で非常に類似しているマクロブロックのスライスは、次いで、共通の符号化構造を用いて符号化されるが、異なる入力ビデオにわたって多くの差があるマクロブロックのスライスは、ビデオ入力ごとのそのFMOスライスに関連する専用の符号化構造を出力する最新の符号化プロセスを用いて独立して符号化される。
最新の符号器と、前の実施形態で示した符号器との間のこの切換え判断はまた、より粗い粒度で、例えば、フレームレベルで、またはシーケンスレベルで行えることにさらに気付くはずである。
前述の結合符号器と協動するための復号器の2つの実施形態が、次に図6aおよび6bを参照して述べられる。
図6aの復号器JD1は、各入力端子INR1、INR2、およびINR3上でERPD1、ERPD2、およびERPD3で示される、符号化された残差画素データの複数のシーケンスを受信するように構成される。この実施形態は、入力符号化構造データESDを含む参照入力データIREFを受信するための参照入力端子INEをさらに含む。この復号器は、ESDを含む参照符号化構造データIREFと共に、この復号器が復号する必要のある符号化されたビデオストリームに関する符号化された残差画素データの1つまたは複数のシーケンスを選択するようにさらに構成される。図6aの実施形態では、復号器JD1は、符号化されたビデオストリームEV1およびEV2(この図では示されていない)を復号することが必要なだけであり、したがって、この復号器は、すべての到来したデータから、参照符号化構造データESDと、符号化された残差画素データERPD1およびERPD2とを抽出する、またはフィルタするように構成される。このフィルタリングまたは抽出演算は、図6aのフィルタリングモジュールFにより行われているが、他の実施形態も同様に可能である。
図6aの実施形態では、参照入力データIREFは、符号化されない形で符号化構造データESDを含み、したがって、この復号器は、そこから符号化構造データESDを抽出することなど、IREFに対してさらなる処理ステップを行う必要はない。JD1は、残差画素データERPD1およびERPD2をエントロピー復号し、かつ符号化された残差画素データの前記少なくとも1つのシーケンスを処理して、それにより符号化ビデオEV1およびEV2に対してDRPB1およびDRPB2で示された少なくとも1つのシーケンスの復号された残差画素ブロックが得られるようにさらに構成される。このような処理は、図6aで示すように、逆量子化ステップを行い、その後に逆ブロック変換を行うことを含むことができるが、他の実施形態もまた可能である。復号器JD1は、符号化構造データESDから、また各バッファされた画素データから、それぞれ、画素ブロックの各予測EPPB1、およびEPPB2を構成するようにさらに構成される。これらの各予測EDPB1、EDPB2は、各復号された残差画素ブロックDRPB1、DRPB2と組み合わされて、復号された画素ブロックの各シーケンスを生成する。これらは、DPB1およびDPB2で示され、また各出力端子DOUT1およびDOUT2に、各復号されたビデオストリームDV1およびDV2として提供されることになる。
図6bで示す実施形態JD2は、図6aのJD1と同様のものであるが、参照データが、符号化された符号化構造データとして提供され、それはさらに、復号器JD2内でエントロピー復号化される点で異なる。
本発明の原理が、特定の装置と共に上記で述べられてきたが、この記述は、例として行われたものに過ぎず、添付の特許請求の範囲で定義される本発明の範囲に対する限定として行われたものではないことを明確に理解すべきである。

Claims (17)

  1. 複数のビデオストリーム(IV1、IV2、IV3)を結合符号化するための方法であって、
    前記複数のビデオストリーム(IV1、IV2、IV3)を受信するステップと、
    前記複数のビデオストリーム(IV1、IV2、IV3)のそれぞれについてイントラ予測及び/またはインター予測を実行して予測画素ブロック(PPB1、PPB2、PPB3)の複数のシーケンスを構成するステップと、
    前記複数のビデオストリーム(IV1、IV2、IV3)の対応するブロックと予測画素ブロックの前記複数のシーケンスの前記予測画素ブロック(PPB1、PPB2、PPB3)を処理し、かつエントロピー符号化して、符号化された残差画素データ(ERPD1、ERPD2、ERPD3)の複数のシーケンスを生成するステップとを含み、
    予測画素ブロック(PPB1、PPB2、PPB3)の前記複数のシーケンスが、前記複数のビデオストリーム(IV1、IV2、IV3)からマクロブロックレベルにおいて生成された符号化構造データ(ESD、ESD1、JESD)から構成され、また符号化された残差画素データ(ERPD1、ERPD2、ERPD3)の前記複数のシーケンスが、前記複数のビデオストリームの符号化されたデータとして、前記符号化構造データ(ESD、ESD1、JESD)を含む参照データ(IREF)と共に提供される、方法。
  2. 前記符号化構造データ(ESD、JESD、ESD1)が、前記参照データ(IREF)として符号化された符号化構造データ(EESD、EJESD、EESD1)を提供するためにさらにエントロピー符号化される、請求項1に記載の方法。
  3. 前記符号化構造データ(ESD、ESD1)が、前記複数のうちの少なくとも1つのビデオストリームから導出された中間ストリームから生成される、請求項1から2のいずれかに記載の方法。
  4. 前記中間ストリームが、前記複数のうちの少なくとも2つのビデオストリームを平均することにより、または前記中間ストリームとして前記複数のうちの1つのストリーム(IV1)を選択することにより得られる、請求項3に記載の方法。
  5. 前記少なくとも2つのビデオストリームに対する符号化判断を解析し、かつ前記符号化構造データに含まれるように単一の予測モードを選ぶことにより、前記符号化構造データ(JESD)が、前記複数のうちの少なくとも2つのビデオストリームから生成される、請求項1に記載の方法。
  6. 前記解析が、前記符号化判断を、所定の最適化基準と比較することに基づく、請求項5に記載の方法。
  7. 符号化された残差画素データ(ERPD1、ERPD2)の少なくとも1つのシーケンスを含む少なくとも1つの符号化されたビデオストリーム(EV1、EV2)、およびマクロブロックレベルにおける入力符号化構造データ(ESD)を含む参照データ(IREF)を復号するための方法であって、符号化された残差画素データ(ERPD1、ERPD2、ERPD3)の複数のシーケンス、および入力符号化構造データ(ESD)を含む前記参照データ(IREF)の複数のシーケンスを受信するステップと、前記少なくとも1つの符号化されたビデオストリーム(EV1、EV2)に関する符号化された残差画素データ(ERPD1、ERPD2)の少なくとも1つのシーケンス、および前記符号化構造データ(ESD)を含む前記参照データを選択して、前記符号化構造データ(ESD)と共に前記少なくとも1つの符号化されたビデオストリーム(EV1、EV2)に関する符号化された残差画素データ(ERPD1、ERPD2)の前記少なくとも1つのシーケンスをエントロピー復号し、かつ処理し、イントラ予測及び/またはインター予測を使用して、少なくとも1つの復号されたビデオストリーム(DV1、DV2)として、復号された画素ブロック(DPB1、DPB2)の少なくとも1つのシーケンスを提供するステップとを含む、方法。
  8. 前記少なくとも1つの符号化されたビデオストリームに関する符号化された残差画素データの前記少なくとも1つのシーケンスが、逆量子化および逆変換を受けて、それにより復号された残差画素ブロック(DRPB1、DRPB2)の少なくとも1つのシーケンスを取得し、また画素ブロックの少なくとも1つの予測(EPPB1、EPPB2)が、前記符号化構造データ(ESD)から、かつバッファされた画素ブロックから構成され、前記少なくとも1つの復号された残差画素ブロック(DRPB1、DRPB2)と組み合わされて、それにより、復号された画素ブロック(DPB1、DPB2)の前記少なくとも1つのシーケンスを取得する、請求項7に記載の方法。
  9. 複数のビデオストリーム(IV1、IV2、IV3)を符号化するための符号器(JE;JE1;JE2;JE3;JE4)であって、前記ビデオストリーム(IV1、IV2、IV3)を受信し、前記複数のビデオストリーム(IV1、IV2、IV3)のそれぞれについてイントラ予測及び/またはインター予測を実行して予測画素ブロック(PPB1、PPB2、PPB3)の複数のシーケンスを生成し、予測画素ブロックの前記複数のシーケンス、および前記ビデオストリーム(IV1、IV2、IV3)の対応するブロックを処理し、かつエントロピー符号化して、符号化された残差画素データ(ERPD1、ERPD2、ERPD3)の複数のシーケンスを生成するようにさらに構成されており、
    前記符号器(JE;JE1;JE2;JE3;JE4)が、さらに、前記複数のビデオストリームからマクロブロックレベルにおける符号化構造データ(ESD、ESD1、JESD)を生成し、前記符号化構造データ(ESD、ESD1、JESD)から予測画素ブロック(PPB1、PPB2、PPB3)の前記複数のシーケンスを構成し、かつ符号化された残差画素データ(ERPD1、ERPD2、ERPD3)の前記複数のシーケンス、および前記符号化構造データ(EESD)を含む参照データ(IREF)を、前記複数のビデオストリームの符号化されたデータとして、各出力端子(OUT1、OUT2、OUT3、OUTREF)に提供するようにさらに構成される、符号器(JE;JE1;JE2;JE3;JE4)。
  10. 予測画素ブロックの前記複数のシーケンスの予測画素ブロック(PPB1、PPB2、PPB3)と、前記複数のビデオストリーム(IV1、IV2、IV3)の対応するブロックとの間の差から、残差画素ブロック(RPB1、RPB2、RPB3)の複数のシーケンスを生成し、前記各シーケンスの前記残差画素ブロック(RPB1、RPB2、RPB3)を変換、量子化し、かつエントロピー符号化して、それにより符号化された残差画素データ(ERPD1、ERPD2、ERPD3)の前記複数のシーケンスを取得するようにさらに構成される、請求項9に記載の符号器(JE;JE1;JE2;JE3;JE4)。
  11. 前記参照データを、符号化された符号化構造データ(EESD)として提供するためになど、前記符号化構造データ(ESD)をエントロピー符号化するようにさらに構成される、請求項10に記載の符号器(JE;JE1;JE2;JE3;JE4)。
  12. 前記複数のうち少なくとも1つのビデオストリーム(IV1、IV2)から導出された中間ストリームから前記符号化構造データ(ESD)を生成するようにさらに構成される、請求項10または11に記載の符号器(JE;JE1;JE2;JE3)。
  13. 前記複数のうちの少なくとも2つのビデオストリーム(IV1、IV2)を平均することにより、または前記中間ストリームとして、前記複数のうちの1つのストリーム(IV1)を選択することにより前記中間ストリームを生成するようにさらに構成される、請求項11に記載の符号器(JE;JE3)。
  14. 前記少なくとも2つのビデオストリームに対する符号化判断を解析することにより、かつ前記符号化構造データに含まれるように単一の予測モードを選ぶことにより、前記符号化構造データが、前記複数のうちの少なくとも2つのビデオストリームから生成される、請求項9に記載の符号器(JE;JE4)。
  15. 符号化された残差画素データ(ERPD1、ERPD2)の少なくとも1つのシーケンス、およびマクロブロックレベルにおける入力符号化構造データ(ESD)を含む参照データを含む少なくとも1つの符号化されたビデオストリームを復号するための復号器(JD;JD1;JD2)であって、符号化された残差画素データ(ERPD1、ERPD2、ERPD3)の複数のシーケンス、および入力符号化構造データ(ESD)を含む参照入力データ(IREF)を受信するように構成され、かつ前記少なくとも1つの符号化されたビデオストリーム(EV1、EV2)に関する符号化された残差画素データ(ERPD1、ERPD2)の少なくとも1つのシーケンスを選択し、かつ前記参照入力データ(IREF)から前記符号化構造データ(ESD)を導出し、前記符号化構造データと結合符号化された残差画素データ(ERPD1、ERPD2)の前記少なくとも1つのシーケンスをエントロピー復号し、かつ処理して、イントラ予測及び/またはインター予測を使用して、前記少なくとも1つの復号されたビデオストリーム(DV1、DV2)として、復号された画素ブロック(DPB1、DPB2)の少なくとも1つのシーケンスを提供するようにさらに構成される、復号器(JD;JD1;JD2)。
  16. 前記少なくとも1つの符号化されたビデオストリームに関する符号化された残差画素データの前記少なくとも1つのシーケンスに対して逆量子化、および逆変換を実施し、それにより復号された残差画素ブロック(DRPB1、DRPB2)の少なくとも1つのシーケンスを取得するようにさらに構成され、画素ブロックの少なくとも1つの予測(EPPB1、EPPB2)が、前記符号化構造データ(ESD)から、かつバッファされた画素ブロックから構成され、前記少なくとも1つの復号された残差画素ブロック(DRPB1、DRPB2)と組み合わされて、それにより復号された画素ブロック(DPB1、DPB2)の前記少なくとも1つのシーケンスを取得する、請求項15に記載の復号器。
  17. 前記参照入力データ(IREF)から抽出された符号化された符号化構造データ(EESD)をエントロピー復号することにより、前記符号化構造データ(ESD)を導出するようにさらに構成される、請求項15または16に記載の復号器(JD2)。
JP2012545263A 2009-12-21 2010-12-20 複数のビデオストリームを結合符号化するための方法および構成 Expired - Fee Related JP5947218B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09290986A EP2355511A1 (en) 2009-12-21 2009-12-21 Method and arrangement for jointly encoding a plurality of video streams
EP09290986.0 2009-12-21
PCT/EP2010/070200 WO2011076713A1 (en) 2009-12-21 2010-12-20 Method and arrangement for jointly encoding a plurality of video streams

Publications (2)

Publication Number Publication Date
JP2013515415A JP2013515415A (ja) 2013-05-02
JP5947218B2 true JP5947218B2 (ja) 2016-07-06

Family

ID=42126071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012545263A Expired - Fee Related JP5947218B2 (ja) 2009-12-21 2010-12-20 複数のビデオストリームを結合符号化するための方法および構成

Country Status (6)

Country Link
US (1) US20120257674A1 (ja)
EP (1) EP2355511A1 (ja)
JP (1) JP5947218B2 (ja)
KR (1) KR101353165B1 (ja)
CN (1) CN102668564B (ja)
WO (1) WO2011076713A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102595108B (zh) * 2011-01-05 2017-02-01 中兴通讯股份有限公司 一种语法元素的编码方法及装置
KR102030205B1 (ko) 2012-01-20 2019-10-08 선 페이턴트 트러스트 시간 움직임 벡터 예측을 사용하여 비디오를 부호화 및 복호하는 방법 및 장치
ES2865101T3 (es) 2012-02-03 2021-10-15 Sun Patent Trust Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, dispositivo de decodificación de imágenes y dispositivo de codificación/decodificación de imágenes
WO2013132792A1 (ja) 2012-03-06 2013-09-12 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
US9762903B2 (en) * 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
JP5907016B2 (ja) * 2012-09-12 2016-04-20 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、及び動画像通信装置
CN103533353B (zh) * 2013-09-29 2016-11-09 同济大学 一种近似视频编码系统
CN103974070B (zh) * 2014-04-25 2017-08-15 广州市香港科大霍英东研究院 基于多用户输入输出的无线视频传输方法及系统
US11361800B2 (en) * 2017-08-04 2022-06-14 RACYICS GmbH Method for characterization of standard cells with adaptive body biasing
WO2021054380A1 (ja) * 2019-09-20 2021-03-25 日本放送協会 符号化装置、復号装置、及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07327242A (ja) * 1994-05-31 1995-12-12 Sanyo Electric Co Ltd 立体動画像圧縮符号化装置及び立体動画像復号再生装置
JPH0993583A (ja) * 1995-09-27 1997-04-04 Nec Corp 画像信号符号化装置
JP3519594B2 (ja) * 1998-03-03 2004-04-19 Kddi株式会社 ステレオ動画像用符号化装置
JP2001186543A (ja) * 1999-12-24 2001-07-06 Sanyo Electric Co Ltd データ符号化装置及び復号化装置
JP3963296B2 (ja) * 1999-12-27 2007-08-22 株式会社Kddi研究所 動画像の伝送レート変換装置
US6700933B1 (en) * 2000-02-15 2004-03-02 Microsoft Corporation System and method with advance predicted bit-plane coding for progressive fine-granularity scalable (PFGS) video coding
JP3812269B2 (ja) * 2000-02-24 2006-08-23 日本ビクター株式会社 動画像符号化装置及びその方法
JP2001285876A (ja) * 2000-03-30 2001-10-12 Sony Corp 画像符号化装置とその方法、ビデオカメラ、画像記録装置、画像伝送装置
JP4193406B2 (ja) * 2002-04-16 2008-12-10 三菱電機株式会社 映像データ変換装置および映像データ変換方法
EP1365592A3 (en) * 2002-05-20 2005-02-09 Broadcom Corporation System, method, and apparatus for decoding flexibly ordered macroblocks
KR20050026318A (ko) * 2003-09-09 2005-03-15 삼성전자주식회사 인트라 스킵 모드를 포함하는 비디오 인코딩_디코딩 장치및 방법
CN102263962A (zh) * 2004-12-10 2011-11-30 韩国电子通信研究院 对多视图视频进行统一编码的装置
KR100703749B1 (ko) * 2005-01-27 2007-04-05 삼성전자주식회사 잔차 재 추정을 이용한 다 계층 비디오 코딩 및 디코딩방법, 이를 위한 장치
JP4874578B2 (ja) * 2005-06-13 2012-02-15 三菱電機株式会社 画像符号化装置
US8369406B2 (en) 2005-07-18 2013-02-05 Electronics And Telecommunications Research Institute Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same
US7617436B2 (en) * 2005-08-02 2009-11-10 Nokia Corporation Method, device, and system for forward channel error recovery in video sequence transmission over packet-based network
JP2007180982A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像復号装置、画像復号方法、及び画像復号プログラム
JP2007180981A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法、及び画像符号化プログラム
US8126054B2 (en) * 2008-01-09 2012-02-28 Motorola Mobility, Inc. Method and apparatus for highly scalable intraframe video coding
JP2009246489A (ja) * 2008-03-28 2009-10-22 Kddi R & D Laboratories Inc 映像信号切替装置
CN101562745B (zh) * 2008-04-18 2012-07-04 华为技术有限公司 一种多视点视频图像编码和解码的方法及装置
CN101494778B (zh) * 2008-10-13 2011-03-23 西南交通大学 一种多视点可伸缩编码框架
CN101557519B (zh) * 2009-05-20 2011-01-05 北京航空航天大学 一种多视点视频编码方法

Also Published As

Publication number Publication date
WO2011076713A1 (en) 2011-06-30
CN102668564B (zh) 2017-03-15
EP2355511A1 (en) 2011-08-10
CN102668564A (zh) 2012-09-12
KR101353165B1 (ko) 2014-01-27
US20120257674A1 (en) 2012-10-11
JP2013515415A (ja) 2013-05-02
KR20120096585A (ko) 2012-08-30

Similar Documents

Publication Publication Date Title
JP5947218B2 (ja) 複数のビデオストリームを結合符号化するための方法および構成
US9445114B2 (en) Method and device for determining slice boundaries based on multiple video encoding processes
CN106170092B (zh) 用于无损编码的快速编码方法
US9185408B2 (en) Efficient storage of motion information for high efficiency video coding
US20070086528A1 (en) Video encoder with multiple processors
US10291934B2 (en) Modified HEVC transform tree syntax
KR20180074000A (ko) 비디오 디코딩 방법, 이를 수행하는 비디오 디코더, 비디오 인코딩 방법, 및 이를 수행하는 비디오 인코더
WO2013096671A1 (en) Method and apparatus for efficient transform unit encoding
US11317105B2 (en) Modification of picture parameter set (PPS) for HEVC extensions
US20220272387A1 (en) Conditionally parsed extension syntax for hevc extension processing
JP5913542B2 (ja) 動画像符号化のための方法および構成
CN110636302B (zh) 视频解码、编码方法和装置、存储介质及解码器、编码器
CN116670686A (zh) 用于以低比特精度进行基于dnn的交叉分量预测的内容自适应在线训练
CN110636288B (zh) 视频解码、编码方法和装置及电子设备
CN116033147A (zh) 图像编解码方法和装置
WO2012119784A1 (en) Method and device for encoding image data, and method and device for decoding image data
CN110677647B (zh) 视频解码、编码方法和装置、存储介质与解码器、编码器
JP5911982B2 (ja) 画像復号化方法
CN116800968A (zh) 编码方法及装置、解码方法及装置、存储介质、电子装置
Stephanakis et al. A Novel Rate-Distortion Method in 3D Video Capturing in the Context of High Efficiency Video Coding (HEVC) in Intelligent Communications
Notebaert Bit rate transcoding of H. 264/AVC based on rate shaping and requantization

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140318

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140616

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150218

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150311

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160602

R150 Certificate of patent or registration of utility model

Ref document number: 5947218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees