JP5529261B2 - 局所復号のための時間制約付き空間依存性を用いたビデオ符号化のための方法、デバイス、およびコンピュータ可読媒体 - Google Patents

局所復号のための時間制約付き空間依存性を用いたビデオ符号化のための方法、デバイス、およびコンピュータ可読媒体 Download PDF

Info

Publication number
JP5529261B2
JP5529261B2 JP2012510016A JP2012510016A JP5529261B2 JP 5529261 B2 JP5529261 B2 JP 5529261B2 JP 2012510016 A JP2012510016 A JP 2012510016A JP 2012510016 A JP2012510016 A JP 2012510016A JP 5529261 B2 JP5529261 B2 JP 5529261B2
Authority
JP
Japan
Prior art keywords
video
block
frame
candidate reference
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012510016A
Other languages
English (en)
Other versions
JP2012526490A (ja
Inventor
ツァイ、ミン−チャン
テン、チア−ユアン
イエ、ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2012526490A publication Critical patent/JP2012526490A/ja
Application granted granted Critical
Publication of JP5529261B2 publication Critical patent/JP5529261B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本出願は、本出願の譲受人に譲渡され、その全文がすべての目的のために参照により本明細書に明確に組み込まれる、本出願と同日に出願された、一時的に代理人整理番号第IDF081990U2号によって参照される、「VIDEO DECODING USING TEMPORALLY CONSTRAINED SPATIAL DEPENDENCY」と題する米国特許出願に関する。
本開示は、ビデオコーディングに関し、詳細には、コーディングされたビデオの関心領域(ROI)処理のための技法に関する。
デジタルビデオ機能は、デジタルテレビ、デジタル直接ブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(personal digital assistant:PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル録音デバイス、ビデオゲームデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話などを含む、広範囲にわたるデバイスに与えられる。デジタルビデオデバイスは、MPEG−2、MPEG−4、またはITU−T H.264/MPEG−4、Part10、アドバンスド・ビデオ・コーディング(Advanced Video Coding:AVC)を含む様々な規格に記載されたビデオ圧縮技法などのビデオ圧縮技法を実装する。ビデオ圧縮技法では、冗長性を低減し、デジタルビデオをより効率的に通信するために空間的予測および時間的予測を実行し得る。
関心領域(region−of−interest:ROI)処理は、ビデオフレームの1つまたは複数の選択された領域を、他の領域とは別様に記録またはコーディングすることを含み得る。一例として、ROIは、他の非ROI領域よりも高品質で優先符号化され得る。ROIの優先符号化により、ユーザは、非ROI領域よりもはっきりとROIを閲覧することが可能であり得る。別の例として、記録されたビデオシーン内のROIの可視性または品質を向上させるために、ビデオ記録のときにズームパンが実行され得る。各場合において、ROIは、ビデオ記録または符号化段において確定され、次いで、所与のビデオフレームを復号し、表示すると閲覧される。
概して、本開示では、ビデオフレーム中の局所復号をサポートするために符号化されたビデオブロックの空間依存性の時間伝搬を制約するビデオコーディング技法について説明する。一連の参照フレームにわたる空間依存性の時間伝搬は、フレーム内の局所復号を実行するデコーダの能力に影響を及ぼし得る。たとえば、ビデオフレームのROIの局所復号では、ROIの外側にある復号された参照ブロックが利用可能である必要があり得る。空間依存性の時間伝搬を制約することによって、ビデオエンコーダは、デコーダがROIの外側の復号された参照ブロックにアクセスする必要を低減するかまたはなくし得る。
本技法は、符号化された個々のビデオブロックについての時空間依存性値を追跡し得る。符号化されたビデオブロックは、符号化すべきフレーム中の他のビデオブロックの予測コーディングのための候補参照ブロックとして働き得る。現在のビデオブロックを符号化するとき、エンコーダは、候補参照ブロックのセットを識別し、候補参照ブロックの時空間依存性値が時空間依存性限界を超えるかどうかを判断する。超える場合、エンコーダは、現在のビデオブロックがインターコーディングされるのではなくイントラコーディングされるように強制し、それによって空間依存性の時間範囲を制限し、局所ROI限定復号をサポートし得る。
本開示はまた、ビデオブロックを復号するための技法を提供する。ユーザまたはアプリケーションによるROI選択に基づいて、ビデオデコーダは、前のフレームからのROI内の復号されたブロックにアクセスし得る。一例では、すべてのビデオコーダデコーダ(「コーデック」)によってサポートされるユーザデータ(UserData)フィールド中にブロック位置ルックアップテーブルを埋め込むことによって、デコーダは、復号するためのブロックにランダムにアクセスし得る。
一例では、本開示は、ビデオフレーム中の現在のブロックをインターコーディングするための候補参照ビデオブロックについての時空間依存性値を判断することを備える、ビデオエンコーダにおいてコーディングモードを判断するための方法を提供する。本方法は、時空間依存性値をしきい値と比較することをさらに備える。本方法は、その比較に基づいて現在のブロックのためのコーディングモードを選択することをさらに備える。
別の例では、本開示は、ビデオフレーム中の現在のブロックをコーディングするための候補参照ブロックについての時空間依存性値を記憶するストレージデバイスと、候補参照ビデオブロックについての時空間依存性値を判断し、時空間依存性値をしきい値と比較し、その比較に基づいて現在のブロックのためのコーディングモードを選択するビデオエンコーダとを備えるビデオ符号化デバイスを提供する。
追加の例では、本開示は、実行時に、ビデオエンコーダ内のプロセッサに、ビデオフレーム中の現在のブロックをインターコーディングするための候補参照ビデオブロックについての時空間依存性値を判断させる、コンピュータ可読媒体上に符号化された命令を備えるコンピュータ可読媒体を提供する。コンピュータ可読媒体は、プロセッサに時空間依存性値をしきい値と比較させる命令をさらに備える。コンピュータ可読媒体は、プロセッサに、その比較に基づいて現在のブロックのためのコーディングモードを選択させる命令をさらに備える。
別の例では、本開示は、ビデオフレーム中の現在のブロックをインターコーディングするための候補参照ビデオブロックについての時空間依存性値を判断するための手段を備えるビデオ符号化デバイスを提供する。エンコーダは、時空間依存性値をしきい値と比較するための手段をさらに備える。エンコーダは、その比較に基づいて現在のブロックのためのコーディングモードを選択するための手段をさらに備える。
追加の例では、本開示は、ビデオデコーダにおいて実行される方法を提供する。本方法は、ビデオフレームの関心領域(ROI)を定義するデータを受信することと、ROI中の少なくとも1つのビデオブロックについての時空間依存性値(temporal spatial depedency value:TSD)を受信することと、TSD値に少なくとも部分的に基づいてROI中のビデオブロックを復号することとを備える。
別の例では、本開示は、ビデオフレームの関心領域(ROI)を選択するROI選択ユニットと、ROI中の少なくとも1つのビデオブロックについての時空間依存性値を受信するユニットと、TSD値に少なくとも部分的に基づいてROI中のビデオブロックを復号するユニットとを備えるビデオデコーダを提供する。
追加の例では、本開示は、実行時に、ビデオデコーダ内のプロセッサに、ビデオフレームの関心領域(ROI)を定義するデータを受信することと、ROI中の少なくとも1つのビデオブロックについての時空間依存性(TSD)値を受信することと、TSD値に少なくとも部分的に基づいてROI中のビデオブロックを復号することとを行わせる、コンピュータ可読媒体上に符号化された命令を備えるコンピュータ可読媒体を提供する。
別の例では、本開示は、ビデオフレームの関心領域(ROI)を定義するデータを受信するための手段と、ROI中の少なくとも1つのビデオブロックについての時空間依存性(TSD)値を受信するための手段と、TSD値に少なくとも部分的に基づいてROI中のビデオブロックを復号するための手段とを備えるビデオデコーダを提供する。
1つまたは複数の例の詳細は、添付の図面および以下の説明に記載されている。他の特徴、目的、および利点は、説明および図面、ならびに特許請求の範囲から明らかになるであろう。
図1は、ビデオ符号化および復号システムを示すブロック図である。 図2は、本開示による例示的なビデオエンコーダを示すブロック図である。 図3は、本開示による例示的なビデオデコーダを示すブロック図である。 図4は、本開示による例示的な予測ユニットを示すブロック図である。 図5は、ビデオ符号化における空間依存性の時間伝搬を示す図である。 図6は、ビデオ復号における空間依存性の時間要件を示す図である。 図7は、ビデオ復号におけるフレーム内空間依存性と組み合わせられた空間依存性の時間要件を示す図。 図8Aは、制約なし依存性範囲を有するビデオフレームのグラフと、制約付き依存性範囲を有するビデオフレームのグラフとの比較を示すである図。 図8Bは、周期フレーム内符号化を含むように修正された図8Aの図である。 図9は、本開示による、空間依存性を時間的に制約するための例示的なビデオエンコーダアーキテクチャおよび動作を示す図である。 図10は、本開示によるコーディングモード判断方法を示すフロー図である。 図11は、本開示による別のコーディングモード判断方法を示すフロー図である。 図12は、関心領域(ROI)と、復号される必要があり得るROI外の第1のエリアと、同じく復号される必要があり得る第1のエリア外の第2のエリアとを示す概念図である。 図13は、本開示による復号方法を示すフロー図である。 図14は、パン、ズーム、およびティルトをサポートする、選択されたROIエリアを復号するための追加のROIマージンを判断する方法を示すフロー図である。
ビデオコーディングのための関心領域(ROI)定義は、通常、ビデオカムコーダなどにおいてビデオ記録のときに行われる。たとえば、ユーザは、シーン中のROIのビデオを記録するためにビデオシーン内でズームまたはパンし得る。次いで、記録されたビデオは、復号および再生のために、記憶および/または通信のために符号化される。ビデオ再生は、一般に、記録されたビデオを忠実に再生して、同じビデオの異なる閲覧者の間での、および異なる閲覧の間でのビデオの均一な閲覧経験を与える。言い換えれば、閲覧経験は、あらゆる閲覧者に対して実質的に同じであると仮定される。
均一な閲覧は、デバイスのディスプレイ能力が、ビデオ送信または記憶の帯域幅と、ビデオフレームの解像度またはサイズとにぴったり一致するときなど、多くの適用例について許容され得る。しかしながら、場合によっては、ビデオ再生のデコーダ側において閲覧者がROIを定義することを可能にすることが望ましいことがある。たとえば、閲覧者は、たとえば、ビデオシーン内でズームまたはパンすることによって、符号化ビデオによってキャプチャされたシーンの一意のまたは特徴的な閲覧を取得するためにデコーダ側においてROIを局所的に定義することを望み得る。
デコーダ側ROI定義をサポートするための局所復号は、どんなデバイスにとっても概して望ましいが、サイズおよび解像度など、限られた帯域幅、処理能力またはディスプレイ能力を有するデバイスにとって特に望ましいことがある。例としては、小さいディスプレイ画面、限られた処理リソース、および/または無線接続などの限られた帯域幅接続をもつモバイルハンドヘルドデバイスがある。ディスプレイ能力が低くなると、モバイルデバイスのユーザは、キャプチャされたシーン全体を閲覧することに対する関心が小さくなり、代わりに、キャプチャされたシーンの拡大部分を閲覧することに対する関心が大きくなり得る。
ROIズームおよびパンは、テキストまたは静止画像の閲覧など、静的コンテンツの場合には容易に実行され得る。たとえば、タッチスクリーンデバイスは、ユーザが指の動きを使用してROIにズームインすることを可能にし得る。同様の結果を達成するために他のポインティングデバイスが使用され得る。静的コンテンツの場合、ROIズームおよびパンは、単にディスプレイ上で提示されるべき静止画像の一部分を選択し、操作することによって達成され得る。この場合、デバイスメモリは一般に画像フレーム全体を記憶するので、ROIズームおよびパンが簡単になる。
ビデオなどの動的コンテンツの場合、予測符号化されたフレームのビデオブロックを復号することは、前に復号されたフレーム中の参照ブロックへのアクセスを必要とする。典型的なビデオエンコーダでは、すべての可能な参照ブロック(たとえば、マクロブロック)が後のフレームの復号のために利用可能であるように、各フレームの復号がフレーム全体に対して実行されると仮定する。その結果、エンコーダおよびデコーダは、フレームの一部分のみが復号されるROI限定復号技法をサポートするように構成されない。
フレームのROI部分のみが復号された場合、将来のフレームを復号するのに必要な参照ブロックは、それらが復号されなかったので利用不可能であることがある。前のフレーム中のROIの外側にあり、したがって復号されなかった参照ブロックへの時空間依存性により、将来のフレーム中のいくつかのブロックを復号することが不可能であることがある。あるいは、後のフレーム中のROIブロックの復号をサポートするために、前のフレーム中の非ROIブロックが表示されない場合でも、そのような非ROIブロックを復号することが必要になり得、これは非効率的で望ましくないことがある。
概して、本開示では、ビデオフレーム中の局所復号をサポートするために符号化されたビデオブロックの空間依存性の時間伝搬を制約するビデオ符号化技法について説明する。本技法は、復号された個々のビデオブロックの時空間依存性値を追跡し得る。予測符号化に使用される一連の参照フレームにわたる空間依存性の時間伝搬は、たとえば、ROI限定復号のために、フレーム中の局所復号を実行するデコーダの能力を損ない得る。本開示全体にわたって使用する、候補ブロックの時空間依存性は、候補ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数を指す。
現在のビデオブロックを符号化するとき、ビデオエンコーダは、候補参照ブロックのセットを識別し、候補参照ブロックの時空間値が時空間依存性限界を超えるかどうかを判断し得る。超える場合、ビデオエンコーダは、現在のビデオブロックがインターコーディングされるのではなくイントラコーディングされるように強制し、それによって空間依存性の時間範囲を制限し得る。時空間依存性限界は、ビデオ品質とコーディング効率とを平衡させるための実装パラメータとして固定または可変であり得る。
ビデオエンコーダは、ブロックを復号することが、デコーダ側において定義されたROIの外側の所定の範囲を越えて存在する参照ブロックを必要としないことを保証する。このようにして、ビデオエンコーダは、連続復号が適切に局所化されるように、個々のブロックの空間依存性を適切に局所化された状態に保つことができる。
図1は、ビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、通信チャネル16を介して符号化されたビデオを宛先デバイス14に送信するソースデバイス12を含み得る。ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、変復調装置(モデム)22と、送信機24とを含み得る。いくつかの例では、ソースデバイス12はビデオ符号化デバイスと見なされ得る。いくつかの態様では、送信機24はワイヤレス送信機であり得る。宛先デバイス14は、受信機26と、モデム28と、ビデオデコーダ30と、ビデオディスプレイデバイス32とを含み得る。いくつかの例では、宛先デバイスはビデオ復号デバイスと見なされ得る。いくつかの態様では、受信機26は、ワイヤレス通信デバイスハンドセットにおけるワイヤレス受信機など、ワイヤレス受信機であり得る。本開示によれば、ソースデバイス12のビデオエンコーダ20は、フレームごとに、一連のビデオフレームにおいて、符号化すべきビデオフレームの各ブロックの空間依存性を追跡するように構成され得る。ビデオエンコーダ20は、空間依存性の時間伝搬を局所領域に含まれた状態に保つために、必要なときにブロックのイントラコーディングを強制し、それによって、ビデオデコーダ30が局所ROI限定復号サポートするように構成されている場合、ブロックの復号可能性をサポートし得る。
図示のシステム10は例にすぎない。本開示の技法は、いくつかの態様では、インターコーディングおよびイントラコーディング技法をサポートする任意の符号化デバイスによって実行され得る。ソースデバイス12は、そのような符号化デバイスの一例にすぎない。他の態様では、本開示で説明する技法は、復号デバイスによって実行され得る。たとえば、復号デバイスは、たとえば、ROI限定復号のために、ビデオフレームの局所復号をサポートするように構成され得る。
本開示によれば、以下でより詳細に説明するように、ビデオエンコーダ20は、符号化されたビデオフレームの各ブロックの時空間依存性を記憶し得る。一例として、ビデオエンコーダ20は、フレーム中の各ブロックがインターコーディングのために依存するフレームの数を示す情報を維持し得る。時空間依存性情報は、メモリなどのストレージデバイス中のデータベース、ルックアップテーブル、リンクリスト、ハッシュテーブル、ツリー、バイナリツリー、または他のタイプのデータ構造に記憶され得る。符号化すべき現在のブロックは、前のフレーム中のブロックが現在のブロックのインターコーディングのための参照または「予測」ブロックとして働き得るという意味において、前のフレーム中のブロックに依存し得る。この依存性は、現在のブロックの空間範囲内のいくつかのブロックが予測ブロックとして使用するための候補であり得るという意味において、空間的であり得る。場合によっては、現在のブロックは、たとえば、H.264コーディングの場合、複数の参照フレームが使用されるとき、複数の可能な参照フレームのうちの1つの中のブロックに依存し得る。
フレームは時間順に提示される。インターコーディングの場合、現在のフレーム中で符号化されるべき現在のブロック、たとえば、フレームNは、1つまたは複数の前のフレーム、たとえば、フレームN−1、N−2、N−3、N−4などの中の第1の参照ブロックに空間的に依存し得る。今度は、第1の参照ブロックは、異なるフレーム中の第2の参照ブロックに空間的に依存し得、別のフレーム中の第2の参照ブロックは、さらに別のフレーム中の第3の参照ブロックに空間的に依存し得、以下同様である。空間依存性の時間伝搬は、現在のフレームと、現在のブロックを符号化するのに必要な参照ブロックのいずれかをインターコーディングするために使用される最先のフレームとの間の時間範囲によって変わる。一例として、フレームN中の符号化されたブロックが、インターコーディングのためにフレームN−1中の参照ブロックに依存する場合、フレームN−1中の参照ブロックは、インターコーディングのためにフレームN−2中の別の参照ブロックに依存するが、フレームN−2中の参照ブロックはイントラコーディングされ、その場合、フレームN中のブロックの時空間依存性値は2である。
したがって、候補参照ビデオブロックが依存する前のビデオフレーム中のブロックの数が、時空間依存性値を定義する。インターコーディングモードを使用してブロックを符号化すべきかまたはイントラコーディングモードを使用してブロックを符号化すべきかを決定する際に、ビデオエンコーダ20は、データベースに問い合わせ、候補参照ブロックのセットのうちの各々の時空間依存性値をしきい値と比較し得る。候補参照ブロックは、符号化すべきブロックの動き推定探索範囲内に空間的に存在する、前に符号化されたフレーム中のブロックであり得る。すべての候補参照ブロックの時空間依存性値がしきい値を超える場合、ビデオエンコーダ20は、現在のブロックのコーディングモードとしてイントラコーディングを選択し、それによって現在のブロックについての空間依存性の時間伝搬を制限する。少なくとも1つのブロックの時空間依存性値がしきい値を超えない場合、ビデオエンコーダ20は、イントラコーディングを強制せず、イントラリフレッシュ(intra−refres:IR)レート、動き補償によって示されるコーディングひずみ、および/または利用可能なコーディングビットレートなど、他のファクタに基づいてそのブロックのためのモード決定を行う。
概して、ソースデバイス12は、宛先デバイス14に送信するためにコーディングされたビデオデータを発生する。ただし、場合によっては、デバイス12、14は、実質的に対称に動作し得る。たとえば、デバイス12、14の各々は、ビデオ符号化および復号構成要素を含み得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、またはビデオ電話通信のためのビデオデバイス12とビデオデバイス14との間の一方向または双方向のビデオ送信をサポートし得る。他の場合には、ビデオデバイス14は、単にビデオブロードキャストまたはビデオストリーミングを受信するかあるいは他の方法でビデオ再生をサポートするように構成され得る。
ソースデバイス12のビデオソース18は、ビデオカメラ、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、またはビデオコンテンツプロバイダからのビデオフィードなど、ビデオキャプチャデバイスを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ発生ビデオとの組合せを発生し得る。場合によっては、ビデオソース18がビデオカメラを含む場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付き携帯電話またはビデオ電話を形成し得る。各場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ発生ビデオはビデオエンコーダ20によって符号化され得る。他の場合には、ソースデバイス12はビデオストリーミングまたはビデオブロードキャストデバイスであり得る。符号化されたビデオは、たとえば、符号分割多元接続(code division multiple access:CDMA)または別の通信規格もしくは技法などの通信規格に従ってモデム22によって変調され、送信機24を介して宛先デバイス14に送信され得る。
宛先デバイス14の受信機26はチャネル16を介して情報を受信し、モデム28は受信情報を復調する。符号化プロセスと同様の、ビデオデコーダ30によって実行される復号プロセスは、データ圧縮の改善されたレベルをサポートするために本開示の技法を使用する。デコーダ30は、ソースデバイス12から受信されたビデオデータの局所ROI限定復号をサポートし得る。局所ROI限定復号は、エンコーダ20によって適用される空間依存性の時間伝搬に関する制約によってサポートされ得る。宛先デバイス14は、所望のROIを定義するユーザ入力を受け付け、次いで、そのROIに対応するブロックの局所復号を実行するようにビデオデコーダ30に指示し得る。デコーダ30は、ROIの外側にある復号ブロックを回避し、そのようなブロックに対応するデータを廃棄し得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに対して表示し、陰極線管(cathode ray tube:CRT)、液晶ディスプレイ(liquid crystal display:LCD)、プラズマディスプレイ、有機発光ダイオード(organic light emitting diode:OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
図1の例では、通信チャネル16は、無線周波数(radio frequency:RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体、あるいはワイヤレスおよびワイヤード媒体の任意の組合せを備え得る。通信チャネル16は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースのネットワークの一部を形成し得る。通信チャネル16は、概して、ビデオデータをソースデバイス12から宛先デバイス14に送信するのに好適な任意の通信媒体、または様々な通信媒体の集合体を表す。
ビデオエンコーダ20およびビデオデコーダ30は、ITU−T H.264規格(代替的にMPEG−4、Part 10、Advanced Video Coding(AVC)と呼ばれる)、ならびにMPEG−1、MPEG−2およびMPEG−4における動画専門家グループ(Moving Picture Experts Group:MPEG)によって定義された規格、ITU−T H.263規格、動画・テレビ工学協会(Society of Motion Picture and Television Engineers:SMPTE)421Mビデオコーデック規格(通常「VC−1」と呼ばれる)、中国のオーディオビデオ符号化標準作業グループ(Audio Video Coding Standard Workgroup)によって定義された規格(通常「AVS」と呼ばれる)、ならびにある規格団体によって定義されるか、またはプロプライエタリ規格としてある組織によって開発された任意の他のビデオコーディング規格を含む、様々なビデオ圧縮規格に従って動作し得る。
図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびデコーダと統合され得、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含んで、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理し得る。適用可能な場合、MUX−DEMUXユニットはITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(user detagram protocol:UDP)などの他のプロトコルに準拠し得る。
ITU H.264/MPEG−4 Part10 AVC規格は、Joint Video Team(JVT)として知られる共同パートナーシップの成果として、ISO/IECの動画専門家グループ(Moving Picture Experts Group:MPEG)とともにITU−Tのビデオ符号化専門家グループ(Video Coding Experts Group:VCEG)によって策定された。いくつかの態様では、本開示で説明する技法は、H.264規格に概して準拠するデバイスに適用され得る。H.264規格は、ITU−T研究グループ(Study Group)による2005年3月付けのITU−T勧告H.264「総括的な音声映像サービスのアドバンスド・ビデオ・コーディング(Advanced Video Coding for generic audiovisual services)」に記載されており、本明細書ではH.264規格またはH.264仕様、あるいはH.264/AVC規格または仕様と呼ばれ得る。ジョイントビデオチーム(Joint Video Team:JVT)はH.264/AVCへの拡張の取り組みを続けている。
ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(digital signal processor:DSP)、特定用途向け集積回路(application specific integrated circuit:ASIC)、フィールドプログラマブルゲートアレイ(field programmable gate array:FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、あるいはそれらの任意の組合せとして実装され得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも、複合エンコーダ/デコーダ(コーデック)の一部として、モバイルデバイス、加入者デバイス、ブロードキャストデバイス、サーバなど、それぞれのデジタルビデオデバイスに統合され得る。
ビデオシーケンスは一連のビデオフレームを含む。場合によっては、ビデオシーケンスはピクチャグループ(group of picture:GOP)として構成され得る。ビデオエンコーダ20は、ビデオデータを符号化するために、個々のビデオフレーム内のビデオブロックに作用する。ビデオブロックは、固定サイズまたは可変サイズを有し得、指定のコーディング規格に応じてサイズが異なり得る。各ビデオフレームは一連のスライスを含み得る。各スライスは一連のマクロブロックを含み得、それらはより一層小さいブロックに構成され得る。マクロブロックは一般に16×16データブロックを指す。ITU−T H.264規格は、ルーマ成分については16×16、8×8、または4×4、およびクロマ成分については8×8など、様々なブロックサイズのイントラ予測をサポートし、ならびにルーマ成分については16×16、16×8、8×16、8×8、8×4、4×8および4×4、およびクロマ成分については対応するスケーリングされたサイズなど、様々なブロックサイズのインター予測をサポートする。本開示では、ビデオブロックという用語は、ビデオフレーム中のピクセルブロックを指し、マクロブロックあるいはより小さいまたはより大きいブロックであり得る。
図2は、現在のビデオブロックを符号化するために使用されるであろう候補参照ブロックの時空間依存性(TSD)値に基づいてコーディングモード(すなわち、イントラまたはインター)を選択する本開示の技法を実行する予測ユニット42を含むビデオエンコーダ20の一例を示すブロック図である。符号化すべき各ビデオブロックについて、ビデオエンコーダ20は候補ビデオブロックのTSDを判断する。すなわち、ビデオフレームの各ブロックについて、エンコーダは、候補参照ビデオブロックが依存する1つまたは複数の前のビデオフレーム中の1つまたは複数のビデオブロックの時空間依存性値を維持する。エンコーダは、たとえば、この依存性をTSDストレージデバイス中に維持し得る。
図2に示すように、ビデオエンコーダ20は、符号化すべきビデオフレーム内の現在のビデオブロック40を受信する。図2の例では、ビデオエンコーダ20は、予測ユニット42と、参照フレームストア44と、時空間依存性(TSD)ストレージデバイス45と、ブロック変換ユニット46と、量子化ユニット48と、逆量子化ユニット50と、逆変換ユニット52と、エントロピー符号化ユニット54とを含む。ブロック境界をフィルタ処理してブロッキネスアーティファクトを除去するためにデブロッキングフィルタ(図示せず)も含まれ得る。ビデオエンコーダ20はまた、加算器56と加算器58とを含む。
インターコーディングの場合、予測ユニット42は、符号化すべき現在のビデオブロック40を、1つまたは複数のビデオ参照フレーム中の様々な候補参照ブロックと比較する。イントラコーディングの場合、予測ユニット42は、同じコーディングされるフレームのすでにコーディングされた近隣ビデオブロックから符号化すべきビデオブロックを予測する。前に符号化されたブロックから再構成されたビデオブロックを記憶するための任意のタイプのメモリまたはデータストレージデバイスを備え得る参照フレームストア44から、予測データが検索され得る。予測ユニット42は、現在のビデオブロックをコーディングするために使用される予測ブロックを識別するために使用され得るシンタックス要素を備える、予測モードおよび動きベクトルを発生し得る。イントラコーディングの場合、予測ユニット42は空間予測ユニットを備え得る。インターコーディングの場合、予測ユニット42は、図4に関して以下でより詳細に図示および説明するように、動き推定ユニットと動き補償ユニットとを含み得る。
予測ユニット42はさらにモード選択ユニット(図2に図示せず)を備える。予測ユニット42のモード選択ユニットは、フレームレベルまたはブロックレベルのいずれかで、インターコーディングまたはイントラコーディングのいずれかを選択する。図4に関して以下でさらに詳細に説明し、本開示の技法に一致するように、モード選択ユニットは、現在のブロックをコーディングするためのすべての候補参照ブロックの時空間依存性値がしきい値を超える場合、現在のブロックを符号化するためにイントラコーディングを選択し、ブロックの時空間依存性値がしきい値を超えない場合、ブロックを符号化するために、以下で説明する他のファクタに応じてインターコーディングを選択し得る。代替的に、すべての候補参照ブロックのTSD値をしきい値と比較する代わりに、各候補参照ブロックのTSD値を、現在のブロックとのインターコーディングによって生じるであろう1つの追加の依存性に加算し得、次いで、その和をしきい値と比較し得る。ただし、場合によっては、時空間依存性に基づいてインターコーディングが選択される場合でも、モード選択ユニットは、IRレート、ひずみまたは利用可能なビットレートなど、他の考慮事項に基づいてイントラコーディングを選択し得る。
ビデオエンコーダ20は、符号化されている元の(現在の)ビデオブロックから、予測ユニット42によって生成された予測ブロックを減算することによって、残差ビデオブロックを形成する。予測ブロックは、現在のブロックのインターコーディングのために実際に選択された候補参照ブロックである。予測ブロックは、その予測ブロックが時空間依存性限界を満たすと仮定して、符号化すべきブロックに最もぴったり一致する候補参照ブロックとして選択され得る。加算器58は、この減算演算を実行するユニットまたはモジュールを表す。ブロック変換ユニット46は、離散コサイン変換(discrete cosine transform:DCT)または概念的に同様の変換など、変換を残差ブロックに適用し、残差変換ブロック係数を備えるビデオブロックを生成する。ブロック変換ユニット46は、たとえば、概念的にDCTと同様である、H.264規格によって定義された他の変換を実行し得る。
量子化ユニット48は、ビットレートをさらに低減するために残差変換係数を量子化する。量子化ユニット48は、たとえば、係数の各々をコーディングするために使用されるビット数を制限し得る。量子化後に、スキャンユニット(図示せず)は、量子化係数ブロックを2次元表現から1次元ベクトルへスキャンする。次いで、このスキャニングプロセスの後、エントロピー符号化ユニット54が、データをさらに圧縮するために、CAVLCまたはCABACなどのエントロピーコーディング方法に従って量子化変換係数を符号化する。
エントロピー符号化ユニット54によるエントロピーコーディングの後、符号化されたビデオは、別のデバイスに送信されるか、あるいは後で送信または検索するためにアーカイブされ得る。逆量子化ユニット50および逆変換ユニット52は、それぞれ逆量子化および逆変換を適用して、ピクセル領域中の残差ブロックを再構成する。加算器56は、再構成された残差ブロックを、予測ユニット42によって生成された予測ブロックに加算して、再構成されたビデオブロックを生成し、参照フレームストア44に記憶する。所望される場合、再構成されたビデオブロックは、参照フレームストア44に記憶される前に、デブロッキングフィルタユニット(図示せず)をも通過し得る。再構成されたビデオブロックは、後続のビデオフレーム中のブロックをインターコーディングするための、または同じコード化ユニット内の将来の近隣ブロックをイントラコーディングするための参照ブロックとして予測ユニット42によって使用され得る。
図3は、本明細書で説明する方法で符号化されたビデオシーケンスを復号するビデオデコーダ30の一例を示すブロック図である。ビデオデコーダ30は、図2のエントロピー符号化ユニット54によって実行される符号化の逆復号関数を実行するエントロピー復号ユニット60を含む。ビデオデコーダ30はさらにROI選択ユニット63を含む。ROI選択ユニット63は、ユーザ入力またはアプリケーションコマンドに基づいてROIを定義し、復号を特定の領域に集中する。ROI内で定義されていないフレームの部分は復号されない。ズーム機能が実行される場合、デバイスのディスプレイを埋めるために、補間による解像度のアップスケールが使用され得る。そのようなアップスケールは、復号後にピクセル領域において達成され得る。
ビデオデコーダ30は、ビデオフレーム内のブロックのイントラ復号およびインター復号を実行し得る。図3の例では、ビデオデコーダ30はまた、予測ユニット62と、逆量子化ユニット64と、逆変換ユニット66と、参照フレームストア68とを含む。ビデオデコーダ30はまた加算器70を含む。随意に、ビデオデコーダ30はまた、加算器70の出力をフィルタ処理するデブロッキングフィルタ72を含み得る。
イントラコーディングの場合、予測ユニット62は空間予測ユニットを備え、インターコーディングの場合、予測ユニット62は動き補償ユニットを備え得る。逆量子化ユニット64は逆量子化を実行し、逆変換ユニット66は、逆変換を実行して、ビデオブロックの係数をピクセル領域に戻す。加算器70は、ユニット62からの予測ブロックを逆変換ユニット66からの再構成された残差ブロックと合成して、再構成されたブロックを発生し、その再構成されたブロックは、参照フレームストア68に記憶される。所望される場合、再構成されたビデオブロックは、参照フレームストア68に記憶される前に、デブロッキングフィルタユニット72をも通過し得る。復号されたビデオは、参照フレームストア68から出力され、また、後続の予測において使用するために予測ユニット62にフィードバックされ得る。
本開示で説明する技法を使用して、ビデオデコーダ30に入力される、符号化されたビデオは、空間依存性の時間伝搬が制約され得るように構築される。その結果、ビデオデコーダ30は、コーディングループから抜け、大きい時空間依存性をもつブロックを復号する目的のためのみに使用される非ROIブロックを復号する必要なしに、前に復号されたROIブロックを使用して連続復号モードで動作し得る。ビデオデコーダは、コーディングループから抜け、参照フレームストア内に記憶されたいくつかの非ROIブロックを復号し得るが、連続復号モードほど効率的ではない。
図4は、予測ユニット42の一例を示すブロック図である。図4に示すように、予測ユニット42は、インターコーダ(INTER)80と、イントラコーダ(INTRA)82と、モード選択ユニット84とを含む。インター予測またはイントラ予測フレーム(「予測フレーム」)は、インターコーダ80またはイントラコーダ82のいずれかから取得される。インターコーダ80は、到着フレームFnのインターコーディングを、たとえば、MPEG−4またはH.264圧縮方法に従って実行する。図4に示すように、インターコーダ80は、前に符号化されたフレームF´n−1、または前に符号化されたフレームF´n−2,F´n−3....F´n−xに対する到着フレームFnの標準的なインターコーディングをサポートするために、動き推定(motion estimation:ME)ユニット86と動き補償(motion compensation:MC)ユニット88とを含む。特に、インター予測は、1つまたは複数の前のフレームF´n−xからの動き補償予測によって形成される。前のフレームF´n−2,F´n−3...F´n−xは、前に符号化され、再構成されてF´n−1を生成し得る。
イントラコーダ82は、イントラ予測を生成するために到着ビデオフレームFnのイントラコーディングを実行する。イントラ予測は、前に符号化され、復号され、再構成されて再構成フレームF´nを形成した現在のフレームFn中のサンプルから形成される。得られたイントラ予測は、ビデオエンコーダ20がイントラモードで動作しているときは、図2に示す加算器58に適用される。イントラコーダ82は、Iフレームを発生するためにイントラコーディングを実行し得、またはイントラリフレッシュ(intra−refressing:IR)をサポートするためにPフレーム内で選択されたビデオブロックをイントラコーディングし得る。
モード選択ユニット84は、たとえば、フレームごとまたはブロックごとに、インターコーディングとイントラコーディングとの間で選択的に切り替える。特に、モード選択ユニット84は、フレームレベルまたはブロックレベルのいずれかで、インターコーダ80またはイントラコーダ82のいずれかの出力を選択する。このようにして、モード選択ユニット84は、図2の加算器58に適用される予測ブロックがインターコーディングされるかまたはイントラコーディングされるかを判断する。
モード選択ユニット84は、ブロック上でイントラコーディングを使用すべきかインターコーディングを使用すべきかを決定する際に1つまたは複数のファクタを使用し得る。たとえば、モード選択ユニット84は、コーディングのために利用可能なビットレートと、チャネル損失率と、ひずみ(distortion:D)と、イントラリフレッシュ(IR)レートとに基づいてモード決定を行い得る。さらに、本開示によれば、モード選択ユニット84は時空間依存性(TSD)値を使用し得る。
イントラコーディングモードは、インターコーディングモードと比較して、よりかなり多くの符号化すべき情報、したがってビットを必要とする。したがって、イントラコード化フレームの送信は、ビットレートの大きいスパイクを生じる。フレーム全体をイントラコーディングするのではなく、代わりに、いくつかのフレームにわたってフレーム全体のイントラコーディングを分散させることが望ましいことがある。すなわち、現在のフレームのうちのいくつかのブロックのみをイントラコーディングし、次いで、後続のフレーム中の残りのブロックをイントラコーディングすることによって、ピーク対平均ビットレートは低減され得る。したがって、モード選択ユニット84は、コーディング決定を行う際に、所望のビットレートと利用可能な帯域幅とを考慮に入れ得る。
コーディングビットレートに加えて、いくつかの例では、モード選択ユニット84は、コーディング決定を行うためにチャネル損失確率をも使用し得る。推定チャネル損失率は、現在のフレームがチャネル16上で送信されるときにドロップされる可能性を定量化する。チャネル損失の可能性が増加するにつれて、フレームまたはブロックをイントラコーディングすることがより望ましくなり得る。
さらに、モード選択ユニット84は、コーディング決定を行うためにイントラリフレッシュ(IR)レートをも使用し得る。あるフレームから別のフレームへのチャネル誘導誤りの伝搬を制限するために、ビデオエンコーダは一般にIR技法を適用する。IR技法に従って、予測フレーム内のブロックは、インターコーディングではなく、選択的にイントラコーディングされる。イントラコード化ブロックは、誤り耐性を改善することができるが、送信しなければならないビット数の増加を必要とすることがある。したがって、IRレートは、誤り耐性および帯域幅効率に関して符号化性能に影響を及ぼす。
IRレートは、概して、イントラリフレッシュされるブロックの数を決定し、フレームレベルまたはブロックレベルにおいて適用され得る。IRレートは、ビデオコンテンツに基づいて、またはビデオコンテンツとチャネル状態の組合せに基づいて、判断され得る。たとえば、IRレートは、推定チャネル損失率、現在のフレームと別のフレームとの間のフレーム間ばらつき、および現在のフレームのテクスチャ情報を測る複合メトリックに基づいて判断され得る。概して、ブロックがイントラコーディングされるべきことをIRレートが示している場合、モード選択ユニット84は、他のファクタを評価する必要なしにイントラコーディングモードを選択し得る。
上述のように、モード選択ユニット84は、ひずみ計算に基づいてコーディングモード決定を行い得る。ひずみは、元のブロックと予測ブロックとの間の誤りである。ブロックをインターコーディングすると、ひずみしきい値を超えるひずみレベルが生じる場合、モード選択ユニット84は、そのブロックをコーディングするためにイントラコーディングを使用することを決定し得る。ひずみしきい値は所望の画像品質によって変わる。
本開示によれば、コーディング決定を行うためにモード選択ユニット84によって使用され得る別のファクタは、現在のビデオブロックをインターコーディングするために利用可能な候補参照ブロックの時空間依存性(TSD)値である。候補ビデオブロックの時空間依存性値は、インターコーディング技法を使用してブロックをコーディングすべきかまたはイントラコーディング技法を使用してブロックをコーディングすべきかを判断する際に、モード選択ユニット84によって使用され得る。図5〜図7を参照しながら以下でより詳細に説明する、ビデオブロックの空間依存性の時間伝搬が、たとえば、モード選択ユニット84によってアクセス可能なデータベースにおいて追跡され得る。モード選択ユニットは、各候補ビデオブロックの時空間依存性値を依存性しきい値85と比較し、その比較の結果に応じて、現在のブロックに対してイントラコーディングを使用することを決定し得る。依存性しきい値85は、モード選択ユニット84と通信している時空間依存性しきい値メモリに記憶され得る。モード選択ユニット84が、依存性しきい値に基づいて現在のブロックに対してイントラコーディングを使用しないことを決定する場合でも、モード選択ユニット84は、IRレート、コーディングビットレート、ひずみ、およびチャネル損失率などの他のファクタに基づいて、現在のブロックに対してイントラコーディングを使用することを選択し得ることに留意されたい。
図5は、ビデオ符号化における空間依存性の時間伝搬を示す図である。図5は、9×11ブロックのサイズを有し、単一のスライスとして符号化される例示的なビデオフレームを示している。現在のビデオフレームのどのブロックも、同じロケーションにおける(すなわち、コロケートされた)ブロック、または次のフレームのすぐ隣接するロケーションにおけるブロックの予測符号化のための参照ブロックとして使用され得る。たとえば、フレームNは、単一の符号化ブロックまたは中心ブロック100を示す。フレームN中の符号化された中心ブロック100を使用して、102に示す、フレームN+1中の3×3=9個のすぐ隣接しコロケートされたブロックのいずれかを予測し得る。その後、フレームN+1中のそれらの9つのブロックを使用して、104に示す、フレームN+2中のすぐ隣接しコロケートされたブロックの別のグループを予測し得、フレームN中のブロック100に基づいて符号化された5×5=25個のブロックグループが得られる。同様に、104に示すフレームN+2中の25個のブロックを使用して、106に示す、フレームN+3中のすぐ隣接しコロケートされたブロックの別のグループを予測し得、7×7=49個のブロックグループが得られる。次いで、106に示すフレームN+3中の49個のブロックを使用して、108に示す、フレームN+4中のすぐ隣接するブロックの別のグループを予測し得、フレームN中のブロック100に基づいて符号化された9×9=81個のブロックグループが得られる。図5は、このようにして、ビデオエンコーディングにおける空間(すなわち、同じフレーム中の隣接するブロック)依存性の時間(すなわち、複数のフレームにわたる)伝搬を示している。
ビデオ符号化プロセスにおける図5に示すビデオブロックの空間依存性の時間伝搬またはフレーム間伝搬は、ビデオデコーダに要件を課する。詳細には、ビデオデコーダは、現在のフレームを復号するために、過去のフレームがビデオデコーダにとって利用可能である必要がある。これを図6に示す。図6は、ビデオ復号における空間依存性の時間要件を示す図である。図6は、本質的に図5の逆である。図6に示すように、フレームNの中心ブロック100を復号することは、前のフレームN−1に示す3×3=9ブロックのいずれもデコーダにとって利用可能であることを必要とし得る。デコーダにとって利用可能であるために、前のフレームN−1の9つのブロックは、フレームN−2中の5×5=25ブロックのいずれも同じくデコーダにとって利用可能であることを必要とし得る。また、フレームN−2の25個のブロックは、フレームN−3中の7×7=49個のブロックのいずれも同じくデコーダにとって利用可能であることを必要とし得る。最後に、フレームN−3の49個のブロックは、フレームN−4中の9×9=81ブロックのいずれも同じくデコーダにとって利用可能であることを必要とし得る。したがって、隣接ブロックを考慮する動き推定探索範囲に従って、フレームN−3中のブロックは、フレームN−2中のブロックのための可能な候補参照ブロックを形成し、フレームN−2中のブロックは、フレームN−1中のブロックのための可能な候補参照ブロックを形成し、フレームN−1中のブロックは、フレームN中のブロックのための可能な候補参照ブロックを形成する。
ビデオブロックの空間依存性のフレーム間伝搬の問題は、図7に示すように、ブロックのフレーム内空間依存性によってさらに複雑になり得る。図7は、ビデオ復号における、フレーム内空間依存性と組み合わせられた、図6に示す空間依存性の時間要件を示す図である。図7は、フレームN中の中心ブロック100にすぐ隣接する8つのブロックのいずれかが予測復号のために使用され得ることを示している。したがって、中心ブロック100は、同じフレーム中のすぐ隣接するブロックを使用する(フレーム内空間依存性)か、あるいは前のフレーム中のすぐ隣接するかまたはコロケートされたブロックを使用して(フレーム間空間依存性)、復号され得る。ただし、実際には、ブロック符号化の順序のせいで、8つのブロックのすべてが復号のために使用される可能性は低い。
図5〜図7は、符号化されたビデオから連続フレームにわたって数個のブロックを復号することは、フレームごとにそれらのブロックを単独で復号するだけでは起こり得ないことを示している。すなわち、既存の符号化方法を使用して現在のフレームの一部分のみを連続的に復号することは不可能である。そうではなく、現在のフレームの一部分のみを復号するためには、デコーダは、通常、時間的に数フレーム前にフレーム全体がデコーダにとって利用可能である必要があるであろう。
本開示の1つの例示的な技法は、符号化された各ビデオブロックの依存性を追跡し、その依存性を制約する能力をビデオエンコーダに与えることによって、空間依存性の時間伝搬の影響を低減し得る。図8Aは、従来の符号化技法の場合のように、制約なし依存性範囲を有するビデオフレームのグラフと、本開示の一例の場合のように、制約付き依存性範囲を有するビデオフレームのグラフとの比較を示す図である。
図8Aは、連続するフレームにわたる空間依存性範囲伝搬の3つのレート(それぞれ、線形、アグレッシブ、適度)をもつ3つの異なる場合(左側、中央、および右側)を使用して、時間制約付き空間依存性の概念を示している。グラフの下部セットと上部セットの両方は、マクロブロック(MB)の数の依存性範囲がフレーム番号に関してどのように変化するかを示す。各グラフにおいて、フレーム番号1はイントラコード化MBで開始する。したがって、フレーム1中のブロックがどの前のフレームにも依存しないように、すべての依存性がリセットされる。グラフの上部セットは、制約なし依存性範囲では、時空間依存性の拡大は、最終的にそれぞれフレーム番号6、4、および12でフレームエッジに達することを示している。グラフの下部セットは、空間依存性を所定の範囲内に制約された状態に保つために、必要なときはいつでも、フレーム内符号化を使用することを示している。グラフの下部セットの左側の場合では、フレーム番号4で制約付き依存性範囲に達した。したがって、フレーム5に示すように、イントラコーディングが実行され、それによって依存性範囲をリセットする。グラフの下部セットの中央の場合では、イントラコーディングはフレーム1、3、5、7、8、および11において実行される。この例ではイントラコーディングが極めて頻繁に実行されることを強制されるので、結果としてMBの数の依存性範囲が制約付き依存性範囲に決して達しないことによって示されているように、依存性は、制約付き依存性範囲にさえ伝搬することを可能にされない。依存性制約が厳しくなると、フレーム内符号化が多くなり、それによりビデオコーディングの効率が低減することは明らかである。ROIのサイズは既知でないことがあるので、たとえば、宛先デバイス上のディスプレイデバイスのサイズ、エンコーダの所望の効率、および許容画像品質劣化の量などのファクタに基づく、固定または可変の所定の範囲、またはTSD値を選択することが必要であることに留意されたい。
図8Bは、図8Aの図と同様であり、連続するフレームにわたる空間依存性範囲伝搬の3つのレート(それぞれ、線形、アグレッシブ、適度)をもつ3つの異なる場合(左側、中央、および右側)を示す。グラフの上部セットと下部セットの両方は、マクロブロック(macroblock:MB)の数の依存性範囲がフレーム番号に関してどのように変化するかを示す。各グラフにおいて、フレーム番号1はイントラコード化MBで開始する。したがって、図8Aの場合のように、すべての依存性はリセットされる。しかしながら、図8Bでは、上部のグラフは、一般に従来のビデオエンコーダによって必要とされる周期フレーム内符号化を含むように修正されている。たとえば、図8B中のグラフの上部セットの左側のグラフは、イントラコーディングがフレーム6および11において実行され、それによってフレームエッジへの時空間依存性の拡大を防ぐことを示しているが、グラフの下部セット中の左側のグラフに示すように、本開示で説明する技法を使用するものよりも、依然としてMBの数の依存性範囲のより高いフレームを生じる。グラフの上部セット中の中央のグラフは、アグレッシブなレートでは、時空間依存性の拡大は、イントラコーディングが実行される前に、最終的にフレーム4および5においてフレームエッジに達し、次いで、イントラコーディングが再び実行される前に、最終的にフレーム9および10において再びフレームエッジに達することを示している。ブロックの周期フレーム内符号化を伴うビデオ符号化と比較して、ビデオコンテンツによっては、空間依存性を制約するための追加のフレーム内符号化のコストは過大でないことがある。
図9は、本開示による、空間依存性を時間的に制約するための例示的なビデオエンコーダアーキテクチャおよび動作を概念的に示す図である。図9は、空間依存性を時間的に制約する際のビデオエンコーダ20の例示的な機能を示している。符号化すべきすべてのMBについて、ビデオエンコーダ20のMB符号化ループは、予測のために候補MBに対して依存性検査を実行する。言い換えれば、符号化すべき各ビデオブロックについて、ビデオエンコーダ20は候補ビデオブロックの時空間依存性を判断する。エンコーダは、候補ビデオブロックが依存する1つまたは複数の前のビデオフレーム中の1つまたは複数のビデオブロックの時空間依存性値を維持する。MB符号化ループは、MB時空間依存性(TSD)データベースにアクセスすることによって依存性検査を実行する。上述のように、時空間依存性は、メモリなどのストレージデバイス中のデータベース、ルックアップテーブル、リンクリスト、ハッシュテーブル、ツリー、バイナリツリー、または他のタイプのデータ構造中に配置され得る。上記データベースは、候補MBをルックアップし、候補MBのそれぞれの依存性を検査する。フレームN中の候補ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数が、時空間依存性値を定義する。現在のビデオブロックは1つの候補ブロックのみに依存するが、その候補ブロックは別のブロックに依存し、そのブロックは別のブロックに依存し得、以下同様である。上記データベースは、依存性範囲制約を超えない適格なMBを戻す。次いで、MB符号化ループは、インターコーディングを実行すべきなのか、イントラコーディングを実行すべきなのか、依存性探索を実行すべきなのか、などを決定する。最後に、MB符号化ループはMB TSDデータベースを更新する。すなわち、TSDデータベースは、符号化されたすべてのMBについての新しいTSD値で更新され、それにより、エンコーダは、そのMBが後で別のMBに対する候補参照MBと見なされた場合、そのMBについてのTSD値を検索することが可能になる。図9ではマクロブロック(MB)に言及するが、本明細書でおよび図9に関して説明する技法は、ビデオブロック全般に適用され得、マクロブロックとの使用に限定されないことに留意されたい。
限定はしないが、説明のためにのみ、図9は、フレームN中のブロックに対する候補参照ブロックと見なされる、フレームN−1中のブロック200が、210において示される2つのブロックに依存するものとしてデータベース45中に記録されていることを、グラフィカルに示している。たとえば、2つのブロック210のうちの第1のブロックはN−2フレームからのブロックであり得、2つのブロック210のうちの第2のブロックはN−3フレームからのブロックであり得る。同様に、N−1フレームのブロック202は、212において示されるただ1つのブロックに依存し得、そのブロックはN−2フレームからのブロックであり得る。また、ブロック204は、214におけるブロック204に関連するブロックの欠如によって図9に表されるように、いかなる依存性をも有しないことがある。さらなる例として、ブロック206は、216において示される3つのブロックに依存し得る。これらの3つのブロックは、たとえば、N−2、N−3、およびN−4の、前に復号されたフレームからのブロックであり得る。そのような方法で、現在のフレームをインターコーディングするために使用され得る各候補参照ブロックの依存性は、データベース45においてエンコーダ20によって、または何らかのデータ構造、アレイ、記録の集合などによって、維持される。また、候補ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数に基づいて、時空間依存性値が計算され得る。
さらに図9を参照すると、ビデオエンコーダ20は、候補ブロックの時空間依存性値を時空間依存性しきい値と比較する。特に、ビデオエンコーダ20は、現在のブロックについて、データベース45にアクセスし、1つまたは複数の候補ブロックの依存性を検索し、候補ブロックの依存性を時空間依存性しきい値と比較し得る。たとえば、時空間依存性しきい値は、2であるようにあらかじめ設定されていることがある。したがって、候補ブロックが3つ以上の前のフレーム中のブロックに依存する場合、その候補ブロックの時空間依存性は、しきい値2を超えたので、高すぎる。この比較に基づいて、エンコーダ20は現在のビデオブロックをイントラコーディングすることを選択する。しかしながら、イントラコーディングが選択されなかった場合、エンコーダ20は「通常の」コーディングモード決定を使用する。すなわち、エンコーダは、IRレート、ひずみ、コーディングビットレート、およびチャネル損失率に基づいて、現在のブロックをイントラコーディングすべきかどうかを決定する。適格なMBが依存性範囲、またはしきい値を超える場合、エンコーダはイントラコーディングを選択する。適格なMBが依存性範囲、またはしきい値を超えない場合、時空間依存性は、他のファクタを条件として、そのブロックに対してインターコーディング技法を使用するのに十分低い。その比較および選択の例について直下で説明する。
図9の時空間依存性データベースは、ブロック200が2つの前のフレーム中のブロックに依存し、ブロック202が1つの前のフレーム中のブロックに依存し、ブロック204が依存性を有さず、ブロック206が3つの前のフレーム中のブロックに依存することを示している。時空間依存性しきい値が2である場合、候補ブロック200、202、および204は、しきい値以下の依存性を有し、したがって、現在のブロックを符号化するために使用され得る。しかしながら、ブロック206は、しきい値を超える依存性を有し、したがって、現在のブロックを符号化するために使用されない。いくつかの候補ブロック、すなわち、ブロック200、202、および204は、しきい値を超えないので、エンコーダは現在のブロックに対してイントラコーディングを強制しない。代わりに、現在のブロックは、他のファクタを条件として、インターコーディングされ得る。
フレームN中の現在のブロックに対するコーディングが実行されると、データベース45中の時空間依存性値は、上述の技法を使用してフレームN+1が符号化され得るように更新される。たとえば、インターコーディングが使用された場合、符号化されたばかりのブロックのTSD値がTSDデータベース45中で更新される。場合によっては、そのような記録が前もって存在しない場合、符号化されたばかりのブロックについてTSDデータベース45中でエントリを作成する必要があり得る。代わりに、上記ブロックに対してイントラコーディングが強制された場合、そのブロックが前のフレーム中のブロックにもはや依存していないことを反映するために、符号化されたばかりのブロックの依存性は値0にリセットされ得るか、または符号化されたばかりのブロックの依存性は、必要に応じて、何らかの他の値にリセットされ得る。
ブロックの、データベース中のデフォルト時空間依存性値は、0であることに留意されたい。したがって、エンコーダが初めに時空間依存性履歴を作成することを開始するとき、すべてのブロックは値0から開始する。その初期化された状態から、データベースは、データを蓄積し、フレーム中の各ブロックについての履歴を作成する。
時空間依存性しきい値は、たとえば、宛先デバイス上のディスプレイデバイスのサイズ、エンコーダの所望の効率、および許容画像品質劣化の量を含む、いくつかのファクタに基づき得る。
さらに、いくつかの例では、しきい値は、あらかじめ設定された固定値であり得る。たとえば、ビデオブロックが3よりも大きい時空間依存性を有しないことが、あらかじめ設定され得る。あるいは、少なくとも1つの例では、しきい値は、固定値ではなく、可変または調整可能であり得る。たとえば、調整可能なしきい値を選択することによって、エンコーダは、顔など、ROIの高テクスチャエリアには、しきい値をより低くなるように調整し、背景における壁のような、ROIの低テクスチャエリアには、しきい値をより高くなるように調整し得る。このようにして、閲覧者にとって概してより関心がある高テクスチャエリアは、低テクスチャエリアよりも高いビデオ品質を有し得る。概して、空間依存性の範囲が大きいほど、ビデオ符号化は効率的になる。しかし、より大きい空間依存性に起因する、より広い空間エリアを復号すると、パンサポートが遅くなり得る。したがって、異なるビデオアプリケーションの要件に応じて、しきい値が固定ではなく可変であることを可能にすることは、ビデオ品質とコーディング効率との間の最適化を可能にし得る。上記の例では、より高いテクスチャのエリアは、より高いビデオ品質で符号化し、より低いテクスチャのエリアは、より低いビデオ品質で符号化することによって、ビデオ品質とコーディング効率との間の平衡がとられる。
上述のように、図4のモード選択ユニット84は、インターコーディングを使用してブロックを符号化すべきなのか、イントラコーディングを使用してブロックを符号化すべきなのかを判断するために、IRレートを使用する。IRレートは、概して、イントラリフレッシュされるブロックの数を決定し、フレームレベルまたはブロックレベルにおいて適用され得る。IRレートは、ビデオコンテンツに基づいて、またはビデオコンテンツとチャネル状態の組合せに基づいて、判断され得る。本開示の少なくとも1つの例示的な技法は、効率を高めるために、上記で説明した技法をIRレートと組み合わせる。たとえば、フレームN中の現在のブロック「A」を符号化することを試みる際に、ビデオエンコーダは、前のフレームN−1中の候補ブロック「B」の過大な時空間依存性に基づいて、ブロック「A」がイントラコーディングされるべきであることを決定し得る。次に、次のフレームN+1中で、IRレートは、ブロック「A」が再びイントラコーディングされるように設定され得る。ブロック「A」が前のフレーム中でイントラコーディングされたことを考慮すれば、フレームN+1中のブロック「A」をイントラリフレッシュすることは場合によっては非効率的であり得ることが明らかであるはずである。したがって、時空間依存性制約のためにブロックが前にイントラコーディングされたか否かに基づいて、IRレートが調整されることが望ましいことがある。いくつかの例では、依存性に基づいてIRレート制御が調整され得るように、IRレート制御ユニットが時空間依存性データベースと通信していることもある。少なくとも1つの例では、依存性制約の理由でブロックがイントラコーディングされた場合にIRレートが相応に調整され得るように、モード選択ユニット84はIRレート制御機構にフィードバックを与え得る。
図10は、本開示によるコーディングモード判断方法を示すフロー図である。図10の例では、ビデオエンコーダは、ビデオフレーム中の1つまたは複数の候補ビデオブロックの時空間依存性を判断する(240)。時空間依存性は、候補ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数を定義する。また、候補ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数は、時空間依存性値を定義する。たとえば、フレームN−1の候補ブロックはフレームN−2中のビデオブロックに依存し得、そのビデオブロックはフレームN−3中のビデオブロックに依存し得、そのビデオブロックはフレームN−4中のビデオブロックに依存し得る。したがって、その候補ブロックは時空間依存性値3を有する。ビデオエンコーダ20は、次いで、時空間依存性値を時空間依存性しきい値と比較する(242)。たとえば、時空間依存性しきい値が固定値2である場合、上記の例の候補ブロックの時空間依存性はしきい値を超えるであろう。次いで、ビデオエンコーダは、その比較に基づいて現在のビデオブロックのためのコーディングモードを選択する(244)。時空間依存性値がしきい値を超える場合、ビデオエンコーダは、現在のブロックがイントラコーディングされるように強制する。時空間依存性がしきい値を超えない場合、ビデオエンコーダは、イントラコーディングを強制せず、イントラリフレッシュ(IR)レート、動き補償によって示されるコーディングひずみ、および/または利用可能なコーディングビットレートなど、他のファクタに基づいてそのブロックのためのモード決定を行う。
図11は、本開示による別のコーディングモード判断方法を示すフロー図である。図11中の例では、ブロックについての時空間依存性しきい値を設定する(250)。ビデオエンコーダは、次いで、符号化すべき、現在のビデオフレーム中のブロックを選択する(252)。ビデオエンコーダは、時空間依存性ストレージデバイス45にアクセスし(254)、1つまたは複数の候補ブロックの依存性についてストレージデバイス45に問い合わせる(256)。時空間依存性値をビデオエンコーダに戻す(258)。ビデオエンコーダは、戻された時空間依存性と時空間依存性しきい値とを比較する(260)。時空間依存性がしきい値を超える場合、エンコーダは、現在のブロックに対してイントラコーディングモードを強制する(262)。次いで、ストレージデバイス45中のブロック依存性をリセットし、いくつかの例では、IRレートを変更し(264)、ビデオエンコーダは、符号化する新しいブロックを選択する準備が整う(252)。時空間依存性がしきい値を超えない場合、ビデオエンコーダは、イントラコーディングを強制せず、代わりに、イントラリフレッシュ(IR)レート、動き補償によって示されるコーディングひずみ、および/または利用可能なコーディングビットレートなど、他のファクタに基づいてそのブロックのためのモード決定を行う(266)。次いで、そのブロックが前のフレーム中のブロックに基づいて符号化されたことを反映するために、データベース中の依存性を更新し(268)、ビデオエンコーダは、符号化する新しいブロックを選択する準備が整う(252)。
上記で説明した技法を使用して、局所ROIビデオ復号を連続的に実行することが可能であり、なぜなら、ROI中のブロックは、前のフレームからのROIを越えた所定の範囲内の復号されたブロックが利用可能であることを必要とするにすぎないからである。また、復号および表示のためのブロックのランダムアクセスは、すべてのビデオコーデックによってサポートされるUserDataフィールド中にブロック位置ルックアップテーブルを埋め込むことによって行われ得る。
再び図3を参照すると、上述のように、ROI選択ユニット63は、ユーザ入力またはアプリケーションコマンドに基づいてROIを定義し、その復号を特定の領域に集中する。いくつかの例では、ROI内で定義されていないフレームの部分は復号されない。非ROI部分を復号しないことによって、デコーダ30は、ビデオを復号することと、復号されたビデオを提示することとのために必要とされる処理の量を実質的に低減し得る。ROI選択ユニット63は、ROI選択エリアを定義するデータを予測ユニット62に出力する。選択エリアはユーザ入力によって定義され得る。ユーザは、スタイラス、タッチスクリーン、サイズ変更可能な長方形、数字指示などを使用して、選択エリアを定義し得る。予測ユニット62は、ROI内のブロックを復号することを開始するために、ROI選択エリアを必要とする。概念的な目的のためにのみ、宛先デバイス14のディスプレイデバイス32はm×mフレームのサイズを有し得、ユーザはタッチスクリーンなどのROI選択ユニット63を使用してROIを選択し得る。一例として、選択されたROIはn×nのサイズを有し得、ただし、nはm未満である。例示のために正方形のROIについて説明するが、ROIは、矩形であるか、または、たとえば、スタイラスによって定義された不規則形状を有し得る。n×nエリアを定義するデータは、ROI選択ユニット63から予測ユニット62に出力される。予測ユニット62は、次いで、そのROIを生成するために予測ユニット62が復号しなければならない正確なブロックを知る。
しかしながら、図6に示す、上記で説明した空間依存性の時間伝搬のため、デコーダ30が単にROI内のブロックを復号することができる可能性は低い。むしろ、デコーダ30は、ROIの外側の追加のブロックを復号しなければならない。再び図6を参照すると、説明のために、ROIが3×3=9ブロックの領域であると仮定した場合、フレームNの中心ブロック100を復号することは、前のフレームN−1に示す3×3=9ブロックのいずれもデコーダにとって利用可能であることを必要とし得る。デコーダにとって利用可能であるために、前のフレームN−1の9つのブロックは、フレームN−2中の5×5=25ブロックのいずれも同じくデコーダにとって利用可能であることを必要とし得、なぜなら、それらのブロックは、動き探索の結果を受けて、3×3=9ブロックのいずれに対しても参照ブロックとして働き得るからである。また、フレームN−2の25個のブロックは、フレームN−3中の7×7=49ブロックのいずれも同じくデコーダにとって利用可能であることを必要とし得る。最後に、フレームN−3の49個のブロックは、フレームN−4中の9×9=81ブロックのいずれも同じくデコーダにとって利用可能であることを必要とし得る。
上記の例を続けると、ROIが、図6中のフレームN−1に示す3×3エリアであった場合、デコーダは、フレームN−2中の5×5=25ブロックのいずれも同じくデコーダにとって利用可能であることを必要とし得る。また、フレームN−2の25個のブロックは、フレームN−3中の7×7=49ブロックのいずれも同じくデコーダにとって利用可能であることを必要とし得、以下同様である。ROIと比較して、復号すべきビデオエリアをどのくらい大きくする必要があるかをデコーダが決定するために、デコーダ、および特に予測ユニット62は、符号化プロセス中にエンフォースされた時空間依存性(TSD)値を知っていなければならない。
符号化中にエンフォースされたTSD値は、フレーム全体に対して、個々のスライスに対して、または個々のマクロブロックに対して、実行され得る。したがって、フレームは、フレームの部分(たとえば、スライスまたはMB)に割り当てられた複数のTSD値を有することができる。一例では、符号化中にエンフォースされたTSD値は、符号化されたビデオビットストリーム内のヘッダ中のデータとして送信され、予測ユニット62によって受信され得る。TSD値は1つまたは複数のヘッダシンタックス要素の形態で送信され得る。いくつかの例では、TSD値はフレームヘッダの一部を形成し得る。他の例では、TSD値はスライスヘッダの一部を形成し得る。いくつかの例では、TSD値はブロックヘッダ(たとえば、マクロブロックヘッダ)の一部を形成し得る。他の例では、個々のマクロブロックのTSD値は、スライスまたはフレームヘッダの一部を形成し得る。
ビデオビットストリーム中で送信されたTSD値は、いくつかの例では、フレームまたはスライスの最大時空間依存性範囲であり得る。たとえば、ビデオフレーム中の各ブロックに対して依存性範囲が変動する場合、送信されたTSD値は最大依存性範囲であり得る。具体的な例として、ビデオフレーム中のブロックのすべてが2、3、または4のいずれかの依存性を有する場合、ビットストリーム中のヘッダ中で送信されたTSD値は4となろう。最大時空間依存性値を送信することにより、デコーダが前のフレーム中の十分な数のブロックを復号するようになり、その結果、後続のビデオフレーム中のブロックを復号するのに十分な数の参照ブロックがデコーダにとって利用可能となる。
他の例では、ビデオビットストリーム中で送信されたTSD値は実際の依存性値であり得る。上記の例では、予測ユニット62は、第1のブロックが依存性2を有し、第2のブロックが依存性3を有し、第3のブロックが依存性4を有し、第4のブロックが依存性3を有することなどを示す、ブロックヘッダ中の情報を受信するであろう。
さらに別の例では、エンコーダがスライスレベルにおいて時空間依存性範囲を制約していた場合、各スライスについての実際の依存性範囲が送信され得る。たとえば、フレームが3つのスライスを有し、スライス1がTSD値2を有し、スライス2がTSD値3を有し、スライス3がTSD値4を有する場合、予測ユニット62は、別々のスライスヘッダ中ですべての3つのスライスについてのTSD値情報を受信するであろう。
予測ユニット62は、ROI選択エリアを定義するデータとTSD値とを受信すると、予測ブロックを発生することを開始し得る。具体的な例として、ROI選択エリアが3×3エリアであり、送信されたTSD値が、値3をもつ最大時空間依存性範囲である場合、予測ユニット62は、7×7の復号されたエリアが、3×3ROIをユーザに提示するために必要とされる最小エリアであると判断するであろう。この場合も、ROIよりも大きいビデオフレームの一部分である、この7×7エリアは、時空間依存性値によって定義される。予測ユニット62は、次いで、参照フレームストア68にアクセスし、予測のためにどの参照フレームが使用されるべきかを判断し得る。
上記の例では、ユーザがパンまたはズームしていない場合は、すなわち、ROIがフレームごとに比較的静的である場合は、最小7×7の復号されたエリアは十分である。しかしながら、その最小エリアのみが復号されており、ユーザがパンまたはズームしている場合は、参照ブロックの十分な領域が復号され、利用可能になるまで、ユーザに画像を提示する際に遅延があり得る。したがって、デコーダは、TSD値によって定義された最小エリアよりも大きいが、依然としてビデオフレーム全体よりも小さいエリアを復号することが望ましいことがある。たとえば、ユーザがパンしている場合、デコーダは、利用可能な十分な復号されたブロックがあるように、7×8エリアを復号し得る。すなわち、ユーザに所望のROIを提示するために必要とされる最小エリアとROIの両方を越えて延びる追加のROIマージンが復号され得る。
概して、ズームは、フレーム内のROIを拡大または縮小するためにズームインまたはズームアウトすることを指し得る。パンは、フレーム内で、水平に左または右に移動するか、あるいは垂直に上または下に移動することを指し得る。ROIを選択することに加えて、デコーダ30は、たとえば、ピクセル補間またはデシメーションによって、ズームをサポートするために、復号されたビデオ中のピクセルデータをスケーリングするための1つまたは複数の後処理ユニットを含み得る。追加のROIマージンは、フレームごとの最大許容変化(すなわち、ズームまたはパンの変化)に応じて選択され得る。フレームごとの最大許容変化は、パンまたはズームするユーザの能力に関する制約として設定され得る。たとえば、ユーザは、フレームごとにx個のマクロブロックの最大レートで、または連続するフレーム間のx個のマクロブロックの最大レートで、左または右にのみパンし得るように制約され得る。この制約に基づいて、デコーダは、ユーザのパンに対応するために、フレームN−2中の7×8マクロブロックエリア、すなわち、復号されたブロックの追加のマージンをもつエリアを復号することが必要であり得る。他の例では、デコーダは、ユーザがどの方向にパンするかを認識しないことがあるので、フレームN−2中の7×9マクロブロックエリアを復号することが必要であり得る。同様に、上または下のパン、あるいはティルトに関して、デコーダは、ユーザのティルトに対応するために、フレームN−2中の8×7マクロブロックエリア、すなわち、復号されたブロックの追加のマージンをもつエリアを復号することが必要であり得る。他の例では、デコーダは、ユーザがどの方向にティルトするかを認識しないことがあるので、フレームN−2中の9×7マクロブロックエリアを復号することが必要であり得る。いくつかの例では、追加のROIマージンは、フレームごとの最大許容変化に直線的に関係し得る。たとえば、フレームごとに1マクロブロックの最大パン変化が許される場合、左、右、上または下のパンをサポートするために復号されるべきマクロブロックのマージンは、マクロブロックの復号された領域全体の周りに1つの復号されたマクロブロックのボーダーを追加すべきである。フレームN中の3×3マクロブロックROIの場合、所与のTSD値が、フレームN−2中のマクロブロックの7×7の復号された領域を規定することがわかっているので、フレームごとに1マクロブロック以下でのパンまたはズームをサポートするための1マクロブロックの追加のマージンは、フレームN−2中の9×9の復号された領域を必要とし得る。他の例では、追加のROIマージンは、非直線関係にあるフレームごとの最大許容変化に関係し得る。
図12は、関心領域(ROI)と、復号される必要があり得るROI外の第1のエリアと、同じく復号される必要があり得る第1のエリア外の第2のエリアとを示す概念図である。図12は、3×3ROIエリア300と、TSD値に基づいて3×3エリア300を復号するために必要とされる、3×3ROIエリア300を包含する7×7エリア310と、最小7×7エリア310を越えて延び、7×7エリア310ならびに3×3エリア300を含む、追加のROIマージン320とを示している。ROIマージンは、9×9ブロックとして示されているが、正方形である必要はない。また、ROIマージンは、フレームごとの最大許容変化に応じて、より大きくなり得る。上述のように、ユーザが3×3ROIエリア300を定義する場合、空間依存性の時間伝搬により、より大きいエリア310が復号される必要があり得る。符号化されたビットストリームが、フレームの最大TSD値が2であることを示すヘッダを含んでいた場合、3×3ROIエリア300を復号するために必要とされる最小エリアは7×7エリア310である。ただし、ユーザはパンまたはズームし得るので、ユーザがパンまたはズームするときにデコーダが前もってブロックを復号することができるように、追加のROIマージン320があることが望ましいことがある。
この場合も、3×3ROIエリアは概念的な目的のためにすぎず、ROI中のMBの数は、通常、より大きいことに留意されたい。さらに、ズームイン、および後処理における補間によるピクセルスケーリングに一致する、スクリーン全体またはスクリーンの実質的部分を埋めるように、小さいROIエリアがスケールアップされ得る。
また、エンコーダがスライスレベルにおいて時空間依存性範囲を制約していた場合、ROIエリア300、3×3ROIエリア300を包含するエリア310、および追加のROIマージン320は、スライス境界を越えて変動し得ることに留意されたい。たとえば、3つの水平スライスに分割されたフレーム、およびスライス1とスライス2との間に延びるROIについて考える。スライス1がTSD値2を有し、スライス2がTSD値3を有した場合、3×3エリアを復号するために必要とされる得られたエリアは、図12中と同様の正方形ではない。スライス1のTSD値がスライス2のTSD値未満であるので、スライス1中にあるROIの部分を復号するために必要とされるエリアは、スライス2中にあるROIの部分を復号するために必要とされるエリアよりも小さいであろう。スライス境界と重複するROIの復号は、上述のように、スライスヘッダ中でTSD値を送信することによって達成される。
TSD値がマクロブロックレベルにおいてエンフォースされると、スライスに関して上記で説明した問題と同様の問題に遭遇する。とはいえ、同様にして、ROIの復号は、上述のように、マクロブロックヘッダ中でTSD値を送信することによって達成される。
いくつかの例では、フレームごとの最大許容変化は、TSD値に基づいて復号される必要があるエリア上に固定マージンを追加することによって判断され得る。そのような方法で、TSD値に基づいて復号される必要があるエリアと追加のROIマージンとは、別個に判断され得る。ユーザが、フレームごとの最大許容変化よりも速いレートでパンまたはズームすることを試みるとき、宛先デバイス14のディスプレイデバイス32は、ユーザが最大許容変化を超えたことを示すメッセージをユーザに表示し得る。あるいは、いくつかの例では、最大許容変化値を超えたことを示す可聴信号が宛先デバイス14によって発生され得る。あるいは、いくつかの例では、ユーザインターフェースは要求に応答しないことがある。したがって、ユーザは、最大値よりも速いレートでパンまたはズームすることを妨げられ得る。ユーザは、最大許容変化に一致する所与のレートでのみパンまたはズームすることを許され得る。たとえば、ユーザがスタイラスを用いて矢印をクリックした場合、矢印は、フレームごとに1マクロブロックの最大レートでのみ応答する。パンまたはズームの解像度は1マクロブロック未満であり得ることに留意されたい。たとえば、各矢印クリックにより、クリックごとに一度に1/4または1/2マクロブロックの移動が生じ得る。
他の例では、ユーザが、パンまたはズームしている間にフレームごとの最大許容変化限界を超えた場合、ディスプレイデバイス32は、ブロックがまだ復号されていないエリア中にブランクピクセルの領域を表示する。たとえば、ユーザが最大限界よりも大きいレートで左に急速にパンしている場合、ディスプレイデバイス32は、ディスプレイデバイス32の左辺に沿ってブランクピクセルの領域を表示し得る。ユーザが、パンを停止するか、または最大限界よりも遅いレートでパンを開始すると、デコーダは、ブランクピクセルによって定義されたブロックを復号し、次いで表示し得る。
いくつかの例では、ユーザがフレームごとの最大許容変化限界を超えた場合、デコーダは、ディスプレイデバイス32を更新する際に遅延を強いる。たとえば、ユーザがフレームごとの最大許容変化限界を超えるレートでズームインすることを試みた場合、デコーダは、ユーザがズームの直前に閲覧していたROI選択エリア中のブロックを復号および表示し続け得る。次いで、デコーダは、ズームによって定義された新しいROI選択エリア中のブロックを復号すると、新しい復号された画像を表示し得る。そのような方法で、ユーザは、第1のROI中のビデオを閲覧し続け得るが、第2のズームされたROIが表示される前に、ズームされたROI中のブロックをデコーダが復号するまで、数フレーム待たなければならないであろう。
図13は、本開示による復号方法を示す流れ図である。デコーダ30は、ROI選択ユニット63を介して、関心領域(ROI)を定義するデータを受信する(400)。デコーダ30はまた、符号化されたビデオビットストリーム中のヘッダを介して、ROI中の少なくとも1つのブロックについての時空間依存性(TSD)値を受信する(410)。デコーダ30は、次いで、ROIを定義するデータとTSD値とに基づいて、ROI中のビデオブロックを復号する(420)。
ズームまたはパン機能が実行される場合、デバイスのディスプレイを埋めるために、補間による解像度のアップスケールが使用され得ることに留意されたい。そのようなアップスケールは、復号後、後処理動作中にピクセル領域において達成され得る。
上記で説明した復号技法を使用すると、フレーム中のすべてのブロックではなく、ROIを生成するのに必要なブロックのみが復号されるので、電力消費量が低減され、計算が低減され、レイテンシが低減され得る。
図14は、パン、ズーム、およびティルトをサポートする、選択されたROIエリアを復号するための追加のROIマージンを判断する方法を示す流れ図である。ROIの境界を判断する(500)。たとえば、ユーザは、スタイラスを使用してROIエリアを選択していることがある。概念的な目的のためにのみ、ROI選択ユニットは、ユーザがROIとして3×3エリアを選択したと判断し得、したがってROIの境界は3×3である。デコーダは、次いで、TSD値に基づいて、復号される必要がある、ROIエリア外の第1のマージンを判断し、ROI境界上に第1のマージンを追加する(510)。この場合も、たとえば、TSD値が3であった場合、デコーダは、3×3ROIエリアを包含する7×7エリアを復号する必要があり得る。したがって、デコーダは、各方向において3×3ROIエリアに2つのMBの第1のマージンを追加する。次いで、デコーダは、ユーザのパン、ズーム、およびティルトをサポートするために復号される必要がある第1のマージン外の第2のマージンを判断する(520)。たとえば、デコーダは、3×3ROIエリアをサポートするためにTSD値3に基づいて7×7エリアを復号する必要があった場合、7×7エリアを越えて延びる追加のROIマージンを判断するために第1のマージン上に第2のマージンを追加する。第2のマージンが第1のマージンに追加されると、たとえば、3×3ROIを復号することと、パン、ズーム、ティルトとの両方をサポートするために復号される必要がある9×9エリアが生じ得る。この場合も、3×3エリアは、概念的な目的のためにすぎず、ROIは、通常、より大きい。
本開示で説明する技法は、ROI内の連続局所ビデオ復号を可能にし得る。局所ビデオコーディングを用いて、閲覧者は、デコーダ側からROIを定義および操作することが可能になり、それにより、同じビデオコンテンツの各閲覧に固有のビデオ閲覧経験が与えられ得る。いくつかの態様では、本開示で説明する技法はまた、フルフレーム復号の代わりにROI限定復号を用いたROI閲覧を可能にすることによって、特にハンドヘルドデバイスの電力消費量を低減し得る。本開示で説明する技法はまた、閲覧者にとって関心があるビデオコンテンツの部分のみを閲覧者が表示することを可能にすることによって、ディスプレイウィンドウのより良い利用を提供し得る。他の態様では、本開示で説明する技法はまた、デバイスの処理およびディスプレイ能力を場合によっては超えるビデオコンテンツのROI閲覧を可能にし得る。本開示で説明する技法はまた、ビデオキャプチャウィンドウと閲覧ウィンドウとの間の基本的な分離を可能にし得る。いくつかの態様では、本開示で説明する技法はまた、通常はビデオ符号化より前のビデオキャプチャ中にのみ可能なROIビデオのズームおよびパンを、ビデオ再生中に復号側から可能にし得る。
上記で説明した技法は、ビデオキャプチャウィンドウと閲覧ウィンドウとを基本的に分離し得る。すなわち、閲覧者は、ビデオがキャプチャされたのと同様にしてディスプレイデバイスの閲覧ウィンドウ中のビデオコンテンツを閲覧するように制約されないことがある。たとえば、2人が会話しているシーンにおいて、閲覧者は1人にのみズームインすることを選択し得る。このようにして、ディスプレイ上の閲覧ウィンドウはビデオキャプチャウィンドウから分離されている。さらに、閲覧者は、従来はビデオキャプチャ中にのみ可能なROIをズームおよびパンすることを、ビデオ再生中に行い得る。
本明細書で説明した技法は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装する場合、これらの技法は、実行されると、上記で説明した方法の1つまたは複数をプロセッサに実行させる、コンピュータ可読媒体上に符号化された命令を含んでいるプログラムコードを備えるコンピュータ可読媒体によって少なくとも部分的に実現され得る。この場合、コンピュータ可読媒体は、同期ダイナミックランダムアクセスメモリ(synchronous dynamic ramdom access memory:SDRAM)などのランダムアクセスメモリ(random access memory:RAM)、読取り専用メモリ(read−only memory:ROM)、不揮発性ランダムアクセスメモリ(non−volatile random access memory:NVRAM)、電気消去可能プログラマブル読取り専用メモリ(electrically erasable programmable read−only memory:EEPROM)、フラッシュメモリ、磁気または光学データ記憶媒体などを備え得る。
プログラムコードは、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または他の等価の集積回路またはディスクリート論理回路によって実行され得る。いくつかの例では、本開示で説明した機能は、自動オブジェクトセグメンテーションのために構成された、または自動オブジェクトセグメンテーションシステム中に組み込まれた、専用ソフトウェアモジュールまたはハードウェアユニット内で与えられ得る。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1]ビデオエンコーダにおいて実行される方法であって、
ビデオフレーム中の現在のブロックをインターコーディングするための候補参照ビデオブロックについての時空間依存性値を判断することと、
前記時空間依存性値をしきい値と比較することと、
前記比較に基づいて前記現在のブロックのためのコーディングモードを選択することと
を備える、方法。
[2]時空間依存性が、前記候補参照ビデオブロックが依存する前のビデオフレーム中の前記ビデオブロックを識別し、前記候補参照ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数が、前記時空間依存性値を定義する、[1]に記載の方法。
[3]前記選択されたコーディングモードに従って前記現在のブロックを符号化すること
をさらに備える、[2]に記載の方法。
[4]前記現在のブロックを符号化したときに前記時空間依存性値を更新すること
をさらに備える、[3]に記載の方法。
[5]前記候補参照ビデオブロックについての前記時空間依存性値を判断することが、複数の候補参照ビデオブロックの各々についての前記時空間依存性値を判断することを備える、[1]に記載の方法。
[6]前記時空間依存性値が前記しきい値を超える場合、選択される前記コーディングモードがイントラコーディングである、[1]に記載の方法。
[7]前記時空間依存性値が前記しきい値を超えない場合、前記エンコーダが、コーディングビットレート、イントラリフレッシュレート、ひずみ、またはチャネル損失率のうちの少なくとも1つに基づいて、インターコーディングまたはイントラコーディングのいずれを行うかを選択する、[1]に記載の方法。
[8]前記しきい値が固定である、[1]に記載の方法。
[9]前記しきい値が可変である、[1]に記載の方法。
[10]前記コーディングモード選択に基づいてイントラリフレッシュ(IR)レートを変更することをさらに備える、[1]に記載の方法。
[11]ビデオフレーム中の現在のブロックをコーディングするための候補参照ブロックについての時空間依存性値を記憶するストレージデバイスと、
前記候補参照ビデオブロックについての前記時空間依存性値を判断し、前記時空間依存性値をしきい値と比較し、前記比較に基づいて前記現在のブロックのためのコーディングモードを選択するビデオエンコーダと
を備える、ビデオ符号化デバイス。
[12]時空間依存性が、前記候補参照ビデオブロックが依存する前のビデオフレーム中の前記ビデオブロックを識別し、前記候補参照ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数が、前記時空間依存性値を定義する、[11]に記載のデバイス。
[13]モード選択ユニットが、前記候補参照ビデオブロックの前記時空間依存性値を前記しきい値と比較する、[11]に記載のデバイス。
[14]前記ビデオエンコーダが、前記選択されたコーディングモードに従って前記現在のブロックを符号化する、[11]に記載のデバイス。
[15]前記ビデオエンコーダが、前記現在のブロックを符号化したときに前記時空間依存性値を更新する、[14]に記載のデバイス。
[16]前記候補参照ビデオブロックについての前記時空間依存性値を判断することが、複数の候補参照ビデオブロックの各々についての前記時空間依存性値を判断することを備える、[11]に記載のデバイス。
[17]前記時空間依存性値が前記しきい値を超える場合、選択される前記コーディングモードがイントラコーディングである、[11]に記載のデバイス。
[18]前記時空間依存性値が前記しきい値を超えない場合、前記エンコーダが、コーディングビットレート、イントラリフレッシュレート、ひずみ、またはチャネル損失率のうちの少なくとも1つに基づいて、インターコーディングまたはイントラコーディングのいずれを行うかを選択する、[11]に記載のデバイス。
[19]前記しきい値が固定である、[11]に記載のデバイス。
[20]前記しきい値が可変である、[11]に記載のデバイス。
[21]前記ビデオエンコーダが、前記コーディングモード選択に基づいてイントラリフレッシュ(IR)レートを変更する、[11]に記載のデバイス。
[22]ワイヤレス通信デバイスをさらに備える、[11]に記載のデバイス。
[23]集積回路デバイスをさらに備える、[11]に記載のデバイス。
[24]実行時に、ビデオエンコーダ内のプロセッサに、
ビデオフレーム中の現在のブロックをインターコーディングするための候補参照ビデオブロックについての時空間依存性値を判断することと、
前記時空間依存性値をしきい値と比較することと、
前記比較に基づいて前記現在のブロックのためのコーディングモードを選択することとを行わせる、コンピュータ可読媒体上に符号化された命令を備えるコンピュータ可読媒体。
[25]時空間依存性が、前記候補参照ビデオブロックが依存する前のビデオフレーム中の前記ビデオブロックを識別し、前記候補参照ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数が、時空間依存性値を定義する、[24]に記載のコンピュータ可読媒体。
[26]前記プロセッサに、
前記選択されたコーディングモードに従って前記現在のブロックを符号化すること
を行わせる命令をさらに備える、[24]に記載のコンピュータ可読媒体。
[27]前記プロセッサに、
前記現在のブロックをコーディングしたときに時空間依存性データベース値を更新すること
を行わせる命令をさらに備える、[24]に記載のコンピュータ可読媒体。
[28]前記プロセッサに、候補参照ビデオブロックについての時空間依存性値を判断することを行わせる前記命令が、複数の候補参照ビデオブロックの各々についての時空間依存性値を判断する命令を備える、[24]に記載のコンピュータ可読媒体。
[29]前記時空間依存性値が前記しきい値を超える場合、選択される前記コーディングモードがイントラコーディングである、[24]に記載のコンピュータ可読媒体。
[30]前記時空間依存性値が前記しきい値を超えない場合、前記エンコーダが、コーディングビットレート、イントラリフレッシュレート、ひずみ、またはチャネル損失率のうちの少なくとも1つに基づいて、インターコーディングまたはイントラコーディングのいずれを行うかを選択する、[24]に記載のコンピュータ可読媒体。
[31]前記しきい値が固定である、[24]に記載のコンピュータ可読媒体。
[32]前記しきい値が可変である、[24]に記載のコンピュータ可読媒体。
[33]前記プロセッサに、
前記コーディングモード選択に基づいてイントラリフレッシュ(IR)レートを変更すること
を行わせる命令をさらに備える、[24]に記載のコンピュータ可読媒体。
[34]ビデオフレーム中の現在のブロックをインターコーディングするための候補参照ビデオブロックについての時空間依存性値を判断するための手段と、
前記時空間依存性値をしきい値と比較するための手段と、
前記比較に基づいて前記現在のブロックのためのコーディングモードを選択するための手段と
を備える、ビデオ符号化デバイス。
[35]時空間依存性が、前記候補参照ビデオブロックが依存する前のビデオフレーム中の前記ビデオブロックを識別し、前記候補参照ビデオブロックが依存する前のビデオフレーム中のビデオブロックの数が、前記時空間依存性値を定義する、[34]に記載のデバイス。
[36]前記選択されたコーディングモードに従って前記現在のブロックを符号化するための手段をさらに備える、[34]に記載のデバイス。
[37]前記現在のブロックを符号化したときに時空間依存性データベース更新を更新するための手段をさらに備える、[36]に記載のデバイス。
[38]候補参照ビデオブロックについての時空間依存性値を判断するための前記手段が、複数の候補参照ビデオブロックの各々についての時空間依存性値を判断するための手段を備える、[34]に記載のデバイス。
[39]前記時空間依存性値が前記しきい値を超える場合、選択される前記コーディングモードがイントラコーディングである、[34]に記載のデバイス。
[40]前記時空間依存性値が前記しきい値を超えない場合、前記エンコーダが、コーディングビットレート、イントラリフレッシュレート、ひずみ、またはチャネル損失率のうちの少なくとも1つに基づいて、インターコーディングまたはイントラコーディングのいずれを行うかを選択する、[34]に記載のデバイス。
[41]前記しきい値が固定である、[34]に記載のデバイス。
[42]前記しきい値が可変である、[34]に記載のデバイス。
[43]前記コーディングモード選択に基づいてイントラリフレッシュ(IR)レートを変更するための手段
をさらに備える、[34]に記載のデバイス。

Claims (34)

  1. ビデオエンコーダにおいて実行される方法であって、
    現在のビデオフレーム中の現在のブロックをコーディングするための参照フレームにおける複数の候補参照ビデオブロックの各々についての時空間依存性値を判断することであって、ここで、前記時空間依存性値は、以前に復号化されたビデオフレームの時間シーケンスにわたって、どの程度空間依存性が前記候補参照ビデオブロックのうちの特定の1つに対して伝搬するかを示す数を備え、前記以前に復号化されたビデオフレームは、前記参照フレームに先立って復号化される、時空間依存性値を判断することと、
    前記候補参照ビデオブロックの各々についての前記時空間依存性値をしきい値と比較することと、
    前記比較に基づいて前記現在のブロックのためのコーディングモードを選択することであって、ここで、前記コーディングモードは、そこから前記現在のビデオブロックを予想する前記候補参照ビデオブロックを含む前記参照フレームのエリアを制限するために選択される、コーディングモードを選択すること
    前記選択されるコーディングモードに従って前記現在のビデオフレーム中の前記現在のブロックを符号化することと
    を備える、方法。
  2. 前記現在のブロックを符号化することは、前記しきい値を超えない時空間依存性値で前記候補参照ビデオブロックの1つに基づいて、前記現在のブロックをインターコーディングすることを備え、
    前記参照フレームの前記候補参照ビデオブロックの1つに基づいて前記現在のブロックをインターコーディングしたときに前記現在のブロックについての時空間依存性値を更新すること
    をさらに備え、前記更新される時空間依存性値は、以前に復号化されたビデオフレームの前記時間シーケンスに前記参照フレームを含むために、1つずつ増加される前記候補参照ビデオブロックの1つに対する前記時空間依存性値を備える、請求項に記載の方法。
  3. 前記複数の候補参照ビデオブロックの1つまたは複数のセットが各々前記しきい値を超えない時空間依存性値を有する場合、
    前記現在のブロックについて、前記セットから前記候補参照ビデオブロックの1つを選択すること、をさらに備え、
    前記コーディングモードを選択することは、前記現在のブロックについて前記候補参照ビデオブロックのうちの選択された1つに基づいてインターコーディングモードを選択することを備える、請求項1に記載の方法。
  4. 前記候補参照ビデオブロックの各々が前記しきい値を超える時空間依存性値を有する場合、前記コーディングモードを選択することは、前記現在のブロックについてイントラコーディングモードを選択することを備える、請求項1に記載の方法。
  5. 前記候補参照ビデオブロックの少なくとも1つが前記しきい値を超えない時空間依存性値を有する場合、前記コーディングモードを選択することは、コーディングビットレート、イントラリフレッシュレート、ひずみ、またはチャネル損失確率のうちの少なくとも1つに基づいて、現在のブロックについて、インターコーディングモードまたはイントラコーディングモードのいずれかを選択することを備える、請求項1に記載の方法。
  6. 前記しきい値が固定である、請求項1に記載の方法。
  7. 前記しきい値が可変である、請求項1に記載の方法。
  8. 前記コーディングモード選択に基づいてイントラリフレッシュ(IR)レートを変更することをさらに備える、請求項1に記載の方法。
  9. 現在のビデオフレーム中の現在のブロックをコーディングするための参照フレームにおける複数の候補参照ビデオブロックの各々についての時空間依存性値を記憶するストレージデバイスと、
    前記候補参照ビデオブロックの各々についての前記時空間依存性値を判断することであって、ここで、前記時空間依存性値は、以前に復号化されたビデオフレームの時間シーケンスにわたって、どの程度空間依存性が前記候補参照ビデオブロックのうちの特定の1つに対して伝搬するかを示す数を備え、前記以前に復号化されたビデオフレームは、前記参照フレームに先立って復号化される、判断することと、前記候補参照ビデオブロックの各々についての前記時空間依存性値をしきい値と比較することと、前記比較に基づいて前記現在のブロックのためのコーディングモードを選択することであって、ここで、前記コーディングモードは、そこから前記現在のビデオブロックを予想する前記候補参照ビデオブロックを含む前記参照フレームのエリアを制限するために選択される、コーディングモードを選択することと、前記選択されるコーディングモードに従って前記現在のビデオフレーム中の前記現在のブロックを符号化することとを行うビデオエンコーダと
    を備える、ビデオ符号化デバイス。
  10. 前記ビデオエンコーダが、前記しきい値を超えない前記時空間依存性値で前記候補参照ビデオブロックの1つに基づいて、前記現在のブロックをインターコーディングし、前記参照フレームの前記候補参照ビデオブロックの1つに基づいて前記現在のブロックをインターコーディングしたときに前記現在のブロックについての前記時空間依存性値を更新し、前記更新された時空間依存性値は、以前に復号化されたビデオフレームの前記時間シーケンスに前記参照フレームを含むために、1つずつ増加される前記候補参照ビデオブロックの1つに対する前記時空間依存性値を備える、請求項に記載のデバイス。
  11. 前記複数の候補参照ビデオブロックの1つまたは複数のセットが各々前記しきい値を超えない時空間依存性値を有する場合、前記ビデオエンコーダは、前記現在のブロックについて、前記セットから前記候補参照ビデオブロックの1つを選択し、前記現在のブロックについて前記候補参照ビデオブロックのうちの選択された1つに基づいてインターコーディングモードを選択する、請求項に記載のデバイス。
  12. 前記候補参照ビデオブロックの各々が前記しきい値を超える時空間依存性値を有する場合、前記ビデオエンコーダは、前記現在のブロックについてイントラコーディングモードを選択する、請求項に記載のデバイス。
  13. 前記候補参照ビデオブロックの少なくとも1つが前記しきい値を超えない時空間依存性値を有する場合、前記ビデオエンコーダは、コーディングビットレート、イントラリフレッシュレート、ひずみ、またはチャネル損失確率のうちの少なくとも1つに基づいて、現在のブロックについて、インターコーディングモードまたはイントラコーディングモードのいずれかを選択する、請求項に記載のデバイス。
  14. 前記しきい値が固定である、請求項に記載のデバイス。
  15. 前記しきい値が可変である、請求項に記載のデバイス。
  16. 前記ビデオエンコーダが、前記コーディングモード選択に基づいてイントラリフレッシュ(IR)レートを変更する、請求項に記載のデバイス。
  17. ワイヤレス通信デバイスをさらに備える、請求項に記載のデバイス。
  18. 集積回路デバイスをさらに備える、請求項に記載のデバイス。
  19. 実行時に、ビデオエンコーダ内のプロセッサに、
    現在のビデオフレーム中の現在のブロックをコーディングするための参照フレームにおける複数の候補参照ビデオブロックの各々についての時空間依存性値を判断することであって、ここで、前記時空間依存性値は、以前に復号化されたビデオフレームの時間シーケンスにわたって、どの程度空間依存性が前記候補参照ビデオブロックのうちの特定の1つに対して伝搬するかを示す数を備え、前記以前に復号化されたビデオフレームは、参照フレームに先立って復号化される、時空間依存性値を判断することと、
    前記候補参照ビデオブロックの各々についての前記時空間依存性値をしきい値と比較することと、
    前記比較に基づいて前記現在のブロックのためのコーディングモードを選択することであって、ここで、前記コーディングモードは、そこから前記現在のビデオブロックを予想する前記候補参照ビデオブロックを含む前記参照フレームのエリアを制限するために選択される、コーディングモードを選択すること
    前記選択されるコーディングモードに従って前記現在のビデオフレーム中の前記現在のブロックを符号化することと
    を行わせる、コンピュータ可読媒体上に符号化された命令を備えるコンピュータ可読媒体。
  20. 前記プロセッサに、
    前記しきい値を超えない時空間依存性値で前記候補参照ビデオブロックの1つに基づいて、前記現在のブロックをインターコーディングすること、
    前記参照フレームの前記候補参照ビデオブロックの1つに基づいて前記現在のブロックをインターコーディングしたときに前記現在のブロックについての時空間依存性データベース値を更新すること
    を行わせる命令をさらに備え、前記更新される時空間依存性値は、以前に復号化されたビデオフレームの時間シーケンスに前記参照フレームを含むために、1つずつ増加される前記候補参照ビデオブロックの1つに対する前記時空間依存性値を備える、請求項19に記載のコンピュータ可読媒体。
  21. 前記プロセッサに、
    前記複数の候補参照ビデオブロックの1つまたは複数のセットが各々前記しきい値を超えない時空間依存性値を有する場合、前記現在のブロックについて、前記セットから前記候補参照ビデオブロックの1つを選択すること、
    前記現在のブロックについて前記候補参照ビデオブロックのうちの選択された1つに基づいてインターコーディングモードを選択することを行わせる命令をさらに備える、請求項19に記載のコンピュータ可読媒体。
  22. 前記プロセッサに、
    前記候補参照ビデオブロックの各々が前記しきい値を超える時空間依存性値を有する場合、前記現在のブロックについてイントラコーディングモードを選択することを行わせる命令をさらに備える請求項19に記載のコンピュータ可読媒体。
  23. 前記プロセッサに、
    前記候補参照ビデオブロックの少なくとも1つが前記しきい値を超えない時空間依存性値を有する場合、コーディングビットレート、イントラリフレッシュレート、ひずみ、またはチャネル損失確率のうちの少なくとも1つに基づいて、前記現在のブロックについて、インターコーディングモードまたはイントラコーディングモードのいずれかを選択することを行わせる命令をさらに備える、請求項19に記載のコンピュータ可読媒体。
  24. 前記しきい値が固定である、請求項19に記載のコンピュータ可読媒体。
  25. 前記しきい値が可変である、請求項19に記載のコンピュータ可読媒体。
  26. 前記プロセッサに、
    前記コーディングモード選択に基づいてイントラリフレッシュ(IR)レートを変更すること
    を行わせる命令をさらに備える、請求項19に記載のコンピュータ可読媒体。
  27. 現在のビデオフレーム中の現在のブロックをコーディングするための参照フレームにおける複数の候補参照ビデオブロックの各々についての時空間依存性値を判断するための手段であって、ここで、前記時空間依存性値は、以前に復号化されたビデオフレームの時間シーケンスにわたって、どの程度空間依存性が前記候補参照ビデオブロックのうちの特定の1つに対して伝搬するかを示す数を備え、前記以前復号化されたビデオフレームは、前記参照フレームに先立って復号化される、時空間依存性値を判断するための手段と、
    前記候補参照ビデオブロックの各々についての前記時空間依存性値をしきい値と比較するための手段と、
    前記比較に基づいて前記現在のブロックのためのコーディングモードを選択するための手段であって、ここで、前記コーディングモードは、そこから前記現在のビデオブロックを予想する前記候補参照ビデオブロックを含む前記参照フレームのエリアを制限するために選択される、コーディングモードを選択するための手段
    前記選択されるコーディングモードに従って前記現在のビデオフレーム中の前記現在のブロックを符号化するための手段と
    を備える、ビデオ符号化デバイス。
  28. 前記しきい値を超えない時空間依存性値で前記候補参照ビデオブロックの1つに基づいて、前記現在のブロックをインターコーディングするための手段と、
    前記参照フレームの前記候補参照ビデオブロックの1つに基づいて前記現在のブロックをインターコーディングしたときに前記現在のブロックについての時空間依存性値を更新するための手段をさらに備え、前記更新された時空間依存性値は、以前に復号化されたビデオフレームの前記時間シーケンスに前記参照フレームを含むために、1つずつ増加される前記候補参照ビデオブロックの1つに対する前記時空間依存性値を備える、請求項27に記載のデバイス。
  29. 前記複数の候補参照ビデオブロックの1つまたは複数のセットが各々前記しきい値を超えない時空間依存性値を有する場合、前記現在のブロックについて、前記セットから前記候補参照ビデオブロックの1つを選択するための手段と、
    前記現在のブロックについて前記候補参照ビデオブロックのうちの選択された1つに基づいてインターコーディングモードを選択するための手段と、さらに備える、請求項27に記載のデバイス。
  30. 前記候補参照ビデオブロックの各々が前記しきい値を超える時空間依存性値を有する場合、前記現在のブロックについてイントラコーディングモードを選択するための手段、をさらに備える、請求項27に記載のデバイス。
  31. 前記候補参照ビデオブロックの少なくとも1つが前記しきい値を超えない時空間依存性値を有する場合、コーディングビットレート、イントラリフレッシュレート、ひずみ、またはチャネル損失確率のうちの少なくとも1つに基づいて、現在のブロックについて、インターコーディングモードまたはイントラコーディングモードのいずれかを選択するための手段、をさらに備える、請求項27に記載のデバイス。
  32. 前記しきい値が固定である、請求項27に記載のデバイス。
  33. 前記しきい値が可変である、請求項27に記載のデバイス。
  34. 前記コーディングモード選択に基づいてイントラリフレッシュ(IR)レートを変更するための手段
    をさらに備える、請求項27に記載のデバイス。
JP2012510016A 2009-05-07 2010-05-07 局所復号のための時間制約付き空間依存性を用いたビデオ符号化のための方法、デバイス、およびコンピュータ可読媒体 Active JP5529261B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/436,946 US9113169B2 (en) 2009-05-07 2009-05-07 Video encoding with temporally constrained spatial dependency for localized decoding
US12/436,946 2009-05-07
PCT/US2010/034064 WO2010129883A1 (en) 2009-05-07 2010-05-07 Video encoding with temporally constrained spatial dependency for localized decoding

Publications (2)

Publication Number Publication Date
JP2012526490A JP2012526490A (ja) 2012-10-25
JP5529261B2 true JP5529261B2 (ja) 2014-06-25

Family

ID=42262101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012510016A Active JP5529261B2 (ja) 2009-05-07 2010-05-07 局所復号のための時間制約付き空間依存性を用いたビデオ符号化のための方法、デバイス、およびコンピュータ可読媒体

Country Status (7)

Country Link
US (1) US9113169B2 (ja)
EP (1) EP2428044B1 (ja)
JP (1) JP5529261B2 (ja)
KR (1) KR101268982B1 (ja)
CN (1) CN102422640B (ja)
TW (1) TW201112766A (ja)
WO (1) WO2010129883A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8724707B2 (en) 2009-05-07 2014-05-13 Qualcomm Incorporated Video decoding using temporally constrained spatial dependency
CN102238376B (zh) * 2010-04-28 2014-04-23 鸿富锦精密工业(深圳)有限公司 图像处理系统及方法
SI3985979T1 (sl) 2010-12-13 2024-06-28 Electronics And Telecommunications Research Institute Metoda za določanje referenčne enote
KR101383775B1 (ko) * 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
EP2716041A4 (en) * 2011-05-31 2014-10-15 Dolby Lab Licensing Corp VIDEO COMPRESSION WITH RESOLUTION COMPENSATION AND OPTIMIZATION
RU2604330C2 (ru) 2011-10-05 2016-12-10 Сан Пэтент Траст Способ кодирования изображений, устройство кодирования изображений, способ декодирования изображений, устройство декодирования изображений и устройство кодирования изображений
TWI488487B (zh) * 2011-10-18 2015-06-11 Acer Inc 利用手勢調整視訊影像壓縮的方法
US20130188712A1 (en) * 2012-01-24 2013-07-25 Futurewei Technologies, Inc. Compressed Domain Watermarking with Reduced Error Propagation
US20150312575A1 (en) * 2012-04-16 2015-10-29 New Cinema, LLC Advanced video coding method, system, apparatus, and storage medium
US10469851B2 (en) 2012-04-16 2019-11-05 New Cinema, LLC Advanced video coding method, system, apparatus, and storage medium
TWI519131B (zh) * 2012-06-19 2016-01-21 廣達電腦股份有限公司 影像傳輸系統及其傳輸端裝置與接收端裝置
KR101835802B1 (ko) * 2012-09-18 2018-03-08 브이아이디 스케일, 인크. 타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩
JP6065613B2 (ja) * 2013-01-29 2017-01-25 富士通株式会社 動画像符号化装置
GB2516224A (en) 2013-07-11 2015-01-21 Nokia Corp An apparatus, a method and a computer program for video coding and decoding
GB2516824A (en) 2013-07-23 2015-02-11 Nokia Corp An apparatus, a method and a computer program for video coding and decoding
US9554131B1 (en) * 2013-07-23 2017-01-24 Harmonic, Inc. Multi-slice/tile encoder with overlapping spatial sections
US20150063464A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorporated Lookup table coding
CN105684409B (zh) 2013-10-25 2019-08-13 微软技术许可有限责任公司 在视频和图像编码和解码中使用散列值来表示各块
US10567754B2 (en) 2014-03-04 2020-02-18 Microsoft Technology Licensing, Llc Hash table construction and availability checking for hash-based block matching
WO2015131326A1 (en) * 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Encoder-side decisions for block flipping and skip mode in intra block copy prediction
CN105706450B (zh) 2014-06-23 2019-07-16 微软技术许可有限责任公司 根据基于散列的块匹配的结果的编码器决定
CN110582001B (zh) 2014-09-30 2022-10-14 微软技术许可有限责任公司 用于视频编码的基于散列的编码器判定
CN107534780A (zh) * 2015-02-25 2018-01-02 瑞典爱立信有限公司 视频中的帧间画面的编码和解码
CN106488229B (zh) * 2015-09-01 2022-01-21 恩智浦美国有限公司 具有可调整帧内刷新率的视频编码器
US10390039B2 (en) 2016-08-31 2019-08-20 Microsoft Technology Licensing, Llc Motion estimation for screen remoting scenarios
US11095877B2 (en) 2016-11-30 2021-08-17 Microsoft Technology Licensing, Llc Local hash-based motion estimation for screen remoting scenarios
GB2594615B (en) * 2017-03-20 2022-11-30 Canon Kk Method and apparatus for encoding and transmitting at least a spatial part of a video sequence
KR20230119739A (ko) 2018-03-29 2023-08-16 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 병렬 코딩 기능들 향상을 위한 컨셉
US11616946B2 (en) 2018-09-21 2023-03-28 Electronics And Telecommunications Research Institute Image encoding/decoding method, device, and recording medium having bitstream stored therein
WO2020076130A1 (ko) * 2018-10-11 2020-04-16 삼성전자 주식회사 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 방법, 및 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 장치
CN113396588A (zh) * 2019-02-01 2021-09-14 北京字节跳动网络技术有限公司 不同视频处理模式之间的协调
CN117440173A (zh) 2019-03-21 2024-01-23 北京字节跳动网络技术有限公司 组合帧间帧内预测的改进的加权处理
KR20210130764A (ko) * 2019-03-21 2021-11-01 가온미디어 주식회사 픽쳐 분할을 처리하는 영상 부호화 방법, 영상 복호화 방법 및 그 장치
EP3829169B1 (en) * 2019-11-29 2021-10-13 Axis AB Method for intra refresh encoding of a plurality of image frames using convex and concave distribution functions
US11202085B1 (en) 2020-06-12 2021-12-14 Microsoft Technology Licensing, Llc Low-cost hash table construction and hash-based block matching for variable-size blocks

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793895A (en) 1996-08-28 1998-08-11 International Business Machines Corporation Intelligent error resilient video encoder
JP3363039B2 (ja) * 1996-08-29 2003-01-07 ケイディーディーアイ株式会社 動画像内の移動物体検出装置
US6959045B2 (en) 1997-12-30 2005-10-25 Mediatek, Inc. Reduced cost decoder using bitstream editing for image cropping
JP3606306B2 (ja) 1998-10-08 2005-01-05 沖電気工業株式会社 画像符号化装置、画像復号化装置及び画像伝送システム
DE10300048B4 (de) 2002-01-05 2005-05-12 Samsung Electronics Co., Ltd., Suwon Verfahren und Vorrichtung zur Bildcodierung und -decodierung
FI114679B (fi) 2002-04-29 2004-11-30 Nokia Corp Satunnaisaloituspisteet videokoodauksessa
US7787539B2 (en) * 2002-07-17 2010-08-31 Broadcom Corporation Decoding and presentation time stamps for MPEG-4 advanced video coding
JP2004056616A (ja) 2002-07-23 2004-02-19 Media Glue Corp 符号化信号復号装置、符号化信号復号方法および符号化信号復号プログラム
JP3915652B2 (ja) 2002-10-09 2007-05-16 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
EP1661409A2 (en) 2003-08-26 2006-05-31 Thomson Licensing S.A. Method and apparatus for minimizing number of reference pictures used for inter-coding
US20060002472A1 (en) 2004-06-30 2006-01-05 Mehta Kalpesh D Various methods and apparatuses for motion estimation
KR20060043118A (ko) 2004-10-07 2006-05-15 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
US8948266B2 (en) * 2004-10-12 2015-02-03 Qualcomm Incorporated Adaptive intra-refresh for digital video encoding
BRPI0517069A (pt) 2004-11-04 2008-09-30 Thomson Licensing previsão rápida intra modo para um codificador de vìdeo
TWI286015B (en) 2005-01-24 2007-08-21 Realtek Semiconductor Corp Apparatus and method for tracking sampling clock in multi-carrier communication system
US8768084B2 (en) 2005-03-01 2014-07-01 Qualcomm Incorporated Region-of-interest coding in video telephony using RHO domain bit allocation
US8588304B2 (en) 2005-03-31 2013-11-19 Panasonic Corporation Video decoding device, video decoding method, video decoding program, and video decoding integrated circuit
EP1886504B1 (en) 2005-05-20 2010-08-18 Nxp B.V. Video encoder using a refresh map
KR20080089633A (ko) 2006-01-09 2008-10-07 노키아 코포레이션 스케일러블 비디오 부호화에서 에러 회복 모드 결정
KR100739785B1 (ko) 2006-01-09 2007-07-13 삼성전자주식회사 관심 영역 기반 영상 부호화, 복호화 방법 및 장치
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
JP4178480B2 (ja) * 2006-06-14 2008-11-12 ソニー株式会社 画像処理装置、画像処理方法、撮像装置および撮像方法
WO2008085885A2 (en) 2007-01-04 2008-07-17 Thomson Licensing Methods and apparatus for multi-view information conveyed in high level syntax
US8660175B2 (en) * 2007-12-10 2014-02-25 Qualcomm Incorporated Selective display of interpolated or extrapolated video units
US20090190845A1 (en) * 2008-01-24 2009-07-30 The Hong Kong University Of Science And Technology Motion-compensated residue based temporal search range prediction
KR100952340B1 (ko) * 2008-01-24 2010-04-09 에스케이 텔레콤주식회사 시공간적 복잡도를 이용한 부호화 모드 결정 방법 및 장치
US8724707B2 (en) 2009-05-07 2014-05-13 Qualcomm Incorporated Video decoding using temporally constrained spatial dependency

Also Published As

Publication number Publication date
CN102422640A (zh) 2012-04-18
CN102422640B (zh) 2014-12-10
JP2012526490A (ja) 2012-10-25
KR20120011886A (ko) 2012-02-08
EP2428044A1 (en) 2012-03-14
US20100284460A1 (en) 2010-11-11
US9113169B2 (en) 2015-08-18
EP2428044B1 (en) 2015-11-04
TW201112766A (en) 2011-04-01
KR101268982B1 (ko) 2013-05-29
WO2010129883A1 (en) 2010-11-11

Similar Documents

Publication Publication Date Title
JP5529261B2 (ja) 局所復号のための時間制約付き空間依存性を用いたビデオ符号化のための方法、デバイス、およびコンピュータ可読媒体
KR101346133B1 (ko) 시간적으로 제약된 공간 종속을 갖는 비디오 디코딩
JP7055745B2 (ja) ビデオコーディングのためのフィルタのための幾何学的変換
EP2165542B1 (en) Adaptive coefficient scanning in video coding
JP4755093B2 (ja) 画像符号化方法および画像符号化装置
US7907789B2 (en) Reduction of block effects in spatially re-sampled image information for block-based image coding
US10638127B2 (en) Adaptive anchor frame and quantization parameter decision in video coding
JP2018534835A (ja) 短距離イントラ予測(sdip)ベースのビデオコーディング
Yu et al. Overview of AVS-video coding standards
US10798417B2 (en) Deblock filtering for 360-degree video coding
JP5156704B2 (ja) 画像符号化装置、画像符号化方法、集積回路及びカメラ
JP4774315B2 (ja) 画像復号化装置及び画像復号化方法
JP2010063092A (ja) 画像符号化装置、画像符号化方法、画像符号化集積回路およびカメラ
JP2008011117A (ja) 画像符号化におけるインターレース符号化時の参照ピクチャ決定方法
JP2011250400A (ja) 動画像符号化装置及び動画像符号化方法
TW201921938A (zh) 具有在用於視訊寫碼之隨機存取組態中之未來參考訊框之可調適圖像群組結構
CN113225558B (zh) 平滑定向和dc帧内预测
Fleury et al. Video intra coding for compression and error resilience: a review
JP6874844B2 (ja) 動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラム
WO2024039803A1 (en) Methods and devices for adaptive loop filter
JP4676474B2 (ja) 画像符号化方法
Akramullah et al. MPEG-4 advanced simple profile video encoding on an embedded multimedia system
JP2010045857A (ja) 画像符号化方法および装置ならびに画像処理機器

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130619

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140416

R150 Certificate of patent or registration of utility model

Ref document number: 5529261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250