JP7828382B2 - 情報処理方法及び装置、設備、記憶媒体 - Google Patents

情報処理方法及び装置、設備、記憶媒体

Info

Publication number
JP7828382B2
JP7828382B2 JP2024056990A JP2024056990A JP7828382B2 JP 7828382 B2 JP7828382 B2 JP 7828382B2 JP 2024056990 A JP2024056990 A JP 2024056990A JP 2024056990 A JP2024056990 A JP 2024056990A JP 7828382 B2 JP7828382 B2 JP 7828382B2
Authority
JP
Japan
Prior art keywords
block
prediction mode
prediction
mode
chrominance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024056990A
Other languages
English (en)
Other versions
JP2024081752A (ja
Inventor
ワン、シューアイ
フオ、チュンイェン
マー、イェンチュオ
ヤン、フーチョン
クオ、チンクン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to JP2024056990A priority Critical patent/JP7828382B2/ja
Publication of JP2024081752A publication Critical patent/JP2024081752A/ja
Application granted granted Critical
Publication of JP7828382B2 publication Critical patent/JP7828382B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本願の実施例は電子技術に関し、情報処理方法及び装置、設備、記憶媒体に関するが、それらに限らない。
近年、ビデオサービスは電子技術分野において迅速に発展している。ビデオサービスは先にソースビデオデータを符号化して、符号化後のビデオデータをインターネット又は移動通信ネットワークのチャネルによってユーザー端末に伝送する必要がある。
ユーザーにとって、ビデオの滑らかさは直接にユーザーのビデオ視聴体験に影響する。そして、ビデオ符号化における情報処理の複雑度は直接にビデオの滑らかさに影響する。
これに鑑みて、本願の実施例は関連技術における少なくとも1つの問題を解決するために、情報処理方法及び装置、設備、記憶媒体を提供する。
本願の実施例の技術案は以下のように実現される。
第1態様では、本願の実施例は情報処理方法を提供し、前記方法は、
入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得し、前記予測モードが予め設定され且つ位置依存予測組合せ(PDPC、Position-Dependent Prediction Combination)アプリケーションモードに属することと、
前記符号化対象ブロックにおける画像成分と前記第1予測ブロックにおける予測値との差分を決定し、残差ブロックを取得することと、
前記残差ブロック及び前記予測モードをビットストリームに書き込むことと、を含む。
他の実施例では、前記画像成分は輝度値又は色度値である。
他の実施例では、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得することは、
第1モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得することを含み、
前記第1モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値より小さく且つ平面予測モードと直流成分予測モードとを含まない予測モード、番号が第1数値より大きく且つ第2数値以下である予測モード、番号が第3数値以上であり且つ第4数値より小さい予測モード、及び番号が第4数値より大きい予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得することは、
第2モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得することを含み、
前記第2モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得することは、
第3モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得することを含み、
前記第3モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得することは、
第4モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得することを含み、
前記第4モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含む予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得することは、
前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける輝度値に対して輝度予測を行って、第1予測ブロックを取得することを含む。
第2態様では、本願の実施例は情報処理装置を提供し、前記装置は、
入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得するように設定され、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する予測モジュールと、
前記符号化対象ブロックにおける画像成分と前記第1予測ブロックにおける予測値との差分を決定し、残差ブロックを取得するように設定される残差決定モジュールと、
前記残差ブロック及び前記予測モードをビットストリームに書き込むように設定される書き込みモジュールと、を備える。
他の実施例では、前記画像成分は輝度値又は色度値である。
他の実施例では、前記予測モジュールは色度予測ユニットを備え、前記色度予測ユニットは、第1モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得するように設定され、
前記第1モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値より小さく且つ平面予測モードと直流成分予測モードとを含まない予測モード、番号が第1数値より大きく且つ第2数値以下である予測モード、番号が第3数値以上であり且つ第4数値より小さい予測モード、及び番号が第4数値より大きい予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モジュールは色度予測ユニットを備え、前記色度予測ユニットは、第2モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得するように設定され、
前記第2モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モジュールは色度予測ユニットを備え、前記色度予測ユニットは、第3モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得するように設定され、
前記第3モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モジュールは色度予測ユニットを備え、前記色度予測ユニットは、第4モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得するように設定され、
前記第4モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含む予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モジュールは輝度予測ユニットを備え、前記輝度予測ユニットは、前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける輝度値に対して輝度予測を行って、第1予測ブロックを取得するように設定される。
第3態様では、本願の実施例は情報処理方法を提供し、前記方法は、
入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第2予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属することと、
前記ビットストリームにおける残差ブロックにおける差分と前記第2予測ブロックにおける予測値との和を決定し、復元ブロックを取得することと、
前記復元ブロックを処理し、処理後のビデオデータを出力することと、を含む。
第4態様では、本願の実施例は情報処理装置を提供し、前記装置は、
入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第2予測ブロックを取得するように設定され、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する予測モジュールと、
前記ビットストリームにおける残差ブロックにおける差分と前記第2予測ブロックにおける予測値との和を決定し、復元ブロックを取得するように設定される復元モジュールと、
前記復元ブロックを処理し、処理後のビデオデータを出力するように設定されるビデオ出力モジュールと、を備える。
第5態様では、本願の実施例は情報処理方法を提供し、前記方法は、
入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属することと、
前記予測モードに基づいて前記第3予測ブロックを修正して、第3修正ブロックを取得することと、
前記符号化対象ブロックにおける画像成分と前記第3修正ブロックにおける修正値との差分を決定し、残差ブロックを取得することと、
前記残差ブロック及び前記予測モードをビットストリームに書き込むことと、を含む。
第6態様では、本願の実施例は情報処理装置を提供し、前記装置は、
入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得するように設定され、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する予測モジュールと、
前記予測モードに基づいて前記第3予測ブロックを修正して、第3修正ブロックを取得するように設定される修正モジュールと、
前記符号化対象ブロックにおける画像成分と前記第3修正ブロックにおける修正値との差分を決定し、残差ブロックを取得するように設定される残差決定モジュールと、
前記残差ブロック及び前記予測モードをビットストリームに書き込むように設定される書き込みモジュールと、を備える。
第7態様では、本願の実施例は情報処理方法を提供し、前記方法は、
入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第4予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属することと、
前記予測モードに基づいて前記第4予測ブロックを修正して、第4修正ブロックを取得することと、
前記ビットストリームにおける残差ブロックにおける差分と前記第4修正ブロックにおける修正値との和を決定し、復元ブロックを取得することと、
前記復元ブロックを処理し、処理後のビデオデータを出力することと、を含む。
第8態様では、本願の実施例は情報処理装置を提供し、前記装置は、
入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第4予測ブロックを取得するように設定され、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する予測モジュールと、
前記予測モードに基づいて前記第4予測ブロックを修正して、第4修正ブロックを取得するように設定される修正モジュールと、
前記ビットストリームにおける残差ブロックにおける差分と前記第4修正ブロックにおける修正値との和を決定し、復元ブロックを取得するように設定される復元モジュールと、
前記復元ブロックを処理し、処理後のビデオデータを出力するように設定されるビデオ出力モジュールと、を備える。
第9態様では、本願の実施例は電子機器を提供し、メモリ及びプロセッサを備え、前記メモリにはプロセッサにおいて実行され得るコンピュータプログラムが記憶され、前記プロセッサは前記プログラムを実行する際に上記情報処理方法におけるステップを実現する。
第10態様では、本願の実施例はコンピュータ可読記憶媒体を提供し、コンピュータプログラムが記憶され、該コンピュータプログラムがプロセッサにより実行されるとき、上記情報処理方法におけるステップを実現する。
本願の実施例では、入力されたソースビデオデータに対して、予め設定され且つPDPCアプリケーションモードに属する予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得した後、第1予測ブロックにおける予測値を修正することなく、直接に第1予測ブロックにおける予測値と符号化対象ブロックにおける画像成分との差分を決定する。このように、ビデオの符号化・複号化性能を確保する上で、ビデオの符号化・複号化における情報処理の複雑度を低減し、特にイントラ予測の処理複雑度を低減することができる。
図1は本願の実施例に係るネットワークアーキテクチャの模式図である。 図2Aは本願の実施例に係るビデオエンコーダの構造模式図である。 図2Bは本願の実施例に係るビデオデコーダの構造模式図である。 図2Cは本願の実施例に係る94種類の成分内の空間予測モードの模式図である。 図2Dは本願の実施例に係る直流成分予測モードにおけるPDPC計算方法の模式図である。 図3Aは本願の実施例に係る情報処理方法の実現フローチャートである。 図3Bは本願の実施例に係る他の情報処理方法の実現フローチャートである。 図4Aは本願の実施例に係る別の情報処理方法の実現フローチャートである。 図4Bは本願の実施例に係る更なる情報処理方法の実現フローチャートである。 図5は本願の実施例に係る他の情報処理方法の実現フローチャートである。 図6は本願の実施例に係る別の情報処理方法の実現フローチャートである。 図7は本願の実施例に係る更なる情報処理方法の実現フローチャートである。 図8は本願の実施例に係る他の情報処理方法の実現フローチャートである。 図9Aは本願の実施例に係る別の情報処理方法の実現フローチャートである。 図9Bは本願の実施例に係る更なる情報処理方法の実現フローチャートである。 図10は本願の実施例に係る他の情報処理方法の実現フローチャートである。 図11Aは本願の実施例に係る別の情報処理方法の実現フローチャートである。 図11Bは本願の実施例に係る更なる情報処理方法の実現フローチャートである。 図12Aは本願の実施例に係る情報処理装置の構造模式図である。 図12Bは本願の実施例に係る他の情報処理装置の構造模式図である。 図13は本願の実施例に係る別の情報処理装置の構造模式図である。 図14は本願の実施例に係る更なる情報処理装置の構造模式図である。 図15は本願の実施例に係る他の情報処理装置の構造模式図である。 図16は本願の実施例に係る電子機器のハードウェアエンティティの模式図である。
本願の実施例の目的、技術案及び利点をより明確にするために、以下に本願の実施例の図面を参照しながら本願の具体的な技術案を更に詳しく説明する。下記実施例は本願を説明するためのものであって、本願の範囲を制限するためのものではない。
特に定義しない限り、本明細書に使用されるすべての技術及び科学用語は当業者が一般的に理解する意味と同じである。本明細書に使用される用語は本願の実施例を説明するためのものに過ぎず、本願を制限するためのものではない。
下記説明において、「いくつかの実施例」はすべての可能な実施例のサブセットを説明したが、理解されるように、「いくつかの実施例」はすべての可能な実施例の同じサブセット又は異なるサブセットであってもよく、且つ衝突しない限り、互いに組み合わせられることができる。
なお、本願の実施例に関わる用語「第1\第2\第3」は類似のオブジェクトを区別するためのものに過ぎず、オブジェクトに対する特定の順序を代表しない。理解されるように、ここで説明される本願の実施例をここで図示又は説明される順序以外の順序で実施させるよう、「第1\第2\第3」は許容される場合に特定の順序又は前後順位を交換することができる。
本実施例はまずネットワークアーキテクチャを提供し、図1は本願の実施例に係るネットワークアーキテクチャの構造模式図である。図1に示すように、該ネットワークアーキテクチャは1つ又は複数の電子機器11~1N及び通信ネットワーク01を備え、電子機器11~1Nは通信ネットワーク01によりビデオインタラクションを行うことができる。電子機器は実施過程において様々なタイプのビデオ符号化・複号化機能を持つ装置であってもよく、例えば、前記電子機器は携帯電話、タブレットコンピュータ、電子リーダー、無人航空機、ウェアラブルデバイス(例えばスマートグラス等)、ロボット掃除機、パーソナルコンピュータ、カーナビゲーション、ビデオ電話、テレビ、サーバ等を含んでもよい。
前記電子機器はビデオ符号化・複号化機能を有し、ビデオエンコーダ及び/又はビデオデコーダを備える。例えば、図2Aに示すように、ビデオエンコーダ21の構成構造は、変換及び量子化ユニット211、イントラ推定ユニット212、イントラ予測ユニット213、動き補償ユニット214、動き推定ユニット215、逆変換及び逆量子化ユニット216、フィルター制御分析ユニット217、フィルタリングユニット218、符号化ユニット219並びに復号化画像バッファユニット210等を備える。フィルタリングユニット218はデブロッキングフィルタリング及びサンプルアダプティブオフセット(SAO、Sample Adaptive 0ffset)フィルタリングを実現することができ、符号化ユニット219はヘッダ情報符号化及びコンテキスト適応型二値算術符号化(CABAC、Context-based Adaptive Binary Arithmatic Coding)を実現することができる。
入力されたソースビデオデータに対して、符号化ツリーユニット(CTU、Coding Tree Unit)の分割によって1つのビデオ符号化ブロックを取得することができる。次に、イントラ又はインター予測後に取得された残差画素情報に対して、変換及び量子化ユニット211によって該ビデオ符号化ブロックを変換し、該変換は残差情報を画素フィールドから変換フィールドに変換することを含み、且つ取得された変換係数を量子化して、ビットレートを更に減少させる。イントラ推定ユニット212及びイントラ予測ユニット213は該ビデオ符号化ブロックに対してイントラ予測を行うことに用いられ、明らかに、イントラ推定ユニット212及びイントラ予測ユニット213は該ビデオ符号化ブロックを符号化するためのイントラ予測モードを決定することに用いられる。動き補償ユニット214及び動き推定ユニット215は、受信されたビデオ符号化ブロックの1つ又は複数の参照フレームにおける1つ又は複数のブロックに対するインター予測符号化を実行して、時間予測情報を提供することに用いられる。動き推定ユニット215が実行する動き推定は動きベクトルの生成過程であり、前記動きベクトルは該ビデオ符号化ブロックの動きを推定することができ、次に、動き補償ユニット214は動き推定ユニット215により決定された動きベクトルに基づいて動き補償を実行する。イントラ予測モードを決定した後、イントラ予測ユニット213は更に選択されたイントラ予測データを符号化ユニット219に提供することに用いられ、且つ動き推定ユニット215は計算により決定された動きベクトルデータも符号化ユニット219に送信する。また、逆変換及び逆量子化ユニット216は該ビデオ符号化ブロックの再構築に使用され、画素フィールドにおいて残差ブロックを再構築し、該再構築された残差ブロックはフィルター制御分析ユニット217及びフィルタリングユニット218によりブロッキング効果アーティファクトを除去し、次に、該再構築された残差ブロックを復号化画像バッファユニット210のフレームにおける1つの予測ブロックに追加して、再構築されたビデオ符号化ブロックを生成する。符号化ユニット219は様々な符号化パラメータ及び量子化後の変換係数を符号化することに用いられ、CABACに基づく符号化アルゴリズムにおいて、コンテキストコンテンツは隣接する符号化ブロックに基づくものであってもよく、決定されたイントラ予測モードを示す情報を符号化し、該ソースビデオデータのビットストリームを出力することに用いられてもよいが、復号化画像バッファユニット210は再構築されたビデオ符号化ブロックを記憶することに用いられ、予測参照に使用される。ビデオ画像符号化の進行に伴い、新たな再構築されたビデオ符号化ブロックが絶えず生成されることとなり、これらの再構築されたビデオ符号化ブロックはいずれも復号化画像バッファユニット210に記憶される。
ビデオエンコーダ21に対応するビデオデコーダ22について、その構成構造は図2Bに示され、復号化ユニット221、逆変換及び逆量子化ユニット222、イントラ予測ユニット223、動き補償ユニット224、フィルタリングユニット225並びに復号化画像バッファユニット226等を備える。復号化ユニット221は、ヘッダ情報復号化及びCABAC復号化を実現することができ、フィルタリングユニット225は、デブロッキングフィルタリング及びSAOフィルタリングを実現することができる。入力されたソースビデオデータは図2Aの符号化処理を経た後、該ソースビデオデータのビットストリームを出力する。該ビットストリームはビデオデコーダ22に入力され、まず復号化ユニット221を通過して、復号化後の変換係数を取得する。該変換係数を逆変換及び逆量子化ユニット222により処理して、画素フィールドにおいて残差ブロックを生成する。イントラ予測ユニット223は、決定されたイントラ予測モード及び現在フレーム又はピクチャからの復号化ブロックを通過したデータに基づいて、現在のビデオ復号化ブロックの予測データを生成することに用いられてもよい。動き補償ユニット224は、動きベクトル及び他の関連文法要素を解析することにより、ビデオ復号化ブロックに使用される予測情報を決定し、且つ該予測情報を使用して、復号化されているビデオ復号化ブロックの予測ブロックを生成する。逆変換及び逆量子化ユニット222からの残差ブロックとイントラ予測ユニット223又は動き補償ユニット224により生成された対応の予測ブロックとの和を求めることにより、復号化されたビデオブロックを形成する。取得された復号化後のビデオデータは、フィルタリングユニット225により処理されて、ブロッキング効果アーティファクトを除去し、ビデオ品質を改善することができる。次に、復号化されたビデオデータを復号化画像バッファユニット226に記憶し、復号化画像バッファユニット226は、後続のイントラ予測又は動き補償に使用される参照画像を記憶することに用いられるとともに、ビデオデータの出力にも使用され、即ち復元されたソースビデオデータを取得する。
本願の実施例を詳しく説明する前に、まずイントラ予測モードを簡単に説明する。
最新の多用途ビデオ符号化(VVC、Versatile Video Coding)草案(H.266とも称される)において、自然ビデオにおけるより精細な縁部方向をキャッチするために、図2Cに示すように、VVCのテストモデルVTM5.0において番号が-14~80の94種類の成分内の空間予測モードが定義される。該空間予測モードは2種類の非角度モード、即ち番号が0のPlanarモード(以下にいずれも平面予測モードと称される)及び番号が1のDCモード(以下にいずれも直流成分予測モードと称される)を含む。なお、前記番号は予測モードを一意に示すことに用いられ、使用時にモードインデックス番号とされてもよい。イントラ予測において、94種類の成分内の空間予測モードのうちの1つ又は複数の予測モードを使用して、現在ブロック(Current Block)に対してイントラの成分内の空間予測を行う。
なお、本願の実施例の情報処理方法は、主に図2Aに示されるイントラ予測ユニット213部分及び図2Bに示されるイントラ予測ユニット223部分に適用され、現在ブロックのイントラ予測値を取得することに用いられる。即ち、本願の実施例の情報処理方法は、ビデオエンコーダ21に適用できるだけではなく、ビデオデコーダ22にも適用でき、ひいてはビデオエンコーダ21及びビデオデコーダ22に同時に適用できるが、本願の実施例は具体的に制限しない。下記説明される方法が213部分に使用される場合、「現在ブロック」とは213部分の符号化対象ブロックを指し、下記説明される方法が223部分に使用される場合、「現在ブロック」とは223部分の復号化対象ブロックを指す。
関連技術におけるイントラ予測ユニット213/223がイントラ予測過程を実行することについて説明する。一般的に、イントラ予測過程は主に、
現在ブロック(符号化対象ブロック又は復号化対象ブロックであってもよい)に対して輝度及び色度予測を行う前に、先に現在ブロックの周りの参照画素値を取得する必要があり、参照画素がすべて存在しない場合、画素値512を使用して充填し、一部の参照画素のみが存在しない場合、最も隣接して存在する参照画素値を使用して充填するステップS201と、
予測モード及び現在ブロックのサイズ等の具体的な状況に応じて、参照画素をフィルタリングする必要があるかどうかを判断し、フィルタリングする必要がある場合、係数が[1,2,1]である3タップ平滑化フィルタを使用して参照画素をフィルタリングするステップS202と、
各予測モードの計算方法に基づいて参照画素を使用して現在ブロックを予測して、現在ブロックにおける各画素の予測値を取得するステップS203と、
平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、番号が10以下である角度予測モード(広角度モードを含む)、番号が58以上である角度予測モード(広角度モードを含む)のいくつかの予測モードに対して、現在ブロックにおける各画素の予測値を取得した後に、PDPC方法を使用して予測値を更に修正する必要があり、平面予測モードが図2Cに示されるイントラ予測モードにおける番号が0である予測モードであり、直流成分予測モードが図2Cに示されるイントラ予測モードにおける番号が1である予測モードであり、水平予測モードが図2Cに示されるイントラ予測モードにおける番号が18である予測モードであり、前記垂直予測モードが図2Cに示されるイントラ予測モードにおける番号が50である予測モードであるステップS204と、を含む。
なお、PDPC方法の原理は、現在ブロックの左側参照画素left、上の行の参照画素top及び左上角参照画素topleftに基づいて予測値を修正し、次に修正後の予測値と現在ブロックにおける対応の画素値との残差を決定することである。
以下、図面を参照して本願の実施例を詳しく説明する。本願の実施例に係る情報処理方法はビデオエンコーダ21に適用できるだけではなく、ビデオデコーダ22にも適用でき、本願の実施例はこれを具体的に制限しない。
本願の実施例は情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用され、該方法が実現する機能は電子機器のプロセッサがプログラムコードを呼び出すことにより実現されてもよく、当然ながら、プログラムコードはコンピュータ記憶媒体に記憶されてもよい。以上から分かるように、該電子機器は少なくともプロセッサ及び記憶媒体を備える。
図3Aは本願の実施例に係る情報処理方法の実現フローチャートである。図3Aに示すように、前記方法は下記ステップS301~S303を含む。
ステップS301、入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得し、前記予測モードは予め設定され且つPDPCアプリケーションモードに属する。
他の実施例では、前記画像成分は色度値又は輝度値である。なお、PDPC方法を使用する前に、現在ブロック(符号化対象ブロック及び復号化対象ブロックを含む)を予測する際に使用する予測モードをPDPCアプリケーションモードとして定義する。例えば、VTM5.0において、PDPCアプリケーションモードは、平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、番号が10以下である角度予測モード(広角度モードを含む)、及び番号が58以上である角度予測モード(広角度モードを含む)を含む。
なお、復号化対象ブロックとは、ソースビデオデータにおける予測処理及び符号化処理を行う必要がある画像領域を指す。実現する時に、前記ソースビデオデータは画像収集装置により取得されることができる。
理解されるように、前記第1予測ブロックを取得した後、直接にステップS302を実行し、符号化対象ブロックにおける画像成分と第1予測ブロックにおける予測値との差分を決定する。このように、残差ブロックを決定する前に、第1予測ブロックに対してPDPC処理を行うことなく、イントラ予測の処理複雑度を低減することができる。
ステップS302、前記符号化対象ブロックにおける画像成分と前記第1予測ブロックにおける予測値との差分を決定し、残差ブロックを取得する。
ステップS303、前記残差ブロック及び前記予測モードをビットストリームに書き込む。
本願の実施例では、予め設定され且つPDPCアプリケーションモードに属する予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得した後、第1予測ブロックにおける各予測値を修正することなく、直接に第1予測ブロックにおける予測値と符号化対象ブロックにおける画像成分との差分を決定する。このように、ビデオ符号化性能を確保する上で、イントラ予測の処理複雑度を低減することができる。
本願の実施例は他の情報処理方法を提供し、該方法は電子機器のビデオデコーダ22に適用される。図3Bは本願の実施例に係る他の情報処理方法の実現フローチャートである。図3Bに示すように、前記方法は、ステップS311~S313を含む。
ステップS311において、入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第2予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する。
他の実施例では、前記画像成分は色度値又は輝度値である。
ステップS312において、前記ビットストリームにおける残差ブロックにおける差分と前記第2予測ブロックにおける予測値との和を決定し、復元ブロックを取得する。
ステップS313において、前記復元ブロックを処理し、処理後のビデオデータを出力する。
本願の実施例では、入力されたビットストリームにおける予測モードに基づいて、前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第2予測ブロックを取得し、前記予測モードは予め設定され且つPDPCアプリケーションモードに属する。前記第2予測ブロックを取得した後、第2予測ブロックにおける各予測値を修正することなく、直接に前記ビットストリームにおける残差ブロックにおける差分と第2予測ブロックにおける予測値との和を決定し、それにより復元ブロックを取得する。このように、ビデオ復号化性能を確保する上で、イントラ予測の処理複雑度を低減することができる。
本願の実施例は別の情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用される。図4Aは本願の実施例に係る別の情報処理方法の実現フローチャートである。図4Aに示すように、前記方法は下記ステップS401~S403を含む。
ステップS401において、入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得し、前記予測モードは予め設定され且つPDPCアプリケーションモードに属する。
理解されるように、PDPC方法でビデオ符号化・復号化性能を向上させることは、符号化ビットを節約し、色度性能を犠牲にすることを基礎とするものである。輝度及び色度が反映する画像内容は異なるため、PDPC方法で第1予測ブロックを修正することにより、輝度及び色度の性能を同時に向上させることが不可能である。本願の実施例では、符号化対象ブロックに対して色度予測を行うとき、予め設定された予測モードを使用して前記ソースビデオデータにおける符号化対象ブロックにおける色度値に対して色度予測を行った後、PDPC方法で取得された第1予測ブロックを修正することなく、直接に前記符号化対象ブロック及び前記第1予測ブロックに基づいて色度残差ブロックを決定する。
ステップS402において、前記符号化対象ブロックにおける色度値と前記第1予測ブロックにおける色度予測値との差分を決定し、残差ブロックを取得する。
ここで理解されるように、取得された残差ブロックは色度残差ブロックであり、即ちその中に含まれるのは符号化対象ブロックにおける色度値と第1予測ブロックにおける色度予測値との差分である。
ステップS403において、前記残差ブロック及び前記予測モードをビットストリームに書き込む。
本願の実施例では、入力されたソースビデオデータに対して、予め設定され且つPDPCアプリケーションモードに属する予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける色度値に対して色度予測を行った後、取得された第1予測ブロックにおける予測値を修正することなく、直接に残差値を求める。このように、色度性能に影響せずに色度イントラ予測の処理複雑度を低減する。
上記ステップS401~ステップS403に基づいて、他の実施例では、前記方法は更に、
予め設定され且つPDPCアプリケーションモードに属する予測モードに基づいて、前記符号化対象ブロックにおける輝度値に対して輝度予測を行って、第1予測ブロックを取得するステップS404と、
前記第1予測ブロックにおける予測値を修正して、第1修正ブロックを取得するステップS405と、
前記符号化対象ブロックにおける輝度値と前記第1修正ブロックにおける対応の修正値との差分を決定し、修正残差ブロックを取得するステップS406と、
前記修正残差ブロック及び前記予測モードをビットストリームに書き込むステップS407と、を含む。
なお、他の実施例では、輝度予測に対して、ビデオエンコーダは更に下記実施例のステップS901~ステップS903を実行してもよく、又は、下記実施例のステップS101~ステップS103を実行する。
本願の実施例は更なる情報処理方法を提供し、該方法は電子機器のビデオデコーダ22に適用される。図4Bは本願の実施例に係る更なる情報処理方法の実現フローチャートである。図4Bに示すように、前記方法は、
入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて、前記ビットストリームにおける復号化対象ブロックにおける色度値を予測して、第2予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属するステップS411と、
前記ビットストリームにおける残差ブロックにおける色度差分と前記第2予測ブロックにおける色度予測値との和を決定し、復元ブロックを取得するステップS412と、
前記復元ブロックを処理し、処理後のビデオデータを出力するステップS413と、を含む。
本願の実施例では、入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける色度値を予測して、第2予測ブロックを取得し、前記予測モードは予測され且つPDPCアプリケーションモードに属する。第2予測ブロックを取得した後、取得された第2予測ブロックにおける色度予測値を修正することなく、直接に前記残差ブロックと前記第2予測ブロックとを加算して、復元ブロックを取得し、前記復元ブロックを処理し、処理後のビデオデータを出力する。このように、色度性能に影響せずに色度イントラ予測の処理複雑度を低減する。
上記ステップS411~ステップS413に基づいて、他の実施例では、前記方法は更に、
入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて、前記ビットストリームにおける復号化対象ブロックにおける輝度値を予測して、第2予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属するステップS414と、
前記第2予測ブロックにおける輝度予測値を修正して、第2修正ブロックを取得するステップS415と、
前記ビットストリームにおける残差ブロックにおける輝度差分と前記第2修正ブロックにおける輝度予測値との和を決定し、復元ブロックを取得するステップS416と、
前記復元ブロックを処理し、処理後のビデオデータを出力するステップS417と、を含む。
なお、他の実施例では、輝度予測に対して、ビデオデコーダは更に下記実施例のステップS911~ステップS913を実行してもよく、又は、他の実施例では、ステップS911における予測モードは下記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードである。
本願の実施例は他の情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用される。図5は本願の実施例に係る他の情報処理方法の実現フローチャートである。図5に示すように、前記方法は下記ステップS501~S503を含む。
ステップS501において、入力されたソースビデオデータに対して、第1モード組合せにおけるいずれか1つの予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得する。
前記第1モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値より小さく且つ平面予測モードと直流成分予測モードとを含まない予測モード、番号が第1数値より大きく且つ第2数値以下である予測モード、番号が第3数値以上であり且つ第4数値より小さい予測モード、及び番号が第4数値より大きい予測モード、のPDPCアプリケーションモードを含む。
なお、第1数値、第2数値、第3数値及び第4数値は一般的に予め設定されたモードインデックス番号値(即ち前記番号の値)である。好適な実施例では、前記N種類の成分内の空間予測モードは図2Cに示される94種類の成分内の空間予測モードであり、第1数値を2として設定し、第2数値を10として設定し、第3数値を58として設定し、第4数値を66として設定し、即ち、色度予測を行う際にこの94種類の成分内の空間予測モードにおける番号が2より小さく且つ平面予測モードと直流成分予測モードとを含まない予測モード、番号が2より大きく且つ10以下である予測モード、番号が58以上であり且つ66より小さい予測モード、及び番号が66より大きい予測モードのうちのいずれか1つの予測モードを使用するとき、いずれもPDPC方法で取得された色度予測値を修正しない。換言すれば、平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、番号が2である予測モード及び番号が66である予測モードのみにおいて、PDPC方法で取得された色度予測値を修正する。
ステップS502において、前記符号化対象ブロックにおける色度値と前記第1予測ブロックにおける色度予測値との差分を決定し、残差ブロックを取得する。
ステップS503において、前記残差ブロック及び前記予測モードをビットストリームに書き込む。
本願の実施例では、前記第1モード組合せにおける予測モードを使用して符号化対象ブロックに対して色度予測を行うとき、PDPC方法で取得された色度予測値を修正せずに、直接に色度予測値と符号化対象ブロックにおける色度値との差分を決定する。このように、色度予測性能を確保する上で、色度予測の処理複雑度を低減する。
上記ステップS501~ステップS503に基づいて、他の実施例では、前記方法は更に上記ステップS403~ステップS407を含む。
なお、他の実施例では、輝度予測に対して、更に下記実施例のステップS901~ステップS903を実行してもよく、又は、下記実施例のステップS101~ステップS103を実行する。
更に、入力されたビットストリームに対して、ビデオデコーダは上記ステップS501~ステップS503に対応する復号化ステップを実行してもよく、ここで詳細な説明は省略する。他の実施例では、輝度予測に対して、ビデオデコーダは更に下記実施例のステップS911~ステップS913を実行してもよく、又は、他の実施例では、ステップS911における予測モードは前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードである。
本願の実施例は別の情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用される。図6は本願の実施例に係る別の情報処理方法の実現フローチャートである。図6に示すように、前記方法は下記ステップS601~S603を含む。
ステップS601において、入力されたソースビデオデータに対して、第2モード組合せにおけるいずれか1つの予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得し、前記第2モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
なお、第2数値、第3数値は一般的に予め設定されたモードインデックス番号値(即ち前記番号の値)である。好適な実施例では、前記N種類の成分内の空間予測モードは図2Cに示される94種類の成分内の空間予測モードであり、第2数値を10として設定し、第3数値を58として設定し、即ち、色度予測を行う際にこの94種類の成分内の空間予測モードにおける番号が10以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が58以上である予測モードのうちのいずれか1つの予測モードを使用するとき、いずれもPDPC方法で取得された色度予測値を修正しない。このように、色度予測の処理複雑度を低減することができる。換言すれば、平面予測モード、直流成分予測モード、水平予測モード及び垂直予測モードのみにおいて、PDPC方法で取得された色度予測値を修正する。
更に例えば、他の好適な実施例では、前記N種類の成分内の空間予測モードは図2Cに示される94種類の成分内の空間予測モードであり、第2数値を8として設定し、第3数値を60として設定する。
ステップS602において、前記符号化対象ブロックにおける色度値と前記第1予測ブロックにおける色度予測値との差分を決定し、残差ブロックを取得する。
ステップS603において、前記残差ブロック及び前記予測モードをビットストリームに書き込む。
本願の実施例では、前記第2モード組合せにおけるいずれか1つの予測モードを使用して符号化対象ブロックを予測するとき、直接に残差値を決定し、予測値を修正しない。このように、基本的に輝度符号化性能に影響せずに、色度符号化性能を向上させる。実験データによれば、Y成分性能が0.03%低下し、U成分性能が0.16%向上し、V成分性能が0.14%向上し、以上から分かるように、Y成分性能が基本的に変化せず、U成分性能の向上及びV成分性能の向上が顕著である。
なお、上記ステップS601~ステップS603に基づいて、他の実施例では、前記方法は更に上記ステップS403~ステップS407を含む。又は、他の実施例では、輝度予測に対して、更に下記実施例のステップS901~ステップS903を実行してもよく、又は、下記実施例のステップS101~ステップS103を実行する。
更に、入力されたビットストリームに対して、ビデオデコーダは上記ステップS601~ステップS603に対応する復号化ステップを実行してもよく、ここで詳細な説明は省略する。他の実施例では、輝度予測に対して、更に下記実施例のステップS911~ステップS913を実行してもよく、他の実施例では、ステップS911における予測モードは前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードである。
本願の実施例は更なる情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用される。図7は本願の実施例に係る更なる情報処理方法の実現フローチャートである。図7に示すように、前記方法は下記ステップS701~S703を含む。
ステップS701において、入力されたソースビデオデータに対して、第3モード組合せにおけるいずれか1つの予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得し、前記第3モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
なお、第2数値、第3数値は一般的に予め設定されたモードインデックス番号値(即ち前記番号の値)である。好適な実施例では、前記N種類の成分内の空間予測モードは図2Cに示される94種類の成分内の空間予測モードであり、第2数値を10として設定し、第3数値を58として設定し、即ち、前記第3モード組合せは、水平予測モード、垂直予測モード、前記94種類の成分内の空間予測モードにおける番号が10以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が58以上である予測モード、のPDPCアプリケーションモードを含む。換言すれば、平面予測モード、直流成分予測モードのみにおいてPDPC方法で取得された色度予測値を修正し、第3モード組合せにおいてPDPC方法で取得された色度予測値を修正せず、それにより色度予測の処理複雑度を低減する。
ステップS702において、前記符号化対象ブロックにおける色度値と前記第1予測ブロックにおける色度予測値との差分を決定し、残差ブロックを取得する。
ステップS703において、前記残差ブロック及び前記予測モードをビットストリームに書き込む。
なお、上記ステップS701~ステップS703に基づいて、他の実施例では、前記方法は更に上記ステップS403~ステップS407を含む。又は、他の実施例では、輝度予測に対して、更に下記実施例のステップS901~ステップS903を実行してもよく、又は、下記実施例のステップS101~ステップS103を実行する。
更に、入力されたビットストリームに対して、ビデオデコーダは上記ステップS701~ステップS703に対応する復号化ステップを実行し、ここで詳細な説明は省略する。他の実施例では、輝度予測に対して、ビデオデコーダは更に上記ステップS414~ステップS417を実行してもよく、又は、下記実施例のステップS911~ステップS913を実行し、又は、他の実施例では、ステップS911における予測モードは前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードである。
本願の実施例は他の情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用される。図8は本願の実施例に係る他の情報処理方法の実現フローチャートである。図8に示すように、前記方法は下記ステップS801~S803を含む。
ステップS801において、入力されたソースビデオデータに対して、第4モード組合せにおけるいずれか1つの予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得し、前記第4モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含む予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
なお、第2数値、第3数値は一般的に予め設定されたモードインデックス番号値(即ち前記番号の値)である。好適な実施例では、前記N種類の成分内の空間予測モードは図2Cに示される94種類の成分内の空間予測モードであり、第2数値を10として設定し、第3数値を58として設定し、即ち、前記第4モード組合せは、水平予測モード、垂直予測モード、前記94種類の成分内の空間予測モードにおける番号が10以下である予測モード、及び番号が58以上である予測モード、のPDPCアプリケーションモードを含む。換言すれば、すべてのPDPCアプリケーションモードにおいて色度予測を行うとき、いずれもPDPC方法で取得された色度予測値を修正しない。
ステップS802において、前記符号化対象ブロックにおける色度値と前記第1予測ブロックにおける色度予測値との差分を決定し、残差ブロックを取得する。
ステップS803において、前記残差ブロック及び前記予測モードをビットストリームに書き込む。
なお、上記ステップS801~ステップS803に基づいて、他の実施例では、前記方法は更に上記実施例に記載のステップS401~ステップS403、又はステップS501~ステップS503、又はステップS601~ステップS603、又はステップS701~ステップS703、又は下記ステップS901~ステップS903を含む。
更に、入力されたビットストリームに対して、ビデオデコーダは上記ステップS801~ステップS803に対応する復号化ステップを実行してもよく、ここで詳細な説明は省略する。他の実施例では、輝度予測に対して、ビデオデコーダは更に上記ステップS414~ステップS417を実行してもよく、又は、下記実施例のステップS911~ステップS913を実行し、又は、他の実施例では、ステップS911における予測モードは前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードである。
本願の実施例は別の情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用される。図9は本願の実施例に係る別の情報処理方法の実現フローチャートである。図9Aに示すように、前記方法は、
入力されたソースビデオデータに対して、予め設定され且つPDPCアプリケーションモードに属する予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける輝度値を予測して、第1予測ブロックを取得するステップS901と、
前記符号化対象ブロックにおける輝度値と前記第1予測ブロックにおける輝度予測値との差分を決定し、残差ブロックを取得するステップS902と、
前記残差ブロック及び前記予測モードをビットストリームに書き込むステップS903と、を含む。
本願の実施例では、予め設定され且つPDPCアプリケーションモードに属する予測モードに基づいて符号化対象ブロックにおける輝度値を予測するとき、PDPC方法で取得された輝度予測値を修正しない。このように、輝度予測の処理複雑度を低減することができる。
なお、上記ステップS901~ステップS903に基づいて、他の実施例では、前記方法は更に上記実施例に記載のステップS401~ステップS403、又はステップS501~ステップS503、又はステップS601~ステップS603、又はステップS701~ステップS703、又はステップS801~ステップS803を含む。
本願の実施例は更なる情報処理方法を提供し、該方法は電子機器のビデオデコーダ22に適用される。図9Bは本願の実施例に係る更なる情報処理方法の実現フローチャートである。図9Bに示すように、前記方法はステップS911~ステップS913を含む。
ステップS911において、入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける輝度値を予測して、第2予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する。
他の実施例では、ステップS911における予測モードは前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードである。
ステップS912において、前記ビットストリームにおける残差ブロックにおける輝度差分と前記第2予測ブロックにおける輝度予測値との和を決定し、復元ブロックを取得する。
ステップS913において、前記復元ブロックを処理し、処理後のビデオデータを出力する。
本願の実施例は他の情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用される。図10は本願の実施例に係る他の情報処理方法の実現フローチャートである。図10に示すように、前記方法は、
入力されたソースビデオデータに対して、前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける輝度値に対して輝度予測を行って、第1予測ブロックを取得するステップS101と、
前記符号化対象ブロックにおける輝度値と前記第1予測ブロックにおける輝度予測値との差分を決定し、残差ブロックを取得するステップS102と、
前記残差ブロック及び前記予測モードをビットストリームに書き込むステップS103と、を含む。
なお、上記ステップS101~ステップS103に基づいて、他の実施例では、前記方法は更に上記実施例に記載のステップS401~ステップS403、又はステップS501~ステップS503、又はステップS601~ステップS603、又はステップS701~ステップS703、又はステップS801~ステップS803を含む。
本願の実施例は別の情報処理方法を提供し、該方法は電子機器のビデオエンコーダ21に適用される。図11Aは本願の実施例に係る別の情報処理方法の実現フローチャートである。図11Aに示すように、前記方法は、ステップS1101~ステップS1104を含む。
ステップS1101において、入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する。
他の実施例では、前記画像成分は輝度値又は色度値である。
ステップS1102において、前記予測モードに基づいて前記第3予測ブロックを修正して、第3修正ブロックを取得する。
ステップS1103において、前記符号化対象ブロックにおける画像成分と前記第3修正ブロックにおける修正値との差分を決定し、残差ブロックを取得する。
ステップS1104において、前記残差ブロック及び前記予測モードをビットストリームに書き込む。
他の実施例では、ステップS1101について、前記予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することは、第5モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第3予測ブロックを取得することを含み、前記第5モード組合せは、平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値である予測モード、及び予め設定されたN種類の成分内の空間予測モードにおける番号が第4数値である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、ステップS1101について、前記予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することは、
状況1、状況2、状況3及び状況4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することを含み、
前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記符号化対象ブロックが色度ブロックであることであり、
前記状況2は、前記符号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記符号化対象ブロックが色度ブロックであることであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
前記状況3は、前記符号化対象ブロックがブロックベースのデルタパルスコード変調(BDPCM)方法で符号化されていないことであり、
前記状況4は、
前記予測モードが水平予測モードであること、
前記予測モードが垂直予測モードであること、
前記予測モードが、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値である予測モードであること、
前記予測モードが前記番号が第4数値である予測モードであること、
前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
他の実施例では、ステップS1101について、前記予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することは、第6モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第3予測ブロックを取得することを含み、前記第6モード組合せは平面予測モード、直流成分予測モード、水平予測モード及び垂直予測モードのPDPCアプリケーションモードを含む。
他の実施例では、ステップS1101について、前記予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することは、
状況1、状況2、状況3及び状況4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することを含み、
前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記符号化対象ブロックが色度ブロックであることであり、
前記状況2は、前記符号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記符号化対象ブロックが色度ブロックであることであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
前記状況3は、前記符号化対象ブロックがBDPCM方法で符号化されていないことであり、
前記状況4は、
前記予測モードが平面予測モードであること、
前記予測モードが直流成分予測モードであること、
前記予測モードが水平予測モードであること、
前記予測モードが垂直予測モードであること、
前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
他の実施例では、ステップS1101について、前記予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することは、第7モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第3予測ブロックを取得することを含み、前記第7モード組合せは平面予測モード及び直流成分予測モードのPDPCアプリケーションモードを含む。
他の実施例では、ステップS1101について、前記予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することは、
状況1、状況2、状況3及び状況4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することを含み、
前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記符号化対象ブロックが色度ブロックであることであり、
前記状況2は、前記符号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記符号化対象ブロックが色度ブロックであることであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
前記状況3は、前記符号化対象ブロックがBDPCM方法で符号化されていないことであり、
前記状況4は、
前記予測モードが平面予測モードであること、
前記予測モードが直流成分予測モードであること、
前記予測モードが水平予測モードであり且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが垂直予測モードであり且つ前記符号化対象ブロックが色度ブロックではないこと、 前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
他の実施例では、ステップS1101について、前記予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することは、
状況1、状況2、状況3及び状況4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得することを含み、
前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用していないことであり、
前記状況2は、前記符号化対象ブロックが輝度ブロックであり且つ第0参照行を使用して予測することであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
前記状況3は、前記符号化対象ブロックがBDPCM方法で符号化されていないことであり、
前記状況4は、
前記予測モードが平面予測モードであること、
前記予測モードが直流成分予測モードであること、
前記予測モードが水平予測モードであること、
前記予測モードが垂直予測モードであること、
前記予測モードが、前記番号が第2数値以下である予測モードであること、
前記予測モードが前記番号が第3数値以上である予測モードであること、のうちのいずれか1つの条件を満足する。
本願の実施例は更なる情報処理方法を提供し、該方法は電子機器のビデオデコーダ22に適用される。図11Bは本願の実施例に係る更なる情報処理方法の実現フローチャートである。図11Bに示すように、前記方法は、ステップS1121~ステップS1124を含む。
ステップS1121において、入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第4予測ブロックを取得し、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する。
他の実施例では、前記画像成分は色度値又は輝度値である。
ステップS1122において、前記予測モードに基づいて前記第4予測ブロックを修正して、第4修正ブロックを取得する。
ステップS1123において、前記ビットストリームにおける残差ブロックにおける差分と前記第4修正ブロックにおける修正値との和を決定し、復元ブロックを取得する。
ステップS1124において、前記復元ブロックを処理し、処理後のビデオデータを出力する。
VTM5.0において、PDPC方法は、輝度ブロック及び色度ブロック予測モードにおける平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、前記94種類の成分内の空間予測モードにおける番号が10以下である角度予測モード及び番号が58以上である角度予測モードに同時に適用され、即ち、これらの予測モードを使用して現在ブロックを予測した後、PDPC方法で予測により取得された予測値を修正する。
VTM5.0における規定により、状況(101)、状況(102)、状況(103)及び状況(104)をすべて満足する場合、PDPC方法を使用し、
状況(101)は、現在ブロックが輝度ブロックである場合にイントラサブ分割(ISP、Intra Sub-Partitions)を使用せず、又は、現在ブロックが色度ブロックであることであり、
状況(102)は、現在ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、現在ブロックが色度ブロックであることであり、第0参照行とは現在ブロックに最も近い参照行を指し、
状況(103)は、現在ブロックがブロックベースのデルタパルスコード変調(BDPCM、Block-based Delta Pulse Code Modulation)方法で符号化されていないことであり、
状況(104)は、予測モードが平面予測モードであること、予測モードが直流成分予測モードであること、予測モードが水平予測モードであること、予測モードが垂直予測モードであること、予測モードが、番号が10以下である角度予測モードであること、予測モードが、番号が58以上である角度予測モードであること、のうちのいずれか1つの条件を満足する。
ところが、PDPC方法で符号化・復号化性能を向上させることは、符号化ビットを節約し、色度性能を犠牲にすることを基礎とするものである。輝度及び色度が反映する画像内容は異なるため、PDPC技術は輝度及び色度の性能を同時に向上させることが不可能であり、輝度及び色度に対していずれも同じPDPC方法を使用すべきではない。
これに基づいて、以下に複数の好適な実施例を参照しながら上記実施例に関わる内容を説明する。
本願の実施例はPDPCアプリケーションモードの修正方法を提供し、PDPCを使用する色度予測モードを減少させ、このように制限した後、時間複雑度を低減するとともに、色度符号化性能を向上させる。理解しやすくするために、以下に詳しく説明する。
関連技術におけるPDPCアプリケーションモードは輝度及び色度において同様であり、いずれも平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、番号が10以下である角度予測モード又は番号が58以上である角度予測モードを利用する。
本願の実施例では、色度予測を、図2Cに示される94種類の成分内の空間予測モードにおける番号が10以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、番号が58以上である予測モードのうちのいずれか1つの予測モードを使用して現在ブロックに対して色度予測を行うとき、いずれもPDPC方法で取得された色度予測値を修正しないように修正する。換言すれば、現在ブロックに対して色度予測を行うとき、PDPCを使用する色度予測モードを、平面予測モード、直流成分予測モード、水平予測モード又は垂直予測モードのみに対してPDPCを使用するように減少させ、現在ブロックに対して輝度予測を行うとき、PDPCを使用する輝度予測モードは依然として平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、前記94種類の成分内の空間予測モードにおける番号が10以下である角度予測モード及び番号が58以上である角度予測モードであり、即ち、PDPCを使用する輝度予測モードは変化しない。
それに対応して、VTM5.0における文法意味を修正し、即ちPDPCを応用するモードは、状況(201)、状況(202)、状況(203)及び状況(204)をすべて満足する場合、PDPCを使用するように制限され、
状況(201)は、現在ブロックが輝度ブロックである場合にISP分割を使用せず、又は、現在ブロックが色度ブロックであることであり、
状況(202)は、現在ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、現在ブロックが色度ブロックであることであり、
状況(203)は、現在ブロックがBDPCM方法で符号化されていないことであり、 状況(204)は、予測モードが平面予測モードであること、予測モードが直流成分予測モードであること、予測モードが水平予測モードであること、予測モードが垂直予測モードであること、予測モードが、番号が10以下である角度予測モードであり且つ現在ブロックが色度ブロックではないこと、又は、予測モードが、番号が58以上である角度予測モードであり且つ現在ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
本願の実施例に係る上記PDPCアプリケーションモードの修正方法は、基本的に性能に影響せずに下記有益な効果を得ることができる。
第1態様では、基本的に輝度符号化性能に影響せずに色度符号化性能を向上させることができる。実験データによれば、Y成分性能が0.03%低下し、U成分性能が0.16%向上し、V成分性能が0.14%向上した。以上から分かるように、Y成分性能が基本的に変化せず、U成分性能の向上及びV成分性能の向上が顕著である。
第2態様では、複雑度を低減することができる。関連技術におけるPDPCの応用シーンが比較的多い。本願の実施例に係る方法を使用することにより、PDPCを使用する色度予測モードを4種類に減少させることができ、それにより処理複雑度を低下させ、最終的に復号化時間が大幅に短縮される。
本願の実施例の保護点はPDPCの色度予測時の使用シーンを修正することである。主な実施形態において色度予測モードにおける平面予測モード、直流成分予測モード、水平予測モード及び垂直予測モードのみに対してPDPCを使用するか、それとも代替実施形態において一部の色度予測モードがPDPCの使用を禁止するかにかかわらず、いずれも色度予測におけるPDPCを応用する予測モードを減少させ、アルゴリズムの複雑度を低減させ、且つ色度の符号化性能を向上させることを目的とする。代替実施形態は主に下記実施形態を含む。
代替実施形態1
色度予測を、水平予測モード、垂直予測モード、図2Cに示される前記94種類の成分内の空間予測モードにおける番号が10以下である予測モード、及び番号が58以上である予測モードのうちのいずれか1つの予測モードを使用して現在ブロックに対して色度予測を行うとき、いずれもPDPC方法で取得された色度予測値を修正しないように修正する。即ち、すべての色度予測モードがPDPCを使用することを禁止し、現在ブロックに対して輝度予測を行うとき、PDPCを使用する輝度予測モードは変化しない。
それに対応して、VTM5.0における文法意味を、状況(301)、状況(302)、状況(303)、状況(304)及び状況(305)をすべて満足する場合、PDPCを使用するように修正し、
状況(301)は、現在ブロックが輝度ブロックであることであり、
状況(302)は、現在ブロックがISP分割を使用しないことであり、
状況(303)は、現在ブロックが第0参照行を使用して予測することであり、
状況(304)は、現在ブロックがBDPCM方法で符号化されていないことであり、 状況(305)は、予測モードが平面予測モードであること、予測モードが直流成分予測モードであること、予測モードが水平予測モードであること、予測モードが垂直予測モードであること、予測モードが、番号が10以下である角度予測モードであること、予測モードが、番号が58以上である角度予測モードであること、のうちのいずれか1つの条件を満足する。
代替実施形態2
色度予測を、水平予測モード、垂直予測モード、前記94種類の成分内の空間予測モードにおける番号が10以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が58以上である予測モードのうちのいずれか1つの予測モードを使用して現在ブロックに対して色度予測を行うとき、いずれもPDPC方法で取得された色度予測値を修正しないように修正する。換言すれば、色度予測を行うとき、平面予測モード及び直流成分予測モードのみにおいてPDPCを使用し、現在ブロックに対して輝度予測を行うとき、PDPCを使用する輝度予測モードは変化しない。
それに対応して、VTM5.0における文法意味を、状況(401)、状況(402)、状況(403)及び状況(404)をすべて満足する場合、PDPCを使用するように修正し、
状況(401)は、現在ブロックが輝度ブロックである場合にISP分割を使用せず、又は、現在ブロックが色度ブロックであることであり、
状況(402)は、現在ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、現在ブロックが色度ブロックであることであり、
状況(403)は、現在ブロックがBDPCM方法で符号化されていないことであり、 状況(404)は、予測モードが平面予測モードであること、予測モードが直流成分予測モードであること、予測モードが水平予測モードであり且つ現在ブロックが色度ブロックではないこと、予測モードが垂直予測モードであり且つ現在ブロックが色度ブロックではないこと、予測モードが、番号が10以下である角度予測モードであり且つ現在ブロックが色度ブロックではないこと、予測モードが、番号が58以上である角度予測モードであり且つ現在ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
代替実施形態3
色度予測を、前記94種類の成分内の空間予測モードにおける番号が2より小さく且つ平面予測モードと直流成分予測モードとを含まない予測モード、番号が2より大きく且つ10以下である予測モード、番号が58以上であり且つ66より小さい予測モード、及び番号が66より大きい予測モードのうちのいずれか1つの予測モードを使用して現在ブロックに対して色度予測を行うとき、いずれもPDPC方法で取得された色度予測値を修正しないように修正する。換言すれば、平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、番号が2である予測モード及び番号が66である予測モードのうちのいずれか1つの予測モードのみにおいてPDPCを使用し、現在ブロックに対して輝度予測を行うとき、PDPCを使用する輝度予測モードは変化しない。
それに対応して、VTM5.0における文法意味を、状況(501)、状況(502)、状況(503)及び状況(504)をすべて満足する場合、PDPCを使用するように修正し、
状況(501)は、現在ブロックが輝度ブロックである場合にISP分割を使用せず、又は、現在ブロックが色度ブロックであることであり、
状況(502)は、現在ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、現在ブロックが色度ブロックであることであり、
状況(503)は、現在ブロックがBDPCM方法で符号化されていないことであり、 状況(504)は、予測モードが平面予測モードであること、予測モードが直流成分予測モードであること、予測モードが水平予測モードであること、予測モードが垂直予測モードであること、予測モードが、番号が2である予測モードであること、予測モードが、番号が66である予測モードであること、予測モードが、番号が10以下である角度予測モードであり且つ現在ブロックが色度ブロックではないこと、予測モードが、番号が58以上である角度予測モードであり且つ現在ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
代替実施形態4
色度予測及び輝度予測を、前記94種類の成分内の空間予測モードにおける番号が10以下であり且つ8より大きい予測モード、及び番号が58以上であり且つ60より小さい予測モードのうちのいずれか1つの予測モードを使用して現在ブロックに対して色度予測及び輝度予測を行うとき、いずれもPDPC方法で取得された色度予測値及び輝度予測値を修正しないように修正する。換言すれば、PDPCを使用する輝度及び色度予測モードを同時に減少させる。
それに対応して、VTM5.0における文法意味を、状況(601)、状況(602)、状況(603)及び状況(604)をすべて満足する場合、PDPCを使用するように修正し、
状況(601)は、現在ブロックが輝度ブロックである場合にISP分割を使用せず、又は、現在ブロックが色度ブロックであることであり、
状況(602)は、現在ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、現在ブロックが色度ブロックであることであり、
状況(603)は、現在ブロックがBDPCM方法で符号化されていないことであり、 状況(604)は、予測モードが平面予測モードであること、予測モードが直流成分予測モードであること、予測モードが水平予測モードであること、予測モードが垂直予測モードであること、予測モードが、番号が8以下である角度予測モードであること、予測モードが、番号が60以上である角度予測モードであること、のうちのいずれか1つの条件を満足する。
上記実施例に基づいて、本願の実施例は情報処理装置を提供し、該装置に含まれる各モジュール及び各モジュールに含まれる各ユニットは、電子機器のプロセッサにより実現されてもよく、当然ながら、具体的な論理回路により実現されてもよい。実施過程において、プロセッサは中央演算装置(CPU)、マイクロプロセッサ(MPU)、デジタルシグナルプロセッサ(DSP)又はフィールドプログラマブルゲートアレイ(FPGA)等であってもよい。
図12Aは本願の実施例に係る情報処理装置の構造模式図である。図12Aに示すように、前記情報処理装置120は、
入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得するように設定され、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する予測モジュール121と、
前記符号化対象ブロックにおける画像成分と前記第1予測ブロックにおける予測値との差分を決定し、残差ブロックを取得するように設定される残差決定モジュール122と、
前記残差ブロック及び前記予測モードをビットストリームに書き込むように設定される書き込みモジュール123と、を備える。
他の実施例では、前記画像成分は輝度値又は色度値である。
他の実施例では、図12Bに示すように、前記予測モジュール121は色度予測ユニット1210を備える。前記色度予測ユニット1210は、第1モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得するように設定される。前記第1モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値より小さく且つ平面予測モードと直流成分予測モードとを含まない予測モード、番号が第1数値より大きく且つ第2数値以下である予測モード、番号が第3数値以上であり且つ第4数値より小さい予測モード、及び番号が第4数値より大きい予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記色度予測ユニット1210は、第2モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得するように設定される。前記第2モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記色度予測ユニット1210は、第3モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得するように設定される。前記第3モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記色度予測ユニット1210は、第4モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第1予測ブロックを取得するように設定される。前記第4モード組合せは、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含む予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、図12Bに示すように、前記予測モジュール121は更に輝度予測ユニット1212を備える。前記輝度予測ユニット1212は、前記第1~第4モード組合せのうちのいずれか1つの組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける輝度値に対して輝度予測を行って、第1予測ブロックを取得するように設定される。
本願の実施例は他の情報処理装置を提供し、図13は本願の実施例に係る他の情報処理装置の構造模式図である。図13に示すように、前記情報処理装置130は、
入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第2予測ブロックを取得するように設定され、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する予測モジュール131と、
前記ビットストリームにおける残差ブロックにおける差分と前記第2予測ブロックにおける予測値との和を決定し、復元ブロックを取得するように設定される復元モジュール132と、
前記復元ブロックを処理し、処理後のビデオデータを出力するように設定されるビデオ出力モジュール133と、を備える。
他の実施例では、前記画像成分は色度値又は輝度値である。
他の実施例では、前記予測モードは第1モード組合せにおけるいずれか1つの予測モードである。前記第1モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値より小さく且つ平面予測モードと直流成分予測モードとを含まない予測モード、番号が第1数値より大きく且つ第2数値以下である予測モード、番号が第3数値以上であり且つ第4数値より小さい予測モード、及び番号が第4数値より大きい予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モードは第2モード組合せにおけるいずれか1つの予測モードである。前記第2モード組合せは、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モードは第3モード組合せにおけるいずれか1つの予測モードである。前記第3モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含まない予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モードは第4モード組合せにおけるいずれか1つの予測モードである。前記第4モード組合せは、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第2数値以下であり且つ平面予測モードと直流成分予測モードとを含む予測モード、及び番号が第3数値以上である予測モード、のPDPCアプリケーションモードを含む。
本願の実施例は別の情報処理装置を提供し、図14は本願の実施例に係る別の情報処理装置の構造模式図である。図14に示すように、前記情報処理装置140は、
入力されたソースビデオデータに対して、予測モードに基づいて前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得するように設定され、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する予測モジュール1401と、
前記予測モードに基づいて前記第3予測ブロックを修正して、第3修正ブロックを取得するように設定される修正モジュール1402と、
前記符号化対象ブロックにおける画像成分と前記第3修正ブロックにおける修正値との差分を決定し、残差ブロックを取得するように設定される残差決定モジュール1403と、
前記残差ブロック及び前記予測モードをビットストリームに書き込むように設定される書き込みモジュール1404と、を備える。
他の実施例では、前記画像成分は輝度値又は色度値である。
他の実施例では、前記予測モジュール1401は、第5モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第3予測ブロックを取得するように設定される。前記第5モード組合せは、平面予測モード、直流成分予測モード、水平予測モード、垂直予測モード、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値である予測モード、及び予め設定されたN種類の成分内の空間予測モードにおける番号が第4数値である予測モード、のPDPCアプリケーションモードを含む。
他の実施例では、前記予測モジュール1401は、状況1、状況2、状況3及び状況4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得するように設定され、
前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記符号化対象ブロックが色度ブロックであることであり、
前記状況2は、前記符号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記符号化対象ブロックが色度ブロックであることであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
前記状況3は、前記符号化対象ブロックがブロックベースのデルタパルスコード変調(BDPCM)方法で符号化されていないことであり、
前記状況4は、
前記予測モードが水平予測モードであること、
前記予測モードが垂直予測モードであること、
前記予測モードが、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値である予測モードであること、
前記予測モードが前記番号が第4数値である予測モードであること、
前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
他の実施例では、前記予測モジュール1401は、第6モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第3予測ブロックを取得するように設定される。前記第6モード組合せは平面予測モード、直流成分予測モード、水平予測モード及び垂直予測モードのPDPCアプリケーションモードを含む。
他の実施例では、前記予測モジュール1401は、状況1、状況2、状況3及び状況4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得するように設定され、
前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記符号化対象ブロックが色度ブロックであることであり、
前記状況2は、前記符号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記符号化対象ブロックが色度ブロックであることであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
前記状況3は、前記符号化対象ブロックがBDPCM方法で符号化されていないことであり、
前記状況4は、
前記予測モードが平面予測モードであること、
前記予測モードが直流成分予測モードであること、
前記予測モードが水平予測モードであること、
前記予測モードが垂直予測モードであること、
前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
他の実施例では、前記予測モジュール1401は、第7モード組合せにおけるいずれか1つの予測モードに基づいて、前記符号化対象ブロックにおける色度値に対して色度予測を行って、第3予測ブロックを取得するように設定される。前記第7モード組合せは平面予測モード及び直流成分予測モードのPDPCアプリケーションモードを含む。
他の実施例では、前記予測モジュール1401は、状況1、状況2、状況3及び状況4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得するように設定され、
前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記符号化対象ブロックが色度ブロックであることであり、
前記状況2は、前記符号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記符号化対象ブロックが色度ブロックであることであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
前記状況3は、前記符号化対象ブロックがBDPCM方法で符号化されていないことであり、
前記状況4は、
前記予測モードが平面予測モードであること、
前記予測モードが直流成分予測モードであること、
前記予測モードが水平予測モードであり且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが垂直予測モードであり且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、
前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足する。
他の実施例では、前記予測モジュール1401は、状況1、状況2、状況3及び状況4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得するように設定され、
前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用していないことであり、
前記状況2は、前記符号化対象ブロックが輝度ブロックであり且つ第0参照行を使用して予測することであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
前記状況3は、前記符号化対象ブロックがBDPCM方法で符号化されていないことであり、
前記状況4は、
前記予測モードが平面予測モードであること、
前記予測モードが直流成分予測モードであること、
前記予測モードが水平予測モードであること、
前記予測モードが垂直予測モードであること、
前記予測モードが、前記番号が第2数値以下である予測モードであること、
前記予測モードが前記番号が第3数値以上である予測モードであること、のうちのいずれか1つの条件を満足する。
本願の実施例は更なる情報処理装置を提供し、図15は本願の実施例に係る別の情報処理装置の構造模式図である。図15に示すように、前記情報処理装置150は、
入力されたビットストリームに対して、前記ビットストリームにおける予測モードに基づいて前記ビットストリームにおける復号化対象ブロックにおける画像成分を予測して、第4予測ブロックを取得するように設定され、前記予測モードが予め設定され且つPDPCアプリケーションモードに属する予測モジュール1501と、
前記予測モードに基づいて前記第4予測ブロックを修正して、第4修正ブロックを取得するように設定される修正モジュール1502と、
前記ビットストリームにおける残差ブロックにおける差分と前記第4修正ブロックにおける修正値との和を決定し、復元ブロックを取得するように設定される復元モジュール1503と、
前記復元ブロックを処理し、処理後のビデオデータを出力するように設定されるビデオ出力モジュール1504と、を備える。
他の実施例では、前記画像成分は色度値又は輝度値である。
上記装置実施例の説明は、上記方法実施例の説明に類似し、方法実施例に類似する有益な効果を有する。本願の装置実施例において説明されていない技術的詳細は、本願の方法実施例の説明を参照して理解されてもよい。
なお、本願の実施例では、ソフトウェア機能モジュールの形式で上記情報処理方法が実現され、且つ独立した製品として販売又は使用されるときは、1つのコンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づいて、本願の実施例の技術案の本質的又は従来技術に貢献する部分はソフトウェア製品の形式で具現されてもよい。該コンピュータソフトウェア製品は、電子機器(携帯電話、タブレットコンピュータ、電子リーダー、無人航空機、ウェアラブルデバイス(例えばスマートグラス等)、ロボット掃除機、パーソナルコンピュータ、カーナビゲーション、ビデオ電話、テレビ、サーバ等であってもよい)に本願の各実施例に記載の方法の全部又は一部を実行させるための若干の命令を含む1つの記憶媒体に記憶される。そして、上記記憶媒体はUSBメモリ、ポータブルハードディスク、読み出し専用メモリ(ROM、Read Only Memory)、磁気ディスク又は光ディスク等のプログラムコードを記憶できる様々な媒体を含む。このように、本願の実施例はいかなる特定のハードウェア及びソフトウェアの組み合わせに制限されるものではない。
それに対応して、本願の実施例は電子機器を提供し、図16は本願の実施例に係る電子機器のハードウェアエンティティの模式図である。図16に示すように、前記電子機器160はメモリ161及びプロセッサ162を備え、前記メモリ161にはプロセッサ162において実行され得るコンピュータプログラムが記憶され、前記プロセッサ162は前記プログラムを実行する際に上記実施例に係る情報処理方法におけるステップを実現する。
なお、メモリ161はプロセッサ162により実行され得る命令及びアプリケーションを記憶するように設定され、更にプロセッサ162及び電子機器160の各モジュールの処理対象又は処理後のデータ(例えば画像データ、音声データ、音声通信データ及びビデオ通信データ)をバッファすることができ、フラッシュメモリ(FLASH)又はランダムアクセスメモリ(RAM、Random Access Memory)により実現されることができる。
本願の実施例はコンピュータ可読記憶媒体を提供し、コンピュータプログラムが記憶され、該コンピュータプログラムはプロセッサにより実行される際に上記実施例に係る情報処理方法におけるステップを実現する。
なお、上記記憶媒体及び装置実施例の説明は、上記方法実施例の説明に類似し、方法実施例に類似する有益な効果を有する。本願の記憶媒体及び装置実施例において説明されていない技術的詳細は、本願の方法実施例の説明を参照して理解されてもよい。
理解されるように、明細書全体に言及した「1つの実施例」又は「一実施例」とは実施例に関わる特定の特徴、構造又は特性が本願の少なくとも1つの実施例に含まれることを意味する。従って、明細書全体の各箇所で出現する「1つの実施例では」又は「一実施例では」は必ずしも同じ実施例を指すとは限らない。また、これらの特定の特徴、構造又は特性はいかなる適切な方式で1つ又は複数の実施例に組み合わせられてもよい。理解されるように、本願の様々な実施例では、上記各過程の番号の順位は実行順序の前後を意味せず、各過程の実行順序はその機能及び内部論理によって決定されるべきであり、本願の実施例の実施過程を制限するためのものではない。上記本願の実施例の番号は説明のためのものに過ぎず、実施例の優劣を代表しない。
なお、本明細書では、用語「備える」、「含む」又はそれらの任意の他の変形は非排他的包含を含むように意図されており、これにより、一連の要素を含む過程、方法、品物又は装置はこれらの要素を含むだけではなく、更に明確に列挙しない他の要素を含み、又は更にこのような過程、方法、品物又は装置固有の要素を含む。より多く制限されていない場合、語句「〇〇を含む」により限定される要素は、該要素を含む過程、方法、品物又は装置には他の同じ要素が更に存在することを排除しない。
本願に係るいくつかの実施例では、理解されるように、開示される装置及び方法は他の方式で実現されてもよい。以上に説明される装置実施例は模式的なものに過ぎず、例えば、前記ユニットの区別は論理機能上の区別に過ぎず、実際に実現するとき、他の区別方式があってもよく、例えば複数のユニット又はコンポーネントは他のシステムに結合又は統合されてもよく、又はいくつかの特徴は省略してもよく、又は実行しなくてもよい。また、表示又は検討される各構成部分の相互間の結合、又は直接結合、又は通信接続はいくつかのインターフェース、装置又はユニットによる間接結合又は通信接続であってもよく、電気的、機械的又は他の形式であってもよい。
分離部材として説明される上記ユニットは物理的に分離してもよく、物理的に分離しなくてもよく、ユニットとして表示される部材は物理ユニットであってもよく、物理ユニットでなくてもよく、即ち、一箇所に位置してもよく、複数のネットワークユニットに配置されてもよい。実際の必要に応じて、その一部又は全部のユニットを選択して本実施例案の目的を実現してもよい。
また、本願の各実施例では、各機能ユニットは1つの処理ユニットに統合されてもよく、各ユニットはそれぞれ独立して1つのユニットとされてもよく、2つ以上のユニットは1つのユニットに統合されてもよい。上記統合されたユニットはハードウェアの形式で実現されてもよく、ハードウェアプラスソフトウェア機能ユニットの形式で実現されてもよい。
当業者であれば理解されるように、上記方法実施例を実現する全部又は一部のステップはプログラム命令に関連するハードウェアで行われてもよく、上記プログラムはコンピュータ可読記憶媒体に記憶されてもよく、該プログラムは実行時に上記方法実施例を含むステップを実行する。上記記憶媒体はモバイル記憶装置、読み出し専用メモリ(ROM、Read Only Memory)、磁気ディスク又は光ディスク等のプログラムコードを記憶できる様々な媒体を含む。
又は、本願の上記統合されたユニットはソフトウェア機能モジュールの形式で実現され、独立した製品として販売又は使用されるときは、1つのコンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づいて、本願の実施例の技術案の本質的又は従来技術に貢献する部分はソフトウェア製品の形式で具現されてもよく、該コンピュータソフトウェア製品は、1台の電子機器(携帯電話、タブレットコンピュータ、電子リーダー、無人航空機、ウェアラブルデバイス(例えばスマートグラス等)、ロボット掃除機、パーソナルコンピュータ、カーナビゲーション、ビデオ電話、テレビ、サーバ等であってもよい)に本願の各実施例に記載の方法の全部又は一部を実行させるための若干の命令を含む1つの記憶媒体に記憶される。そして、上記記憶媒体はモバイル記憶装置、ROM、磁気ディスク又は光ディスク等のプログラムコードを記憶できる様々な媒体を含む。
本願に係るいくつかの方法実施例に開示される方法は、衝突しない限り、任意に組み合わせて新しい方法実施例を得ることができる。
本願に係るいくつかの製品実施例に開示される特徴は、衝突しない限り、任意に組み合わせて新しい製品実施例を得ることができる。
本願に係るいくつかの方法又は設備実施例に開示される特徴は、衝突しない限り、任意に組み合わせて新しい方法実施例又は設備実施例を得ることができる。
以上の説明は本願の実施形態に過ぎず、本願の保護範囲を制限するためのものではない。当業者が本願に開示される技術的範囲内で容易に想到し得る変更や置換は、いずれも本願の保護範囲内に含まれるべきである。従って、本願の保護範囲は特許請求の範囲に準じるべきである。
本願の実施例では、入力されたソースビデオデータに対して、予め設定され且つPDPCアプリケーションモードに属する予測モードに基づいて、前記ソースビデオデータにおける符号化対象ブロックにおける画像成分を予測して、第1予測ブロックを取得した後、第1予測ブロックにおける各予測値を修正することなく、直接に第1予測ブロックにおける予測値と符号化対象ブロックにおける画像成分との差分を決定する。このように、ビデオの符号化・復号化性能を確保する上で、イントラ予測の処理複雑度を低減することができる。

Claims (8)

  1. デコーダに適用される情報処理方法であって、
    ストリームを復号化して予測モードを取得し、前記予測モードに基づいて復号化対象ブロックの画像成分を予測して第3予測ブロックを取得し、前記予測モードが予め設定されたものであり、かつ位置依存予測組合せ(PDPC)を使用して前記第3予測ブロックを修正することができるモードであり、前記画像成分が輝度成分又は色度成分であることと、
    状況1~4をすべて満足する場合、前記予測モードに基づいて前記復号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得し、
    前記状況1は、前記復号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記復号化対象ブロックが色度ブロックであることであり、
    前記状況2は、前記復号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記復号化対象ブロックが色度ブロックであることであり、第0参照行とは前記復号化対象ブロックに最も近い参照行を指し、
    前記状況3は、前記復号化対象ブロックがブロックベースのデルタパルスコード変調(BDPCM)方法で符号化されていないことであり、
    前記状況4は、
    前記予測モードが、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値である予測モードであり、前記第1数値が2であること、
    前記予測モードが前記番号が第4数値である予測モードであり、前記第4数値が66であること、
    前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記復号化対象ブロックが色度ブロックではないこと、
    前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記復号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足することであることと、
    前記予測モードに基づいて前記第3予測ブロックを修正して第3修正ブロックを取得することと、
    ストリームを復号化して残差ブロックと前記第3修正ブロックとの和を取得し、復元ブロックを取得することと、を含む情報処理方法。
  2. エンコーダに適用される情報処理方法であって、
    予測モードに基づいて符号化対象ブロックの画像成分を予測して第3予測ブロックを取得し、前記予測モードが予め設定されたものであり、かつ位置依存予測組合せ(PDPC)を使用して前記第3予測ブロックを修正することができるモードであり、前記画像成分が輝度成分又は色度成分であることと、
    状況1~4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得し、
    前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記符号化対象ブロックが色度ブロックであることであり、
    前記状況2は、前記符号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記符号化対象ブロックが色度ブロックであることであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
    前記状況3は、前記符号化対象ブロックがブロックベースのデルタパルスコード変調(BDPCM)方法で符号化されていないことであり、
    前記状況4は、
    前記予測モードが、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値である予測モードであり、前記第1数値が2であること、
    前記予測モードが前記番号が第4数値である予測モードであり、前記第4数値が66であること、
    前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、
    前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足することであることと、
    前記予測モードに基づいて前記第3予測ブロックを修正して第3修正ブロックを取得することと、
    前記符号化対象ブロックと前記第3修正ブロックとの差分を決定し、残差ブロックを取得することと、
    前記残差ブロック及び前記予測モードをストリームに書き込むことと、を含む情報処理方法。
  3. ビデオ復号化装置であって、予測モジュールと修正モジュールと復元モジュールとを備え、
    前記予測モジュールはストリームを復号化して予測モードを取得し、前記予測モードに基づいて復号化対象ブロックの画像成分を予測して第3予測ブロックを取得するように構成され、前記予測モードは予め設定されたものであり、かつ位置依存予測組合せ(PDPC)を使用して前記第3予測ブロックを修正することができるモードであり、前記画像成分は輝度成分又は色度成分であり、
    状況1~4をすべて満足する場合、前記予測モードに基づいて前記復号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得し、
    前記状況1は、前記復号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記復号化対象ブロックが色度ブロックであることであり、
    前記状況2は、前記復号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記復号化対象ブロックが色度ブロックであることであり、第0参照行とは前記復号化対象ブロックに最も近い参照行を指し、
    前記状況3は、前記復号化対象ブロックがブロックベースのデルタパルスコード変調(BDPCM)方法で符号化されていないことであり、
    前記状況4は、
    前記予測モードが、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値である予測モードであり、前記第1数値が2であること、
    前記予測モードが前記番号が第4数値である予測モードであり、前記第4数値が66であること、
    前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記復号化対象ブロックが色度ブロックではないこと、
    前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記復号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足することであり、
    前記修正モジュールは、前記予測モードに基づいて前記第3予測ブロックを修正して第3修正ブロックを取得するように構成され、
    前記復元モジュールは、ストリームを復号化して残差ブロックと前記第3修正ブロックとの和を取得し、復元ブロックを取得するように構成されるビデオ復号化装置。
  4. ビデオ符号化装置であって、予測モジュールと修正モジュールと残差決定モジュールと書き込みモジュールと備え、
    前記予測モジュールはストリームを復号化して予測モードを取得し、前記予測モードに基づいて符号化対象ブロックの画像成分を予測して第3予測ブロックを取得するように構成され、前記予測モードは予め設定されたものであり、かつ位置依存予測組合せ(PDPC)を使用して前記第3予測ブロックを修正することができるモードであり、前記画像成分は輝度成分又は色度成分であり、
    状況1~4をすべて満足する場合、前記予測モードに基づいて前記符号化対象ブロックにおける画像成分を予測して、第3予測ブロックを取得し、
    前記状況1は、前記符号化対象ブロックが輝度ブロックであり且つイントラサブ分割を使用せず、又は、前記符号化対象ブロックが色度ブロックであることであり、
    前記状況2は、前記符号化対象ブロックが輝度ブロックである場合に第0参照行を使用して予測し、又は、前記符号化対象ブロックが色度ブロックであることであり、第0参照行とは前記符号化対象ブロックに最も近い参照行を指し、
    前記状況3は、前記符号化対象ブロックがブロックベースのデルタパルスコード変調(BDPCM)方法で符号化されていないことであり、
    前記状況4は、
    前記予測モードが、予め設定されたN種類の成分内の空間予測モードにおける番号が第1数値である予測モードであり、前記第1数値が2であること、
    前記予測モードが前記番号が第4数値である予測モードであり、前記第4数値が66であること、
    前記予測モードが、前記番号が第2数値以下である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、
    前記予測モードが、前記番号が第3数値以上である予測モードであり、且つ前記符号化対象ブロックが色度ブロックではないこと、のうちのいずれか1つの条件を満足することであり、
    前記修正モジュールは、前記予測モードに基づいて前記第3予測ブロックを修正して第3修正ブロックを取得するように構成され、
    前記残差決定モジュールは、前記符号化対象ブロックと前記第3修正ブロックとの差分を決定し、残差ブロックを取得するように構成され、
    前記書き込みモジュールは、前記残差ブロック及び前記予測モードをストリームに書き込むように構成されるビデオ符号化装置。
  5. 電子機器であって、メモリ及びプロセッサを備え、
    前記メモリにはプロセッサにおいて実行され得るコンピュータプログラムが記憶され、前記プロセッサは前記プログラムを実行する際に、請求項1に記載の情報処理方法におけるステップを実現する電子機器。
  6. コンピュータ可読記憶媒体であって、
    コンピュータプログラム、及びビットストリームが記憶され、該コンピュータプログラムがプロセッサに、請求項1に記載の情報処理方法におけるステップを実行させて前記ビットストリームを復号化させる、コンピュータ可読記憶媒体。
  7. 電子機器であって、メモリ及びプロセッサを備え、
    前記メモリにはプロセッサにおいて実行され得るコンピュータプログラムが記憶され、前記プロセッサは前記プログラムを実行する際に、請求項2に記載の情報処理方法におけるステップを実現する電子機器。
  8. コンピュータ可読記憶媒体であって、
    コンピュータプログラム、及びビットストリームが記憶され、該コンピュータプログラムがプロセッサに、請求項2に記載の情報処理方法におけるステップを実行させて前記ビットストリームを生成させるコンピュータ可読記憶媒体。
JP2024056990A 2019-06-25 2024-03-29 情報処理方法及び装置、設備、記憶媒体 Active JP7828382B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024056990A JP7828382B2 (ja) 2019-06-25 2024-03-29 情報処理方法及び装置、設備、記憶媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021574894A JP2022540982A (ja) 2019-06-25 2019-06-25 情報処理方法及び装置、設備、記憶媒体
PCT/CN2019/092723 WO2020258020A1 (zh) 2019-06-25 2019-06-25 信息处理方法及装置、设备、存储介质
JP2024056990A JP7828382B2 (ja) 2019-06-25 2024-03-29 情報処理方法及び装置、設備、記憶媒体

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021574894A Division JP2022540982A (ja) 2019-06-25 2019-06-25 情報処理方法及び装置、設備、記憶媒体

Publications (2)

Publication Number Publication Date
JP2024081752A JP2024081752A (ja) 2024-06-18
JP7828382B2 true JP7828382B2 (ja) 2026-03-11

Family

ID=74061454

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021574894A Pending JP2022540982A (ja) 2019-06-25 2019-06-25 情報処理方法及び装置、設備、記憶媒体
JP2024056990A Active JP7828382B2 (ja) 2019-06-25 2024-03-29 情報処理方法及び装置、設備、記憶媒体

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021574894A Pending JP2022540982A (ja) 2019-06-25 2019-06-25 情報処理方法及び装置、設備、記憶媒体

Country Status (8)

Country Link
US (7) US11778202B2 (ja)
EP (1) EP3972258B1 (ja)
JP (2) JP2022540982A (ja)
KR (3) KR20260046521A (ja)
CN (7) CN120769063A (ja)
ES (1) ES2981587T3 (ja)
PL (1) PL3972258T3 (ja)
WO (1) WO2020258020A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2022007832A (es) * 2019-12-26 2022-08-04 Lg Electronics Inc Metodo y aparato de codificacion/decodificacion de video para realizar pdpc y metodo para transmitir flujo de bits.

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018119167A1 (en) 2016-12-21 2018-06-28 Arris Enterprises Llc Constrained position dependent intra prediction combination (pdpc)
WO2018231488A1 (en) 2017-06-15 2018-12-20 Qualcomm Incorporated Intra filtering applied together with transform processing in video coding

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1995973A4 (en) 2006-03-10 2011-10-26 Nec Corp INTERNAL PREDICTION MODE SELECTION METHOD, ANIMATED IMAGE ENCODING METHOD, AND DEVICE AND PROGRAM USING SAME
CN104247422B (zh) * 2011-11-07 2018-09-11 华为技术有限公司 用于改进帧内预测的新的角度表的方法和装置
US10397607B2 (en) * 2013-11-01 2019-08-27 Qualcomm Incorporated Color residual prediction for video coding
EP3955506B1 (en) * 2014-10-31 2023-05-10 LG Electronics Inc. Multiuser transreceiving method in wireless communication system and device for same
CN107079165B (zh) * 2014-11-05 2020-06-19 联发科技(新加坡)私人有限公司 使用预测残差的视频编码方法及装置
CN106412579B (zh) * 2015-07-30 2019-07-16 浙江大华技术股份有限公司 一种图像的编码、解码方法和装置
WO2017082636A1 (ko) * 2015-11-11 2017-05-18 삼성전자 주식회사 영상을 부호화/복호화 하는 방법 및 그 장치
US10623774B2 (en) * 2016-03-22 2020-04-14 Qualcomm Incorporated Constrained block-level optimization and signaling for video coding tools
CN114339227B (zh) * 2016-05-04 2024-04-12 夏普株式会社 用于对变换数据进行编码的系统和方法
US9948930B2 (en) * 2016-05-17 2018-04-17 Arris Enterprises Llc Template matching for JVET intra prediction
WO2018049594A1 (en) * 2016-09-14 2018-03-22 Mediatek Inc. Methods of encoder decision for quad-tree plus binary tree structure
US10506228B2 (en) * 2016-10-04 2019-12-10 Qualcomm Incorporated Variable number of intra modes for video coding
KR102541882B1 (ko) * 2016-12-27 2023-06-13 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법
EP3534607A4 (en) * 2016-12-27 2019-11-20 Samsung Electronics Co., Ltd. CODING METHOD AND DEVICE THEREFOR, AND DECODING METHOD AND DEVICE THEREFOR
US10694181B2 (en) * 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
AU2018230328B2 (en) * 2017-03-10 2021-05-06 Hfi Innovation Inc. Method and apparatus of implicit intra coding tool settings with intra directional prediction modes for video coding
US11146795B2 (en) * 2017-03-10 2021-10-12 Qualcomm Incorporated Intra filtering flag in video coding
CN107071417B (zh) * 2017-04-10 2019-07-02 电子科技大学 一种用于视频编码的帧内预测方法
EP3399754A1 (en) * 2017-05-04 2018-11-07 Thomson Licensing Method and apparatus for most probable mode (mpm) reordering for intra prediction
US10638126B2 (en) * 2017-05-05 2020-04-28 Qualcomm Incorporated Intra reference filter for video coding
WO2018236133A1 (ko) * 2017-06-19 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
EP3646600B1 (en) * 2017-06-26 2025-11-19 InterDigital Madison Patent Holdings, SAS Method and apparatus for intra prediction with multiple weighted references
EP3422716A1 (en) * 2017-06-26 2019-01-02 Thomson Licensing Method and apparatus for most probable mode (mpm) sorting and signaling in video encoding and decoding
WO2019017694A1 (ko) * 2017-07-18 2019-01-24 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
EP4415366B1 (en) * 2017-08-03 2026-03-04 Sharp Kabushiki Kaisha Systems and methods for partitioning video blocks in an inter prediction slice of video data
EP4283991A3 (en) * 2017-09-28 2024-02-28 Samsung Electronics Co., Ltd. Encoding method and device, and decoding method and device
MX2020003656A (es) * 2017-10-02 2020-10-12 Arris Entpr Llc Sistema y método para reducir artefactos de bloque y proporcionar eficiencia de codificación mejorada.
US10965941B2 (en) * 2017-10-09 2021-03-30 Qualcomm Incorporated Position-dependent prediction combinations in video coding
CN119729023A (zh) * 2017-10-24 2025-03-28 三星电子株式会社 视频信号处理方法和装置
US11172201B2 (en) * 2017-12-18 2021-11-09 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
WO2019137730A1 (en) * 2018-01-11 2019-07-18 Telefonaktiebolaget Lm Ericsson (Publ) Multiple boundary filtering
KR102897999B1 (ko) * 2018-01-25 2025-12-16 삼성전자주식회사 비디오 신호 처리 방법 및 장치
WO2019177331A1 (ko) * 2018-03-12 2019-09-19 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
EP4443878A3 (en) * 2018-04-01 2024-12-18 B1 Institute of Image Technology, Inc. Method and apparatus for encoding/decoding image
US11611757B2 (en) * 2018-04-02 2023-03-21 Qualcomm Incorproated Position dependent intra prediction combination extended with angular modes
US11128871B2 (en) * 2018-04-25 2021-09-21 Panasonic Intellectual Property Corporation Of America Encoder for adaptively determining information related to splitting based on characteristics of neighboring samples
US10904576B2 (en) * 2018-04-27 2021-01-26 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method for generating a prediction image using a plurality of pixels generated outside of a boundary of a reference picture on which smoothing has been performed
CN118694941A (zh) * 2018-05-31 2024-09-24 夏普株式会社 视频数据解码设备、视频数据编码设备以及方法
US11159806B2 (en) * 2018-06-28 2021-10-26 Qualcomm Incorporated Position dependent intra prediction combination with multiple reference lines for intra prediction
US10284866B1 (en) * 2018-07-02 2019-05-07 Tencent America LLC Method and apparatus for video coding
US10701358B2 (en) * 2018-07-09 2020-06-30 Tencent America LLC Mode dependent primary and secondary transforms
US10911765B2 (en) * 2018-08-01 2021-02-02 Tencent America LLC Method and apparatus for video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018119167A1 (en) 2016-12-21 2018-06-28 Arris Enterprises Llc Constrained position dependent intra prediction combination (pdpc)
WO2018231488A1 (en) 2017-06-15 2018-12-20 Qualcomm Incorporated Intra filtering applied together with transform processing in video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Benjamin Bross, et al.,Versatile Video Coding (Draft 5),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,[JVET-N1001-v8] (version 8),2019年06月11日,p.143-144

Also Published As

Publication number Publication date
EP3972258A4 (en) 2022-06-15
CN120769064A (zh) 2025-10-10
KR102952869B1 (ko) 2026-04-14
KR20260047636A (ko) 2026-04-08
US20220109854A1 (en) 2022-04-07
KR20260046521A (ko) 2026-04-07
KR20220027084A (ko) 2022-03-07
US20250310542A1 (en) 2025-10-02
CN120881296A (zh) 2025-10-31
US20250310541A1 (en) 2025-10-02
US20230388519A1 (en) 2023-11-30
ES2981587T3 (es) 2024-10-09
CN113826403A (zh) 2021-12-21
US20260101048A1 (en) 2026-04-09
CN114363635A (zh) 2022-04-15
CN121462774A (zh) 2026-02-03
US20250310543A1 (en) 2025-10-02
JP2022540982A (ja) 2022-09-21
JP2024081752A (ja) 2024-06-18
PL3972258T3 (pl) 2024-07-15
CN114363635B (zh) 2024-05-31
US12542910B2 (en) 2026-02-03
US11778202B2 (en) 2023-10-03
EP3972258A1 (en) 2022-03-23
US20260089335A1 (en) 2026-03-26
EP3972258B1 (en) 2024-05-29
WO2020258020A1 (zh) 2020-12-30
CN121603682A (zh) 2026-03-03
CN120769063A (zh) 2025-10-10

Similar Documents

Publication Publication Date Title
AU2018315106B2 (en) Video image encoding and decoding method, apparatus, and device
JP7434588B2 (ja) ビデオ・フィルタリングのための方法および装置
TW202504312A (zh) 用於處理視訊內容的方法及系統
CN104333760B (zh) 三维图像编码方法和三维图像解码方法及相关装置
KR20110123651A (ko) 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
KR102438246B1 (ko) 디블로킹 필터 방법 및 장치
JP7802870B2 (ja) ビデオ画像成分予測方法および装置、コンピュータ記憶媒体
JP7437426B2 (ja) インター予測方法および装置、機器、記憶媒体
JP7828382B2 (ja) 情報処理方法及び装置、設備、記憶媒体
JP2025027100A (ja) 予測方向の決定方法、デコーダ及びコンピュータ記憶媒体
JP2022523461A (ja) 情報処理方法および装置、機器、記憶媒体
KR20260053386A (ko) 정보 처리 방법 및 장치, 설비, 저장 매체
HK40083589B (zh) 视频解码方法、视频解码设备以及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20260130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20260227

R150 Certificate of patent or registration of utility model

Ref document number: 7828382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150