JP2024069447A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2024069447A
JP2024069447A JP2024039571A JP2024039571A JP2024069447A JP 2024069447 A JP2024069447 A JP 2024069447A JP 2024039571 A JP2024039571 A JP 2024039571A JP 2024039571 A JP2024039571 A JP 2024039571A JP 2024069447 A JP2024069447 A JP 2024069447A
Authority
JP
Japan
Prior art keywords
image
unit
prediction
pixel
intra prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024039571A
Other languages
English (en)
Inventor
健治 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2024069447A publication Critical patent/JP2024069447A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】予測精度を高めることができるようにする。【解決手段】行列演算を用いたイントラ予測を行う際に、符号化/復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、カレント予測ブロックの予測画像が生成される。そして、予測画像を用いて、前記カレント予測ブロックの符号化/復号が行われる。本技術は、例えば、画像の符号化及び復号を行う場合に適用することができる。【選択図】図9

Description

本技術は、画像処理装置及び画像処理方法に関し、特に、例えば、予測精度を高めることができるようにする画像処理装置及び画像処理方法に関する。
ITU-TとISO/IECとの共同の標準化団体であるJVET(Joint Video Experts Team)では、H.265/HEVCよりも符号化効率をさらに向上することを目的として、次世代の画像符号化方式であるVVC(Versatile Video Coding)の標準化作業が進められている。
VVCの標準化作業では、非特許文献1において、参照画像の画素(の画素値)を平均化(Averaging)すること、平均化により得られる平均化画素を用いた行列演算(Matrix積)を行うこと、及び、行列演算の結果を用いるとともに、平均化画素を、予測ブロックの予測画像の上に隣接する上隣接画素として用いて補間処理を行うことにより、予測画像を生成することが提案されている。
JVET-N0217-v3: CE3: Affine linear weighted intra prediction (CE3-4.1, CE3-4.2) (version 7 - date 2019-01-17)
非特許文献1に記載の予測画像の生成では、常時、平均化画素を上隣接画素として用いて補間処理が行われる。このため、予測画像の予測精度を高めることができないことがある。
本技術は、このような状況に鑑みてなされたものであり、予測画像の予測精度を高めることができるようにするものである。
本技術の第1の画像処理装置は、行列演算を用いたイントラ予測を行う際に、符号化の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測部と、前記イントラ予測部により生成された前記予測画像を用いて、前記カレント予測ブロックを符号化する符号化部とを備える画像処理装置である。
本技術の第1の画像処理方法は、行列演算を用いたイントラ予測を行う際に、符号化の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測工程と、前記イントラ予測工程において生成された前記予測画像を用いて、前記カレント予測ブロックを符号化する符号化工程とを含む画像処理方法である。
本技術の第1の画像処理装置及び画像処理方法においては、行列演算を用いたイントラ予測を行う際に、符号化の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像が生成される。そして、前記予測画像を用いて、前記カレント予測ブロックが符号化される。
本技術の第2の画像処理装置は、行列演算を用いたイントラ予測を行う際に、復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測部と、前記イントラ予測部により生成された前記予測画像を用いて、前記カレント予測ブロックを復号する復号部とを備える画像処理装置である。
本技術の第2の画像処理方法は、行列演算を用いたイントラ予測を行う際に、復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測工程と、前記イントラ予測工程において生成された前記予測画像を用いて、前記カレント予測ブロックを復号する復号工程とを含む画像処理方法である。
本技術の第2の画像処理装置及び画像処理方法においては、行列演算を用いたイントラ予測を行う際に、復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像が生成される。そして、前記予測画像を用いて、前記カレント予測ブロックが復号される。
なお、画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。プログラムは、記録媒体に記録して、又は、伝送媒体を介して伝送することにより、提供することができる。
JVET-N0217で提案されているMIP(Matrix-based Intra Prediction)の予測画像の生成方法を説明する図である。 本技術を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。 エンコーダ11の構成例を示すブロック図である。 エンコーダ11の符号化処理の例を説明するフローチャートである。 デコーダ51の構成例を示すブロック図である。 デコーダ51の復号処理の例を説明するフローチャートである。 イントラ予測部34の構成例を示すブロック図である。 予測画像生成部110が行うMIPの予測画像の生成の処理の例を説明するフローチャートである。 予測画像生成部110のMIPの予測画像の生成方法を説明する図である。 イントラ予測部34の他の構成例を示すブロック図である。 予測画像生成部120のMIPの予測画像の生成方法を説明する図である。 予測モードkに応じて上隣接画素及び左隣接画素として選択される画素の例を示す図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
<参照文献>
本明細書で開示される範囲は、実施の形態の内容に限定されるものではなく、出願当時において公知となっている以下の参照文献REF1-REF6の内容も、参照により本明細書に組み込まれる。つまり、以下の参照文献REF1-REF6に記載されている内容もサポート要件について判断する際の根拠となる。例えば、Quad-Tree Block Structure、QTBT(Quad Tree Plus Binary Tree) Block Structure、MTT(Multi-type Tree) Block Structureが発明の詳細な説明において直接的に定義されていない場合でも、本開示の範囲内であり、特許請求の範囲のサポート要件を満たすものとする。また、例えば、パース(Parsing)、シンタクス(Syntax)、セマンティクス(Semantics)等の技術用語についても同様に、発明の詳細な説明において直接的に定義されていない場合でも、本開示の範囲内であり、特許請求の範囲のサポート要件を満たすものとする。
REF1: Recommendation ITU-T H.264 (04/2017) “Advanced video coding for generic audiovisual services”, April 2017
REF2: Recommendation ITU-T H.265 (02/2018) “High efficiency video coding”, February 2018
REF3: Benjamin Bross, Jianle Chen, Shan Liu, Versatile Video Coding (Draft 5), JVET-N1001-v7 (version 7 - date 2019-05-29)
REF4: Jianle Chen, Yan Ye, Seung Hwan Kim, Algorithm description for Versatile Video Coding and Test Model 5 (VTM 5), JVET- N1002-v1
REF5: JVET-N0217-v3: CE3: Affine linear weighted intra prediction (CE3-4.1, CE3-4.2) (version 7 - date 2019-01-17)
REF6: JVET-M0043-v2: CE3: Affine linear weighted intra prediction (test 1.2.1, test 1.2.2) (version 2 - date 2019-01-09)
<定義>
隣接するとは、注目するカレント画素に対して1画素分(1ライン分)隣接する場合だけでなく、複数画素分(複数ライン分)隣接する場合を含む。したがって、隣接する画素とは、カレント画素に直接隣接する1画素分の位置の画素の他、カレント画素に連続的に隣接する複数画素分の位置の画素を含む。
ダウンサンプルとは、画素数を少なくすることを意味する。したがって、ダウンサンプルには、平均やメディアン等の演算を用いて画素数を少なくすることや、演算なしで画素数を少なくすることが含まれる。
予測ブロックとは、イントラ予測を行う際の処理単位となるブロック(PU(Prediction Unit))を意味し、予測ブロック内のサブブロックも含む。予測ブロック、直交変換を行う際の処理単位となる直交変換ブロック(TU(Transform Unit))、符号化を行う際の処理単位となる符号化ブロック(CU(Coding Unit))が、同一のブロックに統一化されている場合、予測ブロック、直交変換ブロック、及び、符号化ブロックは、同一のブロックを意味する。
イントラ予測の予測モードとは、イントラ予測を行う際のモード番号、予測ブロックのブロックサイズ、行列演算を用いたイントラ予測(MIP(Matrix-based Intra Prediction))のモード番号、行列演算を行う際に用いる行列の種類、行列演算を行う際に用いる行列のサイズの種類等の、イントラ予測に関連する様々な事項を包括的に含む情報を意味する。
本技術では、複数のパターンを識別する識別データを、画像を符号化して得られるビットストリームのシンタクスとして設定することができる。ビットストリームには、様々なパターンを識別する識別データを含めることができる。
識別データとしては、例えば、イントラ予測の予測画像の生成において、予測ブロックに隣接する隣接画素として、参照画像のオリジナルの画素(の画素値)を用いるか、又は、ダウンサンプルされた画素(の画素値)を用いるかを識別するデータを採用することができる。また、識別データとしては、例えば、予測ブロックの予測画像の上に隣接する上隣接画素及び左に隣接する左隣接画素それぞれとして、参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを識別するデータを採用することができる。
ビットストリームに識別データを含める場合、そのビットストリームを復号するデコーダでは、識別データをパースして参照することにより、より効率的に処理を行うことが可能となる。
<JVET-N0217で提案されている予測画像の生成方法>
図1は、JVET-N0217(参照文献REF5)で提案されているMIP(Matrix-based Intra Prediction)の予測画像の生成方法を説明する図である。
JVET-N0217では、MIPにおいて、参照画像(となった復号画像)の画素(の画素値)を平均化(Averaging)すること、平均化により得られる平均化画素を用いた行列演算(Matrix-Vector- Multiplication)を行うこと、及び、行列演算の結果と平均化画素とを用いて補間処理(interpolation)を行うことにより、予測画像を生成することが提案されている。
ここで、符号化/復号の対象の予測ブロックであるカレント予測ブロックの上に隣接する参照画像のオリジナルの画素を、上オリジナル画素ともいう。また、カレント予測ブロックの左に隣接する参照画像のオリジナルの画素を、左オリジナル画素ともいう。
さらに、ブロックの横方向のサイズ(横サイズ)を、Wで表すとともに、縦方向のサイズ(縦サイズ)を、Hで表すこととする。
図1では、カレント予測ブロックとして、W×H=8×8画素のブロックが採用されている。
平均化では、カレント予測ブロックについて、参照画像の上オリジナル画素(の画素値)bdrytopが平均化され、ダウンサンプルされた画素としての複数の平均化画素(の画素値)bdryredが生成される。
さらに、平均化では、カレント予測ブロックについて、参照画像の左オリジナル画素bdryleftが平均化され、ダウンサンプルされた画素としての複数の平均化画素bdryredが生成される。
カレント予測ブロックが、W×H=8×8画素のブロックである場合、上オリジナル画素bdrytopの平均化、及び、左オリジナル画素bdryleftの平均化では、参照画像の隣接する2個のオリジナルの画素の平均をとることにより、4個ずつの平均化画素bdryredが生成される。
行列演算では、イントラ予測の予測モードkに応じて、行列演算に用いる行列Ak及びオフセットbkが設定される。そして、行列演算では、行列Akと、平均化で得られた平均化画素bdryredを要素とするベクトルbdryredとの乗算が行われる。さらに、行列演算では、乗算の結果に、オフセットbkが加算される。これにより、カレント予測ブロックの予測画像の一部の画素predredが生成される。
補間処理では、カレント予測ブロックの予測画像の上に隣接する上隣接画素、カレント予測ブロックの予測画像の左に隣接する左隣接画素、及び、行列演算で生成されたカレント予測ブロックの予測画像の一部の画素predredを用いて補間が行われ、予測画像の残りの画素が生成される。
予測画像の上隣接画素としては、参照画像の平均化画素bdryredのうちの、上オリジナル画素bdrytopを用いて生成された平均化画素bdrytop redが用いられる。
予測画像の左隣接画素としては、参照画像の左オリジナル画素bdryleftが用いられる。
ここで、左からx番目で、上からy番目の画素の位置を、(x-1,y-1)と表し、位置(x-1,y-1)の画素を、画素(x-1,y-1)とも記載する。
カレント予測ブロックが、W×H=8×8画素のブロックである場合、行列演算で生成される予測画像の一部の画素predredは、カレント予測ブロックの予測画像の画素のうちの、x-1及びy-1が奇数の位置の画素(x-1,y-1)(図中、斜線を付して示す)である。
補間処理では、カレント予測ブロックの予測画像の上に隣接するx-1が奇数の位置の4個の上隣接画素として、4個の平均化画素bdrytop redが配置される。さらに、カレント予測ブロックの予測画像の左に隣接する8個の左隣接画素として、8個の左オリジナル画素bdryleftが配置される。
そして、上隣接画素としての平均化画素bdrytop red、及び、行列演算で生成された画素predredである、x-1及びy-1が奇数の位置の画素(x-1,y-1)を用いた縦(垂直)方向の補間により、予測画像の、x-1が奇数で、y-1が偶数の位置の画素が生成される。
さらに、左隣接画素としての左オリジナル画素bdryleft、行列演算で生成された画素predred、及び、縦方向の補間により生成された画素を用いた横(水平方向)の補間により、予測画像の残りの画素が生成される。
そして、補間処理により生成された画素と、行列演算により生成された画素とを合わせることで、カレント予測ブロックの予測画像(pred)が生成される。
JVET-N0217では、補間処理において、カレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像の上オリジナル画素bdrytopを用いて生成された平均化画素bdrytop redが用いられる。
すなわち、補間処理が、参照画像の実際の画素(オリジナルの画素)そのものではない画素を用いて行われる。
このため、行列演算後、補間処理を行う際に用いられる平均化画素bdrytop redを保持しておく必要があり、その保持のための記憶領域(メモリ)が必要となる。
さらに、補間処理が、常に、平均化画素bdrytop redを、上隣接画素として用いて行われるため、予測ブロックの画素と、平均化画素bdrytop redを用いて生成される予測画像の画素との相関が低下し、イントラ予測の予測精度、すなわち、予測画像の予測精度を高めることができないこと、又は、予測精度が低下するおそれがある。
そこで、本技術では、補間処理において、上隣接画素として、参照画像の上オリジナル画素bdrytopを用いることにより、予測画像の予測精度を高める。
<本技術を適用した画像処理システム>
図2は、本技術を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。
画像処理システム10は、エンコーダ11としての画像処理装置、及び、デコーダ51としての画像処理装置を有する。
エンコーダ11は、そこに供給される符号化対象の元画像を符号化し、その符号化により得られる符号化ビットストリームを出力する。符号化ビットストリームは、図示せぬ記録媒体又は伝送媒体を介して、デコーダ51に供給される。
デコーダ51は、そこに供給される符号化ビットストリームを復号し、その復号により得られる復号画像を出力する。
<エンコーダ11の構成例>
図3は、図2のエンコーダ11の構成例を示すブロック図である。
なお、以下説明するブロック図については、図が煩雑になるのを避けるため、各ブロックの処理で必要となる情報(データ)を供給する線の記載を、適宜省略する。
図3において、エンコーダ11は、A/D変換部21、並べ替えバッファ22、演算部23、直交変換部24、量子化部25、可逆符号化部26、及び、蓄積バッファ27を有する。さらに、エンコーダ11は、逆量子化部28、逆直交変換部29、演算部30、フレームメモリ32、選択部33、イントラ予測部34、動き予測補償部35、予測画像選択部36、及び、レート制御部37を有する。また、エンコーダ11は、デブロックフィルタ31a、適応オフセットフィルタ41、及び、ALF(adaptive loop filter)42を有する。
A/D変換部21は、アナログ信号の元画像(符号化対象)を、ディジタル信号の元画像にA/D変換し、並べ替えバッファ22に供給して記憶させる。なお、エンコーダ11にディジタル信号の元画像が供給される場合には、エンコーダ11は、A/D変換部21を設けずに構成することができる。
並べ替えバッファ22は、元画像のフレームを、GOP(Group Of Picture)に応じて、表示順から符号化(復号)順に並べ替え、演算部23、イントラ予測部34、及び、動き予測補償部35に供給する。
演算部23は、並べ替えバッファ22からの元画像から、予測画像選択部36を介してイントラ予測部34又は動き予測補償部35から供給される予測画像を減算し、その減算により得られる残差(予測残差)を、直交変換部24に供給する。
直交変換部24は、演算部23から供給される残差に対して、離散コサイン変換やカルーネン・レーベ変換等の直交変換を施し、その直交変換により得られる直交変換係数を量子化部25に供給する。
量子化部25は、直交変換部24から供給される直交変換係数を量子化する。量子化部25は、レート制御部37から供給される符号量の目標値(符号量目標値)に基づいて量子化パラメータを設定し、直交変換係数の量子化を行う。量子化部25は、量子化された直交変換係数である符号化データを、可逆符号化部26に供給する。
可逆符号化部26は、量子化部25からの符号化データとしての量子化された直交変換係数を所定の可逆符号化方式で符号化する。
また、可逆符号化部26は、エンコーダ11での予測符号化に関する符号化情報のうちの、復号装置170での復号に必要な符号化情報を、各ブロックから取得する。
ここで、符号化情報としては、例えば、イントラ予測やインター予測の予測モード、動きベクトル等の動き情報、符号量目標値、量子化パラメータ、ピクチャタイプ(I,P,B)、デブロックフィルタ31a及び適応オフセットフィルタ41のフィルタパラメータ等がある。
予測モードは、イントラ予測部34や動き予測補償部35から取得することができる。動き情報は、動き予測補償部35から取得することができる。デブロックフィルタ31a及び適応オフセットフィルタ41のフィルタパラメータは、デブロックフィルタ31a及び適応オフセットフィルタ41からそれぞれ取得することができる。
可逆符号化部26は、符号化情報を、例えば、CAVLC(Context-Adaptive Variable Length Coding)やCABAC(Context-Adaptive Binary Arithmetic Coding)等の可変長符号化又は算術符号化その他の可逆符号化方式で符号化し、符号化後の符号化情報、及び、量子化部25からの符号化データを含む(多重化した)符号化ビットストリームを生成して、蓄積バッファ27に供給する。
ここで、以上の演算部23ないし可逆符号化部26が、画像を符号化する符号化部として機能する。
蓄積バッファ27は、可逆符号化部26から供給される符号化ビットストリームを、一時的に蓄積する。蓄積バッファ27に蓄積された符号化ビットストリームは、所定のタイミングで読み出されて伝送される。
量子化部25において量子化された直交変換係数である符号化データは、可逆符号化部26に供給される他、逆量子化部28にも供給される。逆量子化部28は、量子化された直交変換係数を、量子化部25による量子化に対応する方法で逆量子化し、その逆量子化により得られる直交変換係数を、逆直交変換部29に供給する。
逆直交変換部29は、逆量子化部28から供給される直交変換係数を、直交変換部24による直交変換処理に対応する方法で逆直交変換し、その逆直交変換の結果得られる残差を、演算部30に供給する。
演算部30は、逆直交変換部29から供給される残差に、予測画像選択部36を介してイントラ予測部34又は動き予測補償部35から供給される予測画像を加算し、これにより、元画像を復号した復号画像(の一部)を得て出力する。
演算部30が出力する復号画像は、デブロックフィルタ31a又はフレームメモリ32に供給される。
フレームメモリ32は、演算部30から供給される復号画像、及び、ALF42から供給される、デブロックフィルタ31a、適応オフセットフィルタ41、及び、ALF42が適用された復号画像(フィルタ画像)を一時記憶する。フレームメモリ32に記憶された復号画像は、必要なタイミングで、予測画像の生成に用いられる参照画像として、選択部33に供給される。
選択部33は、フレームメモリ32から供給される参照画像の供給先を選択する。イントラ予測部34においてイントラ予測が行われる場合、選択部33は、フレームメモリ32から供給される参照画像を、イントラ予測部34に供給する。動き予測補償部35においてインター予測が行われる場合、選択部33は、フレームメモリ32から供給される参照画像を、動き予測補償部35に供給する。
イントラ予測部34は、並べ替えバッファ22から供給される元画像と、選択部33を介してフレームメモリ32から供給される参照画像とを用い、イントラ予測(画面内予測)を行う。イントラ予測部34は、所定のコスト関数に基づいて、最適なイントラ予測の予測モードを選択し、その最適なイントラ予測の予測モードで参照画像から生成された予測画像を、予測画像選択部36に供給する。また、イントラ予測部34は、コスト関数に基づいて選択されたイントラ予測の予測モードを、可逆符号化部26等に適宜供給する。
動き予測補償部35は、並べ替えバッファ22から供給される元画像と、選択部33を介してフレームメモリ32から供給される参照画像とを用い、動き予測を行う。さらに、動き予測補償部35は、動き予測により検出される動きベクトルに応じて動き補償を行い、予測画像を生成する。動き予測補償部35は、あらかじめ用意された複数のインター予測の予測モードで、インター予測を行い、参照画像から予測画像を生成する。
動き予測補償部35は、所定のコスト関数に基づいて、複数のインター予測の予測モードから、最適なインター予測の予測モードを選択する。さらに、動き予測補償部35は、最適なインター予測の予測モードで生成された予測画像を、予測画像選択部36に供給する。
また、動き予測補償部35は、コスト関数に基づいて選択された最適なインター予測の予測モードや、そのインター予測の予測モードで符号化された符号化データを復号する際に必要な動きベクトル等の動き情報等を、可逆符号化部26に供給する。
予測画像選択部36は、演算部23及び演算部30に供給する予測画像の供給元を、イントラ予測部34及び動き予測補償部35の中から選択し、その選択した方の供給元から供給される予測画像を、演算部23及び演算部30に供給する。
レート制御部37は、蓄積バッファ27に蓄積された符号化ビットストリームの符号量に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部25の量子化動作のレートを制御する。すなわち、レート制御部37は、蓄積バッファ27のオーバーフロー及びアンダーフローが生じないように、符号化ビットストリームの目標符号量を設定し、量子化部25に供給する。
デブロックフィルタ31aは、演算部30からの復号画像に、デブロックフィルタを必要に応じて適用し、デブロックフィルタが適用された復号画像(フィルタ画像)、又は、デブロックフィルタが適用されていない復号画像を、適応オフセットフィルタ41に供給する。
適応オフセットフィルタ41は、デブロックフィルタ31aからの復号画像に、適応オフセットフィルタを必要に応じて適用し、適応オフセットフィルタが適用された復号画像(フィルタ画像)、又は、適応オフセットフィルタが適用されていない復号画像を、ALF42に供給する。
ALF42は、適応オフセットフィルタ41からの復号画像に、ALFを必要に応じて適用し、ALFが適用された復号画像、又は、ALFが適用されていない復号画像を、フレームメモリ32に供給する。
<符号化処理>
図4は、図3のエンコーダ11の符号化処理の例を説明するフローチャートである。
なお、図4に示す符号化処理の各ステップの順番は、説明の便宜上の順番であり、実際の符号化処理の各ステップは、適宜、並列的に、必要な順番で行われる。後述する処理についても、同様である。
エンコーダ11では、ステップS11において、A/D変換部21は、元画像をA/D変換し、並べ替えバッファ22に供給して、処理は、ステップS12に進む。
ステップS12において、並べ替えバッファ22は、A/D変換部21からの元画像を記憶し、符号化順に並べ替えて出力し、処理は、ステップS13に進む。
ステップS13では、イントラ予測部34は、イントラ予測を行い、処理は、ステップS14に進む。ステップS14において、動き予測補償部35は、動き予測や動き補償を行うインター予測を行い、処理は、ステップS15に進む。
イントラ予測部34のイントラ予測、及び、動き予測補償部35のインター予測では、各種の予測モードのコスト関数が演算されるとともに、予測画像が生成される。
ステップS15では、予測画像選択部36は、イントラ予測部34及び動き予測補償部35で得られる各コスト関数に基づいて、最適な予測モードを決定する。そして、予測画像選択部36は、イントラ予測部34により生成された予測画像、及び、動き予測補償部35により生成された予測画像の中から最適な予測モードの予測画像を選択して出力し、処理は、ステップS15からステップS16に進む。
ステップS16では、演算部23は、並べ替えバッファ22が出力する元画像である符号化対象の対象画像と、予測画像選択部36が出力する予測画像との残差を演算し、直交変換部24に供給して、処理は、ステップS17に進む。
ステップS17では、直交変換部24は、演算部23からの残差を直交変換し、その結果得られる直交変換係数を、量子化部25に供給して、処理は、ステップS18に進む。
ステップS18では、量子化部25は、直交変換部24からの直交変換係数を量子化し、その量子化により得られる量子化係数を、可逆符号化部26及び逆量子化部28に供給して、処理は、ステップS19に進む。
ステップS19では、逆量子化部28は、量子化部25からの量子化係数を逆量子化し、その結果得られる直交変換係数を、逆直交変換部29に供給して、処理は、ステップS20に進む。ステップS20では、逆直交変換部29は、逆量子化部28からの直交変換係数を逆直交変換し、その結果得られる残差を、演算部30に供給して、処理は、ステップS21に進む。
ステップS21では、演算部30は、逆直交変換部29からの残差と、予測画像選択部36が出力する予測画像とを加算し、演算部23での残差の演算の対象となった元画像に対応する復号画像を生成する。演算部30は、復号画像を、デブロックフィルタ31aに供給し、処理は、ステップS21からステップS22に進む。
ステップS22では、デブロックフィルタ31aは、演算部30からの復号画像に、デブロックフィルタを適用し、その結果得られるフィルタ画像を、適応オフセットフィルタ41に供給して、処理は、ステップS23に進む。
ステップS23では、適応オフセットフィルタ41は、デブロックフィルタ31aからのフィルタ画像に、適応オフセットフィルタを適用し、その結果得られるフィルタ画像を、ALF42に供給して、処理は、ステップS24に進む。
ステップS24では、ALF42は、適応オフセットフィルタ41からのフィルタ画像に、ALFを適用し、その結果得られるフィルタ画像を、フレームメモリ32に供給して、処理は、ステップS25に進む。
ステップS25では、フレームメモリ32は、ALF42から供給されるフィルタ画像を記憶し、処理は、ステップS26に進む。フレームメモリ32に記憶されたフィルタ画像は、ステップS13やS14で、予測画像を生成する元となる参照画像として使用される。
ステップS26では、可逆符号化部26は、量子化部25からの量子化係数である符号化データを符号化し、その符号化データを含む符号化ビットストリームを生成する。さらに、可逆符号化部26は、量子化部25での量子化に用いられた量子化パラメータや、イントラ予測部34でのイントラ予測で得られた予測モード、動き予測補償部35でのインター予測で得られた予測モードや動き情報、デブロックフィルタ31a及び適応オフセットフィルタ41のフィルタパラメータ等の符号化情報を必要に応じて符号化し、符号化ビットストリームに含める。
そして、可逆符号化部26は、符号化ビットストリームを、蓄積バッファ27に供給し、処理は、ステップS26からステップS27に進む。
ステップS27において、蓄積バッファ27は、可逆符号化部26からの符号化ビットストリームを蓄積し、処理は、ステップS28に進む。蓄積バッファ27に蓄積された符号化ビットストリームは、適宜読み出されて伝送される。
ステップS28では、レート制御部37は、蓄積バッファ27に蓄積されている符号化ビットストリームの符号量(発生符号量)に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部25の量子化動作のレートを制御し、符号化処理は終了する。
<デコーダ51の構成例>
図5は、図2のデコーダ51の詳細な構成例を示すブロック図である。
図5において、デコーダ51は、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、演算部65、並べ替えバッファ67、及び、D/A変換部68を有する。さらに、デコーダ51は、フレームメモリ69、選択部70、イントラ予測部71、動き予測補償部72、及び、選択部73を有する。また、デコーダ51は、デブロックフィルタ31b、適応オフセットフィルタ81、及び、ALF82を有する。
蓄積バッファ61は、エンコーダ11から伝送されてくる符号化ビットストリームを一時蓄積し、所定のタイミングにおいて、その符号化ビットストリームを、可逆復号部62に供給する。
可逆復号部62は、蓄積バッファ61からの符号化ビットストリームを受信し、図3の可逆符号化部26の符号化方式に対応する方式で復号する。
そして、可逆復号部62は、符号化ビットストリームの復号結果に含まれる符号化データとしての量子化係数を、逆量子化部63に供給する。
また、可逆復号部62は、パースを行う機能を有する。可逆復号部62は、符号化ビットストリームの復号結果に含まれる必要な符号化情報をパースし、符号化情報を、イントラ予測部71や、動き予測補償部72、デブロックフィルタ31b、適応オフセットフィルタ81その他の必要なブロックに供給する。
逆量子化部63は、可逆復号部62からの符号化データとしての量子化係数を、図3の量子化部25の量子化方式に対応する方式で逆量子化し、その逆量子化により得られる直交変換係数を、逆直交変換部64に供給する。
逆直交変換部64は、逆量子化部63から供給される直交変換係数を、図3の直交変換部24の直交変換方式に対応する方式で逆直交変換し、その結果得られる残差を、演算部65に供給する。
演算部65には、逆直交変換部64から残差が供給される他、選択部73を介して、イントラ予測部71又は動き予測補償部72から予測画像が供給される。
演算部65は、逆直交変換部64からの残差と、選択部73からの予測画像とを加算し、復号画像を生成して、デブロックフィルタ31bに供給する。
ここで、以上の可逆復号部62ないし演算部65が、画像を復号する復号部を構成する。
並べ替えバッファ67は、ALF82から供給される復号画像を一時記憶し、復号画像のフレーム(ピクチャ)の並びを、符号化(復号)順から表示順に並べ替え、D/A変換部68に供給する。
D/A変換部68は、並べ替えバッファ67から供給される復号画像をD/A変換し、図示せぬディスプレイに出力して表示させる。なお、デコーダ51に接続される機器がディジタル信号の画像を受け付ける場合には、デコーダ51は、D/A変換部68を設けずに構成することができる。
フレームメモリ69は、ALF82から供給される復号画像を一時記憶する。さらに、フレームメモリ69は、所定のタイミングにおいて、又は、イントラ予測部71や動き予測補償部72等の外部の要求に基づいて、復号画像を、予測画像の生成に用いる参照画像として、選択部70に供給する。
選択部70は、フレームメモリ69から供給される参照画像の供給先を選択する。選択部70は、イントラ予測で符号化された画像を復号する場合、フレームメモリ69から供給される参照画像をイントラ予測部71に供給する。また、選択部70は、インター予測で符号化された画像を復号する場合、フレームメモリ69から供給される参照画像を動き予測補償部72に供給する。
イントラ予測部71は、可逆復号部62から供給される符号化情報に含まれる予測モードに従い、図3のイントラ予測部34と同様に、フレームメモリ69から選択部70を介して供給される参照画像を用いてイントラ予測を行う。そして、イントラ予測部71は、イントラ予測により得られる予測画像を、選択部73に供給する。
動き予測補償部72は、可逆復号部62から供給される符号化情報に含まれる予測モードに従い、図3の動き予測補償部35と同様に、フレームメモリ69から選択部70を介して供給される参照画像を用いてインター予測を行う。インター予測は、可逆復号部62から供給される符号化情報に含まれる動き情報等を必要に応じて用いて行われる。
動き予測補償部72は、インター予測により得られる予測画像を、選択部73に供給する。
選択部73は、イントラ予測部71から供給される予測画像、又は、動き予測補償部72から供給される予測画像を選択し、演算部65に供給する。
デブロックフィルタ31bは、可逆復号部62から供給される符号化情報に含まれるフィルタパラメータに従い、演算部65からの復号画像に、デブロックフィルタを適用する。デブロックフィルタ31bは、デブロックフィルタが適用された復号画像(フィルタ画像)、又は、デブロックフィルタが適用されていない復号画像を、適応オフセットフィルタ81に供給する。
適応オフセットフィルタ81は、可逆復号部62から供給される符号化情報に含まれるフィルタパラメータに従い、デブロックフィルタ31bからの復号画像に、適応オフセットフィルタを必要に応じて適用する。適応オフセットフィルタ81は、適応オフセットフィルタが適用された復号画像(フィルタ画像)、又は、適応オフセットフィルタが適用されていない復号画像を、ALF82に供給する。
ALF82は、適応オフセットフィルタ81からの復号画像に、ALFを必要に応じて適用し、ALFが適用された復号画像、又は、ALFが適用されていない復号画像を、並べ替えバッファ67及びフレームメモリ69に供給する。
<復号処理>
図6は、図5のデコーダ51の復号処理の例を説明するフローチャートである。
復号処理では、ステップS51において、蓄積バッファ61は、エンコーダ11から伝送されてくる符号化ビットストリームを一時蓄積し、適宜、可逆復号部62に供給して、処理は、ステップS52に進む。
ステップS52では、可逆復号部62は、蓄積バッファ61から供給される符号化ビットストリームを受け取って復号し、符号化ビットストリームの復号結果に含まれる符号化データとしての量子化係数を、逆量子化部63に供給する。
また、可逆復号部62は、符号化ビットストリームの復号結果に含まれる符号化情報をパースする。そして、可逆復号部62は、必要な符号化情報を、イントラ予測部71や、動き予測補償部72、デブロックフィルタ31b、適応オフセットフィルタ81その他の必要なブロックに供給する。
そして、処理は、ステップS52からステップS53に進み、イントラ予測部71又は動き予測補償部72が、フレームメモリ69から選択部70を介して供給される参照画像、及び、可逆復号部62から供給される符号化情報に従い、予測画像を生成するイントラ予測又はインター予測を行う。そして、イントラ予測部71又は動き予測補償部72は、イントラ予測又はインター予測により得られる予測画像を、選択部73に供給し、処理は、ステップS53からステップS54に進む。
ステップS54では、選択部73は、イントラ予測部71又は動き予測補償部72から供給される予測画像を選択し、演算部65に供給して、処理は、ステップS55に進む。
ステップS55では、逆量子化部63は、可逆復号部62からの量子化係数を逆量子化し、その結果得られる直交変換係数を、逆直交変換部64に供給して、処理は、ステップS56に進む。
ステップS56では、逆直交変換部64は、逆量子化部63からの直交変換係数を逆直交変換し、その結果得られる残差を、演算部65に供給して、処理は、ステップS57に進む。
ステップS57では、演算部65は、逆直交変換部64からの残差と、選択部73からの予測画像を加算することにより、復号画像を生成する。そして、演算部65は、復号画像を、デブロックフィルタ31bに供給して、処理は、ステップS57からステップS58に進む。
ステップS58では、デブロックフィルタ31bは、可逆復号部62から供給される符号化情報に含まれるフィルタパラメータに従い、演算部65からの復号画像に、デブロックフィルタを適用する。デブロックフィルタ31bは、デブロックフィルタの適用の結果得られるフィルタ画像を、適応オフセットフィルタ81に供給して、処理は、ステップS58からステップS59に進む。
ステップS59では、適応オフセットフィルタ81は、可逆復号部62から供給される符号化情報に含まれるフィルタパラメータに従い、デブロックフィルタ31bからのフィルタ画像に、適応オフセットフィルタを適用する。適応オフセットフィルタ81は、適応オフセットフィルタの適用の結果得られるフィルタ画像を、ALF82に供給して、処理は、ステップS59からステップS60に進む。
ALF82は、適応オフセットフィルタ81からのフィルタ画像に、ALFを適用し、その結果得られるフィルタ画像を、並べ替えバッファ67及びフレームメモリ69に供給して、処理は、ステップS61に進む。
ステップS61では、フレームメモリ69は、ALF82から供給されるフィルタ画像を一時記憶し、処理は、ステップS62に進む。フレームメモリ69に記憶されたフィルタ画像(復号画像)は、ステップS53のイントラ予測又はインター予測で、予測画像を生成する元となる参照画像として使用される。
ステップS62では、並べ替えバッファ67は、ALF82から供給されるフィルタ画像を、表示順に並べ替えて、D/A変換部68に供給し、処理は、ステップS63に進む。
ステップS63では、D/A変換部68は、並べ替えバッファ67からのフィルタ画像をD/A変換し、処理は、復号処理は終了する。D/A変換後のフィルタ画像(復号画像)は、図示せぬディスプレイに出力されて表示される。
<イントラ予測部34の構成例>
図7は、イントラ予測部34の構成例を示すブロック図である。
なお、図7では、イントラ予測部34のうちの、MIPの予測画像を生成する部分である予測画像生成部110だけを図示してある。イントラ予測部71も、予測画像生成部110と同様の予測画像生成部を有する。
予測画像生成部110は、平均化部111、行列ベクトル乗算部112、及び、補間部113を有する。
平均化部111には、カレント予測ブロックについて、選択部33から参照画像(としての復号画像)が供給される。
平均化部111は、カレント予測ブロックについての参照画像の上オリジナル画素(の画素値)を平均化し、ダウンサンプルされた画素としての複数の平均化画素(の画素値)を生成する。
また、平均化部111は、カレント予測ブロックについての参照画像の左オリジナル画素を平均化し、ダウンサンプルされた画素としての複数の平均化画素を生成する。
平均化部111は、平均化画素を、行列ベクトル乗算部112に供給する。
行列ベクトル乗算部112には、イントラ予測の予測モードkが供給される。
行列ベクトル乗算部112は、予測モードkに応じて、行列演算に用いる行列Ak及びベクトルであるオフセットbkを設定する。そして、行列ベクトル乗算部112は、行列演算として、行列Akと、平均化部111の平均化画素を要素とするベクトルとの乗算を行う。さらに、行列ベクトル乗算部112は、行列演算として、乗算の結果に、オフセットbkの加算を行い、これにより、カレント予測ブロックの予測画像の一部の画素を生成し、補間部113に供給する。
補間部113には、参照画像が供給される。
補間部113は、カレント予測ブロックの予測画像の上に隣接する上隣接画素、カレント予測ブロックの予測画像の左に隣接する左隣接画素、及び、行列ベクトル乗算部112からのカレント予測ブロックの予測画像の一部の画素を用いて補間処理を行う。
補間部113は、補間処理により、カレント予測ブロックの予測画像の残りの画素を生成し、行列ベクトル乗算部112からの予測画像の一部の画素と合わせて、カレント予測ブロックの予測画像を生成する(完成させる)。
補間部113は、予測画像の上隣接画素として、参照画像の上オリジナル画素を用いるとともに、予測画像の左隣接画素として、参照画像の左オリジナル画素を用いる。
図8は、予測画像生成部110が行うMIPの予測画像の生成の処理の例を説明するフローチャートである。
ステップS111において、平均化部111は、参照画像の上オリジナル画素を平均化するとともに、参照画像の左オリジナル画素を平均化し、平均化画素を生成する。平均化部111は、平均化画素を、行列ベクトル乗算部112に供給して、処理は、ステップS111からステップS112に進む。
ステップS112では、行列ベクトル乗算部112は、予測モードkに応じて、行列演算に用いる行列Ak及びオフセットbkを設定する。さらに、行列ベクトル乗算部112は、行列Ak及びオフセットbkを用い、平均化部111からの平均化画素を要素とするベクトルを対象として、行列演算を行う。
すなわち、行列ベクトル乗算部112は、行列演算として、行列Akと、平均化部111の平均化画素を要素とするベクトルとの乗算を行う。さらに、行列ベクトル乗算部112は、行列演算として、乗算の結果に、オフセットbkの加算を行う。行列ベクトル乗算部112は、以上の行列演算により、カレント予測ブロックの予測画像の一部の画素を生成し、補間部113に供給して、処理は、ステップS112からステップS113に進む。
ステップS113では、補間部113は、上隣接画素として、参照画像の上オリジナル画素を用いるとともに、左隣接画素として、参照画像の左オリジナル画素を用い、これらの上隣接画素及び左隣接画素、並びに、行列ベクトル乗算部112からのカレント予測ブロックの予測画像の一部の画素を用いて補間処理を行う。
補間部113は、補間処理により、カレント予測ブロックの予測画像の残りの画素を生成し、行列ベクトル乗算部112からの予測画像の一部の画素と合わせて、カレント予測ブロックの予測画像を生成する。
図9は、予測画像生成部110のMIPの予測画像の生成方法を説明する図である。
図9では、図1と同様に、カレント予測ブロックとして、W×H=8×8画素のブロックが採用されている。但し、予測ブロックは、W×H=8×8画素のブロックに限定されるものではない。
平均化部111は、JVET-N0217と同様に、カレント予測ブロックについて、参照画像の上オリジナル画素bdrytopを平均化し、ダウンサンプルされた画素としての複数の平均化画素bdryredを生成する。
さらに、平均化部111は、JVET-N0217と同様に、カレント予測ブロックについて、参照画像の左オリジナル画素bdryleftを平均化し、ダウンサンプルされた画素としての複数の平均化画素bdryredを生成する。
カレント予測ブロックが、W×H=8×8画素のブロックである場合、上オリジナル画素bdrytopの平均化は、参照画像の横方向に隣接する2個の上オリジナル画素bdrytopの平均をとることにより行われ、これにより、4個の平均化画素bdryredが生成される。同様に、左オリジナル画素bdryleftの平均化は、参照画像の縦方向に隣接する2個の左オリジナル画素bdryleftの平均をとることにより行われ、これにより、4個の平均化画素bdryredが生成される。
ここで、本実施の形態では、ダウンサンプルされた画素として、オリジナルの画素の平均をとることにより得られる平均化画素を採用するが、ダウンサンプルされた画素は、平均化画素に限定されるものではない。すなわち、ダウンサンプルは、複数の画素の平均をとる他、メディアン等の平均以外の演算を行うことや、単に、画素を間引くことによって行うことができる。
行列ベクトル乗算部112は、JVET-N0217と同様に、イントラ予測の予測モードkに応じて設定される行列Ak及びオフセットbkを用い、平均化画素bdryredを要素とするベクトルbdryredを対象とする行列演算としての式predred=Ak・bdryred+bkを演算する。
すなわち、行列ベクトル乗算部112は、行列演算として、行列Akと平均化画素bdryredを要素とするベクトルbdryredとの乗算Ak・bdryredを行う。さらに、行列ベクトル乗算部112は、乗算の結果Ak・bdryredに、オフセットbkを加算する。これにより、行列ベクトル乗算部112は、カレント予測ブロックの予測画像の一部の画素predredを生成する。
補間部113は、JVET-N0217と同様に、カレント予測ブロックの予測画像の上に隣接する上隣接画素、カレント予測ブロックの予測画像の左に隣接する左隣接画素、及び、行列演算で生成されたカレント予測ブロックの予測画像の一部の画素predredを用いた補間処理を行う。
補間部113は、補間処理により、予測画像の残りの画素(図中、白抜きの画素)を生成し、行列演算により生成された画素predredとを合わせることで、カレント予測ブロックの予測画像(pred)を生成する。
但し、JVET-N0217の補間処理では、図1で説明したように、予測画像の上隣接画素として、参照画像の平均化画素bdryredのうちの、上オリジナル画素bdrytopを用いて生成された平均化画素bdrytop redが用いられる。
これに対して、補間部113の補間処理では、予測画像の上隣接画素として、平均化画素bdrytop redではなく、参照画像の上オリジナル画素bdrytopそのものが用いられる。
以上のように、予測画像生成部110では、上隣接画素として、参照画像の上オリジナル画素bdrytopを用いるので、上隣接画素として、平均化画素を用いる場合に必要となる平均化画素(の画素値)bdrytop redの保持を行わずに済む。さらに、上隣接画素として、参照画像の上オリジナル画素bdrytopを用いる場合には、平均化画素bdrytop redを用いる場合に比較して、イントラ予測の予測精度が高まることを期待することができる。
<イントラ予測部34の他の構成例>
図10は、イントラ予測部34の他の構成例を示すブロック図である。
なお、図10では、図7と同様に、イントラ予測部34のうちの、MIPの予測画像を生成する部分である予測画像生成部120だけを図示してある。イントラ予測部71も、予測画像生成部120と同様の予測画像生成部を有する。
また、図中、図7の予測画像生成部110と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
予測画像生成部120は、平均化部111、行列ベクトル乗算部112、及び、補間部123を有する。
したがって、予測画像生成部120は、平均化部111及び行列ベクトル乗算部112を有する点で、図7の予測画像生成部110を共通する。但し、予測画像生成部120は、補間部113に代えて、補間部123を有する点で、予測画像生成部110と相違する。
予測画像生成部120では、補間部123に対して、参照画像と、行列ベクトル乗算部112で生成されたカレント予測ブロックの予測画像の一部の画素とが供給されるとともに、予測モードkと、平均化部111で生成された平均化画素とが供給される。
補間部123は、補間部113と同様に、予測画像の上隣接画素及び左隣接画素、並びに、行列ベクトル乗算部112からのカレント予測ブロックの予測画像の一部の画素を用いて補間処理を行い、その補間処理により生成される予測画像の残りの画素と、行列ベクトル乗算部112からの予測画像の一部の画素とを合わせて、予測画像を生成する。
但し、補間部123は、予測モードkに応じて、上隣接画素として、参照画像の上オリジナル画素を用いるか、又は、ダウンサンプルされた画素としての平均化画素を用いるかを選択することができる。また、補間部123は、予測モードkに応じて、左隣接画素として、参照画像の左オリジナル画素を用いるか、又は、ダウンサンプルされた画素としての平均化画素を用いるかを選択することができる。
図11は、予測画像生成部120のMIPの予測画像の生成方法を説明する図である。
図11では、図9と同様に、カレント予測ブロックとして、W×H=8×8画素のブロックが採用されている。但し、予測ブロックは、W×H=8×8画素のブロックに限定されるものではない。
予測画像生成部120では、平均化部111において、予測画像生成部110と同様に、カレント予測ブロックについて、参照画像の上オリジナル画素bdrytopを平均化した平均化画素bdryredと、左オリジナル画素bdryleftを平均化した平均化画素bdryredとが生成される。
さらに、予測画像生成部120では、行列ベクトル乗算部112において、予測画像生成部110と同様に、平均化画素bdryredを要素とするベクトルbdryredを対象とする行列演算としての式predred=Ak・bdryred+bkが演算され、カレント予測ブロックの予測画像の一部の画素predredが生成される。
そして、予測画像生成部120では、補間部123において、予測画像生成部110と同様に、カレント予測ブロックの予測画像の上に隣接する上隣接画素、カレント予測ブロックの予測画像の左に隣接する左隣接画素、及び、行列演算で生成されたカレント予測ブロックの予測画像の一部の画素predredを用いた補間処理が行われ、これにより、カレント予測ブロックの予測画像(pred)が生成される。
但し、補間部123では、予測モードkに応じて、上隣接画素として、参照画像の上オリジナル画素bdrytopを用いるか、又は、ダウンサンプルされた画素としての平均化画素bdrytop redを用いるかを選択することができる。また、補間部123では、予測モードkに応じて、左隣接画素として、参照画像の左オリジナル画素bdryleftを用いるか、又は、ダウンサンプルされた画素としての平均化画素bdryleft redを用いるかを選択することができる。
平均化画素bdrytop redは、平均化画素bdryredのうちの、上オリジナル画素bdrytopを用いて(上オリジナル画素bdrytopの平均をとることにより)生成された平均化画素である。平均化画素bdryleft redは、左オリジナル画素bdryleftを用いて生成された平均化画素である。
補間部123は、セレクタ131及び132を有する。
セレクタ131には、上オリジナル画素bdrytop及び平均化画素bdrytop redが供給される。セレクタ131は、予測モードkに応じて、上オリジナル画素bdrytop又は平均化画素bdrytop redを選択して出力する。補間部123では、上オリジナル画素bdrytop及び平均化画素bdrytop redのうちの、セレクタ131が出力する方の画素を、上隣接画素として用いて、補間処理が行われる。
セレクタ132には、左オリジナル画素bdryleft及び平均化画素bdryleft redが供給される。セレクタ132は、予測モードkに応じて、左オリジナル画素bdryleft又は平均化画素bdryleft redを選択して出力する。補間部123では、左オリジナル画素bdryleft及び平均化画素bdryleft redのうちの、セレクタ132が出力する方の画素を、左隣接画素として用いて、補間処理が行われる。
以上のように、予測画像生成部120において、上隣接画素として、参照画像の上オリジナル画素を用いるか、若しくは、平均化画素を用いるかを選択すること、及び/又は、左隣接画素として、参照画像の左オリジナル画素を用いるか、平均化画素を用いるかを選択することができる場合には、イントラ予測の予測精度がさらに高まることを期待することができる。
図12は、予測モードkに応じて上隣接画素及び左隣接画素として選択される画素の例を示す図である。
ここで、上隣接画素若しくは左隣接画素又は両方を、隣接画素ともいう。また、上オリジナル画素若しくは左オリジナル画素又は両方を、オリジナル画素ともいう。
図12では、予測モードkが、MIPモード(のモード番号)及びサイズ識別子MipSizeIdを表す情報を含む場合に、そのMIPモード及びサイズ識別子MipSizeIdに応じて隣接画素(上隣接画素、左隣接画素)として選択される画素が示されている。
図12において、"Original"は、オリジナル画素(上オリジナル画素、左オリジナル画素)を表し、"Averaged"は、平均化画素を表す。図12によれば、例えば、MIPモードが1で、サイズ識別子MipSizeIdが0である場合、左隣接画素として左オリジナル画素(Original)が選択され、上隣接画素として、平均的画素(Averaged)が選択される。
サイズ識別子MipSizeIdは、MIPで用いられる行列Akのサイズを表す識別子であり、カレント予測ブロックのブロックサイズに応じて設定される。したがって、予測モードkがサイズ識別子MipSizeIdを表す情報を含む場合、予測モードkは、カレント予測ブロックのブロックサイズを表す情報を含むということができる。
予測モードkは、イントラ予測の予測方向や、方向性予測、非方向性予測(例えば、プレーヤ予測やDC予測)を表す情報を含むことができる。イントラ予測の予測方向は、方向性予測の参照方向を含む。
予測モードkが、方向性予測を表す情報を含む場合、隣接画素として、オリジナル画素又は平均化画素を選択することができる。例えば、予測モードkが、方向性予測を表す情報を含む場合、その方向性予測の参照方向に応じて、隣接画素として、オリジナル画素又は平均化画素を選択することができる。
具体的には、例えば、カレント予測ブロックに、縦方向のエッジ等の模様が存在し、方向性予測の参照方向が縦方向に近い場合には、上隣接画素として、上オリジナル画素を選択することができる。また、例えば、カレント予測ブロックに、横方向のエッジ等の模様が存在し、方向性予測の参照方向が横方向に近い場合には、左隣接画素として、左オリジナル画素を選択することができる。この場合、予測精度を高めることができる。
予測モードkが、非方向性予測を表す情報を含む場合、例えば、イントラ予測として、DC予測が行われる場合、上隣接画素及び左隣接画素として、平均化画素を選択することができる。
その他、予測画像に隣接する隣接画素とする画素の選択は、予測モードkに応じて行う他、エンコーダ11において、参照画像となる復号画像(ローカルデコード画像)に対する、インループフィルタの適用の有無、すなわち、デブロックフィルタ31a、適応オフセットフィルタ41、及び、ALF42の一部又は全部が適用されたか否かに応じて行うことができる。例えば、シミュレーションを行い、インループフィルタの適用の有無に応じて、コストが小さくなるように、隣接画素とする画素の選択を行うことができる。
イントラ予測部34は、イントラ予測の予測画像の生成において、予測画像に隣接する隣接画素として、参照画像のオリジナル画素を用いるか、又は、ダウンサンプルされた画素としての平均化画素を用いるかを識別する識別データを設定する設定部として機能させることができる。イントラ予測部34で設定された識別データは、例えば、符号化情報の一部として、符号化ビットストリームに含めることができる。
識別データには、上隣接画素として、参照画像の上オリジナル画素を用いるか、又は、ダウンサンプルされた画素としての平均化画素を用いるかを識別するデータを含めることができる。また、識別データには、左隣接画素として、参照画像の左オリジナル画素を用いるか、又は、ダウンサンプルされた画素としての平均化画素を用いるかを識別するデータを含めることができる。
なお、隣接画素として、参照画像のオリジナル画素又はダウンサンプルされた画素としての平均化画素を用いるかは、予測モード等に応じて選択するのではなく、別個の予測モードとして扱い、コストが小さくなる方を選択することができる。
<本技術を適用したコンピュータの説明>
次に、上述したエンコーダ11及びデコーダ51の一連の処理は、ハードウエアにより行うこともできるし、ソフトウエアにより行うこともできる。一連の処理をソフトウエアによって行う場合には、そのソフトウエアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
図13は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク905やROM903に予め記録しておくことができる。
あるいはまた、プログラムは、ドライブ909によって駆動されるリムーバブル記録媒体911に格納(記録)しておくことができる。このようなリムーバブル記録媒体911は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体911としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体911からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク905にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)902を内蔵しており、CPU902には、バス901を介して、入出力インタフェース910が接続されている。
CPU902は、入出力インタフェース910を介して、ユーザによって、入力部907が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)903に格納されているプログラムを実行する。あるいは、CPU902は、ハードディスク905に格納されたプログラムを、RAM(Random Access Memory)904にロードして実行する。
これにより、CPU902は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU902は、その処理結果を、必要に応じて、例えば、入出力インタフェース910を介して、出力部906から出力、あるいは、通信部908から送信、さらには、ハードディスク905に記録等させる。
なお、入力部907は、キーボードや、マウス、マイク等で構成される。また、出力部906は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
10 画像処理システム, 11 エンコーダ, 21 A/D変換部, 22 並べ替えバッファ22, 23 演算部, 24 直交変換部, 25 量子化部, 26 可逆符号化部, 27 蓄積バッファ, 28 逆量子化部, 29 逆直交変換部, 30 演算部, 31a,31b デブロックフィルタ, 32 フレームメモリ, 33 選択部, 34 イントラ予測部, 35 動き予測補償部, 36 予測画像選択部, 37 レート制御部, 41 適応オフセットフィルタ, 42 ALF, 51 デコーダ, 61 蓄積バッファ, 62 可逆復号部, 63 逆量子化部, 64 逆直交変換部, 65 演算部, 67 並べ替えバッファ, 68 D/A変換部, 69 フレームメモリ, 70 選択部, 71 イントラ予測部, 72 動き予測補償部, 73 選択部, 81 適応オフセットフィルタ, 82 ALF, 110 予測画像生成部, 111 平均化部, 112 行列ベクトル乗算部, 113 補間部, 120 予測画像生成部, 123 補間部, 901 バス, 902 CPU, 903 ROM, 904 RAM, 905 ハードディスク, 906 出力部, 907 入力部, 908 通信部, 909 ドライブ, 910 入出力インタフェース, 911 リムーバブル記録媒体
本技術の第1の画像処理装置は、行列演算を用いたイントラ予測を行う際に、符号化の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測部と、前記イントラ予測部により生成された前記予測画像を用いて、前記カレント予測ブロックを符号化する符号化部とを備える画像処理装置である。
本技術の他の第1の画像処理装置は、行列演算を用いたイントラ予測に対するカレント予測ブロックの予測画像に隣接する隣接画素として参照画像のオリジナルの画素を用いて補間処理を行うかを識別する識別データを設定する設定部と、前記カレント予測ブロックを符号化して、前記設定部により設定された前記識別データを含むビットストリームを生成する符号化部とを備える画像処理装置である。
本技術の第1の画像処理方法は、行列演算を用いたイントラ予測を行う際に、符号化の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測工程と、前記イントラ予測工程において生成された前記予測画像を用いて、前記カレント予測ブロックを符号化する符号化工程とを含む画像処理方法である。
本技術の他の第1の画像処理方法は、行列演算を用いたイントラ予測に対するカレント予測ブロックの予測画像に隣接する隣接画素として参照画像のオリジナルの画素を用いて補間処理を行うかを識別する識別データを設定することと、前記カレント予測ブロックを符号化して、前記識別データを含むビットストリームを生成することとを含む画像処理方法である。
本技術の第1の画像処理装置及び画像処理方法においては、行列演算を用いたイントラ予測を行う際に、符号化の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像が生成される。そして、前記予測画像を用いて、前記カレント予測ブロックが符号化される。
本技術の他の第1の画像処理装置及び画像処理方法においては、行列演算を用いたイントラ予測に対するカレント予測ブロックの予測画像に隣接する隣接画素として参照画像のオリジナルの画素を用いて補間処理を行うかを識別する識別データが設定される。そして、前記カレント予測ブロックが符号化されて、前記識別データを含むビットストリームが生成される。
本技術の第2の画像処理装置は、行列演算を用いたイントラ予測を行う際に、復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測部と、前記イントラ予測部により生成された前記予測画像を用いて、前記カレント予測ブロックを復号する復号部とを備える画像処理装置である。
本技術の他の第2の画像処理装置は、行列演算を用いたイントラ予測に対するカレント予測ブロックの予測画像に隣接する隣接画素として参照画像のオリジナルの画素を用いて補間処理を行うかを識別する識別データを含むビットストリームから、前記識別データをパースするパース部と、前記パース部によりパースされた前記識別データを用いて、前記カレント予測ブロックの予測画像を生成するイントラ予測部と、前記イントラ予測部により生成された前記予測画像を用いて、前記カレント予測ブロックを復号する復号部とを備える画像処理装置である。
本技術の第2の画像処理方法は、行列演算を用いたイントラ予測を行う際に、復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測工程と、前記イントラ予測工程において生成された前記予測画像を用いて、前記カレント予測ブロックを復号する復号工程とを含む画像処理方法である。
本技術の他の第2の画像処理方法は、行列演算を用いたイントラ予測に対するカレント予測ブロックの予測画像に隣接する隣接画素として参照画像のオリジナルの画素を用いて補間処理を行うかを識別する識別データを含むビットストリームから、前記識別データをパースすることと、前記識別データを用いて、前記カレント予測ブロックの予測画像を生成することと、前記予測画像を用いて、前記カレント予測ブロックを復号することとを含む画像処理方法である。
本技術の第2の画像処理装置及び画像処理方法においては、行列演算を用いたイントラ予測を行う際に、復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像が生成される。そして、前記予測画像を用いて、前記カレント予測ブロックが復号される。
本技術の他の第2の画像処理装置及び画像処理方法においては、行列演算を用いたイントラ予測に対するカレント予測ブロックの予測画像に隣接する隣接画素として参照画像のオリジナルの画素を用いて補間処理を行うかを識別する識別データを含むビットストリームから、前記識別データがパースされる。そして、前記識別データを用いて、前記カレント予測ブロックの予測画像が生成され、前記予測画像を用いて、前記カレント予測ブロックが復号される。

Claims (20)

  1. 行列演算を用いたイントラ予測を行う際に、符号化の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測部と、
    前記イントラ予測部により生成された前記予測画像を用いて、前記カレント予測ブロックを符号化する符号化部と
    を備える画像処理装置。
  2. 前記イントラ予測部は、前記カレント予測ブロックの予測画像の左に隣接する左隣接画素として、前記参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記予測画像を生成する
    請求項1に記載の画像処理装置。
  3. 前記イントラ予測部は、前記補間処理において、イントラ予測の予測モードに応じて、前記上隣接画素として、前記参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを選択する
    請求項1に記載の画像処理装置。
  4. 前記イントラ予測部は、前記補間処理において、前記イントラ予測の予測モードに応じて、前記カレント予測ブロックの予測画像の左に隣接する左隣接画素として、前記参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを選択する
    請求項3に記載の画像処理装置。
  5. 前記イントラ予測の予測モードは、前記イントラ予測の予測方向を表す情報を含む
    請求項4に記載の画像処理装置。
  6. 前記イントラ予測の予測モードは、前記カレント予測ブロックのブロックサイズを表す情報を含む
    請求項5に記載の画像処理装置。
  7. 前記ダウンサンプルされた画素は、前記オリジナルの画素の平均をとった画素である
    請求項4に記載の画像処理装置。
  8. 前記イントラ予測部は、前記イントラ予測の予測モードが方向性予測を表す情報を含む場合に、前記カレント予測ブロックの予測画像に隣接する隣接画素として、前記参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを選択する
    請求項4に記載の画像処理装置。
  9. 前記イントラ予測部は、前記方向性予測の参照方向が縦方向に近い場合に、前記上隣接画素として、前記オリジナルの画素を用いる
    請求項8に記載の画像処理装置。
  10. 前記イントラ予測部は、前記方向性予測の参照方向が横方向に近い場合に、前記左隣接画素として、前記オリジナルの画素を用いる
    請求項8に記載の画像処理装置。
  11. 前記イントラ予測部は、前記イントラ予測の予測モードが非方向性予測を表す情報を含む場合に、前記上隣接画素として、前記参照画像のダウンサンプルされた画素を用いる
    請求項4に記載の画像処理装置。
  12. 前記イントラ予測部は、前記イントラ予測の予測モードが非方向性予測を表す情報を含む場合に、前記左隣接画素として、前記参照画像のダウンサンプルされた画素を用いる
    請求項11に記載の画像処理装置。
  13. 前記イントラ予測部は、前記参照画像となるローカルデコード画像にインループフィルタが適用されたか否かに応じて、前記上隣接画素として、前記参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを選択する
    請求項3に記載の画像処理装置。
  14. 前記イントラ予測部は、前記ローカルデコード画像に前記インループフィルタが適用されたか否かに応じて、前記カレント予測ブロックの予測画像の左に隣接する左隣接画素として、前記参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを選択する
    請求項13に記載の画像処理装置。
  15. 前記カレント予測ブロックの予測画像に隣接する隣接画素として、前記参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを識別する識別データを設定する設定部をさらに備える
    請求項4に記載の画像処理装置。
  16. 前記識別データは、前記上隣接画素として、前記参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを識別するデータである
    請求項15に記載の画像処理装置。
  17. 前記識別データは、前記左隣接画素として、前記参照画像のオリジナルの画素を用いるか、又は、ダウンサンプルされた画素を用いるかを識別するデータである
    請求項15に記載の画像処理装置。
  18. 行列演算を用いたイントラ予測を行う際に、符号化の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測工程と、
    前記イントラ予測工程において生成された前記予測画像を用いて、前記カレント予測ブロックを符号化する符号化工程と
    を含む画像処理方法。
  19. 行列演算を用いたイントラ予測を行う際に、復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測部と、
    前記イントラ予測部により生成された前記予測画像を用いて、前記カレント予測ブロックを復号する復号部と
    を備える画像処理装置。
  20. 行列演算を用いたイントラ予測を行う際に、復号の対象のカレント予測ブロックの予測画像の上に隣接する上隣接画素として、参照画像のオリジナルの画素を用いて補間処理を行うことにより、前記カレント予測ブロックの予測画像を生成するイントラ予測工程と、
    前記イントラ予測工程において生成された前記予測画像を用いて、前記カレント予測ブロックを復号する復号工程と
    を含む画像処理方法。
JP2024039571A 2019-06-11 2024-03-14 画像処理装置及び画像処理方法 Pending JP2024069447A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962859838P 2019-06-11 2019-06-11
US62/859,838 2019-06-11
PCT/JP2020/021034 WO2020250693A1 (ja) 2019-06-11 2020-05-28 画像処理装置及び画像処理方法
JP2021525985A JP7456441B2 (ja) 2019-06-11 2020-05-28 画像処理装置及び画像処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021525985A Division JP7456441B2 (ja) 2019-06-11 2020-05-28 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2024069447A true JP2024069447A (ja) 2024-05-21

Family

ID=73781973

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021525985A Active JP7456441B2 (ja) 2019-06-11 2020-05-28 画像処理装置及び画像処理方法
JP2024039571A Pending JP2024069447A (ja) 2019-06-11 2024-03-14 画像処理装置及び画像処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021525985A Active JP7456441B2 (ja) 2019-06-11 2020-05-28 画像処理装置及び画像処理方法

Country Status (7)

Country Link
US (1) US20220321910A1 (ja)
EP (1) EP3975564A4 (ja)
JP (2) JP7456441B2 (ja)
KR (1) KR20220019232A (ja)
CN (1) CN113994703A (ja)
TW (1) TW202106025A (ja)
WO (1) WO2020250693A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2588406B (en) * 2019-10-22 2022-12-07 British Broadcasting Corp Video encoding and video decoding
WO2024076134A1 (ko) * 2022-10-05 2024-04-11 세종대학교산학협력단 동영상 인코딩 및 디코딩 장치와 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5696848A (en) * 1995-03-09 1997-12-09 Eastman Kodak Company System for creating a high resolution image from a sequence of lower resolution motion images
US6665344B1 (en) * 1998-06-29 2003-12-16 Zenith Electronics Corporation Downconverting decoder for interlaced pictures
KR101648098B1 (ko) * 2012-09-25 2016-08-12 니폰 덴신 덴와 가부시끼가이샤 영상 부호화 방법 및 장치, 영상 복호 방법 및 장치와 이들의 프로그램
CN104702962B (zh) * 2015-03-03 2019-04-16 华为技术有限公司 帧内编解码方法、编码器和解码器
EP3900342A2 (en) 2018-12-20 2021-10-27 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Intra predictions using linear or affine transforms with neighbouring sample reduction
CN112866699B (zh) * 2019-03-11 2022-11-01 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
WO2020185018A1 (ko) * 2019-03-12 2020-09-17 엘지전자 주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US11616966B2 (en) * 2019-04-03 2023-03-28 Mediatek Inc. Interaction between core transform and secondary transform
JP2022535726A (ja) * 2019-05-31 2022-08-10 北京字節跳動網絡技術有限公司 行列ベースイントラ予測における制約されたアップサンプリングプロセス

Also Published As

Publication number Publication date
JPWO2020250693A1 (ja) 2020-12-17
TW202106025A (zh) 2021-02-01
CN113994703A (zh) 2022-01-28
WO2020250693A1 (ja) 2020-12-17
JP7456441B2 (ja) 2024-03-27
US20220321910A1 (en) 2022-10-06
KR20220019232A (ko) 2022-02-16
EP3975564A1 (en) 2022-03-30
EP3975564A4 (en) 2022-08-03

Similar Documents

Publication Publication Date Title
US20190335202A1 (en) Low-complexity intra prediction for video coding
KR102512053B1 (ko) 스킵 모드를 이용한 영상 복호화 방법 및 이러한 방법을 사용하는 장치
US10623742B2 (en) Method of determining binary codewords for transform coefficients
KR20220116339A (ko) 루마 및 크로마 성분에 대한 ibc 전용 버퍼 및 디폴트 값 리프레싱을 사용하는 인코더, 디코더 및 대응하는 방법들
JP6315911B2 (ja) 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2024069447A (ja) 画像処理装置及び画像処理方法
US20140056357A1 (en) Encoding device, decoding device, encoding method, and decoding method
JP2005070938A (ja) 信号処理装置及びそれを用いた電子機器
US20130114698A1 (en) Method of determining binary codewords for transform coefficients
KR20110135787A (ko) 엣지-적응 변환을 이용한 영상 부호화/복호화 시스템 및 방법
MX2014000718A (es) Exploracion de coeficientes en codificacion de video.
JP2014096638A (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
WO2020255769A1 (ja) 画像処理装置及び画像処理方法
JP6469277B2 (ja) 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
WO2021125317A1 (ja) 画像処理装置及び画像処理方法
JP7513027B2 (ja) 画像処理装置及び画像処理方法、並びにプログラム
WO2015045301A1 (ja) 映像符号化装置、映像符号化方法および映像符号化プログラム
WO2022039635A1 (en) Method and apparatus for hadamard transform domain filtering of the video signal with various bit depth
KR20220053561A (ko) 화상 처리 장치 및 화상 처리 방법
JP2021093634A (ja) 符号化装置、復号装置、及びプログラム
JP2022068378A (ja) 画像符号化装置、画像符号化方法、画像復号装置、および画像復号方法
JP2008061122A (ja) 制御装置、制御方法、符号化装置、及びプログラム
JP2012120086A (ja) 動画像符号化装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240410