JP2019017062A - 画像符号化におけるイントラ予測の方法及びシステム - Google Patents

画像符号化におけるイントラ予測の方法及びシステム Download PDF

Info

Publication number
JP2019017062A
JP2019017062A JP2018089551A JP2018089551A JP2019017062A JP 2019017062 A JP2019017062 A JP 2019017062A JP 2018089551 A JP2018089551 A JP 2018089551A JP 2018089551 A JP2018089551 A JP 2018089551A JP 2019017062 A JP2019017062 A JP 2019017062A
Authority
JP
Japan
Prior art keywords
adjacent
target
prediction
prediction values
coding unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018089551A
Other languages
English (en)
Inventor
柏翰 林
Po-Han Lin
柏翰 林
俊▲隆▼ 林
Chun-Lung Lin
俊▲隆▼ 林
敬傑 林
Ching-Chieh Lin
敬傑 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2019017062A publication Critical patent/JP2019017062A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】画像符号化におけるイントラ予測の方法及びシステムが提供する。【解決手段】ターゲット符号化単位のイントラ予測を行うために用いられる方法は、以下の段階を含む。ターゲット隣接符号化単位に隣接する第1の隣接符号化単位の第1の隣接予測方向を取得する。ターゲット隣接符号化単位に隣接する第2の隣接符号化単位の第2の隣接予測方向を取得する。第2の隣接符号化単位は、第1の隣接符号化単位と異なる。複数のターゲット画素の複数のターゲット予測値を、少なくとも第1の隣接予測方向及び第2の隣接予測方向に従って、第1の隣接符号化単位及び第2の隣接符号化単位から取得する。【選択図】図4

Description

本開示は概して、画像符号化におけるイントラ予測の方法及びシステムに関する。
コンピュータ、ネットワーク通信、及びディスプレイの発展と共に、高ダイナミックレンジ(dynamic range)と仮想現実(virtual reality)機能を有する360度のパノラマ映像が、ますます広く用いられている。満足できるユーザ体験を得るために、これらの映像の解像度(resolution)は通常、非常に高い。さらに、ユーザがヘッドマウントディスプレイ(head−mounted display)を用いて360度のパノラマ映像を再生する場合、ユーザの目とディスプレイとの間の距離が近く、その結果、映像が粗くなり、ユーザの視聴体験に影響を与える。したがって、ディスプレイをより精細にするために、ディスプレイの解像度は高くなり、ディスプレイのリフレッシュレート(refresh rate)は、30から90に上がり、これにより、データ伝送が多くなる。したがって、将来のニーズを満たすために、高い圧縮効率を有する画像符号化方法を考案することが必要である。例えば、米国特許第US8520732B2号が、高い圧縮効率の画像符号化方法を開示している。
本開示は、画像符号化におけるイントラ予測の方法及びシステムに関する。
1つの実施形態によれば、画像符号化におけるイントラ予測の方法が提供される。本方法は、ターゲット符号化単位(coding unit)のイントラ予測を行うためのものである。本方法は、以下の段階を含む。ターゲット符号化単位に隣接する第1の隣接符号化単位の第1の隣接予測方向が取得される。ターゲット符号化単位に隣接する第2の隣接符号化単位の第2の隣接予測方向が取得される。第2の隣接符号化単位は、第1の隣接符号化単位と異なる。ターゲット符号化単位の複数のターゲット画素(pixel)の複数のターゲット予測値が、少なくとも第1の隣接予測方向及び第2の隣接予測方向に従って、第1の隣接符号化単位及び第2の隣接符号化単位から取得される。
別の実施形態によれば、画像符号化におけるイントラ予測のシステムが提供される。本システムは、ターゲット符号化単位のイントラ予測を行うためのものである。本システムは、方向ユニット(direction unit)及び予測ユニット(prediction unit)を含む。方向ユニットは、ターゲット符号化単位に隣接する第1の隣接符号化単位の第1の隣接予測方向を取得し、且つターゲット符号化単位に隣接する第2の隣接符号化単位の第2の隣接予測方向を取得するためのものである。第2の隣接符号化単位は、第1の隣接符号化単位と異なる。予測ユニットは、ターゲット符号化単位の複数のターゲット画素の複数のターゲット予測値を、少なくとも第1の隣接予測方向及び第2の隣接予測方向に従って、第1の隣接符号化単位及び第2の隣接符号化単位から取得するためのものである。
画像符号化におけるイントラ予測を示す。
パノラマ画像を示す。
1つの実施形態による、画像符号化におけるイントラ予測のシステムを示す。
1つの実施形態による、画像符号化におけるイントラ予測の方法のフローチャートを示す。
図4の段階を示す。 図4の段階を示す。
1つの実施形態による段階S134を示す。
別の実施形態による段階S134を示す。
別の実施形態による、画像符号化におけるイントラ予測のシステムを示す。
1つの実施形態による、画像符号化におけるイントラ予測の方法のフローチャートを示す。
図10の段階S230を示す。
別の実施形態による、画像符号化におけるイントラ予測のシステムを示す。
別の実施形態による、画像符号化におけるイントラ予測の方法のフローチャートを示す。
図12の段階S330を示す。
以下の詳細な説明では、説明を目的として、開示される実施形態の十分な理解を提供するために、多数の具体的な詳細が記載されている。しかしながら、これらの具体的な詳細を用いずに、1つ又は複数の実施形態が実施され得ることは明らかであろう。他の例では、よく知られた構造及び装置が、図面を簡略化するために、概略的に示されている。
画像符号化におけるイントラ予測を示す図1を参照されたい。イントラ予測では、ターゲット符号化単位B99内の複数のターゲット画素P99の複数の最初の値V99が提供される。ターゲット符号化単位B99内の複数のターゲット画素P99の複数のターゲット予測値V91が、事前に決定された予測方向D91に従って、複数の隣接画素P91から取得される。ターゲット予測値V91は、予測ブロック(prediction block)とも呼ばれる。
次に、最初の値V99とターゲット予測値V91との差異を計算して、ターゲット符号化単位B99の複数の残差値V92を取得する。残差値V92は、残差ブロック(residual block)とも呼ばれる。図1に示されるように、それぞれの残差値V92のビット数は少ないので、圧縮効率は向上する。
パノラマ画像900を示す図2を参照されたい。パノラマ画像900では、コンテンツの一部が曲がっている。右下隅のブロックB900を参照すると、ブロックB900のテクスチャT900が曲がっている。右上隅のブロックB900を参照すると、事前に決定された予測方向D900が、テクスチャT900と大きく異なるので、圧縮効率が影響を受けることがある。
1つの実施形態による、画像符号化におけるイントラ予測のシステム1000を示す図3を参照されたい。システム1000は、方向ユニット110、予測ユニット130、及び重み付けユニット(weighting unit)140を含む。方向ユニット110は、予測方向を取得するために用いられる。予測ユニット130は、イントラ予測を行うために用いられる。重み付けユニット140は、重み付けを与えるために用いられる。方向ユニット110、予測ユニット130、及び重み付けユニット140のそれぞれは、チップ、回路、回路基板、又は非一時的コンピュータ可読媒体であってよい。システム1000は、複数予測方向技術(muti−prediction direction technology)によって、圧縮効率を向上させることができる。これらの要素の働きが、フローチャートによって示されている。
図4〜図6を参照されたい。図4は、1つの実施形態による、画像符号化におけるイントラ予測の方法のフローチャートを示し、図5及び図6は、図4の各段階を示す。図5に示されるように、システム1000は、ターゲット符号化単位B19のイントラ予測を行う。段階S110において、方向ユニット110は、ターゲット符号化単位B19に隣接する第1の隣接符号化単位B11の第1の隣接予測方向D11を取得する。第1の隣接符号化単位B11は、複数の縦の列及び複数の横の列から構成される。第1の隣接符号化単位B11には、イントラ予測が行われており、第1の隣接予測方向D11は主に、イントラ予測に用いられる。
次に段階S120において、方向ユニット110は、ターゲット符号化単位B19に隣接する第2の隣接符号化単位B12の第2の隣接予測方向D12を取得する。第2の隣接符号化単位B12は、第1の隣接符号化単位B11と異なる。第2の隣接符号化単位B12は、複数の縦の列及び複数の横の列から構成される。第2の隣接符号化単位B12には、イントラ予測が行われており、第2の隣接予測方向D12は主に、イントラ予測に用いられる。
図5に示されるように、第1の隣接符号化単位B11は、ターゲット符号化単位B19の第1の辺L11に位置し、第2の隣接符号化単位B12は、ターゲット符号化単位B19の第2の辺L12に位置する。第1の辺L11は、第2の辺L12に連結されている。
段階S110及び段階S120の順序は、図4の実施形態に限定されていない。1つの実施形態において、段階S120は、段階S110の前に行われてよい。あるいは、段階S110及び段階S120は、同時に行われてよい。
次に段階S130において、予測ユニット130は、ターゲット符号化単位B19の複数のターゲット画素P19の(図3に示されている)複数のターゲット予測値V19を、少なくとも第1の隣接予測方向D11及び第2の隣接予測方向D12に従って、第1の隣接符号化単位B11及び第2の隣接符号化単位B12から取得する。
図4の実施形態において、段階S130は、段階S131、S132、S134を含む。段階S131において、予測ユニット130の第1の予測器(predictor)131が、ターゲット画素P19の複数の第1の隣接予測値V11を、第1の隣接予測方向D11に従って第1の隣接符号化単位B11から取得する。例えば、図6の右部分を参照すると、第1の予測器131は、第1の隣接符号化単位B11の複数の隣接画素P11の画素値を、第1の隣接予測方向D11に沿ってターゲット画素P19にコピーして、ターゲット画素P19の第1の隣接予測値V11を取得してよい。第1の予測器131によってコピーされるコンテンツは、第1の隣接予測方向D11に関連していることに留意されたい。第1の予測器131によってコピーされるコンテンツは、左側に位置する第2の隣接符号化単位B12のコンテンツであってよい。
その後、段階S132において、予測ユニット130の第2の予測器132が、ターゲット画素P19の複数の第2の隣接予測値V12を、第2の隣接予測方向D12に従って第2の隣接符号化単位B12から取得する。例えば、図6の左部分を参照すると、第2の予測器132は、第2の隣接符号化単位B12の複数の隣接画素P12の画素値を、第2の隣接予測方向D12に沿ってターゲット画素P19にコピーして、ターゲット画素P19の第2の隣接予測値V12を取得してよい。第2の予測器132によってコピーされるコンテンツは、第2の隣接予測方向D12に関連していることに留意されたい。第2の予測器132によってコピーされるコンテンツは、右側に位置する第1の隣接符号化単位B11のコンテンツであってよい。
段階S131及び段階S132の順序は、図4の実施形態に限定されていない。1つの実施形態において、段階S132は、段階S131の前に行われてよい。あるいは、段階S131及び段階S132は、同時に行われてよい。
次に段階S134において、予測ユニット130の結合器(combiner)134が、複数の第1の隣接予測値V11のうち1つと、複数の第2の隣接予測値V12のうち1つとを結合することで、ターゲット画素P19の複数のターゲット予測値V19のそれぞれを取得する。例えば、結合器134は、数式(1)に従って、複数のターゲット予測値V19のそれぞれを取得する。
結合器134は、複数の第1の隣接予測値V11のうち1つと複数の第1の重みW11のうち1つとの積、及び複数の第2の隣接予測値V12のうち1つと複数の第2の重みW12のうち1つとの積を合計することで、複数のターゲット予測値V19のそれぞれを取得する。1つの実施形態において、第1の重みW11は、第2の重みW12と異なる。第1の重みW11及び第2の重みW12は、重み付けユニット140によって与えられる。
数式(1)に示されるように、1つのターゲット画素P19に対応する第1の重みW11は、位置、第1の隣接予測値V11、及び第2の隣接予測値V12の関数であり、位置とともに変化する。ターゲット画素P19に対応する第2の重みW12は、位置、第1の隣接予測値V11、及び第2の隣接予測値V12の関数であり、位置とともに変化する。
例えば、図7を参照されたい。図7は、1つの実施形態による段階S134を示す。1つの実施形態において、結合器134は、数式(2)に従って、ターゲット予測値V19を取得する。
数式(2)において、第1の重みW11は、((x+1)/((x+1)+(y+1)))であり、第2の重みW12は、((y+1)/((x+1)+(y+1)))である。すなわち、ターゲット画素P19が第1の隣接符号化単位B11から遠く離れている場合、(y+1)は大きく、第1の重みW11の((x+1)/((x+1)+(y+1)))は小さい。ターゲット画素P19が第1の隣接符号化単位B11に近い場合、(y+1)は小さく、第1の重みW11の((x+1)/((x+1)+(y+1)))は大きい。
ターゲット画素P19が第2の隣接符号化単位B12から遠く離れている場合、(x+1)は大きく、第2の重みW12の((y+1)/((x+1)+(y+1)))は小さい。ターゲット画素P19が第2の隣接符号化単位B12に近い場合、(x+1)は小さく、第2の重みW12の((y+1)/((x+1)+(y+1)))は大きい。
したがって、ターゲット予測値V19を計算する間、ターゲット画素P19が第1の隣接符号化単位B11に近い場合、ターゲット予測値V19は、第1の隣接予測値V11に強く関連しており、ターゲット画素P19が第2の隣接符号化単位B12に近い場合、ターゲット予測値V19は、第2の隣接予測値V12に強く関連している。
さらに、別の実施形態による段階S134を示す図8を参照されたい。第1の隣接予測方向D11に沿って、ターゲット画素P19と第1の隣接符号化単位B11との間の第1の距離ds1が測定される。第2の隣接予測方向D12に沿って、ターゲット画素P19と第2の隣接符号化単位B12との間の第2の距離ds2が測定される。別の実施形態において、結合器134は、数式(3)に従ってターゲット予測値V19を取得する。
数式(3)において、第1の重みW11は、(ds2/(ds1+ds2))であり、第2の重みW12は、(ds1/(ds1+ds2))である。すなわち、ターゲット画素P19と第1の隣接符号化単位B11との間の第1の距離ds1が大きい場合、第1の重みW11の(ds2/(ds1+ds2))は小さく、ターゲット画素P19と第1の隣接符号化単位B11との間の第1の距離ds1が小さい場合、第1の重みW11の(ds2/(ds1+ds2))は大きい。
ターゲット画素P19と第2の隣接符号化単位B12との間の第2の距離ds2が大きい場合、第2の重みW12の(ds1/(ds1+ds2))は小さく、ターゲット画素P19と第2の隣接符号化単位B12との間の第2の距離ds2が小さい場合、第2の重みW12の(ds1/(ds1+ds2))は大きい。
したがって、ターゲット予測値V19を計算する間、ターゲット画素P19が第1の隣接符号化単位B11に近い場合、ターゲット予測値V19は、第1の隣接予測値V11に強く関連しており、ターゲット画素P19が第2の隣接符号化単位B12に近い場合、ターゲット予測値V19は、第2の隣接予測値V12に強く関連している。
第1の隣接予測方向D11及び第2の隣接予測方向D12以外は、事前に決定された予測方向D20がイントラ予測に用いられ得る。図9〜図11を参照されたい。図9は、別の実施形態による、画像符号化におけるイントラ予測のシステム2000を示し、図10は、1つの実施形態による、画像符号化におけるイントラ予測の方法のフローチャートを示し、図11は、図10の段階S230を示す。段階S210、S220において、方向ユニット210は、第1の隣接予測方向D11及び第2の隣接予測方向D12を取得する。段階S210、S220は、段階S110、S120に類似しており、これらの類似点については、ここで繰り返すことはしない。
段階S230は、段階S233、S231、S232、S234を含む。段階S233において、予測ユニット230の第3の予測器233が、ターゲット画素P19の複数の事前に決定された予測値V20を、事前に決定された予測方向D20に従って、第1の隣接符号化単位B11及び/又は第2の隣接符号化単位B12から取得する。事前に決定された予測方向D20は、画像全体に事前設定されており、計算の間は変化しない。例えば、図11の上部分を参照すると、第3の予測器233は、第1の隣接符号化単位B11及び/又は第2の隣接符号化単位B12の画素値を、事前に決定された予測方向D20に沿ってターゲット画素P19にコピーして、ターゲット画素P19の事前に決定された予測値V20を取得してよい。
次に段階S231において、予測ユニット230の第1の予測器231が、ターゲット画素P19の第1の隣接予測値V11を、第1の隣接予測方向D11に従って第1の隣接符号化単位B11から取得する。例えば、図11の右部分を参照すると、第1の予測器231は、第1の隣接符号化単位B11の隣接画素P11の画素値を、第1の隣接予測方向D11に沿ってターゲット画素P19にコピーして、第1の隣接予測値V11を取得することができる。
次に段階S232において、予測ユニット230の第2の予測器が、ターゲット画素P19の第2の隣接予測値V12を、第2の隣接予測方向D12に従って第2の隣接符号化単位B12から取得する。例えば、図11の左部分を参照すると、第2の予測器232は、第2の隣接符号化単位B12の隣接画素P12の画素値を、第2の隣接予測方向D12に従ってターゲット画素P19にコピーして、第2の隣接予測値V12を取得してよい。
その後、段階S234において、予測ユニット230の結合器234が、複数の事前に決定された予測値V20のうち1つ、複数の第1の隣接予測値V11のうち1つ、及び複数の第2の隣接予測値V12のうち1つを結合することで、ターゲット画素P19の複数のターゲット予測値V29のそれぞれを取得する。例えば、結合器234は、数式(4)に従ってターゲット予測値V29を取得する。
結合器234は、複数の第1の隣接予測値V11のうち1つと複数の第1の重みW21のうち1つとの積、複数の第2の隣接予測値V12のうち1つと複数の第2の重みW22のうち1つとの積、及び複数の事前に決定された予測値V20のうち1つと複数の第3の重みW23のうち1つとの積を合計することで、複数のターゲット予測値V29のそれぞれを取得する。第1の重みW21、第2の重みW22、及び第3の重みW23は異なる。第1の重みW21、第2の重みW22、及び第3の重みW23は、重み付けユニット240によって与えられる。
数式(4)に示されるように、1つのターゲット画素P19に対応する第1の重みW21は、位置、第1の隣接予測値V11、第2の隣接予測値V12、及び事前に決定された予測値V20の関数であり、位置とともに変化する。1つのターゲット画素P19に対応する第2の重みW22は、位置、第1の隣接予測値V11、第2の隣接予測値V12、及び事前に決定された予測値V20の関数であり、位置とともに変化する。1つのターゲット画素P19に対応する第3の重みW23は、位置、第1の隣接予測値V11、第2の隣接予測値V12、及び事前に決定された予測値V20の関数であり、位置とともに変化する。
すなわち、第1の隣接予測方向D11及び第2の隣接予測方向D12以外では、予測ユニット230は、事前に決定された予測方向D20に従ってイントラ予測を行うことができる。
さらに、別の実施形態において、この組み合わせ以外では、選択によってイントラ予測を行うことができる。図12〜図14を参照されたい。図12は、別の実施形態による、画像符号化におけるイントラ予測のシステム3000を示し、図13は、別の実施形態による、画像符号化におけるイントラ予測の方法のフローチャートを示し、図14は、図12の段階S330を示す。段階S310、S320において、方向ユニット310が、第1の隣接予測方向D11及び第2の隣接予測方向D12を取得する。段階S310、S320は、段階S110、S120に類似している。
段階S330は、段階S331、S332、S334を含む。段階S331において、予測ユニット330の第1の予測器331が、ターゲット画素P19の第1の隣接予測値V11を、第1の隣接予測方向D11に従って第1の隣接符号化単位B11から取得する。
次に段階S332において、予測ユニット330の第2の予測器332が、ターゲット画素P19の第2の隣接予測値V12を、第2の隣接予測方向D12に従って第2の隣接符号化単位B12から取得する。
その後、段階S334において、予測ユニット230の選択器(selector)334が、ターゲット画素P19のターゲット予測値V39の一部として、第1の隣接予測値V11のいくつかを選択し、ターゲット画素P19のターゲット予測値V39の別の一部として、第2の隣接予測値V12のいくつかを選択する。例えば、選択器334は、数式(5)に従ってターゲット予測値V39を取得する。
ターゲット画素P19が第1の隣接符号化単位B11に近い場合、選択器334は、第1の隣接予測値V11を(図12に示される)ターゲット予測値V39として選択し、ターゲット画素P19が第2の隣接符号化単位B12に近い場合、選択器334は、第2の隣接予測値V12をターゲット予測値V39として選択し、ターゲット画素P19が傾斜軸L1に位置する場合、選択器334は、第1の隣接予測値V11と第2の隣接予測値V12との平均をターゲット予測値V39として選択する。
すなわち、この組み合わせ以外では、予測ユニット330は、選択によってイントラ予測を行うことができる。
上述した実施形態によれば、将来のニーズを満たすために、複数予測方向技術がイントラ予測に用いられ、パノラマ画像の圧縮効率を向上させる。
開示された実施形態に対して様々な変更及び変形が行われ得ることは、当業者には明らかであろう。本明細書及び実施例は、例示的であるとしかみなされず、真の開示範囲は、以下の特許請求の範囲及びそれらの均等物によって示されることが意図されている。

Claims (24)

  1. ターゲット符号化単位のイントラ予測を行うための、画像符号化におけるイントラ予測の方法であって、
    前記ターゲット符号化単位に隣接する第1の隣接符号化単位の第1の隣接予測方向を取得する段階と、
    前記ターゲット符号化単位に隣接する第2の隣接符号化単位の第2の隣接予測方向を取得する段階であって、前記第2の隣接符号化単位は前記第1の隣接符号化単位と異なる、段階と、
    前記ターゲット符号化単位の複数のターゲット画素の複数のターゲット予測値を、少なくとも前記第1の隣接予測方向及び前記第2の隣接予測方向に従って、前記第1の隣接符号化単位及び前記第2の隣接符号化単位から取得する、段階と
    を備える方法。
  2. 前記ターゲット符号化単位の前記複数のターゲット予測値を取得する前記段階は、
    前記複数のターゲット画素の複数の第1の隣接予測値を、前記第1の隣接予測方向に従って前記第1の隣接符号化単位から取得する段階と、
    前記複数のターゲット画素の複数の第2の隣接予測値を、前記第2の隣接予測方向に従って前記第2の隣接符号化単位から取得する段階と、
    前記複数のターゲット画素の前記複数のターゲット予測値のそれぞれを、前記複数の第1の隣接予測値のうち1つと前記複数の第2の隣接予測値の1つとを結合することで取得する段階と
    を含む、請求項1に記載の方法。
  3. 前記複数のターゲット画素の前記複数のターゲット予測値のそれぞれを、前記複数の第1の隣接予測値のうち1つと前記複数の第2の隣接予測値のうち1つとを結合することで取得する前記段階において、前記複数のターゲット予測値のそれぞれは、前記複数の第1の隣接予測値のうち1つと複数の第1の重みのうち1つとの積、及び前記複数の第2の隣接予測値のうち1つと複数の第2の重みのうち1つとの積を合計することで取得される、請求項2に記載の方法。
  4. 前記複数のターゲット画素に対応する前記複数の第1の重みが必ずしも全て同一ではなく、前記複数のターゲット画素に対応する前記複数の第2の重みが必ずしも全て同一ではない、請求項3に記載の方法。
  5. 前記ターゲット符号化単位の前記複数のターゲット予測値を取得する前記段階は、
    前記複数のターゲット画素の複数の事前に決定された予測値を、事前に決定された予測方向に従って、前記第1の隣接符号化単位又は前記第2の隣接符号化単位から取得する段階と、
    前記複数のターゲット画素の複数の第1の隣接予測値を、前記第1の隣接予測方向に従って前記第1の隣接符号化単位から取得する段階と、
    前記複数のターゲット画素の複数の第2の隣接予測値を、前記第2の隣接予測方向に従って前記第2の隣接符号化単位から取得する段階と、
    前記複数のターゲット画素の前記複数のターゲット予測値のそれぞれを、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つを結合することで取得する段階と
    を含む、請求項1から4のいずれか一項に記載の方法。
  6. 前記複数のターゲット画素の前記複数のターゲット予測値のそれぞれを、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つを結合することで取得する前記段階において、前記複数のターゲット予測値のそれぞれは、前記複数の事前に決定された予測値のうち1つと複数の第3の重みのうち1つとの積、前記複数の第1の隣接予測値のうち1つと複数の第1の重みのうち1つとの積、及び前記複数の第2の隣接予測値のうち1つと複数の第2の重みのうち1つとの積を合計することで取得される、請求項5に記載の方法。
  7. 前記複数のターゲット画素に対応する前記複数の第3の重みが必ずしも全て同一ではなく、前記複数のターゲット画素に対応する前記複数の第1の重みが必ずしも全て同一ではなく、前記複数のターゲット画素に対応する前記複数の第2の重みが必ずしも全て同一ではない、請求項6に記載の方法。
  8. 前記複数の第3の重みのそれぞれは、前記複数のターゲット画素のうち1つの位置に関連しており、前記複数の第1の重みのそれぞれは、前記複数のターゲット画素のうち1つの前記位置に関連しており、前記複数の第2の重みのそれぞれは、前記複数のターゲット画素のうち1つの前記位置に関連している、請求項6又は7に記載の方法。
  9. 前記複数の第3の重みのそれぞれは、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つに関連しており、前記複数の第1の重みのそれぞれは、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つに関連しており、前記複数の第2の重みのそれぞれは、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つに関連している、請求項6から8のいずれか一項に記載の方法。
  10. 前記ターゲット符号化単位の前記複数のターゲット予測値を取得する前記段階は、
    前記複数のターゲット画素の複数の第1の隣接予測値を、前記第1の隣接予測方向に従って前記第1の隣接符号化単位から取得する段階と、
    前記複数のターゲット画素の複数の第2の隣接予測値を、前記第2の隣接予測方向に従って前記第2の隣接符号化単位から取得する段階と、
    前記複数の第1の隣接予測値のうちいくつかを前記複数のターゲット予測値の一部として選択し、前記複数の第2の隣接予測値のうちいくつかを前記複数のターゲット予測値の別の一部として選択する段階と
    を含む、請求項1から9のいずれか一項に記載の方法。
  11. 前記第1の隣接符号化単位は、前記ターゲット符号化単位の第1の辺に位置し、前記第2の隣接符号化単位は、前記ターゲット符号化単位の第2の辺に位置する、請求項1から10のいずれか一項に記載の方法。
  12. 前記第1の辺は前記第2の辺に連結される、請求項11に記載の方法。
  13. ターゲット符号化単位のイントラ予測を行うための、画像符号化におけるイントラ予測のシステムであって、
    前記ターゲット符号化単位に隣接する第1の隣接符号化単位の第1の隣接予測方向を取得し、前記ターゲット符号化単位に隣接する第2の隣接符号化単位の第2の隣接予測方向を取得するための方向ユニットであって、前記第2の隣接符号化単位は前記第1の隣接符号化単位と異なる、方向ユニットと、
    前記ターゲット符号化単位の複数のターゲット画素の複数のターゲット予測値を、少なくとも前記第1の隣接予測方向及び前記第2の隣接予測方向に従って、前記第1の隣接符号化単位及び前記第2の隣接符号化単位から取得するための予測ユニットと
    を備えるシステム。
  14. 前記予測ユニットは、
    前記複数のターゲット画素の複数の第1の隣接予測値を、前記第1の隣接予測方向に従って前記第1の隣接符号化単位から取得するための第1の予測器と、
    前記複数のターゲット画素の複数の第2の隣接予測値を、前記第2の隣接予測方向に従って前記第2の隣接符号化単位から取得するための第2の予測器と、
    前記複数のターゲット画素の前記複数のターゲット予測値のそれぞれを、前記複数の第1の隣接予測値のうち1つと前記複数の第2の隣接予測値のうち1つとを結合することで取得するための結合器と
    を含む、請求項13に記載のシステム。
  15. 複数の第1の重み及び複数の第2の重みを前記複数のターゲット画素に与えるための重み付けユニットをさらに備え、
    前記結合器は、前記複数のターゲット予測値のそれぞれを、前記複数の第1の隣接予測値のうち1つと複数の第1の重みのうち1つとの積、及び前記複数の第2の隣接予測値のうち1つと複数の第2の重みのうち1つとの積を合計することで取得する、請求項14に記載のシステム。
  16. 前記複数のターゲット画素に対応する前記複数の第1の重みが必ずしも全て同一ではなく、前記複数のターゲット画素に対応する前記複数の第2の重みが必ずしも全て同一ではない、請求項15に記載のシステム。
  17. 前記予測ユニットは、
    前記複数のターゲット画素の複数の第1の隣接予測値を、前記第1の隣接予測方向に従って前記第1の隣接符号化単位から取得するための第1の予測器と、
    前記複数のターゲット画素の複数の第2の隣接予測値を、前記第2の隣接予測方向に従って前記第2の隣接符号化単位から取得するための第2の予測器と、
    前記複数のターゲット画素の複数の事前に決定された予測値を、事前に決定された予測方向に従って、前記第1の隣接符号化単位又は前記第2の隣接符号化単位から取得するための第3の予測器と、
    前記複数のターゲット画素の前記複数のターゲット予測値のそれぞれを、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つを結合することで取得するための結合器と
    を含む、請求項13から16のいずれか一項に記載のシステム。
  18. 複数の第1の重み、複数の第2の重み、及び複数の第3の重みを前記複数のターゲット画素に与えるための重み付けユニットをさらに備え、
    前記結合器は、前記複数のターゲット予測値のそれぞれを、前記複数の事前に決定された予測値のうち1つと複数の第3の重みのうち1つとの積、前記複数の第1の隣接予測値のうち1つと複数の第1の重みのうち1つとの積、及び前記複数の第2の隣接予測値のうち1つと複数の第2の重みのうち1つとの積を合計することで取得する、請求項17に記載のシステム。
  19. 前記複数のターゲット画素に対応する前記複数の第3の重みが必ずしも全て同一ではなく、前記複数のターゲット画素に対応する前記複数の第1の重みが必ずしも全て同一ではなく、前記複数のターゲット画素に対応する前記複数の第2の重みが必ずしも全て同一ではない、請求項18に記載のシステム。
  20. 前記複数の第3の重みのそれぞれは、前記複数のターゲット画素のうち1つの位置に関連しており、前記複数の第1の重みのそれぞれは、前記複数のターゲット画素のうち1つの前記位置に関連しており、前記複数の第2の重みのそれぞれは、前記複数のターゲット画素のうち1つの前記位置に関連している、請求項18又は19に記載のシステム。
  21. 前記複数の第3の重みのそれぞれは、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つに関連しており、前記複数の第1の重みのそれぞれは、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つに関連しており、前記複数の第2の重みのそれぞれは、前記複数の事前に決定された予測値のうち1つ、前記複数の第1の隣接予測値のうち1つ、及び前記複数の第2の隣接予測値のうち1つに関連している、請求項18から20のいずれか一項に記載のシステム。
  22. 前記予測ユニットは、
    前記複数のターゲット画素の複数の第1の隣接予測値を、前記第1の隣接予測方向に従って前記第1の隣接符号化単位から取得するための第1の予測器と、
    前記複数のターゲット画素の複数の第2の隣接予測値を、前記第2の隣接予測方向に従って前記第2の隣接符号化単位から取得するための第2の予測器と、
    前記複数の第1の隣接予測値のいくつかを前記複数のターゲット予測値の一部として選択し、前記複数の第2の隣接予測値のいくつかを前記複数のターゲット予測値の別の一部として選択するための選択器と
    を含む、請求項16から21のいずれか一項に記載のシステム。
  23. 前記第1の隣接符号化単位は、前記ターゲット符号化単位の第1の辺に位置し、前記第2の隣接符号化単位は、前記ターゲット符号化単位の第2の辺に位置する、請求項13から22のいずれか一項に記載のシステム。
  24. 前記第1の辺が前記第2の辺に連結される、請求項23に記載のシステム。
JP2018089551A 2017-07-05 2018-05-07 画像符号化におけるイントラ予測の方法及びシステム Pending JP2019017062A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762528545P 2017-07-05 2017-07-05
US62/528,545 2017-07-05
US15/852,392 2017-12-22
US15/852,392 US20190014324A1 (en) 2017-07-05 2017-12-22 Method and system for intra prediction in image encoding

Publications (1)

Publication Number Publication Date
JP2019017062A true JP2019017062A (ja) 2019-01-31

Family

ID=62874650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018089551A Pending JP2019017062A (ja) 2017-07-05 2018-05-07 画像符号化におけるイントラ予測の方法及びシステム

Country Status (5)

Country Link
US (1) US20190014324A1 (ja)
EP (1) EP3425916A1 (ja)
JP (1) JP2019017062A (ja)
CN (1) CN109218723A (ja)
TW (1) TWI664854B (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101292091B1 (ko) * 2010-10-26 2013-08-08 (주)휴맥스 적응적 화면내 예측 부호화 및 복호화 방법
ES2874955T3 (es) * 2011-10-18 2021-11-05 Lg Electronics Inc Método y dispositivo para la codificación y descodificación de una imagen y medio legible por ordenador
JP2014131162A (ja) * 2012-12-28 2014-07-10 Nippon Telegr & Teleph Corp <Ntt> イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
EP3078196B1 (en) * 2013-12-06 2023-04-05 MediaTek Inc. Method and apparatus for motion boundary processing
US10142626B2 (en) * 2014-10-31 2018-11-27 Ecole De Technologie Superieure Method and system for fast mode decision for high efficiency video coding
CN106162197B (zh) * 2016-08-31 2019-07-12 北京奇艺世纪科技有限公司 一种视频编码帧内预测方法和装置

Also Published As

Publication number Publication date
TWI664854B (zh) 2019-07-01
US20190014324A1 (en) 2019-01-10
EP3425916A1 (en) 2019-01-09
TW201907723A (zh) 2019-02-16
CN109218723A (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
JP7313816B2 (ja) 画像予測方法および関連装置
JP7252282B2 (ja) 画像予測方法および関連装置
KR102390695B1 (ko) 픽처 예측 방법 및 픽처 예측 장치
KR20200060546A (ko) 영상 데이터 부호화/복호화 방법 및 장치
KR102059066B1 (ko) 모션 벡터 필드 코딩 방법 및 디코딩 방법, 및 코딩 및 디코딩 장치들
US10230953B2 (en) Method for dividing prediction block, encoding device, and decoding device
JP2015530828A5 (ja)
KR101965746B1 (ko) Vr 콘텐츠 스트리밍 서버 및 방법
JP2024069559A (ja) 画像データ符号化/復号化方法及び装置
Liao et al. Efficient inter-prediction depth coding algorithm based on depth map segmentation for 3D-HEVC
JP2005101720A (ja) 部分画像符号化装置
US20150016528A1 (en) Apparatus and method for fast multiview video coding
WO2014114601A1 (en) Interpolation method and corresponding device
JP2019017062A (ja) 画像符号化におけるイントラ予測の方法及びシステム
JP2016119522A (ja) 画像処理装置および画像処理方法
WO2020260766A1 (en) Method, apparatus, computer program product for storing motion vectors for video encoding
JP4136801B2 (ja) 画素処理回路
CN116320443A (zh) 视频图像处理方法、装置、计算机设备和存储介质
JP2013085157A (ja) 画像処理装置、画像処理方法および画像処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200327

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200623