JP2019515606A - イントラ予測動画符号化方法および装置 - Google Patents
イントラ予測動画符号化方法および装置 Download PDFInfo
- Publication number
- JP2019515606A JP2019515606A JP2018560660A JP2018560660A JP2019515606A JP 2019515606 A JP2019515606 A JP 2019515606A JP 2018560660 A JP2018560660 A JP 2018560660A JP 2018560660 A JP2018560660 A JP 2018560660A JP 2019515606 A JP2019515606 A JP 2019515606A
- Authority
- JP
- Japan
- Prior art keywords
- coding block
- intra
- frame prediction
- block
- pixel row
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000004891 communication Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 10
- 238000013277 forecasting method Methods 0.000 claims 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 10
- 239000013598 vector Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Abstract
Description
動画像符号化の間に、現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行するステップ。
前記双方向予測が、更に、動画像符号化の間に、前記現在の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を実行し、重み付けするステップを備える。
前記現在の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測が、前記現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と前記現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて実行され、この場合に、対応する画素列または画素行のいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて前記左方向と上方向のイントラフレーム予測が実行され、
前記現在の符号化ブロックにおいて前記右方向と下方向のイントラフレーム予測が、前記現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と前記現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて実行され、この場合に、対応する画素列または画素行のいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて前記右方向と下方向のイントラフレーム予測が実行され、
前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測の両方が実行されている予測を重み付けする。
水平方向に隣接した2つの符号化ブロックにおいて動画像符号化が同時に実行されるとき、当該2つ符号化ブロックの中の左から右への第1の符号化ブロックが第1の符号化ブロックであり、当該2つ符号化ブロックの中の左から右への第2の符号化ブロックが第2の符号化ブロックであり、
前記第1の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と前記第1の符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて前記第1の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記第2の符号化ブロックの左端の画素列に基づいて前記右方向と下方向のイントラフレーム予測を実行し、前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けし、
前記第2の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と前記第1の符号化ブロックの右端の画素列に基づいて前記第2の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記右方向と下方向のイントラフレーム予測を実行しない。
垂直方向と水平方向に隣接した4つの符号化ブロックにおいて動画像符号化を同時に実行するとき、左上の符号化ブロックがA符号化ブロックであり、右上の符号化ブロックがB符号化ブロックであり、左下の符号化ブロックがC符号化ブロックであり、右下の符号化ブロックがD符号化ブロックであり、
前記A符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と前記A符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて前記A符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記B符号化ブロックの左端の画素列と前記C符号化ブロックの上端の画素行に基づいて前記A符号化ブロックにおいて前記右方向と下方向のイントラフレーム予測を実行し、前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けし、
前記B符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と前記A符号化ブロックの右端の画素列に基づいて前記B符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記D符号化ブロックの上端の画素行に基づいて前記B符号化ブロックにおいて前記右方向と下方向のイントラフレーム予測を実行し、前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けし、
前記A符号化ブロックの下端の画素行と前記C符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて前記C符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記D符号化ブロックの左端の画素列に基づいて前記C符号化ブロックにおいて前記右方向と下方向のイントラフレーム予測を実行し、前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けし、
前記B符号化ブロックの下端の画素行と前記C符号化ブロックの右端の画素列に基づいて前記D符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記右方向と下方向のイントラフレーム予測を実行しない。
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測を実行するために使用される左方向と上方向のイントラフレーム予測ユニットと、
前記現在の符号化ブロックにおいて右方向と下方向のイントラフレーム予測を実行するために使用される右方向と下方向のイントラフレーム予測ユニット。
前記現在の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けするために使用される重み付けユニット。
前記左方向と上方向のイントラフレーム予測ユニットが、更に、前記現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と前記現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて前記左方向と上方向のイントラフレーム予測を実行するために使用され、この場合に、対応する画素列または画素行のいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて前記左方向と上方向のイントラフレーム予測が実行され、
前記右方向と下方向のイントラフレーム予測ユニットが、更に、前記現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と前記現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて前記右方向と下方向のイントラフレーム予測を実行するために使用され、この場合に、対応する画素列または画素行のいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて前記右方向と下方向のイントラフレーム予測が実行される。
前記メモリが、コンピュータプログラムを記憶するために使用され、
前記プロセサが、前記メモリに記憶されているプログラムを実行することによって上述した動画像符号化イントラフレーム予測方法を実行するために使用される。
本発明の実施形態で提供される動画像符号化イントラフレーム予測方法は、以下に記載される。
本実施形態に係る方法は、次ぎのステップを有する。:
ステップ101:動画像符号化の間に、現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測を実行する。
ステップ102:現在の符号化ブロックにおいて右方向と下方向のイントラフレーム予測を含む双方向予測を実行する。
ステップ103:符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を重み付けする。
現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とが両方とも存在するとき、現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて左方向と上方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とのいずれか一方が存在しないとき、存在する画素行または画素列に基づいて左方向と上方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とが両方とも存在するとき、現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて右方向と下方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とのいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて右方向と下方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行する上記ステップは、以下を含むことができる。:
第1の符号化ブロックに対して、第1の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と第1の符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;第2の符号化ブロックの左端の画素列に基づいて右方向と下方向のイントラフレーム予測が実行される。;
第2の符号化ブロックに対して、第2の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と第1の符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行される。
図3に示すように、これらの水平方向に隣接した2つの符号化ブロックに対して同時に動画像符号化を実行するとき、左から右への第1の符号化ブロックが第1の符号化ブロックであり、左から右への第2の符号化ブロックが第2の符号化ブロックである。;T0は第1の符号化ブロックと第2の符号化ブロックの上方に隣接したブロックの下端の画素行であり、T0は本実施形態における既知の参照画素行である。;L0は第1の画素ブロックの左に隣接した符号化ブロックの右端の画素列であり、L0は本実施形態における既知の参照画素列である。;R1は第1の符号化ブロックの右端の画素列である。;L2は第2の符号化ブロックの左端の画素列である。
この場合、第1の符号化ブロックを符号化するとき、上方に隣接した符号化ブロックの下端の画素行T0と第1の符号化ブロックの左に隣接した符号化ブロックの右端の画素列L0に基づいて左方向と上方向のイントラフレーム予測が実行される。;第2の符号化ブロックの左端の画素列L2に基づいて右方向と下方向のイントラフレーム予測が実行される。そして、左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測が重み付けされる。
第2の符号化ブロックを符号化するとき、第2の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行T0と第1の符号化ブロックの右端の画素列R1に基づいて左方向と上方向のイントラフレーム予測が実行される。;右方向と下方向のイントラフレーム予測は実行されない。
式1:R1=P(L0, T0, dir0)*q + (1-q)*P(L2, dir0) + rsdl0
式2:L2=P(R1, T0, dir1)+rsdl1
ここで、Pはイントラフレーム予測演算を示す。dir0は現在の予測方向である。P(L0,T0,dir0)はdir0の方向にL0とT0を参照してR1のイントラフレーム予測ベクトルを生成することを意味する。
P(L2,dir0)はdir0の方向にL2を参照してR1の予測を生成することを意味する。qは、0より大きく、1より小さい定数であり、重み付け予測を示す。すなわち、R1の予測は既知のL0とT0および右のL2の重み付け予測から得られる。rsdl0とrsdl1は、残差ベクトルであり、予測された第1の符号化ブロックから第1の符号化ブロックを減算することによって得られる残差に、DCT変換、量子化、逆量子化、および逆DCT変換を実行することによって得られる。一方、L2の予測はR1とT0に従って生成される。上記2つの式には2つのみ未知のベクトル、すなわちR1とL2がある。式1の中のL2を式2で置き換えて、その式を解くことによってR1を解くことができる。それから、第2の符号化ブロックをR1とT0に従って得ることができ、それと同時にL2が得られ、それから第1の符号化ブロックが解かれる。
第2の符号化ブロックの元の画素ブロックからそのイントラフレーム予測ブロックを減算することによって得られる差に変換−量子化−逆量子化−逆変換を実行して再構成残差ブロックを取得し、それからその再構成残差ブロックの左端の列を取ることによってrsdl1が得られる。再構成残差ブロックの左端の列がrsdl1である。
第1の式におけるP(L0,T0,dir0)は方向dir0に従ってL0とT0によって生成された第1の符号化ブロックの予測の右端の列を示し、P(L2,dir0)はL2と方向dir0によって生成された予測の右端の列を示す。P(R1,T0,dir1)は方向dir1に従ってR1とT0によって生成された第2の符号化ブロックの予測の左端の列を示す。
最初の符号化では、左と上方の隣接した行と列、および元の2つの現在の画素ブロック、すなわち、第1の符号化ブロックと第2の符号化ブロックのみがある。このとき、最後以外のブロックに対して実際には双方向予測を実行することが必要とされるので、第1の符号化ブロックと第2の符号化ブロックの予測は直接生成される。ここで、最初に予測を生成するとき、最も左と上方の行と列に加えて、全ての残りは元の画素を使って予測を生成し、それから重み付けし、その予測から元の画素を減算することによって取得される差に変換−量子化−逆量子化−逆変換を実行して再構成された残差、すなわちrsdlを得る。
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行する上記ステップは、以下を含むことができる。:
A符号化ブロックに対して、A符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とA符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;B符号化ブロックの左端の画素列とC符号化ブロックの上端の画素行に基づいて右方向と下方向のイントラフレーム予測が実行される。;
B符号化ブロックに対して、B符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とA符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;D符号化ブロックの上端の画素行に基づいて右方向と下方向のイントラフレーム予測が実行される。;
C符号化ブロックに対して、A符号化ブロックの下端の画素行とC符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;D符号化ブロックの左端の画素列に基づいて右方向と下方向のイントラフレーム予測が実行される。;
D符号化ブロックに対して、B符号化ブロックの下端の画素行とC符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行される。
図4に示すように、垂直方向と水平方向に隣接したこれらの4つの符号化ブロックに対する動画像符号化を同時に実行するとき、左上の符号化ブロックがA符号化ブロックであり、右上の符号化ブロックがB符号化ブロックであり、左下の符号化ブロックがC符号化ブロックであり、そして右下の符号化ブロックがD符号化ブロックである。
T0はA符号化ブロックとB符号化ブロックの上方に隣接したブロックの下端の画素行であり、T0は本実施形態における既知の参照画素行である。;L0はA画素ブロックとC画素ブロックの左に隣接した符号化ブロックの右端の画素列であり、L0は本実施形態における既知の参照画素列である。;R1はA符号化ブロックの右端の画素列である。;B1はA符号化ブロックの下端の画素行である。;L2はB符号化ブロックの左端の画素列である。;B2はB符号化ブロックの下端の画素行である。;T3はC符号化ブロックの上端の画素行である。;R3はC符号化ブロックの右端の画素列である。;L4はD符号化ブロックの左端の画素列である;T4はD符号化ブロックの上端の画素行である。
B符号化ブロックを符号化するとき、その上方に隣接した符号化ブロックの下端の画素行T0とA符号化ブロックの右端の画素列R1に基づいて左方向と上方向のイントラフレーム予測が実行される。;そして、D符号化ブロックの上端の画素行T4に基づいて右方向と下方向のイントラフレーム予測が実行される。そして、左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測が重み付けされる。
C符号化ブロックを符号化するとき、A符号化ブロックの下端の画素行B1とその左に隣接した符号化ブロックの右端の画素列L0に基づいて左方向と上方向のイントラフレーム予測が実行される。;そして、D符号化ブロックの左端の画素列L4に基づいて右方向と下方向のイントラフレーム予測が実行される。そして、左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測が重み付けされる。
D符号化ブロックを符号化するとき、B符号化ブロックの下端の画素行B2とC符号化ブロックの右端の画素列R3に基づいて左方向と上方向のイントラフレーム予測が実行される。;右方向と下方向のイントラフレーム予測は実行されない。
式1:B1=P(L0, T0, dir2)*q2 + (1-q2)*P(T3, L2, dir2) + rsdl2
式2:R1=P(L0, T0, dir2)*p2 + (1-p2)*P(T3, L2, dir2) + rsdl3
ここで、rsdl2とrsdl3は残差ベクトルである。A符号化ブロックに対して、1つのあるdir2の双方向予測が得られ、その予測ブロックから元のブロックを減算することによって得られる残差ブロックに、DCT−量子化−逆量子化−IDCT演算を実行して再構成された残差ブロックを得て、それから再構成された残差ブロックの下端の行、すなわちrsdl2を取り、再構成された残差ブロックの右端の列、すなわちrsdl3を取る。P(L0,T0,dir2)自体は方向dir2に従ってL0とT0によって生成されたA符号化ブロックの予測を示すが、本実施形態の式1において、それは実際には方向dir2に従ってL0とT0によって生成されたA符号化ブロックの予測から取られた下端の行を示す。一方、式2におけるP(L0,T0,dir2)は方向dir2に従ってL0とT0によって生成されたA符号化ブロックの予測から取られた右端の列を示す。
式3:L2=P(R1, T0, dir3)*q3 + (1-q3)*P(T4, dir3)+rsdl4
式4:B2=P(R1, T0, dir3)*p3 + (1-p3)*P(T4, dir3)+rsdl5
式5:T3=P(L0, B1, dir4)*q4 + (1-q4)*P(L4, dir4)+rsdl6
式6:R3=P(L0, B1, dir4)*p4 + (1-p4)*P(L4, dir4)+rsdl7
式7:T4=P(B2, R3, dir5)+rsdl8
式8:L4=P(B2, R3, dir5)+rsdl9
本実施形態には、8つのベクトル式があり、8つの未知のベクトルがある。それで、式は解かれることができる。
最初の符号化では、左と上方の隣接した行と列、および元の4つの現在の画素ブロック、すなわち、A符号化ブロック、B符号化ブロック、C符号化ブロック、およびD符号化ブロックのみがある。このとき、最後以外のブロックに対して実際には双方向予測を実行することが必要とされるので、A符号化ブロック、B符号化ブロック、C符号化ブロック、およびD符号化ブロックの予測は直接生成される。ここで、最初に予測を生成するとき、最も左と上方の行と列に加えて、全ての残りは元の画素を使って予測を生成し、それから重み付けし、その予測から元の画素を減算することによって取得される差に変換−量子化−逆量子化−逆変換を実行して再構成された残差、すなわちrsdlを得る。
本実施形態に係る動画像符号化イントラフレーム予測装置1は、左方向と上方向のイントラフレーム予測ユニット2、右方向と下方向のイントラフレーム予測ユニット3、および重み付けユニット4を含む。この場合において、:
左方向と上方向のイントラフレーム予測ユニット2は、現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測を実行するために使用される。:例えば、現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とが両方とも存在するときには、現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて左方向と上方向のイントラフレーム予測を実行する。;その場合、対応する画素列または画素行のいずれか一方が存在しないときには、存在する画素行または画素列のみに基づいて左方向と上方向のイントラフレーム予測が実行され、;対応する画素列も対応する画素行も存在しないときには、左方向と上方向のイントラフレーム予測は実行されない。;
右方向と下方向のイントラフレーム予測ユニット3は、現在の符号化ブロックにおいて右方向と下方向のイントラフレーム予測を実行するために使用される。:例えば、現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とが両方とも存在するときには、現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて右方向と下方向のイントラフレーム予測を実行する。;その場合、対応する画素列または画素行のいずれか一方が存在しないときには、存在する画素行または画素列のみに基づいて右方向と下方向のイントラフレーム予測が実行され、;対応する画素列も対応する画素行も存在しないときには、右方向と下方向のイントラフレーム予測は実行されない。
重み付けユニット4は、左方向と上方向のイントラフレーム予測ユニット2によって出力される左方向と上方向のイントラフレーム予測の予測結果と、右方向と下方向のイントラフレーム予測ユニット3によって出力される右方向と下方向のイントラフレーム予測結果とを重み付けするために使用される。
メモリ603は、コンピュータプログラムを記憶するために使用される。;
プロセサ601は、メモリ603に記憶されているプログラムを実行することによって次のステップを実行するために使用される。:
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行し、予測結果を得るステップ;
得られた予測結果を重み付けするステップ。
通信インタフェースは、上述した電子装置と他の装置との間の通信のために使用される。
メモリは、RAM(random access memory)を含んでもよいし、または少なくとも1つのディスクメモリのようなNVM(non−volatile memory)を含んでもよい。また、任意には、メモリは上述したプロセサから離れて置かれた少なくとも1つの記憶装置であってよい。
上述したプロセサは、CPU(Central Processing Unit)、NP(Network Processor)などを含む汎用プロセサであることができる。;また、それは、DSP(Digital Signal Processing)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)または他のプログラマブル論理デバイス、ディスクリートゲート、またはトランジスタ論理デバイス、ディスクリートハードコンポーネントであることができる。
現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とが両方とも存在するとき、現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて左方向と上方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とのいずれか一方が存在しないとき、存在する画素行または画素列に基づいて左方向と上方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とが両方とも存在するとき、現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて右方向と下方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とのいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて右方向と下方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を実行する上記ステップは、以下を含むことができる。:
第1の符号化ブロックに対して、第1の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と第1の符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;第2の符号化ブロックの左端の画素列に基づいて右方向と下方向のイントラフレーム予測が実行される。;
第2の符号化ブロックに対して、第2の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と第1の符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行される。
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行する上記ステップは、以下を含むことができる。:
A符号化ブロックに対して、A符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とA符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;B符号化ブロックの左端の画素列とC符号化ブロックの上端の画素行に基づいて右方向と下方向のイントラフレーム予測が実行される。;
B符号化ブロックに対して、B符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とA符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;D符号化ブロックの上端の画素行に基づいて右方向と下方向のイントラフレーム予測が実行される。;
C符号化ブロックに対して、A符号化ブロックの下端の画素行とC符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;D符号化ブロックの左端の画素列に基づいて右方向と下方向のイントラフレーム予測が実行される。;
D符号化ブロックに対して、B符号化ブロックの下端の画素行とC符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行される。
この場合において、上述した動画像符号化イントラフレーム予測方法は、次ぎのステップを含むことができる。
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行し、予測結果を得るステップ;
そして、得られた予測結果を重み付けするステップ。
現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とが両方とも存在するとき、現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて左方向と上方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とのいずれか一方が存在しないとき、存在する画素行または画素列に基づいて左方向と上方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とが両方とも存在するとき、現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて右方向と下方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とのいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて右方向と下方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行する上記ステップは、以下を含むことができる。:
第1の符号化ブロックに対して、第1の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と第1の符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;第2の符号化ブロックの左端の画素列に基づいて右方向と下方向のイントラフレーム予測が実行される。;
そして、第2の符号化ブロックに対して、第2の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と第1の符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行される。
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行する上記ステップは、以下を含むことができる。:
A符号化ブロックに対して、A符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とA符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;B符号化ブロックの左端の画素列とC符号化ブロックの上端の画素行に基づいて右方向と下方向のイントラフレーム予測が実行される。;
B符号化ブロックに対して、B符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とA符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;D符号化ブロックの上端の画素行に基づいて右方向と下方向のイントラフレーム予測が実行される。;
C符号化ブロックに対して、A符号化ブロックの下端の画素行とC符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;D符号化ブロックの左端の画素列に基づいて右方向と下方向のイントラフレーム予測が実行される。;
そして、D符号化ブロックに対して、B符号化ブロックの下端の画素行とC符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行される。
この場合において、上述した動画像符号化イントラフレーム予測方法は、次のステップを含むことができる。:
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行し、予測結果を得るステップ;
そして、得られた予測結果を重み付けするステップ。
現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とが両方とも存在するとき、現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて左方向と上方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とのいずれか一方が存在しないとき、存在する画素行または画素列に基づいて左方向と上方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とが両方とも存在するとき、現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて右方向と下方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とのいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて右方向と下方向のイントラフレーム予測を実行するステップ。;
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行する上記ステップは、以下を含むことができる。:
第1の符号化ブロックに対して、第1の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と第1の符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;第2の符号化ブロックの左端の画素列に基づいて右方向と下方向のイントラフレーム予測が実行される。;
そして、第2の符号化ブロックに対して、第2の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と第1の符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行される。
現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行する上記ステップは、以下を含むことができる。:
A符号化ブロックに対して、A符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とA符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;B符号化ブロックの左端の画素列とC符号化ブロックの上端の画素行に基づいて右方向と下方向のイントラフレーム予測が実行される。;
B符号化ブロックに対して、B符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とA符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;D符号化ブロックの上端の画素行に基づいて右方向と下方向のイントラフレーム予測が実行される。;
C符号化ブロックに対して、A符号化ブロックの下端の画素行とC符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行され、;D符号化ブロックの左端の画素列に基づいて右方向と下方向のイントラフレーム予測が実行される。;
そして、D符号化ブロックに対して、B符号化ブロックの下端の画素行とC符号化ブロックの右端の画素列に基づいて左方向と上方向のイントラフレーム予測が実行される。
Claims (11)
- 動画像符号化の間に、現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測および右方向と下方向のイントラフレーム予測を含む双方向予測を実行するステップを備える動画像符号化イントラフレーム予測方法。
- 前記双方向予測が、更に、動画像符号化の間に、前記現在の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を実行し、重み付けするステップを備える請求項1に記載の動画像符号化イントラフレーム予測方法。
- 前記現在の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測が、前記現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と前記現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて実行され、この場合に、対応する画素列または画素行のいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて前記左方向と上方向のイントラフレーム予測が実行され、
前記現在の符号化ブロックにおいて前記右方向と下方向のイントラフレーム予測が、前記現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と前記現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて実行され、この場合に、対応する画素列または画素行のいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて前記右方向と下方向のイントラフレーム予測が実行され、
前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測の両方が実行されている予測を重み付けするステップを備える、
請求項1に記載の動画像符号化イントラフレーム予測方法。 - 水平方向に隣接した2つの符号化ブロックにおいて動画像符号化が同時に実行されるとき、当該2つの符号化ブロックの中の左から右への第1の符号化ブロックが第1の符号化ブロックであり、当該2つの符号化ブロックの中の左から右への第2の符号化ブロックが第2の符号化ブロックであり、
前記第1の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と前記第1の符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて前記第1の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記第2の符号化ブロックの左端の画素列に基づいて前記右方向と下方向のイントラフレーム予測を実行し、前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けし、
前記第2の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と前記第1の符号化ブロックの右端の画素列に基づいて前記第2の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記右方向と下方向のイントラフレーム予測を実行しない、
請求項3に記載の動画像符号化イントラフレーム予測方法。 - 垂直方向と水平方向に隣接した4つの符号化ブロックにおいて動画像符号化を同時に実行するとき、左上の符号化ブロックがA符号化ブロックであり、右上の符号化ブロックがB符号化ブロックであり、左下の符号化ブロックがC符号化ブロックであり、右下の符号化ブロックがD符号化ブロックであり、
前記A符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と前記A符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて前記A符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記B符号化ブロックの左端の画素列と前記C符号化ブロックの上端の画素行に基づいて前記A符号化ブロックにおいて前記右方向と下方向のイントラフレーム予測を実行し、前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けし、
前記B符号化ブロックの上方に隣接した符号化ブロックの下端の画素行と前記A符号化ブロックの右端の画素列に基づいて前記B符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記D符号化ブロックの上端の画素行に基づいて前記B符号化ブロックにおいて前記右方向と下方向のイントラフレーム予測を実行し、前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けし、
前記A符号化ブロックの下端の画素行と前記C符号化ブロックの左に隣接した符号化ブロックの右端の画素列に基づいて前記C符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記D符号化ブロックの左端の画素列に基づいて前記C符号化ブロックにおいて前記右方向と下方向のイントラフレーム予測を実行し、前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けし、
前記B符号化ブロックの下端の画素行と前記C符号化ブロックの右端の画素列に基づいて前記D符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測を実行し、前記右方向と下方向のイントラフレーム予測を実行しない、
請求項3に記載の動画像符号化イントラフレーム予測方法。 - 現在の符号化ブロックにおいて左方向と上方向のイントラフレーム予測を実行するために使用される左方向と上方向のイントラフレーム予測ユニットと、
前記現在の符号化ブロックにおいて右方向と下方向のイントラフレーム予測を実行するために使用される右方向と下方向のイントラフレーム予測ユニットと、
を備える動画像符号化イントラフレーム予測装置。 - 前記現在の符号化ブロックにおいて前記左方向と上方向のイントラフレーム予測および前記右方向と下方向のイントラフレーム予測を重み付けするために使用される重み付けユニットを備える請求項6に記載の動画像符号化イントラフレーム予測装置。
- 前記左方向と上方向のイントラフレーム予測ユニットが、更に、前記現在の符号化ブロックの左に隣接した符号化ブロックの右端の画素列と前記現在の符号化ブロックの上方に隣接した符号化ブロックの下端の画素行とに基づいて前記左方向と上方向のイントラフレーム予測を実行するために使用され、この場合に、対応する画素列または画素行のいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて前記左方向と上方向のイントラフレーム予測が実行され、
前記右方向と下方向のイントラフレーム予測ユニットが、更に、前記現在の符号化ブロックの右に隣接した符号化ブロックの左端の画素列と前記現在の符号化ブロックの下方に隣接した符号化ブロックの上端の画素行とに基づいて前記右方向と下方向のイントラフレーム予測を実行するために使用され、この場合に、対応する画素列または画素行のいずれか一方が存在しないとき、存在する画素行または画素列のみに基づいて前記右方向と下方向のイントラフレーム予測が実行される、
請求項6または7に記載の動画像符号化イントラフレーム予測装置。 - プロセサと、通信インタフェースと、メモリと、通信バスとを備え、
前記プロセサと前記通信インタフェースと前記メモリとが、前記通信バスを介して互いに通信し、
前記メモリが、コンピュータプログラムを記憶するために使用され、
前記プロセサが、前記メモリに記憶されているプログラムを実行することによって請求項1ないし5のいずれか1項に記載の動画像符号化イントラフレーム予測方法を実行するために使用される、
電子装置。 - 命令を記憶し、当該命令がコンピュータで実行されるとき、当該コンピュータが請求項1ないし5のいずれか1項に記載の動画像符号化イントラフレーム予測方法を実行することができる読み取り可能なコンピュータ記憶媒体。
- 命令を含み、当該命令がコンピュータで実行されるとき、当該コンピュータが請求項1ないし5のいずれか1項に記載の動画像符号化イントラフレーム予測方法を実行することができるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610799819.8 | 2016-08-31 | ||
CN201610799819.8A CN106162197B (zh) | 2016-08-31 | 2016-08-31 | 一种视频编码帧内预测方法和装置 |
PCT/CN2017/096632 WO2018040868A1 (zh) | 2016-08-31 | 2017-08-09 | 一种视频编码帧内预测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019515606A true JP2019515606A (ja) | 2019-06-06 |
JP6697582B2 JP6697582B2 (ja) | 2020-05-20 |
Family
ID=57344374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018560660A Active JP6697582B2 (ja) | 2016-08-31 | 2017-08-09 | イントラ予測動画符号化方法および装置 |
Country Status (12)
Country | Link |
---|---|
US (1) | US10681367B2 (ja) |
EP (1) | EP3509305B1 (ja) |
JP (1) | JP6697582B2 (ja) |
KR (1) | KR102275830B1 (ja) |
CN (1) | CN106162197B (ja) |
AU (1) | AU2017317847B2 (ja) |
CA (1) | CA3027764C (ja) |
ES (1) | ES2884500T3 (ja) |
MY (1) | MY184601A (ja) |
SG (1) | SG11201811305WA (ja) |
TW (1) | TWI690199B (ja) |
WO (1) | WO2018040868A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106162197B (zh) * | 2016-08-31 | 2019-07-12 | 北京奇艺世纪科技有限公司 | 一种视频编码帧内预测方法和装置 |
US20190014324A1 (en) * | 2017-07-05 | 2019-01-10 | Industrial Technology Research Institute | Method and system for intra prediction in image encoding |
US20190110052A1 (en) * | 2017-10-06 | 2019-04-11 | Futurewei Technologies, Inc. | Bidirectional intra prediction |
KR102407912B1 (ko) * | 2018-03-29 | 2022-06-10 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 양방향 인트라 예측 시그널링 |
CA3101176A1 (en) | 2018-06-27 | 2020-01-02 | Kt Corporation | Method and apparatus for processing video signal |
CN116647678A (zh) * | 2018-12-29 | 2023-08-25 | 浙江大华技术股份有限公司 | 帧内预测方法、编码器及存储装置 |
WO2023101524A1 (ko) * | 2021-12-02 | 2023-06-08 | 현대자동차주식회사 | 양방향 인트라 예측 모드를 이용하는 비디오 부호화/복호화 방법 및 장치 |
CN116095316B (zh) * | 2023-03-17 | 2023-06-23 | 北京中星微人工智能芯片技术有限公司 | 视频图像处理方法及装置、电子设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2006346583B2 (en) * | 2006-07-28 | 2011-04-28 | Kabushiki Kaisha Toshiba | Image encoding and decoding method and apparatus |
CN101600116A (zh) | 2009-03-11 | 2009-12-09 | 北京中星微电子有限公司 | 一种帧内预测方法及装置 |
US20110249735A1 (en) * | 2010-04-09 | 2011-10-13 | Jie Zhao | Methods and Systems for Intra Prediction |
US8619857B2 (en) | 2010-04-09 | 2013-12-31 | Sharp Laboratories Of America, Inc. | Methods and systems for intra prediction |
CN102685506B (zh) * | 2011-03-10 | 2015-06-17 | 华为技术有限公司 | 帧内预测的方法和预测装置 |
CN104104959B (zh) | 2013-04-10 | 2018-11-20 | 乐金电子(中国)研究开发中心有限公司 | 深度图像帧内预测方法及装置 |
CN103929641A (zh) | 2014-05-12 | 2014-07-16 | 北京工商大学 | 一种基于虚拟参考帧的帧内编码方法 |
CN106162197B (zh) * | 2016-08-31 | 2019-07-12 | 北京奇艺世纪科技有限公司 | 一种视频编码帧内预测方法和装置 |
-
2016
- 2016-08-31 CN CN201610799819.8A patent/CN106162197B/zh active Active
-
2017
- 2017-08-09 EP EP17845170.4A patent/EP3509305B1/en active Active
- 2017-08-09 CA CA3027764A patent/CA3027764C/en active Active
- 2017-08-09 ES ES17845170T patent/ES2884500T3/es active Active
- 2017-08-09 US US16/313,576 patent/US10681367B2/en active Active
- 2017-08-09 WO PCT/CN2017/096632 patent/WO2018040868A1/zh unknown
- 2017-08-09 JP JP2018560660A patent/JP6697582B2/ja active Active
- 2017-08-09 MY MYPI2018002693A patent/MY184601A/en unknown
- 2017-08-09 AU AU2017317847A patent/AU2017317847B2/en active Active
- 2017-08-09 KR KR1020187037513A patent/KR102275830B1/ko active IP Right Grant
- 2017-08-09 SG SG11201811305WA patent/SG11201811305WA/en unknown
- 2017-08-25 TW TW106128996A patent/TWI690199B/zh active
Also Published As
Publication number | Publication date |
---|---|
JP6697582B2 (ja) | 2020-05-20 |
KR102275830B1 (ko) | 2021-07-12 |
AU2017317847A1 (en) | 2019-01-17 |
EP3509305B1 (en) | 2021-06-16 |
US10681367B2 (en) | 2020-06-09 |
SG11201811305WA (en) | 2019-03-28 |
CA3027764C (en) | 2021-12-07 |
CN106162197A (zh) | 2016-11-23 |
AU2017317847B2 (en) | 2020-01-30 |
EP3509305A4 (en) | 2019-07-10 |
KR20190008959A (ko) | 2019-01-25 |
US20190327481A1 (en) | 2019-10-24 |
EP3509305A1 (en) | 2019-07-10 |
TW201813390A (zh) | 2018-04-01 |
CN106162197B (zh) | 2019-07-12 |
ES2884500T3 (es) | 2021-12-10 |
TWI690199B (zh) | 2020-04-01 |
CA3027764A1 (en) | 2018-03-08 |
WO2018040868A1 (zh) | 2018-03-08 |
MY184601A (en) | 2021-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6697582B2 (ja) | イントラ予測動画符号化方法および装置 | |
KR102073638B1 (ko) | 픽처 예측 방법 및 픽처 예측 장치 | |
JP2021182752A (ja) | 画像予測方法および関連装置 | |
CN110557631B (zh) | 图像预测方法和相关设备 | |
CN104967852B (zh) | 通过帧内预测来对图像进行编码和解码的方法和设备 | |
TW201830972A (zh) | 用於視訊寫碼之低複雜度符號預測 | |
US10455229B2 (en) | Prediction mode selection method, apparatus and device | |
TW201929550A (zh) | 視訊編解碼方法及其影像處理裝置 | |
CN106063268B (zh) | 转码方法、转码设备以及信息存储介质 | |
KR20210016601A (ko) | 인트라 예측을 위한 종횡비 의존적 필터링을 위한 방법 및 장치 | |
WO2021056454A1 (zh) | 当前块的预测方法及装置、设备、存储介质 | |
WO2023044918A1 (zh) | 帧内预测的方法、编码器、解码器和编解码系统 | |
WO2023287417A1 (en) | Warped motion compensation with explicitly signaled extended rotations | |
JP2024005850A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム | |
CN112738522A (zh) | 视频编码方法、装置 | |
JP2014116900A (ja) | 画像処理装置及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190128 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200415 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6697582 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |