JP6843239B2 - 符号化ユニットの深さ特定方法及び装置 - Google Patents
符号化ユニットの深さ特定方法及び装置 Download PDFInfo
- Publication number
- JP6843239B2 JP6843239B2 JP2019527221A JP2019527221A JP6843239B2 JP 6843239 B2 JP6843239 B2 JP 6843239B2 JP 2019527221 A JP2019527221 A JP 2019527221A JP 2019527221 A JP2019527221 A JP 2019527221A JP 6843239 B2 JP6843239 B2 JP 6843239B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- coding
- frame
- processing target
- coding unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 60
- 238000012545 processing Methods 0.000 claims description 136
- 238000012549 training Methods 0.000 claims description 62
- 238000011002 quantification Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims 2
- 238000004364 calculation method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
処理対象符号化ユニットの現在の最適モードの残差係数を特定することと、
前記残差係数が0でない場合に、前記処理対象符号化ユニット及び前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットから、所定タイプの符号化情報特徴をそれぞれ取得して、予測特徴ベクトルサンプルを構成することと、
前記予測特徴ベクトルサンプルを事前トレーニングされた予測モデルに入力し、前記予測モデルから出力される、前記処理対象符号化ユニットの深さ分割を行う必要があるか否かを示すための予測結果を得ることと、を含み、
前記予測モデルは、分類結果で標識されたトレーニングサンプルを用いて事前トレーニングしたものであり、前記トレーニングサンプルは、前記所定タイプの符号化情報特徴を含む方法を提供する。
処理対象符号化ユニットの現在の最適モードの残差係数を特定する残差係数特定ユニットと、
前記残差係数が0でない場合に、前記処理対象符号化ユニット及び前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットから、所定タイプの符号化情報特徴をそれぞれ取得して、予測特徴ベクトルサンプルを構成する特徴取得ユニットと、
前記予測特徴ベクトルサンプルを事前トレーニングされた予測モデルに入力し、前記予測モデルから出力される、前記処理対象符号化ユニットの深さ分割を行う必要があるか否かを示すための予測結果を得るモデル予測ユニットと、を備え、
前記予測モデルは、分類結果で標識されたトレーニングサンプルを用いて事前トレーニングしたものであり、前記トレーニングサンプルは、前記所定タイプの符号化情報特徴を含む装置をさらに提供する。
プロセッサ1と、通信インターフェース2と、メモリ3と、通信バス4と、ディスプレイ5とを備えることができる。
rdcost=SSD+λ*bit(λは定数である)。
Pフレーム予測モデルの事前トレーニング時に使用されるトレーニングサンプルは、Pフレームビデオ画像に属する符号化ユニットから抽出した所定タイプの符号化情報特徴である。
まず、予測モデルのトレーニング時に使用されるトレーニングサンプルを紹介する。処理対象符号化ユニットを現在符号化ユニットとして定義し、処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットを現在符号化ユニットの近隣符号化ツリーユニットとして定義すれば、本願では、予測モデルのトレーニング時に使用される所定タイプの符号化情報特徴は、
1、現在符号化ユニットのコスト(curr_merge_rdcost)
2、現在符号化ユニットの歪み(curr_merge_distortion)
3、現在符号化ユニットの量化係数(curr_qp)
4、現在符号化ユニットの分散(curr_var)
5、現在符号化ユニットの近隣符号化ツリーユニットのコスト(around_rdcost)
6、現在符号化ユニットの近隣符号化ツリーユニットの深さ情報(around_depth)、を含むことができる。
51、現在符号化ユニットの左側の近隣符号化ツリーユニットのコスト(left_rdcost)
52、現在符号化ユニットの上側の近隣符号化ツリーユニットのコスト(above_rdcost)、を含むことができる。
61、現在符号化ユニットの左側の近隣符号化ツリーユニットの深さ情報(left_depth)
62、現在符号化ユニットの上側の近隣符号化ツリーユニットの深さ情報(above_depth)、を含むことができる。
本実施例では、SVMモデルでトレーニングすることができ、サードパーティによるオープンソースソフトウェアを用いて、オフラインでトレーニングする。
ステップS350:前記処理対象符号化ユニットの存在する符号化ツリーユニットのうち、同じ符号化深さの符号化済みの符号化ユニットの平均コストを特定し、第2平均コストとする。
Left CTU:Above CTU:AboveLeft CTU:AboveRight CTU=2:2:1:1である。
left_depth1_cost=left_depth1_cost0+left_depth1_cost1+left_depth1_cost2+left_depth1_cost3;
aboveleft_depth1_cost=aboveleft_depth1_cost0+aboveleft_depth1_cost2+aboveleft_depth1_cost3;
aboveright_depth1_cost=aboveright_depth1_cost1+aboveright_depth1_cost2である。
Avg_depth1_cost=(left_depth1_cost*2+aboveleft_depth1_cost*1+aboveright_depth1_cost*1)/(left_depth1_num*2+aboveleft_depth1_num*1+aboveright_depth1_num*1)である。
Threshold_depth1=(Avg_depth1_cost*4+Avg_curr_CU_depth1*3)/(3+4)で示される。
処理対象符号化ユニットの現在の最適モードの残差係数を特定する残差係数特定ユニット11と、
前記残差係数が0でない場合に、前記処理対象符号化ユニット及び前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットから、所定タイプの符号化情報特徴をそれぞれ取得して、予測特徴ベクトルサンプルを構成する特徴取得ユニット12と、
前記予測特徴ベクトルサンプルを事前トレーニングされた予測モデルに入力し、前記予測モデルから出力される、前記処理対象符号化ユニットの深さ分割を行う必要があるか否かを示すための予測結果を得るモデル予測ユニット13と、を備え、
前記予測モデルは、分類結果で標識されたトレーニングサンプルを用いて事前トレーニングしたものであり、前記トレーニングサンプルは、前記所定タイプの符号化情報特徴を含む。
前記処理対象符号化ユニットの符号化深さが0であるか否かを判断する符号化深さ判断ユニットをさらに備えてもよい。
前記処理対象符号化ユニットの符号化深さが0でないと判断された場合に、前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットのうち、前記処理対象符号化ユニットと同じ符号化深さの符号化ユニットの平均コストを特定し、第1平均コストとする近隣平均コスト特定ユニットと、
前記処理対象符号化ユニットの存在する符号化ツリーユニットのうち、同じ符号化深さの符号化済みの符号化ユニットの平均コストを特定し、第2平均コストとする自身平均コスト特定ユニットと、
前記第1平均コスト及び前記第2平均コストに基づいて、前記処理対象符号化ユニットの深さ分割を行う必要があるか否かを特定する深さ分割判断ユニットと、をさらに備えてもよい。
前記処理対象符号化ユニットの属するビデオフレーム画像のタイプがPフレームかそれともBフレームかを特定するフレームタイプ特定ユニットと、
前記フレームタイプ特定ユニットによってPフレームであると特定された場合に、前記予測特徴ベクトルサンプルを前記Pフレーム予測モデルに入力し、前記Pフレーム予測モデルから出力される予測結果を得るPフレームモデル予測ユニットと、
前記フレームタイプ特定ユニットによってBフレームであると特定された場合に、前記予測特徴ベクトルサンプルを前記Bフレーム予測モデルに入力し、前記Bフレーム予測モデルから出力される予測結果を得るBフレームモデル予測ユニットと、を含んでもよい。
前記処理対象符号化ユニットのコスト、量化係数、歪み及び分散を取得する第1特徴取得ユニットと、
前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットのコスト及び深さ情報を取得する第2特徴取得ユニットと、を含んでもよい。
前記処理対象符号化ユニットの存在する符号化ツリーユニットの各近隣符号化ツリーユニットから、前記処理対象符号化ユニットと同じ符号化深さの符号化ユニットの平均コストを特定する第1近隣平均コスト特定サブユニットと、
各前記近隣符号化ツリーユニットと前記処理対象符号化ユニットの存在する符号化ツリーユニットとの方位関係に従って、各前記近隣符号化ツリーユニットの重み値を特定する第2近隣平均コスト特定サブユニットと、
各前記近隣符号化ツリーユニットの重み値及びその平均コストに基づいて、各前記近隣符号化ツリーユニットの重み付き平均コストを特定し、第1平均コストとする第3近隣平均コスト特定サブユニットと、を含んでもよい。
前記第1平均コスト及び前記第2平均コストに基づいて、コスト閾値を特定するコスト閾値特定ユニットと、
前記処理対象符号化ユニットの現在の最適モードのコストが前記コスト閾値よりも小さいか否かを判断し、YESであれば、前記処理対象符号化ユニットの深さ分割を行う必要がないと特定し、NOであれば、前記処理対象符号化ユニットの深さ分割を行う必要があると特定するコスト閾値比較ユニットと、を含んでもよい。
2 通信インターフェース
3 メモリ
4 通信バス
5 ディスプレイ
11 残差係数特定ユニット
12 特徴取得ユニット
13 モデル予測ユニット
Claims (9)
- 処理対象符号化ユニットの現在の最適モードの残差係数を特定することと、
前記残差係数が0でない場合に、前記処理対象符号化ユニット及び前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットから、所定タイプの符号化情報特徴をそれぞれ取得して、予測特徴ベクトルサンプルを構成することであって、前記処理対象符号化ユニットの符号化情報特徴は、前記処理対象符号化ユニットのレート歪みコスト、量化係数、歪み及び分散であり、前記近隣符号化ツリーユニットの符号化情報特徴は、前記近隣符号化ツリーユニットのレート歪みコスト及び深さ情報である、構成することと、
前記予測特徴ベクトルサンプルを事前トレーニングされた予測モデルに入力し、前記予測モデルから出力される、前記処理対象符号化ユニットの深さ分割を行う必要があるか否かを示すための予測結果を得ることと、を含み、
前記予測モデルは、符号化ユニットの深さ分割を行ったか否かを示す分類結果で標識されたトレーニングサンプルを用いて事前トレーニングしたものであり、前記トレーニングサンプルは、前記所定タイプの符号化情報特徴を含む、ことを特徴とする符号化ユニットの深さ特定方法。 - 前記処理対象符号化ユニットは、非Iフレームビデオ画像に属する、ことを特徴とする請求項1に記載の方法。
- 前記処理対象符号化ユニット及び前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットから、所定タイプの符号化情報特徴をそれぞれ抽出する前に、
前記処理対象符号化ユニットの符号化深さが0であるか否かを判断し、YESであれば、前記処理対象符号化ユニット及び前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットから、所定タイプの符号化情報特徴をそれぞれ抽出するステップを実行すること、をさらに含む、ことを特徴とする請求項1に記載の方法。 - 前記予測モデルは、Pフレーム予測モデルとBフレーム予測モデルとを含み、前記Pフレーム予測モデルの事前トレーニング時に使用されるトレーニングサンプルは、Pフレームビデオ画像に属する符号化ユニットから抽出した前記所定タイプの符号化情報特徴であり、前記Bフレーム予測モデルの事前トレーニング時に使用されるトレーニングサンプルは、Bフレームビデオ画像に属する符号化ユニットから抽出した前記所定タイプの符号化情報特徴であり、
前記予測特徴ベクトルサンプルを事前トレーニングされた予測モデルに入力し、前記予測モデルから出力される予測結果を得ることは、
前記処理対象符号化ユニットの属するビデオフレーム画像のタイプがPフレームかそれともBフレームかを特定することと、
Pフレームであれば、前記予測特徴ベクトルサンプルを前記Pフレーム予測モデルに入力し、前記Pフレーム予測モデルから出力される予測結果を得ることと、
Bフレームであれば、前記予測特徴ベクトルサンプルを前記Bフレーム予測モデルに入力し、前記Bフレーム予測モデルから出力される予測結果を得ることと、を含む、ことを特徴とする請求項1乃至3のうちのいずれか一項に記載の方法。 - 処理対象符号化ユニットの現在の最適モードの残差係数を特定する残差係数特定ユニットと、
前記残差係数が0でない場合に、前記処理対象符号化ユニット及び前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットから、所定タイプの符号化情報特徴をそれぞれ取得して、予測特徴ベクトルサンプルを構成する特徴取得ユニットであって、前記処理対象符号化ユニットの符号化情報特徴は、前記処理対象符号化ユニットのレート歪みコスト、量化係数、歪み及び分散であり、前記近隣符号化ツリーユニットの符号化情報特徴は、前記近隣符号化ツリーユニットのレート歪みコスト及び深さ情報である、特徴取得ユニットと、
前記予測特徴ベクトルサンプルを事前トレーニングされた予測モデルに入力し、前記予測モデルから出力される、前記処理対象符号化ユニットの深さ分割を行う必要があるか否かを示すための予測結果を得るモデル予測ユニットと、を備え、
前記予測モデルは、符号化ユニットの深さ分割を行ったか否かを示す分類結果で標識されたトレーニングサンプルを用いて事前トレーニングしたものであり、前記トレーニングサンプルは、前記所定タイプの符号化情報特徴を含む、ことを特徴とする符号化ユニットの深さ特定装置。 - 前記残差係数特定ユニットは、具体的には、非Iフレームビデオ画像に属する処理対象符号化ユニットの現在の最適モードの残差係数を特定する、ことを特徴とする請求項5に記載の装置。
- 前記処理対象符号化ユニットの符号化深さが0であるか否かを判断する符号化深さ判断ユニット、をさらに備え、
前記特徴取得ユニットは、具体的には、前記符号化深さ判断ユニットの判断結果がYESである場合に、前記処理対象符号化ユニット及び前記処理対象符号化ユニットの存在する符号化ツリーユニットの近隣符号化ツリーユニットから、所定タイプの符号化情報特徴をそれぞれ抽出する、ことを特徴とする請求項5に記載の装置。 - 前記予測モデルは、Pフレーム予測モデルとBフレーム予測モデルとを含み、前記Pフレーム予測モデルの事前トレーニング時に使用されるトレーニングサンプルは、Pフレームビデオ画像に属する符号化ユニットから抽出した前記所定タイプの符号化情報特徴であり、前記Bフレーム予測モデルの事前トレーニング時に使用されるトレーニングサンプルは、Bフレームビデオ画像に属する符号化ユニットから抽出した前記所定タイプの符号化情報特徴であり、
前記モデル予測ユニットは、
前記処理対象符号化ユニットの属するビデオフレーム画像のタイプがPフレームかそれともBフレームかを特定するフレームタイプ特定ユニットと、
前記フレームタイプ特定ユニットによってPフレームであると特定された場合に、前記予測特徴ベクトルサンプルを前記Pフレーム予測モデルに入力し、前記Pフレーム予測モデルから出力される予測結果を得るPフレームモデル予測ユニットと、
前記フレームタイプ特定ユニットによってBフレームであると特定された場合に、前記予測特徴ベクトルサンプルを前記Bフレーム予測モデルに入力し、前記Bフレーム予測モデルから出力される予測結果を得るBフレームモデル予測ユニットと、を含む、ことを特徴とする請求項5乃至7のうちのいずれか一項に記載の装置。 - プログラム命令が記憶されているコンピュータ読み取り可能な記憶媒体であって、プロセッサは、記憶されたプログラム命令を実行する時に、請求項1乃至4のうちのいずれか一項に記載の方法を実行することを特徴とする記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710266798.8A CN108737841B (zh) | 2017-04-21 | 2017-04-21 | 编码单元深度确定方法及装置 |
CN201710266798.8 | 2017-04-21 | ||
PCT/CN2017/115175 WO2018192235A1 (zh) | 2017-04-21 | 2017-12-08 | 编码单元深度确定方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020500482A JP2020500482A (ja) | 2020-01-09 |
JP6843239B2 true JP6843239B2 (ja) | 2021-03-17 |
Family
ID=63856188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019527221A Active JP6843239B2 (ja) | 2017-04-21 | 2017-12-08 | 符号化ユニットの深さ特定方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10841583B2 (ja) |
EP (1) | EP3614666A4 (ja) |
JP (1) | JP6843239B2 (ja) |
KR (1) | KR102252816B1 (ja) |
CN (1) | CN108737841B (ja) |
WO (1) | WO2018192235A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11128871B2 (en) | 2018-04-25 | 2021-09-21 | Panasonic Intellectual Property Corporation Of America | Encoder for adaptively determining information related to splitting based on characteristics of neighboring samples |
GB2578769B (en) | 2018-11-07 | 2022-07-20 | Advanced Risc Mach Ltd | Data processing systems |
GB2583061B (en) * | 2019-02-12 | 2023-03-15 | Advanced Risc Mach Ltd | Data processing systems |
CN109862354B (zh) * | 2019-02-18 | 2023-02-10 | 南京邮电大学 | 一种基于残差分布的hevc快速帧间深度划分方法 |
CN109889842B (zh) * | 2019-02-21 | 2022-02-08 | 北方工业大学 | 基于knn分类器的虚拟现实视频cu划分算法 |
CN110581990B (zh) * | 2019-09-25 | 2021-07-27 | 杭州当虹科技股份有限公司 | 一种适用于hevc 4k和8k超高清编码的tu递归快速算法 |
CN113593539B (zh) * | 2020-04-30 | 2024-08-02 | 阿里巴巴集团控股有限公司 | 流式端到端语音识别方法、装置及电子设备 |
CN112866692B (zh) * | 2021-01-18 | 2022-04-26 | 北京邮电大学 | 一种基于hevc的编码单元划分方法、装置及电子设备 |
CN112866693B (zh) * | 2021-03-25 | 2023-03-24 | 北京百度网讯科技有限公司 | 编码单元cu的划分方法、装置、电子设备和存储介质 |
CN113691808A (zh) * | 2021-07-01 | 2021-11-23 | 杭州未名信科科技有限公司 | 一种基于神经网络的帧间编码单元尺寸划分方法 |
CN113382245A (zh) * | 2021-07-02 | 2021-09-10 | 中国科学技术大学 | 图像划分方法和装置 |
CN115941962A (zh) * | 2021-09-30 | 2023-04-07 | 深圳市中兴微电子技术有限公司 | 视频编码单元划分方法、装置、计算机设备和可读介质 |
CN114157863B (zh) * | 2022-02-07 | 2022-07-22 | 浙江智慧视频安防创新中心有限公司 | 基于数字视网膜的视频编码方法、系统及存储介质 |
CN115278260A (zh) * | 2022-07-15 | 2022-11-01 | 重庆邮电大学 | 基于空时域特性的vvc快速cu划分方法及存储介质 |
CN116170594B (zh) * | 2023-04-19 | 2023-07-14 | 中国科学技术大学 | 一种基于率失真代价预测的编码方法和装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI280803B (en) * | 2005-07-20 | 2007-05-01 | Novatek Microelectronics Corp | Method and apparatus for motion estimation |
US8913662B2 (en) * | 2011-01-06 | 2014-12-16 | Qualcomm Incorporated | Indicating intra-prediction mode selection for video coding using CABAC |
US8964852B2 (en) * | 2011-02-23 | 2015-02-24 | Qualcomm Incorporated | Multi-metric filtering |
US9247258B2 (en) * | 2011-10-26 | 2016-01-26 | Qualcomm Incorporated | Unified design for picture partitioning schemes |
CN102420990B (zh) * | 2011-12-15 | 2013-07-10 | 北京工业大学 | 一种面向多视点视频的快速编码方法 |
KR20140056599A (ko) * | 2012-10-30 | 2014-05-12 | 광주과학기술원 | Hevc 예측 모드 결정 방법 및 장치 |
CN103067704B (zh) * | 2012-12-12 | 2015-12-09 | 华中科技大学 | 一种基于编码单元层次提前跳过的视频编码方法和系统 |
US9674542B2 (en) * | 2013-01-02 | 2017-06-06 | Qualcomm Incorporated | Motion vector prediction for video coding |
US10021414B2 (en) * | 2013-01-04 | 2018-07-10 | Qualcomm Incorporated | Bitstream constraints and motion vector restriction for inter-view or inter-layer reference pictures |
CN103533349A (zh) * | 2013-09-26 | 2014-01-22 | 广东电网公司电力科学研究院 | 基于支持向量机的b帧快速帧间预测宏块模式选择方法 |
CN106162167B (zh) * | 2015-03-26 | 2019-05-17 | 中国科学院深圳先进技术研究院 | 基于学习的高效视频编码方法 |
CN104853191B (zh) * | 2015-05-06 | 2017-09-05 | 宁波大学 | 一种hevc的快速编码方法 |
CN105306947B (zh) * | 2015-10-27 | 2018-08-07 | 中国科学院深圳先进技术研究院 | 基于机器学习的视频转码方法 |
CN105430407B (zh) * | 2015-12-03 | 2018-06-05 | 同济大学 | 应用于h.264到hevc转码的快速帧间模式决策方法 |
CN105721865A (zh) * | 2016-02-01 | 2016-06-29 | 同济大学 | 一种hevc帧间编码单元划分的快速决策算法 |
-
2017
- 2017-04-21 CN CN201710266798.8A patent/CN108737841B/zh active Active
- 2017-12-08 WO PCT/CN2017/115175 patent/WO2018192235A1/zh active Application Filing
- 2017-12-08 EP EP17906258.3A patent/EP3614666A4/en active Pending
- 2017-12-08 KR KR1020197027603A patent/KR102252816B1/ko active IP Right Grant
- 2017-12-08 JP JP2019527221A patent/JP6843239B2/ja active Active
-
2019
- 2019-03-27 US US16/366,595 patent/US10841583B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10841583B2 (en) | 2020-11-17 |
JP2020500482A (ja) | 2020-01-09 |
WO2018192235A1 (zh) | 2018-10-25 |
EP3614666A1 (en) | 2020-02-26 |
EP3614666A4 (en) | 2020-04-08 |
KR20190117708A (ko) | 2019-10-16 |
CN108737841B (zh) | 2020-11-24 |
CN108737841A (zh) | 2018-11-02 |
KR102252816B1 (ko) | 2021-05-18 |
US20190222842A1 (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6843239B2 (ja) | 符号化ユニットの深さ特定方法及び装置 | |
US11070803B2 (en) | Method and apparatus for determining coding cost of coding unit and computer-readable storage medium | |
KR102081213B1 (ko) | 화상 예측 방법 및 관련 장치 | |
TW201830972A (zh) | 用於視訊寫碼之低複雜度符號預測 | |
CN103096055B (zh) | 一种图像信号帧内预测及解码的方法和装置 | |
WO2022104498A1 (zh) | 帧内预测方法、编码器、解码器以及计算机存储介质 | |
CN103647972B (zh) | 运动图像解码方法和运动图像编码方法 | |
JP4732982B2 (ja) | 向上した動き推定方法、該方法を利用したビデオエンコーディング方法及び装置 | |
WO2016050051A1 (zh) | 图像预测方法及相关装置 | |
KR20200013266A (ko) | 픽처 예측 방법 및 픽처 예측 장치 | |
WO2016180129A1 (zh) | 预测模式选择方法、装置及设备 | |
WO2014190468A1 (en) | Video encoder for images | |
JP2021513234A (ja) | ビデオ符号化方法、コンピュータ機器、及び記憶媒体 | |
CN103931190A (zh) | 图像编码设备、图像编码方法、图像解码设备、图像解码方法及存储介质 | |
JP2023052767A (ja) | 映像処理方法及び符号化器 | |
TWI722465B (zh) | 子塊的邊界增強 | |
CN112312133B (zh) | 一种视频编码方法、装置、电子设备及可读存储介质 | |
KR102306484B1 (ko) | 비디오 인코딩을 위한 처리 방법 및 장치, 그리고 저장 매체 | |
CN101888546A (zh) | 一种运动估计的方法及装置 | |
KR20210042355A (ko) | 비디오 이미지 성분의 예측 방법, 장치 및 컴퓨터 저장 매체 | |
CN111541896A (zh) | 一种基于vvc的帧内预测模式的优化方法及系统 | |
WO2020248715A1 (zh) | 基于高效率视频编码的编码管理方法及装置 | |
JP2005348008A (ja) | 動画像符号化方法、動画像符号化装置、動画像符号化プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP4490351B2 (ja) | 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体 | |
CN115442617A (zh) | 一种基于视频编码的视频处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200923 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6843239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |