JP2022171424A5 - - Google Patents

Download PDF

Info

Publication number
JP2022171424A5
JP2022171424A5 JP2021078050A JP2021078050A JP2022171424A5 JP 2022171424 A5 JP2022171424 A5 JP 2022171424A5 JP 2021078050 A JP2021078050 A JP 2021078050A JP 2021078050 A JP2021078050 A JP 2021078050A JP 2022171424 A5 JP2022171424 A5 JP 2022171424A5
Authority
JP
Japan
Prior art keywords
dimensional
transform coefficients
post
quantized transform
quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021078050A
Other languages
English (en)
Other versions
JP2022171424A (ja
Filing date
Publication date
Application filed filed Critical
Priority to JP2021078050A priority Critical patent/JP2022171424A/ja
Priority claimed from JP2021078050A external-priority patent/JP2022171424A/ja
Publication of JP2022171424A publication Critical patent/JP2022171424A/ja
Publication of JP2022171424A5 publication Critical patent/JP2022171424A5/ja
Pending legal-status Critical Current

Links

Description

第1の態様に係る符号化装置は、原画像のブロックと予測画像のブロックとの差分を表す残差信号に対して変換処理を行って得られる2次元の変換係数に対して量子化処理を行う量子化部を備える。前記量子化部は、前記2次元の変換係数に基づいて1次元のスケール後変換係数及び1次元の量子化後変換係数を生成し、前記1次元のスケール後変換係数及び前記1次元の量子化後変換係数に基づいて前記1次元の量子化後変換係数を調整する。
第3の態様に係るモデル生成方法は、符号化のための学習済みモデルを生成する方法である。前記モデル生成方法は、1次元のスケール後変換係数と、1次元の量子化後変換係数と、全探索又は貪欲法を用いて導出された最適な1次元の量子化後変換係数又は当該最適な1次元の量子化後変換係数に基づく量子化調整値と、のセットを教師データとして取得するステップと、前記セットを複数含む前記教師データを用いた機械学習により、前記1次元のスケール後変換係数及び前記1次元の量子化後変換係数を入力とし、前記最適な1次元の量子化後変換係数又は前記量子化調整値を出力とする前記学習済みモデルを生成するステップとを有する。

Claims (11)

  1. 原画像のブロックと予測画像のブロックとの差分を表す残差信号に対して変換処理を行って得られる2次元の変換係数に対して量子化処理を行う量子化部を備える符号化装置であって、
    前記量子化部は、前記2次元の変換係数に基づいて1次元のスケール後変換係数及び1次元の量子化後変換係数を生成し、前記1次元のスケール後変換係数及び前記1次元の量子化後変換係数に基づいて前記1次元の量子化後変換係数を調整することを特徴とする符号化装置。
  2. 前記量子化部により得られる2次元の量子化後変換係数をスキャン順に応じて1次元に変換したうえでエントロピー符号化を行うエントロピー符号化部をさらに備え、
    前記量子化部は、
    前記2次元の変換係数を所定値で除算して前記2次元のスケール後変換係数を導出するとともに、前記2次元のスケール後変換係数を丸め処理により整数に変換して前記2次元の量子化後変換係数を導出する導出部と、
    前記2次元のスケール後変換係数及び前記2次元の量子化後変換係数のそれぞれを前記スキャン順に応じて1次元に変換する次元変換部と、
    前記次元変換部により得られる前記1次元のスケール後変換係数及び前記1次元の量子化後変換係数を学習済みモデルに入力して得られる量子化調整値を用いて前記1次元の量子化後変換係数を調整する調整部と、
    前記調整部により調整された前記1次元の量子化後変換係数を前記スキャン順に応じて2次元に逆変換して前記2次元の量子化後変換係数を出力する次元逆変換部と、を有することを特徴とする請求項1に記載の符号化装置。
  3. 前記調整部は、
    前記1次元の量子化後変換係数を構成する各変換係数の正負符号を取得する符号取得部と、
    前記1次元のスケール後変換係数を構成する各変換係数の正負符号及び前記1次元の量子化後変換係数を構成する各変換係数の正負符号を除去する符号除去部と、
    前記符号除去部により正負符号が除去された前記1次元のスケール後変換係数及び前記1次元の量子化後変換係数から、前記学習済みモデルを用いて前記量子化調整値を取得する調整値取得部と、
    前記調整値取得部により得られる前記量子化調整値を、前記正負符号が除去された前記1次元の量子化後変換係数に加算するとともに、前記符号取得部により得られる前記正負符号を当該1次元の量子化後変換係数に付与する調整値加算部と、を有することを特徴とする請求項2に記載の符号化装置。
  4. 前記エントロピー符号化部は、予め定められた複数のスキャン順の中から選択されたスキャン順に応じて前記2次元の量子化後変換係数を1次元に変換し、
    前記調整部は、前記複数のスキャン順に対応する複数の学習済みモデルのうち、前記選択されたスキャン順に対応する学習済みモデルを特定し、当該特定した学習済みモデルを用いて前記量子化調整値を導出することを特徴とする請求項2又は3に記載の符号化装置。
  5. 前記残差信号に対して前記変換処理を行う変換部をさらに備え、
    前記変換部は、予め定められた複数種類の変換処理の中から選択された種類の前記変換処理を行い、
    前記調整部は、前記複数種類の変換処理に対応する複数の学習済みモデルのうち、前記選択された種類の変換処理に対応する学習済みモデルを特定し、当該特定した学習済みモデルを用いて前記量子化調整値を導出することを特徴とする請求項2又は3に記載の符号化装置。
  6. 前記2次元の変換係数は、予め定められた複数種類のブロックサイズの中から選択されたブロックサイズを有し、
    前記調整部は、前記複数種類のブロックサイズに対応する複数の学習済みモデルのうち、前記選択されたブロックサイズに対応する学習済みモデルを特定し、当該特定した学習済みモデルを用いて前記量子化調整値を導出することを特徴とする請求項2又は3に記載の符号化装置。
  7. 前記学習済みモデルは、1次元のスケール後変換係数と、1次元の量子化後変換係数と、全探索又は貪欲法を用いて導出された最適な1次元の量子化後変換係数又は当該最適な1次元の量子化後変換係数に基づく量子化調整値と、のセットを教師データとして複数用いた機械学習により生成された学習済みモデルであることを特徴とする請求項乃至6のいずれか1項に記載の符号化装置。
  8. コンピュータを請求項1乃至7のいずれか1項に記載の符号化装置として機能させることを特徴とするプログラム。
  9. 符号化のための学習済みモデルを生成するモデル生成方法であって、
    1次元のスケール後変換係数と、1次元の量子化後変換係数と、全探索又は貪欲法を用いて導出された最適な1次元の量子化後変換係数又は当該最適な1次元の量子化後変換係数に基づく量子化調整値と、のセットを教師データとして取得するステップと、
    前記セットを複数含む前記教師データを用いた機械学習により、前記1次元のスケール後変換係数及び前記1次元の量子化後変換係数を入力とし、前記最適な1次元の量子化後変換係数又は前記量子化調整値を出力とする前記学習済みモデルを生成するステップと、を有することを特徴とするモデル生成方法。
  10. 2次元の変換係数を所定値で除算して2次元のスケール後変換係数を導出するとともに、前記2次元のスケール後変換係数を丸め処理により整数に変換して2次元の量子化後変換係数を導出するステップをさらに有し、
    前記取得するステップは、前記2次元のスケール後変換係数及び前記2次元の量子化後変換係数のそれぞれをスキャン順に応じて1次元に変換することにより、前記1次元のスケール後変換係数及び前記1次元の量子化後変換係数を取得するステップを含むことを特徴とする請求項9に記載のモデル生成方法。
  11. 前記生成するステップは、予め定められた複数のスキャン順のそれぞれについて前記学習済みモデルを生成するステップを含むことを特徴とする請求項9又は10に記載のモデル生成方法。
JP2021078050A 2021-04-30 2021-04-30 符号化装置、プログラム、及びモデル生成方法 Pending JP2022171424A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021078050A JP2022171424A (ja) 2021-04-30 2021-04-30 符号化装置、プログラム、及びモデル生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021078050A JP2022171424A (ja) 2021-04-30 2021-04-30 符号化装置、プログラム、及びモデル生成方法

Publications (2)

Publication Number Publication Date
JP2022171424A JP2022171424A (ja) 2022-11-11
JP2022171424A5 true JP2022171424A5 (ja) 2024-03-29

Family

ID=83946183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021078050A Pending JP2022171424A (ja) 2021-04-30 2021-04-30 符号化装置、プログラム、及びモデル生成方法

Country Status (1)

Country Link
JP (1) JP2022171424A (ja)

Similar Documents

Publication Publication Date Title
CN110335587B (zh) 语音合成方法、系统、终端设备和可读存储介质
JP4966669B2 (ja) マッチング追跡を用いたデータ圧縮
CN108289222B (zh) 一种基于结构相似度映射字典学习的无参考图像质量评价方法
US20220360788A1 (en) Image encoding method and image decoding method
JP2011504000A (ja) ビデオ符号化および復号化の方法
Sun et al. Dictionary learning for image coding based on multisample sparse representation
Löhdefink et al. GAN-vs. JPEG2000 image compression for distributed automotive perception: Higher peak SNR does not mean better semantic segmentation
CN104392207A (zh) 一种用于数字图像内容识别的特征编码方法
JP2022171424A5 (ja)
JP2014146988A (ja) 動画像符号化装置
JP2020150340A5 (ja)
WO2003056836A1 (en) Image information compressing method, image information compressing device and image information compressing program
WO2011064073A1 (en) Method, device and system for image compression and decompression using support vector regression
JP2006238070A5 (ja)
Farouk et al. Image denoising based on sparse representation and non-negative matrix factorization
WO2021061625A1 (en) Quantized inputs for machine learning models
JPH0215782A (ja) 画像符号化方式
CN115941950A (zh) 编码方法、解码方法、编码设备以及解码设备
CN1195449A (zh) 图象编码装置、图象译码装置及图象传输系统
JPWO2022239216A5 (ja) 学習装置、及び学習方法
Kubiak et al. TACTIC: Joint rate-distortion-accuracy optimisation for low bitrate compression
MX2021016158A (es) Codificacion de contexto para informacion sobre el conjunto de nucleo de transformacion en el sistema de codificacion de imagen.
Iwasokun Lossless JPEG-Huffman model for digital image compression
CN113869337A (zh) 图像识别模型的训练方法及装置、图像识别方法及装置
CN115065817B (zh) 一种全息图压缩方法、编码器和全息再现模块