JP6581045B2 - 画像符号化方法、画像符号化装置及び画像符号化プログラム - Google Patents

画像符号化方法、画像符号化装置及び画像符号化プログラム Download PDF

Info

Publication number
JP6581045B2
JP6581045B2 JP2016126989A JP2016126989A JP6581045B2 JP 6581045 B2 JP6581045 B2 JP 6581045B2 JP 2016126989 A JP2016126989 A JP 2016126989A JP 2016126989 A JP2016126989 A JP 2016126989A JP 6581045 B2 JP6581045 B2 JP 6581045B2
Authority
JP
Japan
Prior art keywords
dictionary
class
classes
training data
image encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016126989A
Other languages
English (en)
Other versions
JP2018006832A (ja
Inventor
幸浩 坂東
幸浩 坂東
誠之 高村
誠之 高村
清水 淳
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016126989A priority Critical patent/JP6581045B2/ja
Publication of JP2018006832A publication Critical patent/JP2018006832A/ja
Application granted granted Critical
Publication of JP6581045B2 publication Critical patent/JP6581045B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像符号化方法、画像符号化装置及び画像符号化プログラムに関する。
画像符号化における重要な要素技術の一つに、離散コサイン変換(DCT:Discrete Cosine Transform)に代表される変換符号化がある。画像符号化における変換符号化の役割は、空間的な画素間相関の除去を行うことにある。符号化装置の全体の位置づけとしては、変換符号化により少数の変換係数に情報を集中させ、変換係数に対する量子化により情報の集中度の低い変換係数を切り捨てることで、符号化対象信号に対する情報量の削減に寄与する。
これまで、画像符号化への応用では、離散コサイン変換(DCT)を始めとして、重複直交変換離散ウェーブレット変換(DWT:Discrete Wavelet Transform)といった多くの変換符号化方式が検討されてきた。例えば、変換符号化として、JPEGでは離散コサイン変換(DCT)、JPEG 2000では離散ウェーブレット変換(DWT)が採用されている。また、直交変換は完備な基底(complete basis)を用いるため変換前後のデータ数が不変である。このため、直交変換は非冗長変換(non.redundant transform)である。動画像符号化装置においては、内部に備える変換処理部が上記の技術に該当する。
一方で、基底数が原信号のサンプル数よりも多い過完備な基底(overcomplete basis)を用いた冗長変換(redudant transform)と呼ばれる変換がある。このため、冗長変換は直交変換になり得ないが、変換後のデータに冗長性を持たせることで非冗長変換では実現できない特性をもつことができる。例えば、ダウンサンプリング処理を行わないDWTである離散定常ウェーブレット変換(SWT:Stationary Wavelet Transform)は変換後の冗長性より、DWTで失われるシフト不変性を成立させることができる。
また、画像処理分野では“方向分離特性をもつ変換”が注目されている。このような変換は一般的に冗長変換であり、代表例としてCurvelet変換がある。並列木複素ウェーブレット変換(DTCWT:Dual Tree Complex Wavelet Transform)も同様の特性をもつ変換である。方向分離特性をもつ変換は、画像信号中に含まれるエッジ等の曲線を2次元で定義される方向基底を用いて表現する変換である。方向基底を用いて2次元構造を高い精度で近似するため、DWTに比べれば、雑音除去や特徴抽出に対して有効であるとされている。
しかし、こうした変換は、映像信号によらず固定された基底を用いるため、多様な映像の特性を表現することに限界がある。これは、上記の変換が画像信号に基づき設計されていないことに起因する。これに対して、映像信号を訓練データとして学習し、基底を設計する方法が検討されている。実映像信号に含まれる特徴を基底に反映させることが特徴である。こうして設計された基底の集合を辞書と呼ぶ。
辞書設計の代表的な手法として、K−SVDが提案されている(例えば、非特許文献1参照)。K−SVDでは、辞書Dおよび各基底の係数x(i=1,・・・,N)を用いて、訓練データy(i=1,・・・,N)に対する近似信号^yi(^は、後に続く文字の上に付く、以下、同様)を表現する。ここで、Dはn×m行列、y(i=1,・・・,N)はn次元ベクトル、x(i=1,・・・,N)はm次元ベクトルであり、n<mである。また、以下では、y(i=1,・・・,N)を列ベクトルとするn行N列の行列をYとし、x(i=1,・・・,N)列ベクトルとするm行N列の行列をXとする。
基底の学習では、以下の制約条件付最適化問題の解を求める。
Figure 0006581045
ここで、‖・‖はLノルムであり、非ゼロ係数の個数を表している。‖・‖ はLノルムの二乗値であり、二乗和を表す。
なお、本明細書において、画像とは、静止画像、または動画像を構成する1フレーム分の画像のことをいう。また映像とは、動画像と同じ意味であり、一連の画像の集合である。
M. Aharon, M. Elad and A. Bruckstein "K -SVD: An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation", IEEE Transactions on Signal Processing, Vol.54, No.11, pp.4311-4322, 2006
貪欲法(近似アルゴリズム)をベースにしたK−SVD等の既存の基底の学習アルゴリズムは、解の探索空間が広すぎると、最適解から乖離した局所解に陥るという問題がある。一方、画像信号は、空間的な局所性を有しており、その性質は一様ではないことが知られている。この局所性を考慮して、画像信号内の領域を適切に分類することで、基底の学習アルゴリズムに対する解の探索空間を制限することができる。
そこで、対象信号の局所性を考慮したクラス分類に基づき、辞書の基底を学習する適応的な辞書生成手法が有益となる。しかし、既存の基底の学習アルゴリズムでは局所性が考慮されていない、または、最適なクラス数の設定方法が未知であり、クラス数の設定がヒューリスティックとなり、符号化効率の向上に改善の余地を残す。
本発明は、このような事情に鑑みてなされたもので、過完備な基底から構成される辞書の生成におけるクラス分類のクラス数を適切に設定することができる画像符号化方法、画像符号化装置及び画像符号化プログラムを提供することを目的とする。
本発明の一態様は、映像を符号化する際に前記映像を表現するための変換基底を格納した辞書を生成するために、訓練データを複数のクラスに分類し、前記クラス毎に対応する訓練データを用いて辞書を生成する画像符号化方法であって、与えられたクラス分類に基づき、前記クラス毎に前記辞書を生成する辞書生成ステップと、前記辞書内の基底の本数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類ステップと、クラス内の近似誤差和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出しながら前記辞書の生成と前記訓練データの再分類とを、クラス数を1つずつ増やしながら、クラス数がCであるときの評価尺度が、クラス数がC−1であるときの評価尺度よりも大きくなるまで反復する反復ステップと、前記反復ステップにおける反復が終わった時点のC−1の値を、クラス数として設定するクラス設定ステップとを有する画像符号化方法である。
本発明の一態様は、映像を符号化する際に前記映像を表現するための変換基底を格納した辞書を生成するために、訓練データを複数のクラスに分類し、前記クラス毎に対応する訓練データを用いて辞書を生成する画像符号化方法であって、与えられたクラス分類に基づき、前記クラス毎に前記辞書を生成する辞書生成ステップと、前記辞書内の基底の本数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類ステップと、クラス数で正規化したクラス内の近似誤差和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出しながら前記辞書の生成と前記訓練データの再分類とを、クラス数を1つずつ増やしながら、クラス数がCであるときの評価尺度が、クラス数がC−1であるときの評価尺度よりも大きくなるまで反復する反復ステップと、前記反復ステップにおける反復が終わった時点のC−1の値を、クラス数として設定するクラス設定ステップとを有する画像符号化方法である。
本発明の一態様は、映像を符号化する際に前記映像を表現するための変換基底を格納した辞書を生成するために、訓練データを複数のクラスに分類し、前記クラス毎に対応する訓練データを用いて辞書を生成する画像符号化方法であって、与えられたクラス分類に基づき、前記クラス毎に前記辞書を生成する辞書生成ステップと、前記辞書内の基底の本数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類ステップと、クラス数で正規化したクラス内の近似誤差和と有意係数の個数との加重和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出しながら前記辞書の生成と前記訓練データの再分類とを、クラス数を1つずつ増やしながら、クラス数がCであるときの評価尺度が、クラス数がC−1であるときの評価尺度よりも大きくなるまで反復する反復ステップと、前記反復ステップにおける反復が終わった時点のC−1の値を、クラス数として設定するクラス設定ステップとを有する画像符号化方法である。
本発明の一態様は、前記画像符号化方法であって、前記近似誤差和をe (C)、Cをクラス数、X(c)をクラスcの基底の係数の行列、Y(c)をクラスcの訓練データに対する近似信号の行列、D(c)をクラスcの辞書、‖・‖ をLノルムの二乗値としたとき、「数1」によって、前記近似誤差和を算出する。
本発明の一態様は、前記画像符号化方法であって、前記評価尺度をJ(C)、Vをクラス間の分散、dをクラス間の距離の最小値、λを所定の係数、Tをクラス内の有意係数の個数、nをクラス内の訓練ベクトルの個数としたき、「数2」によって前記評価尺度を算出する。
本発明の一態様は、映像を符号化する際に前記映像を表現するための変換基底を格納した辞書を生成するために、訓練データを複数のクラスに分類し、前記クラス毎に対応する訓練データを用いて辞書を生成する画像符号化装置であって、与えられたクラス分類に基づき、前記クラス毎に前記辞書を生成する辞書生成部と、前記辞書内の基底の本数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類部と、クラス内の近似誤差和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出しながら前記辞書の生成と前記訓練データの再分類とを、クラス数を1つずつ増やしながら、クラス数がCであるときの評価尺度が、クラス数がC−1であるときの評価尺度よりも大きくなるまで反復する反復部と、前記反復部における反復が終わった時点のC−1の値を、クラス数として設定するクラス設定部とを備える画像符号化装置である。
本発明の一態様は、コンピュータに、前記画像符号化方法を実行させるための画像符号化プログラムである。
本発明によれば、画像の局所性に基づき、クラス分類を行い、クラス毎に適切な辞書を生成する際、適切なクラス数を設定することで、少数の係数で近似誤差を低減可能となり、符号化効率が向上するという効果が得られる。
動画像符号化装置が行うMatching Pursuit(MP)によるクラス設定アルゴリズムの処理を示す図である。 動画像符号化装置が行うOrthognal Matching Pursuit(OMP)によるクラス設定アルゴリズムの処理を示す図である。 本発明を適用する動画像符号化装置の一構成を示す図である。 本発明を適用する動画像復号装置の一構成を示す図である。 本実施形態によるクラス数最適化装置の構成を示すブロック図である。 クラス数最適化の処理の動作を示すフローチャートである。 図6に示すステップS3の詳細な処理を示すフローチャートである。 図6に示すステップS4の詳細な処理を示すフローチャートである。 図7に示すステップS12の詳細な処理を示すフローチャートである。 図9に示すステップS43の詳細な処理を示すフローチャートである。 図9に示すステップS43の詳細な処理を示すフローチャートである。 図7に示すステップS12の詳細な処理を示すフローチャートである。
以下、図面を参照して、本発明の一実施形態による動画像符号化装置を説明する。はじめに本発明の基本原理を説明する。
[クラス数が与えられた場合の辞書の生成]
本発明の基本原理は、訓練画像Ψを、Ψ={ψ(c)|c=1,・・・,C}とし、C個のクラスに分類し、各クラス毎に、適切な辞書を生成することである。ここで、ψ(c)は、クラスに分類したクラスcの訓練画像である。解くべき問題は以下の通り、定式化される。
Figure 0006581045
上記問題の求解は、以下の(S1)(S2)(S3)を反復する処理により実現される。
(S1:係数設定処理)Ψ,D(c)を固定した状態で、X(c)を最適化
(S2:辞書設定処理)Ψ,X(c)を固定した状態で、D(c)を最適化
(S3:クラス設定処理)D(c)を固定した状態で、Ψを最適化
(S1)および(S2)では、辞書学習の既存手法(例:K−SVD等)を利用する。C個のクラスの各々に対して、辞書学習の既存手法を使用して、各クラス毎に、辞書と辞書内の基底に対する係数を算出する。(S3)では、訓練ベクトルy(i=1,・・・,N)に対して、疎性に関する制約条件を満たす解において近似誤差を最小化するものが同定される。各訓練ベクトルyに対して、次式の最小化問題を求解し、訓練ベクトルyが属すべきクラスcが求められる。
Figure 0006581045
すなわち、各クラスの辞書D(c)(c=1,・・・,C)の内容は固定して、辞書内の基底の使用本数を所与の閾値以下に抑えた制約条件のもとで、訓練ベクトルyを表現した場合、近似誤差を最小化するクラスが求められる。
そして、訓練ベクトルは同クラスに属するものとして、クラス分類が更新される。辞書D(c)内の基底は、行列D(c)の列ベクトルd(c) として表現される。上記最小化問題に対しては、例えば、Matching Pursuit(MP)やOrthognal Matching Pursuit(OMP)を用いて解を求めることができる。具体的な手順を図1に示す。図1は、動画像符号化装置が行うMatching Pursuit(MP)によるクラス設定アルゴリズムの処理を示す図である。図1において、左端の数字は、アルゴリズムを構成する各ステップを識別するためのステップ番号である。
まず、動画像符号化装置は、表現対象となる訓練データを読み込み、変数bに格納する。また、動画像符号化装置は、表現対象データを表現する際に用いる辞書内の基底の本数として、指定された値Tを読み込む。このTは有意係数の個数を表す(ステップ1)。そして、動画像符号化装置は、後段の処理で使用する変数εを初期化する(ステップ2)。
次に、動画像符号化装置は、以下のステップ4からステップ17の処理を全てのクラスに対して行う(ステップ3)。動画像符号化装置は、対象のクラスの辞書を読み込む(ステップ4)。そして、動画像符号化装置は、変数を初期化する(ステップ5、6、7)。
次に、動画像符号化装置は、以下のステップ9からステップ15の処理をk=1,・・・,Tとして、繰り返す(ステップ8)。基底を指定するインデックスの集合S(k−1)内に格納された辞書内の基底を指定する各インデックスiに対して、以下の値を算出し、以下の値を最小化する基底を求め、同基底を指定するインデックスをiとして格納する(ステップ9〜11)。
Figure 0006581045
上式で求めたε(i)はk−1本の基底で近似した際の近似誤差r(k−1)に対して、k本目の基底としてd(c) を加えた場合の近似誤差である。
次に、動画像符号化装置は、ε(i)が、本ステップ以前に求めた近似誤差の最小値(暫定最小近似誤差)εよりも大きくなった場合、以降の処理は中止し、ステップ4へ戻る(ステップ12)。理由は、クラスcの辞書では、近似誤差を暫定近似誤差以下にはすることはできず、結果として、近似誤差を最小化できないためである。
次に、動画像符号化装置は、基底を指定するインデックスの集合として、S(k−1)にi を追加し、S(k)として更新する(ステップ13)。動画像符号化装置は、S(k)で指定された基底のみを使用して、つまり、有意係数の位置をsupport{x}=S(k)に限定して、次式の近似誤差を最小化する係数ベクトルx(k)を求める(ステップ14)。
Figure 0006581045
ここで、support{x}=S(k)は、ベクトルxの有意要素がS(k)に含まれる要素のみであることを示す。動画像符号化装置は、x(k)を用いた場合の近似誤差を求める(ステップ15)。
次に、動画像符号化装置は、‖r(T)‖ をクラスcにおける近似誤差として、ε(c)に格納する(ステップ16)。動画像符号化装置は、ε(c)が、暫定最小近似誤差εよりも小さい場合、暫定最小近似誤差をε(c)として更新し、さらに、暫定最適クラスインデックスをc=cとし、暫定最適係数ベクトルをx=x(T)として更新する(ステップ17)。動画像符号化装置は、cを最適なクラスを示すインデックスとして、x最適な係数ベクトルとして、出力する(ステップ18)。
図2は、動画像符号化装置が行うOrthognal Matching Pursuit(OMP)によるクラス設定アルゴリズムの処理を示す図である。図2において、左端の数字は、アルゴリズムを構成する各ステップを識別するためのステップ番号である。
まず、動画像符号化装置は、表現対象となる訓練データを読み込み、変数bに格納する。また、動画像符号化装置は、表現対象データを表現する際に用いる辞書内の基底の本数として、指定された値Tおよび辞書D(c)読み込む。このTは有意係数の個数を表す(ステップ21)。そして、動画像符号化装置は、変数を初期化する(ステップ22〜24)。
次に、動画像符号化装置は、以下のステップ26からステップ21の処理をk=1,・・・,Tとして、繰り返す(ステップ25)。基底を指定するインデックスの集合S(k−1)内に格納された辞書内の基底を指定する各インデックスiに対して、所定の式により値を算出し、以下の値を最小化する基底を求め、同基底を指定するインデックスをiとして格納する(ステップ26〜28)。ε(i)はk−1本の基底で近似した際の近似誤差r(k−1)に対して、k本目の基底としてd(c) を加えた場合の近似誤差である。
次に、動画像符号化装置は、基底を指定するインデックスの集合として、S(k−1)にiを追加し、S(k)として更新する(ステップ29)。動画像符号化装置は、S(k)で指定された基底のみを使用して、つまり、有意係数の位置をsupport{x}=S(k)に限定して、次式の近似誤差を最小化する係数ベクトルx(k)を求める(ステップ30)。動画像符号化装置は、x(k)を用いた場合の近似誤差を求める(ステップ31)。そして、動画像符号化装置は、x(T0)を出力する(ステップ32)。
[クラス数の最適化]
[クラス数が与えられた場合の辞書の生成]に記載のアルゴリズムに基づき、設定した辞書を用いて、以下の値を求める。なお、クラス内の訓練ベクトルの数をn (C)とおく。各クラスの近似誤差を次式により求める。
Figure 0006581045
各クラスの代表ベクトルを次式により求める。
Figure 0006581045
クラス間の分散を次式により求める。
Figure 0006581045
ここで、mは訓練ベクトルの平均ベクトルである。クラス間の距離の最小値を次式により求める。
Figure 0006581045
クラス数Cの場合の結果を用いて、以下の評価尺度J(C)を算出する。
Figure 0006581045
J(C)の別バージョンとして、λ=0とした評価尺度を用いることも可能である。あるいは、クラス数の正規化を行わない以下のバージョンを用いることも可能である。
Figure 0006581045
クラス数の最適化として、式(8)を最小化するクラス数Cを求める。
=argminJ(C)
上記の最適解を求める際は、J(C)の局所解が大域的最適解であることから、C=1から始めて、Cをインクリメントしていき、以下を満たす最小のCをCとして設定することも可能である。
J(C)<J(C+1)
また、J(C)の別バージョンとして、クラス数で正規化したクラス内の近似誤差和と有意係数の個数との加重和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出するようにしてもよい。
[動画像符号化装置の構成]
次に、本発明を適用する動画像符号化装置の一構成について説明する。図3は、本発明を適用する動画像符号化装置の一構成を示す図である。動画像符号化装置は、イントラ予測処理部1、インター予測情報記憶部2、インター予測処理部3、イントラ予測情報記憶部4、予測残差生成部5、変換処理部6、量子化処理部7、逆量子化処理部8、逆変換処理部9、復号信号生成部10、インループフィルタ処理部11、フレームメモリ12、エントロピ符号化処理部13、変換基底記憶部14を備える。
図3に示す動画像符号化装置において、特に変換処理部6、変換基底記憶部14が従来技術と異なる部分であり、他の部分は、HEVCやH.264その他のエンコーダとして用いられている従来の一般的な動画像符号化装置の構成と同様である。本実施形態では、変換処理部6と逆変換処理部9とのそれぞれが変換基底記憶部14に記憶されている変換基底を用いて変換、逆変換を行う。
次に、図3に示す動画像符号化装置の動作を説明する。図3に示す動画像符号化装置は、符号化対象の映像信号を入力し、入力映像信号のフレームをブロックに分割してブロックごとに符号化し、そのビットストリームを符号化ストリームとして出力する。この符号化のため、予測残差生成部5は、入力映像信号とイントラ予測処理部1あるいはインター予測処理部3の出力である予測信号との差分を求め、それを予測残差信号として出力する。
イントラ予測処理部1およびインター予測処理部3の出力は、各々、イントラ予測情報記憶部2およびインター予測情報記憶部4に格納される。変換処理部6は、変換基底記憶部14から適切な変換基底を読み出し、同変換基底を用いて予測残差信号に対して変換を行い、変換係数を出力する。また、変換処理部6は、変換対象信号の特性に応じて、変換に用いる基底を切り替える。この切り替えに必要な情報は、別途、付加情報として、符号化する。変換基底記憶部14に格納する基底の生成方法が、本実施形態の主題である。具体的な生成方法は、詳細は後述する。量子化処理部7は、変換係数を量子化し、その量子化された変換係数を出力する。エントロピー符号化処理13は、量子化された変換係数をエントロピー符号化し、符号化ストリームとして出力する。
一方、量子化された変換係数は、逆量子化処理部8にも入力され、ここで逆量子化される。逆変換処理部9は、変換基底記憶部14から適切な変換基底を読み出し、同変換基底を用いて、逆量子化処理部8の出力である変換係数を逆直交変換し、予測残差復号信号を出力する。なお、逆変換処理部9は、変換対象信号の特性に応じて、変換に用いる基底を切り替える。この切り替えに必要な情報は、別途、付加情報として符号化されているので、同情報を復号し、復号した情報に基づき、使用する基底を同定する。
復号信号生成部10では、この予測残差復号信号とインター予測処理部3またはイントラ予測処理部1の出力である予測信号とを加算し、符号化した符号化対象ブロックの復号信号を生成する。この復号信号は、インター予測処理部3またはイントラ予測処理部1において参照画像として用いるために、フレームメモリ12に格納される。なお、インター予測処理部3において参照する場合は、インループフィルタ処理部11において、符号化歪を低減するフィルタリング処理を行い、同フィルタリング処理後の画像をフレームメモリ12に格納し、同フィルタリング処理後の画像を参照画像として用いる。
イントラ予測処理部1において設定された予測モード等の情報は、イントラ予測情報記憶部4に格納され、さらに、エントロピー符号化処理部13においてエントロピー符号化され、符号化ストリームとして出力される。インター予測処理部3において設定された動きベクトル等の情報は、インター予測情報格納部2に格納され、さらに、エントロピー符号化処理部13においてエントロピー符号化され、符号化ストリームとして出力される。
[画像復号装置の構成]
次に、本発明を適用する動画像復号装置の一構成について説明する。図4は、本発明を適用する動画像復号装置の一構成を示す図である。図4に示す動画像復号装置は、エントロピー復号処理部21、逆量子化処理部22、逆変換処理部23、復号信号生成部24、インター予測情報記憶部25、インター予測処理部26、イントラ予測情報記憶部27、イントラ予測処理部28、インループフィルタ処理部29、フレームメモリ30、変換基底記憶部31を備える。
図4に示す動画像復号装置において、特に逆変換処理部23、変換基底記憶部31が従来技術と異なる部分であり、他の部分は、H.264、その他のデコーダとして用いられている従来の一般的な動画像復号装置の構成と同様である。動画像復号装置は、図3に示す動画像符号化装置により符号化された符号化ストリームを入力して復号することにより復号画像の映像信号を出力する。この復号のため、エントロピー復号処理部21は、符号化ストリームを入力し、復号対象ブロックの量子化変換係数をエントロピー復号するとともに、イントラ予測に関する情報及びインター予測に関する情報を復号する。
イントラ予測に関する情報及びインター予測に関する情報は、各々、イントラ予測情報記憶部27、インター予測情報記憶部25に記憶される。逆量子化処理部22は、量子化変換係数を入力し、それを逆量子化して復号変換係数を出力する。逆変換処理部23は、復号変換係数に逆直交変換を施し、予測残差復号信号を出力する。復号信号生成部24は、この予測残差復号信号とインター予測処理部26またはイントラ予測処理部28の出力である予測信号とを加算し、復号対象ブロックの復号信号を生成する。この復号信号は、インター予測処理部26あるいはイントラ予測処理部28において参照画像として用いるために、フレームメモリ30に記憶される。
なお、インター予測処理部25において参照する場合は、上記復号信号に対して、インループフィルタ処理部29において、符号化歪を低減するフィルタリング処理を行い、フレームメモリ30に格納し、このフィルタリング処理後の画像を参照画像として用いる。
[クラス数最適化装置の構成]
次に、本実施形態によるクラス数最適化装置の構成を説明する。図5は、本実施形態によるクラス数最適化装置の構成を示すブロック図である。クラス数最適化装置は、訓練データ記憶部41、係数設定処理部42、係数記憶部43、辞書設定処理部44、辞書記憶部45、クラス設定処理部46、クラス記憶部47、近似誤差記憶部48、反復判定処理部49、クラス数評価尺度算出部50、クラス数評価尺度記憶部51、クラス数最適化判定部52、クラス数インクリメント部53、辞書生成部54を備える。
訓練データ記憶部41は、訓練データを読込み、記録する。クラス設定処理部46は、訓練データ、辞書、係数を各々、訓練データ記憶部41、係数記憶部43、辞書記憶部45から読み出し、入力として、クラス分類を行い、クラス記憶部47に記憶する。具体的な設定方法は、後述する。
係数設定処理部42は、訓練データ、辞書、クラス分類各々、訓練データ記憶部41、辞書記憶部45、クラス記憶部47から読み出し、入力として、辞書内の基底に対する係数を算出し、係数記憶部43に記憶する。具体的な設定方法は、例えば、K−SVDの係数設定手法であるMatching Pursuit(MP)やOrthogonal Matching Pursuit(OMP)を利用する。
辞書設定処理部44は、訓練データ、辞書、係数を各々、訓練データ記憶部41、係数記憶部43、クラス記憶部47から読み出し、入力として、辞書内の基底を生成し、辞書記憶部45に記憶する。具体的な設定方法は、例えば、K−SVDの辞書設定手法である疎性を考慮した特異値分解を利用する。また、このとき算出した近似誤差を近似誤差記憶部48に記憶する。
反復処理部49は、辞書設定処理部44で出力された近似誤差が一つ前の反復ステップの出力として記憶された近似誤差と比較して、両近似誤差の差分が閾値以下となる場合、処理を終了し、辞書記憶部45に記憶された各クラスの辞書を出力する。上記以外の場合、クラス設定処理部46の処理へ戻る。
クラス数評価尺度算出部50は、式(8)に従い、クラス数に関する評価尺度J(C)を算出する。算出した値は、クラス数評価尺度記憶部51に記憶する。クラス数最適化判定部52は、クラス数評価尺度算出部50で算出した値J(C)とクラス数評価尺度記憶部51に記憶した値J(C−1)とを比較し、以下の条件を満たす場合は、処理を終了し、辞書を出力する。
J(C−1)<J(C)
それ以外の場合は、クラス数インクリメント部53にて、クラス数を一つインクリメントして、係数設定処理部42、辞書設定処理部44、クラス設定処理部46の処理から始まる処理を繰り返す。
次に、図5に示すクラス数最適化装置の動作を説明する。図6は、クラス数最適化の処理の動作を示すフローチャートである。まず、訓練データ記憶部41は、訓練データ、制約条件として課せられる係数の個数の上限を読込む(ステップS1)。クラス数インクリメント部53は、クラス数の変数CをC=1として初期化する(ステップS2)。辞書生成部54は、クラス数をCとした場合の辞書を生成する(ステップS3)。本処理の詳細は、後述する。
次に、クラス数評価尺度算出部50は、クラス数Cとした場合の辞書に対する評価尺度J(C)を算出する(ステップS4)。本処理の詳細は、後述する。クラス数最適化判定部52は、ステップS4において算出した結果を読み出し、C>1かつJ(C)>J(C−1)となるか否かを判定する。そして、C>1かつJ(C)>J(C−1)となる場合次の処理に移る。そうでない場合、ステップS3の処理に戻る。
次に、辞書生成部54は、最適クラス数をC−1に設定し(ステップS6)、クラス数C−1の場合の辞書を出力する(ステップS7)。
次に、図7を参照して、図6に示すステップS3の詳細な処理を説明する。図7は、図6に示すステップS3の詳細な処理を示すフローチャートである。まず、辞書生成部54は、訓練データ、制約条件として課せられる係数の個数の上限を読込む(ステップS11)。続いて、辞書生成部54は、訓練データ、辞書、係数を各々、入力として、読込み、訓練データをクラス分類し、クラス分類の結果を出力する(ステップS12)。本処理の詳細は、後述する。
次に、辞書生成部54は、訓練データ、辞書、クラス分類を入力として読込み、辞書内の基底に対する係数を算出し、出力する(ステップS13)。具体的な設定方法は、例えば、K−SVDの係数設定手法であるMatching pursuit(MP)やOrthogonalMatching pursuit(OMP)を利用する。
次に、辞書生成部54は、訓練データ、辞書、係数を入力として読込み、辞書内の基底を生成し、出力する(ステップS14)。具体的な設定方法は、例えば、K−SVD の辞書設定手法である疎性を考慮した特異値分解を利用する。
次に、辞書生成部54は、算出した近似誤差と前ステップの近似誤差との差分が閾値以下か否かを判定する(ステップS15)。そして、両近似誤差の差分が閾値以下となる場合、処理を終了し、辞書記憶部45に格納された各クラスの辞書を出力する。上記以外の場合、ステップS12の処理へ戻る。
次に、図8を参照して、図6に示すステップS4の詳細な処理を説明する。図8は、図6に示すステップS4の詳細な処理を示すフローチャートである。まず、辞書生成部54は、各クラスの訓練データを読込む(ステップS21)。そして、辞書生成部54は、ステップS23、S24の処理をクラスインデックスc=1,・・・,Cまで繰り返す(ステップS22、S25)。ステップS23では、式(5)に従い、第cクラスの代表ベクトルを算出する。ステップS24では、第cクラスの訓練ベクトルに対する代表ベクトルによる近似誤差和を算出する。
次に、辞書生成部54は、式(4)に従い、第cクラス内の近似誤差和を同クラス内の訓練データ数で正規化した近似誤差和について全クラスの総和を算出する(ステップS26)。そして、辞書生成部54は、ステップS23で求めた全クラスの代表ベクトルとして読み込む(ステップS27)。
次に、辞書生成部54は、式(6)に従い、ステップS27で読み込んだ各クラスの代表ベクトルを用いて、クラス間の分散を算出する(ステップS28)。そして、辞書生成部54は、ステップS30〜ステップS34の処理をクラスインデックスc=1,・・・,Cまで繰り返す。ステップS36の出力として、式(7)で示すクラス間距離の最小値が求まる。
次に、辞書生成部54は、ステップS31〜ステップS34の処理をクラスインデックスc’=c,・・・,Cまで繰り返す(ステップS30、S35)。ステップS31では、(m(C) −m(C) として、第cクラス、および第c’クラスの代表ベクトル間の距離を算出する。ステップS32では、ステップS31で算出した距離がこれまでに求めた最小値よりも小さい場合、ステップS34の処理に移り、そうでない場合、ステップS34の処理を行わない。ステップS34では、代表ベクトル間の距離を更新する。
最後に、辞書生成部54は、式(8) に従い、正規化した近似誤差和の総和(ステップS26の出力)をクラス間の分散(ステップS28の出力)、および、代表ベクトル間の最小距離(ステップS36の出力)で除算した値をクラス選択の評価尺度として算出する(ステップS37)。
次に、図9を参照して、図7に示すステップS12の詳細な処理を説明する。図9は、図7に示すステップS12の詳細な処理を示すフローチャートである。まず辞書生成部54は、訓練データ、訓練データの個数を読込む(ステップS41)。続いて、辞書生成部54は、訓練データ、辞書、係数を入力として読込み、訓練データに対するクラスを設定する。クラスの設定はクラスインデックスにより指定する処理を、N個の訓練データに対して、繰り返す(ステップS42〜S44)。そして、辞書生成部54は、N個の訓練データに対して付与されたクラスインデックスを出力する(ステップS45)。
次に、図10を参照して、図9に示すステップS43の詳細な処理を説明する。図10は、図9に示すステップS43の詳細な処理を示すフローチャートである。まず、辞書生成部54は、表現対象となる訓練データを読み込み、変数bに格納する。また、表現対象データを表現する際に用いる辞書内の基底の本数として、指定された値Tを読み込む。このTは有意係数の個数を表す(ステップS51)。続いて、辞書生成部54は、後段の処理で使用する変数εを、その変数のとりうる最大値で初期化する(ステップS52)。
次に、辞書生成部54は、以下のステップS54〜S69の処理を全てのクラスに対して行う(ステップS53)。そして、辞書生成部54は、当該クラスの辞書D(c)を読み込む。係数を格納するベクトル、近似誤差を格納する変数、係数ベクトルのサポート(有意係数の位置)を各々、x(0)=0,r(0)=b,S(0)=φ(空集合)として初期化する(ステップS54)。
次に、辞書生成部54は、ステップS56〜S65の処理を反復回数を表すインデックスkをk=1,・・・,T0として繰り返す(ステップS55)。ステップS56〜S58では、基底を指定するインデックスの集合S(k−1)内に格納された辞書内の基底を指定する各インデックスiに対して、以下の値を算出し、以下の値を最小化する基底を求め、同基底を指定するインデックスをiとして格納する。
Figure 0006581045
上式で求めたε(i)はk−1本の基底で近似した際の近似誤差r(k−1)に対して、k本目の基底としてd(c) を加えた場合の近似誤差である。同近似誤差を以降の処理では、更新近似誤差と呼ぶ。
次に、辞書生成部54は、更新近似誤差を最小化する基底のインデックスを同定し、iに格納する(ステップS59。そして、辞書生成部54は、ε(i)および本ステップ以前に求めた近似誤差の最小値(暫定最小近似誤差)εを入力として読込み、ε(i) がεよりも大きくなった場合、クラスインデックスを更新し(ステップS64)、ステップS55へ戻る。それ以外の場合は、ステップS61に進む。
次に、辞書生成部54は、更新近似誤差を最小化する基底のインデックスi、基底を指定するインデックスの集合であるサポートS(k−1)を入力として読込み、iをS(k−1)へ追加し、サポートをS(k)として更新し、S(k)を出力する(ステップS61)。
次に、辞書生成部54は、サポートS(k)、辞書D(c)、表現対象データr(0)を入力として読込み、S(k)で指定された基底のみを使用して、つまり、有意係数の位置をsupport{x}=S(k) に限定して、次式の近似誤差を最小化する係数ベクトルx(k)を算出する処理を行い、係数ベクトルx(k)を出力する。
Figure 0006581045
ここで、support{x} = S(k)は、ベクトルxの有意要素がS(k)に含まれる要素のみであることを示す(ステップS62)。
次に、辞書生成部54は、係数ベクトルx(k)、サポートS(k)、辞書D(c)、表現対象データr(0)を入力として読込み、x(k)を用いた場合の近似誤差を算出し、同近似誤差を出力する(ステップS63)。次に、辞書生成部54は、 ステップS53〜S65の反復処理によって得られた‖r(T0) を入力として読込み、‖r(T0) をクラスcにおける近似誤差として、ε(c)に格納し、ε(c)の値を出力する(ステップS66)。
次に、辞書生成部54は、ε(c) 、暫定最小近似誤差εを入力として読込み、ε(c)が、暫定最小近似誤差εよりも小さい場合、ステップS68に進み、それ以外の場合はステップS69に進む(ステップS67)。
次に、辞書生成部54は、暫定最小近似誤差をε(c)として更新し、さらに、暫定最適クラスインデックスをc=cとし、暫定最適係数ベクトルをx=x(T0) として更新する(ステップS68)。
最後に、辞書生成部54は、cを最適なクラスを示すインデックスとして、あわせて、xを最適な係数ベクトルとして、出力する(ステップS70)。
次に、図11を参照して、図9に示すステップS43の詳細な処理の変形例を説明する。図11は、図9に示すステップS43の詳細な処理を示すフローチャートである。図11において、図10に示す処理と同じ処理には、同じ符号を付けて、説明を簡単に行う。
まず、辞書生成部54は、表現対象となる訓練データを読み込み、変数bに格納する。また、表現対象データを表現する際に用いる辞書内の基底の本数として、指定された値Tを読み込む。このTは有意係数の個数を表す(ステップS51)。次に、辞書設定処理で付与された暫定クラスインデックスCを読み込む(ステップS71)。続いて、辞書生成部54は、後段の処理で使用する変数εを、その変数のとりうる最大値で初期化する(ステップS52)。
次に、辞書生成部54は、以下のステップS54〜S69の処理を全てのクラスに対して行う(ステップS53’)。すなわち、暫定クラスインデックスcを先頭インデックスとして、反復処理を開始する。そして、辞書生成部54は、当該クラスの辞書D(c)を読み込む。係数を格納するベクトル、近似誤差を格納する変数、係数ベクトルのサポート(有意係数の位置)を各々、x(0)=0,r(0)=b,S(0)=φ(空集合)として初期化する(ステップS54)。
次に、辞書生成部54は、ステップS56〜S65の処理を反復回数を表すインデックスkをk=1,・・・,T0として繰り返す(ステップS55)。ステップS56〜S58では、基底を指定するインデックスの集合S(k−1)内に格納された辞書内の基底を指定する各インデックスiに対して、上記の式を用いて値を算出し、その値を最小化する基底を求め、同基底を指定するインデックスをiとして格納する。
求めたε(i)はk−1本の基底で近似した際の近似誤差r(k−1)に対して、k本目の基底としてd(c) を加えた場合の近似誤差である。同近似誤差を以降の処理では、更新近似誤差と呼ぶ。
次に、辞書生成部54は、更新近似誤差を最小化する基底のインデックスを同定し、iに格納する(ステップS59)。そして、辞書生成部54は、ε(i)および本ステップ以前に求めた近似誤差の最小値(暫定最小近似誤差)εを入力として読込み、ε(i がεよりも大きくなった場合(ステップS72)、クラスインデックスを更新し(ステップS73)、ステップS55へ戻る。それ以外の場合は、ステップS61に進む。
次に、辞書生成部54は、更新近似誤差を最小化する基底のインデックスi、基底を指定するインデックスの集合であるサポートS(k−1)を入力として読込み、iをS(k−1)へ追加し、サポートをS(k)として更新し、S(k)を出力する(ステップS61)。
次に、辞書生成部54は、サポートS(k)、辞書D(c)、表現対象データr(0)を入力として読込み、S(k)で指定された基底のみを使用して、つまり、有意係数の位置をsupport{x}=S(k) に限定して、上記の式によって近似誤差を最小化する係数ベクトルx(k)を算出する処理を行い、係数ベクトルx(k)を出力する。ここで、support{x}=S(k)は、ベクトルxの有意要素がS(k)に含まれる要素のみであることを示す(ステップS62)。
次に、辞書生成部54は、係数ベクトルx(k)、サポートS(k)、辞書D(c)、表現対象データr(0)を入力として読込み、x(k)を用いた場合の近似誤差を算出し、同近似誤差を出力する(ステップS63)。次に、辞書生成部54は、 ステップS53〜S65の反復処理によって得られた‖r(T0) を入力として読込み、‖r(T0) をクラスcにおける近似誤差として、ε(c)に格納し、ε(c)の値を出力する(ステップS66)。
次に、辞書生成部54は、ε(c) 、暫定最小近似誤差εを入力として読込み、ε(c)が、暫定最小近似誤差εよりも小さい場合、ステップS68に進み、それ以外の場合はステップS69に進む(ステップS67)。
次に、辞書生成部54は、暫定最小近似誤差をε(c)として更新し、さらに、暫定最適クラスインデックスをc=cとし、暫定最適係数ベクトルをx=x(T0)として更新する(ステップS68)。
最後に、辞書生成部54は、cを最適なクラスを示すインデックスとして、あわせて、xを最適な係数ベクトルとして、出力する(ステップS70)。このように、図11に示す処理は、図10に示す処理との結果の同一性は保持しつつ、暫定最小近似誤差の算出において、処理の打ち切りにより演算量の低減を実現することができる。
次に、図12を参照して、図7に示すステップS12の詳細な処理を説明する。図12は、図7に示すステップS12の詳細な処理を示すフローチャートである。図12において、図9に示す処理と同じ処理には、同じ符号を付与してその説明を簡単に行う。
まず辞書生成部54は、訓練データ、訓練データの個数、近似誤差の閾値を読込む(ステップS41’)。続いて、辞書生成部54は、訓練データ、辞書、係数を入力として読込み、訓練データに対するクラスを設定する。クラスの設定はクラスインデックスにより指定する処理を、N個の訓練データに対して、繰り返す(ステップS42〜S44)。このとき、辞書生成部54は、辞書設定処理で算出した第n訓練データに対する近似誤差を読み込む(ステップS46)。そして、近似誤差が閾値以上であれば、第n訓練データに対するクラス設定処理を行う(ステップS43)。一方、近似誤差が閾値以上でなければ、ステップS43の処理は行わない。最後に、辞書生成部54は、N個の訓練データに対して付与されたクラスインデックスを出力する(ステップS45)。
以上説明したように、映像符号化を行う際に、DCTなどに代表される変換符号化において映像信号を学習し基底を生成するとき、従来の学習アルゴリズムでは映像信号の空間的な局所性を考慮したクラス分類がなされておらず、最適なクラス数の探索については考慮されていなかった。これに対して、前述した構成によれば、画像の局所性に基づき、クラス分類を行い、クラス毎に適切な辞書を生成する際、適切なクラス数を設定することで最適なクラス数を算出することができる。特に、式(4)により近似誤差を低減することができるため、符号化効率の向上という効果を得ることが可能である。
前述した実施形態における画像符号化装置の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
過完備な基底から構成される辞書の生成におけるクラス分類のクラス数を適切に設定することが不可欠な用途にも適用できる。
41・・・訓練データ記憶部、42・・・係数設定処理部、43・・・係数記憶部、44・・・辞書設定処理部、45・・・辞書記憶部、46・・・クラス設定処理部、47・・・クラス記憶部、48・・・近似誤差記憶部、49・・・反復判定処理部、50・・・クラス数評価尺度算出部、51・・・クラス数評価尺度記憶部、52・・・クラス数最適化判定部、53・・・クラス数インクリメント部、54・・・辞書生成部

Claims (7)

  1. 映像を符号化する際に前記映像を表現するための変換基底を格納した辞書を生成するために、訓練データを複数のクラスに分類し、前記クラス毎に対応する訓練データを用いて前記辞書を生成する画像符号化方法であって、
    与えられたクラス分類に基づき、前記クラス毎に前記辞書を生成する辞書生成ステップと、
    前記辞書内の基底の数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類ステップと、
    クラス内の近似誤差和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出しながら前記辞書の生成と前記訓練データの再分類とを、クラス数を1つずつ増やしながら、クラス数がCであるときの評価尺度が、クラス数がC−1であるときの評価尺度よりも大きくなるまで反復する反復ステップと、
    前記反復ステップにおける反復が終わった時点のC−1の値を、クラス数として設定するクラス設定ステップと
    を有する画像符号化方法。
  2. 映像を符号化する際に前記映像を表現するための変換基底を格納した辞書を生成するために、訓練データを複数のクラスに分類し、前記クラス毎に対応する訓練データを用いて前記辞書を生成する画像符号化方法であって、
    与えられたクラス分類に基づき、前記クラス毎に前記辞書を生成する辞書生成ステップと、
    前記辞書内の基底の数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類ステップと、
    クラス数で正規化したクラス内の近似誤差和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出しながら前記辞書の生成と前記訓練データの再分類とを、クラス数を1つずつ増やしながら、クラス数がCであるときの評価尺度が、クラス数がC−1であるときの評価尺度よりも大きくなるまで反復する反復ステップと、
    前記反復ステップにおける反復が終わった時点のC−1の値を、クラス数として設定するクラス設定ステップと
    を有する画像符号化方法。
  3. 映像を符号化する際に前記映像を表現するための変換基底を格納した辞書を生成するために、訓練データを複数のクラスに分類し、前記クラス毎に対応する訓練データを用いて前記辞書を生成する画像符号化方法であって、
    与えられたクラス分類に基づき、前記クラス毎に前記辞書を生成する辞書生成ステップと、
    前記辞書内の基底の数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類ステップと、
    クラス数で正規化したクラス内の近似誤差和と有意係数の個数との加重和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出しながら前記辞書の生成と前記訓練データの再分類とを、クラス数を1つずつ増やしながら、クラス数がCであるときの評価尺度が、クラス数がC−1であるときの評価尺度よりも大きくなるまで反復する反復ステップと、
    前記反復ステップにおける反復が終わった時点のC−1の値を、クラス数として設定するクラス設定ステップと
    を有する画像符号化方法。
  4. 前記近似誤差和をe (C)、Cをクラス数、X(c)をクラスcの基底の係数の行列、Y(c)をクラスcの訓練データに対する近似信号の行列、D(c)をクラスcの辞書、‖・‖ をLノルムの二乗値としたとき、
    Figure 0006581045
    によって、前記近似誤差和を算出する請求項1に記載の画像符号化方法。
  5. 前記評価尺度をJ(C)、Vをクラス間の分散、dをクラス間の距離の最小値、λを所定の係数、Tをクラス内の有意係数の個数、nをクラス内の訓練ベクトルの個数としたき、
    Figure 0006581045
    によって前記評価尺度を算出する請求項4に記載の画像符号化方法。
  6. 映像を符号化する際に前記映像を表現するための変換基底を格納した辞書を生成するために、訓練データを複数のクラスに分類し、前記クラス毎に対応する訓練データを用いて前記辞書を生成する画像符号化装置であって、
    与えられたクラス分類に基づき、前記クラス毎に前記辞書を生成する辞書生成部と、
    前記辞書内の基底の数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類部と、
    クラス内の近似誤差和、クラス間分散、クラス間の距離に基づき、所与のクラス数に対して生成された辞書の評価尺度を算出しながら前記辞書の生成と前記訓練データの再分類とを、クラス数を1つずつ増やしながら、クラス数がCであるときの評価尺度が、クラス数がC−1であるときの評価尺度よりも大きくなるまで反復する反復部と、
    前記反復部における反復が終わった時点のC−1の値を、クラス数として設定するクラス設定部と
    を備える画像符号化装置。
  7. コンピュータに、請求項1から5のいずれか一項に記載の画像符号化方法を実行させるための画像符号化プログラム。
JP2016126989A 2016-06-27 2016-06-27 画像符号化方法、画像符号化装置及び画像符号化プログラム Active JP6581045B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016126989A JP6581045B2 (ja) 2016-06-27 2016-06-27 画像符号化方法、画像符号化装置及び画像符号化プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016126989A JP6581045B2 (ja) 2016-06-27 2016-06-27 画像符号化方法、画像符号化装置及び画像符号化プログラム

Publications (2)

Publication Number Publication Date
JP2018006832A JP2018006832A (ja) 2018-01-11
JP6581045B2 true JP6581045B2 (ja) 2019-09-25

Family

ID=60946519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016126989A Active JP6581045B2 (ja) 2016-06-27 2016-06-27 画像符号化方法、画像符号化装置及び画像符号化プログラム

Country Status (1)

Country Link
JP (1) JP6581045B2 (ja)

Also Published As

Publication number Publication date
JP2018006832A (ja) 2018-01-11

Similar Documents

Publication Publication Date Title
US11606560B2 (en) Image encoding and decoding, video encoding and decoding: methods, systems and training methods
Ballé et al. Variational image compression with a scale hyperprior
Kirchhoffer et al. Overview of the neural network compression and representation (NNR) standard
Zepeda et al. Image compression using sparse representations and the iteration-tuned and aligned dictionary
US9204154B2 (en) Image encoding device and image decoding device
Valsesia et al. High-throughput onboard hyperspectral image compression with ground-based CNN reconstruction
TWI744827B (zh) 用以壓縮類神經網路參數之方法與裝置
WO2017183448A1 (ja) データ処理装置、データ処理方法、プログラム
JP7168896B2 (ja) 画像符号化方法、及び画像復号方法
US20210021821A1 (en) Video encoding and decoding method and apparatus
CN117980914A (zh) 用于以有损方式对图像或视频进行编码、传输和解码的方法及数据处理系统
JP6748022B2 (ja) 分割形状決定装置、学習装置、分割形状決定方法及び分割形状決定プログラム
CN107231556B (zh) 一种图像云储存设备
JP6581045B2 (ja) 画像符号化方法、画像符号化装置及び画像符号化プログラム
JP2021150738A (ja) 分割パターン決定装置、及び、それを用いた画像符号化装置、及び、学習装置、並びに、分割パターン決定装置及び学習装置の制御方法、及び、プログラム
JP7401822B2 (ja) 画像符号化方法、画像符号化装置及びプログラム
JP6502869B2 (ja) 辞書生成方法、辞書生成装置及び辞書生成プログラム
Schimpf et al. Compressing of Medium-to Low-Rate Transform Residuals With Semi-Extreme Sparse Coding as an Alternate Transform in Video Coding
JP5561611B2 (ja) 画像符号化方法,画像符号化装置および画像符号化プログラム
Cilingir et al. Image Compression Using Deep Learning
JP7265114B2 (ja) 予測画像取得装置、原信号取得装置、予測画像取得方法及びプログラム
US20240020884A1 (en) Online meta learning for meta-controlled sr in image and video compression
US20220321879A1 (en) Processing image data
Krishnamoorthy et al. Low bit-rate multi stage vector quantization based on energy clustered training set
JP4649770B2 (ja) 画像データ処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190829

R150 Certificate of patent or registration of utility model

Ref document number: 6581045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150