JP6502869B2 - 辞書生成方法、辞書生成装置及び辞書生成プログラム - Google Patents

辞書生成方法、辞書生成装置及び辞書生成プログラム Download PDF

Info

Publication number
JP6502869B2
JP6502869B2 JP2016005282A JP2016005282A JP6502869B2 JP 6502869 B2 JP6502869 B2 JP 6502869B2 JP 2016005282 A JP2016005282 A JP 2016005282A JP 2016005282 A JP2016005282 A JP 2016005282A JP 6502869 B2 JP6502869 B2 JP 6502869B2
Authority
JP
Japan
Prior art keywords
dictionary
class
training data
processing unit
dictionary generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016005282A
Other languages
English (en)
Other versions
JP2017126884A (ja
Inventor
幸浩 坂東
幸浩 坂東
誠之 高村
誠之 高村
清水 淳
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016005282A priority Critical patent/JP6502869B2/ja
Publication of JP2017126884A publication Critical patent/JP2017126884A/ja
Application granted granted Critical
Publication of JP6502869B2 publication Critical patent/JP6502869B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像符号化の変換処理に用いる変換基底の集合である辞書を生成する辞書生成方法、辞書生成装置及び辞書生成プログラムに関する。
画像符号化における重要な要素技術の一つに、離散コサイン変換(DCT:Discrete Cosine Transform)に代表される変換符号化がある。画像符号化における変換符号化の役割は、空間的な画素間相関の除去を行うことにある。変換符号化により少数の変換係数に情報を集中させることができる。そして、集中度の低い変換係数を切り捨てることで、符号化器における符号化対象信号に対する情報量を削減できる。
これまで、変換符号化の画像符号化への応用では、離散コサイン変換(DCT)をはじめとして、重複直交変換離散ウェーブレット変換(DWT:Discrete Wavelet Transform)といった多くの変換符号化方式が検討されてきた。例えば、変換符号化方式として、JPEG(Joint Photographic Experts Group)では離散コサイン変換(DCT)、JPEG 2000では重複直交変換離散ウェーブレット変換(DWT)が採用されている。また、直交変換は完備な基底(complete basis)を用いるため変換前後のデータ数が不変である。このため、直交変換は非冗長変換(non.redundant transform)である。動画像符号化装置においては、内部に備えている変換処理部が上記の技術に該当する。
一方で、基底数が原信号のサンプル数よりも多い過完備な基底(overcomplete basis)を用いた冗長変換(redudant transform)と呼ばれる変換がある。冗長変換は直交変換になり得ない。ただし、冗長変換は、変換後のデータに冗長性を持たせることで非冗長変換では実現できない特性をもつことができる。たとえば、ダウンサンプリング処理を行わないDWTである離散定常ウェーブレット変換(SWT:Stationary Wavelet Transform)は変換後の冗長性より、DWTで失われるシフト不変性を成立させることができる。また、画像処理分野では「方向分離特性をもつ変換」が注目されている。
このような変換は一般的に冗長変換であり、代表例としてCurvelet変換がある。並列木複素ウェーブレット変換(DTCWT:Dual Tree Complex Wavelet Transform)も同様の特性をもつ変換である。方向分離特性をもつ変換は、画像信号中に含まれるエッジ等の曲線を2次元で定義される方向基底を用いて表現する変換である。方向分離特性をもつ変換は、方向基底を用いて2次元構造を高い精度で近似する。そのため、方向分離特性をもつ変換は、重複直交変換離散ウェーブレット変換(DWT)に比べれば、雑音除去や特徴抽出に対して、有効であるとされている。しかし、方向分離特性をもつ変換は、映像信号によらず固定された基底を用いるため、多様な映像の特性を表現することに限界がある。これは、上記の変換が画像信号に基づき設計されていないことに起因する。
これに対して、実映像信号を訓練データとして学習し、基底を設計する方法が検討されている。このような方法では、実映像信号に含まれる特徴を基底に反映させることが特徴である。こうして設計された基底の集合を辞書と呼ぶ。辞書設計の代表的な手法として、K−SVD法(例えば、非特許文献1参照)が提案されている。K−SVD法では、辞書Dおよび各基底の係数x(i=1,・・・,N)を用いて、学習する際に用いるデータである訓練データy(i=1,・・・,N)に対する近似信号^yi(^は続く文字の上に付く)が表現される。ここで、Dはn×m行列、y(i=1,・・・,N)はn(nは自然数)次元ベクトル、x(i=1,・・・,N)はm(mは自然数)次元ベクトルであり、n<mである。また、以下では、y(i=1,・・・,N)を列ベクトルとするn行N列の行列をYとし、x(i=1,・・・,N)を列ベクトルとするm行N列の行列をXとする。
基底の学習では、以下の制約条件付最適化問題の解が求められる。
Figure 0006502869
ここで、‖・‖はLノルムであり、非ゼロ係数の個数を表している。‖・‖ はLノルムの二乗値であり、二乗和を表す。
M. Aharon, M. Elad and A. Bruckstein "K-SVD: An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation", IEEE Transactions on Signal Processing, Vol.54, No.11, pp.4311-4322, 2006
貪欲法(近似アルゴリズム)をベースにしたK−SVD法等の既存の基底の学習アルゴリズムは、解の探索空間が広すぎると、最適解から乖離した局所解に陥る危険性がある。一方、画像信号は、空間的な局所性を有しており、その性質は一様ではないことが知られている。この局所性を考慮して、画像信号内の領域を適切に分類することで、基底の学習アルゴリズムに対する解の探索空間を制限することができる。しかし、既存の基底の学習アルゴリズムでは、局所性が考慮されていない、または、局所性の考慮が符号化効率最適化の観点から不十分であり、符号化効率の向上に改善の余地を残す。
本発明は、このような事情に鑑みてなされたもので、符号化効率を最適化するための画像符号化の変換処理に用いる変換基底の集合である辞書を生成することができる辞書生成方法、辞書生成装置及び辞書生成プログラムを提供することを目的とする。
本発明の一態様は、映像信号を表現するために用いられる変換基底を格納した辞書を生成する辞書生成装置が行う辞書生成方法であって、訓練データを入力する入力ステップと、辞書を固定化した条件下において、前記訓練データに対してクラスを設定し、前記クラスと前記辞書とを固定化した条件下において、前記クラス毎に係数を設定し、前記クラスと前記係数とを固定化した条件下において、前記クラス毎に辞書を設定することにより辞書を生成する辞書生成ステップと、前記辞書内の前記変換基底の数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類ステップと、前記辞書の生成と前記訓練データの再分類とを反復する反復ステップとを有する辞書生成方法である。
本発明の一態様は、前記辞書生成方法であって、前記係数を用いた場合の近似誤差が最小となるように前記辞書生成ステップを繰り返し行う。
本発明の一態様は、前記辞書生成方法であって、前記辞書生成ステップでは、前記訓練データに対する各クラスの辞書を用いた評価値を算出するために、同クラスの辞書内の変換基底に対する評価値を累積加算し、評価値和を求める場合に、既に計算済みの他クラスによる評価値和の中で最小値を示した暫定最小値との比較を行い、累積加算途中の処理対象クラスの評価値和が、暫定最小値を超えた時点で、前記処理対象クラスの分類を終了する。
本発明の一態様は、前記辞書生成方法であって、前記辞書生成ステップでは、前記クラスの分類処理の直前に行われた辞書生成処理において、処理対象クラスが属するとされたクラスの前記辞書を用いた場合の評価値和を求め、該評価値和を暫定最小値の初期値とする。
本発明の一態様は、映像信号を表現するために用いられる変換基底を格納した辞書を生成する辞書生成装置であって、訓練データを入力する入力部と、辞書を固定化した条件下において、前記訓練データに対してクラスを設定し、前記クラスと前記辞書とを固定化した条件下において、前記クラス毎に係数を設定し、前記クラスと前記係数とを固定化した条件下において、前記クラス毎に辞書を設定することにより辞書を生成する辞書生成部と、前記辞書内の前記変換基底の数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類部と、前記辞書の生成と前記訓練データの再分類とを反復する反復部とを備える辞書生成装置である。
本発明の一態様は、コンピュータに、前記辞書生成方法を実行させるための辞書生成プログラムである。
本発明によれば、符号化効率を最適化するための画像符号化の変換処理に用いる変換基底の集合である辞書を生成することができるという効果が得られる。
Matching Pursuitによるクラス設定アルゴリズムの処理を示す図である。 図1に示すMatching Pursuitによるクラス設定アルゴリズムの処理の変形例を示す図である。 本発明を適用する動画像符号化装置の一構成例を示すブロック図である。 本発明を適用する動画像復号装置の一構成例を示すブロック図である。 辞書生成装置の構成を示すブロック図である。 図5に示す辞書生成装置の動作を示すフローチャートである。 図6に示すクラス設定処理(ステップS22)の詳細動作を示すフローチャートである。 図7に示すステップS33の処理の詳細動作を示すフローチャートである。 図7に示すステップS33の詳細動作の変形例(図8の変形例)を示すフローチャートである。 図6に示すステップS22の詳細動作の変形例(図7の変形例)を示すフローチャートである。
以下、図面を参照して、本発明の一実施形態による辞書生成装置を説明する。はじめに本発明の基本原理を説明する。本発明の基本原理は、以下の式に示すように、辞書を生成するために予め用意された画像である訓練画像ΨをC個のクラスに分類し、各クラス毎に、適切な辞書を生成することである。以下の式において、ψ(c)は、クラスに分類したクラスcの訓練画像である。
Ψ={ψ(c)|c=1,・・・,C}
解くべき問題は以下の通り、定式化される。
Figure 0006502869
上記問題((2)式)の求解は、以下の(S1)(S2)(S3)を反復する処理により実現される。
(S1:係数設定処理)Ψ,D(c)を固定した状態で、X(c)を最適化
(S2:辞書設定処理)Ψ,X(c)を固定した状態で、D(c)を最適化
(S3:クラス設定処理)D(c)を固定した状態で、Ψを最適化
ここで、D(c)は、クラスcの辞書であり、X(c)は、クラスcのm行N列(m、Nは自然数)の行列である。
(S1)および(S2)では、辞書学習の既存手法(例えば、k−SVD法等)を利用する。C個のクラスの各々に対して、辞書学習の既存手法を使用して、各クラス毎に、辞書と辞書内の基底に対する係数が算出される。(S3)では、辞書の学習を行う際に用いる訓練ベクトルy(i=1,・・・,N)に対して、疎性に関する制約条件を満たす解において近似誤差を最小化するものが同定される。各訓練ベクトルyに対して、次式の最小化問題を求解し、訓練ベクトルyが属すべきクラスcが求められる。
Figure 0006502869
すなわち、各クラスの辞書D(c)(c=1,・・・,C)の内容は固定して、辞書内の基底の使用本数を所定の閾値以下に抑えた制約条件のもとで、訓練ベクトルyを表現した場合、近似誤差を最小化するクラスが求められる。そして、訓練ベクトルyは同クラスに属するものとして、クラス分類を更新する。辞書D(c)内の基底は、辞書D(c)の列ベクトルd (c)として表現される。
上記最小化問題に対しては、例えば、Matching Pursuit(MP)またはOrthognal Matching Pursuit(OMP)を用いて解を求めることができる。具体的な手順を図1に示す。図1は、辞書生成装置が行うMatching Pursuitによるクラス設定アルゴリズムの処理を示す図である。図1において、左端の数字は、アルゴリズムを構成する各ステップを識別するためのステップ番号である。
まず、辞書生成装置は、表現対象となる訓練データを読み込み、変数bに格納する。また、辞書生成装置は、表現対象データを表現する際に用いる辞書内の基底の本数として、指定された値T(有意係数の個数)を読み込む(ステップ1)。そして、辞書生成装置は、後段の処理で使用する変数を初期化する(ステップ2)。
次に、辞書生成装置は、ステップ4からステップ17の処理を全てのクラスに対して行う(ステップ3)。辞書生成装置は、処理対象クラスの辞書を読み込み(ステップ4)、各変数を初期化する(ステップ5〜7)。
次に、辞書生成装置は、以下のステップ9からステップ15の処理をk=1,・・・,Tとして、繰り返す(ステップ8)。そして、辞書生成装置は、基底を指定するインデックスの集合S(k−1)内に格納された辞書内の基底を指定する各インデックスiに対して、(4)式の値を算出し、(4)式の値を最小化する基底を求め、同基底を指定するインデックスをiとして格納する(ステップ9〜11)。
Figure 0006502869
(4)式で求めたε(i)はk−1本の基底で近似した際の近似誤差r(k−1)に対して、k本目の基底としてd(c) を加えた場合の近似誤差である。辞書生成装置は、今求めたε(i)が、本ステップ以前に求めた近似誤差の最小値(暫定最小近似誤差)εよりも大きくなった場合、以降の処理は中止し、ステップ5へ戻る。理由は、クラスcの辞書では、近似誤差を暫定近似誤差以下にはすることはできず、結果として、近似誤差を最小化できないためである(ステップ12)。
次に、辞書生成装置は、基底を指定するインデックスの集合として、S(k−1)にiを追加し、S(k)として更新する(ステップ13)。続いて、辞書生成装置は、S(k)で指定された基底のみを使用して、つまり、有意係数の位置をsupport{x}=S(k)に限定して、(5)式の近似誤差を最小化する係数ベクトルx(k)を求める(ステップ14)。
Figure 0006502869
ここで、support{x}=S(k)は、ベクトルxの有意要素がS(k)に含まれる要素のみであることを示す。
次に、辞書生成装置は、x(k)を用いた場合の近似誤差を求める(ステップ15)。続いて、辞書生成装置は、‖r(T0) をクラスcにおける近似誤差として、ε(c)に格納する(ステップ16)。そして、辞書生成装置は、ε(c)が、暫定最小近似誤差εよりも小さい場合、暫定最小近似誤差をε(c)として更新し、さらに、暫定最適クラスインデックスをc=cとし、暫定最適係数ベクトルをx=x(T0)として更新する(ステップ17)。最後に、辞書生成装置は、cを最適なクラスを示すインデックスとして、xの最適な係数ベクトルとして、出力する(ステップ18)。
上記の処理では、ステップ12における処理の打ち切りにより、演算量の低減を図ることができる。この処理の打ち切りを効果的に機能させる為には、クラスインデックスcに関する反復の早い段階で、なるべく小さな暫定最小近似誤差を設定する必要がある。そこで、前述の「S2:辞書設定処理」において、処理対象の訓練データに付与されたクラスを暫定クラスインデックスとして読み込み、この暫定クラスインデックスをクラスインデックスcに関する反復の最初のインデックスとして指定する。これにより、暫定最小近似誤差を小さな値に設定することが期待できる。その結果、クラス設定処理において、最適解となりえないクラスインデックスに対する処理を数多く打ち切ることが期待できる。
これを加味したクラス設定処理は、図2に示す処理となる。図2は、図1に示すMatching Pursuitによるクラス設定アルゴリズムの処理の変形例を示す図である。図2において、図1に示す処理と同じ処理には同じ符号を付与してその説明を省略する。図2に示す処理が図1示す処理と異なる点は、ステップ1’が新たに設けられ、ステップ3がステップ3’に置き換えられている点である。ステップ1’において、辞書生成装置は、処理対象訓練データに付与されたクラスを暫定クラスインデックスとして読み込み、cとして格納する。また、ステップ3’において、辞書生成装置は、暫定クラスインデックスcを先頭インデックスとして、反復処理を開始する。
このように、クラス設定処理の対象となるクラスを限定することで、演算量の低減を図ることができる。そこで、前述の「S2:辞書設定処理」において、処理対象訓練データに対して算出された近似誤差が一定の閾値以上となるクラスに限定して、クラス設定処理が実行される。
なお、本明細書において、画像とは、静止画像、または動画像を構成する1フレーム分の画像のことをいう。また映像とは、動画像と同じ意味であり、一連の画像の集合である。
<動画像符号化装置の構成>
次に、本発明を適用する動画像符号化装置の一構成について説明する。図3は、本発明を適用する動画像符号化装置の一構成例を示すブロック図である。動画像符号化装置は、イントラ予測処理部1、インター予測情報記憶部2、インター予測処理部3、イントラ予測情報記憶部4、予測残差生成部5、変換処理部6、量子化処理部7、逆量子化処理部8、逆変換処理部9、復号信号生成部10、インループフィルタ処理部11、フレームメモリ12、エントロピ符号化処理部13、変換基底記憶部14を備える。
図3に示す動画像符号化装置において、特に変換処理部6、変換基底記憶部14、逆変換処理部9が従来技術と異なる部分である。その他の部分は、H.265/HEVCまたはH.264/AVCなどのその他のエンコーダとして用いられている従来の一般的な動画像符号化装置の構成と同様である。本実施形態では、変換処理部6と逆変換処理部9とのそれぞれが変換基底記憶部14に記憶されている変換基底を用いて変換、逆変換を行う。
次に、図3に示す動画像符号化装置の動作を説明する。図3に示す動画像符号化装置は、符号化対象の映像信号を入力し、入力映像信号のフレームをブロックに分割してブロックごとに符号化する。そして、動画像符号化装置は、そのビットストリームを符号化ストリームとして出力する。この符号化のため、予測残差生成部5は、入力映像信号とイントラ予測処理部1またはインター予測処理部3の出力である予測信号との差分を求め、それを予測残差信号として出力する。
イントラ予測処理部1は予測結果をイントラ予測情報記憶部4に格納する。インター予測処理部3は、予測結果をインター予測情報記憶部2に格納する。変換処理部6は、変換基底記憶部14から適切な変換基底を読み出し、同変換基底を用いて予測残差信号に対して変換を行い、変換係数を出力する。また、変換処理部6は、変換対象信号の特性に応じて、変換に用いる基底を切り替える。この切り替えに必要な情報は、別途、付加情報として、動画像符号化装置が符号化する。変換基底記憶部14に格納する基底の生成方法が、本発明の主題である。具体的な生成方法の詳細は後述する。量子化部7は、変換係数を量子化し、その量子化された変換係数を出力する。エントロピー符号化処理13は、量子化された変換係数をエントロピー符号化し、符号化ストリームとして出力する。
逆量子化処理部8は、量子化された変換係数を逆量子化する。逆変換処理部9は、変換基底記憶部14から適切な変換基底を読み出す。逆変換処理部9は、この変換基底を用いて、逆量子化処理部8の出力である変換係数を逆直交変換し、予測残差復号信号を出力する。なお、逆変換処理部9は、変換対象信号の特性に応じて、変換に用いる基底を切り替える。動画像符号化装置は、この切り替えに必要な情報は、別途、付加情報として符号化する。そのため、動画像復号装置で復号するときには同情報を復号し、復号した情報に基づき、使用する変換基底を同定する。
復号信号生成部10は、この予測残差復号信号とイントラ予測処理部1またはインター予測処理部3の出力である予測信号とを加算し、符号化した符号化対象ブロックの復号信号を生成する。この復号信号は、インター予測処理部3またはイントラ予測処理部1に参照画像として用いるために、フレームメモリ12に格納される。なお、インター予測処理部3において参照する場合は、インループフィルタ処理部11において、符号化歪を低減するフィルタリング処理を行い、同フィルタリング処理後の画像をフレームメモリ12に格納し、同フィルタリング処理後の画像を参照画像として用いる。
イントラ予測処理部1において設定された予測モード等の情報は、イントラ予測情報格納部4に格納される。さらに、エントロピー符号化処理部13はエントロピー符号化を行い、符号化ストリームとして出力する。また、インター予測処理部3において設定された動きベクトル等の情報は、インター予測情報格納部2に格納される。さらに、エントロピー符号化処理部13はエントロピー符号化を行い、符号化ストリームとして出力する。
<動画像復号装置の構成>
次に、本発明を適用する動画像復号装置の一構成例を説明する。図4は、本発明を適用する動画像復号装置の一構成例を示すブロック図である。エントロピー復号処理部21、逆量子化処理部22、逆変換処理部23、復号信号生成部24、インター予測情報記憶部25、インター予測処理部26、イントラ予測情報記憶部27、イントラ予測処理部28、インループフィルタ処理部29、フレームメモリ30、変換基底記憶部31を備える。
図4に示す動画像復号装置において、特に逆変換処理部23と変換基底記憶部31が従来技術と異なる部分である。その他の部分は、H.265/HEVCまたはH.264/AVCなどのその他のエンコーダとして用いられている従来の一般的な動画像復号装置の構成と同様である。
動画像復号装置は、図3に示す動画像符号化装置により符号化された符号化ストリームを入力して復号することにより復号画像の映像信号を出力する。この復号のため、エントロピー復号処理部21は、符号化ストリームを入力し、復号対象ブロックの量子化変換係数をエントロピー復号する。そして、イントラ予測に関する情報及びインター予測に関する情報復号する。イントラ予測に関する情報は、イントラ予測情報記憶部27に格納される。また、インター予測に関する情報は、インター予測情報記憶部25に格納される。
逆量子化処理部22は、量子化変換係数を入力し、それを逆量子化して復号変換係数を出力する。逆変換処理部23は、変換基底記憶部31に記憶されている変換基底を読み出す。そして、逆変換処理部23は、復号変換係数に逆直交変換を施し、予測残差復号信号を出力する。復号信号生成部24は、この予測残差復号信号とインター予測処理部26またはイントラ予測処理部28の出力である予測信号とを加算し、復号対象ブロックの復号信号を生成する。この復号信号は、インター予測処理部26またはイントラ予測処理部8の参照画像として用いるために、フレームメモリB30に格納される。なお、インター予測処理部26において参照する場合は、前述の復号信号に対して、インループフィルタ処理部29において、符号化歪を低減するフィルタリング処理を行い、フレームメモリ30に格納し、このフィルタリング処理後の画像を参照画像として用いられる。
<辞書生成装置>
次に、本実施形態による辞書生成装置の構成を説明する。図5は、本実施形態による辞書生成装置の構成を示すブロック図である。辞書生成装置は、訓練データ記憶部41、係数設定処理部42、係数記憶部43、辞書設定処理部44、辞書記憶部45、クラス設定処理部46、クラス記憶部47、近似誤差記憶部48、反復判定処理部49を備える。
訓練データ記憶部41は、訓練データを読込み、記憶する。クラス設定処理部46は、訓練データ、辞書、係数を各々、訓練データ記憶部41、係数記憶部43、辞書記憶部45から読み出す。そしてクラス設定処理部46は、これらを入力として、クラス分類を行い、クラス記憶部47に格納する。具体的な設定方法は、後述する。
係数設定処理部42は、訓練データ、辞書、クラス分類各々、訓練データ記憶部41、辞書記憶部45、クラス記憶部47からそれぞれ読み出す。そして、係数設定処理部42は、これらを入力として、辞書内の基底に対する係数を算出し、係数記憶部43に格納する。具体的な設定方法は、例えば、K−SVD法の係数設定手法であるMatching pursuitまたはOrthogonalMatching pursuitを利用する。
辞書設定処理部44は、訓練データ、辞書、係数を各々、訓練データ記憶部41、係数記憶部43、クラス記憶部47からそれぞれ読み出す。そして、辞書設定処理部44は、これら入力として、辞書内の基底を生成し、辞書記憶部45に格納する。具体的な設定方法は、例えば、K−SVD法の辞書設定手法である疎性を考慮した特異値分解を利用する。また、このとき算出した近似誤差を近似誤差記憶部48に格納する。
反復判定処理部49は、辞書設定処理部44から出力された近似誤差が一つ前の反復ステップの出力として記憶された近似誤差と比較する。反復判定処理部49は、両近似誤差の差分が閾値以下となる場合、処理を終了し、辞書記憶部45に格納された各クラスの辞書を出力する。上記以外の場合、クラス設定処理部46の処理へ戻る。
次に、図6を参照して、図5に示す辞書生成装置の動作を説明する。図6は、図5に示す辞書生成装置の動作を示すフローチャートである。まず、訓練データ記憶部41は、訓練データ、制約条件として課せられる係数の個数の上限を読込む(ステップS21)。
次に、クラス設定処理部46は、訓練データ、辞書、係数を各々、入力として、読込み、訓練データをクラス分類し、クラス分類の結果を出力する(ステップS22)。本処理の詳細は、後述する。
次に、係数設定処理部42は、訓練データ、辞書、クラス分類を入力として読込み、辞書内の基底に対する係数を算出し、出力する(ステップS23)。具体的な設定方法は、例えば、K−SVD法の係数設定手法であるMatching pursuitまたはOrthogonal Matching pursuitを利用する。
次に、辞書設定処理部44は、訓練データ、辞書、係数を入力として読込み、辞書内の基底を生成し、出力する(ステップS24)。具体的な設定方法は、例えば、K−SVD法の辞書設定手法である疎性を考慮した特異値分解を利用する。
次に、反復判定処理部49は、ステップS24において出力された近似誤差が一つ前の反復ステップの出力として記憶された近似誤差と比較する(ステップS25)。この結果、反復判定処理部49は、両近似誤差の差分が閾値以下となる場合、処理を終了し、辞書記憶部45に格納された各クラスの辞書を出力する(ステップS26)。上記以外の場合、ステップS22の処理へ戻る。
次に、図7を参照して、図6に示すクラス設定処理(ステップS22)の詳細動作について説明する。図7は、図6に示すクラス設定処理(ステップS22)の詳細動作を示すフローチャートである。まず、クラス設定処理部46は、訓練データ、訓練データの個数を読込む(ステップS31)。続いて、クラス設定処理部46は、読み込んだN個の訓練データに対して、ステップS34の間で処理を繰り返す。この繰り返し処理の中で、クラス設定処理部46は、訓練データ、辞書、係数を入力として読込み、訓練データに対するクラスを設定する。クラスの設定はクラスインデックスにより指定する(ステップS33)。そして、クラス設定処理部46は、N個の訓練データに対して付与されたクラスインデックスを出力する(ステップS35)。
次に、図8を参照して、図7に示すステップS33の詳細動作を説明する。図8は、図7に示すステップS33の処理の詳細動作を示すフローチャートである。まず、クラス設定処理部46は、表現対象となる訓練データを読み込み、変数bに格納する。また、クラス設定処理部46は、表現対象データを表現する際に用いる辞書内の基底の本数として、指定された値T(有意係数の個数)を読み込む。また、クラス設定処理部46は、表現対象データを表現する際に用いる辞書内の基底の本数として、指定された値Tを読み込む。このTは有意係数の個数を表す(ステップS41)。そして、クラス設定処理部46は、後段の処理で使用する変数εを、その変数のとりうる最大値で初期化する(ステップS42)。
次に、クラス設定処理部46は、以下のステップS43〜S59の処理をクラスインデックスcを変化させながら全てのクラスに対して行う。
次に、クラス設定処理部46は、処理対象のクラスの辞書D(c)を読み込み、係数を格納するベクトル、近似誤差を格納する変数、係数ベクトルのサポート(有意係数の位置)を各々、x(0)=0,r(0)=b,S(0)=0(空集合)として初期化する(ステップS44)。
次に、クラス設定処理部46は、以下のステップS45〜S55の処理を反復回数を表すインデックスkをk=1,・・・,Tとして繰り返す。
次に、クラス設定処理部46は、基底を指定するインデックスの集合S(k−1)内に格納された辞書内の基底を指定する各インデックスiに対して、以下の値を算出する。そして、クラス設定処理部46は、以下の値を最小化する基底を求め、同基底を指定するインデックスをiとして格納する(ステップS46〜S48)。
Figure 0006502869
上式で求めたε(i)はk−1本の基底で近似した際の近似誤差r(k−1)に対して、k本目の基底としてd(c) を加えた場合の近似誤差である。同近似誤差を以降の処理では、更新近似誤差と呼ぶ。
次に、クラス設定処理部46は、更新近似誤差を最小化する基底のインデックスを同定し、iに格納する(ステップS49)。そして、クラス設定処理部46は、ε(i)が、本ステップ以前に求めた近似誤差の最小値(暫定最小近似誤差)εを入力として読込み、ε(i)がεよりも大きくなったか否かを判定する(ステップS50)。この判定の結果、大きくなった場合、クラス設定処理部46は、クラスインデックスcを更新し(ステップS54))、ステップS45にへ戻る。それ以外の場合は、ステップS51に進む。
次に、クラス設定処理部46は、更新近似誤差を最小化する基底のインデックスi、基底を指定するインデックスの集合であるサポートS(k−1)を入力として読込む。そして、クラス設定処理部46は、iをS(k−1)へ追加し、サポートをS(k)として更新し、S(k)を出力する(ステップS51)。
次に、クラス設定処理部46は、サポートS(k)、辞書D(c)、表現対象データr(0)を入力として読込み、S(k)で指定された基底のみを使用して、次式の近似誤差を最小化する係数ベクトルx(k)を算出する処理を行い、係数ベクトルx(k)を出力する。つまり、有意係数の位置をsupport{x}=S(k)に限定して、次式の近似誤差を最小化する係数ベクトルx(k)を算出する処理を行い、係数ベクトルx(k)を出力する。(ステップS52)。
Figure 0006502869
ここで、support{x}=S(k)は、ベクトルxの有意要素がS(k)に含まれる要素のみであることを示す。
次に、クラス設定処理部46は、係数ベクトルx(k)、サポートS(k)、辞書D(c)、表現対象データr(0)を入力として読込み、x(k)を用いた場合の近似誤差を算出し、同近似誤差を出力する(ステップS53)。
次に、クラス設定処理部46は、ステップS43〜S55の反復処理によって得られた‖r(T0) を入力として読込み、‖r(T0) をクラスcにおける近似誤差として、ε(c)に格納し、ε(c)の値を出力する(ステップS56)。
次に、クラス設定処理部46は、ε(c)、暫定最小近似誤差εを入力として読込み、ε(c)が、暫定最小近似誤差εよりも小さいか否かを判定する(ステップS57)。この判定の結果、小さい場合、クラス設定処理部46は、ステップS58に進み、それ以外の場合はステップS59に進む。
次に、クラス設定処理部46は、暫定最小近似誤差をε(c)として更新し、さらに、暫定最適クラスインデックスをc=cとし、暫定最適係数ベクトルをx=x(T0)として更新する(ステップS58)。
最後に、クラス設定処理部46は、ステップS43〜S59の反復処理が終了する(ステップS59)と、cを最適なクラスを示すインデックスとして、あわせて、xを最適な係数ベクトルとして、出力する(ステップS60)。
次に、図9を参照して、図7に示すステップS33の詳細動作の変形例(図8の変形例)を説明する。図9は、図7に示すステップS33の詳細動作の変形例(図8の変形例)を示すフローチャートである。図9に示す処理は図8に示す処理との結果の同一性は保持しつつ、暫定最小近似誤差の算出において、処理の打ち切りにより演算量の低減を実現する方法である。図9に示す動作と図8に示す動作の異なる点は、ステップS61が新たに設けられている点と、ステップS43がステップS43’に置き換えられている点である。
ステップS61では、「S2:辞書設定処理」において、クラス設定処理部46は、処理対象訓練データに付与されたクラスを暫定クラスインデックスとして読み込み、cとして格納する。また、ステップS43’では、クラス設定処理部46は、暫定クラスインデックスcを先頭インデックスとして、反復処理を開始する。その他の処理は、図8示す動作と同様である。
次に、図10を参照して、図6に示すステップS22の詳細動作の変形例(図7の変形例)を説明する。図10は、図6に示すステップS22の詳細動作の変形例(図7の変形例)をフローチャートである。図10に示す動作と図7に示す動作と異なる点は、ステップS31をステップS31’に置き換えた点と、ステップS36、S37を新たに設けた点である。図10に示す動作は、クラス設定処理の対象となるクラスを限定している。これにより、演算量の低減を図ることができる。
ステップS36では、「S2:辞書設定処理」において、クラス設定処理部46は、処理対象訓練データに対して算出された近似誤差を読み込む。ステップS37、S33、S34では、クラス設定処理部46は、ステップS31’、S36で読み込んだ近似誤差と、近似誤差の閾値とを入力として読込み、近似誤差がこの閾値以上となるクラスに限定して、クラス設定処理を行う。その他の処理は、図7動作と同様である。
以上説明したように、画像の局所性を考慮して、クラス分類を行い、クラス毎に適切な辞書を設計することで、少数の係数で近似誤差を低減可能となり、符号化効率が向上する。各クラス分類の候補に対するコスト値(近似誤差和)を算出するために、近似誤差を累積加算し、近似誤差和を求める過程において、既に計算済みのクラス分類の候補による近似誤差の暫定最小値との比較を行う。この比較の結果、累積加算途中の当該クラスの近似誤差和が、暫定最小値を超えた時点で、当該クラス分類の計算を終了することにより、計算量を低減可能となる。クラス分類の候補を算出する順序として、クラス分類処理の直前に行われた辞書設定処理において用いられたクラス分類に対して近似誤差和を求め、暫定最小値の初期値とする。これにより、後続のクラス分類の候補に対する処理の打ち切りを高い確率で発生させることができ、計算量を低減することが可能となる。
前述した実施形態における辞書生成装置の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
過完備な基底から構成される辞書の設計において、符号化効率を最適化する観点から対象信号の局所性を考慮したクラス分類に基づき、辞書の基底を学習することが不可欠な用途にも適用できる。
14・・・変換基底記憶部、31・・・変換基底記憶部、41・・・訓練データ記憶部、42・・・係数設定処理部、43・・・係数記憶部、44・・・辞書設定処理部、45・・・辞書記憶部、46・・・クラス設定処理部、47・・・クラス記憶部、48・・・近似誤差記憶部、49・・・反復判定処理部

Claims (5)

  1. 映像信号を表現するために用いられる変換基底を格納した辞書を生成する辞書生成装置が行う辞書生成方法であって、
    訓練データを入力する入力ステップと、
    辞書を固定化した条件下において、前記訓練データに対してクラスを設定し、前記クラスと前記辞書とを固定化した条件下において、前記クラス毎に係数を設定し、前記クラスと前記係数とを固定化した条件下において、前記クラス毎に辞書を設定することにより辞書を生成する辞書生成ステップと、
    前記辞書内の前記変換基底の数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類ステップと、
    前記辞書の生成と前記訓練データの再分類とを反復する反復ステップと
    を有し、
    前記辞書生成ステップでは、
    前記訓練データに対する各クラスの辞書を用いた評価値を算出するために、同クラスの辞書内の変換基底に対する評価値を累積加算し、評価値和を求める場合に、
    既に計算済みの他クラスによる評価値和の中で最小値を示した暫定最小値との比較を行い、累積加算途中の処理対象クラスの評価値和が、暫定最小値を超えた時点で、前記処理対象クラスの分類を終了する、
    辞書生成方法。
  2. 前記係数を用いた場合の近似誤差が最小となるように前記辞書生成ステップを繰り返し行う請求項1に記載の辞書生成方法。
  3. 前記辞書生成ステップでは、
    前記クラスの分類処理の直前に行われた辞書生成処理において、処理対象クラスが属するとされたクラスの前記辞書を用いた場合の評価値和を求め、該評価値和を暫定最小値の初期値とする請求項1に記載の辞書生成方法。
  4. 映像信号を表現するために用いられる変換基底を格納した辞書を生成する辞書生成装置であって、
    訓練データを入力する入力部と、
    辞書を固定化した条件下において、前記訓練データに対してクラスを設定し、前記クラスと前記辞書とを固定化した条件下において、前記クラス毎に係数を設定し、前記クラスと前記係数とを固定化した条件下において、前記クラス毎に辞書を設定することにより辞書を生成する辞書生成部と、
    前記辞書内の前記変換基底の数を制限した条件下において各訓練データを適切に表現可能な辞書を有するクラスに前記訓練データを再分類する再分類部と、
    前記辞書の生成と前記訓練データの再分類とを反復する反復部と
    を備え
    前記辞書生成部は、
    前記訓練データに対する各クラスの辞書を用いた評価値を算出するために、同クラスの辞書内の変換基底に対する評価値を累積加算し、評価値和を求める場合に、
    既に計算済みの他クラスによる評価値和の中で最小値を示した暫定最小値との比較を行い、累積加算途中の処理対象クラスの評価値和が、暫定最小値を超えた時点で、前記処理対象クラスの分類を終了する、
    辞書生成装置。
  5. コンピュータに、請求項1からのいずれか一項に記載の辞書生成方法を実行させるための辞書生成プログラム。
JP2016005282A 2016-01-14 2016-01-14 辞書生成方法、辞書生成装置及び辞書生成プログラム Active JP6502869B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016005282A JP6502869B2 (ja) 2016-01-14 2016-01-14 辞書生成方法、辞書生成装置及び辞書生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016005282A JP6502869B2 (ja) 2016-01-14 2016-01-14 辞書生成方法、辞書生成装置及び辞書生成プログラム

Publications (2)

Publication Number Publication Date
JP2017126884A JP2017126884A (ja) 2017-07-20
JP6502869B2 true JP6502869B2 (ja) 2019-04-17

Family

ID=59364374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016005282A Active JP6502869B2 (ja) 2016-01-14 2016-01-14 辞書生成方法、辞書生成装置及び辞書生成プログラム

Country Status (1)

Country Link
JP (1) JP6502869B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3093868B2 (ja) * 1992-04-27 2000-10-03 オリンパス光学工業株式会社 ベクトル量子化コードブック作成装置
JP2005323299A (ja) * 2004-05-11 2005-11-17 Ntt Software Corp 動きベクトル探索方法及び符号化装置
JP2015035788A (ja) * 2013-08-09 2015-02-19 日本電信電話株式会社 画像符号化装置、画像符号化方法及びプログラム

Also Published As

Publication number Publication date
JP2017126884A (ja) 2017-07-20

Similar Documents

Publication Publication Date Title
Torfason et al. Towards image understanding from deep compression without decoding
US11606560B2 (en) Image encoding and decoding, video encoding and decoding: methods, systems and training methods
US9204154B2 (en) Image encoding device and image decoding device
Kirchhoffer et al. Overview of the neural network compression and representation (NNR) standard
Zepeda et al. Image compression using sparse representations and the iteration-tuned and aligned dictionary
CN107743239B (zh) 一种视频数据编码、解码的方法及装置
JP7356513B2 (ja) ニューラルネットワークのパラメータを圧縮する方法および装置
US20220215595A1 (en) Systems and methods for image compression at multiple, different bitrates
JP7168896B2 (ja) 画像符号化方法、及び画像復号方法
JP2010199959A (ja) 画像符号化装置,画像符号化方法および画像符号化プログラム
Hassaballah et al. A Fast Fractal Image Compression Method Based on Entropy
CN110753225A (zh) 一种视频压缩方法、装置及终端设备
JP6042001B2 (ja) 動画像符号化装置及び動画像符号化方法
JP6748022B2 (ja) 分割形状決定装置、学習装置、分割形状決定方法及び分割形状決定プログラム
JP2021150738A (ja) 分割パターン決定装置、及び、それを用いた画像符号化装置、及び、学習装置、並びに、分割パターン決定装置及び学習装置の制御方法、及び、プログラム
JP6502869B2 (ja) 辞書生成方法、辞書生成装置及び辞書生成プログラム
JP7401822B2 (ja) 画像符号化方法、画像符号化装置及びプログラム
Taheri et al. Sparse representation based facial image compression via multiple dictionaries and separated ROI
JP6581045B2 (ja) 画像符号化方法、画像符号化装置及び画像符号化プログラム
KR20230115043A (ko) 영상의 화질에 따라 초해상도 딥러닝 네트워크를 적용하는 비디오 처리 방법 및 비디오 처리 장치
Chou et al. Gain–shape optimized dictionary for matching pursuit video coding
Prantl Image compression overview
JP5561611B2 (ja) 画像符号化方法,画像符号化装置および画像符号化プログラム
Cilingir et al. Image Compression Using Deep Learning
JP4871246B2 (ja) ベクトル量子化方法,装置およびそれらのプログラムとそれを記録したコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190322

R150 Certificate of patent or registration of utility model

Ref document number: 6502869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150