JP4479105B2 - ベクトル量子化のコードブック生成方法及びコードブック生成装置 - Google Patents
ベクトル量子化のコードブック生成方法及びコードブック生成装置 Download PDFInfo
- Publication number
- JP4479105B2 JP4479105B2 JP2001010790A JP2001010790A JP4479105B2 JP 4479105 B2 JP4479105 B2 JP 4479105B2 JP 2001010790 A JP2001010790 A JP 2001010790A JP 2001010790 A JP2001010790 A JP 2001010790A JP 4479105 B2 JP4479105 B2 JP 4479105B2
- Authority
- JP
- Japan
- Prior art keywords
- partial
- vector
- representative
- strain
- representative vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【発明の属する技術分野】
本発明は、ベクトル量子化技術に関わり、特にパターン認識・計算幾何学・画像信号・音声信号などにおけるベクトル量子化のコードブック生成装置及び方法に関するものである。
【0002】
【従来の技術】
ベクトル量子化は、入力空間を有限個の代表ベクトルで符号化する手法である。ベクトル量子化の応用例として、パターン認識の特徴抽出,計算幾何学のポスト配置問題,情報の圧縮,画像や音声などの量子化などが挙げられる。
【0003】
図16にベクトル量子化の概念図を示す。
【0004】
ベクトル量子化には
(1)入力ベクトルの符号化
(2)コードブックの生成
という2つの側面がある。
【0005】
ベクトル量子化の(1)入力ベクトルの符号化の手続きでは、入力ベクトルx(1050)に対してN個の代表ベクトル(コードベクトルと呼ばれることもある)からなるコードブックW={wi∈RK:i=0,・・・,N−1}(1040)の中から最も近い代表ベクトルwminを選びだし(1060)、その代表ベクトルのインデックスmin、又は、その代表ベクトルの値を出力する(1070)。
【0006】
また、ベクトル量子化の(2)コードブックの生成では、初期コードブック(1010)を設定し、コードブック生成用の入力ベクトル集合X=(x(t):t=0,・・・,T−1)(1030)を与えて、入力ベクトル集合に合うように代表ベクトルの値を修正することを繰り返して最適化し(1020)、最終的に最適なコードブック(1040)を得る。コードブック生成用の入力ベクトルは、(1)入力ベクトルの符号化で入力される入力ベクトルと異なっていてもかまわない。
【0007】
コードブックの評価には、与えられた入力ベクトル集合を対応する代表ベクトルで符号化したときに生じるひずみの期待値(平均ひずみ)を用いて行われる。この平均ひずみは非凸な関数であり、多くの局所的最小値を持つ。最適なコードブックとは、平均ひずみを最小にするコードブックである。すなわち、最適なコードブックを持つベクトル量子化器は、最もひずみの少ない符号化を行うことができる。平均ひずみは、次の(1)式にて定義される。
【0008】
【数5】
【0009】
ただし、δtiはクロネッカーのデルタであり、入力ベクトルxtが代表ベクトルwiに符号化されたとき1であり、それ以外は0である。
【0010】
コードブックを生成するアルゴリズムとして、適応修正型の競合学習アルゴリズムや一括修正型のLBGアルゴリズム[Linde,Y., Buzo, A., & Gray, R. M..“An algorithm for vector quantizer design."IEEE Transactions on Communications,28,pp.84-95, 1980.]がよく知られている。
【0011】
文献[Ueda, N., & Nakano, R..“A new competitive learning approach based on an equidistortion principle for designing optimal vector quantizers." Neural Networks,7, pp.1211-1227, 1994.] によれば,競合学習アルゴリズムはLBGアルゴリズムの適応型になっている。ここでは、LBGアルゴリズムによるコードブック生成法だけを取り上げるが、適応型の競合学習アルゴリズムにも適用可能である。
【0012】
LBGアルゴリズムは、収束条件を満足するまで,次の(a),(b)を反復するアルゴリズムである。
【0013】
(a) T個のコードブック生成用の入力ベクトル集合に対して、現在のコードブックの中から各入力ベクトルx(t)に最も近い代表ベクトルwminを探索し、符号化される代表ベクトルの番号minを保存しておく。
【0014】
(b) 入力ベクトル集合と各入力ベクトルが符号化される代表ベクトルの番号を用いて、代表ベクトルの重心を計算しコードブックを更新する。
【0015】
ここで、具体的なLBGアルゴリズムを図17のフローチャートに示し、また、このLBGアルゴリズムを採用した従来のベクトル量子化器の構成を図18に示す。
【0016】
LBGアルゴリズムでは、先ずステップ(F101)において、代表ベクトルの初期配置を設定する。
【0017】
次のステップ(F102)では、入力ベクトル集合の符号化と代表ベクトルの重心計算、平均ひずみの準備を行う。このステップ(F102)は,LBGアルゴリズムにおける入力ベクトル集合の符号化ステップであり、次の(2)式で表すことができる。
【0018】
【数6】
【0019】
このステップ(F102)F102では、hi (t)を保存するのではなく、符号化された代表ベクトルiの位置を更新するステップ(F103)において用いる分子winum、分母widen及び平均ひずみDsumの計算を次の(3)式、(40)及び(5)式にしたがって行っておく。
【0020】
winum+=x(t) (3)
widen+=1 (4)
Dsum +=d(x(t),wi (p)) (5)
【0021】
ステップ(F103)では、代表ベクトルの重心の計算と平均ひずみ計算を行う。このステップ(F103)は、LBGアルゴリズムにおける代表ベクトルの重心の更新を行うステップであり、次の(6)式で表すことができる。
【0022】
【数7】
【0023】
しかし,上式の分子・分母の計算は先のステップ(F102)で済んでいるので、次の(7)式の計算を行えばよい。
【0024】
【数8】
【0025】
また、平均ひずみDは、次の(8)式により計算する。
【0026】
【数9】
【0027】
なお、kは次元を示している。
【0028】
次のステップ(F104)では、収束判定を行う。このステップ(F104)における収束判定条件を満たさないときは、上記ステップ(F102)へ戻り、ステップ(F102)〜ステップ(F104)の処理を繰り返し行い、また、収束判定条件を満たすときには、処理を終了する。
【0029】
ここで、このステップ(F104)における収束判定条件には、次のようなものが考えられる。その他のものでも構わない。
【0030】
(1)代表ベクトルの更新がなくなったら終了する。
(2)所望の平均ひずみ以下になったら終了する。
(3)反復回数で打ち切る。
【0031】
このようなLBGアルゴリズムを採用した従来のベクトル量子化器200は、図18のブロック図に示すように、入力ベクトル集合メモリ210、符号化装置220、コードブックメモリ230、重心計算・平均ひずみ計算を行う演算装置240及び制御装置250から構成される。
【0032】
このベクトル量子化器200において、入力ベクトル集合メモリ210は、入力ベクトル集合X=(x(t)∈RK:t=0,・・・,T−1)を記憶しておくメモリであって、符号化装置220からアドレスの指定をうけ、対応する入力ベクトルx(t)を符号化装置220に渡す。
【0033】
符号化装置220は、入力ベクトル集合メモリ210にアドレスを指定し、対応する入力ベクトルx(t)を受け取る。また、符号化装置220は、コードブックメモリ230にアドレスを指定し、データ(コードブック)を受け取る。
【0034】
また、符号化装置220は、コードブックの中から入力ベクトルx(t)に最もひずみが小さい代表ベクトルwmin (p)を探し出す。さらに、演算装置250に、入力ベクトルx(t)と符号化された代表ベクトルの番号minと入力ベクトルを符号化したときのひずみd(x(t),wmin (p))を渡す。
【0035】
コードブックメモリ230は、コードブックW(p)={wi (p)∈RK:i=0,・・・,N−1}を記憶しておくメモリである。このコードブックメモリ230は、符号化装置220からのアドレスを受け取り、対応するデータ(コードブック)を符号化装置220に渡す。また、このコードブックメモリ230は、演算装置280から、データ(更新されたコードブックW(p+1)と書き込むアドレスを受け取り、対応するアドレスに更新されたコードブックが書き込まれる。
【0036】
なお、この明細書において、コードブックと呼んだときは,すべての代表ベクトルの番号iと対応する代表ベクトルの値wiの両方を持っていることを想定する。代表ベクトルの値は、単に代表ベクトルと呼んでいることもある。
【0037】
演算装置250は、符号化装置220から、入力ベクトルx(t)と符号化された代表ベクトルの番号minと入力ベクトルを符号化したときのひずみd(x(t),wmin (p))を受け取る。そして、この演算装置250は、代表ベクトル番号minに対応するデータ(分子wminnumと分母wminden、さらに平均ひずみdsum)の計算を次の(9)式、(10)式及び(11)式にしたがって行う。
【0038】
wminnum+=x(t) (9)
wminden+=1 (10)
Dsum+=d(x(t),wmin (p)) (11)
【0039】
また、この演算装置250は、T個の入力ベクトルに対して、符号化が終了し、上記途中計算が終了したと制御装置260から指示を受けたら、式(12)にしたがって代表ベクトル重心の計算を行い、また、式(13)にしたがって平均ひずみDの計算を行う。
【0040】
【数10】
【0041】
また、この演算装置250は、制御装置260から指示により、全てのデータ(分子winumと分母widen、そして平均ひずみDsum ,∀i)をクリアする。また、この演算装置250は、コードブックメモリ230にデータ(更新されたコードブックw(p+1)と書き込むアドレスを渡し、対応するアドレスに更新されたコードブックを書き込む。さらに、この演算装置250は、制御装置260から指示により、任意の初期コードブックをコードブックメモリ230に設定する。
【0042】
そして、制御装置260は、上記符号化装置220及び重心計算・平均ひずみ計算を行う演算装置280の処理フローを制御する。
【0043】
【発明が解決しようとする課題】
しかし、従来のベクトル量子化器では、次のような問題点がある。
【0044】
従来のベクトル量子化器では、目的関数である平均ひずみが非凸な関数であることと、LBGアルゴリズムが平均ひずみを逐次減少させる降下法であるため、局所的最適性だけを保証しているため、代表ベクトルの初期配置に強く依存する。結果として、LBGアルゴリズムでは代表ベクトルの最適な配置を得ることが困難である。
【0045】
すなわち、上述の如き構成の従来のベクトル量子化器200において、図19に示すように、二つの正方形から入力ベクトルが出現する問題に初期配置(図19(a))からLBGアルゴリズムを用いて代表ベクトルの軌跡を調べた(図19(b))。図19(b)の黒丸は代表ベクトルを表し、点線はLBGアルゴリズムにより得られた最終配置のボロノイ領域の境界を示している。また、学習中のEpoch(反復回数)と平均ひずみの関係を図20に示す。図19(b)より、代表ベクトル2は符号化に全く利用されない(死にベクトル)。また、LBGアルゴリズムは、代表ベクトルが一度つかまったクラスタから別のクラスタへ移動できないことが確認できる。さらに、図20から、LBGアルゴリズムは平均ひずみを逐次減少される降下法であることが確認できる。
【0046】
そこで、本発明の目的は、上述の如き従来の問題点に鑑み、平均ひずみを最小にする代表ベクトルの最適な配置を得ることができるベクトル量子化のコードブック生成方法及びコードブック生成装置を提供することにある。
【課題を解決するための手段】
【0047】
ここで、次の文献には、[Gersho,A..“Asymptotically optimal block quantization."IEEE Transactions on Information Theory,25,pp.373-380,1979.]、[Yamada, Y., Tazaki, S. & Gray, R. M..“Asymptotic performance of block quantizers with difference distortion measures." IEEE Transactions on Information Theory},26, pp.6-14, 1980.]、[Ueda, N., & Nakano, R..“A new competitive learning approach based on an equidistortion principle for designing optimal vector quantizers." Neural Networks,7, pp.1211-1227, 1994.]等には、ベクトル量子化の理論的な研究から、ひずみ測度に次の式14で示されるユークリッド(l2 )ノルムのr乗を用いた場合の大域的最適解の必要条件である等ひずみ原理が示されている。
【0048】
【数11】
【0049】
を用いた場合の大域的最適解の必要条件である等ひずみ原理が示されている。
【0050】
多数の代表ベクトルに対して、入力空間の確率分布が多数の互いに素のクラスタから構成されているとき、最小の平均ひずみとなるベクトル量子化器における代表ベクトルの配置は、各代表ベクトルの部分ひずみが互いに等しくなるように配置された状態になる。
【0051】
i番目の代表ベクトルの部分ひずみDi は,次の(15)式を用いて計算する。
【0052】
【数12】
【0053】
ただし、δitはクロネッカーのデルタであり、代表ベクトルiが最も小さいひずみを持つとき1となる。
【0054】
等ひずみ原理の簡単な例を図21に示す。黒丸は代表ベクトルであり、点線はボロノイ領域である。入力ベクトルが二つの正方形のクラスタから一様に生起する問題に対する代表ベクトルの最適な配置である。そのとき,各代表ベクトルの部分ひずみは等しい状態になっている。
【0055】
上述の如くLBGアルゴリズムや競合学習は降下法であるため、コードブックが大域的最小値の近くに配置されたとき大域的最小値を見つけることができる。そこで、本発明では、代表ベクトルの配置を等ひずみ原理で示される配置の近傍に設定することで最適な配置が得られる可能性が高まることに着目し、あらかじめ、代表ベクトルを部分ひずみが等しいような配置の近傍に配置することは困難であるので、学習中に部分ひずみが等しくなるように代表ベクトルを移動させる。
【0056】
本発明では、等ひずみ原理に基づいたMin-Max Order Compare(MMOC) 操作を加えたLBGアルゴリズムを提案する。MMOC操作は、学習中に部分ひずみを計算し、部分ひずみのばらつきを減少させるように代表ベクトルを再配置する。MMOC操作により各代表ベクトルの部分ひずみを互いに等しい状態に近づけることができる。
【0057】
すなわち、本発明に係るベクトル量子化のコードブック生成方法は、入力ベクトル集合をコードブックに基づいて対応する代表ベクトルに符号化する符号化ステップと、上記符号化ステップにより得られた代表ベクトルの重心計算、平均ひずみ計算、部分ひずみ計算を行う演算ステップと、上記演算ステップによる計算結果に基づいて収束判定を行う収束判定ステップと、上記演算ステップにより得られた部分ひずみを基準として、代表ベクトルと部分ひずみをソートするソーティングステップと、上記ソーティングステップによりソートされた昇順の部分ひずみと降順の部分ひずみを比較する部分ひずみ比較ステップと、上記部分ひずみ比較ステップにおける比較結果に基づいて、部分ひずみの小さい代表ベクトルを部分ひずみの大きい代表ベクトルの近傍に移動させてコードブックを更新する代表ベクトル移動ステップとを有し、
上記演算ステップでは、入力ベクトルx (t) と符号化された代表ベクトルの番号minと入力ベクトルを符号化したときのひずみd(x (t) ,w min (p) )から、
【0058】
w minnum +=x (t)
w minden +=1
D sum +=d(x (t) ,w min (p) )
【0059】
にて代表ベクトル番号minに対応するデータw minnum ,w minden 及びd sum を計算し、T個の入力ベクトルに対して、符号化が終了し、上記途中計算が終了した時点で、
【0060】
【数13】
【0061】
なる代表ベクトル重心w i (p+1) の計算を行い、また、
【0062】
【数14】
【0063】
なる平均ひずみDの計算を行い、
上記収束判定ステップによる収束判定条件を満たすまで、上記各ステップを繰り返し行うことを特徴とする。
【0064】
また、本発明に係るベクトル量子化のコードブック生成装置は、入力ベクトル集合を格納する入力ベクトル集合手段と、コードブックを格納するコードブック記憶手段と、上記コードブック記憶手段に格納されたコードブックに基づいて、上記入力ベクトル集合手段に格納された入力ベクトル集合を対応する代表ベクトルに符号化する符号化手段と、上記符号化手段により得られた代表ベクトルの重心計算、平均ひずみ計算、部分ひずみ計算を行う演算手段と、上記演算手段により得られた部分ひずみを基準として、代表ベクトルと部分ひずみをソートするソーティング手段と、上記ソーティング手段によりソートされた昇順の部分ひずみと降順の部分ひずみを比較する部分ひずみ比較手段と、上記部分ひずみ比較手段による比較結果に基づいて、上記コードブック記憶手段に格納されたコードブック上の部分ひずみの小さい代表ベクトルを部分ひずみの大きい代表ベクトルの近傍に移動させて上記コードブックを更新する代表ベクトル移動手段と、上記符号化手段、演算手段、ソーティング手段、部分ひずみ比較手段及び代表ベクトル移動手段の処理フローを制御する制御手段とを備え、上記演算手段は、入力ベクトルx (t) と符号化された代表ベクトルの番号minと入力ベクトルを符号化したときのひずみd(x (t) ,w min (p) )から、
【0065】
w minnum +=x (t)
w minden +=1
D sum +=d(x (t) ,w min (p) )
【0066】
にて代表ベクトル番号minに対応するデータw minnum ,w minden 及びd sum を計算し、T個の入力ベクトルに対して、符号化が終了し、上記途中計算が終了した終了したと上記制御手段から指示を受けたら、
【0067】
【数15】
【0068】
なる代表ベクトル重心w i (p+1) の計算を行い、また、
【0069】
【数16】
【0070】
なる平均ひずみDの計算を行うことを特徴とする。
【0071】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
【0072】
本発明は、例えば図1に示すような構成のベクトル量子化器10に適用される。
【0073】
このベクトル量子化器10は、入力ベクトル集合メモリ11、符号化装置12、コードブックメモリ13、演算装置14、部分ひずみソーティング装置15、部分ひずみ比較装置16、代表ベクトル移動装置17及び制御装置18から構成される。
【0074】
このベクトル量子化器10において、入力ベクトル集合メモリ11は、入力ベクトル集合X=(x(t)∈RK:t=0,・・・,T−1)を記憶しておくメモリであり、符号化装置12からアドレスの指定をうけ、対応する入力ベクトルx(t)を符号化装置12に渡す。
【0075】
符号化装置12は、入力ベクトル集合メモリ11にアドレスを指定し、対応する入力ベクトルx(t)を受け取る。この符号化装置12は、コードブックメモリ13にアドレスを指定し、データ(コードブック)を受け取る。また、この符号化装置12は、コードブックの中から入力ベクトルx(t)に最もひずみが小さい代表ベクトルwmin (p)を探し出す。さらに、この符号化装置12は、演算装置14に、入力ベクトルx(t) と符号化された代表ベクトルの番号minと入力ベクトルを符号化したときのひずみd(x(t),wmin (p))を渡す。
【0076】
コードブックメモリ13は、コードブックW(p)={wi (p)∈RK:i=0,・・・,N−1}を記憶しておくメモリであり、符号化装置12からのアドレスを受け取り、対応するデータ(コードブック)を符号化装置12に渡す。また、このコードブックメモリ13は、代表ベクトル移動装置17から、データ(更新されたコードブックW(p+1)と書き込むアドレスを受け取り、対応するアドレスに更新されたコードブックが書き込まれる。
【0077】
演算装置14は、符号化装置12から、入力ベクトルx(t) と符号化された代表ベクトルの番号minと入力ベクトルを符号化したときのひずみd(x(t),wmin (p)を受け取る。そして、この演算装置14は、代表ベクトル番号minに対応するデータ(分子wminnumと分母wminden、さらに部分ひずみdminsum)の計算を次の(16)式、(17)及び(18)式にしたがって行う。
【0078】
wminnum+=x(t) (16)
wminden+=1 (17)
Dminsum+=d(x(t),wmin (p)) (18)
【0079】
また、この演算装置14は、T個の入力ベクトルに対して、符号化が終了し、上記途中計算が終了したと制御装置16から指示を受けたら、代表ベクトル重心wi (p+1)、部分ひずみDi及び平均ひずみDの計算を次の(19)式、(20)及び(21)式にしたがって行う。
【0080】
【数17】
【0081】
さらに、この演算装置14は、制御装置18により、全てのデータ(分子winumと分母widen、さらに部分ひずみDisum,∀i)をクリアする。
【0082】
部分ひずみソーティング装置15は、演算装置14からデータ(更新されたコードブックと部分ひずみ)をもらう。この部分ひずみソーティング装置15は、部分ひずみの大きさを基準にして、コードブックと部分ひずみをソートする。また、この部分ひずみソーティング装置15は、部分ひずみ比較装置16に、データ(ソートされたコードブックと部分ひずみ)を渡す。
【0083】
部分ひずみ比較装置16は、部分ひずみソーティング装置15から、データ(ソートされたコードブックと部分ひずみ)をもらう。この部分ひずみ比較装置17は、大きい部分ひずみと小さい部分ひずみを比較する。格差が大きい場合は、代表ベクトル移動装置435に小さい部分ひずみを持つ代表ベクトルを大きい部分ひずみを持つ代表ベクトルの近傍に移動させる情報を渡す。さらに、データ(上記移動情報とコードブック)を代表ベクトル移動装置17に渡す。
【0084】
代表ベクトル移動装置17は、部分ひずみ比較装置16から、小さい部分ひずみを持つ代表ベクトルを大きい部分ひずみを持つ代表ベクトルの近傍に移動させる情報とコードブックを受け取る。この代表ベクトル移動装置17は、上記移動情報に基づいて、小さい部分ひずみを持つ代表ベクトルを大きい部分ひずみを持つ代表ベクトルの近傍に移動させる。そして、この代表ベクトル移動装置17は、コードブックメモリ330にデータ(更新されたコードブックW(p+1)と書き込むアドレスを渡し、対応するアドレスに更新されたコードブックを書き込む。さらに、この代表ベクトル移動装置17は、制御装置18からの指示で、任意の初期コードブックをコードブックメモリ13に設定する。
【0085】
制御装置18は、符号化装置12、演算装置14、部分ひずみソーティング装置15、部分ひずみ比較装置16及び代表ベクトル移動装置17の処理フローを制御する。この制御装置18は、代表ベクトル移動装置17に対して任意の初期コードブックの設定を指示する。
【0086】
このような構成のベクトル量子化器10において、本発明では、等ひずみ原理に基づいたMin-Max Order Compare(MMOC) 操作を加えたLBGアルゴリズムにより図2に示すフローチャートにしたがってコードブック生成を行う。
【0087】
すなわち、このベクトル量子化器10では、先ず、ステップ(F11)において、代表ベクトルの初期配置とMMOC操作のパラメータR,mを設定する。
【0088】
次のステップ(F12)では、入力ベクトル集合の符号化と代表ベクトルの重心計算・平均ひずみ・部分ひずみの準備を行う。
【0089】
このステップ(F12)は、LBGアルゴリズムにおける入力ベクトル集合の符号化ステップであり、次式で表すことができる。
【0090】
【数18】
【0091】
このステップ(F12)では、hi(t)を保存するのではなく、符号化された代表ベクトルiの位置を更新するステップ(F13)において用いる分子winum、分母widen及び部分ひずみDisumの計算を次の(23)式、(24)及び(25)式にしたがって行っておく。
【0092】
winum+=x(t) (23)
widen+=1 (24)
Disum+=d(x(t),wi (p)) (25)
【0093】
ステップ(F12)代表ベクトルの重心の計算と平均ひずみ・部分ひずみ計算を行う。このステップ(F13)は、LBGアルゴリズムにおける代表ベクトルの重心の更新を行うステップであり、次の(26)式で表すことができる。
【0094】
【数19】
【0095】
しかし,上式の分子・分母の計算は先のステップ(F12)で済んでいるので、次の(27)式の計算を行えばよい。
【0096】
【数20】
【0097】
また、部分ひずみDiは、次の(28)式により計算する。
【0098】
【数21】
【0099】
そして、平均ひずみDは次の(29)式により計算する。
【0100】
【数22】
【0101】
次のステップ(F14)では、収束判定を行う。このステップ(F14)における収束判定条件を満たさないときは、ステップ(F15)へ進み、収束判定条件を満たすときは、終了する。
【0102】
ここで、このステップ(F14)における収束判定条件には、次のようなものが考えられる。その他のものでも構わない。
(1)代表ベクトルの更新がなくなったら終了する。
(2)所望の平均ひずみ以下になったら終了する。
(3)反復回数で打ち切る。
【0103】
次のステップ(F15)では、部分ひずみに応じて、代表ベクトルと部分ひずみをソートする。
【0104】
そして、次のステップ(F16)及びステップ(F17)において、MMOC操作を実行する。
【0105】
すなわち、ステップ(F16)では、図3に示すように、大きい順にR個の部分ひずみDmax[r]と小さい順にR個の部分ひずみDmin[r]を比較する。
【0106】
そして、このステップ(F16)における比較の結果、次の(30)式が成り立ないときは、ステップ(F12)へ戻って、ステップ(F12)〜(F16)の処理を繰り返し行い、(30)式が成り立つときはステップ(F17)へ進む。
【0107】
Dmax[r]>m×Dmin[r],(r=0,・・・,R−1) (30)
【0108】
さらに、ステップ(F17)では、次の(31)式に示すように、小さい順の部分ひずみDmin[r]を持つ代表ベクトルWmin (p+1)[r]を大きい順の部分ひずみDmax[r]を持つ代表ベクトルWmax (p+1)[r]の近傍に再配置して、ステップ(F12)へ戻る。
【0109】
Wmin (p+1)[r]←Wmax (p+1)[r]+ε (31)
【0110】
ただし、ε(≪1)は摂動項である。一回の反復で最大R個の移動が可能となる。
【0111】
MMOC操作において、EpochでMMOC操作により移動が行われる個数は前EpochでMMOC操作により移動が行われた個数R’よりも増えることはほとんど起きない。そこで、MMOC操作は常にR個をMMOC操作にかけるのではなく、Epochでの個数R’個をMMOC操作にかけた方が効率的である。最終的にR’は零になってしまうので、R’=0のときは最低限1個のMMOC操作を行うようにする。
【0112】
最も単純なR=1とした場合のMMOC操作を加えたLBGアルゴリズムの動作の概念図を図4に示す。また、実際の動作を図5に示す。
【0113】
ここで、図4を用いてMMC操作を加えたLBGアルゴリズムの動作を説明する。
【0114】
1Epochでは、2番の代表ベクトルが符号化に全く使われていない、すなわち部分ひずみD2 =0である。それに対して、4番の代表ベクトルが符号化に大変よく使われており、部分ひずみD4 が最も大きい。そこで、2番の代表ベクトルの部分ひずみD2minと4番の代表ベクトルの部分ひずみD4maxを比較した場合、次の(32)式
【0115】
D4max>m・D2min (32)
【0116】
が成り立つので、2番の代表ベクトルを4番の代表ベクトルの近傍に移動する。この移動により、部分ひずみの格差が減少する。
【0117】
そして、LBGアルゴリズムを用いて代表ベクトルの配置を修正する。
【0118】
2Epochでは、1Epochと同様に1番の代表ベクトルの部分ひずみD1が最も小さく、4番の代表ベクトルの部分ひずみD4が最も大きい。そこで、1番の代表ベクトルの部分ひずみD1minと4番の代表ベクトルの部分ひずみD4maxを比較した場合、次の(32)式
【0119】
D4max>m・D1min (33)
【0120】
が成り立つとすると、1番の代表ベクトルを4番の代表ベクトルの近傍に移動する。この移動により、部分ひずみの格差がさらに減少する。
【0121】
そして、LBGアルゴリズムを用いて代表ベクトルの配置を修正する。
【0122】
3Epochでは、1番の代表ベクトルの部分ひずみD1が最も小さく、5番の代表ベクトルの部分ひずみD5が最も大きい。しかし、1番の代表ベクトルの部分ひずみD1minと5番の代表ベクトルの部分ひずみD4maxを比較した場合、ほとんど部分ひずみの格差がないため
【0123】
D4max>m・D1min (34)
【0124】
が成り立たたない。この代表ベクトルの配置は等ひずみ原理で示した大域的最適解の近傍の配置になっている。
【0125】
したがってLBGアルゴリズムを数回繰り返すことで、代表ベクトルの最適な配置を得ることができる.
このようにMMOC操作を加えたLBGアルゴリズムにおいて、最も単純なR=1とした場合について、以下のような設定の問題A(二次元ベクトル量子化)及び問題B(一次元のベクトル量子化)に適用して、シミュレーションを行った。
【0126】
問題A(二次元:クラスタ内の入力ベクトルは一様に出現)
図6に示すように、6つの正方形のクラスタから入力ベクトルが出現する。
【0127】
入力ベクトルは、一様乱数を用いて各クラスタに1000個、合計で 6000個用意した。
【0128】
各クラスタに4個、全体で24個の代表ベクトルを割り当てるベクトル量子化を行う。
【0129】
大きさの等しい正方形のクラスタを用いていることと各クラスタから生起する入力ベクトルの数が等しいので、最適な代表ベクトルの配置はクラスタの正方形をさらに四つの正方形に分割した中心に配置された場合である(図6)。一辺の長さ1の大きさの正方形に代表ベクトルを最適に配置した場合に得られる平均ひずみDopt はDopt =2.072×10−2である。
【0130】
問題B(一次元:クラスタ内の入力ベクトルは非一様に出現)
図7に示すように、ギャップをもつような一次元の非一様な確率分布から入力ベクトルが出現する。
【0131】
ギャップをもつような一次元の確率分布は、[0,1]の二つの一様乱数をかけ合わせ、0.2から0.4まで取り除いた確率分布である。この確率分布から5000個の入力ベクトルを作成した(図7)。
【0132】
この一次元の確率分布に15個の代表ベクトルを割り当てるベクトル量子化を行う。
【0133】
このベクトル量子化の代表ベクトルの最適な配置は、Maxのスカラー量子化器[Max60]より、区間[0,0.2]と区間[0.4,1.0]にそれぞれ6個、9個の代表ベクトルが割り当てられた場合である。そのとき最適な平均ひずみDoptはDopt=1.403×10−4となった。
【0134】
性能評価には最適な平均ひずみとの相対ひずみ(D−Dopt)/Dopt を用いた。代表ベクトルの初期配置は、入力ベクトルから任意に与え、全ての手法で同じ配置にした。
【0135】
図8及び図9は,それぞれ二次元,一次元の問題に対して、100回のシミュレーションの相対ひずみの平均を示している。
【0136】
図10は、ベクトル量子化器を用いて得られた最小相対ひずみ・最大相対ひずみ・平均相対ひずみと平均収束Epoch数、1Epochあたりの計算時間、1学習あたりの計算時間を示している。ただし、平均収束Epoch数を求める際の収束判定は、前Epochの平均ひずみと現Epochの平均ひずみの相対的な差が10−9を二回連続で生じたときに終了するように設定した。また、計算時間の比較にはLBGアルゴリズムの計算時間を1.000としたときの相対的な計算時間で比較した。
【0137】
図11は、100個の初期配置から得られたベクトル量子化器の相対ひずみの頻度分布を示している。
【0138】
上記シミュレーションの結果からも明らかなように、MMOCを加えたLBGアルゴリズムは、以下のような特徴を持つ。
【0139】
(1)ほぼ最適な代表ベクトルの配置を得ることができる。
二次元の問題に対しては、100%最適な配置が得られた。
一次元の問題に対しては、最適な平均ひずみよりも平均で3.3%ほど大きい平均ひずみに収束している。
【0140】
(2)1Epochあたりの計算時間はLBGと同等であり、収束Epoch数はLBGの2/3(二次元)、1/2(一次元)程度に短縮されているので、1回のコードブック生成にかかる計算時間は短縮されている。
【0141】
また、MMOC操作を加えたLBGアルゴリズムを階調変換(フルカラーの画像を256色に減色)に適用した。
【0142】
MMOCのパラメータR=1,30とした場合の平均ひずみと実行時間の比較を行う。画像は Kodak PhotoCDの5番目の画像(768×512)を用いた。収束条件は、代表ベクトルの移動がなくなるまでとした。
【0143】
また、MMOC操作を加えたLBGアルゴリズムを用いたときのEpoch(反復回数)と平均ひずみの関係を図12に、性能を図13に示す。ただし、時間の測定は、次の環境で行った。
【0144】
CPU:PentiumII 400MHz
Memory:64 Mbyte
OS:WindowsNT4.0
【0145】
その結果,次のようなことがわかった.
(1)操作のパラメータRを大きくすることで、R=1のときの実行時間2044[sec]がR=30とすると406[sec]と大幅に時間短縮することができる。
【0146】
次に本発明の変形例について説明する。
【0147】
本発明は、例えば図14に示すような構成のコードブック生成装置20により実施される。
【0148】
このコードブック生成装置20は、MMOC操作を加えた競合学習を行うものであって、入力端子21を介して入力ベクトルx(t)∈RKが入力される符号化装置22、コードブックメモリ23、演算装置24、部分ひずみソーティング装置25、部分ひずみ比較装置26、代表ベクトル移動装置27及び制御装置28から構成される。
【0149】
このコードブック生成装置20において、符号化装置22は、入力端子21を介して入力ベクトルx(t)を受け取るとともに、コードブックメモリ23にアドレスを指定してデータ(コードブック)を受け取り、コードブックの中から入力ベクトルx(t)に最もひずみが小さい代表ベクトルwmin (t)を探し出す。そして、この符号化装置22は、代表ベクトル計算・平均ひずみ計算・部分ひずみ計算を行う演算装置23に、入力ベクトルx(t)とデータ(符号化された代表ベクトルの番号minと代表ベクトルの値wmin (t))と入力ベクトルを符号化したときのひずみd(x(t),wmin (t))を渡す。
【0150】
コードブックメモリ23は、コードブックW(t)={wi (t)∈RK:i=0,・・・,N−1}を記憶しておき、符号化装置22からのアドレスを受け取り、対応するデータ(コードブック)を符号化装置22に渡す。また、このコードブックメモリ23は、代表ベクトル移動装置27から、データ(更新されたコードブックw(T))と書き込むアドレスを受け取り、対応するアドレスに更新されたコードブックが書き込まれる。さらに、このコードブックメモリ23は、代表ベクトル計算・平均ひずみ計算・部分ひずみ計算を行う演算装置24から、データ(更新された代表ベクトルwmin (t+1)と書き込むアドレスを受け取り、対応するアドレスに更新された代表ベクトルが書き込まれる。
【0151】
演算装置24は、符号化装置22から、入力ベクトルx(t)とデータ(符号化された代表ベクトルの番号minと代表ベクトルの値wmin (t))と入力ベクトルを符号化したときのひずみd(x(t),wmin (t))を受け取り、代表ベクトル番号minに対応するデータ(部分ひずみDminsum)の計算を次の式(35)にしたがって行う。
【0152】
Dminsum+=d(x(t),wmin (t)) (35)
【0153】
また、この演算装置24は、代表ベクトルの値を次の(36)式にしたがって更新する。
【0154】
wmin (t+1)=wmin (t)+η(t)[x(t)−wmin (t)] (36)
【0155】
また、この演算装置24は、コードブックメモリ23の代表ベクトル番号minのアドレスに更新された代表ベクトルの値wmin (t+1)を書き込む。
【0156】
また、この演算装置24は、T個の入力ベクトルに対して、符号化が終了し、上記途中計算が終了したと制御装置28から指示を受けたら、部分ひずみDi及び平均ひずみDの計算を次の(37)式及び(38)式にしたがって行う。
【0157】
【数23】
【0158】
さらに、この演算装置24は、制御装置28からの指示により、全てのデータ(分子winumと分母widen及び部分ひずみDisum ,∀i)をクリアする。
【0159】
部分ひずみソーティング装置25は、演算装置24からデータ(部分ひずみ)をもらうとともに、コードブックメモリ23からアドレスを指定して対応するデータ(コードブックW(T)をもらい、部分ひずみの大きさを基準にして、コードブックと部分ひずみをソートする。そして、この部分ひずみソーティング装置25は、部分ひずみ比較装置26にソートされたコードブックと部分ひずみをデータとして渡す。
【0160】
部分ひずみ比較装置26は、部分ひずみソーティング装置25から、データすなわちソートされたコードブックと部分ひずみをもらい、大きい部分ひずみと小さい部分ひずみを比較して、格差が大きい場合は、代表ベクトル移動装置435に小さい部分ひずみを持つ代表ベクトルを大きい部分ひずみを持つ代表ベクトルの近傍に移動させる情報を渡す。すなわち、この部分ひずみ比較装置26は、上記移動情報とコードブックW(Tをデータとして代表ベクトル移動装置27に渡す。
【0161】
代表ベクトル移動装置27は、部分ひずみ比較装置26から小さい部分ひずみを持つ代表ベクトルを大きい部分ひずみを持つ代表ベクトルの近傍に移動させる情報とコードブックW(T)を受け取り、上記移動情報に基づいて、小さい部分ひずみを持つ代表ベクトルを大きい部分ひずみを持つ代表ベクトルの近傍に移動させる。そして、この代表ベクトル移動装置27は、コードブックメモリ23に更新されたコードブックW(T)と書き込むアドレスを渡し、対応するアドレスに更新されたコードブックを書き込む。また、この代表ベクトル移動装置27は、制御装置28からの指示により任意の初期コードブックをコードブックメモリ23に設定する。
【0162】
制御装置28は、符号化装置22、演算装置24、部分ひずみソーティング装置25、部分ひずみ比較装置26及び代表ベクトル移動装置27の処理フローを制御する。また、この制御装置28は、代表ベクトル移動装置27に対して任意の初期コードブックの設定を指示する。
【0163】
このような構成のコードブック生成装置20では、MMOC操作を加えた競合学習処理を行い、図15に示すフローチャートにしたがってコードブック生成を行う。
【0164】
すなわち、このコードブック生成装置20では、先ず、ステップ(F21)において、代表ベクトルの初期配置とMMOC操作のパラメータR,mを設定する。
【0165】
次のステップ(F22)では、入力ベクトルの符号化と平均ひずみ・部分ひずみの準備を行う。すなわち、このステップ(F22)では、入力ベクトル入力ベクトルx(t)を次の(39)式にしたがって符号化する。
【0166】
min=argmini d(x(t),wi (t)) (39)
【0167】
そして、このステップ(F22)では、符号化された代表ベクトルminの部分ひずみDminsumの計算を次の(40)式にしたがって行っておく。
【0168】
Dminsum+=d(x(t),wmin (t)) (40)
【0169】
次のステップ(F23)では、代表ベクトルの値の計算ステップであって、次の(41)式にしたがって代表ベクトルを更新する。
【0170】
wmin (t+1)=wmin (t)+η(t)[x(t)−wmin (t)] (41)
【0171】
このステップ(F23)では、t=T−1が成り立つとき、部分ひずみDiを及び平均ひずみDを次の(42)式及び(43)式にしたがって計算する。
【0172】
【数24】
【0173】
次のステップ(F24)は、繰り返しの判断ステップであって、すべての入力ベクトルの符号化が終了したか否かを判定する。もし、データが終わりならば処理を終了し、さもなければ、次のステップ(F25)へ進む。
【0174】
ステップ(F25)は、MMOCモードに入るか否かを判定するステップであって、t=T−1が成り立たないときには上記ステップ(F21)へ戻り、t=T−1が成り立つときには次のステップ(F26)へ進む。
【0175】
ステップ(F26)では、部分ひずみに応じて代表ベクトルと部分ひずみをソートする。
【0176】
そして、次のステップ(F27)及びステップ(F28)において、MMOC操作を実行する。
【0177】
すなわち、ステップ(F27)では、大きい順にR個の部分ひずみDmax[r]と小さい順にR個の部分ひずみDmin[r]を比較する(図3)。
【0178】
そして、このステップ(F27)における比較の結果、次の(44)式が成り立ないときは、ステップ(F22)へ戻って、ステップ(F22)〜(F17)の処理を繰り返し行い、(31)式が成り立つときはステップ(F28)へ進む。
【0179】
Dmax[r]>m×Dmin[r],(r=0,・・・,R−1) (44)
【0180】
さらに、ステップ(F28)では、次の(45)式に示すように、小さい順の部分ひずみDmin[r]を持つ代表ベクトルWmin (T)[r]を大きい順の部分ひずみDmax[r]を持つ代表ベクトルWmax (T)[r]の近傍に再配置して、ステップ(F12)へ戻る。
【0181】
Wmin (T)[r]←Wmax (T)[r]+ε (45)
【0182】
ただし、ε(≪1)は摂動項である。一回の反復で最大R個の移動が可能となる。
【0183】
【発明の効果】
以上説明したように,本発明によれば、従来方法と比較して,平均ひずみを最小にする代表ベクトルの最適な配置を得ることができる。また、複数の部分ひずみを比較し、代表ベクトルを移動させることで、実行時間を短縮することも可能である。
【図面の簡単な説明】
【図1】 本発明を適用したベクトル量子化器の構成を示すブロック図である。
【図2】 上記ベクトル量子化器おいてコードブック生成を行うために実行される等ひずみ原理に基づいたMin-Max Order Compare(MMOC) 操作を加えたLBGアルゴリズムを示すフローチャートである。
【図3】 上記LBGアルゴリズムにいて、ソートされた昇順の部分ひずみと降順の部分ひずみの比較処理を模式的に示す図である。
【図4】 R=1とした場合のMMOC操作を加えたLBGアルゴリズムの動作の概念図である。
【図5】 R=1とした場合のMMOC操作を加えたLBGアルゴリズムの実際の動作を模式的に示す図である。
【図6】 二次元の問題と最適な代表ベクトルの配置を模式的に示す図である。
【図7】 一次元の問題の確率分布に示す図である。
【図8】 二次元のベクトル量子化器の性能評価を模式的に示す図である。
【図9】 一次元のベクトル量子化器の性能評価を模式的に示す図である。
【図10】 ベクトル量子化器の相対ひずみと計算時間を示す図である。
【図11】 ベクトル量子化器に対する相対ひずみの頻度分布を示す図である。
【図12】 MMOC操作を加えたLBGアルゴリズムを適用した階調変換(フルカラーの画像を256色に減色)におけるEpoch(反復回数)と平均ひずみの関係を示す図である。
【図13】 上記階調変換(フルカラーの画像を256色に減色)の性能を示す図である。
【図14】 本発明適用したベクトル量子化器の変形例を示すブロック図である。
【図15】 上記変形例においてコードブック生成を行うために実行されるMMOC操作を加えた競合学習処理を示すフローチャートである。
【図16】 ベクトル量子化の概念図である。
【図17】 従来より知られているLBGアルゴリズムを示すフローチャートである。
【図18】 上記LBGアルゴリズム採用した従来のベクトル量子化器の構成を示すブロック図である。
【図19】 上記LBGアルゴリズムの問題点を説明するための図である。
【図20】 上記LBGアルゴリズムの平均ひずみの変化を示す図である。
【図21】 等ひずみ原理を例示する図である。
【符号の説明】
10,20 ベクトル量子化器、11 入力ベクトル集合メモリ、21 入力端子、12,22 符号化装置、13,23 コードブックメモリ、14,24演算装置、15,15 ソーティング装置、16,26 部分ひずみの比較装置、17,27 代表ベクトルの移動装置、18,28 制御装置
Claims (4)
- 入力ベクトル集合をコードブックに基づいて対応する代表ベクトルに符号化する符号化ステップと、
上記符号化ステップにより得られた代表ベクトルの重心計算、平均ひずみ計算、部分ひずみ計算を行う演算ステップと、
上記演算ステップによる計算結果に基づいて収束判定を行う収束判定ステップと、
上記演算ステップにより得られた部分ひずみを基準として、代表ベクトルと部分ひずみをソートするソーティングステップと、
上記ソーティングステップによりソートされた昇順の部分ひずみと降順の部分ひずみを比較する部分ひずみ比較ステップと、
上記部分ひずみ比較ステップにおける比較結果に基づいて、部分ひずみの小さい代表ベクトルを部分ひずみの大きい代表ベクトルの近傍に移動させてコードブックを更新する代表ベクトル移動ステップとを有し、
上記演算ステップでは、入力ベクトルx (t) と符号化された代表ベクトルの番号minと入力ベクトルを符号化したときのひずみd(x (t) ,w min (p) )から、
w minnum +=x (t)
w minden +=1
D sum +=d(x (t) ,w min (p) )
にて代表ベクトル番号minに対応するデータw minnum ,w minden 及びd sum を計算し、T個の入力ベクトルに対して、符号化が終了し、上記途中計算が終了した時点で、
上記収束判定ステップによる収束判定条件を満たすまで、上記各ステップを繰り返し行うベクトル量子化のコードブック生成方法。 - 上記比較ステップでは、上記ソーティングステップによりソートされた昇順の部分ひずみと降順の部分ひずみを複数個ずつ比較し、
上記代表ベクトル移動ステップでは、上記部分ひずみ比較ステップにおける比較結果に基づいて、部分ひずみの小さい複数の代表ベクトルを部分ひずみの大きい代表ベクトルの近傍に移動させてコードブックを更新する請求項1記載のベクトル量子化のコードブック生成方法。 - 入力ベクトル集合を格納する入力ベクトル集合手段と、
コードブックを格納するコードブック記憶手段と、
上記コードブック記憶手段に格納されたコードブックに基づいて、上記入力ベクトル集合手段に格納された入力ベクトル集合を対応する代表ベクトルに符号化する符号化手段と、
上記符号化手段により得られた代表ベクトルの重心計算、平均ひずみ計算、部分ひずみ計算を行う演算手段と、
上記演算手段により得られた部分ひずみを基準として、代表ベクトルと部分ひずみをソートするソーティング手段と、
上記ソーティング手段によりソートされた昇順の部分ひずみと降順の部分ひずみを比較する部分ひずみ比較手段と、
上記部分ひずみ比較手段による比較結果に基づいて、部分ひずみの小さい代表ベクトルを部分ひずみの大きい代表ベクトルの近傍に移動させて上記コードブックを更新する代表ベクトル移動手段と、
上記符号化手段、演算手段、ソーティング手段、部分ひずみ比較手段及び代表ベクトル移動手段の処理フローを制御する制御手段とを備え、
上記演算手段は、入力ベクトルx (t) と符号化された代表ベクトルの番号minと入力ベクトルを符号化したときのひずみd(x (t) ,w min (p) )から、
w minnum +=x (t)
w minden +=1
D sum +=d(x (t) ,w min (p) )
にて代表ベクトル番号minに対応するデータw minnum ,w minden 及びd sum を計算し、T個の入力ベクトルに対して、符号化が終了し、上記途中計算が終了した終了したと上記制御手段から指示を受けたら、
- 上記部分ひずみ比較手段は、上記ソーティング手段によりソートされた昇順の部分ひずみと降順の部分ひずみを複数個ずつ比較し、
上記代表ベクトル移動手段は、上記部分ひずみ比較手段による比較結果に基づいて、部分ひずみの小さい複数の代表ベクトルを部分ひずみの大きい代表ベクトルの近傍に移動させて上記コードブックを更新する請求項3記載のベクトル量子化のコードブック生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001010790A JP4479105B2 (ja) | 2001-01-18 | 2001-01-18 | ベクトル量子化のコードブック生成方法及びコードブック生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001010790A JP4479105B2 (ja) | 2001-01-18 | 2001-01-18 | ベクトル量子化のコードブック生成方法及びコードブック生成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002217739A JP2002217739A (ja) | 2002-08-02 |
JP4479105B2 true JP4479105B2 (ja) | 2010-06-09 |
Family
ID=18878044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001010790A Expired - Lifetime JP4479105B2 (ja) | 2001-01-18 | 2001-01-18 | ベクトル量子化のコードブック生成方法及びコードブック生成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4479105B2 (ja) |
-
2001
- 2001-01-18 JP JP2001010790A patent/JP4479105B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2002217739A (ja) | 2002-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Frequency-domain dynamic pruning for convolutional neural networks | |
Nasrabadi et al. | Vector quantization of images based upon the Kohonen self-organizing feature maps | |
Lee et al. | Modified k-means algorithm for vector quantizer design | |
JPH05333898A (ja) | 時系列信号処理装置 | |
CN110929798A (zh) | 基于结构优化稀疏卷积神经网络的图像分类方法及介质 | |
Goyal et al. | Fixed-point quantization of convolutional neural networks for quantized inference on embedded platforms | |
JP2023505647A (ja) | ニューラルネットワークモデルの圧縮 | |
CN108154186B (zh) | 一种模式识别方法和装置 | |
EP1485814A2 (en) | Self-organizing feature map with improved performance by non-monotonic variation of the learning rate | |
JP4479105B2 (ja) | ベクトル量子化のコードブック生成方法及びコードブック生成装置 | |
WO2021246892A1 (en) | Method for training an artificial neural network comprising quantized parameters | |
RU2727080C2 (ru) | Построение нейронной сети на основе нейронов с функциональным преобразованием произвольного вида для входных сигналов | |
CN115577790A (zh) | 哈密顿量模拟方法、装置、设备及存储介质 | |
Choy et al. | Fast sequential implementation of" neural-gas" network for vector quantization | |
CN115668229A (zh) | 用于经训练神经网络的低资源计算块 | |
Abidi et al. | Image compression using hybrid neural networks combining the auto-associative multi-layer perceptron and the self-organizing feature map | |
JP4590747B2 (ja) | ベクトル量子化のコードブック生成方法及びコードブック生成装置 | |
Xu et al. | Novel vector quantiser design using reinforced learning as a pre-process | |
JPH06237179A (ja) | ベクトル量子化器の設計方法およびベクトル量子化器 | |
Tsolakis et al. | A fuzzy-soft competitive learning approach for grayscale image compression | |
Adlersberg et al. | Transform domain vector quantization for speech signals | |
CN111130555B (zh) | 一种压缩感知信号重构方法及系统 | |
Mitschke et al. | Advanced Quantization Methods for CNNs | |
Wu et al. | Source coding and vector quantization with codebook-excited neural networks | |
JP2009021873A (ja) | ベクトル量子化装置、及び、ベクトル量子化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091215 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100223 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100308 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130326 Year of fee payment: 3 |