JP3203609B2 - ベクトル量子化器の設計方法およびベクトル量子化器 - Google Patents

ベクトル量子化器の設計方法およびベクトル量子化器

Info

Publication number
JP3203609B2
JP3203609B2 JP26090893A JP26090893A JP3203609B2 JP 3203609 B2 JP3203609 B2 JP 3203609B2 JP 26090893 A JP26090893 A JP 26090893A JP 26090893 A JP26090893 A JP 26090893A JP 3203609 B2 JP3203609 B2 JP 3203609B2
Authority
JP
Japan
Prior art keywords
vector
distortion
codewords
codebook
codeword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26090893A
Other languages
English (en)
Other versions
JPH06237179A (ja
Inventor
修功 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP26090893A priority Critical patent/JP3203609B2/ja
Publication of JPH06237179A publication Critical patent/JPH06237179A/ja
Application granted granted Critical
Publication of JP3203609B2 publication Critical patent/JP3203609B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像・音声データなど
を圧縮して符号化する際に用いられるベクトル量子化器
の設計方法と、この設計方法を応用したベクトル量子化
器に関する。
【0002】
【従来の技術】画像データや音声データなどを圧縮して
符号化する方法の一つとして、ベクトル量子化(vector
quantization;VQ)がある。このベクトル量子化
は、入力信号空間を離散的な信号で信号で近似する処理
である。例えば音声データの場合、音声データを適宜の
間隔でサンプリングしてP個のサンプルを得て、このP
個サンプルをまとめP次元の1個の入力ベクトルとす
る。予め適当な数だけ用意されている代表ベクトルの中
から最もこの入力ベクトルに近いものを選択し、選択さ
れた代表ベクトルによって前記入力ベクトルを近似す
る。そして、選択された代表ベクトルを表わす番号をも
って、入力ベクトルすなわち入力信号を符号化する方法
である。ベクトル量子化は、データ圧縮や符号化の分野
において、極めて重要な技術である。
【0003】ベクトル量子化は、形式的には、k次元ユ
ークリッド空間RkからRkの部分集合Yへの写像Qとし
て、定義される。すなわち、
【0004】
【数1】 である。代表ベクトルを一般的にyiで表わすことにす
ると、部分集合Yは、N個の代表ベクトルからなる集合
Y={yi|i=1,2,...,N}である。yiとYは、そ
れぞれコードワード、コードブックと呼ばれる。したが
ってこのようなベクトル量子化を行なうベクトル量子化
器は、上述のk次元ユークリッド空間Rkを漏れなくか
つ重複のないN個の部分領域(部分空間)S1,S2,...,
Nに分割する。ここで、Si=Q-1(yi)である。そし
て、入力ベクトルがどの部分領域に属するかによって、
その属する部分領域に対応するコードワードにより入力
ベクトルを近似し符号化する。
【0005】ベクトル量子化の性能は、入力ベクトルを
それに対応するコードワードで近似する際の歪みで評価
される。したがって最適なベクトル量子化を実現するた
めには、ベクトル量子化に先立って有限個の訓練ベクト
ルデータを用い、全てのコードワードにわたる平均歪み
(歪みの統計的期待値)を最小化するように量子化器を
設計しておかなければならない。この設計過程は、通
常、コードブックの学習過程とも呼ばれる。
【0006】訓練ベクトルデータxをコードワードyi
で近似したときの歪みをd(x,yi)とすると、平均歪み
Dは次式で定義される。
【0007】
【数2】 ここでDiは、コードワードyiの支配領域Si(k次元
ユークリッド空間Rkの部分空間のうちコードワードyi
に対応する部分空間)内から生じる歪みを意味する。p
(x)は、入力ベクトルxの確率分布である。歪みd(x,
y)としては、通常、ユークリッドノルムのr乗:
【0008】
【数3】 が用いられる。
【0009】ところで、コードブックの学習手法とし
て、従来から多くの手法が提案されている。前述したよ
うに、量子化器は部分領域の分割方法と各分割領域を代
表する代表ベクトル値により特定される。最適コードブ
ックの公知の学習指針として、(1)ボロノイ分割、(2)重
心分割がある(Linde Y.,Buzo A.、 and Gray R。 M。,:"A
n algorithm Vector quantizer design", IEEE Trans.
Commu., vol. 28, no. 1, 1980)。ところが、これらの
条件は最適性のための弱い必要条件であるため、多くの
局所最適値を有する。それゆえ、得られるコードブック
の性能は代表ベクトルの初期値に大きく依存する。最
近、この問題を解決する方法として、"等確率原理"に基
づく学習アルゴリズムが提案されている(例えば、Ahal
t S。 C。, Krishnamurthy A. K., Chen P., and Melton
D. E.,:"Competive learning algorithm for vector qu
antization", Neural Networks, 3, pp. 277-290, 199
0)。ここで等確率原理とは、各コードワードが等しい確
率で最近傍ベクトルとなるようにするためのコードブッ
クの設計原理である。しかし、等確率原理によった場
合、上述した平均歪みDが最小化するという理論的保証
は得られていない。
【0010】また本発明者らは、競合学習(Competitiv
e Learning:CL)アルゴリズムに"増殖・消滅"機構を
新たに付加したコードブック設計法を提案し(特願平4
−294608)、競合学習に基づく従来の手法に対す
る優位性を示した。この特願平4−294608に示さ
れる方法では、学習過程において、各コードワードごと
に、そのコードワードが最近傍ベクトルとなった頻度が
記憶される。そして、予め定められた時間間隔で、記憶
された頻度を基にしてコードワードの増殖・消滅が逐次
実行される。この方法は、従来の競合学習アルゴリズム
における"等確率原理"をより忠実に実現する方法であ
る。
【0011】
【発明が解決しようとする課題】上述したように等確率
原理による場合でも平均歪みDが最小値に到達するとい
う保証はなく、平均歪みの大局的最小値を保証するコー
ドブックの設計方法は、これまで知られていなかった。
【0012】本発明の目的は、ベクトル量子化における
平均歪みを最小化するベクトル量子化器の設計方法と、
この設計方法を応用したベクトル量子化器を提供するこ
とにある。
【0013】
【課題を解決するための手段】本発明の第1のベクトル
量子化器の設計方法(請求項1,2)は、予め有限個の
コードワードからなるコードブックが用意され、ある確
率分布にしたがう有限個の訓練ベクトルデータの各々に
対し前記訓練ベクトルデータとの歪みが最小になるコー
ドワードを前記コードブックの中から選択して最近傍ベ
クトルとする選択工程と、前記最近傍ベクトルと前記歪
みとに基づいて前記コードブック内のコードワードを逐
次修正する修正工程とを有し、前記確率分布に対応する
前記コードブックの設計を行なうベクトル量子化器の設
計方法において、前記選択工程では、前記各コードワー
ドの各々に対して、前記最近傍ベクトルとして選択され
た際の前記歪みの累積値を測定し、前記修正工程に、前
記各コードワードごとに当該コードワードについての前
記歪みの累積値に応じて適応度を算出し前記適応度に応
じて当該コードワードの複製を生成する複製生成工程
と、前記複製生成工程で生成した前記各複製にそれぞれ
微小なランダムベクトルを加算して新たなコードワード
とし、前記各コードワードをもって新たな前記コードブ
ックとする更新工程とが付加され、前記複製生成工程お
よび前記更新工程とが、前記訓練ベクトルデータの提示
累積個数が所定数に達したときに実行される。
【0014】本発明の第2のベクトル量子化器の設計方
法(請求項3〜5)は、予め有限個のコードワードから
なるコードブックが用意され、ある確率分布にしたがう
有限個の訓練ベクトルデータの各々に対し前記訓練ベク
トルデータとの歪みが最小になるコードワードを前記コ
ードブックの中から選択して最近傍ベクトルとする選択
工程と、前記最近傍ベクトルと前記歪みとに基づいて前
記コードブック内のコードワードを逐次修正する修正工
程とを有し、前記確率分布に対応する前記コードブック
の設計を行なうベクトル量子化器の設計方法において、
前記修正工程に、前記各コードワードごとに当該コード
ワードについての部分歪みに応じて適応度を算出し前記
適応度に応じて当該コードワードを複製しあるいは消滅
させる複製・消滅工程と、前記複製・消滅工程で生成し
た各複製にそれぞれ微小なランダムベクトルを加算して
新たなコードワードとし、前記各コードワードをもって
新たな前記コードブックとする更新工程とが付加され、
前記複製・消滅工程および前記更新工程とが、前記訓練
ベクトルデータの提示累積個数が所定数に達したときに
実行される。
【0015】本発明の第1のベクトル量子化器(請求項
6)は、有限個のコードワードからなるコードブックを
保持するコードブック記憶手段と、逐次的に入力ベクト
ルが入力し前記入力ベクトルとの歪みが最小になるコー
ドワードを前記コードブックの中から選択して最近傍ベ
クトルとする選択手段と、前記最近傍ベクトルに基づい
て量子化結果を出力する量子化手段と、前記最近傍ベク
トルと前記歪みとに基づいて前記コードブック内のコー
ドワードを逐次修正する修正手段とを有するベクトル量
子化器において、前記各コードワードの各々について当
該コードワードが前記最近傍ベクトルとして選択された
際の前記歪みをそれぞれ積算して記憶する加算手段を有
し、前記修正手段が、前記入力ベクトルの提示累積回数
が所定数に達したときには、前記加算手段を参照し前記
各コードワードごとに当該コードワードについての前記
歪みの累積値に応じて適応度を算出し前記適応度に応じ
て当該コードワードの複製を確率的に生成し、生成した
前記各複製にそれぞれ微小なランダムベクトルを加算し
て新たなコードワードとし、前記各新たなコードワード
をもって新たなコードブックとして前記コードブック記
憶手段に保持されたコードブックを更新するものであ
る。
【0016】本発明の第2のベクトル量子化器(請求項
7)は、有限個のコードワードからなるコードブックを
保持するコードブック記憶手段と、逐次的に入力ベクト
ルが入力し前記入力ベクトルとの歪みが最小になるコー
ドワードを前記コードブックの中から選択して最近傍ベ
クトルとする選択手段と、前記最近傍ベクトルに基づい
て量子化結果を出力する量子化手段と、前記最近傍ベク
トルと前記歪みとに基づいて前記コードブック内のコー
ドワードを逐次修正する修正手段とを有するベクトル量
子化器において、前記修正手段が、前記入力ベクトルの
提示累積回数が所定数に達したときには、前記各コード
ワードごとに当該コードワードについての部分歪みに応
じて適応度を算出し前記適応度に応じて確定的に当該コ
ードワードを複製しあるいは消滅させ、生成した各複製
にそれぞれ微小なランダムベクトルを加算して新たなコ
ードワードとし、前記各新たなコードワードをもって新
たなコードブックとして前記コードブック記憶手段に保
持されたコードブックを更新するものであることを特徴
とするベクトル量子化器。
【0017】
【作用】本発明によるコードブックの学習過程は、上述
の特願平4−294608に示されるものと同様に"増
殖・消滅"過程によるものであるが、増殖と消滅のため
の基準となる原理が根本的に異なっている。すなわち本
発明では、上述の"等確率原理"ではなく、"等歪み原理"
に基づいて、コードワードの増殖と消滅が行なわれる。
等歪み原理とは、コードワードyiから生ずる歪みDi
全てのコードワードにわたってことごとく等しく(Di
=D/N,i=1,2,...,N)となるようなコードブッ
ク設計原理である。
【0018】すなわち本発明の第1のベクトル量子化器
の設計方法およびベクトル量子化器では、各コードワー
ドごとに、そのコードワードが最近傍ベクトルとして選
択されたときの歪みを積算しておく。そして、訓練ベク
トルデータの累積提示回数が所定の値になったときに、
歪みの累積値(累積歪量)の相対的な大小関係を基に"
増殖"と"消滅"を行なって各コードワードの複製を作成
し、得られた複製コードワードにノルムの小さなランダ
ムノイズを加算する。累積歪量が大きかったコードワー
ドに対してはその累積歪量に応じた数の複製が作成さ
れ、累積歪量の小さかったコードワードに対しては複製
が生成しないようにする。このように"増殖"と"消滅"を
行なうことにより、コードワードyiから生ずる歪みDi
が全てのコードワードにわたってことごとく等しくな
る。この場合、コードワードの複製の作成は、確率的に
行なわれる。通常の場合、コードワードの総数は複製の
前後で変化しないようにする。また、訓練ベクトルデー
タの確率分布が、設計対象とするベクトル量子化器の入
力対象データの確率分布と同様のものであることは、言
うまでもない。
【0019】本発明の第2のベクトル量子化器の設計方
法およびベクトル量子化器では、訓練ベクトルデータが
全て提示されたときに、そのときの各コードワードごと
の部分歪みの相対的な大小関係を基に"複製"と"消滅"を
行なって各コードワードの複製を作成し、得られた複製
コードワードにノルムの小さなランダムベクトルを加算
する。部分歪みが相対的に大きかったコードワードに対
しては想定的に多数の複製を作成し、部分歪みが小さか
ったコードワードに対してはそのコードワードを消滅さ
せ、全体としてのコードワードの総数を保つようにす
る。以上の工程をある収束条件が満たされるまで繰り返
す。したがって、有限個の訓練ベクトルデータが繰り返
し用いられることになる。このように、最適値ベクトル
の修正工程に、複製・消滅工程を付加することにより、
コードワードyiから生じる部分歪みDiが全てのコード
ワードにわたって近似的に等しくなり、最適なコードワ
ードが生成される。
【0020】ここで、この"等歪み原理"に基づくコード
ブック設計方法が最適であることを説明する。
【0021】Gershoは、確率分布p(x)が十分滑
らか(連続)でありかつ十分大きなN(Nはコードベク
トルの数)に対して、平均歪みD*の下限値が次の式を
満たすことを理論的に示した("Asymptotically optima
l block quantization", IEEE Trans. Inform. Theory,
IT-25, 4, pp. 373-380, 1979)。
【0022】
【数4】 ここでβ=r/kであり、rはノルムの次数である。C
(k,r)は量子化係数と呼ばれ、k,rで決まる定数であ
る。ただし、一般のk,rに対しては、C(k,r)の上限
値のみが分かっているだけで、実際の値は未知である。
C(k,r)は、以下の議論において重要ではないので、
詳細は省略する。
【0023】
【外1】 ノルムと呼ばれ、次式で定義される。
【0024】
【数5】 上記の下限値D*は、コードワード(代表ベクトル)の
分布が
【0025】
【外2】 に比例するときに得られ、これは若干の考察により、D
i=D*/Nが成立するときであることが分かる。
【0026】以上の議論は分布p(x)が連続な場合につ
いてのものであったが、本発明では、一般の場合、すな
わち分布が不連続なM個のクラスタからなる場合に、こ
の議論を一般化する。各クラスタ内での信号分布をp
j(x),j=1,...,Mとし、j番目のクラスタ内にはnj
の比率でコードワードが存在する場合を考える。式(3)
に注意すると、全平均歪みDを最小化するための最適コ
ードワードの個数比率n j *は、制約条件
【0027】
【数6】 のもとで、次の最小化問題を解くことにより得られる。
【0028】
【数7】 この最小化問題は変分法により容易に解かれ、その解は
以下のようになる。
【0029】
【数8】 ゆえに、j番目のクラスタに(nj *N)個のコードワー
ドを配置し、かつj番目のクラスタ内の領域Si (j)での
歪みDi (j)がことごとく等しいときに、全てのクラスに
わたる最小歪みが得られる。領域Si (j)での歪みDi (j)
がことごとく等しいとは、具体的には以下の場合であ
る。
【0030】
【数9】 ところが、
【0031】
【数10】 に注意すると、D(j)/(nj *N)はjによらない定数
であることが分かる。このことは、あるクラスタ内の各
領域内での歪みが当該クラスタ内で等しいだけではな
く、クラスタ相互間でも等しいことを意味する。
【0032】以上の議論から、等歪み原理がコードブッ
クの最適設計となることが示された。また、上記の解析
から、従来手法である等確率原理は、クラスタ内で一様
分布となっている場合(ただし、クラスタ数がコードワ
ードの数より十分小さい場合)にのみ最適となることが
わかる。
【0033】ところで、本発明の特徴である上述の"等
歪み原理"は、通常のベクトル量子化器のコードブック
の最適設計に利用できるほか、適応ベクトル量子化法に
も応用できる。"等歪み原理"を用いて適応ベクトル量子
化を行なう場合には、訓練ベクトルデータのかわりに入
力ベクトル(入力信号)そのものを対象として、上述の
各工程を実施するようにすればよい。
【0034】また、本発明における"等歪み原理"は、通
常のベクトル量子化器の最適設計にも利用できるほか、
クラス分類型ベクトル量子化器の最適設計にも利用でき
る。ここでクラス分類型ベクトル量子化器とは、画像な
どのパタン認識において、入力画像の特徴を抽出し、抽
出された特徴に基づいてクラス分けを行ない、クラスご
とに量子化を行なうものであって、予め定めてられてい
る複数のクラスごとにコードブックが用意されている。
本発明におけるクラス分類型ベクトル量子化器の設計方
法は、上述した設計方法に対し、画像を同じサイズの矩
形画像に分割してこの矩形画像を予め定められた複数の
画像クラスに分類する分類工程と、分類された矩形画像
に含まれる各画素値を列挙して得られるベクトルを訓練
ベクトルデータとする訓練データ作成工程とが付加され
た構成となっている。この場合、部分領域の部分歪みを
等しくするかわりに、分類工程により分類された第j番
目のクラスの訓練データの個数比Pjによって重み付け
された重み付き部分歪みを全てのコードワードにわたっ
て等しくするように、複製・消滅工程を実施する。
【0035】
【実施例】
《第1の実施例》次に、本発明の実施例について、図面
を参照して説明する。図1は、本発明の第1の実施例に
おけるベクトル量子化器の設計方法の実施に使用される
ベクトル量子化器の構成を示すブロック図である。
【0036】このベクトル量子化器10は、ベクトルデ
ータが入力する入力端子11、量子化結果を外部に出力
するための出力端子12、入力端子11に接続され入力
したベクトルデータを量子化して結果を出力端子12に
出力する量子化部1、コードブック3を有するコードワ
ード保持部2、入力したベクトルデータを一定周期でサ
ンプリングして訓練データとして出力する訓練データ生
成部4、歪計算部5、歪加算テーブル7を内蔵した修正
部6とによって構成されている。ここでコードブック3
は、予め定められた数Nのコードワード(代表ベクト
ル)を保持するものであり、その構成は図2に示す通り
のものである。すなわち、各コードワードごとにそのI
D(識別番号)とそのコードワードのベクトル値(ベク
トルの座標値、例えばk次元ベクトルであるコードワー
ドyiに対して(yi1,yi2,...,yik))とを格納してい
る。また歪計算部5は、訓練データ生成部4からの訓練
データとコードブック3に格納されたコードワードの各
々との歪み(例えばユークリッドノルムのr乗)を計算
し、歪みが最も小さいコードワードを最近傍ベクトルと
し、そのコードワードのIDを修正部6と量子化部1と
に送出するよう構成されている。また、選択されたコー
ドワードと訓練データとの歪みは、歪計算部5から修正
部6に送られる。
【0037】歪加算テーブル7は、図3に示すように、
各コードワードごとに、そのIDと累積歪量とを格納す
る。ここで累積歪量とは、そのコードワードが最近傍ベ
クトルとして選ばれた際の訓練データとそのコードワー
ドとの歪みを積算したものである。修正部6は、歪計算
部5からコードワードのIDと歪みの値とが送られてき
た場合に、訓練データの入力数(コードワードのIDの
1回の送出は、1個の訓練データの入力に対応する)を
カウント(累積)するともに、歪加算テーブル7中のそ
のIDに対応する累積歪量に今送られてきた歪みの値を
加算し、従来の手法にしたがいコードワード保持部2に
アクセスして最近傍ベクトルとなったコードワードを更
新する。そして修正部6は、入力した訓練データの数が
ある値になったとき、歪加算テーブル7に記憶された
各コードワードごとの累積歪量にしたがって、各ワード
コードごとに適応度を算出し、適応度にしたがって各
コードワードの複製を生成し、複製されたコードワード
にノルムが微小なランダムベクトルを加算し、得られた
コードワード群を持ってコードブック3を書き換え、
歪加算テーブル7を初期化(各累積歪量を0にする)
し、次に複製生成を行なうこととなる入力ベクトルの累
積数に、前記ある値を書き換えるように構成されてい
る。適応度とは、累積歪量の相対的な大小関係のことを
示している。
【0038】次に、本実施例の動作を図4のフローチャ
ートを用いて説明する。
【0039】コードブック3には、予め定められた数
(例えばN個)のコードワードが、乱数で初期化されて
記憶されている。
【0040】ベクトルデータが入力すると、そのベクト
ルデータは、量子化部1と訓練データ生成部4とに送ら
れ、訓練データ生成部4で一定周期ごとにサンプリング
され、訓練データx(t)として歪計算部5に送られる。
歪計算部5は、コードブック3内のコードワードy
i(1≦i≦N)のそれぞれと入力した訓練データx(t)
との歪みを計算し、この歪みが一番小さいコードワード
を最近傍ベクトルycとして決定する(ステップ10
1)。すなわち、
【0041】
【数11】 を満たすものが、最近傍ベクトルycとして選び出され
る。そして選び出されたコードワードのIDが量子化部
1と修正部6に送られ、歪みd(x,yc)の値が修正部6
に送られる。量子化部1は、送られてきたIDに基づい
て、量子化データを外部に出力する。
【0042】一方、修正部6は、訓練データの累積入力
数tをカウントしており、tがある値Tと一致している
かどうかをまず調べる(ステップ102)。
【0043】t≠Tである場合には、歪加算テーブル7
において入力したIDに対応する累積歪量gcに歪みd
(x,yc)を加算する(ステップ103)。そして、次式
にしたがって、最近傍ベクトルycに対応するコードワ
ードを修正・更新してコードブック3に格納する(ステ
ップ104)。
【0044】
【数12】 ここでε(t)は、訓練データの提示回数tすなわち時間
に関する減少関数である。
【0045】一方、ステップ102でt=Tであった場
合、修正部6は歪加算テーブル7を参照して、各コード
ワードごとの累積歪量gi(1≦i≦N)を正規化する
(ステップ105)。この正規化は、次式にしたがって
行なわれる。
【0046】
【数13】 続いて修正部6は、実数からなる区間[0,1]をステ
ップ105で得られた正規化された累積歪量
【0047】
【外3】 によって、分割する。これにより区間[0,1]は、長
さが累積歪量giに比例したN個の部分区間(I1,
2,...,IN)に分割される。続いて各コードワードに
対する複製個数(miとする)を初期化する(mi=0,
i=1,...,L)。そして区間[0,1]に対する一様乱
数をN個発生させ、その各々の乱数(∈[0,1])に
対し、上述の部分区間(Ii=0,i=1,...,N)のど
の区間に属するかを判定する。例えばIjに属する場
合、その区間に対応する複製個数に1を加算する(mi
←mi+1)。これにより、コードワードyiの複製後の
個数miが前記累積歪量giに確率的に比例して得られる
ことになる。明らかに
【0048】
【数14】 が成立するから、複製後のコードワードの総数は複製前
と変らない。そして、各コードワードyiごとに、その
コードワードyiに対する複製個数miだけの複製の代表
ベクトルを作成する(ステップ106)。この時点で
は、複製されたコードワードは、対応するもとのコード
ワードと同じである。
【0049】次に、複製された各コードワードに対し、
以下の式によって微小なノルムのランダムベクトルをそ
れぞれ加算して、新たなコードワードを設定する(ステ
ップ107)。ここでyi *(ただしi=1,...,N)
は、新たなコードワードの座標値である。
【0050】
【数15】 ここでδi(t)∈Rkは、‖δi(t)‖≪‖yi(t)‖を満た
すノルムの微小なランダムベクトルである。以上のステ
ップ105〜ステップ107によって、各コードワード
近傍に、前記累積歪量に比例した複製が確率的に配置さ
れるから、この新たに生成した複製でもって、コードブ
ック3全体を更新する(ステップ108)。
【0051】そして、修正部6は、全コードワードに対
して歪加算テーブル7を初期化し(ステップ109)、
上述の値Tに2Tを代入して(ステップ110)、処理
を終了する。ここでTに2Tを代入したことにより、入
力する訓練データの累積個数が2Tに達した時点で再び
上記のステップ105〜ステップ110が行なわれるこ
とになる。
【0052】ここで、複製過程について、実例を挙げて
説明する。ここでは、コードワードの数が7個であっ
て、訓練データの入力数が所定の数に達したときに、累
積頻度から適応度を求めて複製を作る場合の処理を取り
上げる。例えば、この時点で7個のコードワードy
i(1≦i≦7)のそれぞれの累積歪量giが図5の(A)
に示すものであったとする。これに対する新たなコード
ワードyi *が図5の(B)に示されている。累積歪量が0.
0であったコードワードm3,m4,m7に対しては複製が
作成されず、累積歪量が40.2であって一番大きかっ
たコードワードm1に対しては3個の複製が作成されて
いることがわかる。
【0053】次に、同一の訓練データに対するコードブ
ックの学習過程について、本実施例の方法に基づくもの
と、等確率原理に基づく従来の方法に基づくものとを比
較した結果を説明する。実験で使用した訓練データとし
ては、図6(a)に示す不連続な1次元分布を使用した。
この分布は、区間[0.0,1.0]の間の任意の値をと
る2つの一様乱数の積を計算し、計算で得た分布から区
間[0.2,0.4]に属するものを取り除くことによっ
て得た。訓練データ数は7000とした。また、コード
ワードの総数Nは15とし、各コードワードの初期値を
一律に0.35とした。図6(b)に示したものは本実施例
による学習過程を示し、図6(c)は従来の方法による学
習過程を示している。これらの図で、縦軸は時間の推移
すなわち訓練データの累積入力数に対応し、横軸は、各
コードワードの値に対応する。
【0054】ところで、1次元の場合には、式(2)の平
均歪みDの最小値とそれに対応するコードワードyi
最適値を数値的探索法により求めることができ(Max
J.,;"Quantizing for minimum distortion", IRE Tran
s. Inform. Theory, IT-6, pp. 7-12, 1960)、理論値
との比較が可能となる。図6(a),(b)において、図中の
点線は数値的に求めた理論値を示す。
【0055】本実施例による結果を示す図6(b)では、
コードワードの値が理論値に漸近していく様子を確認で
きる。また、学習終了後、同じデータに対する歪みd
(歪みとしては自乗誤差を採用)を算出したところ、理
論値の2%以下の誤差という極めて良好な結果が得られ
た。一方、従来の方法による結果を示す図6(c)では、
コードワードの収束値と理論値との差がかなりあり、等
確率原理が必ずしも最適ではないことを示している。な
お、本実施例に基づく図6(b)において、分岐や消滅が
見られるが、これは上述した増殖・消滅によるものであ
る。
【0056】《第2の実施例》次に、本発明の第2の実
施例について説明する。図7は本発明の第2の実施例に
おけるベクトル量子化器の設計方法の実施に使用される
ベクトル量子化器の構成を示すブロック図である。
【0057】このベクトル量子化器20は、図1に示し
た第1の実施例でのベクトル量子化器10と比べ、歪計
算部25と修正部26の構成が異なっている。図7にお
いて、図1に示したものと同じブロックには、同一の参
照符号が付されている。以下では、第1の実施例との相
違点を中心にして説明を行なう。
【0058】歪計算部25は、訓練データ生成部4から
の訓練データとコードブック3に格納されたコードワー
ドの各々との歪み(例えばユークリッドノルムのr乗)
を計算し、歪みが最も小さいコードワードを最近傍ベク
トルとし、そのコードワードのIDを修正部26と量子
化部1とに送出し、選択されたコードワードと訓練デー
タとの歪みを修正部26に送るように構成されている。
さらに、歪計算部25は、全ての訓練データを用いてコ
ードワードが更新されたとき、再度、全ての訓練データ
を用いて現在のコードワードの値を用いて歪み(部分歪
み)を算出し、各コードワードごとの部分歪みを修正部
26に送出するようになっている。
【0059】修正部26には、部分歪みテーブル27が
設けられている。部分歪みテーブル27は、図8に示す
ように、各コードワードごとに、そのIDと歪計算部2
5から送られててきた部分歪みとを格納する。修正部2
6は、歪み計算部25から最近傍ベクトルに対応するコ
ードワードのIDと歪みの値が送られてきた場合に、従
来の手法にしたがいコードワード保持部2にアクセスし
て最近傍ベクトルとなったコードワードを更新する(例
えば上述の式(9))。そして修正部26は、全ての訓練
データを用いてコードワードが更新されたときに歪計算
部25から各コードワードごとの部分歪みが送られてく
ると、各コードワードごとの部分歪みを部分歪みテー
ブル27に格納し、部分歪みテーブル27内に格納さ
れた各コードワードごとの部分歪みに応じて各コードワ
ードごとに適応度を算出し、適応度にしたがって後述
するように各コードワードを複製しあるいは消滅させ、
複製されたコードワードにノルムが微小なランダムベク
トルを加算し、得られたコードワード群をもってコー
ドブック3を書き換えるように構成されている。
【0060】次に、本実施例の動作について図9のフロ
ーチャートを用いて説明する。
【0061】コードブック3には予め定められた数のコ
ードワード(代表ベクトル)が記憶されているとする。
そしてベクトルデータが入力すると、第1の実施例と同
様に訓練データx(t)として歪計算部25に送られ、最
近傍ベクトルycが決定される(ステップ201)。修
正部26は、上記の式(9)にしたがって最近傍ベクトル
cに対応するコードワードを修正・更新し、コードブ
ック3に格納する(ステップ202)。そして全ての訓
練データに基づいてコードワードが更新されたかどうか
が判定される(ステップ203)。全ての訓練データに
基づいてコードワードが更新された場合には、ステップ
204に移行する。
【0062】ステップ204では、歪計算部25によっ
て、全ての訓練データを用いて現在のコードワード値に
対する部分歪みが算出され、この部分歪みはコードワー
ドごとに部分歪みテーブル27に格納される。続いて、
各コードワードごとに、当該コードワードの部分歪みD
jを基に、次式によって正規化適応度hjが算出される
(ステップ205)。ここでjはj番目のコードワード
であることを示している。γ(<1.0)は非負の定数
であって、これにより極端な淘汰が抑制される。また、
s(m)は、m回目の繰り返しにおける複製・消滅対象コ
ードワード数を表わすものであって、mとともに0にま
で減少する関数とする。これにより、複製・消滅処理は
有限回で必ず終了する。
【0063】
【数16】 続いて、以下の手順(I),(II)による確定的な淘汰を未処
理のコードワードに対する複製個数(uj;j=1,
2,...,N)を決定する(ステップ206)。
【0064】手順(I):j番目のコードワードyjに対
し、[hj・s(m)](=uj)を計算する。ただし、
[a]はaを越えない最大の整数とする。
【0065】手順(II):全てのコードワードyj(j=
1,2,...,N)に対し、hj・s(m)の値の大きなものか
ら順に、
【0066】
【外4】 個のコードワードを選び、選択されたコードワードに対
応する複製個数(uj)に1を加算する。
【0067】以上のようにコードワードごとの複製個数
が求められたら、複製個数が0すなわちuj=0である
コードワードを消滅させて、以下の処理の処理対象から
除外する(ステップ207)。そして、各コードワード
jの複製個数ujにしたがい、各コードワードに対し、
‖δj,l‖≪‖yj‖なるランダムな摂動ベクトルδj, l
(ただしl=1,2,...,uj−1)を加算する(ステッ
プ208)。これにより、コードワードyjの近傍に計
j−1個の重みベクトル(複製)が生成されたことに
なり、各コードワードの近傍にその部分歪みの相対値に
比例した複製が配置されたことになる。このようにして
得られた複製を新たなコードワードとし、複製の親とな
ったコードワードと新たに生成されたコードワードとを
もって、コードブック3全体を更新する(ステップ20
9)。重みベクトルの個数が各コードワードyjに対し
てuj−1個であることにより、明らかに、複製後のコ
ードワード全体の個数は複製前と変わらない。以上のよ
うにして、本実施例における複製・消滅過程が終了した
ことになる。
【0068】ここで、複製・消滅過程について実例を挙
げて説明する。ここでは7個のコードワードについて、
それぞれの部分歪みが図10(A)に示しようなものであ
ったとし、s(m)=7であるとする。これに対する新た
なコードワードが図10(B)に示されており、部分歪み
の相対値に比例した複製が生成していることが分かる。
【0069】次に、同一の訓練データに対するコードブ
ックの学習過程について、本実施例の方法に基づくもの
と、等確率原理に基づく従来の方法に基づくものとを比
較した結果を説明する。実験で使用した訓練データとし
ては、図11(a)に示す不連続な1次元分布を使用し
た。この分布は、区間[0.0,1.0]の間の任意の値
をとる2つの一様乱数の積を計算し、計算で得た分布か
ら区間[0.2,0.4]に属するものを取り除くことに
よって得た。訓練データ数は7000とした。また、コ
ードワードの総数Nは15とし、各コードワードの初期
値を一律に0.35とした。図11(b)は本実施例による
学習過程を示している。図11(c)は従来の方法による
学習過程を示しており、上述の第1の実施例で図6(c)
に示したものと同じである。これらの図で、縦軸は時間
の推移すなわち訓練データの累積入力数に対応し、横軸
は、各コードワードの値に対応する。また、図11(a),
(b)において図中の点線は、図6(a),(b)におけるの場合
と同様に数値的に求めた理論値を示す。
【0070】本実施例による結果を示す図11(b)で
は、コードワードの値が理論値に漸近していく様子を確
認できる。また、学習終了後、同じデータに対する歪み
d(歪みとしては自乗誤差を採用)を算出したところ、
理論値の2%以下の誤差という極めて良好な結果が得ら
れた。一方、従来の方法による結果を示す図11(c)で
は、コードワードの収束値と理論値との差がかなりあ
り、等確率原理が必ずしも最適ではないことを示してい
る。なお、本実施例に基づく図11(b)において、分岐
や消滅が見られるが、これは上述した増殖・消滅による
ものである。
【0071】
【発明の効果】以上説明したように本発明は、等歪み原
理に基づいて、コードワードの増殖および消滅処理を行
なうことにより、分布の如何を問わず、平均歪みを最小
かできる最適なコードブックを設計できるという効果が
ある。
【図面の簡単な説明】
【図1】本発明の第1の実施例におけるベクトル量子化
器の構成を示すブロック図である。
【図2】コードブックの構成例を示す図である。
【図3】歪加算テーブルの構成例を示す図である。
【図4】図1に示したベクトル量子化器の動作を説明す
るフローチャートである。
【図5】第1の実施例におけるコードワードの複製過程
を説明する図である。
【図6】(a)は第1の実施例における訓練データの確率
密度分布図、(b)は(a)に示す確率密度分布を示す訓練デ
ータに対して本発明の方法によりコードワードの学習を
行なった状況を示す図、(c)は(a)に示す確率密度分布を
示す訓練データに対して従来の方法によりコードワード
の学習を行なった状況を示す図である。
【図7】本発明の第2の実施例におけるベクトル量子化
器の構成を示すブロック図である。
【図8】部分歪みテーブルの構成例を示す図である。
【図9】図7に示したベクトル量子化器の動作を説明す
るフローチャートである。
【図10】第2の実施例におけるコードワードの複製・
消滅過程を説明する図である。
【図11】(a)は第2の実施例における訓練データの確
率密度分布図、(b)は(a)に示す確率密度分布に対して本
発明の方法によりコードワードの学習を行なった状況を
示す図、(c)は(a)に示す確率密度分布を示す訓練データ
に対して従来の方法によりコードワードの学習を行なっ
た状況を示す図である。
【符号の説明】
1 量子化部 2 コードワード保持部 3 コードブック 4 訓練データ作成部 5,25 歪計算部 6,26 修正部 7 歪加算テーブル 10,20 ベクトル量子化器 11 入力端子 12 出力端子 27 部分歪みテーブル 101〜110,201〜209 ステップ
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H03M 7/30

Claims (7)

    (57)【特許請求の範囲】
  1. 【請求項1】 予め有限個のコードワードからなるコー
    ドブックが用意され、ある確率分布にしたがう有限個の
    訓練ベクトルデータの各々に対し前記訓練ベクトルデー
    タとの歪みが最小になるコードワードを前記コードブッ
    クの中から選択して最近傍ベクトルとする選択工程と、
    前記最近傍ベクトルと前記歪みとに基づいて前記コード
    ブック内のコードワードを逐次修正する修正工程とを有
    し、前記確率分布に対応する前記コードブックの設計を
    行なうベクトル量子化器の設計方法において、 前記選択工程では、前記各コードワードの各々に対し
    て、前記最近傍ベクトルとして選択された際の前記歪み
    の累積値を測定し、 前記修正工程に、前記各コードワードごとに当該コード
    ワードについての前記歪みの累積値に応じて適応度を算
    出し前記適応度に応じて当該コードワードの複製を生成
    する複製生成工程と、前記複製生成工程で生成した前記
    各複製にそれぞれ微小なランダムベクトルを加算して新
    たなコードワードとし、前記各コードワードをもって新
    たな前記コードブックとする更新工程とが付加され、 前記複製生成工程および前記更新工程とが、前記訓練ベ
    クトルデータの提示累積個数が所定数に達したときに実
    行されることを特徴とするベクトル量子化器の設計方
    法。
  2. 【請求項2】 複製生成工程において各コードワードご
    とに生成される複製の数が当該コードワードについての
    歪みの累積値に比例した数に確率的な処理を施したもの
    であり、前記複製の総数が前記複製生成工程を行なう前
    のコードワードの数に等しいものである請求項1に記載
    のベクトル量子化器の設計方法。
  3. 【請求項3】 予め有限個のコードワードからなるコー
    ドブックが用意され、ある確率分布にしたがう有限個の
    訓練ベクトルデータの各々に対し前記訓練ベクトルデー
    タとの歪みが最小になるコードワードを前記コードブッ
    クの中から選択して最近傍ベクトルとする選択工程と、
    前記最近傍ベクトルと前記歪みとに基づいて前記コード
    ブック内のコードワードを逐次修正する修正工程とを有
    し、前記確率分布に対応する前記コードブックの設計を
    行なうベクトル量子化器の設計方法において、 前記修正工程に、前記各コードワードごとに当該コード
    ワードについての部分歪みに応じて適応度を算出し前記
    適応度に応じて当該コードワードを複製しあるいは消滅
    させる複製・消滅工程と、前記複製・消滅工程で生成し
    た各複製にそれぞれ微小なランダムベクトルを加算して
    新たなコードワードとし、前記各コードワードをもって
    新たな前記コードブックとする更新工程とが付加され、 前記複製・消滅工程および前記更新工程とが、前記訓練
    ベクトルデータの提示累積個数が所定数に達したときに
    実行されることを特徴とするベクトル量子化器の設計方
    法。
  4. 【請求項4】 複製・消滅工程において各コードワード
    ごとに生成される複製の数が当該コードワードについて
    の部分歪みの巾乗に比例し、前記複製の総数が前記複製
    ・消滅工程を行なう前のコードワードの数に等しいもの
    である請求項3に記載のベクトル量子化器の設計方法。
  5. 【請求項5】 請求項3または4に記載のベクトル量子
    化器の設計方法を利用したクラス分類型ベクトル量子化
    器の設計方法であって、 前記ベクトル量子化器の設計方法に、画像を同じサイズ
    の矩形画像に分割して該矩形画像を予め定められた複数
    の画像クラスに分類する分類工程と、前記分類された矩
    形画像に含まれる各画素値を列挙して得られるベクトル
    を前記訓練ベクトルデータとする訓練データ作成工程と
    が付加され、 予め定められた複数の画像クラスごとに前記コードブッ
    クが用意され、 前記選択工程が前記画像クラスごとに実行されることに
    より前記画像クラスごとに前記コードブックの設計がな
    されるクラス分類型ベクトル量子化器の設計方法。
  6. 【請求項6】 有限個のコードワードからなるコードブ
    ックを保持するコードブック記憶手段と、逐次的に入力
    ベクトルが入力し前記入力ベクトルとの歪みが最小にな
    るコードワードを前記コードブックの中から選択して最
    近傍ベクトルとする選択手段と、前記最近傍ベクトルに
    基づいて量子化結果を出力する量子化手段と、前記最近
    傍ベクトルと前記歪みとに基づいて前記コードブック内
    のコードワードを逐次修正する修正手段とを有するベク
    トル量子化器において、 前記各コードワードの各々について当該コードワードが
    前記最近傍ベクトルとして選択された際の前記歪みをそ
    れぞれ積算して記憶する加算手段を有し、 前記修正手段が、前記入力ベクトルの提示累積回数が所
    定数に達したときには、前記加算手段を参照し前記各コ
    ードワードごとに当該コードワードについての前記歪み
    の累積値に応じて適応度を算出し前記適応度に応じて当
    該コードワードの複製を確率的に生成し、生成した前記
    各複製にそれぞれ微小なランダムベクトルを加算して新
    たなコードワードとし、前記各新たなコードワードをも
    って新たなコードブックとして前記コードブック記憶手
    段に保持されたコードブックを更新するものであること
    を特徴とするベクトル量子化器。
  7. 【請求項7】 有限個のコードワードからなるコードブ
    ックを保持するコードブック記憶手段と、逐次的に入力
    ベクトルが入力し前記入力ベクトルとの歪みが最小にな
    るコードワードを前記コードブックの中から選択して最
    近傍ベクトルとする選択手段と、前記最近傍ベクトルに
    基づいて量子化結果を出力する量子化手段と、前記最近
    傍ベクトルと前記歪みとに基づいて前記コードブック内
    のコードワードを逐次修正する修正手段とを有するベク
    トル量子化器において、 前記修正手段が、前記入力ベクトルの提示累積回数が所
    定数に達したときには、前記各コードワードごとに当該
    コードワードについての部分歪みに応じて適応度を算出
    し前記適応度に応じて確定的に当該コードワードを複製
    しあるいは消滅させ、生成した各複製にそれぞれ微小な
    ランダムベクトルを加算して新たなコードワードとし、
    前記各新たなコードワードをもって新たなコードブック
    として前記コードブック記憶手段に保持されたコードブ
    ックを更新するものであることを特徴とするベクトル量
    子化器。
JP26090893A 1992-12-01 1993-10-19 ベクトル量子化器の設計方法およびベクトル量子化器 Expired - Fee Related JP3203609B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26090893A JP3203609B2 (ja) 1992-12-01 1993-10-19 ベクトル量子化器の設計方法およびベクトル量子化器

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP32197692 1992-12-01
JP4-321976 1992-12-01
JP26090893A JP3203609B2 (ja) 1992-12-01 1993-10-19 ベクトル量子化器の設計方法およびベクトル量子化器

Publications (2)

Publication Number Publication Date
JPH06237179A JPH06237179A (ja) 1994-08-23
JP3203609B2 true JP3203609B2 (ja) 2001-08-27

Family

ID=26544811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26090893A Expired - Fee Related JP3203609B2 (ja) 1992-12-01 1993-10-19 ベクトル量子化器の設計方法およびベクトル量子化器

Country Status (1)

Country Link
JP (1) JP3203609B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7480584B2 (en) 2004-01-30 2009-01-20 Canon Kabushiki Kaisha Coding method and apparatus, and computer program and computer-readable storage medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590747B2 (ja) * 2001-02-06 2010-12-01 ソニー株式会社 ベクトル量子化のコードブック生成方法及びコードブック生成装置
JP4649770B2 (ja) * 2001-05-10 2011-03-16 ソニー株式会社 画像データ処理装置および方法、記録媒体、並びにプログラム
US7453936B2 (en) 2001-11-09 2008-11-18 Sony Corporation Transmitting apparatus and method, receiving apparatus and method, program and recording medium, and transmitting/receiving system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7480584B2 (en) 2004-01-30 2009-01-20 Canon Kabushiki Kaisha Coding method and apparatus, and computer program and computer-readable storage medium

Also Published As

Publication number Publication date
JPH06237179A (ja) 1994-08-23

Similar Documents

Publication Publication Date Title
Oehler et al. Combining image compression and classification using vector quantization
KR102656006B1 (ko) 심층 다항식 네트워크를 사용하는 암호화된 데이터의 분산 및 협업 분석
Lookabaugh et al. High-resolution quantization theory and the vector quantizer advantage
JP3017380B2 (ja) データ圧縮方法及び装置並びにデータ伸長方法及び装置
CN111787323A (zh) 一种基于对抗学习的可变比特率生成式压缩方法
Laha et al. Design of vector quantizer for image compression using self-organizing feature map and surface fitting
JP2023505647A (ja) ニューラルネットワークモデルの圧縮
McAuliffe et al. A comparison of the LBG algorithm and Kohonen neural network paradigm for image vector quantization
JP3203609B2 (ja) ベクトル量子化器の設計方法およびベクトル量子化器
Ahalt et al. Performance analysis of two image vector quantization techniques
CN101467459A (zh) 受约束的矢量量化
CN116634162A (zh) 率失真优化的图像压缩神经网络训练后量化方法
Chen et al. DNN gradient lossless compression: Can GenNorm be the answer?
Fowler Jr Adaptive vector quantization for the coding of nonstationary sources
JPH06152430A (ja) 適応ベクトル量子化方法および装置
Zhou et al. Towards theoretically-founded learning-based denoising
EP2372699A1 (en) Distribution-constrained quantization
Markas et al. Image compression methods with distortion controlled capabilities
WO2023125815A1 (zh) 一种数据处理方法、装置及边缘计算设备
Nguyen et al. Concentric-shell partition vector quantization with application to image coding
JP3154781B2 (ja) ベクトル量子化装置
WO2021230006A1 (ja) ネットワーク量子化方法及びネットワーク量子化装置
JP3075049B2 (ja) 画像符号化装置
Azevedo et al. An evolutionary approach for vector quantization codebook optimization
Gray A Lagrangian formulation of fixed-rate quantization

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees