JPH0832033B2 - 学習型多段ベクトル量子化方法と装置 - Google Patents

学習型多段ベクトル量子化方法と装置

Info

Publication number
JPH0832033B2
JPH0832033B2 JP63059065A JP5906588A JPH0832033B2 JP H0832033 B2 JPH0832033 B2 JP H0832033B2 JP 63059065 A JP63059065 A JP 63059065A JP 5906588 A JP5906588 A JP 5906588A JP H0832033 B2 JPH0832033 B2 JP H0832033B2
Authority
JP
Japan
Prior art keywords
vector
learning
stage
quantization
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63059065A
Other languages
English (en)
Other versions
JPH01232829A (ja
Inventor
泰男 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GURAFUITSUKUSU KOMYUNIKEESHON TEKUNOROJIIZU KK
Original Assignee
GURAFUITSUKUSU KOMYUNIKEESHON TEKUNOROJIIZU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GURAFUITSUKUSU KOMYUNIKEESHON TEKUNOROJIIZU KK filed Critical GURAFUITSUKUSU KOMYUNIKEESHON TEKUNOROJIIZU KK
Priority to JP63059065A priority Critical patent/JPH0832033B2/ja
Publication of JPH01232829A publication Critical patent/JPH01232829A/ja
Publication of JPH0832033B2 publication Critical patent/JPH0832033B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は画像情報等の圧縮に用いられる高能率有歪情
報圧縮符号化に係り、とくに情報源の統計的性質を学習
適応する学習量子化に好適な学習型多段ベクトル量子化
方法と装置に関する。
[従来の技術] まずベクトル量子化の原理について説明する。
ベクトル量子化は1次元または多次元の系列をいくつ
かまとめて多次元数として量子化することによる情報圧
縮技術である。
この次元数は、情報源が1次元の音声や2次元の画像
ということではなく、値を複数個まとめて形成される次
元である。すなわち、n次元をm個まとめればn×m次
元となる。まとめ方には多くの方法がある。たとえば画
像の小領域の2×2の画素から輝度サンプルをまとめて
1×4の4次元数、4×4の領域のR,G,Bサンプルをま
とめると3×16の48次元数となる。まとめられた多次元
数を入力ベクトルと言い、K次元のベクトルをとする
と、 =(1,2,3,…,K) (1) 入力ベクトルをK次元空間の中で歪(距離)尺度ま
たは類似度尺度である所定の尺度を用いて番号の付いた
有限個の代表点ベクトルに変換するのが、ベクトル量子
化である。代表点の総数をNとしi(1≦i≦N)番目
の代表点ベクトルをy iとし、所定の尺度を、 d(y i)とし、ベクトル量子化の変換をQ( )と
すると、 Q()=y i (2) d(y i)≦d(y j)i≠j 上記代表点ベクトルy jはコード・ワードと言い、対応
するインデックスiはコード・インデックスという。
さらに一般化すれば、多次元空間をN個に分割し、各
部分空間をPiとし、各部分空間にはそれぞれ代表点ベク
トルy iをもつと解釈すれば、 Q()=y i if∈Pi (3) この変換Qは符号化Cと複号化Dの縦続接続とみなす
ことができる。符号化Cは多次元数から代表点インデッ
クスi(番号)に変換することであり、複号化はインデ
ックスiから代表点ベクトルy iに変換することである。
これを式で表わすとつぎのようになる。
C()=i D(i)=y i (4) 入力ベクトルと代表点ベクトルy iの差のベクトルは
ベクトル量子化誤差ベクトルである。y i (5) 距離(歪)尺度di)は2個のベクトルのスカ
ラー関数であり、たとえば以下のようなものがある。
ここで、nは整数、rは実数を意味する。
ベクトル量子化においては、その効率が代表点ベクト
y iの設定に大きく依存する。代表点ベクトルy iの設定
方法は、通称L.B.G.アルゴリズムと呼ばれる方法が存在
する。ワイ・リンド(Y.Linde),エー・ブゾ(A.Bus
o)およびアール・エム・グレイ(R.M.Gray)の論文
“ベクトル量子化設計用アルゴリズム”アイ・イー・イ
ー・イー トランザクション オン コミュニケーショ
ンズ,Vol.Com-28,No1,1980年1月(“An Algorithm for
Vector Quantizer Design"IEEE Transaction on Commu
nications,Vol.Com-28,NO.1,January 1980)に説明され
ている。
代表点数Nが大きくなると、最近傍の代表点の探索を
全探索でなく木探索法で行う例も多い。木探索ベクトル
量子化は、量子化演算量がO(N)からO(log2N)に
減少する。メモリ量は中間節点の仮の出力ベクトルを用
意する必要があり、2倍弱になる。また、選択された代
表点は最近傍でない場合があり、性能が劣化することが
ある。
以上ベクトル量子化の原理的な説明をおこなった。ベ
クトル量子化の符号化の多くの方式は、斉藤隆弘および
原島博の論文(“ベクトル量子化とその画像符号化への
応用”信学技報IE87−48,47-54頁)に説明されている。
つぎに多段ベクトル量子化の原理を説明する。多段ベ
クトル量子化は複数のベクトル量子化を縦続的に接続し
て多段的に量子化を行う量子化手法である。すなわち前
段ベクトル量子化の残差(量子化誤差)ベクトルを次段
においてベクトル量子化して行く。このような多段構成
は量子化演算量のみならずコード・ブック・メモリ量も
削減することができる。
r段の各ベクトル量子化が、レベル数(代表点数)N
1,N2,…,Nrとすると、量子化演算量とメモリ量は、とも
にO(N1×N2×,…,×Nr)からO(N1×N2+,…,+
Nr)に減少する。
多段ベクトル量子化における段数が2段である場合に
ついての説明ををするために、第1表を示す(3段以上
の場合も同様である)。
第1表 前段 後段 入力ベクトル 1 コード・インデックス i j 量子化出力ベクトル 2 多段ベクトル量子化全体の量子化出力は1+2で
あり、全体のコード・インデックスは(i,j)になる。
このような従来の多段ベクトル量子化装置の構成は、
第5図に示されている。
送信側には、前段および後段の符号化ベクトル量子化
器10Bおよび60Bがあり、入力ベクトル41()が符号化
ベクトル量子化器10Bに印加されると、入力ベクトル41
)に対応する代表点を選択し、符号化ベクトル量子
化器10Bに含まれたコード・ブック記憶部から、その代
表点のコード・ワードである量子化出力ベクトル42B
1)を出力する。これと同時に、この選択された代
表点の多段構成のコード・インデックス45B(i)を伝
送手段により受信側へ出力している。
この量子化出力ベクトル42B(1)と入力ベクトル4
1()との差である量子化誤差ベクトル43B(
1)が後段の符号化ベクトル量子化器60Bの入力ベクト
ルとして印加されている。
量子化誤差ベクトル43B(1)を印加された後
段の符号化ベクトル量子化器60Bにおいても、前段の符
号化ベクトル量子化器10Bにおける動作と同様にして、
量子化誤差ベクトル43B(1)に対応する代表点
を選択し、符号化ベクトル量子化器60Bに含まれたコー
ド・ブック記憶部から、その代表点のコード・ワードで
ある量子化出力ベクトル72B(2)を出力し、これと
同時に、この選択された代表点に対応するコード・イン
デックス75B(j)を伝送手段により受信側へ出力して
いる。
受信側には前段および後段の復号化ベクトル量子化器
110Bおよび160Bがあり、伝送手段で送られてきた2つの
コード・インデックス45B(i)および75B(j)を受け
て、それぞれの内部に含まれたコード・ブック記憶部か
らそれぞれのコード・インデックス45B(i)および75B
(j)に対応する量子化出力142B(1)および172B
1)を出力し、加算して総合量子化出力ベクトル16
9B(1+2)を得ている。
[発明が解決しようとする課題] ベクトル量子化は次元の数を増大すれば理論的にはレ
ート歪限界にまで近づくことのできる符号化方式と言わ
れている。ところが同一ビット・レートの仮定のもとに
単純に次元数を増大すると量子化演算量とメモリ量は指
数的に増大する。これが第1の問題点である。
これは第5図に示した多段ベクトル量子化で解決でき
たかにみえるが、段数を多く各段のレベル数を小さく設
定した場合、前段の代表ベクトルの個々のボロノイ領域
の統計的構造を次段が無視して一括して扱うため性能は
劣化する。これを回避するため以下の2種類の対策方法
が従来からとられている。
(1)前段のインデックスによって異なる変換を誤差ベ
クトルに掛けることで、ボロノイ領域内の統計的性質を
均一化する。
(2)段数を極力少なく保ち、前段のレベル数を大きく
保つ。
しかしながら(1)の対策には変換種類の限界があ
り、(2)の対策は多段ベクトル量子化の利点を減少さ
せるため、その効果に限界がある。
また第2の問題点として、ベクトル量子化全体に関す
るコード・ブックの汎用性に対する問題点がある。コー
ド・ブック作成の際に使用したトレーニング集合は有限
で、一般に、符号化復号化に使用する入力ベクトル集合
より狭いものが使われることが多い。この第2の問題点
に対する対策としては、入力ベクトルの統計的偏りを仮
定し変換することで、一定の統計的性質に合致するよう
に変換して、その後にベクトル量子化を行うもので、平
均値分離ベクトル量子化,ゲイン−シェイプ(Gain−sh
ape)ベクトル量子化およびディスクリート・コサイン
変換ベクトル量子化等の直交変換ベクトル量子化がこれ
にあたる。この対策は有用であるが、その限界も存在
し、入力ベクトルの統計的性質の経時的な変動への対応
を基本的に持たないために、統計的性質が大きく異なる
入力が与えられたような場合には、量子化の性能が劣化
するという解決されるべき課題があった。
[課題を解決するための手段] このような課題を解決する方法として入力ベクトルの
統計的性質をコード・ブックに取り込んでいく方式が望
まれる。本発明においては、コード・ブックに入力ベク
トルの統計的性質を直接に順次取り込み、学習適応を可
能にし、入力ベクトルの統計的性質の非定常性にコード
・ブックが追随するようにすることにある。
これは、たとえば量子化出力y iを入力ベクトルにあ
る比率で近ずけることができれば達成される。
テウボ・コホーネン(Teubo.Kohonen)による論文
(“Self-Organization and Associative Memory",Spri
nger-Verlag,1984)で述べられているような学習機構、
すなわちコホーネンのニューロン層の場合、入力ベクト
ルは絶対値が1に正規化され、代表点の各次元の成分
は、入力ベクトルに内積される重みの各次元成分となっ
ている。
しかも重みの絶対値も1に正規化されている。そのた
め極小距離代表点を求めることは極大内積の重みベクト
ルをもつニューロンを求めることにおき替えうる。その
ようなホコーネン学習は、入力ベクトルの最近傍の重み
についてのみ、重みを入力ベクトルに近づけるという、
重みの更新を行う。
このような機能を実現するために、 多くの量子化出力ベクトルであるコード・ワードと各
コード・ワードに対応するコード・インデックスを内容
とするコード・ブックと、 類似度尺度をも含むことのある距離尺度により入力ベ
クトルがコード・ブック中のどのコード・ワードに最も
接近(類似)しているかを識別してコード・ワードを選
択し、これに対応するコード・インデックスを出力する
最小距離識別部と を有する複数個の多段接続されたベクトル量子化器を
具備し、前段のベクトル量子化器の量子化誤差ベクトル
を次段のベクトル量子化器の入力ベクトルとする多段ベ
クトル量子化装置において、 前段のベクトル量子化器から出力される選択されたコ
ード・ワードに対して、次段のベクトル量子化器から出
力されるコード・ワードを用いて学習適応作用を有する
学習部 を設けた。
さらに、入力ベクトルの印加に対して、前段のベクト
ル量子化誤差ベクトルが所定値を越えた場合には、この
入力ベクトルをそのまま受信側へも伝送し、これを送信
側および受信側の前段コード・ブック中に格納するよう
にした。
[作用] このような手段を講ずることによつて、従来の多段ベ
クトル量子化装置と異なり、本発明においては、最終段
を除く各段のベクトル量子化器の各コード・ブックにお
いて、符号化(送信側)または復号化(受信側)の処理
ごとに1つのコード・ワードを学習適応により順次更新
するようにした。すなわち、多段ベクトル量子化装置に
おいては、後段の高い精度によるベクトル量子化の量子
化コード・ワードが前段のベクトル量子化に使用される
から、ベクトル量子化の段数が多くなると、最終段以外
の段のベクトル量子化において得た学習結果が、最終段
以外の量子化コード・ブックに反映されるために、学習
は自動的、かつ適応的に行われ、事前の学習も必要とせ
ず、その段数が大きいほど、その学習効果も大きいもの
となる。
また入力ベクトルに対して、送信側の前段における誤
差ベクトルが所定値を越えた場合には、この入力ベクト
ルが受信側へも伝送され送信側および受信側のコード・
ブックのコード・ワードを更新し、あるいは追加するこ
とにより学習機能を得るようにした。
このように動作する結果、学習後のコード・ワード
は、多次元空間内の近傍に落ちた入力ベクトルの時間的
平均値を表わすように移動されて、コード・ブック全体
では、入力ベクトルの統計的分布を反映したコード・ワ
ード配置をもつようになり、また、統計的性質の経時的
変化への適応性により、大きなS/N(信号対雑音)比の
向上が得られる。
[実施例] 本発明による学習型多段ベクトル量子化装置の一実施
例を示す回路構成を第1図に示す。
符号化側である送信側には、前段および後段の符号化
ベクトル量子化器10および60と、学習制御部80があり、
入力ベクトル41()が符号化ベクトル量子化器10に印
加されると、入力ベクトル41()に対応する代表点を
選択し、前段の符号化ベクトル量子化器10に含まれたコ
ード・ブック記憶部から、その代表点のコード・ワード
である量子化出力ベクトル42(1)を出力する。これ
と同時に、この選択された代表点のコード・インデック
ス45(i)を伝送線により受信側へ出力している。
この量子化出力ベクトル42(1)と、入力ベクトル
41()との差である量子化誤差ベクトル43(
1)が、後段の符号化ベクトル量子化器60の入力ベクト
ルとして印加されている。
量子化誤差ベクトル43(1)を印加された後段
の符号化ベクトル量子化器60においても、前段の符号化
ベクトル量子化器10における動作と同様にして、量子化
誤差ベクトル43(1)に対応する代表点を選択
し、符号化ベクトル量子化器60に含まれたコード・ブッ
ク記憶部から、その代表点のコード・ワードである量子
化出力ベクトル72(2)を出力し、これと同時に、こ
の選択された代表点のコード・インデックス75(j)を
伝送手段により受信側へ出力している。
ここで前段の符号化ベクトル量子化器10の出力である
量子化出力ベクトル42と、それに対応する後段の符号化
ベクトル量子化器60の出力である量子化出力ベクトル72
とは、ともに学習制御部80に印加される。ここで量子化
出力ベクトル42は、量子化出力ベクトル72によって学習
効果を受けて、学習後量子化出力ベクトル85が出力さ
れ、これによって、前段の符号化ベクトル量子化器10の
コード・ブックのコード・ワードは更新され、更新され
たコード・ワードによって、次回の量子化動作が行われ
る。
受信側には、前段および後段の復号化ベクトル量子化
器110および160と学習制御部180があり、伝送線で送ら
れてきた2つの多段構成のコード・インデックス45
(i)および75(j)を受けて、それぞれの内部に含ま
れたコード・ブック記憶部から、それぞれのコード・イ
ンデックス45(i)および75(j)に対応する量子化出
力142(1)および172((2)を出力し、加算して
総合量子化出力ベクトル181(1+2)を得てい
る。
ここで、前段の復号化ベクトル量子化器110の出力で
ある量子化出力ベクトル142と、それに対応する後段の
復号化ベクトル量子化器160の出力である量子化出力ベ
クトル172とは、ともに学習制御部180に印加される。こ
こで量子化出力ベクトル142は、量子化出力ベクトル172
によって学習効果を受けて、学習後量子化出力ベクトル
185を出力し、これによって、前段の復号化ベクトル量
子化器110のコード・ブックのコード・ワードは更新さ
れ、更新されたコード・ワードによって、次回のベクト
ル量子化動作が行われる。
このようにして、量子化出力ベクトル142は量子化出
力ベクトル42を、量子化出力ベクトル172は量子化出力
ベクトル72をを忠実に再現している。このことは送信側
と受信側において常に等しい学習後量子化ベクトル85お
よび185によりコード・ブックが更新され、両者のコー
ド・ブックの内容は常に等しいものに保たれることを意
味している。
その結果、S/N(信号対雑音)比の良好な総合量子化
出力ベクトル181(1+2)が得られる。この学習
過程をさらに詳細に説明する。
学習制御部80および180の機能は同じであるから、学
習制御部80の場合について説明する。
テウボ・コホーネン(Teubo.Kohonen)による論文
(“Self-Organization and Associative Memory",Spri
nger-Verlag,1984)で述べられているような学習機構す
なわちコホーネンのニューロン層の場合、入力ベクトル
は絶対値が1に正規化され、代表点の各次元の成分は、
入力ベクトルに内積される重みの各次元成分となってい
る。
しかも重みの絶対値も1に正規化されている。そのた
め極小距離代表点を求めることは極大内積の重みベクト
ルをもつニューロンを求めることにおき替えうる。
i番目のニューロンの重みベクトルをWiとすると、コ
ホーネン学習は最近傍の重みiについてのみ、次式によ
る重みの更新を行う。W i new =(1−a)W i old+a (6) (0<a≦1) newは更新後、oldは更新前を意味する。その他の重みは
変化を受けないので次式のようになる。W i newW i old (7) 本発明では、これを一般の(正規化されていない)ベ
クトル量子化に拡張して極(最)小距離代表ベクトルに
ついてのみ、次式による代表点移動を行う。y i new =(1−K)y i old+k (8) (0<k≦1) その他の代表点は、変化を受けないので次式のようにな
る。
y i newy i old (9) 一般のベクトル量子化の場合には、移動による重みの
正規化の問題((6)式により重みの絶対値が1ではな
くなること)は避けられ、かつ距離計算をチェビチェフ
距離d1)で行う高速処理が可能となることの利
点がある。
また逆伝播型のニューラル・ネットと同じく、エラー
・パワー(誤差ベクトルの絶対値の2乗)のすべての代
表点の成分による偏微分に比例して、それらを修正する
という最急降下法による解も、上式(8)および(9)
を導くことができることを以下に示す。
エラー・パワーEを前段の量子化誤差ベクトル43のパ
ワーとし、 E=(y i2/2 (10) y kiの変化量を、 −kE∂/∂y ki=k(xk−yki) (11) とすると、選択された代表点(入力ベクトル41のとは
極(最)小距離)のみが0以外の値をもち、上記の
(8)および(9)式が導かれる。ここでkは0<k≦
1なるスカラー定数である。
ところが、明らかに入力ベクトル41のは送信側では
知ることができても、受信側では不明である。
そこで多段ベクトル量子化の構成を設定し、前段の量
子化出力ベクトル42のy iを次段の量子化出力ベクトル72
で学習させる構成を採用した。
以下、第1表の表記法にしたがい説明を進める。
この構成の場合に入力ベクトル41のの近似として、
1+2が用いられることになる。 1=(1−k)1+k(1+2) =1+k2 (12) この方式により、多段ベクトル量子化における学習機
能が実現される。
第2図には、送信側の前段の符号化ベクトル量子化器
10および学習制御部80の一実施例の、より詳細な回路構
成が示されている。この実施例においては、全探索方式
のベクトル量子化を行っており、符号化ベクトル量子化
器60の量子化出力ベクトル72(2)に、0<k≦1な
るスカラー定数kを乗じて、前段の符号化ベクトル量子
化器10の量子化出力ベクトル42(1)に加算して、学
習後量子化出力ベクトル85としている。
第2図において、11はインデックス・カウンタであ
り、図示されてはいないクロック発生器からのクロック
を受けてコード・インデックス55を発生する。このコー
ド・インデックス55はコード・ブック記憶部12に印加さ
れ、コード・インデックス55をアドレスとしてデータで
あるコード・ワードを、このコード・ブック記憶部12に
読み書きしている。コード・ブック記憶部12の出力であ
るコード・ワード52はコード・ワード・ラッチ13によっ
てラッチされ、その出力は量子化出力ベクトル42(
1)として出力される。
インデックス・カウンタ11の出力であるコード・イン
デックス55はコード・インデックス・ラッチ14にも印加
されて、ラッチされ、そこからコード・インデックス45
(i)として出力される。
距離尺度検出部15には、量子化出力ベクトル42となる
べきコード・ワード52(y i)と入力ベクトル41()と
が印加され、印加された両者の距離(歪)尺度が算出さ
れ、スカラー量である距離尺度53が出力される。
この距離尺度53は、最小値ラッチ16に保持されている
最小距離である最小値54と比較部17において比較され、
その結果、距離尺度53の値が小さいときには、コード・
ワード・ラッチ13,コード・インデックス・ラッチ14お
よび最小値ラッチ16の3つのラッチに保持されている値
は更新されて、新しい値が保持される。このように、距
離尺度検出部15、最小値ラッチ16および比較部17は、コ
ード・ブック記憶部12中のコード・ワードから入力ベク
トル41に最も近い値を識別する最小距離識別手段として
作用している。
学習制御部80には、スカラー乗算器81とベクトル加算
器82とがあり、スカラー乗算器81には、後段の量子化出
力ベクトル72(2)が印加され、ここで0<k≦1な
るスカラー定数kを乗算されて乗算出力ベクトル91(k
2)が出力され、これと量子化出力ベクトル42(
1)とがベクトル加算器82で加算されて、学習後量子化
出力ベクトル85(1+k2)が得られ、コード・ブ
ック記憶部12に加えられる。
学習後量子化ベクトル85を受けたコード・ブック記憶
部12は、全コード・ワードの探索終了時にインデックス
・カウンタ11が出力するキャリー信号51により、学習後
量子化出力ベクトル85(1+k2)を、コード・イ
ンデックス・ラッチ14が出力するコード・インデックス
45の指示するアドレスに書き込む。このようにして符号
化動作が行われるごとに学習動作が行われる。
後段の符号化ベクトル量子化器60の内部構成は、第5
図の後段の符号化ベクトル量子化器60Bと同じであり、
第2図に示した前段の符号化ベクトル量子化器10と異な
る点は、最終段であるために学習機能を要しないことか
ら、コード・ブック記憶部12に、学習後量子化出力ベク
トル85が印加されていない点であり、その他の構成要素
は同じものを使用することができる。
第3図には、受信側の前段の復号化ベクトル量子化器
110および学習制御部180の一実施例の、より詳細な回路
構成が示されている。復号化ベクトル量子化器160の量
子化出力ベクトル172(2)に0<k≦1なるスカラ
ー定数kを乗じて前段の復号化ベクトル量子化器110の
量子化出力ベクトル142(1)に加算して、学習後量
子化出力ベクトル185としている。
第3図において、114はコード・インデックス・ラッ
チであり、伝送手段を介して送信側から送られてくるコ
ード・インデックス45を受けてラッチし、コード・イン
デックス151を出力する。このコード・インデックス151
はコード・ブック記憶部112に印加され、コード・イン
デックス151をアドレスとして、データであるコード・
ワードをこのコード・ブック記憶部112に読み書きする
ことができる。コード・ブック記憶部112の出力である
コード・ワード152は、コード・ワード・ラッチ113によ
ってラッチされ、その出力は量子化出力ベクトル142と
して出力される。
学習制御部180には、スカラー乗算器181とベクトル加
算器182とがあり、後段の量子化出力ベクトル172(
2)が印加され、ここで0<k≦1なるスカラー定数k
を乗算されて乗算出力ベクトル191(k2)が出力さ
れ、これと量子化出力ベクトル142(1)とがベクト
ル加算器182で加算されて、学習後量子化出力ベクトル1
85(1+k2)が得られ、コード・ブック記憶部11
2に加えられる。
学習後量子化ベクトル185を受けたコード・ブック記
憶部112は、学習後量子化出力ベクトル185(1+k
2)の値を、コード・ワード・ラッチ113の動作タイミ
ングよりも遅れたタイミングで、コード・インデックス
・ラッチ114が指示するコード・インデックス151の指示
するアドレスに書き込む。このようにして復号化動作が
行われるごとに学習動作が行われる。
後段の復号化ベクトル量子化器160の内部構成は、第
5図の後段の復号化ベクトル量子化器160Bと同じであ
り、第3図に示した前段の復号化ベクトル量子化器110
と異なる点は、最終段であるために学習機能を要しない
ことから、コード・ブック記憶部112に、学習後量子化
出力ベクトル185が印加されていない点であり、その他
の構成要素には同じものを使用することができる。
第4図は、M段の符号化ベクトル量子化器の装置の動
作の流れを示すフローチャートであり、第1図ないし第
3図に示した本発明の実施例の動作においてはM=2で
ある。
動作を開始すると、量子化誤差ベクトル43の値を入
力ベクトル41の値に設定する(S201,第4図)。
そこで第1段目(段数変数n=1)のベクトル量子化
器における処理の準備をする。(S202) そこで第n段目(n=1)のベクトル量子化器(10,1
10)において、コード・インデックス(51,151)に指示
されたコード・ブック記憶部(12,112)におけるアドレ
スから、コード・ワード(52,152)を読み出し、ベクト
ル量子化処理を行い、コード・インデックスin(45)と
量子化出力ベクトルn(42,142)を求め(S203)、量
子化誤差ベクトル(43)n(ここで、段数変
数n=1のときは1)が得られ、次段の入力
ベクトルとして使われる(S204)。
このベクトル量子化処理が、段数変数n=1段目のも
のではない場合には(S205NO)、学習制御部(80,180)
からの学習後量子化出力ベクトル(85,185)(n-1)
を、(n-1)+knにして、コード・ブック記憶部1
2,112の書き替えを行い、学習して、次の作業に適応す
る(S206)。
ステップS205で段数変数n=1であった場合(S205YE
S)、またはステップS206の学習を終了した場合には、
処理すべきベクトル量子化器の段数である段数変数nを
n+1にインクリメントし、(S207)、nが総段数Mに
達していないときにはステップS203にもどって処理を続
け(S208NO)、段数変数nがMに達したときには作業は
終了する(S208YES)。このようにしてM段のベクトル
量子化器の装置の動作は行われる。
第2図の距離尺度検出部15において、入力ベクトル41
)のコード・ワード52からの距離を検出する場合
に、所定値を越えてしまうことが発生し得る。このよう
な現象は、コード・ブック記憶部12にすでに格納されて
いるコード・ワード52の示すベクトル値に対して、入力
ベクトル41の値が著しく離れている場合に発生する。
そして、量子化誤差ベクトル43の値も著しく大きなもの
になる。
このような現象が予想される場合には、探索終了時に
距離尺度検出部15において、所定値を越えた入力ベクト
ル41()とコード・ワード52の距離を検出したとき
に、この入力ベクトル41の値()をコード・ブック記
憶部12に格納すると同時に、この入力ベクトル41の値
をそのまま受信側にも送り、復号化ベクトル量子化器11
0のコード・ブック記憶部112にも格納することによっ
て、以後の符号化復号化の動作は大きな学習効果を受け
ることが可能となる。
この所定値を越えた入力ベクトル41の値をコード・
ブック記憶部12および112に新たなコード・ワードとし
て格納する場合には、すでに格納されているコード・ワ
ードに追加してもよいし、あるいは使用頻度の最も少な
いコード・ワードを消去し、新たなコード・ワードに置
き替えてもよいことは以上の説明から明らかであろう。
[発明の効果] 以上の説明から明らかなように本発明によれば、多段
ベクトル量子化の最終段を除く各段のベクトル量子化器
のコード・ブックを符号化または復号化の処理ごとに1
つのコード・ワードずつ更新を受けることができ、コー
ド・ワードは多次元空間内の近傍に落ちた入力ベクトル
の時間的平均に移動されて、コード・ブック総体では、
入力ベクトルの統計的分布を反映したコード・ワード配
置をもつことが可能になった。この効果は、コード・ブ
ック製作に使用したトレーニング集合と統計的にかなり
性質の異なる入力ベクトル集合が与えられたときに、顕
著なS/N比の向上をもたらす。また、統計的性質が経時
的に変動することに対しても対応することができる。第
1図〜第3図に示した構成で数dBのS/N比向上がもたら
されることを確認した。したがって本発明の効果は極め
て大きい。
【図面の簡単な説明】
第1図は本発明の一実施例を示す回路構成図、 第2図は第1図に示した要部の構成要素である送信側の
前段の符号化ベクトル量子化器10および学習制御部80の
一実施例を示す回路構成図、 第3図は第1図に示した要部の構成要素である受信側の
前段の復号化ベクトル量子化器110および学習制御部180
の一実施例を示す回路構成図、 第4図は第1図ないし第3図に示した実施例の動作の流
れを示すためのフローチャート、 第5図は従来の多段ベクトル量子化装置の回路構成図で
ある。 10,10B…符号化ベクトル量子化器(前段) 11…インデックス・カウンタ 12…コード・ブック 13…コード・ワード・ラッチ 14…コード・インデックス・ラッチ 15…距離尺度検出部 16…最小値ラッチ 17…比較部 41…入力ベクトル 42,42B…量子化出力ベクトル 43,43B…量子化誤差ベクトル 45,45B…コード・インデックス 51…キャリー信号 52…コード・ワード 53…距離尺度ベクトル 54…最小値ベクトル 55…コード・インデックス 60,60B…符号化ベクトル量子化器(次段) 72,72B…量子化出力ベクトル 75,75B…コード・インデックス 80…学習制御部 81…スカラー乗算器 82…ベクトル加算器 85…学習後量子化出力ベクトル 91…乗算出力ベクトル 110,110B…復号化ベクトル量子化器(前段) 112…コード・ブック記憶部 113…コード・ワード・ラッチ 114…コード・インデックス・ラッチ 151…コード・インデックス 152…コード・ワード 160,160B…復号化ベクトル量子化器(次段) 169,169B…総合量子化出力ベクトル 172…量子化出力ベクトル 180…学習制御部 181…スカラー乗算器 182…ベクトル加算器 191…乗算出力ベクトル

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】量子化出力ベクトルとなるべき複数のコー
    ド・ワードと、前記コード・ワードに対応するコード・
    インデックスとをコード・ブック(12,112)に格納し、 入力ベクトルが前記コード・ブック中のどのコード・ワ
    ードにより近いかを所定の尺度により識別して、選択さ
    れたコード・ワードとそれに対応するコード・インデッ
    クスを出力する複数のベクトル量子化手段を有し、前段
    のベクトル量子化手段(10,110)の量子化誤差ベクトル
    を後段のベクトル量子化手段(60,160)の入力ベクトル
    とすることのある多段ベクトル量子化方法において、 前記前段のベクトル量子化手段において前記選択された
    コード・ワードに対して、前記後段の出力ベクトルであ
    るコード・ワードを用いて学習適応を行うようにした 学習型多段ベクトル量子化方法。
  2. 【請求項2】前記後段のベクトル量子化手段の出力ベク
    トルであるコード・ワード(72,172)に1以内の正のス
    カラー定数を乗じて前記前段のベクトル量子化手段にお
    いて選択されたコード・ワードに加算して学習適応を行
    うようにした請求項1記載の学習型多段ベクトル量子化
    方法。
  3. 【請求項3】前記前段のベクトル量子化手段の量子化誤
    差ベクトルの絶対値が所定の値を越えない場合に、前記
    後段のベクトル量子化手段の出力ベクトルであるコード
    ・ワードに1以内の正のスカラー定数を乗じて、前記前
    段のベクトル量子化手段において前記選択されたコード
    ・ワードに加算する学習適応を行い、 前記前段のベクトル量子化手段の量子化誤差ベクトルの
    絶対値が所定の値を越えてしまうような入力ベクトルを
    受けた場合には、前記入力ベクトルの符号化を行う送信
    側から復号化を行う受信側へ伝送し、送信側および受信
    側における前段のベクトル量子化手段(10,110)の有す
    るコード・ブック(12,112)に前記入力ベクトルを格納
    するようにした請求項1記載の学習型多段ベクトル量子
    化方法。
  4. 【請求項4】量子化出力ベクトルとなるべき複数のコー
    ド・ワードと、前記コード・ワードに対応するコード・
    インデックスとを格納するコード・ブック(12,112)
    と、入力ベクトルが前記コード・ブック中のどのコード
    ・ワードにより近いかを所定の尺度により識別して選択
    する最小尺度検出手段(15,16,17)と、 前記選択されたコード・ワードを出力するための出力手
    段(13,113)とを含む複数のベクトル量子化手段を含
    み、符号化において前段のベクトル量子化手段(10,11
    0)の量子化誤差ベクトルを後段のベクトル量子化手段
    (60,160)の入力ベクトルとすることのある多段接続さ
    れた多段ベクトル量子化装置において、 前記前段のベクトル量子化手段において前記選択された
    コード・ワードに対して、前記後段のベクトル量子化手
    段の出力ベクトルであるコード・ワードを用いて学習適
    応を行わせて前記コード・ブックに対して学習後量子化
    出力ベクトルを出力するための学習制御手段(80,180) を具備した学習型多段ベクトル量子化装置。
  5. 【請求項5】前記学習制御手段が、 前記後段のベクトル量子化手段の出力ベクトルであるコ
    ード・ワード(72,172)に1以内の正のスカラー定数を
    乗じて前記前段のベクトル量子化手段において選択され
    たコード・ワードに加算して前記学習後量子化出力ベク
    トルを出力するものである請求項4記載の学習型多段ベ
    クトル量子化装置。
  6. 【請求項6】前記学習制御手段が、 前記後段のベクトル量子化手段の出力ベクトルであるコ
    ード・ワードに1以内の正のスカラー定数を乗じて乗算
    出力(91,191)を得るためのスカラー乗算手段(81,18
    1)と、 前記前段のベクトル量子化手段において選択されたコー
    ド・ワードと前記乗算出力とを加算して前記学習後量子
    化出力ベクトルを出力するためのベクトル加算手段(8
    2,182)と を含むものである請求項5記載の学習型多段ベクトル量
    子化装置。
  7. 【請求項7】前記学習制御手段が、 送信側の前段のベクトル量子化手段における量子化誤差
    ベクトルの絶対値が所定の値を越えてしまうような入力
    ベクトルを受けた場合に、前記入力ベクトルを、前記入
    力ベクトルの符号化を行う送信側から復号化を行う受信
    側へ伝送し、送信側および受信側における前段のベクト
    ル量子化手段(10,110)の有するコード・ブック(12,1
    12)に前記入力ベクトルを格納し、かつ前記学習適応を
    行うものである請求項4記載の学習型多段ベクトル量子
    化装置。
JP63059065A 1988-03-12 1988-03-12 学習型多段ベクトル量子化方法と装置 Expired - Lifetime JPH0832033B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63059065A JPH0832033B2 (ja) 1988-03-12 1988-03-12 学習型多段ベクトル量子化方法と装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63059065A JPH0832033B2 (ja) 1988-03-12 1988-03-12 学習型多段ベクトル量子化方法と装置

Publications (2)

Publication Number Publication Date
JPH01232829A JPH01232829A (ja) 1989-09-18
JPH0832033B2 true JPH0832033B2 (ja) 1996-03-27

Family

ID=13102571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63059065A Expired - Lifetime JPH0832033B2 (ja) 1988-03-12 1988-03-12 学習型多段ベクトル量子化方法と装置

Country Status (1)

Country Link
JP (1) JPH0832033B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053854A1 (ko) * 2022-09-05 2024-03-14 서울대학교산학협력단 비터비 빔 서치를 이용한 레지듀얼 벡터 양자화 장치, 방법 및 컴퓨터 판독 가능 매체

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3102017B2 (ja) * 1990-07-13 2000-10-23 日本電気株式会社 音声符号化方法
JPH07177502A (ja) * 1993-12-17 1995-07-14 Sutajio Gen:Kk 画像情報圧縮方法、圧縮画像情報記録媒体、圧縮画像情報再生装置
WO2007035148A2 (en) * 2005-09-23 2007-03-29 Telefonaktiebolaget Lm Ericsson (Publ) Successively refinable lattice vector quantization
JP2013140494A (ja) * 2012-01-05 2013-07-18 Kddi Corp 高次元の特徴ベクトルを検索する検索装置及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62166655A (ja) * 1986-01-20 1987-07-23 Nippon Telegr & Teleph Corp <Ntt> 自己トレ−ニング機能を有するベクトル量子化方式
JPH0714205B2 (ja) * 1986-02-14 1995-02-15 三菱電機株式会社 順次再生ベクトル量子化符号化・復号化装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024053854A1 (ko) * 2022-09-05 2024-03-14 서울대학교산학협력단 비터비 빔 서치를 이용한 레지듀얼 벡터 양자화 장치, 방법 및 컴퓨터 판독 가능 매체

Also Published As

Publication number Publication date
JPH01232829A (ja) 1989-09-18

Similar Documents

Publication Publication Date Title
US4560977A (en) Vector quantizer
JP3017380B2 (ja) データ圧縮方法及び装置並びにデータ伸長方法及び装置
US4907276A (en) Fast search method for vector quantizer communication and pattern recognition systems
US5051745A (en) String searcher, and compressor using same
Katsavounidis et al. A new initialization technique for generalized Lloyd iteration
US5936560A (en) Data compression method and apparatus performing high-speed comparison between data stored in a dictionary window and data to be compressed
Chan et al. Enhanced multistage vector quantization by joint codebook design
US6535642B1 (en) Approximate string matching system and process for lossless data compression
Tai et al. Two fast nearest neighbor searching algorithms for image vector quantization
US7710297B2 (en) Method and apparatus for entropy coding and decoding
MXPA04011841A (es) Metodo y sistema para la cuantificacion vectorial reticular multivelocidad de una senal.
KR101958939B1 (ko) 벡터 양자화의 혼합에 기초한 부호화 방법 및 이를 이용한 최근접 이웃 검색(nns) 방법
US5444488A (en) Method and apparatus for coding digital data using vector quantizing techniques
US5889891A (en) Universal codebook vector quantization with constrained storage
US5832131A (en) Hashing-based vector quantization
Kossentini et al. Necessary conditions for the optimality of variable-rate residual vector quantizers
JPH0832033B2 (ja) 学習型多段ベクトル量子化方法と装置
Chaddha et al. Constrained and recursive hierarchical table-lookup vector quantization
Sun et al. Efficient vector quantization using genetic algorithm
Cheng et al. Robust zero-redundancy vector quantization for noisy channels
US5250949A (en) System and method for data compression using multiple codewords and transmitted indices
JP3255189B2 (ja) 音声パラメータの符号化方法および復号方法
US5781128A (en) Data compression system and method
Franti et al. Fast implementation of the optimal PNN method
CN111971902B (zh) 编码装置、解码装置、编码方法、解码方法、程序及记录介质