JPH01232829A - 学習型多段ベクトル量子化方法と装置 - Google Patents

学習型多段ベクトル量子化方法と装置

Info

Publication number
JPH01232829A
JPH01232829A JP63059065A JP5906588A JPH01232829A JP H01232829 A JPH01232829 A JP H01232829A JP 63059065 A JP63059065 A JP 63059065A JP 5906588 A JP5906588 A JP 5906588A JP H01232829 A JPH01232829 A JP H01232829A
Authority
JP
Japan
Prior art keywords
vector
stage
quantization
learning
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63059065A
Other languages
English (en)
Other versions
JPH0832033B2 (ja
Inventor
Yasuo Katayama
片山 泰男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GRAPHICS COMMUN TECHNOL KK
Original Assignee
GRAPHICS COMMUN TECHNOL KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GRAPHICS COMMUN TECHNOL KK filed Critical GRAPHICS COMMUN TECHNOL KK
Priority to JP63059065A priority Critical patent/JPH0832033B2/ja
Publication of JPH01232829A publication Critical patent/JPH01232829A/ja
Publication of JPH0832033B2 publication Critical patent/JPH0832033B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Analogue/Digital Conversion (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は画像情報等の圧縮に用いられる高能率有歪情報
圧縮符号化に係り、とくに情報源の統計的性質を学習適
応する学部量子化に好適な学習型多段ベクトル量子化方
法と装置に関する。
[従来の技術] まずベクトル量子化の原理について説明する。
ベクトル量子化は1次元または多次元の系列をいくつか
まとめて多次元数として量子化することによる情報圧縮
技術である。
この次元数は、情報源が1次元の音声や2次元の画像と
いうことではなく、値を複数個まとめて形成される次元
である。すなわち、n次元をm個まとめればnxm次元
となる。まとめ方には多くの方法がある。たとえば画像
の小領域の2×2の画素から輝度サンプルをまとめて1
×4の4次元数、4X4の領域のR,G、Bサンプルを
まとめると3×16の48次元数となる。まとめられた
多次元数を入力ベクトルと言い、K次元のベクトルをX
とすると、 五−(五1.五2.入3.・・・、入に)入力ベクトル
基をに次元空間の中で歪(距離)尺度または類似度尺度
である所定の尺度を用いて番号の付いた有限個の代表点
ベクトルに変換するのが、ベクトル量子化である。代表
点の総数をNとしi(1≦i≦N)番目の代表点ベクト
ルをylとし、所定の尺度を、 d (X、 Vi )とし、ベクトル量子化の変換をQ
()とすると、 Q(入)=yH(2) d(ん’i/H)≦d(ム’i/j)!≠j上記代表点
ベクトルViはコード・ワードと言い、対応するインデ
ックスiはコード・インデックスという。
さらに−膜化すれば、多次元空間をN個に分割し、各部
分空間をPiとし、各部分空間にはそれぞれ代表点ベク
トルyiをもつと解釈すれば、Q(凶>=、zi   
 if  入ePHこの変換Qは符号化Cと復号化りの
縦続接続とみなすことができる。符号化Cは多次元数か
ら代表点インデックスi (番号)に変換することであ
り、復号化はインデックスiから代表点ベクトルyiに
変換することである。これを式で表わすとつぎのように
なる。
C(X>=i D(i>=yH(4) 入力ベクトル基と代表点ベクトル′iiの差のベクトル
はベクトル量子化誤差ベクトル回である。
旦−入−i−1(5) 距離(歪)尺度dB(x、z)は2個のベクトルのスカ
ラー関数であり、たとえば以下のようなものがある。
dOO(X’、V)=MAX(IXk−ykI)ここで
、nは整数、rは実数を意味する。
ベクトル量子化においては、その効率が代表点ベクトル
Viの設定に大きく依存する。代表点ベクトルViの設
定方法は、通称り、B、G、アルゴリズムと呼ばれる方
法が存在する。ワイ・リント(Y、 Linde) 、
 X −−ブゾ(A、 8030 )およびアール・エ
ム・グレイ(R,H,GraV>の論文“ベクトル量子
化設計用アルゴリズム”アイ・イー・イー・イー トラ
ンザクション オン コミュニケーションズ、  Vo
l 、 Com−28,No 1.1980年1月  
(“An Algorithm  for  Vect
or Quantizer Design”IEEE 
 Transaction On COmmuniCa
tiOnS 。
Vol、 Con−28,NO,1,January 
1980)に説明されている。
代表点数Nが大きくなると、最近傍の代表点の探索を全
探索でなく木探索法で行う例も多い。木探索ベクトル量
子化は、量子化演算量が0 (N)からO(10(72
N )に減少する。メモリ量は中間節点の仮の出力ベク
トルを用意する必要があり、2倍弱になる。また、選択
された代表点は最近傍でない場合があり、性能が劣化す
ることがある。
以上ベクトル量子化の原理的な説明をおこなった。ベク
トル量子化の符号化の多くの方式は、斎藤隆弘および原
島博の論文(“ベクトル量子化とその画像符号化への応
用″信学技報IE87−48.47−54頁)に説明さ
れている。
つぎに多段ベクトル量子化の原理を説明する。
多段ベクトル量子化は複数のベクトル量子化を縦続的に
接続、して多段的にω子化を行う量子化手法である。す
なわち前段ベクトル量子化の残差(量子化誤差)ベクト
ルを次段においてベクトル量子化して行く。このような
多段構成は量子化演算量のみならずコード・ブック・メ
モリ量も削減することができる。
r段の各ベクトル量子化が、レベル数(代表点数)N1
.N2.・・・、Nrとすると、措子化演算ωとメモリ
量は、ともに0(N1XN2x、・・・。
xNr)から0 (N1+N2+、−、+Nr>に減少
する。
多段ベクトル量子化における段数が2段である場合につ
いての説明ををするために、第1表を示す(3段以上の
場合も同様である)。
第1表 前段  後段 入力ベクトル       凶   入−y1コード・
インデックス   ij 量子化出力ベクトル    21   y22段ベクト
ル量子化全体の量子化出力はy1+y2であり、全体の
コード・インデックスは(:。
j)になる。
このような従来の多段ベクトル量子化装置の構成は、第
5図に示されている。
送信側には、前段および後段の符号化ベクトル量子化器
10Bおよび60Bがあり、入力ベクトル41 (X)
が符号化ベクトル量子化器10Bに印加されると、入力
ベクトル41 (x)に対応する代表点を選択し、符号
化ベクトル量子化器10Bに含まれたコード・ブック記
憶部から、その代表点のコード・ワードである量子化出
力ベクトル42B(21)を出力する。これと同時に、
この選択された代表点の多段構成のコード・インデック
ス45B(i)を伝送手段により受信側へ出力している
この量子化出力ベクトル42B(zl>と入力ベクトル
41 (X)との差でめる量子化誤差ベクトル43B 
(x−、zl >が後段の符号化ベクトル量子化器60
Bの入力ベクトルとして印加されている。
量子化誤差ベクトル43B(x−21>を印加された後
段の符号化ベクトル量子化器60Bにおいても、前段の
符号化ベクトル量子化器10Bにおける動作と同様にし
て、m子化誤差ベクトル43B (x−zl >に対応
する代表点を選択し、符号化ベクトル量子化器60Bに
含まれたコード・ブック記憶部から、その代表点のコー
ド・ワードである量子化出力ベクトル72B(fi2)
を出力し、これと同時に、この選択された代表点に対応
するコード・インデックス75B(j>を伝送手段によ
り受信側へ出力している。
受信側には前段および後段の復号化ベクトル量子化器1
10Bおよび160Bがあり、伝送手段で送られてきた
2つのコード・インデックス45B(1)および75B
(j>を受けて、それぞれの内部に含まれたコード・ブ
ック記憶部からそれぞれのコード・インデックス45B
(i)および75B (j >に対応する量子化出力1
42B(yl)および172B (yl )を出力し、
加算して総合量子化出力ベクトル169B (VI +
y2 )を1qでいる。
[発明が解決しようとする課題] ベクトル量子化は次元の数を増大すれば理論的にはレー
ト歪限界にまで近づくことのできる符号化方式と言われ
ている。ところが同一ビット・レートの仮定のちとに単
純に次元数を増大すると量子化演算量とメモリ量は指数
的に増大する。これが第1の問題点である。
これは第5図に示した多段ベクトル量子化で解決できた
かにみえるが、段数を多く各段のレベル数を小さく設定
した場合、前段の代表ベクトルの個々のボロノイ領域の
統計的構造を次段が無視して一括して扱うため性能は劣
化する。これを回避するため以下の2種類の対策方法が
従来からとられている。
(1)前段のインデックスによって異なる変換を誤差ベ
クトルに掛けることで、ボロノイ領域内の統計的性質を
均一化する。
(2)段数を極力少なく保ち、前段のレベル数を大きく
保つ。
しかしながら(1)の対策には変換種類の限界があり、
(2)の対策は多段ベクトル量子化の利点を減少させる
ため、その効果に限界がある。
また第2の問題点として、ベクトル量子化全体に関する
コード・ブックの汎用性に対する問題点がある。コード
・ブック作成の際に使用したトレーニング集合は有限で
、一般に、符号化復号化に使用する入力ベクトル集合よ
り狭いものが使われることが多い。この第2の問題点に
対する対策としては、入力ベクトルの統計的偏りを仮定
し変換することで、一定の統計的性質に合致するように
変換して、その後にベクトル量子化を行うもので、平均
値分離ベクトル四子化、ゲインーシエイプ(Gain−
shape )ベクトル量子化およびディスクリート・
コサイン変換ベクトル量子化等の直交変換ベクトル量子
化がこれにあたる。この対策は有用であるが、その限界
も存在し、入力ベクトルの統計的性質の経時的な変動へ
の対応を基本的に持たないために、統計的性質が大きく
異なる入力が与えられたような場合には、量子化の性能
が劣化するという解決されるべき課題があった。
[課題を解決するための手段] このような課題を解決する方法として入力ベクトルの統
計的性質をコード・ブックに取り込んでいく方式が望ま
れる。本発明においては、コード・ブックに入力ベクト
ルの統計的性質を直接に順次取り込み、学習適応を可能
にし、入力ベクトルの統計的性質の非定常性にコード・
ブックが追随するようにすることにある。
これは、たとえば量子化出力yiを入力ベクトルXにあ
る比率で近ずけることができれば達成される。
テウボ・コホーネン(TeUbO,にohonen )
による論文(“Self−Organization 
and AssociativeMeff)Ory”、
 spr+nger−ver+ag、 1984 )で
述べられているような学習機構、すなわちコホーネンの
ニューロン層の場合、入力ベクトルは絶対値が1に正規
化され、代表点の各次元の成分は、入力ベクトルに内積
される重みの各次元成分となっている。
しかも重みの絶対値も1に正規化されている。
そのため極小距離代表点を求めることは極大内積の重み
ベクトルをもつニューロンを求めることにおき替えうる
。そのようなコホーネン学習は、入力ベクトルの最近例
の重みについてのみ、重みを入力ベクトルに近づけると
いう、重みの更新を行う。
このような機能を実現するために、 多くの量子化出力ベクトルであるコード・ワードと各コ
ード・ワードに対応するコード・インデックスを内容と
するコード・ブックと、類似度尺度をも含むことのある
距離尺度により入力ベクトルがコード・ブック中のどの
コード・ワードに最も接近(類似)しているかを識別し
てコード・ワードを選択し、これに対応するコード・イ
ンデックスを出力する最小距離識別部とを有する複数個
の多段接続されたベクトル量子化器を具備し、前段のベ
クトル量子化器の量子化誤差ベクトルを次段のベクトル
量子化器の入力ベクトルとする多段ベクトル量子化装置
において、前段のベクトル量子化器から出力される選択
されたコード・ワードに対して、次段のベクトル量子化
器から出力されるコード・ワードを用いて学習適応作用
を有する学習部 を設けた。
さらに、入力ベクトルの印加に対して、前段のベクトル
量子化誤差ベクトルが所定値を越えた場合には、この入
力ベクトルをそのまま受信側へも伝送し、これを送信側
および受信側の前段コード・ブック中に格納するように
した。
[作用] このような手段を構することによって、従来の多段ベク
トル量子化装置と異なり、本発明においては、最終段を
除く各段のベクトル量子化器の各コード・ブックにおい
て、符号化(送信側)または復号化(受信側)の処理ご
とに1つのコード・ワードを学習適応により順次更新す
るようにした。
また入力ベクトルに対して、送信側の前段における誤差
ベクトルが所定値を越えた場合には、この入力ベクトル
が受信側へも伝送され送信側および受信側のコード・ブ
ックのコード・ワードを更新し、あるいは追加すること
により学習機能を得るようにした。
このように動作する結果、学習後のコード・ワードは、
多次元空間内の近傍に落ちた入力ベクトルの時間的平均
値を表わすように移動されて、コード・ブック全体では
、入力ベクトルの統計的分布を反映したコード・ワード
配置をもつようになり、また、統計的性質の経時的変化
への適応性により、大きなS/N (信号対雑音)比の
向上が得られる。
[実施例] 本発明による学習型多段ベクトル量子化装置の一実施例
を示す回路構成を第1図に示す。
符号化側でおる送信側には、前段および後段の符号化ベ
クトル量子化器10および60と、学習制御部80がお
り、入力ベクトル41 (X)が符号化ベクトル量子化
器10に印加されると、入力ベクトル41 (X)に対
応する代表点を選択し、前段の符号化ベクトル量子化器
10に含まれたコード・ブック記憶部から、その代表点
のコード・ワードである量子化出力ベクトル42(、y
l)を出力する。これと同時に、この選択された代表点
のコード・インデックス45(i)を伝送線により受信
側へ出力している。
この量子化出力ベクトル42(21)と、入力ベクトル
41 (X)との差である量子化誤差ベクトル43(x
−21>が、後段の符号化ベクトル量子化器60の入力
ベクトルとして印加されている。
量子化誤差ベクトル43(x−、zl>を印加された後
段の符号化ベクトル量子化器60においても、前段の符
号化ベクトル量子化器10における動作と同様にして、
量子化誤差ベクトル43(x−yl)に対応する代表点
を選択し、符号化ベクトル量子化器60に含まれたコー
ド・ブック記憶部から、その代表点のコード・ワードで
ある量子化出力ベクトル72(,12)を出力し、これ
と同時に、この選択された代表点のコード・インデック
ス75(j)を伝送手段により受信側へ出力している。
ここで前段の符号化ベクトル量子化器10の出力でおる
量子化出力ベクトル42と、それに対応する後段の符号
化ベクトル量子化器60の出力である量子化出力ベクト
ル72とは、ともに学習制御部80に印加される。ここ
で量子化出力ベクトル42は、量子化出力ベクトル72
によって学習効果を受けて、学習後量子化出力ベクトル
85が出力され、これによって、前段の符号化ベクトル
量子化器10のコード・ブックのコード・ワードは更新
され、更新されたコード・ワードによって、次回の量子
化動作が行われる。
受信側には、前段および後段の復号化ベクトル量子化仝
110および160と学習制御部180があり、伝送線
で送られてきた2つの多段構成のコード・インデックス
45(i>および75(j>を受けて、それぞれの内部
に含まれたコード・ブック記憶部から、それぞれのコー
ド・インデックス45(i)および75(j>に対応す
る量子化出力142(yl)および172((、z2>
を出力し、加算して総合量子化出力ベクトル181(2
1+p2 )を得ている。
ここで、前段の復号化ベクトル量子化器110の出力で
ある量子化出力ベクトル142と、それに対応する後段
の復号化ベクトル量子化器160の出力で競る量子化出
力ベクトル172とは、ともに学習制御部180に印加
される。ここで量子化出力ベクトル142は、量子化出
力ベクトル172によって学習効果を受けて、学習後量
子化出力ベクトル185を出力し、これによって、前段
の復号化ベクトル量子化器110のコード・ブックのコ
ード・ワードは更新され、更新されたコード・ワードに
よって、次回のベクトル量子化動作が行われる。
このようにして、量子化出力ベクトル142は量子化出
力ベクトル42を、量子化出力ベクトル172は量子化
出力ベクトル72をを忠実に再瑛している。このことは
送信側と受信側において常に等しい学習後量子化ベクト
ル85および185によりコード・ブックが更新され、
両者のコード・ブックの内容は常に等しいものに保たれ
ることを意味している。
その結果、S/N (信号対雑音)比の良好な総合組子
化出力ベクトル181 (]1−+12 )が得られる
。この学習過程をざらに詳細に説明する。
学習制御部80および180の機能は同じであるから、
学習制御部80の場合について説明する。
テウボ・コホーネン(丁eubo、にohonen )
による論文(“Self−Organization 
and Associative)1emory ”、
 Springer−Verlag、 1984 )で
述べられているような学と機構すなわちコホーネンのニ
ューロン層の場合、入力ベクトルは絶対値が1に正規化
され、代表点の各次元の成分は、入力ベクトルに内積さ
れる重みの各次元成分となっている。
しかも重みの絶対値も1に正規化されている。
そのため極小距離代表点を求めることは極大内積の重み
ベクトルをもつニューロンを求めることにおき替えうる
1番目のニューロンの重みベクトルをWiとすると、コ
ホーネン学邑は最近例の重み1についてのみ、次式によ
る重みの更新を行う。
old WHn0w=(1−a>W−+ax (Q<a≦1) newは更新後、oldは更新前を意味する。
その他の重みは変化を受けないので次式のようになる。
Wi   −W・old 00w 、            (7) 本発明では、これを一般の(正規化されていない)ベク
トル量子化に拡張して極(最)小距離代表ベクトルにつ
いてのみ、次式による代表点移動を行う。
1d Xl 00’ = (1−k) ”y’−+kx(0<
k≦1) その他の代表点は、変化を受けないので次式のようにな
る。
neW    old        (9)!i  
 −Vi 一般のベクトル量子化の場合には、移動による重みの正
規化の問題((6)式により重みの絶対値が1ではなく
なること)は避けられ、かつ距離計算をチェビチェフ距
離d1(x、z)で行う高速処理が可能となることの利
点がある。
また逆伝播型のニューラル・ネットと同じく、エラー・
パワー(誤差ベクトルの絶対値の2乗)のすべての代表
点の成分による偏微分に比例して、それらを修正すると
いう最急降下法による解も、上式〈8)および(9)を
導くことができることを以下に示す。
エラー・パワーEを前段の量子化誤差ベクトル43のパ
ワーとし、 E= (x−y・>2/2      (10)一1 ykiの変化量を、 kaE/aVHH=k (Xk−Vki)とすると、選
択された代表点(入力ベクトル41の五とは掻(最)小
距離)のみがOa外の値をもち、上記の(8)および(
9)式が導かれる。ここでkはO<k≦1なるスカラー
定数である。
ところが、明らかに入力ベクトル41の凶は送信側では
知ることができても、受信側では不明である。
そこで多段ベクトル量子化の構成を設定し、前段の量子
化出力ベクトル42のViを次段の量子化出力ベクトル
72で学習させる構成を採用した。
以下、第1表の表記法にしたがい説明を進める。
この構成の場合に入力ベクトル41の凶の近似として、
y1+y2が用いられることになる。
zl = (1−k) il +k (、yl +22
 )−zl +kz2         (12>この
方式により、多段ベクトル量子化における学習機能が実
現される。
第2図には、送信側の前段の符号化ベクトル量子化器1
0および字画制御部80の一実施例の、より詳細な回路
構成が示されている。この実施例においては、全探索方
式のベクトル量子化を行っており、符号化ベクトル量子
化器60の量子化出力ベクトル72(,12)に、Q<
k≦1なるスカラー定数kを乗じて、前段の符号化ベク
トル量子化器10の量子化出力ベクトル42(21)に
加痒して、学習後量子化出力ベクトル85としている。
第2図において、11はインデックス・カウンタであり
、図示されてはいないクロック発生器からのクロックを
受けてコード・インデックス55を発生する。このコー
ド・インデックス55はコード・ブック記憶部12に印
加され、コード・インデックス55をアドレスとしてデ
ータであるコード・ワードを、このコード・ブック記憶
部12に読み書きしている。コード・ブック記憶部12
の出力であるコード・ワード52はコード・ワード・ラ
ッチ13によってラッチされ、その出力はω子化出力ベ
クトル42(21)として出力される。
インデックス・カウンタ11の出力であるコード・イン
デックス55はコード・インデックス・ラッチ14にも
印加されて、ラッチされ、そこからコード・インデック
ス45(i)として出力される。
距離尺度検出部15には、量子化出力ベクトル42とな
るべきコード・ワード52 (、zi >と入力ベクト
ル41 (X)とが印加され、印加された両者の距離(
歪)尺度が算出され、スカラー量である距離尺度53が
出力される。
この距離尺度53は、最小値ラッチ16に保持されてい
る最小距離である最小値54と比較部17において比較
され、その結果、距離尺度53の値が小さいときには、
コード・ワード・ラッチ13、コード・インデックス・
ラッチ14および最小値ラッチ16の3つのラッチに保
持されている値は更新されて、新しい値が保持される。
このように、距離尺度検出部15.最小値ラッチ16お
よび比較部17は、コード・ブック記憶部12中のコー
ド・ワードから入力ベクトル41に最も近い値を識別す
る最小距離識別手段として作用している。
学習制御部80には、スカラー乗算器81とベクトル加
算器82とがあり、スカラー乗算器81には、後段の量
子化出力ベクトル72(y2)が印加され、ここでQ<
k≦1なるスカラー定数kを乗算されて乗算出力ベクト
ル91(kz2>が出力され、これと量子化出力ベクト
ル42(zl)とがベクトル加算器82で加算されて、
学習後量子化出力ベクトル85 (zl +ky2 )
が得られ、コード・ブック記憶部12に加えられる。
学習後量子化ベクトル85を受けたコード・ブック記憶
部12は、全コード・ワードの探索終了時にインデック
ス・カウンタ11が出力するキャリー信号51により、
学習後最子化出力ベクトル85 (il +ky2 )
を、コード・インデックス・ラッチ14が出力するコー
ド・インデックス45の指示するアドレスに書き込む。
このようにして符号化動作が行われるごとに学習動作が
行われる。
後段の符号化ベクトル量子化器60の内部構成は、第5
図の後段の符号化ベクトル量子化器60Bと同じであり
、第2図に示した前段の符号化ベクトル量子化器10と
異なる点は、最終段であるために学習機能を要しないこ
とから、コード・ブック記憶部12に、学習後量子化出
力ベクトル85が印加されていない点であり、その他の
構成要素は同じものを使用することができる。
第3図には、受信側の前段の復号化ベクトル量子化器1
10および学習制御部180の一実施例の、より詳細な
回路構成が示されている。復号化ベクトル量子化器16
0の量子化出力ベクトル172(z2)にQ<k≦1な
るスカラー定数kを乗じて前段の復号化ベクトル量子化
器110の組子化出力ベクトル142(,11>に加算
して、学習後量子化出力ベクトル185としている。
第3図において、114はコード・インデックス・ラッ
チであり、伝送手段を介して送信側から送られてくるコ
ード・インデックス45を受けてラッチし、コード・イ
ンデックス151を出力する。このコード・インデック
ス151はコード・ブック記憶部112に印加され、コ
ード・インデックス151をアドレスとして、データで
あるコード・ワードをこのコード・ブック記憶部112
に読み書きすることができる。コード・ブック記憶部1
12の出力であるコード・ワード152は、コード・ワ
ード・ラッチ113によってラッチされ、その出力は量
子化出力ベクトル142として出力される。
学習制御部180には、スカラー乗算器181とベクト
ル加算器182とがあり、後段の量子化出力ベクトル1
72(y2>が印加され、ここでQ<k≦1なるスカラ
ー定数kを乗算されて乗算出力ベクトル191(kz2
>が出力され、これと量子化出力ベクトル142(zl
>とがベクトル加算器182で加算されて、学習後量子
化出力ベクトル185 (yi +ky2 )が1qら
れ、コード・ブック記憶部112に加えられる。
学習後量子化ベクトル185を受けたコード・ブック記
憶部112は、学習後量子化出力ベクトル185 (z
l +kz2 )の1直を、コード・ワード・ラッチ1
13の動作タイミングよりも遅れたタイミングで、コー
ド・インデックス・ラッチ114が指示するコード・イ
ンデックス151の指示するアドレスに書き込む。この
ようにして復号化動作が行われるごとに学習動作が行わ
れる。
後段の復号化ベクトル量子化器160の内部構成は、第
5図の後段の復号化ベクトル量子化器160Bと同じで
あり、第3図に示した前段の復帰化ベクトル量子化器1
10と異なる点は、最終段であるために学習機能を要し
ないことから、コード・ブック記憶部112に、学習後
量子化出力ベクトル185が印加されていない点であり
、その他の構成要素には同じものを使用することができ
る。
第4図は、M段の符号化ベクトル量子化器の装置の動作
の流れを示すフローチャートであり、第1図ないし第3
図に示した本発明の実施例の動作においてはM=2であ
る。
動作を開始すると、量子化誤差ベクトル43の値旦を入
力ベクトル41の値入に設定する(S201、第4図)
そこで第1段目(段数変数n=1)のベクトル量子化器
における処理の準備をする。(3202)そこで第n段
目(n=1>のベクトル量子化器(10,110)にお
いて、コード・インデックス(51,151>に指示さ
れたコード・ブック記憶部(12,112>におけるア
ドレスから、コード・ワード(52,152>を読み出
し、ベクトル量子化処理を行い、コード・インデックス
i n (45)と量子化出力ベクトルyn  (42
゜142)を求め(S203>、量子化誤差ベクトル(
43)す=回−yn  (ここで、段数変数n=1のと
きはd=x−yl )が得られ、次段の入力ベクトルと
して使われる(3204>。
このベクトル量子化処理が、段数変数n=1段目のもの
ではない場合には(3205NO> 、学習制御部(8
0,180>からの学習後量子化出力ベクトル<85.
1s5> y(n−1)を、z(n−1)+kynにし
て、コード・ブック記憶部12゜112の書き替えを行
い、学習して、次の作業に適応する(3206>。
ステップ5205で段数変数n=’lであった場合(S
205YES)、またはステップ3206の学習を終了
した場合には、処理すべきベクトル量子化器の段数でお
る段数変数n@n+1にインクリメントし、(3207
>、nが総段数Mに達していないときにはステップ52
03にもどって処理を続け(3208NO) 、段数変
数nがMに達したときには作業は終了する(8208Y
ES)。このようにしてM段のベクトル量子化器の装置
の動作は行われる。
第2図の距離尺度検出部15において、入力ベクトル4
1 (X)のコード・ワード52からの距離を検出する
場合に、所定値を越えてしまうことが発生し得る。この
ような現象は、コード・ブック記憶部12にすでに格納
されているコード・ワード52の示すベクトル値に対し
て、入力ベクトル41の直入が著しく離れている場合に
発生する。
そして、量子化誤差ベクトル43の値も著しく大きなも
のになる。
このような現象が予想される場合には、探索終了時に距
離尺度検出部15において、所定値を越えた入力ベクト
ル41 (X)とコード・ワード52の距離を検出した
ときに、この入力ベクトル41のiF!1(x)をコー
ド・ブック記憶部12に格納すると同時に、この入力ベ
クトル41の値Xをそのまま受信側にも送り、復号化ベ
クトル量子化器110のコード・ブック記憶部112に
も格納することによって、以後の符号化復号化の動作は
大きな学習効果を受けることが可能となる。
この所定値を越えた入力ベクトル41の直入をコード・
ブック記憶部12および112に新たなコード・ワード
として格納する場合には、すでに格納されているコード
・ワードに追加してもよいし、あるいは使用頻度の最も
少ないコード・ワードを消去し、新たなコード・ワード
に置き替えてもよいことは以上の説明から明らかであろ
う。
[発明の効果] 以上の説明から明らかなように本発明によれば、多段ベ
クトル量子化の最終段を除く各段のベクトル量子化器の
コード・ブックを符号化または復号化の処理ごとに1つ
のコード・ワードずつ更新を受けることができ、コード
・ワードは多次元空間内の近傍に落ちた入力ベクトルの
時間的平均に移動されて、コード・ブック総体では、入
力ベクトルの統計的分布を反映したコード・ワード配置
をもつことが可能になった。この効果は、コード・ブッ
ク製作に使用したトレーニング集合と統計的にかなり性
質の異なる入力ベクトル集合が与えられたときに、顕著
なS/N比の向上をもたらす。
また、統計的性質が経時的に変動することに対しても対
応することができる。第1図〜第3図に示した構成で数
dBのS/N比向上がもたらされることを確認した。し
たがって本発明の効果は極めて大きい。
【図面の簡単な説明】
第1図は本発明の一実施例を示す回路構成図、第2図は
第1図に示した要部の構成要素である送信側の前段の符
号化ベクトル量子化器10および学習制御部80の一実
施例を示す回路構成図、第3図は第1図に示した要部の
構成要素である受信側の前段の復号化ベクトル量子化器
110および学習制御部180の一実施例を示す回路構
成図、 第4図は第1図ないし第3図に示した実施例の動作の流
れを示すためのフローチャート、第5図は従来の多段ベ
クトル量子化装置の回路構成図である。 10.108・・・符号化ベクトル団子化器(前段)1
1・・・インデックス・カウンタ 12・・・コード・ブック 13・・・コード・ワード・ラッチ 14・・・コード・インデックス・ラッチ15・・・距
離尺度検出部 16・・・最小値ラッチ 17・・・比較部 41・・・入力ベクトル 42.428・・・組子化出力ベクトル43.43B・
・・量子化誤差ベクトル45.45B・・・コード・イ
ンデックス51・・・キャリー信号 52・・・コード・ワード 53・・・距離尺度ベクトル 54・・・最小値ベクトル 55・・・コード・インデックス 60.608・・・符号化ベクトル量子化器(次段)7
2.728・・・」子化出力ベクトル75.758・・
・コード・インデックス80・・・学習制御部 81・・・スカラー乗算器 82・・・ベクトル加算器 85・・・学習後量子化出力ベクトル 91・・・乗算出力ベクトル 110.110B・・・復号化ベクトル量子化器(前段
) 112・・・コード・ブック記憶部 113・・・コード・ワード・ラッチ 114・・・コード・インデックス・ラッチ151・・
・コード・インデックス 152・・・コード・ワード 160.160B・・・復号化ベクトル量子化器(次段
) 169.1698・・・総合量子化出力ベクトル172
・・・量子化出力ベクトル 180・・・学習制御部 181・・・スカラー乗算器 182・・・ベクトル加算器 191・・・乗算出力ベクトル

Claims (1)

  1. 【特許請求の範囲】 1、量子化出力ベクトルとなるべき複数のコード・ワー
    ドと、前記コード・ワードに対応するコード・インデッ
    クスとをコード・ブック(12、112)に格納し、 入力ベクトルが前記コード・ブック中のどのコード・ワ
    ードにより近いかを所定の尺度により識別して、選択さ
    れたコード・ワードとそれに対応するコード・インデッ
    クスを出力する複数のベクトル量子化手段を有し、前段
    のベクトル量子化手段(10、110)の量子化誤差ベ
    クトルを次段のベクトル量子化手段(60、160)の
    入力ベクトルとすることのある多段ベクトル量子化方法
    において、 前記前段のベクトル量子化手段において前記選択された
    コード・ワードに対して、前記次段の出力ベクトルであ
    るコード・ワードを用いて学習適応を行うようにした 学習型多段ベクトル量子化方法。 2、前記次段のベクトル量子化手段の出力ベクトルであ
    るコード・ワード(72、172)に1以内の正のスカ
    ラー定数を乗じて前記前段のベクトル量子化手段におい
    て選択されたコード・ワードに加算して学習適応を行う
    ようにした請求項1記載の学習型多段ベクトル量子化方
    法。 3、前記前段のベクトル量子化手段の量子化誤差ベクト
    ルの絶対値が所定の値を越えない場合に、前記次段のベ
    クトル量子化手段の出力ベクトルであるコード・ワード
    に1以内の正のスカラー定数を乗じて、前記前段のベク
    トル量子化手段において前記選択されたコード・ワード
    に加算する学習適応を行い、 前記前段のベクトル量子化手段の量子化誤差ベクトルの
    絶対値が所定の値を越えてしまうような入力ベクトルを
    受けた場合には、前記入力ベクトルの符号化を行う送信
    側から復号化を行う受信側へ伝送し、送信側および受信
    側における前段のベクトル量子化手段(10、110)
    の有するコード・ブック(12、112)に前記入力ベ
    クトルを格納するようにした請求項1記載の学習型多段
    ベクトル量子化方法。 4、量子化出力ベクトルとなるべき複数のコード・ワー
    ドと、前記コード・ワードに対応するコード・インデッ
    クスとを格納するコード・ブック(12、112)と、
    入力ベクトルが前記コード・ブック中のどのコード・ワ
    ードにより近いかを所定の尺度により識別して選択する
    最小尺度検出手段(15、16、17)と、 前記選択されたコード・ワードを出力するための出力手
    段(13、113)とを含む複数のベクトル量子化手段
    を含み、符号化において前段のベクトル量子化手段(1
    0、110)の量子化誤差ベクトルを後段のベクトル量
    子化手段(60、160)の入力ベクトルとすることの
    ある多段接続された多段ベクトル量子化装置において、 前記前段のベクトル量子化手段において前記選択された
    コード・ワードに対して、前記次段のベクトル量子化手
    段の出力ベクトルであるコード・ワードを用いて学習適
    応を行わせて前記コード・ブックに対して学習後量子化
    出力ベクトルを出力するための学習制御手段(80、1
    80) を具備した学習型多段ベクトル量子化装置。 5、前記学習制御手段が、 前記次段のベクトル量子化手段の出力ベクトルであるコ
    ード・ワード(72、172)に1以内の正のスカラー
    定数を乗じて前記前段のベクトル量子化手段において選
    択されたコード・ワードに加算して前記学習後量子化出
    力ベクトルを出力するものである請求項4記載の学習型
    多段ベクトル量子化装置。 6、前記学習制御手段が、 前記次段のベクトル量子化手段の出力ベクトルであるコ
    ード・ワードに1以内の正のスカラー定数を乗じて乗算
    出力(91、191)を得るためのスカラー乗算手段(
    81、181)と、 前記前段のベクトル量子化手段において選択されたコー
    ド・ワードと前記乗算出力とを加算して前記学習後量子
    化出力ベクトルを出力するためのベクトル加算手段(8
    2、182)と を含むものである請求項5記載の学習型多段ベクトル量
    子化装置。 7、前記学習制御手段が、 送信側の前段のベクトル量子化手段における量子化誤差
    ベクトルの絶対値が所定の値を越えてしまうような入力
    ベクトルを受けた場合に、前記入力ベクトルを、前記入
    力ベクトルの符号化を行う送信側から復号化を行う受信
    側へ伝送し、送信側および受信側における前段のベクト
    ル量子化手段(10、110)の有するコード・ブック
    (12、112)に前記入力ベクトルを格納し、かつ前
    記学習適応を行うものである請求項4記載の学習型多段
    ベクトル量子化装置。
JP63059065A 1988-03-12 1988-03-12 学習型多段ベクトル量子化方法と装置 Expired - Lifetime JPH0832033B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63059065A JPH0832033B2 (ja) 1988-03-12 1988-03-12 学習型多段ベクトル量子化方法と装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63059065A JPH0832033B2 (ja) 1988-03-12 1988-03-12 学習型多段ベクトル量子化方法と装置

Publications (2)

Publication Number Publication Date
JPH01232829A true JPH01232829A (ja) 1989-09-18
JPH0832033B2 JPH0832033B2 (ja) 1996-03-27

Family

ID=13102571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63059065A Expired - Lifetime JPH0832033B2 (ja) 1988-03-12 1988-03-12 学習型多段ベクトル量子化方法と装置

Country Status (1)

Country Link
JP (1) JPH0832033B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0473700A (ja) * 1990-07-13 1992-03-09 Nec Corp 音声符号化方法
JPH07177502A (ja) * 1993-12-17 1995-07-14 Sutajio Gen:Kk 画像情報圧縮方法、圧縮画像情報記録媒体、圧縮画像情報再生装置
JP2009509456A (ja) * 2005-09-23 2009-03-05 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 逐次改善可能な格子ベクトル量子化
JP2013140494A (ja) * 2012-01-05 2013-07-18 Kddi Corp 高次元の特徴ベクトルを検索する検索装置及びプログラム
CN117639792A (zh) * 2023-11-27 2024-03-01 浙江大学 一种基于码表聚类的深度学习模型压缩方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240033374A (ko) * 2022-09-05 2024-03-12 서울대학교산학협력단 비터비 빔 서치를 이용한 레지듀얼 벡터 양자화 장치, 방법 및 컴퓨터 판독 가능 매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62166655A (ja) * 1986-01-20 1987-07-23 Nippon Telegr & Teleph Corp <Ntt> 自己トレ−ニング機能を有するベクトル量子化方式
JPS62188575A (ja) * 1986-02-14 1987-08-18 Mitsubishi Electric Corp 順次再生ベクトル量子化符号化・復号化装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62166655A (ja) * 1986-01-20 1987-07-23 Nippon Telegr & Teleph Corp <Ntt> 自己トレ−ニング機能を有するベクトル量子化方式
JPS62188575A (ja) * 1986-02-14 1987-08-18 Mitsubishi Electric Corp 順次再生ベクトル量子化符号化・復号化装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0473700A (ja) * 1990-07-13 1992-03-09 Nec Corp 音声符号化方法
JPH07177502A (ja) * 1993-12-17 1995-07-14 Sutajio Gen:Kk 画像情報圧縮方法、圧縮画像情報記録媒体、圧縮画像情報再生装置
JP2009509456A (ja) * 2005-09-23 2009-03-05 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 逐次改善可能な格子ベクトル量子化
JP2013140494A (ja) * 2012-01-05 2013-07-18 Kddi Corp 高次元の特徴ベクトルを検索する検索装置及びプログラム
CN117639792A (zh) * 2023-11-27 2024-03-01 浙江大学 一种基于码表聚类的深度学习模型压缩方法

Also Published As

Publication number Publication date
JPH0832033B2 (ja) 1996-03-27

Similar Documents

Publication Publication Date Title
Ho et al. Compression with flows via local bits-back coding
Katsavounidis et al. A new initialization technique for generalized Lloyd iteration
Wu et al. A better tree-structured vector quantizer
WO2007046060A2 (en) Compression and decompression of data vectors
US5444488A (en) Method and apparatus for coding digital data using vector quantizing techniques
JP7006966B2 (ja) ベクトル量子化の混合に基づく符号化方法及びこれを用いた最近傍探索(nns)方法
Lu et al. Equal-average equal-variance equal-norm nearest neighbor search algorithm for vector quantization
Kossentini et al. Necessary conditions for the optimality of variable-rate residual vector quantizers
JPH01232829A (ja) 学習型多段ベクトル量子化方法と装置
CN101467459A (zh) 受约束的矢量量化
Lai et al. Fast search algorithms for VQ codebook generation
Sun et al. Efficient vector quantization using genetic algorithm
Cheng et al. Robust zero-redundancy vector quantization for noisy channels
Bayazit et al. Variable-length constrained-storage tree-structured vector quantization
JP2626492B2 (ja) ベクトル量子化装置
Rizvi et al. Residual vector quantization using a multilayer competitive neural network
Rizvi et al. Finite-state residual vector quantization using a tree-structured competitive neural network
Benbenisti et al. Fixed bit-rate image compression using a parallel-structure multilayer neural network
CN111971902B (zh) 编码装置、解码装置、编码方法、解码方法、程序及记录介质
Tsai et al. Fast VQ codebook generation method using codeword stability check and finite state concept
Markas et al. Image compression methods with distortion controlled capabilities
Huang et al. A constrained vector quantization scheme for real-time codebook retransmission
Masselos et al. Novel codebook generation algorithms for vector quantization image compression
Lin et al. Input compression and efficient algorithms and architectures for stack filters
Chang et al. Performance improvement of vector quantization by using threshold