JP2001511980A - データ圧縮システム及びその方法 - Google Patents

データ圧縮システム及びその方法

Info

Publication number
JP2001511980A
JP2001511980A JP53579398A JP53579398A JP2001511980A JP 2001511980 A JP2001511980 A JP 2001511980A JP 53579398 A JP53579398 A JP 53579398A JP 53579398 A JP53579398 A JP 53579398A JP 2001511980 A JP2001511980 A JP 2001511980A
Authority
JP
Japan
Prior art keywords
vector
input
artificial neural
neural network
storage locations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP53579398A
Other languages
English (en)
Inventor
エアール シルモット
Original Assignee
ロックウェル サイエンス センター インコーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ロックウェル サイエンス センター インコーポレーション filed Critical ロックウェル サイエンス センター インコーポレーション
Publication of JP2001511980A publication Critical patent/JP2001511980A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3082Vector coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 入力信号のパラメータの入力ベクトルの連続を対応するインデックス信号の連続に変換することによって、記憶または通信チャネルへ送信すべき入力信号を符号化する方法及びシステムであって、各インデックス信号は一組の順序付けられた入力信号パラメータ値に相当する1つの量子化ベクトルに対応しており、方法及びシステムは以下を含む:入力ベクトルと一組の距離パラメータを人工ニューラルネットワーク(520)へ入力することにより人工ニューラルネットワークに1以上の制御出力信号を生成させる;ベクトル量子化システムを備える、ここでベクトル量子化システムは、各記憶位置が1つの代表ベクトルを記憶し対応する1つのインデックス信号によって表わされるアドレスを持つ第1の数の記憶位置を有する1以上のテーブル(535)と、各代表ベクトルを各入力信号パラメータ値と比較する探索手段(530)からなる;前記1以上の制御出力信号をベクトル量子化システムに与えることにより第1の数の記憶位置の部分集合である第2の数の記憶位置を特定する;前記探索手段において、一組の距離パラメータを用いた判定基準をもとに第2の数の記憶位置から抽出された入力特徴ベクトルに最も近似した記憶位置を探し出す;入力ベクトルに最も近似した記憶位置のインデックス信号を出力する。

Description

【発明の詳細な説明】 データ圧縮システム及びその方法発明の背景 1.発明の分野 本発明はデータ圧縮及び通信システムに関し、特に音声、オーディオ、画像お よびビデオの量子化におけるベクトル量子化の複雑さを低減することに関する。2.関連技術の説明 現在の通信システムは、音声、オーディオ、静止画像およびビデオのシーケン スなどの信号を損失のある形で符号化するデータ圧縮技術に依存するところが大 きい。デジタル信号専用プロセッサの演算能力の向上に伴ない、今やデータ圧縮 アルゴリズムは、理論的には最適の技術であるベクトル量子化(VQ:Vector Q uantization)を使用できるようになった。VQを利用した音声量子化アルゴリズ ムの例としては、最近発表されたInternational Telecommunication Union(ITU )推奨のG.723.1およびG.729がある。 音声、静止画像およびビデオなどの情報量の大きい信号についての現行の量子 化規格はVQを採用していないが、これは処理に非常に複雑なものにならざるをえ ないことが原因である。最近になって提案された音声量子化の新規格には、VQが 含まれている。 VQはデジタル値またはベクトルの大きな集合を利用するもので、このデジタル 値またはベクトルは、それぞれが何らかの信号パラメータの取りうる値を表して いる。パラメータとは絶対値、位相などである。各ベクトルは、順序付けされた 値の集合であり、デジタルで実現する場合には、これらの値はデジタル値となる 。これらの値は各自テーブル内の固有の位置に格納され、それぞれのテーブル内 位 置はアドレスまたはインデックスを有する。入力音声パラメータの連続するベク トルがVQ装置に供給される。各ベクトルはあらかじめ決められたひずみ量測度に 基づいてVQテーブルのエントリと比較され、パラメータのベクトルともっとも近 い値を有するテーブルエントリのインデックスが特定される。そして、このイン デックスが格納または転送される。 受信端では、そのインデックスが、同一のアドレスに同一の値を有する対応テ ーブルのエントリを指すポインタとして用いられ、結果、元のベクトルが一部失 なわれた形のベクトルが検索によって求められる。 VQは、情報理論の分野で発達してきた原理に基づいて、データ圧縮の最適の 解決法と見なされてきた。現在、VQテーブルの設計に関しては、多くの効果的 なそして最適化されたアルゴリズムが存在する。 VQを利用した通信システムで典型的な先行技術を図1に示す。このシステム は転送側にVQエンコーダ100を有し、受信側にVQデコーダ150を有する 。入力側では、入力ベクトルが入力ライン115上を通って、探索ユニット12 0と比較ユニット130とに入る。探索ユニット120はVQテーブル125に 接続されており、VQテーブル125は、複数の記憶位置を有し、記憶位置のそ れぞれは、ベクトル値を格納しているとともにインデックスによって示されるア ドレスを有している。ライン115を介して入ってきた入力ベクトルはそれぞれ 、探索ユニット120の制御の下で、テーブル125内の各ベクトルと比較され る。この比較処理は距離パラメータ135を利用して行われるもので、距離パラ メータ135は、比較ユニット130に入力され、ひずみ量測度の算出に利用さ れる。そして、入力ベクトルに最も近いテーブルエントリに関連付けられたイン デックスが、ライン140を介してVQデコーダ150に入力される。その後、こ のインデックスは、格納されるか通信チャネル145上を転送されるかする。 デコーダ150は基本的に検索ユニット155とVQテーブル160とから成り 、VQテーブル160はVQテーブル125と全く同じデータを保持している。通信 チャネル145を経て送信されて検索ユニット155に受信されたインデッ クスについては、対応するベクトルがテーブル160から読み出されて出力ライ ン165に転送される。 VQユニットの処理には、各入力ベクトルをあらゆるテーブルエントリと比較す る処理が含まれる。こうした手順をとると、複雑な演算処理が相当量必要となり 、所定のプロセッサによる場合、インデックスの出力レートは、かなり制限を受 けることになる。 他の公知のVQシステムとして、複数のより小さいテーブルを有し、それぞれに ベクトルを格納しておくものがある。この場合、適切な量子化ベクトルが、これ ら小さいテーブルそれぞれから1つずつ選ばれたベクトルを連結するかまたは組 み合わせた形で表される。各テーブルのエントリまたはインデックスの数は、図 1のような単一のテーブルの場合に比べて少なくてすむので、その結果、各イン デックスを構成するビットの数が少なくなる。こうした構造は、積符号VQ装置と して知られている。 こうした公知の積符号VQ装置型の一例を図2に示す。これは積符号VQエンコー ダ200と積符号VQデコーダ250とから成る。見て分かる通り、エンコーダ2 10は、複数のVQテーブル225を備える点および比較ユニット230に複数の 入力端子がある点で図1のエンコーダ100とは基本的に異なっている。エンコ ーダ210では、ライン215を経て入力されたベクトルが探索ユニット220 と比較ユニット230とに送られる。これら2つのユニットは共同して、入力さ れたベクトルと複数あるテーブル225の少なくとも1つに含まれるベクトルの 組合わせ集合の全メンバとを連続的に比較するが、その際には、入力235経由 で比較ユニット230の送られてくる距離パラメータを利用する。格納された値 で結合すると入力ベクトルに最も近い値となるものに対応づけられたインデック スが、出力ライン240に送られ、そこで保持されるか、通信チャネル245上 を転送されるかする。 通信チャネル245上を転送された後、各インデックスはそれぞれ複数あるVQ テーブル255のいずれか1つをアドレス指定する。そして、テーブル255中 の当該アドレス記憶位置に格納されているベクトルコンポーネントが、ユニット 265において結合されて出力ベクトルとなり、出力ライン270を経て転送さ れる。 上記いずれの場合も、出力ベクトルは対応する入力ベクトルを再現したもので あるが、出力ベクトルは、採用されている固有の量子化スキームに依存するエラ ー量のために、入力ベクトルとは異なったものになる。一般的な規則として、こ のエラーは、VQテーブル125および160または複数のVQテーブル225およ び255に含まれるエントリの数に左右される。 VQスキームの主な問題点、つまり、現行のデータ圧縮アルゴリズムに必ずしも VQスキームが採用されていない主要な理由は、極端な複雑さにある。大きなテー ブルまたは複数の小さなテーブルの中から最も近いベクトルを検索する処理には 、大量の演算処理が必要となる。例えば、ITU規格G.723.1およびG.729のような 現在の音声量子化スキームの場合、VQ検索が演算負荷の80%または90%を占 める。発明の目的および要点 本発明の第1の目的は、公知のVQシステムの問題点を解消することである。 また、本発明の第2の目的は、VQシステムの利点を損なうことなく、VQ量子化 実行を高速化するとともにこれに必要な演算負荷を低減することを目的とする。 上記の目的及び他の目的の達成のため、ほんはつめいの方法は、入力信号のパ ラメータの入力ベクトルの連続を対応するインデックス信号の連続に変換するこ とによって、記憶または通信チャネルへ送信すべき入力信号を符号化する方法で あって、各インデックス信号は一組の順序付けられた入力信号パラメータ値に相 当する1つの量子化ベクトルに対応しており、方法は以下を含む:入力ベクトル を人工ニューラルネットワークへ入力することにより人工ニューラルネットワー クに1以上の制御出力信号を生成させる;ベクトル量子化システムを備える、こ こでベクトル量子化システムは、各記憶位置が1つの代表ベクトルを記憶し対応 する1つのインデックス信号によって表わされるアドレスを持つ第1の数の記憶 位置を有する1以上のテーブルと、各代表ベクトルを各入力信号パラメータ値と 比較する探索手段からなる;前記1以上の制御出力信号をベクトル量子化システ ムに与えることにより第1の数の記憶位置の部分集合である第2の数の記憶位置 を特定する;前記探索手段において、一組の距離パラメータを用いた判定基準を もとに第2の数の記憶位置から入力ベクトルに最も近似した記憶位置を探し出す ;そして、入力ベクトルに最も近似した記憶位置のインデックス信号を出力する 。 また、本発明の他の目的を達成するために、本発明は、入力信号のパラメータ の入力ベクトルの連続を対応するインデックス信号の連続に変換することによっ て、記憶または通信チャネルへ送信すべき入力信号を符号化するシステムであっ て、各インデックス信号は一組の順序付けられた入力信号パラメータ値に相当す る1つの量子化ベクトルに対応しており、システムは以下を含む:1以上の人工 ニューラルネットワーク;入力ベクトルを前記1以上の人工ニューラルネットワ ークに入力することにより人工ニューラルネットワークに1以上の制御出力信号 を生成させる手段;各記憶位置が1つの代表ベクトルを記憶し対応する1つのイ ンデックス信号によって表わされるアドレスを持つ第1の数の記憶位置を有する 1以上のテーブルと、各代表ベクトルを各入力信号パラメータ値と比較する探索 手段からなるベクトル量子化システム;前記1以上の制御出力信号をベクトル量 子化システムに与えることにより第1の数の記憶位置の部分集合である第2の数 の記憶位置を特定する手段;前記探索手段において、一組の距離パラメータを用 いた判断基準をもとに第2の数の記憶位置から入力ベクトルに最も近似した記憶 位置を探し出す手段;そして、入力ベクトルに最も近似した記憶位置のインデッ クス信号を出力する手段。図面の簡単な説明 本発明の目的と新規と考えられる特徴とは、特に添付のクレームにおいて説明 される。本発明は、構成についても動作の形態についても、更なる目的と利点と ともに、以下に記す詳細な説明を添付の図面とともに参照することで、さらによ く理解されるであろう。 図1は、先行技術に関する基本的なVQシステムを示すブロック図である。 図2は、図1と同様の図であり、先行技術に関する別形態のVQシステムの構成 を示す。 図3および図4は、それぞれ、本発明の実施の形態におけるコンポーネント、 そして、こうしたコンポーネントをつなぐネットワークを示すブロック図である 。 図5は、本発明に関するエンコーダの1実施の形態を示すブロック図である。 図6は、図5に示すエンコーダの動作を示すフローチャートである。 図7は、本発明に関するエンコーダの第2の実施の形態を示すブロック図であ る。好適な実施の形態の詳細な説明 上述の通り、本発明の目的は人工ニューラルネットワークの機能と通常のVQシ ステムの機能とを、両システムの利点を結合することで量子化処理の高速化と演 算負荷の低減を可能とするような新規な形態で結合することによって実現される 。 人工ニューラルネットワークは、パーセプトロンとして知られる複数の要素コ ンポーネントを連結して形成されるものである。 図3は、要素パーセプトロンの基本構成を示すもので、要素パーセプトロンは 、複数の入力端子310、合計ユニット320、出力関数ジェネレータ325、 出力端子330を有する。各入力端子310と合計ユニット320との間には、 関連する入力において信号に対して選択された重み「w」を与えるコンポーネン トが備えられている。つまり、入力時に「i」という値を持っていた信号の場合 、この信号に対応する信号は、合計ユニット320に入る時点で値が「wi」に なっている。また、別の入力が合計ユニット320に接続されており、制御用の 固 定値を有する信号を提供する。例えば、この別の入力が、図に示すように固定値 「it」を受信して、重みコンポーネントからは重み「wt」が与えられたとする と、その結果、閾値「itwt」が提供される。合計ユニット320は、入力さ れた全ての「wi」の合計に対応する信号を生成し、この出力信号を関数ジェネ レータ325に送る。関数ジェネレータ325は、入力部においてこの信号を生 成すべき最終結果に応じた任意の所望の関数に従って、リニアであれノンリニア であれ、変化させる。 人工ニューラルネットワークを形成するには、図3に示す一般的な形を備える パーセプトロンを複数統合して、複数のレイヤを有する人工ニューラルネットワ ークとする。その一例を図4に示す。 図4に示す丸はそれぞれがパーセプトロンであり、図3に示す形をしている。 図4に示す人工ニューラルネットワークは、入力レイヤ、隠しレイヤ、出力レイ ヤから成る。ここに図示した実施の形態では、入力レイヤの各パーセプトロンは 単一の入力のみ有する。しかし、入力レイヤ420の各パーセプトロンは同時に 、少なくとも1つの追加入力が接続されていて、制御目的の固定信号(例えば、 閾値用信号を提供するもの)を受信できるようになっているか、または多数の入 力を備えていてもよい。 入力レイヤ420の各パーセプトロンの出力は、隠しレイヤ430の1つまた は複数のパーセプトロンの入力に接続されている。図4に示す実施の形態では、 入力レイヤ420の各パーセプトロンの出力は、隠しレイヤ430の各パーセプ トロンの入力に接続されている。しかし、必ずしもこの形である必要はなく、入 力レイヤ420の各パーセプトロンの出力は、隠しレイヤ430の一部のパーセ プトロンの入力に接続することとしてもよい。さらに、入力レイヤ420のパー セプトロンの場合と同様、隠しレイヤ430の各パーセプトロンも、制御目的、 特に閾値を提供するための固定信号を受信するために、更に入力を備えることに してもよい。 最終的に、隠しレイヤ430の各パーセプトロンの出力は、出力レイヤ440 のパーセプトロンの各入力に接続されている。ここでも、隠しレイヤ430の各 パーセプトロンの出力は、出力レイヤ440の任意の数のパーセプトロンの入力 に接続することができ、出力レイヤ440の各パーセプトロンは、制御目的、特 に閾値を提供するための固定信号を受信するために、更に入力を備えることがで きる。本発明を実施する場合、図4に示す形の人工ニューラルネットワークは、 当該技術分野でよく知られた理論に基づいて構築することができる。例えば、こ うしたネットワークの組立てについては、Simon Haykinによる「NEURAL NETWORK 」というタイトルの文書(出版元:McMillan College Publishing Company,New Y ork,1994)に説明されている。この文書の第4章には、パーセプトロンの基本理 論が解説されており、また同文書の第6章には、図4で示すような、1クラスの ニューラルネットワークを構成する複数レイヤのパーセプトロンについて解説し ている。 上で言及した文書から明らかなように、本発明の実施に用いられる人工ニュー ラルネットワークについては、レイヤの数、各レイヤにおけるパーセプトロンの 数、レイヤ間の相互接続の組合わせ、信号の重みの組合わせ、そして出力の数の いずれに関しても制限はない。 各パーセプトロンは、バイナリ出力を生成するタイプ、あるいはアナログ出力 を生成するタイプのいずれでもよい。しかし、出力レイヤ440のパーセプトロ ンについては、バイナリ出力を生成するよう構成されるのが普通であり、出力4 50の組合わせでバイナリ出力ベクトルが構成される。 人工ニューラルネットワークの動作は、入出力マッピングとして説明すること ができ、マッピングパターンは主として、各パーセプトロンの入力において提供 される重み「w」によって決定される。最もよく使われる人工ニューラルネット ワークは、複数レイヤで成るフィードフォワード型のものである。逆伝搬アルゴ リズム(back-propagation algorithms)などの有効なアルゴリズムは、ラベル 付きトレーニング集合(labeled training set)(例えば、考えられる入力ベク トルと各ベクトルに対するネットワークの所望の出力とを併せたものの集合)に 基づ くネットワークのトレーニングに使用することができる。人工ニューラルネット ワークのこうした形のトレーニングについても、上で言及したHaykinの著作の6 .6項〜6.22項で説明されている。重み値の異なる集合を用いることで、所 定の人工ニューラルネットワークが、異なる入出力マッピングを生成することが できる。 各レイヤの全てのパーセプトロンは平行して動作するので、入力ベクトルの入 力から対応する出力ベクトルの出力までに経過する時間の合計は、ニューラルネ ットワークのレイヤの数に各レイヤの1つのパーセプトロンの入出力処理時間ま たはマッピング処理時間を乗じた値に等しくなる。さらに、各レイヤは交互に信 号を処理するので、パーセプトロンが同時に動作させられれば、入力ベクトルは 各パーセプトロンの入出力マッピング速度に相当する頻度で入力410に送られ る。 人工ニューラルネットワーク理論によると、3レイヤ構造のフィードフォワー ド型の人工ニューラルネットワークを使えばいかなる入出力マッピングも実行可 能である(隠しレイヤのパーセプトロンの数が充分に多いという条件付き)。実際 、こうしたネットワークは、ラベル付きトレーニングセットによって提示される 入出力マッピングに近づけることができる。 本発明によれば、人工ニューラルネットワークの高速マッピング機能が、VQシ ステムのより正確な入出力マッピング機能と結合されて、両者の利点を併せ持っ たハイブリッドシステムを実現している。特に、本発明に関するシステムは、処 理性能が優れているというVQの特徴とあまり複雑でないという人工ニューラルネ ットワークの特徴とを兼ね備えている。 VQについては、階層化技術の観点から考えることもできる。ありうるベクトル ごとに、代表ベクトル、テーブルのエントリ、そして当該エントリのインデック スである代表インデックスに階層化する。ベクトルの集合は、単一のエントリま たは単一のインデックスで示される。VQについては、また、入出力マッピング技 術の観点から考えることもできる。入力は元のベクトルであり、出力は代表ベク トル(またはVQテーブルの代表ベクトルのインデックス)である。 本発明に関するシステムの1実施の形態を図5に示す。このシステムは、入力 ベクトル受信のために接合された入力510と重み値522の適切なソースに接 続された入力とを備えた人工ニューラルネットワークを有する。入力ベクトルは 図1および図2の、入力115および215に入力されていたものと同じである 。ネットワーク520では、探索ユニット530の入力に制御出力525が導入 される。探索ユニット530は、VQテーブル535と比較ユニット540とに接 続されている。探索ユニット530、テーブル535そして比較ユニット540 については、各部の間の接続、各部の動作とも、基本的に図1において説明した ものと同様である。 しかし、本発明によれば、探索ユニット530は、選択されたベクトルを特定 する情報をネットワーク520から受信し、これらベクトルの各々は、ライン5 10経由で供給される入力ベクトルに近いベクトルが格納されたテーブル535 のインデックスを表している。 一例を述べると、ニューラルネットワーク520の出力レイヤは、テーブル5 35のエントリと同数のパーセプトロンを有することができ、ネットワーク52 0の各出力レイヤの出力は、テーブル535の各々のアドレスまたはエントリと 関連付けられているとともに、探索ユニット530に接続されている。ネットワ ーク520は、トレーニングされることで、選択されたニューラルネットワーク の出力レイヤのパーセプトロンが所定の値(例えば、バイナリで「1」の値)を 有することになるような方法で各入力ベクトルに応答するようになる。この時、 これらパーセプトロンは入力ベクトルに最も近い量子化ベクトルに関連付けられ ている。 また、ニューラルネットワーク520の出力レイヤのパーセプトロンの数を少 なくし、各出力レイヤのパーセプトロンの出力をテーブル535のエントリの選 択されたサブセットと関連付けることもできる。出力レイヤのパーセプトロンの 数は、テーブル535のエントリの数に対して、これ以下であっても、これより 多くてもよい。このようにして、ニューラルネットワーク520の出力によりエ ントリのサブセットが特定され、比較ユニット540において、特定されたサブ セットに含まれるエントリと入力ベクトルが比較される。比較処理の対象は、従 来技術では、VQテーブル535の全エントリであるのに対して、本発明では、 サブセットに含まれる一部のエントリのみなので、計算負荷を削減できる。 具体的には、比較処理の対象となる記憶位置の数は、最小では4、最高ではテ ーブル535に含まれる全記憶位置数の2分の1まで可能であるが、テーブル5 35に含まれる全記憶位置数の4分の1を上回らないのが望ましい。一般に、処 理速度は、比較が行われる記憶位置の数に反比例するものだからである。 最も近い量子化ベクトルのインデックスが、ライン545上でベクトル量子化 技術の通常の実施技法に従って供給される距離パラメータを利用して決定され、 このインデックスはライン550上を通信チャネル560に転送される。転送さ れたインデックスは、受信側(図示せず)において、従来技術と同じ方法でデコ ードされる。 本発明に関するエンコード手順の基本的なステップを、理解を容易にするため に、プログラムフロー図として図6に示す。ここに図示した通り、エンコード手 順は、入力ベクトルと距離パラメータとを図5に示したネットワーク520に導 入するステップ610を有する。このステップの実行中、またはこれに先立って 、適当な重みの集合をユニット522からネットワーク520に供給することが できる。 次いで、ステップ620では、ネットワーク520からの出力が用いられて、 テーブル535内の検証の対象になるインデックスの集合が特定される。これは 、ネットワーク520から単一のインデックスを提供してそこから探索ユニット 530でインデックスの集合を導き出すことでも実現できるし、ネットワーク5 20から直にインデックスの集合を供給することでも実現できる。 ステップ630では、比較ユニット520の制御の下で、探索ユニット530 から提供されたインデックスの各々に対して、最短距離検索が実行される。 最後に、ステップ640において、テーブル535内の量子化ベクトルのイン デックスで、関連する入力ベクトルからの距離が最も小さいものが、インデック ス550として通信チャネル560に転送される。 同じ複雑さ低減のコンセプトでANNを単一テーブルのVQとともに用いたものを 拡張すると、積符号VQシステムができる。積符号VQシステムでは、入力ベクトル を示すのに複数のテーブルが用いられる。各テーブルからのエントリのサブセッ トは、VQ検索の複雑さ低減するために、ANNによって前もって選択しておくこと ができる。複数のANNが使用可能であり、ANNはそれぞれが少なくとも1つのVQテ ーブルに対応するとともにこれを用いて動作する。ロード可能な重みのセットを 備えた単一のANNを用いて、各テーブルからエントリのサブセットをシーケンシ ャルな形で選択することもできる。 図7は、複雑さの低減のために用いられる、こうした積符号VQエンコーダとAN Nの集合とを示す。入力ベクトル(710)と距離パラメータ(715)とが、A NNの集合(740)に与えられる。ANNの集合は、制御出力信号(745)を生 成する。検索ユニット(720)はこの信号を使って、VQテーブルの集合(73 5)内での探索の複雑さを低減するが、その際には、比較ユニット(725)を 利用してインデックスの集合(730)を生成する。 以上、本発明の特定の実施の形態を示して説明したが、本発明のより広い解釈 において、発明の範囲内で様々の変更や変形が可能であることは当業者が見れば 明らかなことである。それゆえ、添付のクレームは、こうした変更や変形が全て 本発明の真の精神とその範囲に収まるものとして網羅できることを目指している 。
───────────────────────────────────────────────────── 【要約の続き】 準をもとに第2の数の記憶位置から抽出された入力特徴 ベクトルに最も近似した記憶位置を探し出す;入力ベク トルに最も近似した記憶位置のインデックス信号を出力 する。

Claims (1)

  1. 【特許請求の範囲】 1.入力信号のパラメータの入力ベクトルの連続を対応するインデックス信号 の連続に変換することによって、記憶または通信チャネルへ送信すべき入力信号 を符号化する方法であって、各インデックス信号は一組の順序付けられた入力信 号パラメータ値に相当する1つの量子化ベクトルに対応しており、方法は以下を 含む、 ・ 入力ベクトルを人工ニューラルネットワークへ入力することにより人工ニ ューラルネットワークに1以上の制御出力信号を生成させる、 ・ ベクトル量子化システムを備える、ここでベクトル量子化システムは、各 記憶位置が1つの代表ベクトルを記憶し対応する1つのインデックス信号によっ て表わされるアドレスを持つ第1の数の記憶位置を有する1以上のテーブルと、 各代表ベクトルを各入力信号パラメータ値と比較する探索手段からなる、 ・ 前記1以上の制御出力信号をベクトル量子化システムに与えることにより 第1の数の記憶位置の部分集合である第2の数の記憶位置を特定する、 ・ 前記探索手段において、一組の距離パラメータを用いた判定基準をもとに 第2の数の記憶位置から入力ベクトルに最も近似した記憶位置を探し出す、 ・ 入力ベクトルに最も近似した記憶位置のインデックス信号を出力する。 2.第2の数は第1の数の2分の1未満である、請求項1記載の方法。 3.第2の数は第1の数の4分の1未満である、請求項1記載の方法。 4.入力信号のパラメータの入力ベクトルの連続を対応するインデックス信号の 連続に変換することによって、記憶または通信チャネルへ送信すべき入力信号を 符号化するシステムであって、各インデックス信号は一組の順序付けられた入力 信号パラメータ値に相当する1つの量子化ベクトルに対応しており、システムは 以下を含む、 ・ 1以上の人工ニューラルネットワーク、 ・ 入力ベクトルを前記1以上の人工ニューラルネットワークに入力すること により人工ニューラルネットワークに1以上の制御出力信号を生成させる手段、 ・ 各記憶位置が1つの代表ベクトルを記憶し対応する1つのインデックス信 号によって表わされるアドレスを持つ第1の数の記憶位置を有する1以上のテー ブルと、各代表ベクトルを各入力信号パラメータ値と比較する探索手段からなる ベクトル量子化システム、 ・ 前記1以上の制御出力信号をベクトル量子化システムに与えることにより 第1の数の記憶位置の部分集合である第2の数の記憶位置を特定する手段、 ・ 前記探索手段において、一組の距離パラメータを用いた判断基準をもとに 第2の数の記憶位置から入力ベクトルに最も近似した記憶位置を探し出す手段、 ・ 入力ベクトルに最も近似した記憶位置のインデックス信号を出力する手段 。 5.前記人工ニューラルネットワークが受け取る入力信号は複数ビットからなる ディジタル信号であり、人工ニューラルネットワークはディジタル信号の複数ビ ットをそれぞれ受け取るため連結される複数の入力を有し、人工ニューラルネッ トワークによって得られる出力信号の集合は第2の数の記憶位置のアドレスに対 応する、請求項4記載のシステム。 6.前記人工ニューラルネットワークは第2の数の記憶位置の1以上の記憶位置 に対応する出力を複数有する、請求項5記載のシステム。 7.前記人工ニューラルネットワークの各出力は第2の数の記憶位置の1組の記 憶位置に対応する、請求項6記載のシステム。 8.第2の数は第1の数の2分の1未満である、請求項4記載のシステム。 9.第2の数は第1の数の4分の1未満である、請求項4記載のシステム。 10.前記1以上のテーブルは複数のテーブルであり、各テーブルは第1の数の 記憶位置を有し対応する1つのインデックス信号の一部分を表わす量子ベクトル を記憶する、請求項4記載のシステム。 11.前記1以上のテーブルは複数のテーブルである、請求項4記載のシステム 。 12.前記1以上の人工ニューラルネットワークは複数の人工ニューラルネット ワークであり、各人工ニューラルネットワークは前記複数のテーブルのうち1以 上のテーブルに対応する制御出力信号を生成する、請求項11記載のシステム。 13.前記複数の人工ニューラルネットワークと前記複数のテーブルはそれぞれ 対応している、請求項12記載のシステム。 14.各人工ニューラルネットワークは、入力ベクトルの一部分を受け取るため の入力を複数を有するとともに、選択値を含む重みを各入力ベクトル部分に与え る手段を有する、請求項12記載のシステム。 15.複数の異なる重み値を各人工ニューラルネットワークに供給する手段を含 む、請求項14記載のシステム。 16.各人工ニューラルネットワークは複数のテーブルに対応し、異なる重み値 を入力ベクトル部分それぞれに与えることによって対応する複数のテーブル各々 に異なる制御出力信号を与える、請求項15記載のシステム。
JP53579398A 1997-02-18 1998-02-05 データ圧縮システム及びその方法 Pending JP2001511980A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/801,890 US5781128A (en) 1997-02-18 1997-02-18 Data compression system and method
US08/801,890 1997-02-18
PCT/US1998/002026 WO1998036499A1 (en) 1997-02-18 1998-02-05 Data compression system and method

Publications (1)

Publication Number Publication Date
JP2001511980A true JP2001511980A (ja) 2001-08-14

Family

ID=25182287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP53579398A Pending JP2001511980A (ja) 1997-02-18 1998-02-05 データ圧縮システム及びその方法

Country Status (6)

Country Link
US (1) US5781128A (ja)
EP (1) EP0962059B1 (ja)
JP (1) JP2001511980A (ja)
AT (1) ATE227903T1 (ja)
DE (1) DE69809397T2 (ja)
WO (1) WO1998036499A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6513073B1 (en) * 1998-01-30 2003-01-28 Brother Kogyo Kabushiki Kaisha Data output method and apparatus having stored parameters
US6192442B1 (en) * 1998-04-29 2001-02-20 Intel Corporation Interrupt controller
US6226618B1 (en) * 1998-08-13 2001-05-01 International Business Machines Corporation Electronic content delivery system
US6285994B1 (en) 1999-05-25 2001-09-04 International Business Machines Corporation Method and system for efficiently searching an encoded vector index
US20180336469A1 (en) * 2017-05-18 2018-11-22 Qualcomm Incorporated Sigma-delta position derivative networks

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2639739B1 (fr) * 1988-11-25 1991-03-15 Labo Electronique Physique Procede et dispositif de compression de donnees d'image utilisant un reseau de neurones
US5067152A (en) * 1989-01-30 1991-11-19 Information Technologies Research, Inc. Method and apparatus for vector quantization
US4994927A (en) * 1989-06-19 1991-02-19 Gte Laboratories Inc Self-adaptive neural net based vector quantizer for image compression
US5255346A (en) * 1989-12-28 1993-10-19 U S West Advanced Technologies, Inc. Method and apparatus for design of a vector quantizer
US5216750A (en) * 1990-06-07 1993-06-01 Texas Instruments Incorporated Computation system and method using hamming distance

Also Published As

Publication number Publication date
EP0962059B1 (en) 2002-11-13
US5781128A (en) 1998-07-14
DE69809397T2 (de) 2003-07-31
DE69809397D1 (de) 2002-12-19
ATE227903T1 (de) 2002-11-15
EP0962059A1 (en) 1999-12-08
WO1998036499A1 (en) 1998-08-20

Similar Documents

Publication Publication Date Title
Baek et al. A fast encoding algorithm for vector quantization
JP2994456B2 (ja) 反射2進エンコーダおよび不均一コードブックを創造する方法
US4475227A (en) Adaptive prediction
US5708511A (en) Method for adaptively compressing residual digital image data in a DPCM compression system
CA2013247C (en) Vector quantizer search arrangement
KR910000707B1 (ko) 화상 부호화 전송방법 및 장치
Hsieh et al. Fast search algorithms for vector quantization of images using multiple triangle inequalities and wavelet transform
Idris et al. Storage and retrieval of compressed images
Vetterli et al. Matching pursuit for compression and application to motion compensated video coding
US4463377A (en) Arrangement for storing or transmitting and for recovering picture signals
US5826225A (en) Method and apparatus for improving vector quantization performance
JP2000504549A (ja) Pcmモデム用直流成分の抑制
JP2001511980A (ja) データ圧縮システム及びその方法
JP2509039B2 (ja) ベクトルコ―ドブック量子化装置
Nasrabadi et al. Next-state functions for finite-state vector quantization
GB2236608A (en) Digital neural networks
Gadkari et al. Noisy channel relaxation for VQ design
Rizvi et al. Residual vector quantization using a multilayer competitive neural network
Rizvi et al. Finite-state residual vector quantization using a tree-structured competitive neural network
CN117577121B (zh) 基于扩散模型的音频编解码方法及装置、存储介质及设备
Li et al. A novel VQ codebook design technique
Mohsenian et al. Predictive vector quantization using a neural network
Gong et al. Progressive image transmission
JPS6337776A (ja) 画像デ−タ圧縮方式
JPS5999496A (ja) ベクトル量子化法