JP3830549B2 - Hierarchical coding apparatus and method for digital image signal - Google Patents

Hierarchical coding apparatus and method for digital image signal Download PDF

Info

Publication number
JP3830549B2
JP3830549B2 JP33954394A JP33954394A JP3830549B2 JP 3830549 B2 JP3830549 B2 JP 3830549B2 JP 33954394 A JP33954394 A JP 33954394A JP 33954394 A JP33954394 A JP 33954394A JP 3830549 B2 JP3830549 B2 JP 3830549B2
Authority
JP
Japan
Prior art keywords
data
hierarchical
class
digital image
hierarchy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP33954394A
Other languages
Japanese (ja)
Other versions
JPH08186827A (en
Inventor
哲二郎 近藤
泰弘 藤森
健治 高橋
邦雄 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP33954394A priority Critical patent/JP3830549B2/en
Publication of JPH08186827A publication Critical patent/JPH08186827A/en
Application granted granted Critical
Publication of JP3830549B2 publication Critical patent/JP3830549B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Description

【0001】
【産業上の利用分野】
この発明は、ディジタル画像信号の階層符号化装置において、メモリの無駄を防ぐことができるディジタル画像信号の階層符号化装置および方法に関する。
【0002】
【従来の技術】
従来、高能率符号化および復号の例としては、特開昭54−74623号公報に記載されているBTC(Block Truncation Coding )および本出願人が特願平4−155719号において、提案しているクラス分類適応予測があり、さらに、階層符号化としては、特開昭63−306789号公報において提案されているピラミッド符号化などが挙げられる。
【0003】
このピラミッド符号化とは、高解像度画像信号を第1の階層(あるいはレベル)として、これより解像度が低い第2の階層の画像信号、第2の階層の画像信号より解像度が低い第3の階層の画像信号、・・・を形成する符号化である。このピラミッド符号化によれば、複数の階層の画像信号を一つの伝送路(通信路、記録/再生プロセス)を介して伝送し、受信側では、複数の階層とそれぞれ対応するテレビジョンモニタの何れか一つにより伝送画像データを再生することができる。
【0004】
より具体的には、標準解像度ビデオ信号、ハイビジョン信号等の高解像度ビデオ信号、コンピュータディスプレイの画像データ、画像データベースを高速検索するための低解像度ビデオ信号等が異なる解像度のビデオ信号として存在している。また、解像度の高低以外に、画像の縮小に対しても、かかる階層符号化を応用することが可能である。
【0005】
従来のピラミッド符号化のエンコーダ構成例を図10に、デコーダ構成例を図11に示す。この例では5段の階層構造が使用されている。処理の基本的な考え方は図10のエンコーダ側において、間引きフィルタと補間フィルタを使用することで、入力画像信号を解像度の異なる複数の階層画像データに分解する。入力画像に間引きフィルタを多段に施すことにより、逐次、画素数の少ない縮小画像を生成する。
【0006】
次に、各縮小画像に補間フィルタを適用することで縮小前の各画面サイズまで補間し、各階層画像と補間画像から、信号電力低減のため差分データを生成する。例えば、5階層符号化において面積比が逐次、1、1/4、1/16、1/64、1/256のように構成される。この差分信号に対し、符号器において圧縮処理が施され、各階層のエンコーダ出力となる。
【0007】
ここで、従来の階層符号化装置のエンコーダ側の詳細な説明を図10のブロック図を用いて行う。入力端子111を介して原画像データd80として間引き回路112および減算器116へ供給される。供給された原画像データd0は、間引き回路112において、水平方向に1/2および垂直方向に1/2づつ画素の間引き処理が実行され、間引きデータd81が生成される。この間引きデータd81は、図2に示す第2階層データに対応する。生成された間引きデータd81は、間引き回路113および減算器117へ供給される。
【0008】
間引きデータd81に対して、間引き回路113では、上述の間引き回路112と同様な処理が施され、間引きデータd82が生成される。この間引きデータd82は、第3階層データに対応する。生成された間引きデータd82は、間引き回路114および減算器118へ供給される。また、間引き回路114でも同様に間引きデータd82に対して上述の間引き回路112および113と同様な処理が施され、間引きデータd83が生成される。この間引きデータd83は、第4階層データに対応する。生成された間引きデータd83は、間引き回路115および減算器119へ供給される。さらに、間引き回路115でも同様に間引きデータd83に対して上述の間引き回路112、113および114と同様な処理が施され、間引きデータd84が生成される。この間引きデータd84は、第5階層データに対応する。生成された間引きデータd84は、符号化器124へ供給される。
【0009】
そして、これら5つの階層データについて隣接階層間データによる差分演算が行われる。先ず、第5階層においては、何らかの圧縮のための処理が符号化器124において、実行される。この符号化器124の符号化データd101は、出力端子137を介して伝送されると共に、復号器128へも供給される。この符号化データd101は、第5階層の出力データである。符号化データd101が供給された復号器128において、復号された復号データd96が補間回路132へ供給される。補間回路132では、供給された復号データd96に対して補間処理がなされ、第4階層データの補間値d92が生成され、減算器119へ供給される。この減算器119では、間引き回路114から供給される間引きデータd83と補間値d92との差分値が求められ、その差分値d88が符号化器123へ供給される。
【0010】
差分値d88が供給された符号化器123では、符号化器124と同様に圧縮処理が行われる。この符号化器123の符号化データd100は、出力端子136を介して伝送されると共に、復号器127へ供給される。この符号化データd100は、第4階層の出力データである。符号化器123から符号化データd100が供給された復号器127において、復号された復号データd95が補間回路131へ供給される。補間回路131では、供給された復号データd95に対して補間処理がなされ、第3階層データの補間値d91が生成され、減算器118へ供給される。この減算器118では、間引き回路113から供給される間引きデータd82と補間値d91との差分値が求められ、その差分値d87が符号化器122へ供給される。
【0011】
次に、差分値d87が供給された符号化器122では、上述した符号化器と同様な圧縮処理が行われる。この符号化器122の符号化データd99は、出力端子135を介して伝送されると共に、復号器126へ供給される。この符号化データd99は、第3階層の出力データである。符号化器122から符号化データd99が供給された復号器126において、復号された復号データd94が補間回路130へ供給される。補間回路130では、供給された復号データd94に対して補間処理がなされ、第2階層データの補間値d90が生成され、減算器117へ供給される。この減算器117では、間引き回路112から供給される間引きデータd81と補間値d90との差分値が求められ、その差分値d86が符号化器121へ供給される。
【0012】
そして、差分値d86が供給された符号化器121では、上述した符号化器と同様な圧縮処理が行われる。この符号化器121の符号化データd98は、出力端子135を介して伝送されると共に、復号器125へ供給される。この符号化データd98は、第2階層の出力データである。符号化器121から符号化データが供給された復号器125において、復号された復号データd93が補間回路129へ供給される。補間回路129では、供給された復号データd93に対して補間処理がなされ、第2階層データの補間値d89が生成され、減算器116へ供給される。この減算器116では、入力端子1から供給される入力画素データd0と補間値d89との差分値が求められ、その差分値d85が符号化器120へ供給される。また、差分値d85が供給された符号化器120では、上述した符号化器と同様な圧縮処理が行われる。この符号化器120の符号化データd97は、出力端子135を介して伝送される第1階層の出力データである。
【0013】
一方、図11のデコーダ構成例では、図10に示したエンコーダの逆処理が実行される。デコーダに入力される各階層データは、復号器において復号された後、補間フィルタにおいて各階層画像サイズまで補間され、復号された差分データを加算することで各階層画像を復元する。図10のエンコーダで生成された各階層データは、デコーダにおいて、d110〜d114として受信される。先ず、第5階層入力データd114は、復号器150においてエンコーダで施された符号化に対応する復号処理が行われ、通常の画像データd119となり、補間回路158および第5階層の出力となり、出力端子163から取り出される。
【0014】
補間回路158では、第5階層の画像データd119に対して補間処理が施され、第4階層データの補間値d123が生成される。第4階層入力データd113が復号器149において復元された画像データd118と補間値d123の加算が加算器154で行われる。加算器154から加算データd127が補間回路157へ供給されると共に、第4階層の出力となり、出力端子162から取り出される。そして、補間回路157では、上述と同様に第4階層の画像データd127に対して補間処理が施され、第3階層データの補間値d122が生成される。第3階層入力データd112が復号器148において復元された画像データd117と補間値d122の加算が加算器153で行われる。加算器153から加算データd126が補間回路156へ供給されると共に、第3階層の出力となり、出力端子161から取り出される。
【0015】
また、補間回路156では、上述と同様に第3階層の画像データd126に対して補間処理が施され、第2階層データの補間値d121が生成される。第2階層入力データd111が復号器147において復元された画像データd116と補間値d121の加算が加算器152で行われる。加算器152から加算データd125が補間回路155へ供給されると共に、第2階層の出力となり、出力端子160から取り出される。さらに、補間回路155では、上述と同様に第2階層の画像データd125に対して補間処理が施され、第1階層データの補間値d120が生成される。第1階層入力データd110が復号器146において復元された画像データd115と補間値d120の加算が加算器151で行われる。加算器151から加算データd124が第1階層の出力となり、出力端子159から取り出される。
【0016】
【発明が解決しようとする課題】
上述した従来の階層符号化では、対象画像を複数の解像度の異なる画像で表現するとが実現される反面、エンコーダ側において複数の画像に分解した上で符号化を施すため、符号化対象画素数が増加し圧縮効率が低下するという問題があった。
【0017】
従って、この発明の目的は、これらを鑑みて圧縮効率を低下させることなく、高品質の画質を保つことができるディジタル画像信号の階層符号化装置および方法を提供することにある。
【0018】
【課題を解決するための手段】
請求項1に記載の発明は、入力画像データが供給され、互いに異なる解像度を表現する、少なくとも第1および第2の階層データへ分割し、第1および第2の階層データを伝送するようにしたディジタル画像信号の階層符号化装置において、生成しようとする第2の階層データと空間的に対応する第1の階層のN個の画素データの平均値データにより、第2の階層データを形成する平均化手段と、第2の階層データから第1の階層データのN個の画素データをクラス分類適応予測を用いることにより予測する予測手段と、予測された第1の階層データのN個の画素データと第1の階層のN個の画素データとの差分値を符号化する符号化手段と、符号化された第1の階層のN個の画素データのうち(N−1)個の画素データと平均化手段からの第2の階層データの符号化出力とを伝送する出力手段と、を有し、少なくとも第2の階層データからクラス毎に最適な予測値を学習する際に、アクティビティーの小さい画素分布を学習の対象から除外することを特徴とするディジタル画像信号の階層符号化装置である。
請求項に記載の発明は、入力画像データが供給され、互いに異なる解像度を表現する、少なくとも第1および第2の階層データへ分割し、第1および第2の階層データを伝送するようにしたディジタル画像信号の階層符号化方法において、生成しようとする第2の階層データと空間的に対応する第1の階層のN個の画素データの平均値データにより、第2の階層データを形成する形成工程と、第2の階層データから第1の階層データのN個の画素データをクラス分類適応予測を用いることにより予測する予測工程と、予測された第1の階層データのN個の画素データと第1の階層のN個の画素データとの差分値を符号化する符号化工程と、符号化された第1の階層のN個の画素データのうち(N−1)個の画素データと平均値データにより形成される第2の階層データの符号化出力とを伝送する伝送工程と、を有し、少なくとも第2の階層データからクラス毎に最適な予測値を学習する際に、アクティビティーの小さい画素分布を学習の対象から除外することを特徴とするディジタル画像信号の階層符号化方法である。
【0019】
【作用】
クラス分類適応予測によって、上位階層から下位階層のデータを予測するので高精度の予測が可能である。その結果、差分値を小さくでき、効率の良い圧縮を行うことができる。さらに、平均値に対する差分で他の階層のデータを構成するので、一つの画素データまたは一つの差分データの伝送を省略しても、受信側でこれを復元することができる。従って、各階層のデータを伝送するにもかかわらず、伝送画素数が増加しない。また、デコーダ側で演算時間が短くなり、高速処理ができ、さらに、ハードウェアの規模が小さくて良い利点がある。
【0020】
【実施例】
以下、この発明のディジタル画像信号の階層符号化装置の一実施例について、図面を参照しながら説明する。先ず、階層間データに対し単純な算術式を用いることで、符号化対象画素数の増加を防止する一例を図1に示す。この図1は、一例として第1階層を最下位階層(原画)とし、第4階層を最上位階層とする4階層からなる階層間の模式図を示している。例えば、上位階層データ生成法として、空間的に対応する4画素の下位階層データの平均化を採用する場合、上位階層データをM、下位階層画素値をx0 、x1 、x2 、x3 とすると、伝送画素は、4画素のままで良い。
【0021】
すなわち、M、x0 、x1 、x2 を用いて、
3 =4・M−(x0 +x1 +x2 ) (1)
【0022】
という単純な算術式により非伝送画素x3 を容易に復元することが可能となる。各階層データは、下位階層の4画素平均により生成されている。そこで、例えば図中の斜線部のデータを伝送しなくとも、式(1)により全データを復元することが可能となる。
【0023】
次に、平均化による階層データの5階層の構成例を図2に示す。第1階層が入力画像の解像度レベルであるとする。この第1階層は、ブロックサイズ(1×1)のデータ構成からなる。第2階層データは、第1階層データの4画素平均により生成される。この例では、第1階層データX1 (0)〜X1 (3)の平均値により、第2階層データX2 (0)が生成される。X2 (0)に隣接する第2階層データX2 (1)〜X2 (3)も同様に第1階層データの4画素平均により生成される。この第2階層は、ブロックサイズ(1/2×1/2)のデータ構成からなる。さらに、第3階層データは、空間的に対応する第2階層データの4画素平均により生成される。上述と同様にこの第3階層は、ブロックサイズ(1/4×1/4)のデータ構成からなる。また、第4階層のデータも同様に第3階層のデータから制御され、そのデータ構成は、ブロックサイズ(1/8×1/8)からなる。最後に、最上位階層である第5階層データX5 (0)が、第4階層データX4 (0)〜X4 (3)の平均化により生成される。この第5階層のデータ構成は、ブロックサイズ(1/16×1/16)からなる。
【0024】
上述した符号化対象画素数の増加を防止した階層構造データに対し、上位階層データにクラス分類適応予測を適用することで、下位階層データを予測し、下位階層データとその予測値との差分を生成することで信号電力の削減を図る一実施例を図3に示すブロック図を用いて説明する。この図3は、階層符号化のエンコーダ側の構成例を示す。入力端子1を介して図2に示す第1階層データが入力画像データd0として平均化回路2および減算器6へ供給される。入力画素データd0は、平均化回路2において、図2に示した2画素×2画素ブロックによる1/4平均処理が実行され、階層データd1が生成される。この階層データd1は、図2に示す第2階層データに対応する。生成された階層データd1は、平均化回路3および減算器7へ供給される。
【0025】
階層データd1に対して、平均化回路3では、上述の平均化回路2と同様な処理が施され、階層データd2が生成される。この階層データd2は、第3階層データに対応する。生成された階層データd2は、平均化回路4および減算器8へ供給される。また、平均化回路4でも同様に階層データd2に対して上述の平均化回路2および3と同様な処理が施され、階層データd3が生成される。この階層データd3は、第4階層データに対応する。階層データd3は、平均化回路5および減算器9へ供給される。さらに、平均化回路5でも同様に階層データd3に対して上述の平均化回路2、3および4と同様な処理が施され、階層データd4が生成される。この階層データd4は、第5階層データに対応する。生成された階層データd4は、符号化器14へ供給される。
【0026】
そして、これら5つの階層データについて隣接階層間データによる差分演算が行われる。先ず、第5階層においては、何らかの圧縮のための処理が符号化器14において、実行される。この符号化器14の符号化データd21は、出力端子31を介して伝送されると共に、復号器18へも供給される。この符号化データd21は、第5階層のデータである。符号化データd21が供給された復号器18において、復号された復号データd16がクラス分類適応予測回路22へ供給される。クラス分類適応予測回路22では、復号データd16を使用して予測処理がなされ、第4階層データの予測値d12が生成され、減算器9へ供給される。この減算器9では、平均化回路4から供給される階層データd3と予測値d12との差分値が求められ、その差分値d8が符号化器13へ供給される。
【0027】
差分値d8が供給された符号化器13では、符号化器14と同様に圧縮処理が行われる。この符号化器13の符号化データは、演算器26および復号器17へ供給される。この演算器26では、4画素から1画素を間引く処理が行われる。演算器26から出力される第4階層データd20は、出力端子30を介して伝送される。符号化器13から符号化データが供給された復号器17において、復号された復号データd15がクラス分類適応予測回路21へ供給される。クラス分類適応予測回路21では、復号データd15を使用して予測処理がなされ、第3階層データの予測値d11が生成され、減算器8へ供給される。この減算器8では、平均化回路3から供給される階層データd2と予測値d11との差分値が求められ、その差分値d7が符号化器12へ供給される。
【0028】
次に、差分値d7が供給された符号化器12では、上述した符号化器と同様な圧縮処理が行われる。この符号化器12の符号化データは、演算器25および復号器16へ供給される。この演算器25では、4画素から1画素を間引く処理が行われる。演算器25から出力される第3階層データd19は、出力端子29を介して伝送される。符号化器12から符号化データが供給された復号器16において、復号された復号データd14がクラス分類適応予測回路20へ供給される。クラス分類適応予測回路20では、復号データd14を使用して予測処理がなされ、第2階層データの予測値d10が生成され、減算器7へ供給される。この減算器7では、平均化回路2から供給される階層データd1と予測値d10との差分値が求められ、その差分値d6が符号化器11へ供給される。
【0029】
そして、差分値d6が供給された符号化器11では、上述した符号化器と同様な圧縮処理が行われる。この符号化器11の符号化データは、演算器24および復号器15へ供給される。この演算器24では、4画素から1画素を間引く処理が行われる。演算器24から出力される第2階層データd18は、出力端子28を介して伝送される。符号化器11から符号化データが供給された復号器15において、復号された復号データd13がクラス分類適応予測回路19へ供給される。クラス分類適応予測回路19では、復号データd13を使用して予測処理がなされ、第2階層データの予測値d9が生成され、減算器6へ供給される。この減算器6では、入力端子1から供給される入力画素データd0と予測値d9との差分値が求められ、その差分値d5が符号化器10へ供給される。
【0030】
また、差分値d5が供給された符号化器10では、上述した符号化器と同様な圧縮処理が行われる。この符号化器10の符号化データは、演算器23へ供給される。この演算器23では、4画素から1画素を間引く処理が行われる。演算器23から出力される第1階層データd17は、出力端子27を介して伝送される。このように、符号化対象画素数の増加を防止した階層符号化において、クラス分類適応予測が適用される。
【0031】
次に、この発明の一実施例の階層符号化のデコーダ側の構成例を図4に示す。図3に示すエンコーダで生成された各階層データd17〜d21は、d30〜d34として受信される。先ず、第5階層入力データd34は、復号器50においてエンコーダで施された符号化に対応する復号処理が行われ、画像データd39となり、クラス分類適応予測回路62および演算器58へ供給される。また画像データd39は、第5階層の出力として、出力端子67から取り出される。
【0032】
クラス分類適応予測回路62では、第4階層の画像データに対してクラス分類適応予測が施され、第4階層データの予測値d47が生成される。復号器49において復号されたデータd38と予測値d47が加算器54で加算される。加算器54から復号画像データd43が演算器58へ供給され、演算器58では、式(1)の演算が実行され、復号器50から供給された画像データd39と画像データd43から第4階層の全画素値が復元される。この演算器58において、復元された全画素値は、画像データd51として、クラス分類適応予測回路61および演算器57へ供給される。また画像データd51は、第4階層の出力として、出力端子66から取り出される。
【0033】
そして、クラス分類適応予測回路61では、上述と同様に第3階層の画像データに対してクラス分類適応予測が施され、第3階層データの予測値d46が生成される。復号器48において復号されたデータd37と予測値d46の加算が加算器53で行われる。加算器53から画像データd42が演算器57へ供給され、演算器57では、式(1)の演算が実行され、演算器58から供給された画素データd51と画像データd42から第3階層の全画素値が復元される。この演算器57において、復元された全画素値は、画像データd50として、クラス分類適応予測回路60および演算器56へ供給される。また画像データd50は、第3階層の出力として、出力端子65から取り出される。
【0034】
また、クラス分類適応予測回路60では、上述と同様に第2階層の画像データに対してクラス分類適応予測が施され、第2階層データの予測値d45が生成される。復号器47において復号されたデータd36と予測値d45の加算が加算器52で行われる。加算器52から画像データd41が演算器56へ供給され、演算器56では、式(1)の演算が実行され、演算器57から供給された画像データd50と画像データd41から第2階層の全画素値が復元される。この演算器56において、復元された全画素値は、画像データd49として、クラス分類適応予測回路59および演算器55へ供給される。また画像データd49は、第2階層の出力として、出力端子64から取り出される。
【0035】
さらに、クラス分類適応予測回路59では、上述と同様に第1階層の画像データに対してクラス分類適応予測が施され、第1階層データの予測値d44が生成される。復号器46において復号されたデータd35と予測値d44の加算が加算器51で行われる。加算器51から画像データd40が演算器55へ供給され、演算器55では、式(1)の演算が実行され、演算器56から供給された画像データd49と画像データd40から第1階層の全画素値が復元される。この演算器55において、復元された全画素値は、画像データd48として、第1階層の出力として、出力端子63から取り出される。こうして、符号化対象画素数の増加を防止した階層符号化において、クラス分類適応予測を導入することで符号化効率の向上を図ることが可能となる。
【0036】
さて、ここで符号化効率の向上のために用いられたクラス分類適応予測について説明を行う。クラス分類適応予測とは、入力信号の特徴に基づき入力信号をいくつかのクラスに分類し、予め用意されたクラス毎の適切な適応予測を実行する手法である。
【0037】
先ず、クラス分類法の例としては、入力信号(8ビットPCMデータ)に対しクラス生成タップを設定し、入力信号の波形特性によりクラスを生成する手法が挙げられる。信号波形のクラス生成法としては次の例などが提案されている。
1)PCMデータを直接使用する方法
2)ADRCを適用する方法
3)DPCMを適用する方法
4)BTCを適用する方法
5)VQを適用する方法
6)DCT(アダマール変換)を適用する方法
【0038】
PCMデータを直接使用する場合、クラス分類用に8ビットデータを7画素使用すると、256という膨大な数のクラスに分類される。信号波形の特徴を掴むという意味では理想的ではあるが、回路上の負担は大きく、実用上は問題である。そこで実際はADRC(Adaptive Dynamic Range Coding )などを適用しクラス数の削減を図る。このADRC、例えば特開昭61−144989号公報に記録されているものは、信号圧縮技術として開発された手法であるが、クラス表現に使用することにも適している。基本的には再量子化処理であり、式(2)で示される。
【0039】
【数1】

Figure 0003830549
但し、ci :ADRCコード
i :上位階層画素値
MIN:近傍領域内最小値
DR:近傍領域内ダイナミックレンジ
k:再量子化ビット数
【0040】
注目画素近傍の数画素に対し式(2)で定義されるADRCを用いて生成されるADRCコードよりクラス分類を行う。例えば7タップデータに対し1ビットADRCを適用すると、7画素のデータから定義されるダイナミックレンジに基づき、7画素中の最小値を除去した上で各タップの画素値を適応的に1ビット量子化するので、128クラスに削減することが可能となる。9タップデータに対しても512クラスで分類することが可能となる。他に圧縮技術として一般的な、DPCM(予測符号化)、BTC(Blok Truncation Coding)、VQ(Vector Quantization )、DCT(Discrete Cosine Transform )などの周波数領域クラスが挙げられる。
【0041】
また、クラス分類の性能を更に向上させるため、上位階層データのアクティビティーも考慮した上でクラス分類が行われることがある。アクティビティーの判定法の例としては、クラス分類法にADRCを使用した場合、ダイナミックレンジを用いることが多い。また、DPCMならば差分絶対値和、BTCのときは標準偏差の絶対値などが用いられる。また、上記の学習過程において、アクティビティーの小さい学習分布は学習対象からはずす。この理由は、アクティビティーの小さい部分はノイズの影響が大きく、本来のクラスの予測値から外れることが多い。それを学習に入れると予測精度が低下する。これを避けるため、学習においては、アクティビティーの小さい画素分布を除外する。こうして分類されたクラス毎に適応予測を実行するが、適応予測としては予め学習された予測係数を用いた予測演算を行う方式と、重心法により予測値を学習しておく方式が提案されている。
【0042】
次に、予め学習により生成されたクラス毎の予測係数を用いた予測演算を行う適応予測について説明する。図5A、Bに示すように、下位階層の4画素x0 〜x3 から上位階層データy4 が生成される場合、上位階層データより下位階層データを予測する。例えば、上位階層データy0 〜y8 の9画素により予測タップを構成し、下位階層データx´を予測する。このときの予測式の一例を式(3)に示す。
【0043】
【数2】
Figure 0003830549
但し、x´:下位階層予測値
i :上位階層予測タップ画素値
i :予測係数
【0044】
例えば、1ビットADRCを図5Aに示すy0 〜y8 の9画素に対して施し512クラスに分類した場合、各クラス毎に生成された予測係数と上位階層データとの積和演算により下位階層データを予測する。この例においては、図5Bに示すように、x0 〜x3 の4画素がy0 〜y8 を使用して予測され、同じクラスであってもx0 〜x3 のそれぞれについて、独立に4種類の予測係数が生成される。
【0045】
ここで、クラス分類適応予測の一例の回路構成を図5Cに示す。71で示す入力端子から入力信号INがクラス分類部72および予測演算部74へ供給される。クラス分類部72においては、上述のようなクラス分類処理に基づき、入力信号INに対するクラスd60が生成される。このクラスd60をアドレスとして予測係数ROM73より予測係数d61が予測演算部74に供給される。予測演算部74において、入力信号INと予測係数d61を用いて式(3)の予測演算が実行され、出力端子75を介して演算結果、すなわち予測値が取り出される。
【0046】
次に、上述した予測係数は、予め学習により生成しておくが、その学習方法について説明する。式(3)の線形一次結合モデルに基づく予測係数を最小自乗法により生成する一例を示す。最小自乗法は次のように適用される。一般化した例として、Xを入力データ、Wを予測係数、Yを予測値として次の式を考える。
観測方程式:XW=Y (4)
【数3】
Figure 0003830549
【0047】
上述の観測方程式により収集されたデータに最小自乗法を適用する。式(3)の例においては、n=9、mが学習データ数となる。式(4)の観測方程式をもとに、式(6)の残差方程式を考える。
残差方程式:
【数4】
Figure 0003830549
【0048】
式(6)の残差方程式から、各wi の最確値は、
【数5】
Figure 0003830549
を最小にする条件が成り立つ場合と考えられる。すなわち、式(7)の条件を考慮すれば良いわけである。
【0049】
【数6】
Figure 0003830549
式(7)のiに基づく条件を考え、これを満たすw1 、w2 、‥‥、wn を算出すれば良い。そこで、残差方程式の式(6)から式(8)が得られる。
【0050】
【数7】
Figure 0003830549
式(7)と式(8)により式(9)が得られる。
【0051】
【数8】
Figure 0003830549
そして、式(6)と式(9)から正規方程式として式(10)が得られる。
【0052】
【数9】
Figure 0003830549
【0053】
式(10)の正規方程式は、未知数の数nと同じ数の方程式を立てることが可能であるので、各wi の最確値を求めることができる。そして、掃き出し法(Gauss-Jordanの消去法)を用いて連立方程式を解く。
【0054】
ここで、この最小自乗法を用いた学習をソフトウェアで行う一例を図6のフローチャートに示す。先ず、ステップ81の学習データ形成では、入力データに対しクラス分類が行われる。ステップ83のクラス決定において、この例では9画素のデータ変化が検出される。ステップ84の正規方程式生成では、各クラス毎に式(10)に示す正規方程式を生成する。このとき一般に、ノイズの影響を排除するため、入力データ変化のアクティビティーが小さいものを学習対象から除外する。この学習プロセスにおいて、多くの学習データが登録された正規方程式が生成される。学習対象データが終了するまで、正規方程式生成プロセスが繰り返される。
【0055】
すなわち、ステップ82のデータ終了では、学習対象データ数の終了が確認されるまで上述のプロセスが繰り返される。そして、学習対象データ数の終了が確認された場合、このステップ82(データ終了)からステップ85の予測係数決定へ制御が移る。ステップ85(予測係数決定)では、多くの学習データより生成された、クラス毎の式(10)の正規方程式が解かれる。その連立方程式の解法として、この一例では、上述した掃き出し法が用いられる。こうして得られた予測係数は、ステップ86の予測係数登録において、クラス別にアドレス分割されたROM等の記憶部に登録される。このような学習過程により、クラス分類適応予測の予測係数が生成される。
【0056】
次に、クラス分類適応予測の適応処理法として、重心法により予測値を学習するときの手法の一例について説明する。上述のように上位階層データの信号の特徴に基づき分類されたクラス毎に、予め最適補間値を重心法により生成する。例えば、上述したように、図5Aの9画素に対して、1ビットADRCを施すことにより、512クラスに分類する場合を考える。図7の学習フローチャートに沿って手順を示す。ステップ91の初期化では、先ず、全てのクラスの度数カウンタN(*)と、全てのクラスのデータテーブルE(*)を初期化する。ここで、一例として、あるクラスをC0とすると、対応する度数カウンタは、N(C0)、対応するデータテーブルはE(C0)と定義する。また、*はクラスの全てを示す。
【0057】
次に、ステップ92のクラス検出において、学習対象画素近傍データからクラスCを決定する。図5Aに示すように上位階層の9画素がクラス生成用に使用されるとする。このクラス分類手法としては、上述したようにADRCの他にも、PCM、DPCM、BTC、VQ、DCTなどの表現法が考えられる。また、クラス分類対象データより構成されるブロックのアクティビティーを考慮する場合は、クラス数をアクティビティーによる分類の種類だけ増やしておく。そして、ステップ93のデータ検出では、この学習対象となる下位階層画素値xが検出され、ステップ94のクラス別データ加算では、クラスC毎に検出された下位階層画素値xを加算する。すなわち、クラスCのデータテーブルE(*)を生成する。
【0058】
そして、ステップ95のクラス別度数加算では、クラスCの学習画素の度数カウンタN(C)を+1インクリメントする。ステップ96の全データ終了では、これらの処理を学習対象画素について繰り返し実行し、最終的な全てのクラスの度数カウンタN(*)と、対応する全てのクラスのデータテーブルE(*)を生成する。全データが終了していれば、ステップ97のクラス別平均値算出へ制御が移る。次に、ステップ97(クラス別平均値算出)では、各クラスのデータテーブルE(*)の内容であるデータ積算値を、対応クラスの度数カウンタN(*)の度数で、除算を実行することで各クラスの平均値を算出する。この値が重心法による各クラスの最適予測値となる。重心法という名称の由来は、学習対象画素値の分布の平均をとることによる。最終的に算出された平均値は、ステップ98のクラス別平均値登録において、クラス別にアドレス分割されたROM等の記憶部に登録される。上述のように学習過程において、ノイズの影響を排除するため、アクティビティーの小さい画素分布は学習対象からはずすことも考えられる。
【0059】
重心法に基づく学習により生成された最適予測値を用い、クラス分類適応予測により予測処理を実行する一例の回路構成を図8に示す。入力端子101を介して供給される上位階層データに対し、クラス分類部102では、クラス分類が行われる。このクラス分類に基づいて重心法により予め生成されたクラス毎の最適予測値が保持されているROM103から予測値が読み出される。このとき、ROM103のアドレスは、各クラスに対応している。読み出された予測値は、出力端子104から取り出される。
【0060】
ここで、重心法に基づく学習により生成された最適予測値を用い、クラス分類適応予測により予測処理を実行する他の例の回路構成を図9に示す。入力端子105を介して供給される上位階層データd70に対し、クラス分類部102においてクラス分類が行われる。このクラスは、d71として後段に伝送される。重心法により予め生成されたクラス毎の最適予測値は、最適予測値ROM107にクラス別に登録されている。この最適予測値ROM107のアドレスは、各クラスに対応させる。
【0061】
上述の図8の構成例においては、上位階層データのアクティビティーを考慮していないが、この例では、上位階層データのアクティビティーを考慮した上でクラス分類が行われる。そこで、アクティビティークラス分類部106において、入力された上位階層データd70のブロック毎のアクティビティーに基づくクラス分類を行う。アクティビティーの具体的なものは、上述したようにブロックのダイナミックレンジ、ブロックデータの標準偏差の絶対値、ブロックデータの平均値に対する各画素の値の差分の絶対値等である。アクティビティーにより画像の性質が異なる場合があるので、このようなアクティビティーをクラス分類のパラメータとして使用することによって、クラス分類をより高精度とすることができ、また、クラス分類の自由度を増すことができる。
【0062】
クラス分類部102およびアクティビティークラス分類部107によるクラス分類の動作は、先ず、アクティビティークラス分類部107によって、ブロックのアクティビティーにより複数のクラスに分け、そのクラス毎にクラス分類部102によるクラス分けを行う。クラス分類部102およびアクティビティークラス分類部107からクラスd71およびd72が最適予測値ROM107に対してアドレスとして供給され、最適予測値ROM107から予測下位階層データd73が発生し、出力端子108から取り出される。以上の処理により重心法を用いたクラス分類適応予測が実行される。
【0063】
上述の実施例の具体的な応用例としては、ハイビジョンテレビ静止画像のデータベースを構成した場合、最下位階層データ、すなわち第1階層(原画像)データがハイビジョン解像度の再生データであり、第2階層データが標準解像度の再生データとなり、最上位階層データ、すなわち第5階層データは、高速検索用の低解像度の再生データとなる。
【0064】
なお、情報量の削減を目的として圧縮符号化を採用する場合には、復号化装置により得られた再生画像データは、入力された原画像データと必ずしも一致しないが、視覚的に劣化を検知できない程度にすることが可能である。また、平均値を形成するのに単純平均値に限らず、加重平均値を形成しても良い。
【0065】
さらに、この発明は、量子化ステップ幅を制御する等によって、発生情報量を制御するバッファリングの構成を備える階層符号化システムに対しても適用することができる。
【0066】
【発明の効果】
この発明に依れば、複数の解像度を有する階層符号化を実現することが容易にできる。また、この発明に依れば、圧縮効率の低下しない階層符号化を実現することが容易にできる。さらに、この発明に依れば、画質劣化の少ない階層符号化を実現することができる。
【0067】
そして、この発明に依れば、従来単に上位階層データに対し、周波数フィルタで画素補間を行い、下位階層データとの差分値を生成していたが、クラス分類適応予測による下位階層データの予測を行うことにより大幅な信号電力の削減を実現することができる。
【図面の簡単な説明】
【図1】この発明に係る階層符号化の一例の説明に用いる略線図である。
【図2】この発明に係る階層符号化の一構成例の説明に用いる略線図である。
【図3】この発明のクラス分類適応予測が使用された階層符号化のエンコード側の一例を示すブロック図である。
【図4】この発明のクラス分類適応予測が使用された階層符号化のデコード側の一例を示すブロック図である。
【図5】この発明に係る予測係数方式を使用するクラス分類適応予測の一例の説明に用いる略線図である。
【図6】この発明に係るクラス分類適応予測の予測係数の係数値を学習する一例を示すフローチャートである。
【図7】この発明に係るクラス分類適応予測の重心法の最適予測値を学習する一例を示すフローチャートである。
【図8】この発明に係る重心法方式を使用するクラス分類適応予測の一例の説明に用いるブロック図である。
【図9】この発明に係る重心法方式において、アクティビティーを使用するクラス分類適応予測の一例の説明に用いるブロック図である。
【図10】従来の階層符号化のエンコード側の一例を示すブロック図である。
【図11】従来の階層符号化のデコード側の一例を示すブロック図である。
【符号の説明】
2、3、4、5 平均化回路
10、11、12、13、14 符号化器
15、16、17、18 復号器
19、20、21、22 クラス分類適応予測回路
23、24、25、26 演算器[0001]
[Industrial application fields]
The present invention relates to a digital image signal hierarchical encoding device capable of preventing memory waste in a digital image signal hierarchical encoding device. And methods About.
[0002]
[Prior art]
Conventionally, as examples of high-efficiency encoding and decoding, BTC (Block Truncation Coding) described in JP-A-54-74623 and the present applicant have proposed in Japanese Patent Application No. 4-155719. There is adaptive classification classification, and examples of hierarchical coding include pyramid coding proposed in Japanese Patent Laid-Open No. 63-306789.
[0003]
In this pyramid coding, a high resolution image signal is defined as a first layer (or level), a second layer image signal having a lower resolution, and a third layer having a lower resolution than the second layer image signal. Is an encoding for forming the image signal. According to this pyramid coding, image signals of a plurality of layers are transmitted through one transmission path (communication path, recording / reproduction process), and on the receiving side, any of the television monitors respectively corresponding to the plurality of layers is transmitted. The transmission image data can be reproduced by one of them.
[0004]
More specifically, high-resolution video signals such as standard-definition video signals and high-definition signals, computer display image data, low-resolution video signals for high-speed image database search, etc. exist as video signals of different resolutions. . In addition to high and low resolution, it is possible to apply such hierarchical encoding to image reduction.
[0005]
A conventional encoder configuration example of pyramid coding is shown in FIG. 10, and a decoder configuration example is shown in FIG. In this example, a five-level hierarchical structure is used. The basic concept of processing is to decompose the input image signal into a plurality of hierarchical image data having different resolutions by using a thinning filter and an interpolation filter on the encoder side in FIG. By applying a thinning filter to the input image in multiple stages, a reduced image with a small number of pixels is sequentially generated.
[0006]
Next, an interpolation filter is applied to each reduced image to interpolate to each screen size before reduction, and difference data is generated from each layer image and the interpolated image for signal power reduction. For example, the area ratio is sequentially configured as 1, 1/4, 1/16, 1/64, 1/256 in five-layer coding. The differential signal is subjected to compression processing in the encoder, and becomes an encoder output of each layer.
[0007]
Here, a detailed description on the encoder side of the conventional hierarchical coding apparatus will be given with reference to the block diagram of FIG. The original image data d80 is supplied to the thinning circuit 112 and the subtractor 116 via the input terminal 111. In the thinning circuit 112, the supplied original image data d0 is subjected to pixel thinning processing by 1/2 in the horizontal direction and 1/2 in the vertical direction, and thinning data d81 is generated. This thinned data d81 corresponds to the second hierarchical data shown in FIG. The generated thinning data d81 is supplied to the thinning circuit 113 and the subtractor 117.
[0008]
The thinning circuit 113 performs the same processing as the thinning circuit 112 described above on the thinning data d81 to generate thinning data d82. This thinned data d82 corresponds to the third layer data. The generated thinning data d82 is supplied to the thinning circuit 114 and the subtractor 118. Similarly, in the thinning circuit 114, the thinning data d82 is subjected to the same processing as the above thinning circuits 112 and 113, and thinning data d83 is generated. This thinned data d83 corresponds to the fourth layer data. The generated thinning data d83 is supplied to the thinning circuit 115 and the subtractor 119. Further, in the thinning circuit 115, the thinning data d83 is similarly subjected to the same processing as the thinning circuits 112, 113, and 114, and the thinning data d84 is generated. This thinned data d84 corresponds to the fifth layer data. The generated decimation data d84 is supplied to the encoder 124.
[0009]
Then, a difference calculation is performed on these five hierarchical data using data between adjacent hierarchical layers. First, in the fifth layer, some processing for compression is executed in the encoder 124. The encoded data d101 of the encoder 124 is transmitted via the output terminal 137 and also supplied to the decoder 128. The encoded data d101 is the fifth layer output data. In the decoder 128 to which the encoded data d101 is supplied, the decoded data d96 is supplied to the interpolation circuit 132. In the interpolation circuit 132, interpolation processing is performed on the supplied decoded data d96, and an interpolation value d92 of the fourth layer data is generated and supplied to the subtractor 119. The subtractor 119 obtains a difference value between the thinned data d83 supplied from the thinning circuit 114 and the interpolation value d92, and supplies the difference value d88 to the encoder 123.
[0010]
In the encoder 123 to which the difference value d88 is supplied, the compression process is performed in the same manner as the encoder 124. The encoded data d100 of the encoder 123 is transmitted via the output terminal 136 and supplied to the decoder 127. This encoded data d100 is output data of the fourth layer. In the decoder 127 to which the encoded data d100 is supplied from the encoder 123, the decoded data d95 is supplied to the interpolation circuit 131. In the interpolation circuit 131, interpolation processing is performed on the supplied decoded data d95, and an interpolation value d91 of the third layer data is generated and supplied to the subtractor 118. In the subtractor 118, a difference value between the thinned data d 82 supplied from the thinning circuit 113 and the interpolation value d 91 is obtained, and the difference value d 87 is supplied to the encoder 122.
[0011]
Next, in the encoder 122 to which the difference value d87 is supplied, the same compression process as that of the encoder described above is performed. The encoded data d99 of the encoder 122 is transmitted via the output terminal 135 and supplied to the decoder 126. This encoded data d99 is the output data of the third layer. In the decoder 126 to which the encoded data d99 is supplied from the encoder 122, the decoded data d94 is supplied to the interpolation circuit 130. In the interpolation circuit 130, interpolation processing is performed on the supplied decoded data d94, and an interpolation value d90 of the second layer data is generated and supplied to the subtractor 117. In the subtractor 117, a difference value between the thinned data d 81 supplied from the thinning circuit 112 and the interpolation value d 90 is obtained, and the difference value d 86 is supplied to the encoder 121.
[0012]
Then, the encoder 121 to which the difference value d86 is supplied performs the same compression process as the above-described encoder. The encoded data d98 of the encoder 121 is transmitted via the output terminal 135 and supplied to the decoder 125. The encoded data d98 is output data of the second hierarchy. In the decoder 125 supplied with the encoded data from the encoder 121, the decoded data d93 is supplied to the interpolation circuit 129. In the interpolation circuit 129, interpolation processing is performed on the supplied decoded data d93, and an interpolation value d89 of the second layer data is generated and supplied to the subtractor 116. In the subtractor 116, a difference value between the input pixel data d 0 supplied from the input terminal 1 and the interpolation value d 89 is obtained, and the difference value d 85 is supplied to the encoder 120. In addition, the encoder 120 to which the difference value d85 is supplied performs a compression process similar to that of the encoder described above. The encoded data d97 of the encoder 120 is the first layer output data transmitted via the output terminal 135.
[0013]
On the other hand, in the decoder configuration example of FIG. 11, the reverse processing of the encoder shown in FIG. 10 is executed. Each hierarchical data input to the decoder is decoded by a decoder, then interpolated to each hierarchical image size by an interpolation filter, and each hierarchical image is restored by adding the decoded difference data. Each hierarchical data generated by the encoder of FIG. 10 is received as d110 to d114 at the decoder. First, the fifth layer input data d114 is subjected to a decoding process corresponding to the encoding performed by the encoder in the decoder 150, becomes normal image data d119, becomes an output of the interpolation circuit 158 and the fifth layer, an output terminal 163 is taken out.
[0014]
In the interpolation circuit 158, interpolation processing is performed on the image data d119 of the fifth layer, and an interpolation value d123 of the fourth layer data is generated. The adder 154 adds the image data d118 obtained by restoring the fourth layer input data d113 in the decoder 149 and the interpolation value d123. The addition data d127 is supplied from the adder 154 to the interpolation circuit 157, becomes an output of the fourth layer, and is taken out from the output terminal 162. Then, in the interpolation circuit 157, the interpolation processing is performed on the image data d127 of the fourth hierarchy similarly to the above, and the interpolation value d122 of the third hierarchy data is generated. The adder 153 adds the image data d117 obtained by restoring the third layer input data d112 in the decoder 148 and the interpolation value d122. The addition data d126 is supplied from the adder 153 to the interpolation circuit 156, becomes an output of the third hierarchy, and is taken out from the output terminal 161.
[0015]
Further, the interpolation circuit 156 performs the interpolation process on the third layer image data d126 in the same manner as described above, and generates the interpolation value d121 of the second layer data. The adder 152 performs addition of the image data d116 obtained by restoring the second layer input data d111 in the decoder 147 and the interpolation value d121. The addition data d125 is supplied from the adder 152 to the interpolation circuit 155 and becomes an output of the second hierarchy, and is taken out from the output terminal 160. Further, in the interpolation circuit 155, the interpolation processing is performed on the second layer image data d125 in the same manner as described above, and the interpolation value d120 of the first layer data is generated. The adder 151 adds the image data d115 obtained by restoring the first layer input data d110 in the decoder 146 and the interpolation value d120. The addition data d124 from the adder 151 becomes the output of the first layer and is taken out from the output terminal 159.
[0016]
[Problems to be solved by the invention]
In the conventional hierarchical encoding described above, the target image is expressed as a plurality of images having different resolutions, but on the encoder side, the encoding is performed after being decomposed into a plurality of images. There was a problem that the compression efficiency increased and the compression efficiency decreased.
[0017]
Accordingly, an object of the present invention is to provide a digital image signal hierarchical coding apparatus capable of maintaining high quality image quality without lowering the compression efficiency in view of the above. And methods Is to provide.
[0018]
[Means for Solving the Problems]
According to the first aspect of the present invention, input image data is supplied and divided into at least first and second hierarchical data expressing different resolutions, and the first and second hierarchical data are transmitted. In the hierarchical coding apparatus for digital image signals, an average for forming second layer data by means of average value data of N pixel data of the first layer spatially corresponding to the second layer data to be generated Means for predicting N pixel data of the first hierarchical data from the second hierarchical data by using class classification adaptive prediction, and N pixel data of the predicted first hierarchical data And encoding means for encoding the difference value between the N pixel data of the first hierarchy, (N-1) pixel data among the encoded N pixel data of the first hierarchy, From averaging means And output means for transmitting the encoded output of the second hierarchy data And, when learning the optimal prediction value for each class from at least the second hierarchical data, the pixel distribution with a small activity is excluded from the learning target. This is a hierarchical encoding apparatus for digital image signals.
Claim 5 According to the invention, the digital image signal is supplied with input image data, is divided into at least first and second hierarchical data expressing different resolutions, and transmits the first and second hierarchical data. In the hierarchical encoding method, the second hierarchical data is formed by the average value data of the N pixel data of the first hierarchy spatially corresponding to the second hierarchical data to be generated. And forming process Predicting N pixel data of the first hierarchy data from the second hierarchy data by using class classification adaptive prediction Prediction process to The difference value between the N pixel data of the predicted first layer data and the N pixel data of the first layer is encoded Encoding process The encoded output of the second layer data formed by (N-1) pixel data and the average value data among the N pixel data of the encoded first layer is transmitted. A pixel distribution having a low activity is excluded from the learning target when learning an optimal predicted value for each class from at least the second hierarchical data. This is a hierarchical coding method for digital image signals.
[0019]
[Action]
Since the classification classification adaptive prediction predicts the data from the upper layer to the lower layer, high-precision prediction is possible. As a result, the difference value can be reduced and efficient compression can be performed. Furthermore, since the data of the other layer is constituted by the difference with respect to the average value, even if transmission of one pixel data or one difference data is omitted, this can be restored on the receiving side. Therefore, the number of transmission pixels does not increase in spite of transmitting data of each layer. In addition, there is an advantage that the calculation time is shortened on the decoder side, high-speed processing can be performed, and the hardware scale is small.
[0020]
【Example】
Hereinafter, an embodiment of a digital image signal hierarchical encoding apparatus according to the present invention will be described with reference to the drawings. First, FIG. 1 shows an example in which an increase in the number of encoding target pixels is prevented by using a simple arithmetic expression for inter-layer data. As an example, FIG. 1 shows a schematic diagram between four hierarchies in which the first hierarchy is the lowest hierarchy (original picture) and the fourth hierarchy is the highest hierarchy. For example, in the case of adopting averaging of lower hierarchical data of four pixels corresponding spatially as the upper hierarchical data generation method, the upper hierarchical data is M and the lower hierarchical pixel value is x 0 , X 1 , X 2 , X Three Then, the number of transmission pixels may be four pixels.
[0021]
That is, M, x 0 , X 1 , X 2 Using,
x Three = 4 · M- (x 0 + X 1 + X 2 (1)
[0022]
Non-transmission pixel x by a simple arithmetic expression Three Can be easily restored. Each layer data is generated by averaging four pixels in the lower layer. Therefore, for example, it is possible to restore all data according to equation (1) without transmitting the data in the shaded area in the figure.
[0023]
Next, FIG. 2 shows a configuration example of five layers of hierarchical data by averaging. Assume that the first hierarchy is the resolution level of the input image. This first layer is composed of a data structure of a block size (1 × 1). The second layer data is generated by averaging four pixels of the first layer data. In this example, the first hierarchy data X 1 (0) to X 1 Based on the average value of (3), the second hierarchical data X 2 (0) is generated. X 2 Second layer data X adjacent to (0) 2 (1) to X 2 Similarly, (3) is generated by averaging four pixels of the first layer data. The second hierarchy has a data configuration of block size (1/2 × 1/2). Further, the third layer data is generated by averaging four pixels of the second layer data corresponding spatially. Similar to the above, the third hierarchy has a data structure of a block size (1/4 × 1/4). Similarly, the data of the fourth layer is controlled from the data of the third layer, and the data structure is composed of a block size (1/8 × 1/8). Finally, the fifth hierarchy data X which is the highest hierarchy Five (0) is the fourth hierarchical data X Four (0) to X Four Generated by averaging (3). The data structure of the fifth layer is composed of a block size (1/16 × 1/16).
[0024]
By applying the class classification adaptive prediction to the upper layer data for the hierarchical structure data that prevents the increase in the number of encoding target pixels described above, the lower layer data is predicted, and the difference between the lower layer data and the predicted value is calculated. An embodiment for reducing the signal power by generating will be described with reference to the block diagram shown in FIG. FIG. 3 shows a configuration example on the encoder side of hierarchical encoding. The first hierarchical data shown in FIG. 2 is supplied to the averaging circuit 2 and the subtractor 6 as input image data d0 through the input terminal 1. In the averaging circuit 2, the input pixel data d0 is subjected to 1/4 averaging processing by the 2 pixel × 2 pixel block shown in FIG. 2 to generate hierarchical data d1. This hierarchical data d1 corresponds to the second hierarchical data shown in FIG. The generated hierarchical data d1 is supplied to the averaging circuit 3 and the subtracter 7.
[0025]
The averaging circuit 3 performs the same processing as the above-described averaging circuit 2 on the hierarchical data d1, and generates hierarchical data d2. This hierarchical data d2 corresponds to the third hierarchical data. The generated hierarchical data d2 is supplied to the averaging circuit 4 and the subtracter 8. Similarly, the averaging circuit 4 performs the same processing as the above-described averaging circuits 2 and 3 on the hierarchical data d2 to generate hierarchical data d3. This hierarchical data d3 corresponds to the fourth hierarchical data. The hierarchical data d3 is supplied to the averaging circuit 5 and the subtracter 9. Further, the averaging circuit 5 similarly performs the same processing as the above-described averaging circuits 2, 3 and 4 on the hierarchical data d3 to generate hierarchical data d4. This hierarchical data d4 corresponds to the fifth hierarchical data. The generated hierarchical data d4 is supplied to the encoder 14.
[0026]
Then, a difference calculation is performed on these five hierarchical data using data between adjacent hierarchical layers. First, in the fifth layer, some processing for compression is executed in the encoder 14. The encoded data d21 of the encoder 14 is transmitted via the output terminal 31 and also supplied to the decoder 18. The encoded data d21 is the fifth layer data. In the decoder 18 supplied with the encoded data d21, the decoded data d16 is supplied to the class classification adaptive prediction circuit 22. In the class classification adaptive prediction circuit 22, prediction processing is performed using the decoded data d <b> 16, and the predicted value d <b> 12 of the fourth layer data is generated and supplied to the subtracter 9. In the subtracter 9, a difference value between the hierarchical data d3 supplied from the averaging circuit 4 and the predicted value d12 is obtained, and the difference value d8 is supplied to the encoder 13.
[0027]
In the encoder 13 supplied with the difference value d8, the compression process is performed in the same manner as the encoder 14. The encoded data of the encoder 13 is supplied to the calculator 26 and the decoder 17. In this calculator 26, a process of thinning out one pixel from four pixels is performed. The fourth layer data d20 output from the computing unit 26 is transmitted via the output terminal 30. In the decoder 17 to which the encoded data is supplied from the encoder 13, the decoded data d <b> 15 is supplied to the class classification adaptive prediction circuit 21. In the class classification adaptive prediction circuit 21, prediction processing is performed using the decoded data d <b> 15, and the predicted value d <b> 11 of the third layer data is generated and supplied to the subtracter 8. In the subtracter 8, a difference value between the hierarchical data d2 supplied from the averaging circuit 3 and the predicted value d11 is obtained, and the difference value d7 is supplied to the encoder 12.
[0028]
Next, in the encoder 12 to which the difference value d7 is supplied, the same compression process as that of the encoder described above is performed. The encoded data of the encoder 12 is supplied to the arithmetic unit 25 and the decoder 16. In this calculator 25, a process of thinning out one pixel from four pixels is performed. The third layer data d19 output from the calculator 25 is transmitted via the output terminal 29. In the decoder 16 to which the encoded data is supplied from the encoder 12, the decoded data d <b> 14 is supplied to the class classification adaptive prediction circuit 20. In the class classification adaptive prediction circuit 20, prediction processing is performed using the decoded data d <b> 14, and the predicted value d <b> 10 of the second layer data is generated and supplied to the subtracter 7. In the subtracter 7, a difference value between the hierarchical data d 1 supplied from the averaging circuit 2 and the predicted value d 10 is obtained, and the difference value d 6 is supplied to the encoder 11.
[0029]
Then, in the encoder 11 to which the difference value d6 is supplied, the same compression process as that of the encoder described above is performed. The encoded data of the encoder 11 is supplied to the arithmetic unit 24 and the decoder 15. In this calculator 24, a process of thinning out one pixel from four pixels is performed. The second layer data d18 output from the arithmetic unit 24 is transmitted via the output terminal 28. In the decoder 15 supplied with the encoded data from the encoder 11, the decoded data d <b> 13 is supplied to the class classification adaptive prediction circuit 19. In the class classification adaptive prediction circuit 19, prediction processing is performed using the decoded data d <b> 13, and the predicted value d <b> 9 of the second layer data is generated and supplied to the subtracter 6. In the subtracter 6, a difference value between the input pixel data d0 supplied from the input terminal 1 and the predicted value d9 is obtained, and the difference value d5 is supplied to the encoder 10.
[0030]
Further, in the encoder 10 to which the difference value d5 is supplied, the same compression processing as that of the encoder described above is performed. The encoded data of the encoder 10 is supplied to the calculator 23. The calculator 23 performs a process of thinning out one pixel from four pixels. The first layer data d17 output from the computing unit 23 is transmitted via the output terminal 27. Thus, class classification adaptive prediction is applied in hierarchical coding that prevents an increase in the number of pixels to be coded.
[0031]
Next, FIG. 4 shows a configuration example on the decoder side of the hierarchical coding according to one embodiment of the present invention. The hierarchical data d17 to d21 generated by the encoder shown in FIG. 3 are received as d30 to d34. First, the fifth layer input data d34 is subjected to decoding processing corresponding to the encoding performed by the encoder in the decoder 50, becomes image data d39, and is supplied to the class classification adaptive prediction circuit 62 and the calculator 58. The image data d39 is taken out from the output terminal 67 as the output of the fifth hierarchy.
[0032]
In the class classification adaptive prediction circuit 62, class classification adaptive prediction is performed on the image data of the fourth layer, and the predicted value d47 of the fourth layer data is generated. The data d38 decoded by the decoder 49 and the predicted value d47 are added by the adder 54. Decoded image data d43 is supplied from the adder 54 to the computing unit 58, and the computing unit 58 performs the calculation of Expression (1). All pixel values are restored. In this calculator 58, all the restored pixel values are supplied as image data d51 to the class classification adaptive prediction circuit 61 and the calculator 57. The image data d51 is taken out from the output terminal 66 as the output of the fourth hierarchy.
[0033]
In the class classification adaptive prediction circuit 61, the class classification adaptive prediction is performed on the third layer image data in the same manner as described above, and the predicted value d46 of the third layer data is generated. The adder 53 adds the data d37 decoded by the decoder 48 and the predicted value d46. The image data d42 is supplied from the adder 53 to the computing unit 57, and the computing unit 57 executes the calculation of the expression (1). The pixel value is restored. In this calculator 57, all the restored pixel values are supplied as image data d50 to the class classification adaptive prediction circuit 60 and the calculator 56. The image data d50 is taken out from the output terminal 65 as the output of the third hierarchy.
[0034]
Further, in the class classification adaptive prediction circuit 60, the class classification adaptive prediction is performed on the second layer image data in the same manner as described above, and the predicted value d45 of the second layer data is generated. The adder 52 adds the data d36 decoded by the decoder 47 and the predicted value d45. The image data d41 is supplied from the adder 52 to the computing unit 56, and the computing unit 56 performs the calculation of the expression (1). The pixel value is restored. In this computing unit 56, all the restored pixel values are supplied as image data d49 to the class classification adaptive prediction circuit 59 and the computing unit 55. The image data d49 is taken out from the output terminal 64 as the output of the second hierarchy.
[0035]
Further, in the class classification adaptive prediction circuit 59, the class classification adaptive prediction is performed on the first layer image data in the same manner as described above, and the predicted value d44 of the first layer data is generated. The adder 51 adds the data d35 decoded by the decoder 46 and the predicted value d44. The image data d40 is supplied from the adder 51 to the computing unit 55, and the computing unit 55 performs the calculation of Expression (1). The pixel value is restored. In this computing unit 55, all the restored pixel values are taken out from the output terminal 63 as image data d48 as the output of the first layer. In this way, it is possible to improve coding efficiency by introducing class classification adaptive prediction in hierarchical coding in which an increase in the number of pixels to be coded is prevented.
[0036]
Now, the classification classification adaptive prediction used for improving the coding efficiency will be described. The class classification adaptive prediction is a method of classifying an input signal into several classes based on the characteristics of the input signal and executing appropriate adaptive prediction for each class prepared in advance.
[0037]
First, as an example of the class classification method, there is a method in which a class generation tap is set for an input signal (8-bit PCM data) and a class is generated based on the waveform characteristics of the input signal. The following examples have been proposed as methods for generating signal waveform classes.
1) Method of using PCM data directly
2) Method of applying ADRC
3) Method of applying DPCM
4) Method of applying BTC
5) Method of applying VQ
6) Method of applying DCT (Hadamard transform)
[0038]
When using PCM data directly, if 7 pixels of 8-bit data are used for classification, 2 56 It is classified into a huge number of classes. Although it is ideal in terms of grasping the characteristics of the signal waveform, the burden on the circuit is large and practically problematic. Therefore, in actuality, ADRC (Adaptive Dynamic Range Coding) is applied to reduce the number of classes. This ADRC, for example, one recorded in JP-A-61-144989 is a method developed as a signal compression technique, but is also suitable for use in class expression. Basically, it is a re-quantization process, and is expressed by equation (2).
[0039]
[Expression 1]
Figure 0003830549
Where c i : ADRC code
y i : Upper layer pixel value
MIN: Minimum value in the neighborhood
DR: Dynamic range in the neighborhood
k: Number of requantization bits
[0040]
Class classification is performed based on an ADRC code generated using ADRC defined by Expression (2) for several pixels near the target pixel. For example, when 1-bit ADRC is applied to 7-tap data, the pixel value of each tap is adaptively 1-bit quantized after removing the minimum value of 7 pixels based on the dynamic range defined from the 7-pixel data. Therefore, it can be reduced to 128 classes. Nine tap data can be classified by 512 classes. Other common compression techniques include frequency domain classes such as DPCM (predictive coding), BTC (Blok Truncation Coding), VQ (Vector Quantization), and DCT (Discrete Cosine Transform).
[0041]
In addition, in order to further improve the performance of class classification, class classification may be performed in consideration of the activity of upper hierarchical data. As an example of an activity determination method, when ADRC is used for a classification method, a dynamic range is often used. Further, the sum of absolute differences is used for DPCM, and the absolute value of standard deviation is used for BTC. Further, in the above learning process, the learning distribution with a small activity is excluded from the learning target. The reason for this is that small parts of activity are greatly affected by noise and often deviate from the predicted values of the original class. When it is put into learning, the prediction accuracy decreases. In order to avoid this, pixel distribution with low activity is excluded in learning. Adaptive prediction is executed for each class classified in this way. As adaptive prediction, a method of performing a prediction calculation using a previously learned prediction coefficient and a method of learning a prediction value by a centroid method are proposed. .
[0042]
Next, adaptive prediction in which prediction calculation is performed using a prediction coefficient for each class generated in advance by learning will be described. As shown in FIGS. 5A and 5B, the lower level 4 pixels x 0 ~ X Three To higher hierarchy data y Four Is generated, lower layer data is predicted than upper layer data. For example, upper layer data y 0 ~ Y 8 A prediction tap is composed of 9 pixels, and lower layer data x ′ is predicted. An example of the prediction formula at this time is shown in Formula (3).
[0043]
[Expression 2]
Figure 0003830549
However, x ′: Lower layer predicted value
y i : Upper layer prediction tap pixel value
w i : Prediction coefficient
[0044]
For example, a 1-bit ADRC is represented by y shown in FIG. 5A. 0 ~ Y 8 When the nine pixels are classified into 512 classes, the lower layer data is predicted by the product-sum operation of the prediction coefficient generated for each class and the upper layer data. In this example, as shown in FIG. 0 ~ X Three 4 pixels of y 0 ~ Y 8 Even if they are of the same class 0 ~ X Three For each of these, four types of prediction coefficients are generated independently.
[0045]
Here, FIG. 5C shows an example of the circuit configuration of the class classification adaptive prediction. An input signal IN is supplied from the input terminal indicated by 71 to the class classification unit 72 and the prediction calculation unit 74. The class classification unit 72 generates a class d60 for the input signal IN based on the class classification process as described above. The prediction coefficient d61 is supplied from the prediction coefficient ROM 73 to the prediction calculation unit 74 using the class d60 as an address. In the prediction calculation unit 74, the prediction calculation of Expression (3) is executed using the input signal IN and the prediction coefficient d61, and the calculation result, that is, the prediction value, is extracted via the output terminal 75.
[0046]
Next, the above-described prediction coefficient is generated by learning in advance, and the learning method will be described. An example of generating a prediction coefficient based on the linear linear combination model of Equation (3) by the method of least squares is shown. The least squares method is applied as follows. As a generalized example, consider the following equation, where X is input data, W is a prediction coefficient, and Y is a predicted value.
Observation equation: XW = Y (4)
[Equation 3]
Figure 0003830549
[0047]
Apply the least squares method to the data collected by the above observation equation. In the example of Expression (3), n = 9 and m is the number of learning data. Consider the residual equation (6) based on the observation equation (4).
Residual equation:
[Expression 4]
Figure 0003830549
[0048]
From the residual equation of equation (6), each w i The most probable value of is
[Equation 5]
Figure 0003830549
It is considered that the condition for minimizing is satisfied. That is, the condition of equation (7) should be considered.
[0049]
[Formula 6]
Figure 0003830549
Consider a condition based on i in Equation (7), and satisfy w 1 , W 2 , ..., w n May be calculated. Therefore, Equation (8) is obtained from Equation (6) of the residual equation.
[0050]
[Expression 7]
Figure 0003830549
Equation (9) is obtained from Equation (7) and Equation (8).
[0051]
[Equation 8]
Figure 0003830549
Then, Expression (10) is obtained as a normal equation from Expression (6) and Expression (9).
[0052]
[Equation 9]
Figure 0003830549
[0053]
Since the normal equation of the equation (10) can have the same number of equations as the unknown number n, each w i The most probable value of can be obtained. Then, the simultaneous equations are solved by using the sweep-out method (Gauss-Jordan elimination method).
[0054]
Here, an example in which learning using this least square method is performed by software is shown in the flowchart of FIG. First, in the learning data formation in step 81, class classification is performed on the input data. In the class determination at step 83, a data change of 9 pixels is detected in this example. In the normal equation generation in step 84, a normal equation shown in equation (10) is generated for each class. At this time, generally, in order to eliminate the influence of noise, those having a small input data change activity are excluded from the learning target. In this learning process, a normal equation in which a lot of learning data is registered is generated. The normal equation generation process is repeated until the learning target data is completed.
[0055]
That is, at the end of the data in step 82, the above process is repeated until the end of the number of learning target data is confirmed. When the end of the number of learning target data is confirmed, the control shifts from step 82 (data end) to the prediction coefficient determination of step 85. In step 85 (prediction coefficient determination), the normal equation of equation (10) for each class generated from a lot of learning data is solved. As a method for solving the simultaneous equations, in this example, the above-described sweeping method is used. The prediction coefficient obtained in this way is registered in a storage unit such as a ROM which is divided into addresses by class in the prediction coefficient registration in step 86. Through such a learning process, a prediction coefficient for class classification adaptive prediction is generated.
[0056]
Next, as an adaptive processing method for class classification adaptive prediction, an example of a method for learning a prediction value by the centroid method will be described. As described above, an optimal interpolation value is generated in advance by the centroid method for each class classified based on the signal characteristics of the upper layer data. For example, as described above, consider a case where the 9 pixels in FIG. 5A are classified into 512 classes by performing 1-bit ADRC. A procedure is shown along the learning flowchart of FIG. In the initialization of step 91, first, the frequency counters N (*) of all classes and the data tables E (*) of all classes are initialized. As an example, if a certain class is C0, the corresponding frequency counter is defined as N (C0), and the corresponding data table is defined as E (C0). * Indicates all classes.
[0057]
Next, in class detection in step 92, class C is determined from the learning target pixel neighborhood data. As shown in FIG. 5A, it is assumed that nine pixels in the upper layer are used for class generation. As this classification method, in addition to ADRC as described above, expression methods such as PCM, DPCM, BTC, VQ, and DCT are conceivable. In addition, when considering the activity of a block composed of class classification target data, the number of classes is increased by the type of classification by activity. In the data detection in step 93, the lower layer pixel value x to be learned is detected. In the class-by-class data addition in step 94, the lower layer pixel value x detected for each class C is added. That is, the class C data table E (*) is generated.
[0058]
In the class-wise frequency addition in step 95, the frequency counter N (C) of the learning pixel of class C is incremented by +1. At the end of all data in step 96, these processes are repeatedly executed for the learning target pixel to generate final frequency counters N (*) for all classes and data tables E (*) for all corresponding classes. . If all the data has been completed, the control shifts to class 97 average value calculation in step 97. Next, in step 97 (average value calculation for each class), the data integrated value that is the content of the data table E (*) of each class is divided by the frequency of the frequency counter N (*) of the corresponding class. To calculate the average value of each class. This value is the optimum predicted value for each class by the centroid method. The origin of the name centroid method is based on taking the average of the distribution of learning target pixel values. The finally calculated average value is registered in a storage unit such as a ROM that is address-divided by class in the class average value registration in step 98. As described above, in order to eliminate the influence of noise in the learning process, the pixel distribution with a small activity may be removed from the learning target.
[0059]
FIG. 8 shows an example of a circuit configuration in which prediction processing is executed by class classification adaptive prediction using the optimal prediction value generated by learning based on the centroid method. The class classification unit 102 performs class classification on the upper layer data supplied via the input terminal 101. Based on this class classification, the predicted value is read from the ROM 103 that holds the optimal predicted value for each class generated in advance by the center of gravity method. At this time, the address of the ROM 103 corresponds to each class. The read predicted value is taken out from the output terminal 104.
[0060]
Here, FIG. 9 shows another example of the circuit configuration in which the prediction process is executed by the class classification adaptive prediction using the optimum prediction value generated by learning based on the centroid method. The class classification unit 102 performs class classification on the upper layer data d70 supplied via the input terminal 105. This class is transmitted downstream as d71. The optimal prediction value for each class generated in advance by the center of gravity method is registered in the optimal prediction value ROM 107 for each class. The address of the optimum predicted value ROM 107 is associated with each class.
[0061]
In the configuration example of FIG. 8 described above, the activity of the upper hierarchy data is not considered, but in this example, the classification is performed in consideration of the activity of the upper hierarchy data. Therefore, the activity class classification unit 106 performs class classification based on the activity for each block of the input upper layer data d70. Specific examples of the activity include the dynamic range of the block, the absolute value of the standard deviation of the block data, the absolute value of the difference between the values of each pixel with respect to the average value of the block data, as described above. Since the nature of the image may vary depending on the activity, using such an activity as a parameter for class classification can make the class classification more precise and increase the degree of freedom of class classification. it can.
[0062]
In the operation of class classification by the class classification unit 102 and the activity class classification unit 107, first, the activity class classification unit 107 divides the class into a plurality of classes according to the activity of the block, and the class classification unit 102 classifies each class. Classes d71 and d72 are supplied as addresses from the class classification unit 102 and the activity class classification unit 107 to the optimum predicted value ROM 107, and predicted lower layer data d73 is generated from the optimum predicted value ROM 107 and taken out from the output terminal 108. The classification classification adaptive prediction using the centroid method is executed by the above processing.
[0063]
As a specific application example of the above-described embodiment, when a high-definition television still image database is configured, the lowest layer data, that is, the first layer (original image) data is reproduction data of high-definition resolution, and the second layer The data becomes reproduction data of standard resolution, and the highest hierarchy data, that is, the fifth hierarchy data becomes low resolution reproduction data for high-speed search.
[0064]
When compression encoding is employed for the purpose of reducing the amount of information, the reproduced image data obtained by the decoding device does not necessarily match the input original image data, but cannot visually detect deterioration. It is possible to make a degree. Further, the formation of the average value is not limited to the simple average value, and a weighted average value may be formed.
[0065]
Furthermore, the present invention can be applied to a hierarchical coding system having a buffering configuration for controlling the amount of generated information by controlling the quantization step width.
[0066]
【The invention's effect】
According to the present invention, it is possible to easily realize hierarchical encoding having a plurality of resolutions. Further, according to the present invention, it is possible to easily realize hierarchical encoding that does not decrease the compression efficiency. Furthermore, according to the present invention, it is possible to realize hierarchical coding with little image quality degradation.
[0067]
According to the present invention, conventionally, pixel interpolation is performed on the upper layer data by a frequency filter to generate a difference value from the lower layer data, but the lower layer data is predicted by the class classification adaptive prediction. By doing so, a significant reduction in signal power can be realized.
[Brief description of the drawings]
FIG. 1 is a schematic diagram used for explaining an example of hierarchical encoding according to the present invention;
FIG. 2 is a schematic diagram used for explaining a configuration example of hierarchical encoding according to the present invention;
FIG. 3 is a block diagram illustrating an example of an encoding side of hierarchical coding in which class classification adaptive prediction according to the present invention is used.
FIG. 4 is a block diagram showing an example of a decoding side of hierarchical coding in which class classification adaptive prediction of the present invention is used.
FIG. 5 is a schematic diagram used for explaining an example of class classification adaptive prediction using the prediction coefficient method according to the present invention.
FIG. 6 is a flowchart showing an example of learning coefficient values of prediction coefficients of adaptive classification classification according to the present invention.
FIG. 7 is a flowchart showing an example of learning an optimal prediction value of the center-of-gravity method for adaptive classification classification according to the present invention.
FIG. 8 is a block diagram used for explaining an example of class classification adaptive prediction using the centroid method according to the present invention.
FIG. 9 is a block diagram used for explaining an example of class classification adaptive prediction using an activity in the centroid method according to the present invention.
FIG. 10 is a block diagram illustrating an example of an encoding side of conventional hierarchical encoding.
FIG. 11 is a block diagram illustrating an example of a decoding side of conventional hierarchical encoding.
[Explanation of symbols]
2, 3, 4, 5 averaging circuit
10, 11, 12, 13, 14 Encoder
15, 16, 17, 18 Decoder
19, 20, 21, 22 Class classification adaptive prediction circuit
23, 24, 25, 26

Claims (8)

入力画像データが供給され、互いに異なる解像度を表現する、少なくとも第1および第2の階層データへ分割し、上記第1および第2の階層データを伝送するようにしたディジタル画像信号の階層符号化装置において、
生成しようとする上記第2の階層データと空間的に対応する上記第1の階層のN個の画素データの平均値データにより、上記第2の階層データを形成する平均化手段と、
上記第2の階層データから上記第1の階層データのN個の画素データをクラス分類適応予測を用いることにより予測する予測手段と、
予測された上記第1の階層データのN個の画素データと上記第1の階層のN個の画素データとの差分値を符号化する符号化手段と、
符号化された上記第1の階層のN個の画素データのうち(N−1)個の画素データと上記平均化手段からの第2の階層データの符号化出力とを伝送する出力手段と、を有し、
少なくとも上記第2の階層データからクラス毎に最適な予測値を学習する際に、アクティビティーの小さい画素分布を学習の対象から除外することを特徴とするディジタル画像信号の階層符号化装置。
Hierarchical coding apparatus for digital image signal to which input image data is supplied and divided into at least first and second hierarchical data expressing different resolutions and transmitting the first and second hierarchical data In
Averaging means for forming the second hierarchical data from average value data of N pixel data of the first hierarchy spatially corresponding to the second hierarchical data to be generated;
Prediction means for predicting N pixel data of the first hierarchy data from the second hierarchy data by using class classification adaptive prediction;
Encoding means for encoding a difference value between the predicted N pixel data of the first hierarchy data and the N pixel data of the first hierarchy;
Output means for transmitting (N-1) pixel data of the encoded N pixel data of the first hierarchy and the encoded output of the second hierarchy data from the averaging means ; Have
A hierarchical coding apparatus for digital image signals, characterized in that, when learning an optimal predicted value for each class from at least the second hierarchical data, a pixel distribution having a low activity is excluded from learning targets .
請求項に記載のディジタル画像信号の階層符号化装置において、
上記予測段では、
少なくとも上記第2の階層データのアクティビティを考慮してクラスを生成する手段と、
予め学習により獲得された上記最適な予測値を格納した記憶手段と、
上記クラスに対応した上記最適な測値を生成する手段と、
らなるディジタル画像信号の階層符号化装置。
The hierarchical encoding device for digital image signals according to claim 1 ,
In the above prediction hand stage,
Means for generating a class in consideration of at least the activity of the second hierarchical data;
Memory means for storing the acquired the optimum predicted value in advance by learning,
Means for generating the optimal predictors corresponding to the class,
Hierarchical encoding apparatus or Ranaru digital image signal.
請求項に記載のディジタル画像信号の階層符号化装置において、
記第2の階層データからクラス毎に上記最適な予測値を学習する際に、重心法による学習を行うことを特徴とするディジタル画像信号の階層符号化装置。
The hierarchical encoding apparatus for digital image signals according to claim 2 ,
On SL when learning the optimum prediction value from the second hierarchical data for each class, hierarchical encoding apparatus in a digital image signal you and performing learning by gravity method.
請求項に記載のディジタル画像信号の階層符号化装置において、
上記予測段では、
上記第2の階層データの画素値にADRCを適用することによりクラス分類を行い、上記クラスを表現するビット数を削減することを特徴とするディジタル画像信号の階層符号化装置。
The hierarchical encoding device for digital image signals according to claim 1 ,
In the above prediction hand stage,
A hierarchical coding apparatus for digital image signals, characterized in that ADRC is applied to pixel values of the second hierarchical data to perform class classification and reduce the number of bits representing the class.
入力画像データが供給され、互いに異なる解像度を表現する、少なくとも第1および第2の階層データへ分割し、上記第1および第2の階層データを伝送するようにしたディジタル画像信号の階層符号化方法において、
生成しようとする上記第2の階層データと空間的に対応する上記第1の階層のN個の画素データの平均値データにより、上記第2の階層データを形成する形成工程と
上記第2の階層データから上記第1の階層データのN個の画素データをクラス分類適応予測を用いることにより予測する予測工程と
予測された上記第1の階層データのN個の画素データと上記第1の階層のN個の画素データとの差分値を符号化する符号化工程と
符号化された上記第1の階層のN個の画素データのうち(N−1)個の画素データと上記平均値データにより形成される第2の階層データの符号化出力とを伝送する伝送工程と、を有し、
少なくとも上記第2の階層データからクラス毎に最適な予測値を学習する際に、アクティビティーの小さい画素分布を学習の対象から除外することを特徴とするディジタル画像信号の階層符号化方法。
Hierarchical encoding method of digital image signal to which input image data is supplied and which is divided into at least first and second hierarchical data expressing different resolutions and transmitting the first and second hierarchical data In
The average value data of N pixel data of the first hierarchy and the second hierarchy data and the spatially corresponding to be generated, a formation step of forming the second layer data,
A prediction step of predicting N pixel data of the first hierarchical data from the second hierarchical data by using class classification adaptive prediction;
An encoding step of encoding a difference value between the predicted N pixel data of the first hierarchy data and the N pixel data of the first hierarchy;
A transmission step of transmitting (N-1) pixel data of the encoded N pixel data of the first hierarchy and an encoded output of the second hierarchy data formed by the average value data And having
A hierarchical encoding method for a digital image signal, wherein a pixel distribution having a low activity is excluded from a learning target when learning an optimal predicted value for each class from at least the second hierarchical data .
請求項に記載のディジタル画像信号の階層符号化方法において、
上記予測工程は、
少なくとも上記第2の階層データのアクティビティを考慮してクラスを生成するクラス生成工程と
予め学習により獲得された上記最適な予測値格納された格納手段から、上記クラスに対応した上記最適な測値を読み出す予測値読出工程と
を有することを特徴とするディジタル画像信号の階層符号化方法。
6. The hierarchical encoding method of a digital image signal according to claim 5 ,
The prediction process is
A class generation step of generating a class in consideration of at least the activity of the second hierarchical data;
From the storage means acquired the optimum predicted value is stored in advance by learning, the prediction value read step of reading the best predictors corresponding to the class,
Hierarchical coding method of digital image signal, comprising a.
請求項に記載のディジタル画像信号の階層符号化方法において、
記第2の階層データからクラス毎に上記最適な予測値を学習する際に、重心法による学習を行うようにしたことを特徴とするディジタル画像信号の階層符号化方法。
The digital image signal hierarchical encoding method according to claim 6 ,
When learning the optimum prediction value for each class from the top Symbol second hierarchical data, the hierarchical encoding method of the digital image signal, characterized in that to perform the learning by gravity method.
請求項に記載のディジタル画像信号の階層符号化方法において、
上記予測工程は、
上記第2の階層データの画素値にADRCを適用することによりクラス分類を行い、上記クラスを表現するビット数を削減するようにしたことを特徴とするディジタル画像信号の階層符号化方法。
6. The hierarchical encoding method of a digital image signal according to claim 5 ,
The prediction process is
A hierarchical encoding method for a digital image signal, wherein class classification is performed by applying ADRC to pixel values of the second hierarchical data, and the number of bits expressing the class is reduced.
JP33954394A 1994-12-28 1994-12-28 Hierarchical coding apparatus and method for digital image signal Expired - Lifetime JP3830549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33954394A JP3830549B2 (en) 1994-12-28 1994-12-28 Hierarchical coding apparatus and method for digital image signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33954394A JP3830549B2 (en) 1994-12-28 1994-12-28 Hierarchical coding apparatus and method for digital image signal

Publications (2)

Publication Number Publication Date
JPH08186827A JPH08186827A (en) 1996-07-16
JP3830549B2 true JP3830549B2 (en) 2006-10-04

Family

ID=18328476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33954394A Expired - Lifetime JP3830549B2 (en) 1994-12-28 1994-12-28 Hierarchical coding apparatus and method for digital image signal

Country Status (1)

Country Link
JP (1) JP3830549B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4240554B2 (en) * 1997-07-11 2009-03-18 ソニー株式会社 Image encoding apparatus, image encoding method, image decoding apparatus, and image decoding method
JP2007174634A (en) * 2005-11-28 2007-07-05 Victor Co Of Japan Ltd Layered coding and decoding methods, apparatuses, and programs
KR100791299B1 (en) * 2006-04-11 2008-01-04 삼성전자주식회사 Multi-layer based video encoding method and apparatus thereof
KR101597987B1 (en) 2009-03-03 2016-03-08 삼성전자주식회사 Layer-independent encoding and decoding apparatus and method for multi-layer residual video
US10334256B2 (en) 2012-10-07 2019-06-25 Numeri Ltd. Video compression method
KR102224299B1 (en) * 2018-02-21 2021-03-05 동의대학교 산학협력단 Hierarchical Coding/decoding Method and device for Depth Video

Also Published As

Publication number Publication date
JPH08186827A (en) 1996-07-16

Similar Documents

Publication Publication Date Title
US20190335202A1 (en) Low-complexity intra prediction for video coding
CN1112045C (en) Carry out video compression with error information coding method repeatedly
CN1162008C (en) Variable frequency system used for 2 : 1 sampling effectiveness
JP5686499B2 (en) Image predictive encoding apparatus, method and program, image predictive decoding apparatus, method and program, and encoding / decoding system and method
US7283678B2 (en) Data processing apparatus and method and recording medium
JP4126709B2 (en) Image processing apparatus and image processing method
CN1625902A (en) Moving picture coding method and decoding method, and apparatus and program using the same
CN1835585A (en) Method and system for fast implementation of subpixel interpolation
JPH07147681A (en) Hierarchical coding/decoding device for digital image signal
MXPA05012973A (en) Adaptive coefficient scan order.
CN1122247C (en) Prediction treatment of motion compensation and coder using the same
CN1181679C (en) Image decoding apparatus and process thereof and image reproduction apparatus
CN1116480A (en) Animation encoding method, animation decoding method, animation recording medium and animation encoder
JP6065613B2 (en) Video encoding device
JP3830549B2 (en) Hierarchical coding apparatus and method for digital image signal
JP3758211B2 (en) Hierarchical coding apparatus and method for digital image signal, and decoding apparatus and method
JP3759537B2 (en) Image signal transmission apparatus and image signal transmission method
JP3781797B2 (en) Hierarchical coding apparatus for digital image signals
JP2004135254A (en) Image processing unit
KR101979379B1 (en) Method and apparatus for encoding image, and method and apparatus for decoding image
JP3853708B2 (en) Digital image encoding apparatus, encoding method, and program
JP3834880B2 (en) Information signal encoding apparatus, encoding method, and information signal decoding method
JP4517448B2 (en) Data processing apparatus, data processing method, and recording medium
JPH08307835A (en) Classification adaptive processing unit and its method
JP2000165873A (en) Compression method for moving picture information and its system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040927

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040930

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20041112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060712

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090721

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100721

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100721

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110721

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110721

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120721

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120721

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130721

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term