JP4120916B2 - Information processing apparatus and method, recording medium, and program - Google Patents
Information processing apparatus and method, recording medium, and program Download PDFInfo
- Publication number
- JP4120916B2 JP4120916B2 JP2002008251A JP2002008251A JP4120916B2 JP 4120916 B2 JP4120916 B2 JP 4120916B2 JP 2002008251 A JP2002008251 A JP 2002008251A JP 2002008251 A JP2002008251 A JP 2002008251A JP 4120916 B2 JP4120916 B2 JP 4120916B2
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- pixel data
- prediction residual
- frame
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、効率よく符号化を行うことができるようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
最近、MPEG(Moving Picture Experts Group)に代表される圧縮方式が普及し、ビデオデータやオーディオデータは、MPEG方式で圧縮された上で、ハードディスク、磁気テープ、光ディスクといった記録媒体に記録されたり、ネットワークを介して伝送されたり、衛星を介して放送される。
【0003】
MPEG方式では、例えば、図1に示されるように、現在フレームの前後に、前フレームと後フレームが存在するような場合、現在フレームが、例えば、8×8画素のブロックに分割される。そして、前フレームの所定の探索範囲内において、8×8画素のブロックが抽出され、現在フレームのブロック1と前フレームのブロック2が、画素毎に絶対差分和、自乗誤差和、または代表点マッチング処理により比較される。前フレームのブロック2は、探索範囲内でその位置が順次移動される。
【0004】
そして、探索範囲の中で、絶対差分和、自乗誤差和、または代表点マッチングの値が最も小さかった相対座標位置が動きベクトルとして推定される。
【0005】
さらに、クラス分類適応処理が用いられる場合、動きベクトルに対応するブロック2の画素から、クラス分類適応処理に基づいて、ブロック位置の画素が予測され、動きベクトルと予測値とが伝送される。
【0006】
【発明が解決しようとする課題】
しかしながら、このような、従来のブロックマッチングとクラス分類適応処理を用いる予測符号化方式は、伝送効率、圧縮効率、および符号化効率が悪いという課題があった。
【0007】
本発明は、このような状況に鑑みてなされたものであり、伝送効率、圧縮効率、および符号化効率を向上させるようにするものである。
【0008】
【課題を解決するための手段】
本発明の情報処理装置は、入力される画像データのうちの画像データの第1のフレームより時間的に前の第2のフレームを記憶し、フレーム毎に、あるいは数フレーム毎に、記憶している第2のフレームを更新する更新手段と、第1のフレームの一部であって1つの画素からなる第1の画素データに対応する第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップを抽出する抽出手段と、抽出手段により抽出されたクラスタップおよび予測タップを用いて複数の第2の画素データをクラス分類適応処理することにより、予測値を生成する予測値生成手段と、予測値生成手段により生成された予測値と、第1の画素データとの予測残差を演算する予測残差演算手段と、予測残差演算手段により演算された予測残差のうち、最小の予測残差を第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とを比較する比較手段と、比較手段の比較結果に基づいて、予測残差が閾値より小さいと判定された場合、第1の画素データと、予測残差が最小である第2の画素データの位置により規定される動きベクトルを出力し、予測残差が閾値より大きいと判定された場合、動きベクトルの他、予測値生成手段により生成された予測値、予測残差演算手段により演算された予測残差、または第1の画素データのいずれかと、送出したデータが、予測残差であるか否かを表すフラグを出力する出力手段とを備えることを特徴とする。
【0014】
本発明の情報処理方法は、入力される画像データのうちの画像データの第1のフレームより時間的に前の第2のフレームを記憶し、フレーム毎に、あるいは数フレーム毎に、記憶している第2のフレームを更新する更新ステップと、第1のフレームの一部であって1つの画素からなる第1の画素データに対応する第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップを抽出する抽出ステップと、抽出ステップの処理により抽出されたクラスタップおよび予測タップを用いて複数の第2の画素データをクラス分類適応処理することにより、予測値を生成する予測値生成ステップと、予測値生成ステップの処理により生成された予測値と、第1の画素データとの予測残差を演算する予測残差演算ステップと、予測残差演算ステップの処理により演算された予測残差のうち、最小の予測残差を第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とを比較する比較ステップと、比較ステップの処理における比較結果に基づいて、予測残差が閾値より小さいと判定された場合、第1の画素データと、予測残差が最小である第2の画素データの位置により規定される動きベクトルを出力し、予測残差が閾値より大きいと判定された場合、動きベクトルの他、予測値生成ステップの処理により生成された予測値、予測残差演算ステップの処理により演算された予測残差、または第1の画素データのいずれかと、送出したデータが、予測残差であるか否かを表すフラグを出力する出力ステップとを含むことを特徴とする。
【0015】
本発明の第1の記録媒体のプログラムは、入力される画像データのうちの画像データの第1のフレームより時間的に前の第2のフレームを記憶し、フレーム毎に、あるいは数フレーム毎に、記憶している第2のフレームを更新する更新ステップと、第1のフレームの一部であって1つの画素からなる第1の画素データに対応する第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップを抽出する抽出ステップと、抽出ステップの処理により抽出されたクラスタップおよび予測タップを用いて複数の第2の画素データをクラス分類適応処理することにより、予測値を生成する予測値生成ステップと、予測値生成ステップの処理により生成された予測値と、第1の画素データとの予測残差を演算する予測残差演算ステップと、予測残差演算ステップの処理により演算された予測残差のうち、最小の予測残差を第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とを比較する比較ステップと、比較ステップの処理における比較結果に基づいて、予測残差が閾値より小さいと判定された場合、第1の画素データと、予測残差が最小である第2の画素データの位置により規定される動きベクトルを出力し、予測残差が閾値より大きいと判定された場合、動きベクトルの他、予測値生成ステップの処理により生成された予測値、予測残差演算ステップの処理により演算された予測残差、または第1の画素データのいずれかと、送出したデータが、予測残差であるか否かを表すフラグを出力する出力ステップとを含むことを特徴とする。
【0016】
本発明の第1のプログラムは、入力される画像データのうちの画像データの第1のフレームより時間的に前の第2のフレームを記憶し、フレーム毎に、あるいは数フレーム毎に、記憶している第2のフレームを更新する更新ステップと、第1のフレームの一部であって1つの画素からなる第1の画素データに対応する第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップを抽出する抽出ステップと、抽出ステップの処理により抽出されたクラスタップおよび予測タップを用いて複数の第2の画素データをクラス分類適応処理することにより、予測値を生成する予測値生成ステップと、予測値生成ステップの処理により生成された予測値と、第1の画素データとの予測残差を演算する予測残差演算ステップと、予測残差演算ステップの処理により演算された予測残差のうち、最小の予測残差を第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とを比較する比較ステップと、比較ステップの処理における比較結果に基づいて、予測残差が閾値より小さいと判定された場合、第1の画素データと、予測残差が最小である第2の画素データの位置により規定される動きベクトルを出力し、予測残差が閾値より大きいと判定された場合、動きベクトルの他、予測値生成ステップの処理により生成された予測値、予測残差演算ステップの処理により演算された予測残差、または第1の画素データのいずれかと、送出したデータが、予測残差であるか否かを表すフラグを出力する出力ステップとをコンピュータに実行させることを特徴とする。
【0026】
本発明の情報処理装置および方法、記録媒体、並びにプログラムにおいては、入力される画像データのうちの画像データの第1のフレームより時間的に前の第2のフレームが記憶され、フレーム毎に、あるいは数フレーム毎に、記憶されている第2のフレームが更新され、第1のフレームの一部であって1つの画素からなる第1の画素データに対応する第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップが抽出され、抽出された前記クラスタップおよび前記予測タップを用いて複数の第2の画素データをクラス分類適応処理することにより、予測値が生成され、生成された予測値と、第1の画素データとの予測残差が演算され、演算された予測残差のうち、最小の予測残差を前記第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とが比較される。そして、比較結果に基づいて、予測残差が閾値より小さいと判定された場合、第1の画素データと、予測残差が最小である第2の画素データの位置により規定される動きベクトルが出力され、予測残差が閾値より大きいと判定された場合、動きベクトルの他、生成された予測値、演算された予測残差、または第1の画素データのいずれかと、送出したデータが、予測残差であるか否かを表すフラグが出力される。
【0028】
【発明の実施の形態】
図2は、本発明を適用した画像処理システムのうちの送信装置の構成例を表している。この送信装置11においては、基準フレームメモリ22に、予測の基準とされる基準フレームの画像データが記憶される。予測フレームメモリ21には、基準フレームの画像に基づいて予測される予測フレームの画像データが、順次、記憶される。
【0029】
アドレス設定部23−1は、フレームメモリ22に記憶されている画素データのうち、所定の探索範囲(フレームメモリ21に記憶されている予測フレームの注目画像に対応する探索範囲)内の第1の位置(動きベクトルv0に対応する位置)の予測タップとクラスタップを構成する任意の数の画素のアドレスを設定し、そのアドレスに対応する画素データ、すなわち、予測タップとクラスタップを構成する画素データを読み出し、クラス分類適応処理部24−1に供給する。クラス分類適応処理部24−1は、アドレス設定部23−1より供給された予測タップとクラスタップの画素データに基づいて、クラス分類適応処理を行い、予測フレームメモリ21に記憶されている予測フレームの対応する画素(注目画素)の予測値を演算する。
【0030】
アドレス設定部23−2は、探索範囲内の第2の位置(第2の動きベクトルv1に対応する位置)の予測タップとクラスタップの画素データを抽出し、クラス分類適応処理部24−2に供給する。クラス分類適応処理部24−2は、アドレス設定部23−2より供給された予測タップとクラスタップの画素データに基づいて、クラス分類適応処理を行い、注目画素に対する予測値を演算する。
【0031】
同様の構成が探索範囲内を探索して得られる動きベクトルの数(n個)だけ設けられている。すなわち、アドレス設定部とクラス分類適応処理部の組み合わせがn組用意されている。例えば、探索範囲が水平、垂直ともに、マイナス8からプラス8までであるとすると、nの数は、289(=17×17)となる。
【0032】
比較器25は、クラス分類適応処理部24−1乃至24−nから供給されるn個の予測値を、予測フレームメモリ21から供給される注目画素と比較し、その差を予測残差として検出するとともに、予測残差のうちの、最小の予測残差を評価値として選択する。閾値判定部26は、比較器25より供給される最小の予測残差(評価値)を閾値と比較する。評価値が閾値と等しいか、それより小さい場合には、閾値判定部26は、動きベクトルを後処理部27に供給する。閾値判定部26は、予測残差が閾値より大きい場合には、動きベクトルと予測残差を後処理部27に出力する。
【0033】
後処理部27は、閾値判定部26より動きベクトルが供給されてきたとき、それをそのまま出力する。後処理部27は、閾値判定部26より動きベクトルと予測残差が供給されてきた場合には、予測残差に、それが予測残差であることを表すフラグを付加する。
【0034】
後処理部27より出力された動きベクトル、または動きベクトルと、フラグが付加された予測残差は、量子化器28に供給される。量子化器28は、このうちの予測残差については、例えば、ロイドマックス、ランレングス等の符号により量子化し、所定の伝送路に伝送する。この伝送路には、各種の通信路の他、記録再生によりデータを伝送する記録媒体も含まれる。
【0035】
例えば、マイクロプロセッサなどによりなる制御部30は、送信装置11の各部を制御する。制御部30には、必要に応じて、インタフェース31を介して、磁気ディスク41、光ディスク42、光磁気ディスク43、または半導体メモリ44などが適宜装着される。
【0036】
図3は、クラス分類適応処理部24−1乃至24−n(以下、これらを個々に区別する必要がない場合、単に、クラス分類適応処理部24と称する)の構成を表している。クラスタップ抽出部61は、アドレス設定部23−1乃至23−n(以下、これらを個々に区別する必要がない場合、単に、アドレス設定部23と称する)のうち対応するものより供給された画素データから、クラスタップを抽出し、ADRC(Adaptive Dynamic Range Coding)部62に供給する。ADRC部62は、クラスタップ抽出部61より供給された画素データに対して、例えば、1ビットADRC処理を施す。
【0037】
すなわち、クラスタップを構成する複数の画素データの最大値と最小値が検出され、その最大値と最小値の差が、さらにダイナミックレンジとして算出される。各画素データは、最小値が減算され、さらに、ダイナミックレンジで割算することで正規化される。
【0038】
正規化されたデータは、所定の基準値(例えば、0.5)と比較され、基準値より大きい場合には、例えば1、基準値より小さい場合には、例えば0、とされる。
【0039】
すなわち、例えばクラスタップを構成する画素の数が9個である場合、ADRC部62から、9ビットのデータがクラスコード決定部63に供給されることになる。クラスコード決定部63は、この9ビットのデータに基づいて、そのクラスタップのクラスコードを決定し、予測係数メモリ64に出力する。
【0040】
予測係数メモリ64には、クラスコードに対応する予測係数が予め記憶されており、クラスコード決定部63より供給されたクラスコードに対応する予測係数を、予測値算出部66に出力する。
【0041】
予測タップ抽出部65は、アドレス設定部23より供給された画素データから予測タップを構成する画素データを抽出し、予測値算出部66に出力する。予測値算出部66は、予測タップ抽出部65より供給された予測タップを構成する画素データに、予測係数メモリ64より供給される予測係数を乗算し、その和から(すなわち、線形1次結合から)、予測値を算出する。
【0042】
次に、図4と図5のフローチャートを参照して、送信装置11の処理について説明する。
【0043】
最初に、ステップS11において、制御部30は、閾値判定部26に対して、伝送判定閾値をセットする。この伝送判定閾値は、後述するステップS26の処理で利用される。
【0044】
ステップS12において、前フレームデータを蓄積する処理が実行され、ステップS13において、現在フレームデータを蓄積する処理が実行される。すなわち、例えば、1フレーム分の画像データが、予測フレームメモリ21に記憶された後、再びそこから読み出され、基準フレームメモリ22に伝送され、記憶される。そして、予測フレームメモリ21には、それに続く新たな1フレーム分の画像データが記憶される。このようにして、基準フレームメモリ22には、前フレームの画素データが記憶され、予測フレームメモリ21には、現在フレーム(基準フレームより時間的に後のフレーム)の画像データが蓄積される。
【0045】
ステップS14において、予測フレームメモリ21は、制御部30の制御に基づいて、記憶している1フレーム分の画像データの中から注目画素のデータを抽出し、比較器25に供給する。
【0046】
ステップS15において、制御部30は、比較器25に比較値をセットする。この比較値は、最小の予測残差としての評価値を求めるために、ステップS24の処理で、より小さい予測残差の値に更新されるものであり、初期値としては、最大値がセットされる。この比較値は、ステップS23の処理で利用される。
【0047】
次に、ステップS16において、アドレス設定部23−1乃至23−nに対して、それぞれステップS14の処理で抽出された注目画素に対応するアドレスが設定される。これにより、アドレス設定部23−1乃至23−nから、注目画素に対応する探索範囲内における、各探索位置(動きベクトル)に対応するクラスタップと予測タップを含む画素データが、対応するクラス分類適応処理部24−1乃至24−nに取り込み可能となる。
【0048】
そこで、ステップS17において、クラスタップ抽出部61は、供給された画素データの中からクラスタップを抽出する。クラスタップは、例えば、図6に示されるように、予測フレームの注目画素を中心とする7×7個の画素のうちの図中黒く示される3×3個の画素とされる。
【0049】
ADRC部62は、ステップS18において、クラスタップを構成する9個の画素データに対して、1ビットADRC処理を施す。これにより、9個の画素データがそれぞれ0または1の値に変換されて、9ビットのデータがクラスコード決定部63に供給される。クラスコード決定部63は、ADRC部62より供給される9ビットのデータに基づいて、その9個の画素データで構成されるクラスタップに対応するクラスコードを決定し、予測係数メモリ64に出力する。
【0050】
予測係数メモリ64は、ステップS19において、クラスコード決定部63より供給されたクラスコードに対する予測係数を読み出し、予測値算出部66に出力する。
【0051】
ステップS20において、予測タップ抽出部65は、アドレス設定部23より供給される画素データから、クラスタップを構成する画素データを取得する。図7は、クラスタップの例を表している。この例においては、予測フレームの注目画素を中心とする7×7個の画素のうち、中央に黒く示される13個の画素がクラスタップとされている。
【0052】
予測値算出部66は、ステップS21において、予測値計算処理を実行する。すなわち、予測値算出部66は、予測タップ抽出部65より供給された予測タップを構成する13個の画素データと、予測係数メモリ64より供給される13個の予測係数の線形1次結合を演算して、予測値を算出し、比較器25に出力する。
【0053】
比較器25は、ステップS22において、予測残差計算処理を実行する。すなわち、比較器25は、クラス分類適応処理部24(いまの場合、クラス分類適応処理部24−1)より供給される予測値と、予測フレームメモリ21より供給される注目画素(真値)との差を演算することで、予測残差を計算する。
【0054】
ステップS23において、比較器25は、ステップS22の処理で求めた予測残差(評価値)を比較値と比較する。この比較値は、いまの場合、ステップS15の処理で最大値に設定されている。従って、評価値は、比較値より小さいと判定され、ステップS24に進み、比較器25は、ステップS15の処理で最大値にセットされた比較値の値を、ステップS22の処理で計算された予測残差(評価値)に更新する。すなわち、比較値として、より小さい値が設定される。
【0055】
ステップS25において、閾値判定部26は、ステップS22の処理で求められた評価値に対応する動きベクトルを内蔵するメモリに保持する(既に保持されている動きベクトルがある場合には、更新される)。いまの場合、クラス分類適応処理部24−1の出力が処理されているので、この動きベクトルは、v0となる。
【0056】
ステップS26において、閾値判定部26は、ステップS22の処理で得られた予測残差(評価値)と、ステップS11の処理でセットされた伝送判定閾値とを比較する。予測残差(評価値)が伝送判定閾値と等しいか、それより大きいと判定された場合、ステップS27において、閾値判定部26は、ステップS22の処理で計算された予測残差を評価値として保持する。
【0057】
予測残差(評価値)が伝送判定閾値より小さいと判定された場合には、ステップS27の処理はスキップされる。
【0058】
ステップS23において、予測残差(評価値)が比較値と等しいか、それより大きいと判定された場合には、ステップS24乃至ステップS27の処理はスキップされる。
【0059】
ステップS28において、閾値判定部26は、探索範囲内の全ての位置の処理を終了したか否かを判定する。すなわち、クラス分類適応処理部24−1乃至24−nの全ての出力に対する処理を完了したか否かがここで判定される。クラス分類適応処理部24−1乃至24−nの出力のうち、まだ処理していないものが残っている場合には、ステップS16に戻り、それ以降の処理が繰り返し実行される。
【0060】
以上のようにして、ステップS16乃至ステップS28の処理がクラス分類適応処理部24−1乃至24−nが出力するn個の予測値の全てに対して実行される。
【0061】
ステップS28で探索範囲内の全ての位置の処理が終了したと判定された場合、ステップS29に進み、閾値判定部26は、伝送判定閾値より小さい予測残差(評価値)が保存されているか否かを判定する。すなわち、探索範囲内の全ての位置の処理により、n個の予測残差(評価値)が得られることになるが、そのn個の予測残差のうち、少なくとも1つ伝送判定閾値より小さいものがある場合には、その中で最小のものに対応する動きベクトルがステップS25の処理で保持されている。そこで、その場合には、ステップS30において、閾値判定部26は、ステップS25の処理で保持した動きベクトルを読み出し、後処理部27に出力する。
【0062】
ステップS29において、伝送判定閾値より小さい評価値が存在しないと判定された場合、閾値判定部26、ステップS31において、ステップS27の処理により保持されている予測残差(評価値)を後処理部27に出力する処理を実行する。
【0063】
すなわち、n個の予測残差(評価値)が全て伝送判定閾値と等しいか、それより大きい場合には、そのうちの最小の値に対応する予測残差がステップS27の処理で保持されている。そこで、閾値判定部26は、その予測残差を、いま対象とされている検索範囲の評価値(最小の予測残差)として、後処理部27に出力する。
【0064】
ステップS30,S31の処理の後、ステップS32において、閾値判定部26は、1フレーム内の全ての探索範囲の処理が終了したか否かを判定し、まだ終了していない探索範囲が残っている場合には、ステップS14に戻り、それ以降の処理が繰り返し実行される。
【0065】
ステップS32において、全ての探索範囲の処理が終了したと判定された場合、ステップS33において、後処理部27は、閾値判定部26より動きベクトルだけが供給されてきた場合には、その動きベクトルをそのまま出力し、閾値判定部26より供給されてきたのが、動きベクトルと予測残差(評価値)である場合には、予測残差に、それが予測残差であることを表すフラグを付加する。
【0066】
ステップS34において、量子化器28は、後処理部27より供給された動きベクトルをそのまま出力する。動きベクトルと予測残差(評価値)が供給されてきた場合には、量子化器28は、予測残差を量子化し、伝送路に伝送する。
【0067】
以上のようにして、図8に示されるように、予測フレームメモリ21に記憶されている予測フレーム90において、所定の画素が注目画素91として選択される。そして、基準フレームメモリ22に記憶されている基準フレーム80の注目画素91に対応する画素が注目対応画素83として選択され、注目対応画素83を中心とする所定の範囲が、探索範囲81として設定される。
【0068】
探索範囲81内において、所定の範囲の画素が予測タップ82として選択され、予測タップ82を構成する画素に基づいて、上述したように、予測値が演算される。そして、その予測値と注目画素91との差が予測残差として算出される。
【0069】
予測タップ82は、探索範囲81内を、予測タップ82−1乃至82−nとして示されるように、n個の位置に、順次移動される。そして、n個の予測タップのそれぞれに対応して得られるn個の予測残差の中から最小のものがその探索範囲81の評価値として選択される。
【0070】
以上のような処理が、予測フレーム90の中の全ての画素を注目画素91として順次選択することで実行される。
【0071】
以上のようにして、伝送路に伝送された画像データは、図9に示されるような受信装置により受信され、復号される。
【0072】
この受信装置111においては、逆量子化器121が送信装置11により符号化され、伝送路を伝送されてきたデータを取得し、逆量子化する。伝送判定部122は、逆量子化器121より供給されたデータからフラグを読み取り、伝送されてきたデータのうち動きベクトルをアドレス設定部123に出力する。アドレス設定部123は、基準フレームメモリ124に記憶されている、既に復調して得られている基準フレームの画素データから、動きベクトルに対応する範囲の画素データを抽出し、クラス分類適応処理部125に供給する。
【0073】
クラス分類適応処理部125は、アドレス設定部123より供給された画素データに対して、クラス分類適応処理を施し、画素データを生成する。
【0074】
このクラス分類適応処理部125は、図2の送信装置11のクラス分類適応処理部24と基本的に同様の構成とされる。そこで、図3は、以下の説明で、クラス分類適応処理部125としても、引用される。
【0075】
伝送判定部122は、逆量子化器121より入力されたデータに予測残差のデータが含まれていると判定した場合、これを復号部126に供給する。復号部126は、この予測残差を復号する。
【0076】
合成部127は、クラス分類適応処理部125と復号部126より供給された画素データを、メモリ上で適宜合成し、1フレーム分の画素データとし、出力する。合成部127より出力された画素データの一部は、必要に応じて、基準フレームメモリ124に供給され、後続するフレームの処理に対する基準フレームとして記憶される。
【0077】
例えば、マイクロプロセッサなどにより構成される制御部128は、受信装置111の各部の動作を制御する。
【0078】
制御部128には、インタフェース131を介して、必要に応じて磁気ディスク141、光ディスク142、光磁気ディスク143、または半導体メモリ144が装着され、そこに記憶されているプログラムやデータなどが適宜インストールされる。
【0079】
次に、図10のフローチャートを参照して、受信装置111における復号処理について説明する。
【0080】
ステップS51において、逆量子化器121は、伝送路を介して伝送されてきた量子化されている画像データを受信し、逆量子化して伝送判定部122に供給する。伝送判定部122は、ステップS52において、いま伝送されてきたデータに含まれているのは、動きベクトルのデータであるのか否かを判定する。入力されたデータに含まれているのが動きベクトルのデータであると判定された場合、伝送判定部122は、ステップS53において、その動きベクトルのデータをアドレス設定部123に出力する。アドレス設定部123は、基準フレームメモリ124に記憶されている画素データから探索範囲の画素データを抽出し、クラス分類適応処理部125に出力する。
【0081】
クラス分類適応処理部125は、ステップS54において、クラス分類適応処理を実行する。すなわち、クラスタップ抽出部61と、予測タップ抽出部65は、アドレス設定部123より供給される動きベクトルに基づいて、探索範囲の画素データから、それぞれクラスタップと予測タップの画素データを抽出する。ADRC部62は、クラスタップを1ビットADRC処理し、その結果得られたデータに基づいて、クラスコード決定部63は、クラスコードを決定する。予測係数メモリ64は、クラスコードに対応する予測係数を予測値算出部66に出力する。予測値算出部66は、予測タップと予測係数の線形1次結合から予測値を演算する。
【0082】
生成された予測値は、合成部127に供給される。ステップS57において、合成部127は、クラス分類適応処理部125より供給された予測値をフレームの対応する位置の画素データとして合成する。
【0083】
ステップS52において、伝送されてきたデータのうち動きベクトルではないと判定されたデータ(予測誤差のデータ)は、伝送判定部122から復号部126に出力される。復号部126は、ステップS56において、予測残差の復号処理を実行する。すなわち、復号部126は、伝送判定部122より供給された予測残差を復号する。復号部126により復号された予測残差は、合成部127に供給され、ステップS57の処理で、クラス分類適応処理部125で復号された対応する位置の画素データと合成される。
【0084】
予測係数メモリ64に記憶される予測係数は、学習により取得することができる。図11は、この学習を行う学習装置の構成例を表している。この学習装置160においては、生徒データ生成部161が、入力された教師データとしての画像データの画素値を適宜変更処理するなどして、生徒データを生成する。クラスタップ抽出部162は、生徒データ生成部161より供給された生徒データからクラスタップを抽出し、ADRC部163に出力する。ADRC部163は、クラスタップ抽出部162より供給されたクラスタップの画素データに対して、1ビットADRC処理を施し、得られた結果をクラスコード決定部164に出力する。
【0085】
クラスコード決定部164は、ADRC部163より入力されたデータに基づいて、クラスコードを決定し、そのクラスコードを正規方程式生成部166に出力する。
【0086】
予測タップ抽出部165は、生徒データ生成部161より供給された生徒データから予測タップを抽出し、正規方程式生成部166に出力する。正規方程式生成部166には、また、生徒データ生成部161において、生徒データを生成する元になった親データとしての教師データが供給されている。正規方程式生成部166は、予測係数(未知数)と生徒データの積和を教師データの値と等しいとする線形1次結合の正規方程式を生成する。
【0087】
予測係数決定部167は、正規方程式生成部166により生成された正規方程式を、掃き出し法などの一般的な行列解法を用いて、未知数とされている予測係数を求め、予測係数メモリ64に記憶させる。
【0088】
次に、学習装置160の動作について説明する。クラスタップ抽出部162は、生徒データ生成部161より供給された生徒データからクラスタップの画素データ(図6の例では、3×3個の画素データ)を抽出し、ADRC部163に出力する。ADRC部163は、クラスタップの画素データに対して、1ビットADRC処理を施し、得られた結果を、クラスコード決定部164に出力する。クラスコード決定部164は、ADRC部163より入力されたデータに基づいて、クラスコードを決定し、正規方程式生成部166に出力する。
【0089】
生徒データ生成部161により生成された生徒データからは、予測タップ抽出部165により予測タップを構成する画素データ(図6の例では、13個の画素データ)が抽出され、正規方程式生成部166に供給される。正規方程式生成部166は、予測タップの画素データと予測係数の積和が教師データに等しいとする線形1次結合の正規方程式をクラスコード毎に生成し、予測係数決定部167に出力する。予測係数決定部167は、掃き出し法に基づいて、未知数としての予測係数を決定し、予測係数メモリ64に記憶させる。
【0090】
なお、以上においては、図4のステップS29において、伝送判定閾値より小さい評価値が存在しないと判定された場合には、ステップS31の処理で、動きベクトルと予測残差を送出するようにしたが、予測残差に代えて、ステップS21で計算された予測値を送出したり、注目画素の画素データの値そのものを送出するようにすることも可能である。
【0091】
また、画素単位ではなく、ブロック単位で処理することも可能である。この場合には、ブロック内での予測値と入力値とで、絶対誤差和を取得し、その誤差和が所定の閾値よりも小さい場合には、動きベクトルを伝送し、閾値より大きい場合には、ブロック内の画素データを伝送するようにすればよい。
【0092】
このようにした場合、フラグがブロック内に1ビット付加されるだけの構成となるため、余分な情報量が減り、効率よく圧縮することが可能になる。
【0093】
さらに、図12に示されるように、閾値判定部26(そこにおける閾値判定処理)を省略し、常に動きベクトルを送出するようにしてもよい。そのようにすれば、より圧縮効率、伝送効率、符号化効率を向上させることが可能となる。
【0094】
なお、一番最初のフレームのデータに関しては、量子化を行ってもよいし、行わなくてもよい。また、前フレーム毎に、あるいは数フレーム毎に、基準フレームを更新してもよい。あるいは、また、基準フレームを全く更新しないようにすることも可能である。
【0095】
基準フレームを更新するようにした場合には、画像の劣化も少なく、復調側で、より品質の高い画像を再現することが可能なるばかりでなく、雑音による影響が後々まで伝播しないため、よりロバストな画像伝送方式を実現することができる。
【0096】
このように、本発明によれば、予測誤差が、絶対差分和や自乗誤差和に比べて同じか、それより小さくなるため、絶対差分和、または自乗誤差和を用いる方式に比べて、データの圧縮効率をより高めることができ、また、高画質の画像を伝送することが可能となる。
【0097】
以上においては、送信装置11と受信装置111は、独立する構成としたが、1つの装置内に、これらを一体化することも可能である。特に、伝送路が記録媒体により構成される場合には、その記録媒体に対して、データを記録再生する装置においては、送信装置と受信装置の両方が、1つの装置内に配置される。
【0098】
また、以上においては、画像データを例として説明したが、画像データ以外のコンテンツデータを伝送する場合にも、本発明を適用することが可能である。
【0099】
上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0100】
この記録媒体は、図2と図9に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク41,141(フロッピディスクを含む)、光ディスク42,142(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク43,143(MD(Mini-Disk)を含む)、もしくは半導体メモリ44,144などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや、記憶部に含まれるハードディスクなどで構成される。
【0101】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0102】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0103】
【発明の効果】
以上の如く、本発明によれば、伝送効率、圧縮効率、および符号化効率を向上させることが可能となる。
【0104】
また、本発明によれば、伝送効率、圧縮効率、または符号化効率を向上させた伝送データを、簡単かつ確実に、受信し、復号することが可能となる。
【図面の簡単な説明】
【図1】ブロックマッチングを説明する図である。
【図2】本発明を適用した送信装置の構成例を示すブロック図である。
【図3】図2のクラス分類適応処理部の構成例を示すブロック図である。
【図4】図2の送信装置の処理を説明するフローチャートである。
【図5】図2の送信装置の処理を説明するフローチャートである。
【図6】クラスタップの例を示す図である。
【図7】予測タップの例を示す図である。
【図8】図2のクラス分類適応処理部における予測処理を説明する図である。
【図9】本発明を適用した受信装置の構成例を示すブロック図である。
【図10】図9の受信装置の動作を説明するフローチャートである。
【図11】予測係数を取得する学習装置の構成例を示すブロック図である。
【図12】本発明を適用した送信装置の他の構成例を示すブロック図である。
【符号の説明】
21 予測フレームメモリ, 22 基準フレームメモリ, 23−1乃至23−n アドレス設定部, 24−1乃至24−n クラス分類適応処理部, 25 比較器, 26 閾値判定部, 27 後処理部, 28 量子化器[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus and method, a recording medium, and a program, and more particularly, to an information processing apparatus and method, a recording medium, and a program that enable efficient encoding.
[0002]
[Prior art]
Recently, compression methods represented by MPEG (Moving Picture Experts Group) have become widespread, and video data and audio data are compressed by the MPEG method and then recorded on a recording medium such as a hard disk, magnetic tape, or optical disk, or network Or transmitted via satellite.
[0003]
In the MPEG system, for example, as shown in FIG. 1, when a previous frame and a subsequent frame exist before and after the current frame, the current frame is divided into, for example, blocks of 8 × 8 pixels. Then, a block of 8 × 8 pixels is extracted within a predetermined search range of the previous frame, and
[0004]
Then, the relative coordinate position having the smallest absolute difference sum, square error sum, or representative point matching value in the search range is estimated as a motion vector.
[0005]
Further, when the class classification adaptive process is used, the pixel at the block position is predicted from the pixel of the
[0006]
[Problems to be solved by the invention]
However, such a conventional predictive coding method using block matching and class classification adaptive processing has a problem that transmission efficiency, compression efficiency, and coding efficiency are poor.
[0007]
The present invention has been made in view of such a situation, and is intended to improve transmission efficiency, compression efficiency, and encoding efficiency.
[0008]
[Means for Solving the Problems]
The information processing apparatus according to the present invention stores a second frame temporally prior to the first frame of the image data in the input image data, and stores the second frame every frame or every several frames. Updating means for updating the second frame, and a search range that is a part of the first frame and is around the position in the second frame corresponding to the first pixel data composed of one pixel. A plurality of second pixel data to be processed Is a plurality of pixel data used for class classification. Class tap and A plurality of pixel data used to generate a predicted value An extraction unit that extracts a prediction tap; a prediction value generation unit that generates a prediction value by performing class classification adaptive processing on the plurality of second pixel data using the class tap and the prediction tap extracted by the extraction unit; Of the prediction residuals calculated by the prediction residual calculation means, the prediction residual calculation means for calculating the prediction residual between the prediction value generated by the prediction value generation means and the first pixel data, the smallest prediction The residual is selected as the evaluation value for the first pixel data, and the prediction residual is determined to be smaller than the threshold based on the comparison means comparing the evaluation value with a predetermined threshold and the comparison result of the comparison means. The motion vector defined by the position of the first pixel data and the second pixel data with the smallest prediction residual is output, and if it is determined that the prediction residual is greater than the threshold, The prediction value generated by the prediction value generation means, the prediction residual calculated by the prediction residual calculation means, or the first pixel data, and whether the transmitted data is a prediction residual or not Output means for outputting a flag.
[0014]
The information processing method of the present invention stores a second frame temporally prior to a first frame of image data of input image data, and stores it every frame or every several frames. An update step for updating the second frame being present, and being within a search range that is part of the first frame and that is around the position in the second frame corresponding to the first pixel data consisting of one pixel A plurality of second pixel data to be processed Is a plurality of pixel data used for class classification. Class tap and A plurality of pixel data used to generate a predicted value An extraction step for extracting a prediction tap, and a prediction value generation step for generating a prediction value by performing class classification adaptive processing on the plurality of second pixel data using the class tap and the prediction tap extracted by the processing of the extraction step A prediction residual generated by calculating a prediction residual between the prediction value generated by the processing of the prediction value generating step and the first pixel data, and a prediction residual calculated by the processing of the prediction residual calculating step The smallest prediction residual is selected as the evaluation value for the first pixel data, and the prediction residual is based on the comparison step in which the evaluation value is compared with a predetermined threshold and the comparison result in the processing of the comparison step. When it is determined that the difference is smaller than the threshold value, a motion vector defined by the position of the first pixel data and the second pixel data having the smallest prediction residual is output. When it is determined that the prediction residual is larger than the threshold, the prediction value generated by the processing of the prediction value generation step, the prediction residual calculated by the processing of the prediction residual calculation step, And an output step of outputting a flag indicating whether or not the transmitted data is a prediction residual.
[0015]
The program of the first recording medium of the present invention stores the second frame temporally before the first frame of the image data of the input image data, and every frame or every several frames An update step for updating the stored second frame, and a search that is a part of the first frame and is around the position in the second frame corresponding to the first pixel data consisting of one pixel. A plurality of second pixel data existing in the range Is a plurality of pixel data used for class classification. Class tap and A plurality of pixel data used to generate a predicted value An extraction step for extracting a prediction tap, and a prediction value generation step for generating a prediction value by performing class classification adaptive processing on the plurality of second pixel data using the class tap and the prediction tap extracted by the processing of the extraction step A prediction residual generated by calculating a prediction residual between the prediction value generated by the processing of the prediction value generating step and the first pixel data, and a prediction residual calculated by the processing of the prediction residual calculating step The smallest prediction residual is selected as the evaluation value for the first pixel data, and the prediction residual is based on the comparison step in which the evaluation value is compared with a predetermined threshold and the comparison result in the processing of the comparison step. When it is determined that the difference is smaller than the threshold value, a motion vector defined by the position of the first pixel data and the second pixel data having the smallest prediction residual is output. When it is determined that the prediction residual is larger than the threshold, the prediction value generated by the processing of the prediction value generation step, the prediction residual calculated by the processing of the prediction residual calculation step, And an output step of outputting a flag indicating whether or not the transmitted data is a prediction residual.
[0016]
The first program of the present invention stores the second frame temporally before the first frame of the image data of the input image data, and stores the second frame every frame or every several frames. An update step for updating the second frame, and within a search range that is a part of the first frame and that is around the position in the second frame corresponding to the first pixel data consisting of one pixel. A plurality of second pixel data existing Is a plurality of pixel data used for class classification. Class tap and A plurality of pixel data used to generate a predicted value An extraction step for extracting a prediction tap, and a prediction value generation step for generating a prediction value by performing class classification adaptive processing on the plurality of second pixel data using the class tap and the prediction tap extracted by the processing of the extraction step A prediction residual generated by calculating a prediction residual between the prediction value generated by the processing of the prediction value generating step and the first pixel data, and a prediction residual calculated by the processing of the prediction residual calculating step The smallest prediction residual is selected as the evaluation value for the first pixel data, and the prediction residual is based on the comparison step in which the evaluation value is compared with a predetermined threshold and the comparison result in the processing of the comparison step. When it is determined that the difference is smaller than the threshold value, a motion vector defined by the position of the first pixel data and the second pixel data having the smallest prediction residual is output. When it is determined that the prediction residual is larger than the threshold, the prediction value generated by the processing of the prediction value generation step, the prediction residual calculated by the processing of the prediction residual calculation step, One of the pixel data and an output step of outputting a flag indicating whether the transmitted data is a prediction residual or not are executed by the computer.
[0026]
In the information processing apparatus and method, the recording medium, and the program of the present invention, the second frame temporally prior to the first frame of the image data of the input image data is stored, and for each frame, Alternatively, every few frames, the stored second frame is updated, around the position in the second frame that is part of the first frame and that corresponds to the first pixel data consisting of one pixel. A plurality of second pixel data existing within a certain search range Is a plurality of pixel data used for class classification. Class tap and A plurality of pixel data used to generate a predicted value A prediction tap is extracted, and a classifying adaptive process is performed on the plurality of second pixel data using the extracted class tap and the prediction tap, and a prediction value is generated. A prediction residual with the pixel data of the first pixel data is calculated, the smallest prediction residual among the calculated prediction residuals is selected as an evaluation value for the first pixel data, and the evaluation value and a predetermined threshold value are To be compared. Then, when it is determined that the prediction residual is smaller than the threshold based on the comparison result, a motion vector defined by the position of the first pixel data and the second pixel data having the smallest prediction residual is output. If it is determined that the prediction residual is larger than the threshold, the generated prediction value, the calculated prediction residual, or the first pixel data in addition to the motion vector, and the transmitted data include the prediction residual. A flag indicating whether or not there is a difference is output.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 2 shows a configuration example of a transmission apparatus in an image processing system to which the present invention is applied. In this transmission device 11, the
[0029]
The address setting unit 23-1 has a first search range (a search range corresponding to the target image of the predicted frame stored in the frame memory 21) in the pixel data stored in the
[0030]
The address setting unit 23-2 extracts the pixel data of the prediction tap and the class tap at the second position (position corresponding to the second motion vector v1) within the search range, and sends it to the class classification adaptation processing unit 24-2. Supply. The class classification adaptation processing unit 24-2 performs class classification adaptation processing based on the prediction tap and class tap pixel data supplied from the address setting unit 23-2, and calculates a prediction value for the pixel of interest.
[0031]
Similar configurations are provided for the number of motion vectors (n) obtained by searching the search range. That is, n combinations of address setting units and class classification adaptive processing units are prepared. For example, assuming that the search range is from minus 8 to plus 8 in both the horizontal and vertical directions, the number of n is 289 (= 17 × 17).
[0032]
The
[0033]
When the motion vector is supplied from the
[0034]
The motion vector output from the
[0035]
For example, the
[0036]
FIG. 3 shows the configuration of the class classification adaptive processing units 24-1 to 24-n (hereinafter, simply referred to as the class classification
[0037]
That is, the maximum value and the minimum value of the plurality of pixel data constituting the class tap are detected, and the difference between the maximum value and the minimum value is further calculated as a dynamic range. Each pixel data is normalized by subtracting the minimum value and further dividing by the dynamic range.
[0038]
The normalized data is compared with a predetermined reference value (for example, 0.5), and is set to 1 when it is larger than the reference value, for example, 0 when it is smaller than the reference value.
[0039]
That is, for example, when the number of pixels constituting the class tap is nine, 9-bit data is supplied from the
[0040]
A prediction coefficient corresponding to the class code is stored in the
[0041]
The prediction
[0042]
Next, processing of the transmission device 11 will be described with reference to the flowcharts of FIGS. 4 and 5.
[0043]
First, in step S <b> 11, the
[0044]
In step S12, processing for accumulating previous frame data is executed, and in step S13, processing for accumulating current frame data is executed. That is, for example, image data for one frame is stored in the
[0045]
In step S <b> 14, the
[0046]
In step S <b> 15, the
[0047]
Next, in step S16, addresses corresponding to the target pixel extracted in the process of step S14 are set for the address setting units 23-1 to 23-n, respectively. As a result, the pixel data including the class tap and the prediction tap corresponding to each search position (motion vector) in the search range corresponding to the target pixel from the address setting units 23-1 to 23-n is converted into the corresponding class classification. The data can be taken into the adaptive processing units 24-1 to 24-n.
[0048]
Therefore, in step S17, the class
[0049]
In step S18, the
[0050]
In step S <b> 19, the
[0051]
In step S <b> 20, the prediction
[0052]
In step S21, the predicted
[0053]
In step S22, the
[0054]
In step S23, the
[0055]
In step S25, the
[0056]
In step S26, the
[0057]
When it is determined that the prediction residual (evaluation value) is smaller than the transmission determination threshold, the process of step S27 is skipped.
[0058]
If it is determined in step S23 that the prediction residual (evaluation value) is equal to or greater than the comparison value, the processes in steps S24 to S27 are skipped.
[0059]
In step S28, the
[0060]
As described above, the processes in steps S16 to S28 are executed for all n predicted values output from the class classification adaptive processing units 24-1 to 24-n.
[0061]
If it is determined in step S28 that the processing of all positions within the search range has been completed, the process proceeds to step S29, and the
[0062]
If it is determined in step S29 that there is no evaluation value smaller than the transmission determination threshold value, the prediction residual (evaluation value) held by the process in step S27 in the threshold
[0063]
That is, if all n prediction residuals (evaluation values) are equal to or larger than the transmission determination threshold, the prediction residual corresponding to the smallest value among them is held in the process of step S27. Therefore, the
[0064]
After the processes of steps S30 and S31, in step S32, the
[0065]
If it is determined in step S32 that the processing for all the search ranges has been completed, in step S33, the
[0066]
In step S34, the
[0067]
As described above, as shown in FIG. 8, a predetermined pixel is selected as the
[0068]
Within the
[0069]
The
[0070]
The above process is executed by sequentially selecting all the pixels in the
[0071]
As described above, the image data transmitted to the transmission path is received and decoded by a receiving apparatus as shown in FIG.
[0072]
In this receiving apparatus 111, the
[0073]
The class classification
[0074]
The class classification
[0075]
When the
[0076]
The synthesizing
[0077]
For example, the
[0078]
The
[0079]
Next, the decoding process in the receiving apparatus 111 will be described with reference to the flowchart of FIG.
[0080]
In step S <b> 51, the
[0081]
In step S54, the class classification
[0082]
The generated predicted value is supplied to the
[0083]
In step S <b> 52, data (prediction error data) determined not to be a motion vector among the transmitted data is output from the
[0084]
The prediction coefficient stored in the
[0085]
The class
[0086]
The prediction
[0087]
The prediction
[0088]
Next, the operation of the learning device 160 will be described. The class
[0089]
From the student data generated by the student
[0090]
In the above, when it is determined in step S29 in FIG. 4 that there is no evaluation value smaller than the transmission determination threshold, the motion vector and the prediction residual are transmitted in the process of step S31. Instead of the prediction residual, it is also possible to send the predicted value calculated in step S21 or send the pixel data value of the target pixel itself.
[0091]
It is also possible to perform processing in units of blocks instead of in units of pixels. In this case, an absolute error sum is obtained from the predicted value and input value in the block, and if the error sum is smaller than a predetermined threshold, a motion vector is transmitted. The pixel data in the block may be transmitted.
[0092]
In this case, since only one bit is added to the flag in the block, the amount of extra information is reduced, and compression can be performed efficiently.
[0093]
Furthermore, as shown in FIG. 12, the threshold value determination unit 26 (threshold value determination process) may be omitted and a motion vector may be always transmitted. By doing so, it is possible to further improve the compression efficiency, transmission efficiency, and encoding efficiency.
[0094]
Note that the quantization of the first frame data may or may not be performed. Further, the reference frame may be updated every previous frame or every several frames. Alternatively, it is also possible not to update the reference frame at all.
[0095]
When the reference frame is updated, image degradation is small, and not only the demodulation side can reproduce a higher quality image, but also the influence of noise does not propagate to the later stage, so it is more robust. A simple image transmission method can be realized.
[0096]
As described above, according to the present invention, the prediction error is the same as or smaller than the absolute difference sum or the square error sum. Therefore, compared with the method using the absolute difference sum or the square error sum, The compression efficiency can be further increased, and a high-quality image can be transmitted.
[0097]
In the above description, the transmission device 11 and the reception device 111 are configured to be independent from each other. However, they can be integrated in one device. In particular, when the transmission path is configured by a recording medium, in a device that records and reproduces data with respect to the recording medium, both the transmission device and the reception device are arranged in one device.
[0098]
In the above description, image data has been described as an example. However, the present invention can also be applied to the case of transmitting content data other than image data.
[0099]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.
[0100]
As shown in FIGS. 2 and 9, the recording medium is distributed to provide a program to the user separately from the apparatus main body, and includes
[0101]
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
[0102]
Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0103]
【The invention's effect】
As described above, according to the present invention, transmission efficiency, compression efficiency, and encoding efficiency can be improved.
[0104]
Furthermore, according to the present invention, it is possible to easily and reliably receive and decode transmission data with improved transmission efficiency, compression efficiency, or encoding efficiency.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating block matching.
FIG. 2 is a block diagram illustrating a configuration example of a transmission apparatus to which the present invention is applied.
FIG. 3 is a block diagram illustrating a configuration example of a class classification adaptation processing unit in FIG. 2;
4 is a flowchart illustrating processing of the transmission apparatus in FIG.
FIG. 5 is a flowchart for explaining processing of the transmission apparatus in FIG. 2;
FIG. 6 is a diagram illustrating an example of a class tap.
FIG. 7 is a diagram illustrating an example of a prediction tap.
8 is a diagram for explaining prediction processing in the class classification adaptation processing unit in FIG. 2; FIG.
FIG. 9 is a block diagram illustrating a configuration example of a receiving device to which the present invention is applied.
10 is a flowchart for explaining the operation of the receiving apparatus of FIG. 9;
FIG. 11 is a block diagram illustrating a configuration example of a learning apparatus that acquires a prediction coefficient.
FIG. 12 is a block diagram showing another configuration example of the transmission apparatus to which the present invention is applied.
[Explanation of symbols]
21 prediction frame memory, 22 reference frame memory, 23-1 to 23-n address setting unit, 24-1 to 24-n class classification adaptive processing unit, 25 comparator, 26 threshold value determination unit, 27 post-processing unit, 28 quantum Generator
Claims (4)
前記第1のフレームの一部であって1つの画素からなる第1の画素データに対応する前記第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップを抽出する抽出手段と、
前記抽出手段により抽出された前記クラスタップおよび前記予測タップを用いて前記複数の第2の画素データをクラス分類適応処理することにより、予測値を生成する予測値生成手段と、
前記予測値生成手段により生成された前記予測値と、前記第1の画素データとの予測残差を演算する予測残差演算手段と、
前記予測残差演算手段により演算された前記予測残差のうち、最小の予測残差を前記第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とを比較する比較手段と、
前記比較手段の比較結果に基づいて、前記予測残差が前記閾値より小さいと判定された場合、前記第1の画素データと、予測残差が最小である前記第2の画素データの位置により規定される動きベクトルを出力し、前記予測残差が前記閾値より大きいと判定された場合、前記動きベクトルの他、前記予測値生成手段により生成された前記予測値、前記予測残差演算手段により演算された前記予測残差、または前記第1の画素データのいずれかと、送出したデータが、前記予測残差であるか否かを表すフラグを出力する出力手段と
を備えることを特徴とする情報処理装置。Of the input image data, the second frame temporally prior to the first frame of the image data is stored, and the stored second frame is stored every frame or every several frames. Update means for updating;
Class a plurality of second pixel data present within the search range around the position in the second frame is a part corresponding to the first pixel data of one pixel of the first frame Extraction means for extracting class taps that are a plurality of pixel data used for class classification and prediction taps that are a plurality of pixel data used for generating a prediction value, which are used for classification adaptive processing ;
Predicted value generation means for generating a predicted value by performing class classification adaptive processing on the plurality of second pixel data using the class tap and the prediction tap extracted by the extraction means;
Prediction residual calculation means for calculating a prediction residual between the prediction value generated by the prediction value generation means and the first pixel data;
Comparison means for selecting a minimum prediction residual among the prediction residuals calculated by the prediction residual calculation means as an evaluation value for the first pixel data and comparing the evaluation value with a predetermined threshold value. When,
When it is determined that the prediction residual is smaller than the threshold value based on the comparison result of the comparison means, it is defined by the position of the first pixel data and the second pixel data having the smallest prediction residual. When the prediction residual is determined to be larger than the threshold, the prediction value generated by the prediction value generation unit and the prediction residual calculation unit are calculated in addition to the motion vector. And an output means for outputting a flag indicating whether or not the transmitted data is the prediction residual. apparatus.
前記第1のフレームの一部であって1つの画素からなる第1の画素データに対応する前記第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップを抽出する抽出ステップと、
前記抽出ステップの処理により抽出された前記クラスタップおよび前記予測タップを用いて前記複数の第2の画素データをクラス分類適応処理することにより、予測値を生成する予測値生成ステップと、
前記予測値生成ステップの処理により生成された前記予測値と、前記第1の画素データとの予測残差を演算する予測残差演算ステップと、
前記予測残差演算ステップの処理により演算された前記予測残差のうち、最小の予測残差を前記第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とを比較する比較ステップと、
前記比較ステップの処理における比較結果に基づいて、前記予測残差が前記閾値より小さいと判定された場合、前記第1の画素データと、予測残差が最小である前記第2の画素データの位置により規定される動きベクトルを出力し、前記予測残差が前記閾値より大きいと判定された場合、前記動きベクトルの他、前記予測値生成ステップの処理により生成された前記予測値、前記予測残差演算ステップの処理により演算された前記予測残差、または前記第1の画素データのいずれかと、送出したデータが、前記予測残差であるか否かを表すフラグを出力する出力ステップと
を含むことを特徴とする情報処理方法。Of the input image data, the second frame temporally prior to the first frame of the image data is stored, and the stored second frame is stored every frame or every several frames. An update step to update;
Class a plurality of second pixel data present within the search range around the position in the second frame is a part corresponding to the first pixel data of one pixel of the first frame An extraction step for extracting a class tap which is a plurality of pixel data used for class classification and a plurality of pixel data used for generation of a prediction value, which are used for classification adaptive processing ;
A predicted value generation step of generating a predicted value by performing a class classification adaptive process on the plurality of second pixel data using the class tap and the prediction tap extracted by the processing of the extraction step;
A prediction residual calculation step of calculating a prediction residual between the prediction value generated by the processing of the prediction value generation step and the first pixel data;
Among the prediction residuals calculated by the processing of the prediction residual calculation step, the smallest prediction residual is selected as an evaluation value for the first pixel data, and the evaluation value is compared with a predetermined threshold value. A comparison step;
When it is determined that the prediction residual is smaller than the threshold based on the comparison result in the comparison step, the position of the first pixel data and the second pixel data having the smallest prediction residual When the prediction residual is determined to be larger than the threshold, the prediction value generated by the processing of the prediction value generation step and the prediction residual are output in addition to the motion vector. An output step of outputting either the prediction residual calculated by the processing of the calculation step or the first pixel data and a flag indicating whether or not the transmitted data is the prediction residual. An information processing method characterized by the above.
前記第1のフレームの一部であって1つの画素からなる第1の画素データに対応する前記第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップを抽出する抽出ステップと、
前記抽出ステップの処理により抽出された前記クラスタップおよび前記予測タップを用いて前記複数の前記第2の画素データをクラス分類適応処理することにより、予測値を生成する予測値生成ステップと、
前記予測値生成ステップの処理により生成された前記予測値と、前記第1の画素データとの予測残差を演算する予測残差演算ステップと、
前記予測残差演算ステップの処理により演算された前記予測残差のうち、最小の予測残差を前記第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とを比較する比較ステップと、
前記比較ステップの処理における比較結果に基づいて、前記予測残差が前記閾値より小さいと判定された場合、前記第1の画素データと、予測残差が最小である前記第2の画素データの位置により規定される動きベクトルを出力し、前記予測残差が前記閾値より大きいと判定された場合、前記動きベクトルの他、前記予測値生成ステップの処理により生成された前記予測値、前記予測残差演算ステップの処理により演算された前記予測残差、または前記第1の画素データのいずれかと、送出したデータが、前記予測残差であるか否かを表すフラグを出力する出力ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。Of the input image data, the second frame temporally prior to the first frame of the image data is stored, and the stored second frame is stored every frame or every several frames. An update step to update;
Class a plurality of second pixel data present within the search range around the position in the second frame is a part corresponding to the first pixel data of one pixel of the first frame An extraction step for extracting a class tap which is a plurality of pixel data used for class classification and a plurality of pixel data used for generation of a prediction value, which are used for classification adaptive processing ;
A predicted value generation step of generating a predicted value by performing a class classification adaptive process on the plurality of second pixel data using the class tap and the prediction tap extracted by the processing of the extraction step;
A prediction residual calculation step of calculating a prediction residual between the prediction value generated by the processing of the prediction value generation step and the first pixel data;
Among the prediction residuals calculated by the processing of the prediction residual calculation step, the smallest prediction residual is selected as an evaluation value for the first pixel data, and the evaluation value is compared with a predetermined threshold value. A comparison step;
When it is determined that the prediction residual is smaller than the threshold based on the comparison result in the comparison step, the position of the first pixel data and the second pixel data having the smallest prediction residual When the prediction residual is determined to be larger than the threshold, the prediction value generated by the processing of the prediction value generation step and the prediction residual are output in addition to the motion vector. An output step of outputting either the prediction residual calculated by the processing of the calculation step or the first pixel data and a flag indicating whether or not the transmitted data is the prediction residual. A recording medium on which a computer-readable program is recorded.
前記第1のフレームの一部であって1つの画素からなる第1の画素データに対応する前記第2のフレームにおける位置の周辺である探索範囲内に存在する複数の第2の画素データをクラス分類適応処理するのに用いる、クラス分類に用いる複数の画素データであるクラスタップおよび予測値の生成に用いる複数の画素データである予測タップを抽出する抽出ステップと、
前記抽出ステップの処理により抽出された前記クラスタップおよび前記予測タップを用いて前記複数の前記第2の画素データをクラス分類適応処理することにより、予測値を生成する予測値生成ステップと、
前記予測値生成ステップの処理により生成された前記予測値と、前記第1の画素データとの予測残差を演算する予測残差演算ステップと、
前記予測残差演算ステップの処理により演算された前記予測残差のうち、最小の予測残差を前記第1の画素データに対する評価値として選択し、当該評価値と、所定の閾値とを比較する比較ステップと、
前記比較ステップの処理における比較結果に基づいて、前記予測残差が前記閾値より小さいと判定された場合、前記第1の画素データと、予測残差が最小である前記第2の画素データの位置により規定される動きベクトルを出力し、前記予測残差が前記閾値より大きいと判定された場合、前記動きベクトルの他、前記予測値生成ステップの処理により生成された前記予測値、前記予測残差演算ステップの処理により演算された前記予測残差、または前記第1の画素データのいずれかと、送出したデータが、前記予測残差であるか否かを表すフラグを出力する出力ステップと
をコンピュータに実行させるプログラム。Of the input image data, the second frame temporally prior to the first frame of the image data is stored, and the stored second frame is stored every frame or every several frames. An update step to update;
Class a plurality of second pixel data present within the search range around the position in the second frame is a part corresponding to the first pixel data of one pixel of the first frame An extraction step for extracting a class tap which is a plurality of pixel data used for class classification and a plurality of pixel data used for generation of a prediction value, which are used for classification adaptive processing ;
A predicted value generation step of generating a predicted value by performing a class classification adaptive process on the plurality of second pixel data using the class tap and the prediction tap extracted by the processing of the extraction step;
A prediction residual calculation step of calculating a prediction residual between the prediction value generated by the processing of the prediction value generation step and the first pixel data;
Among the prediction residuals calculated by the processing of the prediction residual calculation step, the smallest prediction residual is selected as an evaluation value for the first pixel data, and the evaluation value is compared with a predetermined threshold value. A comparison step;
When it is determined that the prediction residual is smaller than the threshold based on the comparison result in the comparison step, the position of the first pixel data and the second pixel data having the smallest prediction residual When the prediction residual is determined to be larger than the threshold, the prediction value generated by the processing of the prediction value generation step and the prediction residual are output in addition to the motion vector. An output step of outputting to the computer either the prediction residual calculated by the processing of the calculation step or the first pixel data and a flag indicating whether or not the transmitted data is the prediction residual. The program to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002008251A JP4120916B2 (en) | 2002-01-17 | 2002-01-17 | Information processing apparatus and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002008251A JP4120916B2 (en) | 2002-01-17 | 2002-01-17 | Information processing apparatus and method, recording medium, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007191595A Division JP4748127B2 (en) | 2007-07-24 | 2007-07-24 | Information processing apparatus and method, recording medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003209843A JP2003209843A (en) | 2003-07-25 |
JP4120916B2 true JP4120916B2 (en) | 2008-07-16 |
Family
ID=27646566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002008251A Expired - Fee Related JP4120916B2 (en) | 2002-01-17 | 2002-01-17 | Information processing apparatus and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4120916B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7924918B2 (en) * | 2004-11-29 | 2011-04-12 | Ntt Docomo, Inc. | Temporal prediction in video coding |
GB2583519B (en) * | 2019-05-02 | 2021-12-08 | Apical Ltd | Image processing |
-
2002
- 2002-01-17 JP JP2002008251A patent/JP4120916B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003209843A (en) | 2003-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101512324B1 (en) | Method of estimating motion vector using multiple motion vector predictors, apparatus, encoder, decoder and decoding method | |
KR100803611B1 (en) | Method and apparatus for encoding video, method and apparatus for decoding video | |
US7643690B2 (en) | Image decoding and encoding apparatus, method and computer readable storage medium | |
JP2002315004A (en) | Image-encoding method and device, image-decoding method and device, and image processing system | |
WO2007046433A1 (en) | Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program | |
JP4994767B2 (en) | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program | |
JP4462823B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
JP4362895B2 (en) | Data processing apparatus, data processing method, and recording medium | |
JP4445463B2 (en) | Video re-encoding method and apparatus | |
JP2012235407A (en) | Image processing apparatus and image processing method | |
JP2023542331A (en) | Videoconferencing based on adaptive face reconstruction and face reconstruction | |
US20070092005A1 (en) | Method and apparatus for encoding, method and apparatus for decoding, program, and storage medium | |
JP4552261B2 (en) | Digital information conversion apparatus and method, and image information conversion apparatus and method | |
JPH11187407A (en) | Image coder, and image coding method therefor, served medium, image decoder and image decoding method therefor, and system and method of learning | |
JP4120916B2 (en) | Information processing apparatus and method, recording medium, and program | |
JP4507046B2 (en) | Data processing apparatus, data processing method, program, and recording medium | |
JP4748127B2 (en) | Information processing apparatus and method, recording medium, and program | |
JP4254003B2 (en) | Embedding device and embedding method, decoding device and decoding method, and recording medium | |
JP2016536859A (en) | Media signal encoding and decoding method and apparatus using the same | |
JP3844031B2 (en) | Image coding apparatus and image coding method, and image decoding apparatus and image decoding method | |
US20220060686A1 (en) | Video encoding and video decoding | |
JP4552262B2 (en) | Noise reduction apparatus and method | |
JP2003299096A (en) | Information signal processing apparatus, method therefor, video signal processing apparatus and video display apparatus, apparatus and method of generating coefficient class data using the same, apparatus and method of generating coefficient class data, program for executing each method, and computer-readable medium recording this program | |
JP4554138B2 (en) | Image encoding apparatus and method, image decoding apparatus and method, image processing system, recording medium, and program | |
JP4518727B2 (en) | Image encoding apparatus and method, recording medium, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070525 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070724 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070822 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071019 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20071112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080115 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080404 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080417 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110509 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110509 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120509 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130509 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130509 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |