JP4171958B2 - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP4171958B2 JP4171958B2 JP2000090728A JP2000090728A JP4171958B2 JP 4171958 B2 JP4171958 B2 JP 4171958B2 JP 2000090728 A JP2000090728 A JP 2000090728A JP 2000090728 A JP2000090728 A JP 2000090728A JP 4171958 B2 JP4171958 B2 JP 4171958B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- class
- prediction
- classification
- tap
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Description
【発明の属する技術分野】
本発明は画像処理装置及び画像処理方法に関し、例えば画像データの画質を改善する画像データ変換装置に適用して好適なものである。
【0002】
【従来の技術】
従来、画像データの圧縮符号化方式としてMPEG(Moving Picture Experts Group)2規格による符号化方式がある。このMPEG2規格による符号化方式を用いた送受信システムは、送信側で、画像データに対してMPEG2規格による圧縮符号化処理を施して送信し、受信側で、受信した画像データを伸長復号化することにより元の画像データを復元している。
【0003】
【発明が解決しようとする課題】
ところでこのような送受信システムの受信装置においては、伸長復号化された標準精細度の画像データをその各画素の信号レベル分布に応じたクラスに分類した後、予測係数と呼ばれるデータが予め格納されているメモリからそのクラスに対応する予測係数を読み出し、当該予測係数と伸長復号化された標準精細度の画像データとから高精細度の画像データを予測演算するいわゆるクラス分類適応処理を用いたアップコンバータが考えられている。
【0004】
一般に、MPEG2規格によって圧縮符号化された画像データは、Iピクチャ(Intra coded picture) と、Pピクチャ(Predictive coded picture)と、Bピクチャ(Bidirectionally predictive coded picture)とから形成されている。Iピクチャは、フレーム内符号化を施し、そのフレーム画像内の情報だけを符号化して生成されたものである。Pピクチャは、そのフレーム画像よりも過去のIピクチャ又はPピクチャから予測符号化して生成されたものである。Bピクチャは、そのフレーム画像よりも過去及び又は未来のPピクチャ又はIピクチャの双方から予測符号化して生成されたものである。
【0005】
このようにMPEG2規格による符号化方式を用いた送受信システムでは、フレーム毎に異なる圧縮符号化処理が行われていることから、圧縮符号化された画像データを伸長復号化しても、フレーム画像に対して施された符号化処理に応じてその再現率が異なり、フレーム毎に精細度の異なる画像データが生成されることになる。
【0006】
上述のアップコンバータでは、伸長復号化された画像データに対して全て同様のクラス分類適応処理を施しているが、フレーム毎に画像の再現率すなわち精細度が異なることから、予測演算された画像データに時間方向の歪みや表示画面上のちらつきいわゆるフリッカが生じてしまい、画質の改善を妨げる問題が生じることになる。
【0007】
本発明は以上の点を考慮してなされたもので、従来に比して一段と画質を向上し得る画像処理装置及び画像処理方法を提案しようとするものである。
【0008】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、MPEG規格に準じて符号化された第1の画像データを当該MPEG規格に準じて復号するとともに、当該第1の画像データから、画像単位で異なるピクチャタイプの種類の変化を示す変化情報と、当該第1の画像データを復号する際に必要で復号後の画質に係る付加情報とを検出する復号手段と、復号手段により検出された変化情報及び付加情報を表す分類コードを出力する分類コード出力手段と、復号手段により復号された第1の画像データから、当該第1の画像データをもとに当該第1の画像データよりも高精細度の第2の画像データを生成するうえで注目する注目画素と当該注目画素周辺の所定数の画素とをクラス分類用のクラスタップとして抽出するクラスタップ抽出手段と、クラスタップ抽出手段により抽出されたクラスタップの信号レベル分布と分類コード出力手段から出力された分類コードとをもとに、第1の画像データを、クラスタップの信号レベル分布、変化情報及び付加情報を表すクラスに分類するクラス分類手段と、あらかじめ学習によりクラス分類手段において分類されたクラス毎に求めた、第1の画像データから第2の画像データを予測生成するための予測係数を記憶し、クラス分類手段により分類されたクラスに応じて予測係数を出力する予測係数記憶手段と、復号手段により復号された第1の画像データから、注目画素と当該注目画素周辺の所定数の画素とを、当該第1の画像データには含まれない第2の画像データの画素を予測生成するための予測タップとして抽出する予測タップ抽出手段と、予測タップ抽出手段により抽出された予測タップに対して、予測係数記憶手段から出力された予測係数を用いた予測演算を実行して当該第1の画像データには含まれない第2の画像データの画素を推定することで、当該第2の画像データを生成する予測演算手段とを設けるようにした。
【0009】
このように、クラスタップの信号レベル分布にくわえて、さらにMPEG規格に基づく、ピクチャタイプの種類の変化を示す変化情報と復号後の画質に係ってくる付加情報とをもとに、第1の画像データをクラス分類するようにしたことにより、MPEG規格に準じた第1の画像データから高精細度の第2の画像データを生成するうえで、クラスタップの信号レベルのみを用いてクラス分類する場合と比して、一段とMPEG規格に適したクラス分類を行うことができる。この結果、時間方向の歪みやフリッカを低減させたより高画質の第2の画像データを生成することができる。
【0010】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0011】
(1)クラス分類適応処理の原理
ここで図1は、クラス分類適応処理を実現するアップコンバータ51の回路構成を示す。アップコンバータ51は、外部から供給される例えば8ビットのパルス符号変調(PCM:Pulse Code Modulation )データでなるSD画像データS51をクラス分類部52及び予測演算部53に入力する。クラス分類部52は、例えば図2に示すように、SD画像データS51のうち注目画素及び当該注目画素を中心とした複数の周辺画素でなる合計7画素(タップ)をクラス分類用の画素(以下、これをクラスタップと呼ぶ)として設定し、それらの信号レベル分布に基づいてクラスコードS52を生成する。因みに、図中実線は第1フィールドを示し、点線は第2フィールドを示す。
【0012】
このクラス分類部52によってクラスコードS52を生成する方法としては、PCMデータを直接使用する(すなわちPCMデータをそのままクラスデータS52とする)方法や、ADRC(Adaptive Dynamic Range Coding )等のデータ圧縮方法を用いてクラス数を削減するような方法が考えられる。このうちPCMデータをそのままクラスコードS52とする方法では、クラスタップとして8ビットのPCMデータを7タップ用いることから、クラス数が256という膨大な数のクラス数に分類されることになり、実用上問題がある。
【0013】
そこで実際には、クラス分類部52は、ADRCのようなデータ圧縮処理(すなわち再量子化処理)を施すことによりクラス数を削減するようになされている。このADRCによる分類法は、注目画素を中心とする近傍領域内の数タップからADRCコードを、次式
【0014】
【数1】
【0015】
によって求め、当該ADRCコードに基づいてクラスコードS52を生成する手法を用いている。ここで、ci はADRCコード、xi は各クラスタップの入力画素値、MINは領域内にある各クラスタップの入力画素値のうちの最小画素値、DRは領域内のダイナミックレンジ(最大画素値と最小画素値との差分)、kは再量子化ビット数である。
【0016】
すなわちADRCによる分類法は、領域内のダイナミックレンジから再量子化ビット数に応じた量子化ステップ幅を算出し、入力画素値から最小画素値を減算した画素値を量子化ステップ幅に応じて再量子化するものである。例えば領域内の7タップにおいて各クラスタップを1ビットに再量子化する1ビットADRCを行う場合では、領域内のダイナミックレンジに基づいて7タップの各入力画素値を適応的に1ビット量子化し、その結果、7タップの入力画素値を7ビットのデータに削減することができるので、全体としてクラス数を128クラスにまで削減することができる。
【0017】
図1に戻って、予測係数ROM(Read Only Memory)54は、後述する学習回路60によって予め生成された各クラス毎に対応する予測係数データS53を格納しており、クラス分類部52から供給されるクラスコードS52に応じた予測係数データS53を読み出し、これを予測演算部53に送出する。予測演算部53は、例えば図3に示すように、外部から入力されるSD画像データS51のうち、注目画素及び当該注目画素を中心とした複数の周辺画素でなる合計13タップを予測演算用の画素(以下、これを予測タップと呼ぶ)として選定し、当該予測タップの各画素値と予測係数データS53とを用いて、線形一次結合でなる次式
【0018】
【数2】
【0019】
によって表される積和演算を行うことにより、予測タップには存在しないHD画素の集まりであるHD画像データS54を生成し、これを外部に出力する。ここで、x′は各HD画素値、xi は各予測タップの画素値、wi は予測係数、nは予測タップ数であり、この場合nは13である。
【0020】
ところで図4は、予測係数ROM54に格納されている予測係数データを生成する学習回路60の回路構成を示し、当該学習回路60は、予測係数データを予め生成して、これを予測係数ROM54に格納するようになされている。学習回路60は、いわゆる教師信号としてのHD画像データS60を垂直間引きフィルタ61及び予測係数算出回路62に入力する。学習回路60は、HD画像データS60を垂直間引きフィルタ61及び水平間引きフィルタ62によって間引くことにより、生徒信号としてのSD画像データS61を生成し、これをクラス分類部64及び予測係数算出回路62に入力するようになされている。
【0021】
クラス分類部64は、図1に示すアップコンバータのクラス分類部52と同様の構成でなり、SD画像データS61からクラスタップを選定し、その信号レベル分布に基づいてクラスコードS62を生成した後、これを予測係数算出回路62に送出する。予測係数算出回路62は、HD画像データS60及びSD画像データS61を基に、クラスコードS62が示すクラスに応じた予測係数をクラス毎に算出し、その結果得た予測係数データS63を予測係数ROM54に格納する。
【0022】
この場合、予測係数算出回路62は、上述の(2)式における予測係数wを最小自乗法によって求めるようになされている。具体的には予測係数算出回路62は、XをSD画素値、Wを予測係数、YをHD画素値として、いわゆる観測方程式と呼ばれる次式
【0023】
【数3】
【0024】
を生成するように各データを収集する。ここでmは予測するHD画素の画素数を示す学習データ数、nは予測タップ数である。
【0025】
次に予測係数算出回路62は、この(3)式を基に、次式
【0026】
【数4】
【0027】
に示す残差方程式を立てる。従って各予測係数wi は、この(4)式から、次式
【0028】
【数5】
【0029】
が最小のときに最適な値となることがわかる。すなわち次式
【0030】
【数6】
【0031】
を満たすように予測係数wi が算出される。
【0032】
そこで予測係数算出回路62は、このn個ある(6)式を満たすようなw1 、w2 、……、wn を算出すればよいことになり、上述の(4)式から、次式
【0033】
【数7】
【0034】
を得、これら(6)及び(7)式から、次式
【0035】
【数8】
【0036】
を求める。そして予測係数算出回路62は、上述の(4)及び(8)式から、次式
【0037】
【数9】
【0038】
によって表される正規方程式を生成する。このようにして予測係数算出回路62は、予測タップ数nと同一次数の連立方程式でなる正規方程式を生成し、掃き出し法(Gauss Jordanの消去法)を用いてこの正規方程式を解くことにより、各予測係数wi を算出する。
【0039】
以下、学習回路60による予測係数生成手順について図5に示すフローチャートを用いて説明する。ステップSP61から入ったステップSP62において、学習回路60は、教師信号としてのHD画像データS60から生徒信号としてのSD画像データS61を生成することにより、予測係数を生成するのに必要な学習データを生成する。ステップSP63において、学習回路60は、予測係数を生成するのに必要十分な学習データが得られたか否か判定し、その結果、未だ必要十分な学習データが得られていないと判断された場合にはステップSP63において否定結果を得ることによりステップSP64に移行する。
【0040】
ステップSP64において、学習回路60は、SD画像データS61からクラスタップを選定し、その信号レベル分布に基づいてクラス分類を行う。ステップSP65において、学習回路60は、各クラス毎に上述の(9)式でなる正規方程式を生成し、ステップSP62に戻って同様の処理手順を繰り返すことにより、予測係数を生成するのに必要十分な正規方程式を生成する。
【0041】
これに対してステップSP63において肯定結果が得られると、このことは必要十分な学習データが得られたことを表しており、このとき学習回路60はステップSP66に移って、上述の(9)式でなる正規方程式を掃き出し法によって解くことにより、予測係数w1 、w2 、……、wn を各クラス毎に生成する。そしてステップSP67において、学習回路60は、生成した各クラス毎の予測係数w1 、w2 、……、wn を予測係数ROM54に格納し、ステップSP68に移って処理を終了する。
【0042】
(2)第1の実施の形態
図6において、100は全体として図1〜図5について上述したクラス分類適応処理の原理を用いた第1の実施の形態のアップコンバータの構成を示す。アップコンバータ100は、外部からMPEG2方式を用いて圧縮符号化された符号化画像データS100が供給されると、これをデコーダ101に入力する。デコード101は、この符号化画像データS100を伸長復号化することにより画像データS101を復元し、これを領域切り出し部102及び103に送出する。その際、デコーダ101は、フレーム毎に異なるデコード情報、例えば図7(A)に示すように、現在のフレームとその周辺のフレームにおけるピクチャタイプの変化情報を示すピクチャタイプパターンデータS102を生成し、これを範囲切り出し部104に送出する。
【0043】
範囲切り出し部104は、供給されたピクチャタイプパターンデータS102の中から参照範囲、例えば現在のフレームとその前後3フレームとを切り出し、この切り出されたピクチャタイプパターンデータS103を判定部105に送出する。判定部105は、図7(B)に示すように、この切り出されたピクチャタイプパターンデータS103をそのパターン列に応じた分類コードS104に変換し、これをクラスコード発生部106に送出する。
【0044】
ところで領域切り出し部102は、画像データS101からクラスタップを抽出し、それらの信号レベル分布を示すクラスタップデータS110を特徴量抽出部110に送出する。特徴量抽出部110は、クラスタップデータS110に対して1ビットADRCを施すことによりADRCコードS111を生成し、これをクラスコード発生部106に送出する。
【0045】
クラスコード発生部106は、上述の分類コードS104とADRCコードS111とを合成することによりクラスコードS112を生成し、これをROM111に送出する。ROM111は、後述する学習回路によって予め生成されたクラス毎に対応する予測係数を格納しており、クラスコード発生部106から供給されるクラスコードS112に応じた予測係数データS113を読み出し、これを予測演算部112に送出する。
【0046】
一方、領域切り出し部103は、画像データS101から予測タップを抽出し、それらの信号レベル分布を示す予測タップデータS114を予測演算部112に送出する。予測演算部112は、予測係数データS113と予測タップデータS114との積和演算を施すことにより高精細度の画像データS115を生成し、これを外部に出力する。
【0047】
続いて図8は、ROM111(図6)に格納されている予測係数を生成する学習回路120の構成を示す。学習回路120は、教師画像として高精細度の画像データS120をエンコーダ121及び正規方程式演算部122に送出する。エンコーダ121は、画像データS120をMPEG2方式を用いて圧縮符号化し、その結果得られる符号化画像データS121をデコーダ123に送出する。
【0048】
デコーダ123は、アップコンバータ100のデコーダ101(図6)と同様に構成されており、符号化画像データS121を伸長復号化することにより生徒画像としての標準精細度の画像データS122を生成し、これを領域切り出し部124及び125に送出する。その際、デコーダ123は、フレーム毎に異なるデコード情報、例えば現在のフレームとその周辺のフレームにおけるピクチャタイプの変化情報を示すピクチャタイプパターンデータS123を生成し、これを範囲切り出し部126に送出する。
【0049】
範囲切り出し部126は、アップコンバータ100の範囲切り出し部104(図6)と同様に構成されており、供給されたピクチャタイプパターンデータS123の中から参照範囲、例えば現在のフレームとその前後3フレームとを切り出し、この切り出されたピクチャタイプパターンデータS124を判定部127に送出する。判定部127は、アップコンバータ100の判定部105(図6)と同様に構成されており、この切り出されたピクチャタイプパターンデータS124をそのパターン列に応じた分類コードS125に変換し、これをクラスコード発生部128に送出する。
【0050】
ところで領域切り出し部124は、アップコンバータ100の領域切り出し部102(図6)と同様に構成されており、画像データS122からクラスタップを抽出し、それらの信号レベル分布を示すクラスタップデータS130を特徴量抽出部130に送出する。特徴量抽出部130は、アップコンバータ100の特徴量抽出部110(図6)と同様に構成されており、クラスタップデータS130に対して1ビットADRCを施すことによりADRCコードS131を生成し、これをクラスコード発生部128に送出する。
【0051】
クラスコード発生部128は、アップコンバータ100のクラスコード発生部106(図6)と同様に構成されており、上述の分類コードS125とADRCコードS131とを合成することによりクラスコードS132を生成し、これを正規方程式演算部122に送出する。
【0052】
一方、領域切り出し部125は、アップコンバータ100の領域切り出し部103(図6)と同様に構成されており、画像データS122から予測タップを抽出し、それらの信号レベル分布を示す予測タップデータS133を正規方程式演算部122に送出する。正規方程式演算部122は、高精細度の画像データS120と予測タップデータS133とから、クラスコードS132毎に正規方程式を生成し、この正規方程式データS134を予測係数決定部131に送出する。
【0053】
予測係数決定部131は、正規方程式データS134が必要な数だけ供給されると、最小自乗法を用いて当該正規方程式を解くことにより予測係数を算出し、その予測係数データS135をメモリ132に送出して当該メモリ132に格納する。その後、このメモリ132に格納されている予測係数は、図6に示すROM111に書き込まれるようになされている。
【0054】
以上の構成において、アップコンバータ100は、符号化画像データS100を伸長復号化して元の画像データS101を復元すると共に、当該符号化画像データS100からピクチャタイプの変化情報を示すピクチャタイプパターンデータS102を生成し、当該ピクチャタイプパターンデータS102に応じたクラスコードS112を発生してクラス分類適応処理を施すことにより、高精細度の画像データS115を生成する。
【0055】
このようにフレーム毎に変化するピクチャタイプに応じてクラス分類適応処理を施すことにより、全フレームに対して全て同様のクラス分類適応処理を施す場合に比して、画像の再現率すなわち精細度に応じたクラス分類適応処理が行われ、予測演算された画像データS115における各フレーム間の時間方向の歪みやフリッカが生じることが回避される。
【0056】
以上の構成によれば、フレーム毎に異なる符号化及び復号化処理が行われたことに応じてクラス分類適応処理を施すことにより、全フレームに対して全て同様のクラス分類適応処理を施す場合に比して、時間方向の歪みやフリッカのない画像データS115を生成することができ、かくして従来に比して一段と画質の改善を行い得る。
【0057】
(3)第2の実施の形態
図6との対応部分に同一符号を付して示す図9において、140は全体として第2の実施の形態のアップコンバータの構成を示し、領域切り出し部141及び142、判定部143並びにROM144の構成を除いて、第1の実施の形態のアップコンバータ100と同様に構成されている。
【0058】
アップコンバータ140は、外部からMPEG2方式を用いて圧縮符号化された符号化画像データS140が供給されると、これをデコーダ101に入力する。デコード101は、この符号化画像データS140を伸長復号化することにより画像データS141を復元し、これを領域切り出し部141及び142に送出する。その際、デコーダ101は、フレーム毎に異なるデコード情報、現在のフレームとその周辺のフレームにおけるピクチャタイプの変化情報を示すピクチャタイプパターンデータS142を生成し、これを範囲切り出し部104に送出する。
【0059】
範囲切り出し部104は、供給されたピクチャタイプパターンデータS142の中から参照範囲、例えば現在のフレームとその前後3フレームとを切り出し、この切り出されたピクチャタイプパターンデータS143を判定部143に送出する。判定部143は、この切り出されたピクチャタイプパターンデータS143をそのパターン列に応じた分類コードS144に変換し、これをクラスコード発生部106並びに領域切り出し部141及び142に送出する。
【0060】
領域切り出し部141は、分類コードS144に応じて切り出す領域を切り換えながらクラスタップを抽出するようになされている。例えば図10(A)に示すように、領域切り出し部141は、分類コードS144が0であってかつ現フレームがIピクチャの場合には、現フレームより過去のフレームは参照せずに、未来のフレームのみを参照することにより、I、B、B、Pピクチャの範囲からクラスタップを抽出する。また図10(B)に示すように、領域切り出し部141は、分類コードS144が1であってかつ現フレームがPピクチャの場合には、現フレームの過去及び未来のフレームを参照することにより、P、B、B、P、B、B、Pピクチャの範囲からクラスタップを抽出する。
【0061】
このように領域切り出し部141は、現フレームと互いに参照関係にあるフレームを参照範囲として、当該参照範囲からクラスタップを抽出する。従って領域切り出し部141は、分類コードS144に応じて画像データS141からクラスタップを抽出し、それらの信号レベル分布を示すクラスタップデータS150を特徴量抽出部110に送出する。特徴量抽出部110は、クラスタップデータS150に対して1ビットADRCを施すことによりADRCコードS151を生成し、これをクラスコード発生部106に送出する。
【0062】
クラスコード発生部106は、上述の分類コードS144とADRCコードS151とを合成することによりクラスコードS152を生成し、これをROM144に送出する。ROM144は、後述する学習回路によって予め生成されたクラス毎に対応する予測係数を格納しており、クラスコード発生部106から供給されるクラスコードS152に応じた予測係数データS153を読み出し、これを予測演算部112に送出する。
【0063】
一方、領域切り出し部142は、領域切り出し部141と同様に分類コードS144に応じて切り出す領域を切り換えながら画像データS141から予測タップを抽出し、それらの信号レベル分布を示す予測タップデータS154を予測演算部112に送出する。予測演算部112は、予測係数データS153と予測タップデータS154との積和演算を施すことにより高精細度の画像データS155を生成し、これを外部に出力する。
【0064】
続いて図8との対応部分に同一符号を付して示す図11は、ROM144(図9)に格納されている予測係数を生成する第2の実施の形態の学習回路150の構成を示し、領域切り出し部151及び152並びに判定部153の構成を除いて、第1の実施の形態の学習回路120と同様に構成されている。学習回路150は、教師画像として高精細度の画像データS150をエンコーダ121及び正規方程式演算部122に送出する。エンコーダ121は、画像データS150をMPEG2方式を用いて圧縮符号化し、その結果得られる符号化画像データS151をデコーダ123に送出する。
【0065】
デコーダ123は、アップコンバータ140のデコーダ101(図9)と同様に構成されており、符号化画像データS151を伸長復号化することにより生徒画像としての標準精細度の画像データS152を生成し、これを領域切り出し部151及び152に送出する。その際、デコーダ123は、フレーム毎に異なるデコード情報、例えば現在のフレームとその周辺のフレームにおけるピクチャタイプの変化情報を示すピクチャタイプパターンデータS153を生成し、これを範囲切り出し部126に送出する。
【0066】
範囲切り出し部126は、アップコンバータ100の範囲切り出し部104(図9)と同様に構成されており、供給されたピクチャタイプパターンデータS153の中から参照範囲、例えば現在のフレームとその前後3フレームとを切り出し、この切り出されたピクチャタイプパターンデータS154を判定部153に送出する。判定部153は、アップコンバータ140の判定部143(図9)と同様に構成されており、この切り出されたピクチャタイプパターンデータS154をそのパターン列に応じた分類コードS155に変換し、これをクラスコード発生部128に送出する。
【0067】
ところで領域切り出し部151は、アップコンバータ140の領域切り出し部141(図9)と同様に構成されており、分類コードS155に応じて切り出す領域を切り換えながら画像データS152からクラスタップを抽出し、それらの信号レベル分布を示すクラスタップデータS160を特徴量抽出部130に送出する。特徴量抽出部130は、アップコンバータ140の特徴量抽出部110(図9)と同様に構成されており、クラスタップデータS160に対して1ビットADRCを施すことによりADRCコードS161を生成し、これをクラスコード発生部128に送出する。
【0068】
クラスコード発生部128は、アップコンバータ140のクラスコード発生部106(図9)と同様に構成されており、上述の分類コードS155とADRCコードS161とを合成することによりクラスコードS162を生成し、これを正規方程式演算部122に送出する。
【0069】
一方、領域切り出し部152は、アップコンバータ140の領域切り出し部142(図9)と同様に構成されており、分類コードS155に応じて切り出す領域を切り換えながら画像データS152から予測タップを抽出し、それらの信号レベル分布を示す予測タップデータS163を正規方程式演算部122に送出する。正規方程式演算部122は、高精細度の画像データS150と予測タップデータS163とから、クラスコードS162毎に正規方程式を生成し、この正規方程式データS164を予測係数決定部131に送出する。
【0070】
予測係数決定部131は、正規方程式データS164が必要な数だけ供給されると、最小自乗法を用いて当該正規方程式を解くことにより予測係数を算出し、その予測係数データS165をメモリ132に送出して当該メモリ132に格納する。その後、このメモリ132に格納されている予測係数は、図9に示すROM144に書き込まれるようになされている。
【0071】
以上の構成において、アップコンバータ140は、符号化画像データS140を伸長復号化して元の画像データS141を復元すると共に、当該符号化画像データS140からピクチャタイプの変化情報を示すピクチャタイプパターンデータS142を生成して、当該ピクチャタイプパターンデータS142に応じて切り出す領域を切り換えながらクラスタップ及び予測タップを抽出した上で、ピクチャタイプパターンデータS142に応じたクラスコードS152を発生してクラス分類適応処理を施すことにより、高精細度の画像データS155を生成する。
【0072】
このようにフレーム毎に変化するピクチャタイプに応じたクラスコードS152を発生してクラス分類適応処理を施すことにより、全フレームに対して同様のクラス分類適応処理を施す場合に比して、画像の再現率すなわち精細度に応じたクラス分類適応処理が行われ、予測演算された画像データS155に各フレーム間の時間方向の歪みやフリッカが生じることが回避される。また、フレーム毎に変化するピクチャタイプに応じてクラスタップ及び予測タップを切り出す領域を切り換えることにより、第1の実施の形態によるアップコンバータ100に比してさらに精細度の向上した画像データS155が生成される。
【0073】
以上の構成によれば、フレーム毎に異なる符号化及び復号化処理が行われたことに応じてクラス分類適応処理を施すことにより、全フレームに対して同様のクラス分類適応処理を施す場合に比して、時間方向の歪みやフリッカのない画像データS155を生成することができ、かくして従来に比して一段と画質を向上し得る。
【0074】
(4)他の実施の形態
なお上述の実施の形態においては、フレーム毎に異なるピクチャタイプの変化情報を示すピクチャタイプパターンデータS102及びS142に応じてクラス分類適応処理を施して、各フレーム間における歪みを低減した場合について述べたが、本発明はこれに限らず、例えば符号化画像データS100及びS140の付加情報S200(図6、図9)としてGOP(Group of Pictures)層に存在するCG(Closed GOP)情報(GOP内の画像が他のGOPから独立再生可能なことを示すフラグ)を検出して、当該CG情報を参照しながらクラス分類適応処理を施すことにより、各GOP間における歪みを低減させたり、又は、ピクチャ層に存在するIDC(Intra DC Precision)情報(DC係数の精度を示すフラグ)を検出して、当該IDC情報を参照しながらクラス分類適応処理を施すことにより、レベル方向の歪みを低減させることも可能である。
【0075】
また上述の第2の実施の形態においては、判定部143から供給される分類コードS144に応じて切り出す領域を切り換えながらクラスタップ及び予測タップを抽出した場合について述べたが、本発明はこれに限らず、ピクチャタイプの変化情報を示すピクチャタイプパターンデータS142に応じて切り出す領域を切り換えながらクラスタップ及び予測タップを抽出しても良い。
【0076】
また上述の実施の形態においては、フレーム毎に異なるピクチャタイプの変化情報を示すピクチャタイプパターンデータS102及びS142に応じたクラス分類適応処理を施す場合について述べたが、本発明はこれに限らず、例えばGOP内における各ピクチャタイプの配列情報に応じてクラス分類適応処理を施しても良い。
【0077】
また上述の実施の形態においては、フレーム毎に異なるピクチャタイプの変化情報を示すピクチャタイプパターンデータS102及びS142に応じたクラス分類適応処理を施す場合について述べたが、本発明はこれに限らず、例えばフィールド毎に変化する情報に応じてクラス分類適応処理を施しても良く、要は、所定の画像単位毎に異なるデータ処理の種類に応じてクラス分類適応処理を施すようにすれば良い。
【0078】
また上述の実施の形態においては、データ処理種類抽出手段として、デコーダ101、領域切り出し部104、判定部105又は143を適用した場合について述べたが、本発明はこれに限らず、要は、データ処理の種類を所定の画像単位毎に抽出するデータ処理種類抽出手段であれば良い。
【0079】
また上述の実施の形態においては、特徴量抽出手段として、領域切り出し部102又は141、特徴量抽出部110を適用した場合について述べたが、本発明はこれに限らず、要は、第1の画像データから第2の画像データの注目画素を基準とする複数の画素を選定してその特徴量を抽出する特徴量抽出手段であれば良い。
【0080】
また上述の実施の形態においては、クラス決定手段として、クラスコード発生部106を適用した場合について述べたが、本発明はこれに限らず、要は、データ処理の種類及び特徴量から注目画素に対するクラスを決定するクラス決定手段であれば良い。
【0081】
また上述の実施の形態においては、予測データ発生手段として、ROM111又は144を適用した場合について述べたが、本発明はこれに限らず、要は、クラスに対応する予測データを発生する予測データ発生手段であれば良い。
【0082】
さらに上述の実施の形態においては、画素データ発生手段として、領域切り出し部103又は142、予測演算部112を適用した場合について述べたが、本発明はこれに限らず、要は、予測データから第2の画像データの注目画素を発生する画素データ発生手段であれば良い。
【0083】
【発明の効果】
上述のように本発明によれば、クラスタップの信号レベル分布にくわえて、さらにMPEG規格に基づく、ピクチャタイプの種類の変化を示す変化情報と復号後の画質に係ってくる付加情報とをもとに、第1の画像データをクラス分類するようにしたことにより、MPEG規格に準じた第1の画像データから高精細度の第2の画像データを生成するうえで、クラスタップの信号レベルのみを用いてクラス分類する場合と比して、一段とMPEG規格に適したクラス分類を行うことができる。この結果、時間方向の歪みやフリッカを低減させたより高画質の第2の画像データを生成することができ、かくして従来に比して一段と画質を向上し得る。
【図面の簡単な説明】
【図1】アップコンバータの構成を示すブロック図である。
【図2】クラスタップ配置例を示す略線図である。
【図3】予測タップ配置例を示す略線図である。
【図4】学習回路の構成を示すブロック図である。
【図5】予測係数生成手順を示すフローチャートである。
【図6】本発明によるアップコンバータの第1の実施の形態を示すブロック図である。
【図7】ピクチャタイプパターンの判定方法の説明に供する略線図である。
【図8】学習回路の構成を示すブロック図である。
【図9】本発明によるアップコンバータの第2の実施の形態を示すブロック図である。
【図10】分類コードに応じた領域の切り出しの説明に供する略線図である。
【図11】学習回路の構成を示すブロック図である。
【符号の説明】
100、140……アップコンバータ、101、123……デコーダ、102、103、124、125、141、142、151、152……領域切り出し部、104、126、153……範囲切り出し部、105、127、143……判定部、106、128……クラスコード発生部、110、130……特徴量抽出部、111、144……ROM、112……予測演算部、120、150……学習回路。
Claims (6)
- MPEG( Moving Picture Experts Group )規格に準じて符号化された第1の画像データを当該MPEG規格に準じて復号するとともに、当該第1の画像データから、画像単位で異なるピクチャタイプの種類の変化を示す変化情報と、当該第1の画像データを復号する際に必要で復号後の画質に係る付加情報とを検出する復号手段と、
上記復号手段により検出された上記変化情報及び上記付加情報を表す分類コードを出力する分類コード出力手段と、
上記復号手段により復号された上記第1の画像データから、当該第1の画像データをもとに当該第1の画像データよりも高精細度の第2の画像データを生成するうえで注目する注目画素と当該注目画素周辺の所定数の画素とをクラス分類用のクラスタップとして抽出するクラスタップ抽出手段と、
上記クラスタップ抽出手段により抽出された上記クラスタップの信号レベル分布と上記分類コード出力手段から出力された上記分類コードとをもとに、上記第1の画像データを、上記クラスタップの信号レベル分布、上記変化情報及び上記付加情報を表すクラスに分類するクラス分類手段と、
あらかじめ学習により上記クラス分類手段において分類されたクラス毎に求めた、上記第1の画像データから上記第2の画像データを予測生成するための予測係数を記憶し、上記クラス分類手段により分類された上記クラスに応じて上記予測係数を出力する予測係数記憶手段と、
上記復号手段により復号された上記第1の画像データから、上記注目画素と当該注目画素周辺の所定数の画素とを、当該第1の画像データには含まれない上記第2の画像データの画素を予測生成するための予測タップとして抽出する予測タップ抽出手段と、
上記予測タップ抽出手段により抽出された上記予測タップに対して、上記予測係数記憶手段から出力された上記予測係数を用いた予測演算を実行して当該第1の画像データには含まれない上記第2の画像データの画素を推定することで、当該第2の画像データを生成する予測演算手段と
を具える画像処理装置。 - 上記付加情報は、
GOP(Group of Picture)層のCG( Closed GOP )情報である
請求項1に記載の画像処理装置。 - 上記付加情報は、
ピクチャ層のIDC( Intra DC Precision )情報である
請求項1に記載の画像処理装置。 - 上記クラスタップ抽出手段は、
上記分類コード出力手段から出力された上記分類コードを用いて、時間方向のクラスタップの抽出を切り換える
請求項1に記載の画像処理装置。 - 上記予測タップ抽出手段は、
上記分類コード出力手段から出力された上記分類コードを用いて、時間方向の予測タップの抽出を切り換える
請求項1に記載の画像処理装置。 - MPEG( Moving Picture Experts Group )規格に準じて符号化された第1の画像データを当該MPEG規格に準じて復号するとともに、当該第1の画像データから、画像単位で異なるピクチャタイプの種類の変化を示す変化情報と、当該第1の画像データを復 号する際に必要で復号後の画質に係る付加情報とを検出する復号ステップと、
上記復号ステップで検出した上記変化情報及び上記付加情報を表す分類コードを出力する分類コード出力ステップと、
上記復号ステップで復号した上記第1の画像データから、当該第1の画像データをもとに当該第1の画像データよりも高精細度の第2の画像データを生成するうえで注目する注目画素と当該注目画素周辺の所定数の画素とをクラス分類用のクラスタップとして抽出するクラスタップ抽出ステップと、
上記クラスタップ抽出ステップで抽出した上記クラスタップの信号レベル分布と上記分類コード出力ステップで出力した上記分類コードとをもとに、上記第1の画像データを、上記クラスタップの信号レベル分布、上記変化情報及び上記付加情報を表すクラスに分類するクラス分類ステップと、
あらかじめ学習により上記クラス分類ステップで分類されたクラス毎に求めた、上記第1の画像データから上記第2の画像データを予測生成するための予測係数を記憶し、上記クラス分類ステップで分類された上記クラスに応じて上記予測係数を出力する予測係数出力ステップと、
上記復号ステップで復号した上記第1の画像データから、上記注目画素と当該注目画素周辺の所定数の画素とを、当該第1の画像データには含まれない上記第2の画像データの画素を予測生成するための予測タップとして抽出する予測タップ抽出ステップと、
上記予測タップ抽出ステップで抽出した上記予測タップに対して、上記予測係数出力ステップで出力した上記予測係数を用いた予測演算を実行して当該第1の画像データには含まれない上記第2の画像データの画素を推定することで、当該第2の画像データを生成する予測演算ステップと
を具える画像処理方法
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27328898A JP4168299B2 (ja) | 1998-09-28 | 1998-09-28 | 画像データ変換装置及び画像データ変換方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27328898A Division JP4168299B2 (ja) | 1998-09-28 | 1998-09-28 | 画像データ変換装置及び画像データ変換方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2000312364A JP2000312364A (ja) | 2000-11-07 |
JP2000312364A5 JP2000312364A5 (ja) | 2005-11-04 |
JP4171958B2 true JP4171958B2 (ja) | 2008-10-29 |
Family
ID=17525771
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27328898A Expired - Fee Related JP4168299B2 (ja) | 1998-09-28 | 1998-09-28 | 画像データ変換装置及び画像データ変換方法 |
JP2000090728A Expired - Fee Related JP4171958B2 (ja) | 1998-09-28 | 2000-03-27 | 画像処理装置及び画像処理方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27328898A Expired - Fee Related JP4168299B2 (ja) | 1998-09-28 | 1998-09-28 | 画像データ変換装置及び画像データ変換方法 |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP4168299B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4311166B2 (ja) * | 2003-11-05 | 2009-08-12 | ソニー株式会社 | 情報信号の処理装置および処理方法、それに使用される係数種データの生成装置および生成方法、並びに各方法を実行するためのプログラム、そのプログラムを記録した媒体 |
CN104519353B (zh) * | 2013-09-29 | 2019-02-05 | 联想(北京)有限公司 | 图像处理方法和电子设备 |
CN111683254B (zh) * | 2020-06-24 | 2022-03-25 | 湖南国科微电子股份有限公司 | 一种图像压缩方法、装置及电子设备和存储介质 |
-
1998
- 1998-09-28 JP JP27328898A patent/JP4168299B2/ja not_active Expired - Fee Related
-
2000
- 2000-03-27 JP JP2000090728A patent/JP4171958B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP4168299B2 (ja) | 2008-10-22 |
JP2000312364A (ja) | 2000-11-07 |
JP2000102006A (ja) | 2000-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3788823B2 (ja) | 動画像符号化装置および動画像復号化装置 | |
JP3888597B2 (ja) | 動き補償符号化装置、及び動き補償符号化復号化方法 | |
JP5718363B2 (ja) | 大きいサイズの変換単位を用いた映像符号化、復号化方法及び装置 | |
US8170355B2 (en) | Image encoding/decoding method and apparatus | |
EP3379832A2 (en) | Method and apparatus for entropy encoding and decoding video signal | |
RU2668056C1 (ru) | Устройство обработки изображения и способ обработки изображения | |
EP2187648A1 (en) | Image processing device and image processing method | |
US7177356B2 (en) | Spatially transcoding a video stream | |
US9014268B2 (en) | Video encoder and its decoder | |
EP1655968A2 (en) | Method and apparatus for encoding and decoding image data | |
JPH0746594A (ja) | 符号化方法およびその装置 | |
JP2010534015A (ja) | 画像処理方法及び対応する電子装置 | |
JPH06125543A (ja) | 符号化装置 | |
JPH09200758A (ja) | 画像符号化装置 | |
JP2005519543A (ja) | レイヤ映像符合化のための方法及びシステム | |
JP4028900B2 (ja) | 動画像符号化装置及び動画像復号化装置 | |
JP2008004984A (ja) | 画像理装置および方法、プログラム、並びに記録媒体 | |
JP4171958B2 (ja) | 画像処理装置及び画像処理方法 | |
JPH10304381A (ja) | 動画像符号化装置及び方法 | |
JP4775132B2 (ja) | 画像理装置および方法、プログラム、並びに記録媒体 | |
JP4580880B2 (ja) | 画像符号化装置、画像復号装置及び画像処理システム | |
KR0157465B1 (ko) | 영상데이타의 영상특성에 따른 양자화레벨결정방법 및 그 장치 | |
JPH0671333B2 (ja) | 画像信号の符号化方法 | |
KR102020953B1 (ko) | 카메라 영상의 복호화 정보 기반 영상 재 부호화 방법 및 이를 이용한 영상 재부호화 시스템 | |
JP4143877B2 (ja) | 画像データ変換装置及び画像データ変換方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050818 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080201 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080717 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080730 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130822 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |