JP4168298B2 - Data conversion apparatus and data conversion method - Google Patents
Data conversion apparatus and data conversion method Download PDFInfo
- Publication number
- JP4168298B2 JP4168298B2 JP27025798A JP27025798A JP4168298B2 JP 4168298 B2 JP4168298 B2 JP 4168298B2 JP 27025798 A JP27025798 A JP 27025798A JP 27025798 A JP27025798 A JP 27025798A JP 4168298 B2 JP4168298 B2 JP 4168298B2
- Authority
- JP
- Japan
- Prior art keywords
- class
- image data
- data
- tap
- class tap
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はデータ変換装置及びデータ変換方法に関し、例えば画像データの画質を改善する画像データ変換装置に適用して好適なものである。
【0002】
【従来の技術】
様々なディジタル機器が出現する中、信号フォーマットの異なる機器間の接続においては機器間での信号変換を実現する信号変換装置が必要となる。例えば標準精細度の画像データを高精細度モニタで表示する場合には、標準精細度の画像データを高精細度の画像データにフォーマット変換する画像データ変換装置が必要となる。従来、この種の画像データ変換装置においては、標準精細度の画像データに対して補間フィルタによる周波数補間処理を施して画素補間を行うことにより高精細度の画像データを形成している。
【0003】
【発明が解決しようとする課題】
ところで画像データ変換装置としては、標準精細度の画像データの中から複数の画素でなる領域を切り出し、当該切り出した領域をその各画素の信号レベル分布に応じたクラスに分類した後、クラス毎に所定のデータ処理を施すことにより高精細度の画像データを生成するいわゆるクラス分類適応処理を用いたものが考えられている。
【0004】
ところで標準精細度の画像データ(例えばボケ画像)では、各画素の信号レベルの変化が小さいことから、平坦な領域とそうでない領域とを区別しにくく、また各画素の信号レベル分布の特徴量を抽出することが困難である。このため標準精細度の画像データでは、クラス分類適応処理が施されると、波形変化点の多いクラスに分類される領域が少なくなる一方、波形変化点の少ないクラスに分類される領域が多くなる傾向が生じる。このように画像データ変換装置では、切り出した領域の画素数に関係なく、全てのクラスを有効に使用することができず、十分に画質を改善し得ないという問題があった。
【0005】
かかる問題点を解決するための一つの方法として、信号レベルの分解能を向上させることにより、切り出された領域に含まれる各画素の信号レベル分布の特徴を精度良く抽出してクラス分類する画像データ変換装置が考えられる。しかしながらこの画像データ変換装置では、レベル分解能の向上によって画像データの画質を改善することができる一方、依然として全てのクラスを有効に使用しておらず、また、レベル分解能の向上がクラス数の増大を引き起こし、その分、装置の規模が大きくなる問題が発生する。
【0006】
本発明は以上の点を考慮してなされたもので、構成が複雑になることを回避しながらデータ品質を改善し得るデータ変換装置及びデータ変換方法を提案しようとするものである。
【0007】
【課題を解決するための手段】
かかる課題を解決するため本発明のデータ変換装置においては、第1画像データから注目画素と、当該注目画素を中心として前後にそれぞれ2画素ずつ配置された周辺画素とからなる5画素をクラスタップとして抽出するクラスタップ抽出部と、クラスタップにおける5画素の並び順に8ビットの信号レベルをそれぞれA、B、C、D、Eとし、|(A−B)/(B−C)|の値、|(B−C)/(C−D)|の値、|(C−D)/(D−E)|の値が0〜1、1〜2、2〜3又は3〜255であって、0〜1のとき0とし、1〜2のとき1とし、2〜3のとき2とし、3〜255のとき3として、(1)式に従い、クラスタップの信号レベル分布の特徴量が表されたクラスCLを算出するクラス算出部と、第1画像データより高精細な第2画像データを生成する際、クラスCLに対応付けられた予測係数とクラスタップとを用いて予測演算を実行することにより、第1画像データには存在しない第2画像データに用いられる補間画素を生成する補間画素生成部とを設けるようにようにした。また本発明のデータ変換方法においては、第1画像データから注目画素と、当該注目画素を中心として前後にそれぞれ2画素ずつ配置された周辺画素とからなる5画素をクラスタップとして抽出するクラスタップ抽出ステップと、クラスタップにおける5画素の並び順に8ビットの信号レベルをそれぞれA、B、C、D、Eとし、|(A−B)/(B−C)|の値、|(B−C)/(C−D)|の値、|(C−D)/(D−E)|の値が0〜1、1〜2、2〜3又は3〜255であって、0〜1のとき0とし、1〜2のとき1とし、2〜3のとき2とし、3〜255のとき3として、(2)式に従い、クラスタップの信号レベル分布の特徴量が表されたクラスCLを算出するクラス算出ステップと、第1画像データより高精細な第2画像データを生成する際、クラスCLに対応付けられた予測係数とクラスタップとを用いて予測演算を実行することにより、第1画像データには存在しない第2画像データに用いられる補間画素を生成する補間画素生成ステップとを設けるようにした。
【0008】
これにより、(1)式に従ってクラスを決定するので、隣接した画素同士の信号レベルの差分比である|(A−B)/(B−C)|、|(B−C)/(C−D)|及び|(C−D)/(D−E)|により空間的に狭い領域の特徴量を抽出することができ、また|(A−B)/(B−C)|、|(B−C)/(C−D)|及び|(C−D)/(D−E)|を組み合わせることにより空間的に広い領域の特徴量を抽出することができ、さらに従来に比して少ないクラス数を有効に使用しながらクラス分類することができる。
【0009】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0010】
(1)クラス分類適応処理の原理
ここで図1は、クラス分類適応処理を実現するアップコンバータ51の回路構成を示す。アップコンバータ51は、外部から供給される例えば8ビットのパルス符号変調(PCM:Pulse Code Modulation )データでなるSD画像データS51をクラス分類部52及び予測演算部53に入力する。クラス分類部52は、例えば図2に示すように、SD画像データS51のうち注目画素及び当該注目画素を中心とした複数の周辺画素でなる合計7画素(タップ)をクラス分類用の画素(以下、これをクラスタップと呼ぶ)として設定し、それらの信号レベル分布に基づいてクラスコードS52を生成する。因みに、図中実線は第1フィールドを示し、点線は第2フィールドを示す。
【0011】
このクラス分類部52によってクラスコードS52を生成する方法としては、PCMデータを直接使用する(すなわちPCMデータをそのままクラスデータS52とする)方法や、ADRC(Adaptive Dynamic Range Coding )等のデータ圧縮方法を用いてクラス数を削減するような方法が考えられる。このうちPCMデータをそのままクラスコードS52とする方法では、クラスタップとして8ビットのPCMデータを7タップ用いることから、クラス数が256という膨大な数のクラス数に分類されることになり、実用上問題がある。
【0012】
そこで実際には、クラス分類部52は、ADRCのようなデータ圧縮処理(すなわち再量子化処理)を施すことによりクラス数を削減するようになされている。このADRCによる分類法は、注目画素を中心とする近傍領域内の数タップからADRCコードを、次式
【0013】
【数3】
【0014】
によって求め、当該ADRCコードに基づいてクラスコードS52を生成する手法を用いている。ここで、ci はADRCコード、xi は各クラスタップの入力画素値、MINは領域内にある各クラスタップの入力画素値のうちの最小画素値、DRは領域内のダイナミックレンジ(最大画素値と最小画素値との差分)、kは再量子化ビット数である。
【0015】
すなわちADRCによる分類法は、領域内のダイナミックレンジから再量子化ビット数に応じた量子化ステップ幅を算出し、入力画素値から最小画素値を減算した画素値を量子化ステップ幅に応じて再量子化するものである。例えば領域内の7タップにおいて各クラスタップを1ビットに再量子化する1ビットADRCを行う場合では、領域内のダイナミックレンジに基づいて7タップの各入力画素値を適応的に1ビット量子化し、その結果、7タップの入力画素値を7ビットのデータに削減することができるので、全体としてクラス数を128クラスにまで削減することができる。
【0016】
図1に戻って、予測係数ROM(Read Only Memory)54は、後述する学習回路60によって予め生成された各クラス毎に対応する予測係数データS53を格納しており、クラス分類部52から供給されるクラスコードS52に応じた予測係数データS53を読み出し、これを予測演算部53に送出する。予測演算部53は、例えば図3に示すように、外部から入力されるSD画像データS51のうち、注目画素及び当該注目画素を中心とした複数の周辺画素でなる合計13タップを予測演算用の画素(以下、これを予測タップと呼ぶ)として選定し、当該予測タップの各画素値と予測係数データS53とを用いて、線形一次結合でなる次式
【0017】
【数4】
【0018】
によって表される積和演算を行うことにより、予測タップには存在しないHD画素の集まりであるHD画像データS54を生成し、これを外部に出力する。ここで、x′は各HD画素値、xi は各予測タップの画素値、wi は予測係数、nは予測タップ数であり、この場合nは13である。
【0019】
ところで図4は、予測係数ROM54に格納されている予測係数データを生成する学習回路60の回路構成を示し、当該学習回路60は、予測係数データを予め生成して、これを予測係数ROM54に格納するようになされている。学習回路60は、いわゆる教師信号としてのHD画像データS60を垂直間引きフィルタ61及び予測係数算出回路62に入力する。学習回路60は、HD画像データS60を垂直間引きフィルタ61及び水平間引きフィルタ62によって間引くことにより、生徒信号としてのSD画像データS61を生成し、これをクラス分類部64及び予測係数算出回路62に入力するようになされている。
【0020】
クラス分類部64は、図1に示すアップコンバータのクラス分類部52と同様の構成でなり、SD画像データS61からクラスタップを選定し、その信号レベル分布に基づいてクラスコードS62を生成した後、これを予測係数算出回路62に送出する。予測係数算出回路62は、HD画像データS60及びSD画像データS61を基に、クラスコードS62が示すクラスに応じた予測係数をクラス毎に算出し、その結果得た予測係数データS63を予測係数ROM54に格納する。
【0021】
この場合、予測係数算出回路62は、上述の(4)式における予測係数wを最小自乗法によって求めるようになされている。具体的には予測係数算出回路62は、XをSD画素値、Wを予測係数、YをHD画素値として、いわゆる観測方程式と呼ばれる次式
【0022】
【数5】
【0023】
を生成するように各データを収集する。ここでmは予測するHD画素の画素数を示す学習データ数、nは予測タップ数である。
【0024】
次に予測係数算出回路62は、この(5)式を基に、次式
【0025】
【数6】
【0026】
に示す残差方程式を立てる。従って各予測係数wiは、この(6)式から、次式
【0027】
【数7】
【0028】
が最小のときに最適な値となることがわかる。すなわち次式
【0029】
【数8】
【0030】
を満たすように予測係数wi が算出される。
【0031】
そこで予測係数算出回路62は、このn個ある(8)式を満たすようなw1、w2、……、wnを算出すればよいことになり、上述の(6)式から、次式
【0032】
【数9】
【0033】
を得、これら(8)及び(9)式から、次式
【0034】
【数10】
【0035】
を求める。そして予測係数算出回路62は、上述の(6)及び(10)式から、次式
【0036】
【数11】
【0037】
によって表される正規方程式を生成する。このようにして予測係数算出回路62は、予測タップ数nと同一次数の連立方程式でなる正規方程式を生成し、掃き出し法(Gauss Jordanの消去法)を用いてこの正規方程式を解くことにより、各予測係数wi を算出する。
【0038】
以下、学習回路60による予測係数生成手順について図5に示すフローチャートを用いて説明する。ステップSP61から入ったステップSP62において、学習回路60は、教師信号としてのHD画像データS60から生徒信号としてのSD画像データS61を生成することにより、予測係数を生成するのに必要な学習データを生成する。ステップSP63において、学習回路60は、予測係数を生成するのに必要十分な学習データが得られたか否か判定し、その結果、未だ必要十分な学習データが得られていないと判断された場合にはステップSP63において否定結果を得ることによりステップSP64に移行する。
【0039】
ステップSP64において、学習回路60は、SD画像データS61からクラスタップを選定し、その信号レベル分布に基づいてクラス分類を行う。ステップSP65において、学習回路60は、各クラス毎に上述の(11)式でなる正規方程式を生成し、ステップSP62に戻って同様の処理手順を繰り返すことにより、予測係数を生成するのに必要十分な正規方程式を生成する。
【0040】
これに対してステップSP63において肯定結果が得られると、このことは必要十分な学習データが得られたことを表しており、このとき学習回路60はステップSP66に移って、上述の(11)式でなる正規方程式を掃き出し法によって解くことにより、予測係数w1、w2、……、wnを各クラス毎に生成する。そしてステップSP67において、学習回路60は、生成した各クラス毎の予測係数w1、w2、……、wnを予測係数ROM54に格納し、ステップSP68に移って処理を終了する。
【0041】
(2)画像データ変換装置の構成
図6において、100は全体として図1〜図5について上述したクラス分類適応処理の原理を用いた画像データ変換装置の構成を示し、標準精細度のSD画像データS100(例えばボケ画像)を領域切り出し部101及び102に供給するようになされている。領域切り出し部101は、図7に示すように、SD画像データS100の中から、所定の注目画素と当該注目画素を中心として水平方向に隣接する複数の周辺画素とでなる合計5画素をクラスタップとして選定し、そのクラスタップデータS101を隣接画素差分比パターン抽出部103に出力する。クラスタップデータS101は、図8に示すように、選定したクラスタップの信号レベル分布でなり、ここではクラスタップa、b、c、d、eの信号レベルをそれぞれ値A、B、C、D、Eとする。
【0042】
図9は、隣接画素差分比パターン抽出部103の構成を示す。隣接画素差分比パターン抽出部103は、クラスタップデータS101のうち、クラスタップaの信号レベルAを示すクラスタップデータS101Aを差分回路104Aに入力し、クラスタップbの信号レベルBを示すクラスタップデータS101Bを差分回路104A及び104Bに入力し、クラスタップcの信号レベルCを示すクラスタップデータS101Cを差分回路104B及び104Cに入力し、クラスタップdの信号レベルDを示すクラスタップデータS101Dを差分回路104C及び104Dに入力し、クラスタップeの信号レベルEを示すクラスタップデータS101Eを差分回路104Dに入力する。
【0043】
差分回路104Aは、クラスタップデータS101A及びS101Bの差分をとって絶対値化することにより、差分値|A−B|でなる差分データS102Aを生成し、これを割り算回路105Aに出力する。差分回路104Bは、クラスタップデータS101B及びS101Cの差分をとって絶対値化することにより、差分値|B−C|でなる差分データS102Bを生成し、これを割り算回路105A及び105Bに出力する。
【0044】
差分回路104Cは、クラスタップデータS101C及びS101Dの差分をとって絶対値化することにより、差分値|C−D|でなる差分データS102Cを生成し、これを割り算回路105B及び105Cに出力する。差分回路104Dは、クラスタップデータS101D及びS101Eの差分をとって絶対値化することにより、差分値|D−E|でなる差分データS102Dを生成し、これを割り算回路105Cに出力する。
【0045】
割り算回路105Aは、差分データS102A及びS102Bの比をとることにより、クラスタップa、b、cの波形変化を示す差分比|(A−B)/(B−C)|を生成する。この差分比|(A−B)/(B−C)|は、各クラスタップの量子化ビット数が8ビットの場合、値0〜255までの範囲の値をとり得ることになり、この差分比|(A−B)/(B−C)|を所定回数計測すると、図10に示すような差分比|(A−B)/(B−C)|の度数分布が求められる。ところで画像データは隣接する画素間の相関性が高いことから、差分値|A−B|及び|B−C|は同じ値になる場合が多く、従って差分比|(A−B)/(B−C)|はその値が1近辺に集中することがわかる。
【0046】
そこで割り算回路105Aは、例えば差分比|(A−B)/(B−C)|が値0〜1の範囲をレベル0とし、値1〜2の範囲をレベル1とし、値2〜3の範囲をレベル2とし、値3〜255の範囲をレベル3とすることにより、差分比|(A−B)/(B−C)|を4つのレベルで表すようになされている。この場合、割り算回路105Aは、それぞれの範囲に含まれる度数の合計が等しくなるように、差分比|(A−B)/(B−C)|を4つのレベルに分割している。このように割り算回路105Aは、差分データS102A及びS102Bの比をとることにより差分比|(A−B)/(B−C)|を求めた後、当該差分比|(A−B)/(B−C)|を4つのレベルで表すような正規化を行い、これを差分比データS103Aとして演算部106の加算回路107に出力する。因みに、分母である差分値|B−C|が0の場合には強制的に差分値|B−C|に1を設定する。
【0047】
割り算回路105Bは、差分データS102B及びS102Cの比をとることにより差分比|(B−C)/(C−D)|を求めた後、当該差分比|(B−C)/(C−D)|を4つのレベルで表し、これを差分比データS103Bとして演算部106の乗算回路108に出力する。割り算回路105Cは、差分データS102C及びS102Dの比をとることにより差分比|(C−D)/(D−E)|を求めた後、当該差分比|(C−D)/(D−E)|を4つのレベルで表し、これを差分比データS103Cとして演算部106の乗算回路109に出力する。
【0048】
演算部106は、差分比データS103Aと乗算回路108によって4を乗算した差分比データS103Bとを加算回路107によって加算した後、その加算結果と乗算回路109によって16を乗算した差分比データS103Cとを加算回路110によって加算することにより、切り出された領域のクラスCLを、次式
【0049】
【数12】
【0050】
によって算出する。この場合、クラス数は、4つのレベルで表される差分比が3種類あることから、43 (=64)クラスに分類されることになる。このように演算部106は、クラスタップa、b、c、d、eの信号レベル分布が示す特徴量をクラスCLによって表し、そのクラスデータS104をクラスコード発生部120に出力する。
【0051】
クラスコード発生部120は、隣接画素差分比パターン抽出部103から供給されるクラスデータS104に対応するクラスコードS120を発生し、これをROM121に出力する。ROM121は、クラスコードに対応する予測係数を記憶しており、供給されるクラスコードS120に対応する予測係数ω1〜ωnを読み出して、これらを予測係数データS121として予測演算部122に出力する。
【0052】
領域切り出し部102は、SD画像データS100の中から、例えばクラスタップと同一の複数画素を予測タップとして選定し、その画素値x1〜xnを予測タップデータS122として予測演算部122に出力する。予測演算部122は、予測タップデータS122が示す予測タップの画素値x1〜xnと、予測係数データS121が示す予測係数ω1〜ωnとを用いて、次式
【0053】
【数13】
【0054】
に示す積和演算を行うことにより予測値yを算出し、当該予測値yの集まりでなる高精細度の補正SD画像データS123を生成して外部に出力する。
【0055】
ここでROM121に記憶する予測係数ω1〜ωnを算出するための学習回路130の構成について図11を用いて説明する。学習回路130は、教師信号として高精細度のSD画像データS131をローパスフィルタ(LPF)131及び正規方程式演算部132に入力する。LPF131は、SD画像データS131から高域成分を除去することにより、当該SD画像データS131よりも画質の劣化した標準精細度のSD画像データS132を生成し、これを領域切り出し部133及び134に出力する。
【0056】
領域切り出し部133は、図6に示す画像データ変換装置100の領域切り出し部103と同様に構成され、標準精細度のSD画像データS132からクラスタップを抽出し、そのクラスタップデータS133を隣接画素差分比パターン抽出部135に出力する。隣接画素差分比パターン抽出部135は、図6に示す画像データ変換装置100の隣接画素差分比パターン抽出部103と同様に構成され、クラスタップデータS133が示すクラスタップをクラス分類することによりクラスデータS134を生成し、これをクラスコード発生部136に出力する。クラスコード発生部136は、図6に示す画像データ変換装置100のクラスコード発生部120と同様に構成され、クラスデータS134からクラスコードS135を発生し、これを正規方程式演算部132に出力する。
【0057】
領域切り出し部134は、図6に示す画像データ変換装置100の領域切り出し部102と同様に構成され、SD画像データS132から予測タップを抽出し、その予測タップデータS136を正規方程式演算部132に出力する。正規方程式演算部132は、教師信号としての高精細度のSD画像データS131と学習データとしての予測タップデータS136とから、クラスコードS135毎に正規方程式を生成し、この正規方程式データS137を予測係数決定部137に出力する。
【0058】
予測係数決定部137は、正規方程式データS137が必要な数だけ供給されると、最小自乗法を用いて当該正規方程式を解くことにより予測係数を演算し、その予測係数データS138をメモリ138に送出して当該メモリ138に記憶させる。その後、このメモリ138に記憶されている予測係数データS138は、図6に示すROM121に書き込まれるようになされている。
【0059】
以上の構成において、隣接画素差分比パターン抽出部103は、隣接する画素のレベルの差分をとって注目画素の微小なレベル変化を抽出した後、当該隣接画素の差分の比をとって正規化を行い空間的に狭い領域の特徴量を抽出し、さらにこれら隣接画素の差分の比を組み合わせて空間的に広い領域の特徴量を抽出することにより、切り出された領域の波形特徴量を容易に抽出することができ、従って標準精細度のSD画像データS100を正確にクラス分類してその画質を改善し得る。
【0060】
また、隣接画素の差分比を組み合わせてその領域の特徴量を抽出することにより、従来のように波形変化点の少ない特定のクラスに集中して分類されることを回避することでき、従って全てのクラスを有効に使用することができる。
【0061】
さらに、差分比の数はクラスタップ数から2を減算した数になることから、レベル分解能を向上させたとしても、従来に比して少ないクラス数でSD画像データS100を分類して画質を改善し得、従ってROM121のメモリ容量が大きくなることを回避し得る。
【0062】
例えば水平方向に隣接する5画素をクラスタップとして選定した場合に、各クラスタップに対して2ビット(4レベル)のADRCクラス分類を行うと、クラス数は1024(=45 )になる。これに対して、上述の隣接画素差分比を用いたクラス分類法では、差分比の数がクラスタップ数から2を減算した3になることから、レベル分解能を2ビット(4レベル)に選定しても、クラス数が64(=43 )で済むことになり、クラス数が増大することを回避しながら画質を改善することができる。
【0063】
以上の構成によれば、隣接画素の差分比を用いてそれらの領域の特徴量を抽出することにより、従来に比して少ないクラス数を有効に使用しながら、切り出した領域の特徴量を容易に抽出してクラス分類することができ、従って構成が複雑になることを回避しながらSD画像データS100の画質を改善し得る。
【0064】
なお上述の実施の形態においては、SD画像データS100の中から水平方向に隣接する5画素をクラスタップとして選定した場合について述べたが、本発明はこれに限らず、抽出する画素を適応的に変えながらクラスタップを選定しても良く、要は、水平又は垂直方向に隣接する複数の画素を選定すれば良い。
【0065】
また上述の実施の形態においては、クラスタップと同一の画素を予測タップとして選定した場合について述べたが、本発明はこれに限らず、クラスタップとは異なる画素を予測タップとして選定しても良い。
【0066】
また上述の実施の形態においては、本発明を標準精細度のSD画像データS100の画質を改善する画像データ変換装置100に適用した場合について述べたが、本発明はこれに限らず、例えばHD画像データのように、他の種々の画像データの画質を改善する画像データ変換装置に本発明を広く適用し得る。
【0067】
また上述の実施の形態においては、本発明を所定数の画素でなる画像データの画質を改善する画像データ変換装置100に適用した場合について述べたが、本発明はこれに限らず、例えば所定数のサンプリングデータでなる音声データのように、この他種々のデータの品質を改善するデータ変換装置に本発明を広く適用し得る。
【0068】
また上述の実施の形態においては、クラスを決定するクラス決定手段として、領域切り出し部101及び隣接画素差分比パターン抽出部103を適用した場合について述べたが、本発明はこれに限らず、要は、第1のデータから注目サンプリングデータを含む複数のサンプリングデータを抽出し、その抽出された各サンプリングデータ間の差分の比をとることにより注目サンプリングデータに対するクラスを決定するクラス決定手段であれば良い。
【0069】
また上述の実施の形態においては、予測データを発生する予測データ発生手段として、クラスコード発生部120及びROM121を適用した場合について述べたが、本発明はこれに限らず、要は、クラスに応じて予測データを発生する予測データ発生手段であれば良い。
【0070】
さらに上述の実施の形態においては、注目サンプリングデータを発生するサンプリングデータ発生手段として予測演算部122を適用した場合について述べたが、本発明はこれに限らず、要は、予測データから第2のデータの注目サンプリングデータを発生するサンプリングデータ発生手段であれば良い。
【0071】
【発明の効果】
上述のように本発明によれば、(1)式に従ってクラスを決定するので、隣接した画素同士の信号レベルの差分比である|(A−B)/(B−C)|、|(B−C)/(C−D)|及び|(C−D)/(D−E)|により空間的に狭い領域の特徴量を抽出することができ、また|(A−B)/(B−C)|、|(B−C)/(C−D)|及び|(C−D)/(D−E)|を組み合わせることにより空間的に広い領域の特徴量を抽出することができ、さらに従来に比して少ないクラス数を有効に使用しながらクラス分類することができ、かくして構成が複雑になることを回避しながらデータ品質を改善し得る。
【図面の簡単な説明】
【図1】アップコンバータの構成を示すブロック図である。
【図2】クラスタップ配置例を示す略線図である。
【図3】予測タップ配置例を示す略線図である。
【図4】学習回路の構成を示すブロック図である。
【図5】予測係数生成手順を示すフローチャートである。
【図6】本発明による画像データ変換装置の一実施の形態を示すブロック図である。
【図7】クラスタップ配置例を示す略線図である。
【図8】クラスタップの信号レベル分布を示す略線図である。
【図9】隣接画素差分比パターン抽出部の構成を示すブロック図である。
【図10】差分比の度数分布を示す略線図である。
【図11】学習回路の構成を示すブロック図である。
【符号の説明】
100……画像データ変換装置、101、102、133、134……領域切り出し部、103、135……隣接画素差分比パターン抽出部、120、136……クラスコード発生部、121……ROM、122……予測演算部、130……学習回路、131……LPF、132……正規方程式演算部、137……予測係数決定部、138……メモリ。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a data conversion apparatus and a data conversion method, and is suitably applied to, for example, an image data conversion apparatus that improves the image quality of image data.
[0002]
[Prior art]
With the advent of various digital devices, connection between devices having different signal formats requires a signal conversion device that realizes signal conversion between the devices. For example, when standard definition image data is displayed on a high definition monitor, an image data conversion device that converts the format of the standard definition image data into high definition image data is required. Conventionally, in this type of image data conversion apparatus, high-definition image data is formed by subjecting image data of standard definition to frequency interpolation processing by an interpolation filter and pixel interpolation.
[0003]
[Problems to be solved by the invention]
By the way, as an image data conversion device, an area composed of a plurality of pixels is cut out from standard definition image data, and the cut out area is classified into classes according to the signal level distribution of each pixel, and then, for each class. A method using so-called class classification adaptive processing that generates high-definition image data by performing predetermined data processing is considered.
[0004]
By the way, in standard definition image data (for example, a blurred image), since the change in the signal level of each pixel is small, it is difficult to distinguish between a flat region and a region that is not so. It is difficult to extract. For this reason, in standard definition image data, when class classification adaptation processing is performed, the number of areas classified into classes with many waveform change points decreases, while the number of areas classified into classes with few waveform change points increases. A trend arises. As described above, the image data conversion apparatus has a problem in that all the classes cannot be used effectively regardless of the number of pixels in the cut-out area, and the image quality cannot be sufficiently improved.
[0005]
One method for solving this problem is to improve the signal level resolution, thereby accurately extracting the characteristics of the signal level distribution of each pixel included in the clipped region and classifying the image data. A device is conceivable. However, while this image data conversion apparatus can improve the image quality of image data by improving the level resolution, it still does not use all the classes effectively, and the improvement in the level resolution increases the number of classes. This causes a problem that the scale of the apparatus increases accordingly.
[0006]
The present invention has been made in consideration of the above points, and an object of the present invention is to propose a data conversion apparatus and a data conversion method capable of improving data quality while avoiding a complicated configuration.
[0007]
[Means for Solving the Problems]
In order to solve such a problem, in the data conversion device of the present invention, five pixels including a target pixel from the first image data and peripheral pixels arranged two pixels before and after the target pixel are used as class taps. The class tap extraction unit to extract, and the 8-bit signal levels in the order of arrangement of the five pixels in the class tap are A, B, C, D, and E, respectively, and the value of | (A−B) / (B−C) | The value of | (BC) / (CD) | and the value of | (CD) / (DE) | are 0 to 1, 1-2, 2-3, or 3-255. 0 to 1, 0 to 1 to 1, 1 to 2 to 2, 2 to 3 to 255, 3 according to equation (1), the feature quantity of the signal level distribution of the class tap is expressed. A class calculation unit for calculating the calculated class CL, and a second higher definition than the first image data When generating image data, by performing a prediction operation using a prediction coefficient and a class tap associated with the class CL, an interpolation pixel used for second image data that does not exist in the first image data is generated. An interpolated pixel generation unit is provided. Further, in the data conversion method of the present invention, class tap extraction is performed to extract five pixels including a target pixel from the first image data and peripheral pixels arranged two pixels before and after the target pixel as a class tap. The signal levels of 8 bits are A, B, C, D, and E, respectively, in the order of arrangement of the 5 pixels in the step and class tap, and the value of | (AB) / (BC) |, | (BC ) / (C−D) | and the value of | (C−D) / (D−E) | is 0 to 1, 1 to 2, 2 to 3 or 3 to 255, and 0 to 1 0, 1 when 1, 2 when 2, 2 when 3, and 3 when 3-255, according to the formula (2), the class CL that represents the class tap signal level distribution feature amount A class calculating step to calculate, and second image data with higher definition than the first image data. Is generated by performing a prediction calculation using a prediction coefficient and a class tap associated with the class CL, thereby generating an interpolation pixel used for the second image data that does not exist in the first image data. And a pixel generation step.
[0008]
As a result, the class is determined according to the equation (1). Therefore, | (A−B) / (B−C) |, | (B−C) / (C−), which is the difference ratio between the signal levels of adjacent pixels. D) | and | (CD) / (DE) | can extract feature quantities of spatially narrow regions, and | (AB) / (BC) |, | ( By combining (B−C) / (C−D) | and | (C−D) / (D−E) |, it is possible to extract a feature amount of a spatially wide area, and further , compared with the conventional case. Classification can be performed while effectively using a small number of classes.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described in detail below with reference to the drawings.
[0010]
(1) Principle of Class Classification Adaptation Processing FIG. 1 shows a circuit configuration of the up-
[0011]
As a method of generating the class code S52 by the
[0012]
Therefore, the
[Equation 3]
[0014]
And a method of generating the class code S52 based on the ADRC code is used. Here, c i is an ADRC code, x i is an input pixel value of each class tap, MIN is a minimum pixel value among input pixel values of each class tap in the region, and DR is a dynamic range (maximum pixel in the region). Difference between the value and the minimum pixel value), k is the number of requantization bits.
[0015]
That is, the classification method based on ADRC calculates a quantization step width corresponding to the number of requantization bits from the dynamic range in the region, and regenerates the pixel value obtained by subtracting the minimum pixel value from the input pixel value according to the quantization step width. Quantize. For example, in the case of performing 1-bit ADRC that re-quantizes each class tap to 1 bit in 7 taps in the region, each input pixel value of 7 taps is adaptively 1-bit quantized based on the dynamic range in the region, As a result, since the input pixel value of 7 taps can be reduced to 7-bit data, the number of classes as a whole can be reduced to 128 classes.
[0016]
Returning to FIG. 1, a prediction coefficient ROM (Read Only Memory) 54 stores prediction coefficient data S 53 corresponding to each class generated in advance by a
[Expression 4]
[0018]
Is generated, and HD image data S54, which is a collection of HD pixels that do not exist in the prediction tap, is generated and output to the outside. Here, x ′ is the HD pixel value, x i is the pixel value of each prediction tap, w i is the prediction coefficient, and n is the number of prediction taps. In this case, n is 13.
[0019]
4 shows the circuit configuration of the
[0020]
The
[0021]
In this case, the prediction
[Equation 5]
[0023]
Collect each data to generate. Here, m is the number of learning data indicating the number of HD pixels to be predicted, and n is the number of prediction taps.
[0024]
Next, the prediction
[Formula 6]
[0026]
The residual equation shown in Accordingly, each prediction coefficient w i is calculated from the equation ( 6 ) as follows:
[Expression 7]
[0028]
It can be seen that the optimum value is obtained when is minimum. That is, the following formula:
[Equation 8]
[0030]
The prediction coefficient w i is calculated so as to satisfy
[0031]
Therefore, the prediction
[Equation 9]
[0033]
From these equations ( 8 ) and ( 9 ),
[Expression 10]
[0035]
Ask for. Then, the prediction
## EQU11 ##
[0037]
Generates a normal equation represented by In this way, the prediction
[0038]
Hereinafter, the prediction coefficient generation procedure by the
[0039]
In step SP64, the
[0040]
On the other hand, if a positive result is obtained in step SP63, this indicates that necessary and sufficient learning data has been obtained. At this time, the
[0041]
(2) Configuration of Image Data Conversion Device In FIG. 6, 100 indicates the overall configuration of the image data conversion device using the principle of the class classification adaptive processing described above with reference to FIGS. S100 (for example, a blurred image) is supplied to the
[0042]
FIG. 9 shows the configuration of the adjacent pixel difference ratio
[0043]
The
[0044]
The difference circuit 104C takes the difference between the class tap data S101C and S101D and converts it to an absolute value, thereby generating difference data S102C having a difference value | C−D |, and outputs this to the
[0045]
The
[0046]
Therefore, the
[0047]
The
[0048]
The
[Expression 12]
[0050]
Calculated by In this case, the number of classes is classified into 4 3 (= 64) classes because there are three types of difference ratios represented by four levels. As described above, the
[0051]
The class
[0052]
The
[Formula 13]
[0054]
The predicted value y is calculated by performing the product-sum operation shown in FIG. 5B, and the high-definition corrected SD image data S123 including a collection of the predicted values y is generated and output to the outside.
[0055]
Here, the configuration of the
[0056]
The area cutout unit 133 is configured in the same manner as the
[0057]
The
[0058]
When the necessary number of normal equation data S137 is supplied, the prediction
[0059]
In the above configuration, the adjacent pixel difference ratio
[0060]
In addition, by extracting the feature amount of the region by combining the difference ratios of adjacent pixels, it is possible to avoid categorizing and categorizing in a specific class with few waveform change points as in the past. Class can be used effectively.
[0061]
Furthermore, since the number of difference ratios is the number obtained by subtracting 2 from the number of class taps, even if the level resolution is improved, the SD image data S100 is classified with a smaller number of classes than before, and the image quality is improved. Therefore, it is possible to avoid an increase in the memory capacity of the
[0062]
For example, when 5 pixels adjacent in the horizontal direction are selected as class taps, if 2-bit (4-level) ADRC class classification is performed for each class tap, the number of classes is 1024 (= 4 5 ). On the other hand, in the class classification method using the adjacent pixel difference ratio described above, the number of difference ratios is 3, which is obtained by subtracting 2 from the number of class taps. Therefore, the level resolution is selected as 2 bits (4 levels). However, the number of classes is 64 (= 4 3 ), and the image quality can be improved while avoiding an increase in the number of classes.
[0063]
According to the above configuration, by extracting the feature quantities of those areas using the difference ratio of adjacent pixels, the feature quantities of the clipped areas can be easily used while effectively using a smaller number of classes than in the past. Therefore, the image quality of the SD image data S100 can be improved while avoiding a complicated configuration.
[0064]
In the above-described embodiment, a case has been described in which five pixels adjacent in the horizontal direction are selected as class taps from the SD image data S100. However, the present invention is not limited to this, and the pixels to be extracted are adaptively selected. Class taps may be selected while changing. In short, a plurality of pixels adjacent in the horizontal or vertical direction may be selected.
[0065]
In the above-described embodiment, the case where the same pixel as the class tap is selected as the prediction tap has been described. However, the present invention is not limited to this, and a pixel different from the class tap may be selected as the prediction tap. .
[0066]
In the above-described embodiment, the case where the present invention is applied to the image
[0067]
Further, in the above-described embodiment, the case where the present invention is applied to the image
[0068]
In the above-described embodiment, the case where the
[0069]
In the above-described embodiment, the case where the class
[0070]
Furthermore, in the above-described embodiment, the case where the
[0071]
【The invention's effect】
As described above, according to the present invention, since the class is determined according to the equation (1), | (AB) / (BC) |, | (B −C) / (C−D) | and | (C−D) / (D−E) | can extract feature quantities of spatially narrow areas, and | (A−B) / (B -C) |, | (BC) / (CD) | and | (CD) / (DE) | Furthermore, classification can be performed while effectively using a smaller number of classes than in the past, and thus data quality can be improved while avoiding a complicated configuration.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an up converter.
FIG. 2 is a schematic diagram illustrating an example of class tap arrangement.
FIG. 3 is a schematic diagram illustrating an example of a prediction tap arrangement.
FIG. 4 is a block diagram illustrating a configuration of a learning circuit.
FIG. 5 is a flowchart showing a prediction coefficient generation procedure.
FIG. 6 is a block diagram showing an embodiment of an image data conversion apparatus according to the present invention.
FIG. 7 is a schematic diagram illustrating an example of class tap arrangement.
FIG. 8 is a schematic diagram illustrating a signal level distribution of class taps.
FIG. 9 is a block diagram illustrating a configuration of an adjacent pixel difference ratio pattern extraction unit.
FIG. 10 is a schematic diagram illustrating a frequency distribution of a difference ratio.
FIG. 11 is a block diagram illustrating a configuration of a learning circuit.
[Explanation of symbols]
DESCRIPTION OF
Claims (3)
上記クラスタップにおける上記5画素の並び順に8ビットの信号レベルをそれぞれA、B、C、D、Eとし、|(A−B)/(B−C)|の値、|(B−C)/(C−D)|の値、|(C−D)/(D−E)|の値が0〜1、1〜2、2〜3又は3〜255であって、0〜1のとき0とし、1〜2のとき1とし、2〜3のとき2とし、3〜255のとき3として、次式
上記第1画像データより高精細な第2画像データを生成する際、上記クラスCLに対応付けられた予測係数と上記クラスタップとを用いて予測演算を実行することにより、上記第1画像データには存在しない上記第2画像データに用いられる補間画素を生成する補間画素生成部と
を具えるデータ変換装置。 A class tap extraction unit that extracts, as class taps, five pixels each including a target pixel from the first image data and two peripheral pixels arranged around the target pixel at the front and rear,
The 8-bit signal levels in the class tap in the class tap are A, B, C, D, and E, respectively, and the value of | (A−B) / (B−C) |, | (B−C) / (C−D) | and the value of | (C−D) / (D−E) | are 0 to 1, 1 to 2, 2 to 3 or 3 to 255, and 0 to 1 0, 1 for 1-2, 2 for 2-3, 3 for 3-255, 3
When generating second image data with higher definition than the first image data, a prediction calculation is performed using the prediction coefficient associated with the class CL and the class tap, thereby obtaining the first image data. Lud over data converter comprising an interpolation pixel generator for generating interpolation pixels to be used in the second image data that does not exist.
請求項1に記載のデータ変換装置。The class tap extraction unit extracts the five pixels from the first image data in the horizontal or vertical direction around the target pixel .
Data conversion apparatus according to 請 Motomeko 1.
上記クラスタップにおける上記5画素の並び順に8ビットの信号レベルをそれぞれA、B、C、D、Eとし、|(A−B)/(B−C)|の値、|(B−C)/(C−D)|の値、|(C−D)/(D−E)|の値が0〜1、1〜2、2〜3又は3〜255であって、0〜1のとき0とし、1〜2のとき1とし、2〜3のとき2とし、3〜255のとき3として、次式
上記第1画像データより高精細な第2画像データを生成する際、上記クラスCLに対応付けられた予測係数と上記クラスタップとを用いて予測演算を実行することにより、上記第1画像データには存在しない上記第2画像データに用いられる補間画素を生成する補間画素生成ステップと
を具えるデータ変換方法。 A class tap extraction step of extracting, as class taps, 5 pixels each consisting of a target pixel from the first image data and peripheral pixels arranged two pixels before and after the target pixel.
The 8-bit signal levels in the class tap in the class tap are A, B, C, D, and E, respectively, and the value of | (A−B) / (B−C) |, | (B−C) / (C−D) | and the value of | (C−D) / (D−E) | are 0 to 1, 1 to 2, 2 to 3 or 3 to 255, and 0 to 1 0, 1 for 1-2, 2 for 2-3, 3 for 3-255, 3
When generating second image data with higher definition than the first image data, a prediction calculation is performed using the prediction coefficient associated with the class CL and the class tap, thereby obtaining the first image data. Lud over data conversion method comprising an interpolation pixel generating step for generating an interpolation pixel to be used in the second image data that does not exist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27025798A JP4168298B2 (en) | 1998-09-24 | 1998-09-24 | Data conversion apparatus and data conversion method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27025798A JP4168298B2 (en) | 1998-09-24 | 1998-09-24 | Data conversion apparatus and data conversion method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000099703A JP2000099703A (en) | 2000-04-07 |
JP4168298B2 true JP4168298B2 (en) | 2008-10-22 |
Family
ID=17483737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27025798A Expired - Fee Related JP4168298B2 (en) | 1998-09-24 | 1998-09-24 | Data conversion apparatus and data conversion method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4168298B2 (en) |
-
1998
- 1998-09-24 JP JP27025798A patent/JP4168298B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000099703A (en) | 2000-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7127122B2 (en) | Image processing method and image processing apparatus | |
US7643180B2 (en) | Image processing and display apparatus and method for tone resolution expansion of digital images | |
US7440612B2 (en) | Image processing apparatus and method capable of correcting gradation of image data | |
KR100499434B1 (en) | Image converter and image conversion method | |
JP4517409B2 (en) | Data processing apparatus and data processing method | |
KR101239268B1 (en) | Image processing apparatus, image processing method, and a recording medium | |
KR20060136335A (en) | Image processing apparatus, image processing method, and program | |
JP4168298B2 (en) | Data conversion apparatus and data conversion method | |
JP4035895B2 (en) | Image conversion apparatus and method, and recording medium | |
JP2000125268A (en) | Image data converting device and image data converting method | |
WO2006016336A1 (en) | A unit for and method of image conversion | |
JP4062771B2 (en) | Image conversion apparatus and method, and recording medium | |
JP4352298B2 (en) | Arithmetic device, conversion device, and method thereof | |
JP3743077B2 (en) | Image signal conversion apparatus and method | |
JP4300436B2 (en) | Image data conversion apparatus and image data conversion method | |
JP4337186B2 (en) | Image information conversion apparatus, image information conversion method, learning apparatus, and learning method | |
KR20010102030A (en) | Classified adaptive multiple processing system | |
JP3791029B2 (en) | Image signal processing apparatus and method | |
JP4099553B2 (en) | Prediction coefficient generation method and signal processing apparatus | |
JP4139979B2 (en) | Image conversion apparatus and method, and recording medium | |
JP4235852B2 (en) | Image data conversion apparatus and image data conversion method | |
JP4225039B2 (en) | Data processing apparatus and method, recording medium, and program | |
JP4235853B2 (en) | Image data conversion apparatus and image data conversion method | |
JP4131049B2 (en) | Signal processing apparatus and signal processing method | |
JP4126632B2 (en) | Image data conversion apparatus and image data conversion method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080411 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080710 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080723 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110815 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110815 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110815 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120815 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120815 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130815 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |