JP4168298B2 - Data conversion apparatus and data conversion method - Google Patents

Data conversion apparatus and data conversion method Download PDF

Info

Publication number
JP4168298B2
JP4168298B2 JP27025798A JP27025798A JP4168298B2 JP 4168298 B2 JP4168298 B2 JP 4168298B2 JP 27025798 A JP27025798 A JP 27025798A JP 27025798 A JP27025798 A JP 27025798A JP 4168298 B2 JP4168298 B2 JP 4168298B2
Authority
JP
Japan
Prior art keywords
class
image data
data
tap
class tap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27025798A
Other languages
Japanese (ja)
Other versions
JP2000099703A (en
Inventor
哲二郎 近藤
俊彦 浜松
靖 立平
正明 服部
寿一 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP27025798A priority Critical patent/JP4168298B2/en
Publication of JP2000099703A publication Critical patent/JP2000099703A/en
Application granted granted Critical
Publication of JP4168298B2 publication Critical patent/JP4168298B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はデータ変換装置及びデータ変換方法に関し、例えば画像データの画質を改善する画像データ変換装置に適用して好適なものである。
【0002】
【従来の技術】
様々なディジタル機器が出現する中、信号フォーマットの異なる機器間の接続においては機器間での信号変換を実現する信号変換装置が必要となる。例えば標準精細度の画像データを高精細度モニタで表示する場合には、標準精細度の画像データを高精細度の画像データにフォーマット変換する画像データ変換装置が必要となる。従来、この種の画像データ変換装置においては、標準精細度の画像データに対して補間フィルタによる周波数補間処理を施して画素補間を行うことにより高精細度の画像データを形成している。
【0003】
【発明が解決しようとする課題】
ところで画像データ変換装置としては、標準精細度の画像データの中から複数の画素でなる領域を切り出し、当該切り出した領域をその各画素の信号レベル分布に応じたクラスに分類した後、クラス毎に所定のデータ処理を施すことにより高精細度の画像データを生成するいわゆるクラス分類適応処理を用いたものが考えられている。
【0004】
ところで標準精細度の画像データ(例えばボケ画像)では、各画素の信号レベルの変化が小さいことから、平坦な領域とそうでない領域とを区別しにくく、また各画素の信号レベル分布の特徴量を抽出することが困難である。このため標準精細度の画像データでは、クラス分類適応処理が施されると、波形変化点の多いクラスに分類される領域が少なくなる一方、波形変化点の少ないクラスに分類される領域が多くなる傾向が生じる。このように画像データ変換装置では、切り出した領域の画素数に関係なく、全てのクラスを有効に使用することができず、十分に画質を改善し得ないという問題があった。
【0005】
かかる問題点を解決するための一つの方法として、信号レベルの分解能を向上させることにより、切り出された領域に含まれる各画素の信号レベル分布の特徴を精度良く抽出してクラス分類する画像データ変換装置が考えられる。しかしながらこの画像データ変換装置では、レベル分解能の向上によって画像データの画質を改善することができる一方、依然として全てのクラスを有効に使用しておらず、また、レベル分解能の向上がクラス数の増大を引き起こし、その分、装置の規模が大きくなる問題が発生する。
【0006】
本発明は以上の点を考慮してなされたもので、構成が複雑になることを回避しながらデータ品質を改善し得るデータ変換装置及びデータ変換方法を提案しようとするものである。
【0007】
【課題を解決するための手段】
かかる課題を解決するため本発明のデータ変換装置においては、第1画像データから注目画素と、当該注目画素を中心として前後にそれぞれ2画素ずつ配置された周辺画素とからなる5画素をクラスタップとして抽出するクラスタップ抽出部と、クラスタップにおける5画素の並び順に8ビットの信号レベルをそれぞれA、B、C、D、Eとし、|(A−B)/(B−C)|の値、|(B−C)/(C−D)|の値、|(C−D)/(D−E)|の値が0〜1、1〜2、2〜3又は3〜255であって、0〜1のとき0とし、1〜2のとき1とし、2〜3のとき2とし、3〜255のとき3として、(1)式に従い、クラスタップの信号レベル分布の特徴量が表されたクラスCLを算出するクラス算出部と、第1画像データより高精細な第2画像データを生成する際、クラスCLに対応付けられた予測係数とクラスタップとを用いて予測演算を実行することにより、第1画像データには存在しない第2画像データに用いられる補間画素を生成する補間画素生成部とを設けるようにようにした。また本発明のデータ変換方法においては、第1画像データから注目画素と、当該注目画素を中心として前後にそれぞれ2画素ずつ配置された周辺画素とからなる5画素をクラスタップとして抽出するクラスタップ抽出ステップと、クラスタップにおける5画素の並び順に8ビットの信号レベルをそれぞれA、B、C、D、Eとし、|(A−B)/(B−C)|の値、|(B−C)/(C−D)|の値、|(C−D)/(D−E)|の値が0〜1、1〜2、2〜3又は3〜255であって、0〜1のとき0とし、1〜2のとき1とし、2〜3のとき2とし、3〜255のとき3として、(2)式に従い、クラスタップの信号レベル分布の特徴量が表されたクラスCLを算出するクラス算出ステップと、第1画像データより高精細な第2画像データを生成する際、クラスCLに対応付けられた予測係数とクラスタップとを用いて予測演算を実行することにより、第1画像データには存在しない第2画像データに用いられる補間画素を生成する補間画素生成ステップとを設けるようにした。
【0008】
これにより、(1)式に従ってクラスを決定するので、隣接した画素同士の信号レベルの差分比である|(A−B)/(B−C)|、|(B−C)/(C−D)|及び|(C−D)/(D−E)|により空間的に狭い領域の特徴量を抽出することができ、また|(A−B)/(B−C)|、|(B−C)/(C−D)|及び|(C−D)/(D−E)|を組み合わせることにより空間的に広い領域の特徴量を抽出することができ、さらに従来に比して少ないクラス数を有効に使用しながらクラス分類することができる。
【0009】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0010】
(1)クラス分類適応処理の原理
ここで図1は、クラス分類適応処理を実現するアップコンバータ51の回路構成を示す。アップコンバータ51は、外部から供給される例えば8ビットのパルス符号変調(PCM:Pulse Code Modulation )データでなるSD画像データS51をクラス分類部52及び予測演算部53に入力する。クラス分類部52は、例えば図2に示すように、SD画像データS51のうち注目画素及び当該注目画素を中心とした複数の周辺画素でなる合計7画素(タップ)をクラス分類用の画素(以下、これをクラスタップと呼ぶ)として設定し、それらの信号レベル分布に基づいてクラスコードS52を生成する。因みに、図中実線は第1フィールドを示し、点線は第2フィールドを示す。
【0011】
このクラス分類部52によってクラスコードS52を生成する方法としては、PCMデータを直接使用する(すなわちPCMデータをそのままクラスデータS52とする)方法や、ADRC(Adaptive Dynamic Range Coding )等のデータ圧縮方法を用いてクラス数を削減するような方法が考えられる。このうちPCMデータをそのままクラスコードS52とする方法では、クラスタップとして8ビットのPCMデータを7タップ用いることから、クラス数が256という膨大な数のクラス数に分類されることになり、実用上問題がある。
【0012】
そこで実際には、クラス分類部52は、ADRCのようなデータ圧縮処理(すなわち再量子化処理)を施すことによりクラス数を削減するようになされている。このADRCによる分類法は、注目画素を中心とする近傍領域内の数タップからADRCコードを、次式
【0013】
【数3】

Figure 0004168298
【0014】
によって求め、当該ADRCコードに基づいてクラスコードS52を生成する手法を用いている。ここで、ci はADRCコード、xi は各クラスタップの入力画素値、MINは領域内にある各クラスタップの入力画素値のうちの最小画素値、DRは領域内のダイナミックレンジ(最大画素値と最小画素値との差分)、kは再量子化ビット数である。
【0015】
すなわちADRCによる分類法は、領域内のダイナミックレンジから再量子化ビット数に応じた量子化ステップ幅を算出し、入力画素値から最小画素値を減算した画素値を量子化ステップ幅に応じて再量子化するものである。例えば領域内の7タップにおいて各クラスタップを1ビットに再量子化する1ビットADRCを行う場合では、領域内のダイナミックレンジに基づいて7タップの各入力画素値を適応的に1ビット量子化し、その結果、7タップの入力画素値を7ビットのデータに削減することができるので、全体としてクラス数を128クラスにまで削減することができる。
【0016】
図1に戻って、予測係数ROM(Read Only Memory)54は、後述する学習回路60によって予め生成された各クラス毎に対応する予測係数データS53を格納しており、クラス分類部52から供給されるクラスコードS52に応じた予測係数データS53を読み出し、これを予測演算部53に送出する。予測演算部53は、例えば図3に示すように、外部から入力されるSD画像データS51のうち、注目画素及び当該注目画素を中心とした複数の周辺画素でなる合計13タップを予測演算用の画素(以下、これを予測タップと呼ぶ)として選定し、当該予測タップの各画素値と予測係数データS53とを用いて、線形一次結合でなる次式
【0017】
【数4】
Figure 0004168298
【0018】
によって表される積和演算を行うことにより、予測タップには存在しないHD画素の集まりであるHD画像データS54を生成し、これを外部に出力する。ここで、x′は各HD画素値、xi は各予測タップの画素値、wi は予測係数、nは予測タップ数であり、この場合nは13である。
【0019】
ところで図4は、予測係数ROM54に格納されている予測係数データを生成する学習回路60の回路構成を示し、当該学習回路60は、予測係数データを予め生成して、これを予測係数ROM54に格納するようになされている。学習回路60は、いわゆる教師信号としてのHD画像データS60を垂直間引きフィルタ61及び予測係数算出回路62に入力する。学習回路60は、HD画像データS60を垂直間引きフィルタ61及び水平間引きフィルタ62によって間引くことにより、生徒信号としてのSD画像データS61を生成し、これをクラス分類部64及び予測係数算出回路62に入力するようになされている。
【0020】
クラス分類部64は、図1に示すアップコンバータのクラス分類部52と同様の構成でなり、SD画像データS61からクラスタップを選定し、その信号レベル分布に基づいてクラスコードS62を生成した後、これを予測係数算出回路62に送出する。予測係数算出回路62は、HD画像データS60及びSD画像データS61を基に、クラスコードS62が示すクラスに応じた予測係数をクラス毎に算出し、その結果得た予測係数データS63を予測係数ROM54に格納する。
【0021】
この場合、予測係数算出回路62は、上述の()式における予測係数wを最小自乗法によって求めるようになされている。具体的には予測係数算出回路62は、XをSD画素値、Wを予測係数、YをHD画素値として、いわゆる観測方程式と呼ばれる次式
【0022】
【数5】
Figure 0004168298
【0023】
を生成するように各データを収集する。ここでmは予測するHD画素の画素数を示す学習データ数、nは予測タップ数である。
【0024】
次に予測係数算出回路62は、この()式を基に、次式
【0025】
【数6】
Figure 0004168298
【0026】
に示す残差方程式を立てる。従って各予測係数wiは、この()式から、次式
【0027】
【数7】
Figure 0004168298
【0028】
が最小のときに最適な値となることがわかる。すなわち次式
【0029】
【数8】
Figure 0004168298
【0030】
を満たすように予測係数wi が算出される。
【0031】
そこで予測係数算出回路62は、このn個ある()式を満たすようなw、w、……、wを算出すればよいことになり、上述の()式から、次式
【0032】
【数9】
Figure 0004168298
【0033】
を得、これら()及び()式から、次式
【0034】
【数10】
Figure 0004168298
【0035】
を求める。そして予測係数算出回路62は、上述の()及び(10)式から、次式
【0036】
【数11】
Figure 0004168298
【0037】
によって表される正規方程式を生成する。このようにして予測係数算出回路62は、予測タップ数nと同一次数の連立方程式でなる正規方程式を生成し、掃き出し法(Gauss Jordanの消去法)を用いてこの正規方程式を解くことにより、各予測係数wi を算出する。
【0038】
以下、学習回路60による予測係数生成手順について図5に示すフローチャートを用いて説明する。ステップSP61から入ったステップSP62において、学習回路60は、教師信号としてのHD画像データS60から生徒信号としてのSD画像データS61を生成することにより、予測係数を生成するのに必要な学習データを生成する。ステップSP63において、学習回路60は、予測係数を生成するのに必要十分な学習データが得られたか否か判定し、その結果、未だ必要十分な学習データが得られていないと判断された場合にはステップSP63において否定結果を得ることによりステップSP64に移行する。
【0039】
ステップSP64において、学習回路60は、SD画像データS61からクラスタップを選定し、その信号レベル分布に基づいてクラス分類を行う。ステップSP65において、学習回路60は、各クラス毎に上述の(11)式でなる正規方程式を生成し、ステップSP62に戻って同様の処理手順を繰り返すことにより、予測係数を生成するのに必要十分な正規方程式を生成する。
【0040】
これに対してステップSP63において肯定結果が得られると、このことは必要十分な学習データが得られたことを表しており、このとき学習回路60はステップSP66に移って、上述の(11)式でなる正規方程式を掃き出し法によって解くことにより、予測係数w、w、……、wを各クラス毎に生成する。そしてステップSP67において、学習回路60は、生成した各クラス毎の予測係数w、w、……、wを予測係数ROM54に格納し、ステップSP68に移って処理を終了する。
【0041】
(2)画像データ変換装置の構成
図6において、100は全体として図1〜図5について上述したクラス分類適応処理の原理を用いた画像データ変換装置の構成を示し、標準精細度のSD画像データS100(例えばボケ画像)を領域切り出し部101及び102に供給するようになされている。領域切り出し部101は、図7に示すように、SD画像データS100の中から、所定の注目画素と当該注目画素を中心として水平方向に隣接する複数の周辺画素とでなる合計5画素をクラスタップとして選定し、そのクラスタップデータS101を隣接画素差分比パターン抽出部103に出力する。クラスタップデータS101は、図8に示すように、選定したクラスタップの信号レベル分布でなり、ここではクラスタップa、b、c、d、eの信号レベルをそれぞれ値A、B、C、D、Eとする。
【0042】
図9は、隣接画素差分比パターン抽出部103の構成を示す。隣接画素差分比パターン抽出部103は、クラスタップデータS101のうち、クラスタップaの信号レベルAを示すクラスタップデータS101Aを差分回路104Aに入力し、クラスタップbの信号レベルBを示すクラスタップデータS101Bを差分回路104A及び104Bに入力し、クラスタップcの信号レベルCを示すクラスタップデータS101Cを差分回路104B及び104Cに入力し、クラスタップdの信号レベルDを示すクラスタップデータS101Dを差分回路104C及び104Dに入力し、クラスタップeの信号レベルEを示すクラスタップデータS101Eを差分回路104Dに入力する。
【0043】
差分回路104Aは、クラスタップデータS101A及びS101Bの差分をとって絶対値化することにより、差分値|A−B|でなる差分データS102Aを生成し、これを割り算回路105Aに出力する。差分回路104Bは、クラスタップデータS101B及びS101Cの差分をとって絶対値化することにより、差分値|B−C|でなる差分データS102Bを生成し、これを割り算回路105A及び105Bに出力する。
【0044】
差分回路104Cは、クラスタップデータS101C及びS101Dの差分をとって絶対値化することにより、差分値|C−D|でなる差分データS102Cを生成し、これを割り算回路105B及び105Cに出力する。差分回路104Dは、クラスタップデータS101D及びS101Eの差分をとって絶対値化することにより、差分値|D−E|でなる差分データS102Dを生成し、これを割り算回路105Cに出力する。
【0045】
割り算回路105Aは、差分データS102A及びS102Bの比をとることにより、クラスタップa、b、cの波形変化を示す差分比|(A−B)/(B−C)|を生成する。この差分比|(A−B)/(B−C)|は、各クラスタップの量子化ビット数が8ビットの場合、値0〜255までの範囲の値をとり得ることになり、この差分比|(A−B)/(B−C)|を所定回数計測すると、図10に示すような差分比|(A−B)/(B−C)|の度数分布が求められる。ところで画像データは隣接する画素間の相関性が高いことから、差分値|A−B|及び|B−C|は同じ値になる場合が多く、従って差分比|(A−B)/(B−C)|はその値が1近辺に集中することがわかる。
【0046】
そこで割り算回路105Aは、例えば差分比|(A−B)/(B−C)|が値0〜1の範囲をレベル0とし、値1〜2の範囲をレベル1とし、値2〜3の範囲をレベル2とし、値3〜255の範囲をレベル3とすることにより、差分比|(A−B)/(B−C)|を4つのレベルで表すようになされている。この場合、割り算回路105Aは、それぞれの範囲に含まれる度数の合計が等しくなるように、差分比|(A−B)/(B−C)|を4つのレベルに分割している。このように割り算回路105Aは、差分データS102A及びS102Bの比をとることにより差分比|(A−B)/(B−C)|を求めた後、当該差分比|(A−B)/(B−C)|を4つのレベルで表すような正規化を行い、これを差分比データS103Aとして演算部106の加算回路107に出力する。因みに、分母である差分値|B−C|が0の場合には強制的に差分値|B−C|に1を設定する。
【0047】
割り算回路105Bは、差分データS102B及びS102Cの比をとることにより差分比|(B−C)/(C−D)|を求めた後、当該差分比|(B−C)/(C−D)|を4つのレベルで表し、これを差分比データS103Bとして演算部106の乗算回路108に出力する。割り算回路105Cは、差分データS102C及びS102Dの比をとることにより差分比|(C−D)/(D−E)|を求めた後、当該差分比|(C−D)/(D−E)|を4つのレベルで表し、これを差分比データS103Cとして演算部106の乗算回路109に出力する。
【0048】
演算部106は、差分比データS103Aと乗算回路108によって4を乗算した差分比データS103Bとを加算回路107によって加算した後、その加算結果と乗算回路109によって16を乗算した差分比データS103Cとを加算回路110によって加算することにより、切り出された領域のクラスCLを、次式
【0049】
【数12】
Figure 0004168298
【0050】
によって算出する。この場合、クラス数は、4つのレベルで表される差分比が3種類あることから、43 (=64)クラスに分類されることになる。このように演算部106は、クラスタップa、b、c、d、eの信号レベル分布が示す特徴量をクラスCLによって表し、そのクラスデータS104をクラスコード発生部120に出力する。
【0051】
クラスコード発生部120は、隣接画素差分比パターン抽出部103から供給されるクラスデータS104に対応するクラスコードS120を発生し、これをROM121に出力する。ROM121は、クラスコードに対応する予測係数を記憶しており、供給されるクラスコードS120に対応する予測係数ω1〜ωnを読み出して、これらを予測係数データS121として予測演算部122に出力する。
【0052】
領域切り出し部102は、SD画像データS100の中から、例えばクラスタップと同一の複数画素を予測タップとして選定し、その画素値x1〜xnを予測タップデータS122として予測演算部122に出力する。予測演算部122は、予測タップデータS122が示す予測タップの画素値x1〜xnと、予測係数データS121が示す予測係数ω1〜ωnとを用いて、次式
【0053】
【数13】
Figure 0004168298
【0054】
に示す積和演算を行うことにより予測値yを算出し、当該予測値yの集まりでなる高精細度の補正SD画像データS123を生成して外部に出力する。
【0055】
ここでROM121に記憶する予測係数ω1〜ωnを算出するための学習回路130の構成について図11を用いて説明する。学習回路130は、教師信号として高精細度のSD画像データS131をローパスフィルタ(LPF)131及び正規方程式演算部132に入力する。LPF131は、SD画像データS131から高域成分を除去することにより、当該SD画像データS131よりも画質の劣化した標準精細度のSD画像データS132を生成し、これを領域切り出し部133及び134に出力する。
【0056】
領域切り出し部133は、図6に示す画像データ変換装置100の領域切り出し部103と同様に構成され、標準精細度のSD画像データS132からクラスタップを抽出し、そのクラスタップデータS133を隣接画素差分比パターン抽出部135に出力する。隣接画素差分比パターン抽出部135は、図6に示す画像データ変換装置100の隣接画素差分比パターン抽出部103と同様に構成され、クラスタップデータS133が示すクラスタップをクラス分類することによりクラスデータS134を生成し、これをクラスコード発生部136に出力する。クラスコード発生部136は、図6に示す画像データ変換装置100のクラスコード発生部120と同様に構成され、クラスデータS134からクラスコードS135を発生し、これを正規方程式演算部132に出力する。
【0057】
領域切り出し部134は、図6に示す画像データ変換装置100の領域切り出し部102と同様に構成され、SD画像データS132から予測タップを抽出し、その予測タップデータS136を正規方程式演算部132に出力する。正規方程式演算部132は、教師信号としての高精細度のSD画像データS131と学習データとしての予測タップデータS136とから、クラスコードS135毎に正規方程式を生成し、この正規方程式データS137を予測係数決定部137に出力する。
【0058】
予測係数決定部137は、正規方程式データS137が必要な数だけ供給されると、最小自乗法を用いて当該正規方程式を解くことにより予測係数を演算し、その予測係数データS138をメモリ138に送出して当該メモリ138に記憶させる。その後、このメモリ138に記憶されている予測係数データS138は、図6に示すROM121に書き込まれるようになされている。
【0059】
以上の構成において、隣接画素差分比パターン抽出部103は、隣接する画素のレベルの差分をとって注目画素の微小なレベル変化を抽出した後、当該隣接画素の差分の比をとって正規化を行い空間的に狭い領域の特徴量を抽出し、さらにこれら隣接画素の差分の比を組み合わせて空間的に広い領域の特徴量を抽出することにより、切り出された領域の波形特徴量を容易に抽出することができ、従って標準精細度のSD画像データS100を正確にクラス分類してその画質を改善し得る。
【0060】
また、隣接画素の差分比を組み合わせてその領域の特徴量を抽出することにより、従来のように波形変化点の少ない特定のクラスに集中して分類されることを回避することでき、従って全てのクラスを有効に使用することができる。
【0061】
さらに、差分比の数はクラスタップ数から2を減算した数になることから、レベル分解能を向上させたとしても、従来に比して少ないクラス数でSD画像データS100を分類して画質を改善し得、従ってROM121のメモリ容量が大きくなることを回避し得る。
【0062】
例えば水平方向に隣接する5画素をクラスタップとして選定した場合に、各クラスタップに対して2ビット(4レベル)のADRCクラス分類を行うと、クラス数は1024(=45 )になる。これに対して、上述の隣接画素差分比を用いたクラス分類法では、差分比の数がクラスタップ数から2を減算した3になることから、レベル分解能を2ビット(4レベル)に選定しても、クラス数が64(=43 )で済むことになり、クラス数が増大することを回避しながら画質を改善することができる。
【0063】
以上の構成によれば、隣接画素の差分比を用いてそれらの領域の特徴量を抽出することにより、従来に比して少ないクラス数を有効に使用しながら、切り出した領域の特徴量を容易に抽出してクラス分類することができ、従って構成が複雑になることを回避しながらSD画像データS100の画質を改善し得る。
【0064】
なお上述の実施の形態においては、SD画像データS100の中から水平方向に隣接する5画素をクラスタップとして選定した場合について述べたが、本発明はこれに限らず、抽出する画素を適応的に変えながらクラスタップを選定しても良く、要は、水平又は垂直方向に隣接する複数の画素を選定すれば良い。
【0065】
また上述の実施の形態においては、クラスタップと同一の画素を予測タップとして選定した場合について述べたが、本発明はこれに限らず、クラスタップとは異なる画素を予測タップとして選定しても良い。
【0066】
また上述の実施の形態においては、本発明を標準精細度のSD画像データS100の画質を改善する画像データ変換装置100に適用した場合について述べたが、本発明はこれに限らず、例えばHD画像データのように、他の種々の画像データの画質を改善する画像データ変換装置に本発明を広く適用し得る。
【0067】
また上述の実施の形態においては、本発明を所定数の画素でなる画像データの画質を改善する画像データ変換装置100に適用した場合について述べたが、本発明はこれに限らず、例えば所定数のサンプリングデータでなる音声データのように、この他種々のデータの品質を改善するデータ変換装置に本発明を広く適用し得る。
【0068】
また上述の実施の形態においては、クラスを決定するクラス決定手段として、領域切り出し部101及び隣接画素差分比パターン抽出部103を適用した場合について述べたが、本発明はこれに限らず、要は、第1のデータから注目サンプリングデータを含む複数のサンプリングデータを抽出し、その抽出された各サンプリングデータ間の差分の比をとることにより注目サンプリングデータに対するクラスを決定するクラス決定手段であれば良い。
【0069】
また上述の実施の形態においては、予測データを発生する予測データ発生手段として、クラスコード発生部120及びROM121を適用した場合について述べたが、本発明はこれに限らず、要は、クラスに応じて予測データを発生する予測データ発生手段であれば良い。
【0070】
さらに上述の実施の形態においては、注目サンプリングデータを発生するサンプリングデータ発生手段として予測演算部122を適用した場合について述べたが、本発明はこれに限らず、要は、予測データから第2のデータの注目サンプリングデータを発生するサンプリングデータ発生手段であれば良い。
【0071】
【発明の効果】
上述のように本発明によれば、(1)式に従ってクラスを決定するので、隣接した画素同士の信号レベルの差分比である|(A−B)/(B−C)|、|(B−C)/(C−D)|及び|(C−D)/(D−E)|により空間的に狭い領域の特徴量を抽出することができ、また|(A−B)/(B−C)|、|(B−C)/(C−D)|及び|(C−D)/(D−E)|を組み合わせることにより空間的に広い領域の特徴量を抽出することができ、さらに従来に比して少ないクラス数を有効に使用しながらクラス分類することができ、かくして構成が複雑になることを回避しながらデータ品質を改善し得る。
【図面の簡単な説明】
【図1】アップコンバータの構成を示すブロック図である。
【図2】クラスタップ配置例を示す略線図である。
【図3】予測タップ配置例を示す略線図である。
【図4】学習回路の構成を示すブロック図である。
【図5】予測係数生成手順を示すフローチャートである。
【図6】本発明による画像データ変換装置の一実施の形態を示すブロック図である。
【図7】クラスタップ配置例を示す略線図である。
【図8】クラスタップの信号レベル分布を示す略線図である。
【図9】隣接画素差分比パターン抽出部の構成を示すブロック図である。
【図10】差分比の度数分布を示す略線図である。
【図11】学習回路の構成を示すブロック図である。
【符号の説明】
100……画像データ変換装置、101、102、133、134……領域切り出し部、103、135……隣接画素差分比パターン抽出部、120、136……クラスコード発生部、121……ROM、122……予測演算部、130……学習回路、131……LPF、132……正規方程式演算部、137……予測係数決定部、138……メモリ。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a data conversion apparatus and a data conversion method, and is suitably applied to, for example, an image data conversion apparatus that improves the image quality of image data.
[0002]
[Prior art]
With the advent of various digital devices, connection between devices having different signal formats requires a signal conversion device that realizes signal conversion between the devices. For example, when standard definition image data is displayed on a high definition monitor, an image data conversion device that converts the format of the standard definition image data into high definition image data is required. Conventionally, in this type of image data conversion apparatus, high-definition image data is formed by subjecting image data of standard definition to frequency interpolation processing by an interpolation filter and pixel interpolation.
[0003]
[Problems to be solved by the invention]
By the way, as an image data conversion device, an area composed of a plurality of pixels is cut out from standard definition image data, and the cut out area is classified into classes according to the signal level distribution of each pixel, and then, for each class. A method using so-called class classification adaptive processing that generates high-definition image data by performing predetermined data processing is considered.
[0004]
By the way, in standard definition image data (for example, a blurred image), since the change in the signal level of each pixel is small, it is difficult to distinguish between a flat region and a region that is not so. It is difficult to extract. For this reason, in standard definition image data, when class classification adaptation processing is performed, the number of areas classified into classes with many waveform change points decreases, while the number of areas classified into classes with few waveform change points increases. A trend arises. As described above, the image data conversion apparatus has a problem in that all the classes cannot be used effectively regardless of the number of pixels in the cut-out area, and the image quality cannot be sufficiently improved.
[0005]
One method for solving this problem is to improve the signal level resolution, thereby accurately extracting the characteristics of the signal level distribution of each pixel included in the clipped region and classifying the image data. A device is conceivable. However, while this image data conversion apparatus can improve the image quality of image data by improving the level resolution, it still does not use all the classes effectively, and the improvement in the level resolution increases the number of classes. This causes a problem that the scale of the apparatus increases accordingly.
[0006]
The present invention has been made in consideration of the above points, and an object of the present invention is to propose a data conversion apparatus and a data conversion method capable of improving data quality while avoiding a complicated configuration.
[0007]
[Means for Solving the Problems]
In order to solve such a problem, in the data conversion device of the present invention, five pixels including a target pixel from the first image data and peripheral pixels arranged two pixels before and after the target pixel are used as class taps. The class tap extraction unit to extract, and the 8-bit signal levels in the order of arrangement of the five pixels in the class tap are A, B, C, D, and E, respectively, and the value of | (A−B) / (B−C) | The value of | (BC) / (CD) | and the value of | (CD) / (DE) | are 0 to 1, 1-2, 2-3, or 3-255. 0 to 1, 0 to 1 to 1, 1 to 2 to 2, 2 to 3 to 255, 3 according to equation (1), the feature quantity of the signal level distribution of the class tap is expressed. A class calculation unit for calculating the calculated class CL, and a second higher definition than the first image data When generating image data, by performing a prediction operation using a prediction coefficient and a class tap associated with the class CL, an interpolation pixel used for second image data that does not exist in the first image data is generated. An interpolated pixel generation unit is provided. Further, in the data conversion method of the present invention, class tap extraction is performed to extract five pixels including a target pixel from the first image data and peripheral pixels arranged two pixels before and after the target pixel as a class tap. The signal levels of 8 bits are A, B, C, D, and E, respectively, in the order of arrangement of the 5 pixels in the step and class tap, and the value of | (AB) / (BC) |, | (BC ) / (C−D) | and the value of | (C−D) / (D−E) | is 0 to 1, 1 to 2, 2 to 3 or 3 to 255, and 0 to 1 0, 1 when 1, 2 when 2, 2 when 3, and 3 when 3-255, according to the formula (2), the class CL that represents the class tap signal level distribution feature amount A class calculating step to calculate, and second image data with higher definition than the first image data. Is generated by performing a prediction calculation using a prediction coefficient and a class tap associated with the class CL, thereby generating an interpolation pixel used for the second image data that does not exist in the first image data. And a pixel generation step.
[0008]
As a result, the class is determined according to the equation (1). Therefore, | (A−B) / (B−C) |, | (B−C) / (C−), which is the difference ratio between the signal levels of adjacent pixels. D) | and | (CD) / (DE) | can extract feature quantities of spatially narrow regions, and | (AB) / (BC) |, | ( By combining (B−C) / (C−D) | and | (C−D) / (D−E) |, it is possible to extract a feature amount of a spatially wide area, and further , compared with the conventional case. Classification can be performed while effectively using a small number of classes.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described in detail below with reference to the drawings.
[0010]
(1) Principle of Class Classification Adaptation Processing FIG. 1 shows a circuit configuration of the up-converter 51 that realizes class classification adaptation processing. The up-converter 51 inputs SD image data S51 including, for example, 8-bit pulse code modulation (PCM) data supplied from the outside to the class classification unit 52 and the prediction calculation unit 53. For example, as shown in FIG. 2, the class classification unit 52 classifies a total of seven pixels (tap) including a target pixel and a plurality of peripheral pixels centered on the target pixel in the SD image data S <b> 51. This is referred to as a class tap), and a class code S52 is generated based on the signal level distribution. Incidentally, the solid line in the figure indicates the first field, and the dotted line indicates the second field.
[0011]
As a method of generating the class code S52 by the class classification unit 52, a method of directly using PCM data (that is, the PCM data as it is as the class data S52) or a data compression method such as ADRC (Adaptive Dynamic Range Coding) is used. A method of reducing the number of classes by using it can be considered. In the method of the intact class code S52 Of this PCM data, from using 7 tap 8-bit PCM data as a class tap, will be the number of classes are classified into several number of classes huge as 2 56, practical There is a problem above.
[0012]
Therefore, the class classification unit 52 actually reduces the number of classes by performing data compression processing (that is, requantization processing) such as ADRC. In this ADRC classification method, an ADRC code is calculated from several taps in a neighboring area centered on a pixel of interest by the following formula:
[Equation 3]
Figure 0004168298
[0014]
And a method of generating the class code S52 based on the ADRC code is used. Here, c i is an ADRC code, x i is an input pixel value of each class tap, MIN is a minimum pixel value among input pixel values of each class tap in the region, and DR is a dynamic range (maximum pixel in the region). Difference between the value and the minimum pixel value), k is the number of requantization bits.
[0015]
That is, the classification method based on ADRC calculates a quantization step width corresponding to the number of requantization bits from the dynamic range in the region, and regenerates the pixel value obtained by subtracting the minimum pixel value from the input pixel value according to the quantization step width. Quantize. For example, in the case of performing 1-bit ADRC that re-quantizes each class tap to 1 bit in 7 taps in the region, each input pixel value of 7 taps is adaptively 1-bit quantized based on the dynamic range in the region, As a result, since the input pixel value of 7 taps can be reduced to 7-bit data, the number of classes as a whole can be reduced to 128 classes.
[0016]
Returning to FIG. 1, a prediction coefficient ROM (Read Only Memory) 54 stores prediction coefficient data S 53 corresponding to each class generated in advance by a learning circuit 60 described later, and is supplied from the class classification unit 52. Prediction coefficient data S53 corresponding to the class code S52 is read out and sent to the prediction calculation unit 53. For example, as shown in FIG. 3, the prediction calculation unit 53 uses, for SD calculation, a total of 13 taps including a target pixel and a plurality of peripheral pixels centered on the target pixel in the SD image data S51 input from the outside. A pixel is selected as a pixel (hereinafter referred to as a prediction tap), and the following equation is formed by linear linear combination using each pixel value of the prediction tap and the prediction coefficient data S53.
[Expression 4]
Figure 0004168298
[0018]
Is generated, and HD image data S54, which is a collection of HD pixels that do not exist in the prediction tap, is generated and output to the outside. Here, x ′ is the HD pixel value, x i is the pixel value of each prediction tap, w i is the prediction coefficient, and n is the number of prediction taps. In this case, n is 13.
[0019]
4 shows the circuit configuration of the learning circuit 60 that generates the prediction coefficient data stored in the prediction coefficient ROM 54. The learning circuit 60 generates the prediction coefficient data in advance and stores it in the prediction coefficient ROM 54. It is made to do. The learning circuit 60 inputs the HD image data S 60 as a so-called teacher signal to the vertical thinning filter 61 and the prediction coefficient calculation circuit 62. The learning circuit 60 generates the SD image data S61 as a student signal by thinning out the HD image data S60 by the vertical thinning filter 61 and the horizontal thinning filter 62, and inputs this to the class classification unit 64 and the prediction coefficient calculation circuit 62. It is made to do.
[0020]
The class classification unit 64 has the same configuration as the class classification unit 52 of the upconverter shown in FIG. 1, selects a class tap from the SD image data S61, generates a class code S62 based on the signal level distribution, This is sent to the prediction coefficient calculation circuit 62. The prediction coefficient calculation circuit 62 calculates, for each class, a prediction coefficient corresponding to the class indicated by the class code S62 based on the HD image data S60 and the SD image data S61. The prediction coefficient data S63 obtained as a result is calculated as the prediction coefficient ROM 54. To store.
[0021]
In this case, the prediction coefficient calculation circuit 62 is configured to obtain the prediction coefficient w in the above equation ( 4 ) by the least square method. Specifically, the prediction coefficient calculation circuit 62 uses the following equation called an observation equation where X is an SD pixel value, W is a prediction coefficient, and Y is an HD pixel value.
[Equation 5]
Figure 0004168298
[0023]
Collect each data to generate. Here, m is the number of learning data indicating the number of HD pixels to be predicted, and n is the number of prediction taps.
[0024]
Next, the prediction coefficient calculation circuit 62 uses the following equation ( 5 ) based on the equation ( 5 ).
[Formula 6]
Figure 0004168298
[0026]
The residual equation shown in Accordingly, each prediction coefficient w i is calculated from the equation ( 6 ) as follows:
[Expression 7]
Figure 0004168298
[0028]
It can be seen that the optimum value is obtained when is minimum. That is, the following formula:
[Equation 8]
Figure 0004168298
[0030]
The prediction coefficient w i is calculated so as to satisfy
[0031]
Therefore, the prediction coefficient calculation circuit 62 has only to calculate w 1 , w 2 ,..., W n satisfying the n ( 8 ) expressions. From the above expression ( 6 ), the following expression is obtained. [0032]
[Equation 9]
Figure 0004168298
[0033]
From these equations ( 8 ) and ( 9 ),
[Expression 10]
Figure 0004168298
[0035]
Ask for. Then, the prediction coefficient calculation circuit 62 calculates the following equation from the above-described equations ( 6 ) and ( 10 ):
## EQU11 ##
Figure 0004168298
[0037]
Generates a normal equation represented by In this way, the prediction coefficient calculation circuit 62 generates a normal equation composed of simultaneous equations of the same order as the prediction tap number n, and solves this normal equation using the sweep-out method (Gauss Jordan elimination method). A prediction coefficient w i is calculated.
[0038]
Hereinafter, the prediction coefficient generation procedure by the learning circuit 60 will be described with reference to the flowchart shown in FIG. In step SP62 entered from step SP61, the learning circuit 60 generates learning data necessary for generating a prediction coefficient by generating SD image data S61 as a student signal from HD image data S60 as a teacher signal. To do. In step SP63, the learning circuit 60 determines whether or not sufficient learning data necessary to generate the prediction coefficient has been obtained, and as a result, when it is determined that the necessary and sufficient learning data has not yet been obtained. Moves to step SP64 when a negative result is obtained in step SP63.
[0039]
In step SP64, the learning circuit 60 selects a class tap from the SD image data S61 and performs class classification based on the signal level distribution. In step SP65, the learning circuit 60 generates a normal equation represented by the above formula ( 11 ) for each class, and returns to step SP62 to repeat the same processing procedure, and is necessary and sufficient to generate a prediction coefficient. Generate a normal equation.
[0040]
On the other hand, if a positive result is obtained in step SP63, this indicates that necessary and sufficient learning data has been obtained. At this time, the learning circuit 60 proceeds to step SP66 and the above-described expression ( 11 ). be solved by sweeping-out method the normal equations consisting of the prediction coefficients w 1, w 2, ......, to produce a w n for each class. In step SP67, the learning circuit 60 stores the generated prediction coefficients w 1 , w 2 ,..., W n for each class in the prediction coefficient ROM 54, and proceeds to step SP68 to end the process.
[0041]
(2) Configuration of Image Data Conversion Device In FIG. 6, 100 indicates the overall configuration of the image data conversion device using the principle of the class classification adaptive processing described above with reference to FIGS. S100 (for example, a blurred image) is supplied to the area cutout units 101 and 102. As illustrated in FIG. 7, the region cutout unit 101 class taps a total of five pixels including a predetermined target pixel and a plurality of peripheral pixels adjacent in the horizontal direction centering on the target pixel from the SD image data S100. And the class tap data S101 is output to the adjacent pixel difference ratio pattern extraction unit 103. As shown in FIG. 8, the class tap data S101 has a signal level distribution of the selected class tap. Here, the signal levels of the class taps a, b, c, d, and e are values A, B, C, and D, respectively. , E.
[0042]
FIG. 9 shows the configuration of the adjacent pixel difference ratio pattern extraction unit 103. The adjacent pixel difference ratio pattern extraction unit 103 inputs class tap data S101A indicating the signal level A of the class tap a out of the class tap data S101 to the difference circuit 104A, and class tap data indicating the signal level B of the class tap b. S101B is input to the difference circuits 104A and 104B, class tap data S101C indicating the signal level C of the class tap c is input to the difference circuits 104B and 104C, and class tap data S101D indicating the signal level D of the class tap d is input to the difference circuit. The class tap data S101E indicating the signal level E of the class tap e is input to the difference circuit 104D.
[0043]
The difference circuit 104A generates a difference data S102A having a difference value | A−B | by taking the difference between the class tap data S101A and S101B and making it an absolute value, and outputs this to the division circuit 105A. The difference circuit 104B generates a difference data S102B having a difference value | B−C | by taking the difference between the class tap data S101B and S101C and making it an absolute value, and outputs the difference data S102B to the division circuits 105A and 105B.
[0044]
The difference circuit 104C takes the difference between the class tap data S101C and S101D and converts it to an absolute value, thereby generating difference data S102C having a difference value | C−D |, and outputs this to the division circuits 105B and 105C. The difference circuit 104D takes the difference between the class tap data S101D and S101E and converts it to an absolute value, thereby generating difference data S102D having a difference value | D−E |, and outputs this to the division circuit 105C.
[0045]
The division circuit 105A generates a difference ratio | (A−B) / (B−C) | indicating the waveform change of the class taps a, b, and c by taking the ratio of the difference data S102A and S102B. This difference ratio | (A−B) / (B−C) | can take a value in a range from 0 to 255 when the number of quantization bits of each class tap is 8 bits. When the ratio | (AB) / (BC) | is measured a predetermined number of times, a frequency distribution of the difference ratio | (AB) / (BC) | as shown in FIG. 10 is obtained. By the way, since image data has high correlation between adjacent pixels, the difference values | A−B | and | B−C | are often the same value, and therefore the difference ratio | (A−B) / (B It can be seen that -C) | is concentrated in the vicinity of 1.
[0046]
Therefore, the division circuit 105A, for example, sets the range in which the difference ratio | (AB) / (BC) | is 0 to 1 as level 0, 1 to 2 as level 1, and 2 to 3 as the value 2-3. The difference ratio | (A−B) / (B−C) | is represented by four levels by setting the range to level 2 and the range of values 3 to 255 to level 3. In this case, the dividing circuit 105A divides the difference ratio | (A−B) / (B−C) | into four levels so that the sum of the frequencies included in the respective ranges becomes equal. Thus, the division circuit 105A obtains the difference ratio | (A−B) / (B−C) | by taking the ratio of the difference data S102A and S102B, and then calculates the difference ratio | (A−B) / ( B−C) | is normalized so that it is expressed in four levels, and this is output as difference ratio data S103A to the adding circuit 107 of the arithmetic unit 106. Incidentally, when the difference value | B−C |, which is the denominator, is 0, the difference value | B−C | is forcibly set to 1.
[0047]
The division circuit 105B obtains the difference ratio | (BC) / (CD) | by taking the ratio of the difference data S102B and S102C, and then calculates the difference ratio | (BC) / (CD ) | Is represented by four levels, which are output to the multiplication circuit 108 of the arithmetic unit 106 as difference ratio data S103B. The division circuit 105C obtains the difference ratio | (CD) / (DE) | by taking the ratio of the difference data S102C and S102D, and then calculates the difference ratio | (CD) / (DE ) | Is represented by four levels, which are output to the multiplication circuit 109 of the arithmetic unit 106 as difference ratio data S103C.
[0048]
The arithmetic unit 106 adds the difference ratio data S103A and the difference ratio data S103B multiplied by 4 by the multiplication circuit 108 by the addition circuit 107, and then adds the addition result and the difference ratio data S103C multiplied by 16 by the multiplication circuit 109. The class CL of the clipped region is added by the adder circuit 110, and the following equation is obtained:
[Expression 12]
Figure 0004168298
[0050]
Calculated by In this case, the number of classes is classified into 4 3 (= 64) classes because there are three types of difference ratios represented by four levels. As described above, the calculation unit 106 represents the feature amount indicated by the signal level distribution of the class taps a, b, c, d, and e by the class CL, and outputs the class data S104 to the class code generation unit 120.
[0051]
The class code generation unit 120 generates a class code S120 corresponding to the class data S104 supplied from the adjacent pixel difference ratio pattern extraction unit 103, and outputs this to the ROM 121. The ROM 121 stores prediction coefficients corresponding to the class code, reads the prediction coefficients ω1 to ωn corresponding to the supplied class code S120, and outputs these as prediction coefficient data S121 to the prediction calculation unit 122.
[0052]
The area cutout unit 102 selects, for example, a plurality of pixels identical to the class tap from the SD image data S100 as prediction taps, and outputs the pixel values x1 to xn to the prediction calculation unit 122 as prediction tap data S122. The prediction calculation unit 122 uses the prediction tap pixel values x1 to xn indicated by the prediction tap data S122 and the prediction coefficients ω1 to ωn indicated by the prediction coefficient data S121 to obtain the following equation:
[Formula 13]
Figure 0004168298
[0054]
The predicted value y is calculated by performing the product-sum operation shown in FIG. 5B, and the high-definition corrected SD image data S123 including a collection of the predicted values y is generated and output to the outside.
[0055]
Here, the configuration of the learning circuit 130 for calculating the prediction coefficients ω1 to ωn stored in the ROM 121 will be described with reference to FIG. The learning circuit 130 inputs high-definition SD image data S131 as a teacher signal to the low-pass filter (LPF) 131 and the normal equation calculation unit 132. The LPF 131 removes the high frequency component from the SD image data S131 to generate standard definition SD image data S132 having a deteriorated image quality compared to the SD image data S131, and outputs the SD image data S132 to the area clipping units 133 and 134. To do.
[0056]
The area cutout unit 133 is configured in the same manner as the area cutout unit 103 of the image data conversion apparatus 100 illustrated in FIG. 6, extracts a class tap from the standard definition SD image data S132, and uses the class tap data S133 as an adjacent pixel difference. The result is output to the ratio pattern extraction unit 135. The adjacent pixel difference ratio pattern extraction unit 135 is configured in the same manner as the adjacent pixel difference ratio pattern extraction unit 103 of the image data conversion apparatus 100 shown in FIG. 6, and class data is obtained by classifying the class taps indicated by the class tap data S133. S134 is generated and output to the class code generator 136. The class code generation unit 136 is configured in the same manner as the class code generation unit 120 of the image data conversion apparatus 100 shown in FIG. 6, generates a class code S135 from the class data S134, and outputs this to the normal equation calculation unit 132.
[0057]
The region cutout unit 134 is configured in the same manner as the region cutout unit 102 of the image data conversion apparatus 100 illustrated in FIG. 6, extracts a prediction tap from the SD image data S132, and outputs the prediction tap data S136 to the normal equation calculation unit 132. To do. The normal equation calculation unit 132 generates a normal equation for each class code S135 from the high-definition SD image data S131 as the teacher signal and the prediction tap data S136 as the learning data, and the normal equation data S137 is used as the prediction coefficient. The data is output to the determination unit 137.
[0058]
When the necessary number of normal equation data S137 is supplied, the prediction coefficient determination unit 137 calculates the prediction coefficient by solving the normal equation using the least square method, and sends the prediction coefficient data S138 to the memory 138. And stored in the memory 138. Thereafter, the prediction coefficient data S138 stored in the memory 138 is written in the ROM 121 shown in FIG.
[0059]
In the above configuration, the adjacent pixel difference ratio pattern extraction unit 103 extracts the minute level change of the target pixel by taking the level difference between the adjacent pixels, and then normalizes by taking the ratio of the difference between the adjacent pixels. Easily extract the waveform feature amount of the clipped region by extracting the feature amount of the spatially narrow region and then extracting the feature amount of the spatially wide region by combining the difference ratio of these adjacent pixels Therefore, the standard definition SD image data S100 can be accurately classified to improve its image quality.
[0060]
In addition, by extracting the feature amount of the region by combining the difference ratios of adjacent pixels, it is possible to avoid categorizing and categorizing in a specific class with few waveform change points as in the past. Class can be used effectively.
[0061]
Furthermore, since the number of difference ratios is the number obtained by subtracting 2 from the number of class taps, even if the level resolution is improved, the SD image data S100 is classified with a smaller number of classes than before, and the image quality is improved. Therefore, it is possible to avoid an increase in the memory capacity of the ROM 121.
[0062]
For example, when 5 pixels adjacent in the horizontal direction are selected as class taps, if 2-bit (4-level) ADRC class classification is performed for each class tap, the number of classes is 1024 (= 4 5 ). On the other hand, in the class classification method using the adjacent pixel difference ratio described above, the number of difference ratios is 3, which is obtained by subtracting 2 from the number of class taps. Therefore, the level resolution is selected as 2 bits (4 levels). However, the number of classes is 64 (= 4 3 ), and the image quality can be improved while avoiding an increase in the number of classes.
[0063]
According to the above configuration, by extracting the feature quantities of those areas using the difference ratio of adjacent pixels, the feature quantities of the clipped areas can be easily used while effectively using a smaller number of classes than in the past. Therefore, the image quality of the SD image data S100 can be improved while avoiding a complicated configuration.
[0064]
In the above-described embodiment, a case has been described in which five pixels adjacent in the horizontal direction are selected as class taps from the SD image data S100. However, the present invention is not limited to this, and the pixels to be extracted are adaptively selected. Class taps may be selected while changing. In short, a plurality of pixels adjacent in the horizontal or vertical direction may be selected.
[0065]
In the above-described embodiment, the case where the same pixel as the class tap is selected as the prediction tap has been described. However, the present invention is not limited to this, and a pixel different from the class tap may be selected as the prediction tap. .
[0066]
In the above-described embodiment, the case where the present invention is applied to the image data conversion apparatus 100 that improves the image quality of the standard definition SD image data S100 has been described. However, the present invention is not limited to this, for example, an HD image The present invention can be widely applied to an image data conversion apparatus that improves the image quality of various other image data such as data.
[0067]
Further, in the above-described embodiment, the case where the present invention is applied to the image data conversion apparatus 100 that improves the image quality of image data including a predetermined number of pixels has been described. The present invention can be widely applied to data converters that improve the quality of various other data such as audio data composed of sampling data.
[0068]
In the above-described embodiment, the case where the region cutout unit 101 and the adjacent pixel difference ratio pattern extraction unit 103 are applied as the class determination unit that determines the class has been described. However, the present invention is not limited thereto, and Any class determination unit that extracts a plurality of sampling data including target sampling data from the first data and determines a class for the target sampling data by taking a ratio of differences between the extracted sampling data may be used. .
[0069]
In the above-described embodiment, the case where the class code generation unit 120 and the ROM 121 are applied as the prediction data generation means for generating the prediction data has been described. However, the present invention is not limited to this, and the point is that depending on the class. Any prediction data generation means for generating prediction data can be used.
[0070]
Furthermore, in the above-described embodiment, the case where the prediction calculation unit 122 is applied as the sampling data generation unit that generates the sampling data of interest has been described. However, the present invention is not limited to this, and in short, the second operation is performed from the prediction data. Any sampling data generating means for generating sampling data of interest of data may be used.
[0071]
【The invention's effect】
As described above, according to the present invention, since the class is determined according to the equation (1), | (AB) / (BC) |, | (B −C) / (C−D) | and | (C−D) / (D−E) | can extract feature quantities of spatially narrow areas, and | (A−B) / (B -C) |, | (BC) / (CD) | and | (CD) / (DE) | Furthermore, classification can be performed while effectively using a smaller number of classes than in the past, and thus data quality can be improved while avoiding a complicated configuration.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an up converter.
FIG. 2 is a schematic diagram illustrating an example of class tap arrangement.
FIG. 3 is a schematic diagram illustrating an example of a prediction tap arrangement.
FIG. 4 is a block diagram illustrating a configuration of a learning circuit.
FIG. 5 is a flowchart showing a prediction coefficient generation procedure.
FIG. 6 is a block diagram showing an embodiment of an image data conversion apparatus according to the present invention.
FIG. 7 is a schematic diagram illustrating an example of class tap arrangement.
FIG. 8 is a schematic diagram illustrating a signal level distribution of class taps.
FIG. 9 is a block diagram illustrating a configuration of an adjacent pixel difference ratio pattern extraction unit.
FIG. 10 is a schematic diagram illustrating a frequency distribution of a difference ratio.
FIG. 11 is a block diagram illustrating a configuration of a learning circuit.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Image data converter, 101, 102, 133, 134 ... Area extraction part, 103, 135 ... Neighboring pixel difference ratio pattern extraction part, 120, 136 ... Class code generation part, 121 ... ROM, 122 ... Prediction calculation unit 130... Learning circuit 131... LPF 132 132 Normal equation calculation unit 137. Prediction coefficient determination unit 138.

Claims (3)

第1画像データから注目画素と、当該注目画素を中心として前後にそれぞれ2画素ずつ配置された周辺画素とからなる5画素をクラスタップとして抽出するクラスタップ抽出部と、
上記クラスタップにおける上記5画素の並び順に8ビットの信号レベルをそれぞれA、B、C、D、Eとし、|(A−B)/(B−C)|の値、|(B−C)/(C−D)|の値、|(C−D)/(D−E)|の値が0〜1、1〜2、2〜3又は3〜255であって、0〜1のとき0とし、1〜2のとき1とし、2〜3のとき2とし、3〜255のとき3として、次式
Figure 0004168298
に従い、上記クラスタップの信号レベル分布の特徴量が表されたクラスCLを算出するクラス算出部と、
上記第1画像データより高精細な第2画像データを生成する際、上記クラスCLに対応付けられた予測係数と上記クラスタップとを用いて予測演算を実行することにより、上記第1画像データには存在しない上記第2画像データに用いられる補間画素を生成する補間画素生成部と
を具えるデータ変換装置。
A class tap extraction unit that extracts, as class taps, five pixels each including a target pixel from the first image data and two peripheral pixels arranged around the target pixel at the front and rear,
The 8-bit signal levels in the class tap in the class tap are A, B, C, D, and E, respectively, and the value of | (A−B) / (B−C) |, | (B−C) / (C−D) | and the value of | (C−D) / (D−E) | are 0 to 1, 1 to 2, 2 to 3 or 3 to 255, and 0 to 1 0, 1 for 1-2, 2 for 2-3, 3 for 3-255, 3
Figure 0004168298
A class calculation unit that calculates a class CL in which the characteristic amount of the signal level distribution of the class tap is represented,
When generating second image data with higher definition than the first image data, a prediction calculation is performed using the prediction coefficient associated with the class CL and the class tap, thereby obtaining the first image data. Lud over data converter comprising an interpolation pixel generator for generating interpolation pixels to be used in the second image data that does not exist.
上記クラスタップ抽出部は、上記第1画像データから上記注目画素を中心として水平又は垂直方向に上記5画素を抽出する
求項1に記載のデータ変換装置。
The class tap extraction unit extracts the five pixels from the first image data in the horizontal or vertical direction around the target pixel .
Data conversion apparatus according to Motomeko 1.
第1画像データから注目画素と、当該注目画素を中心として前後にそれぞれ2画素ずつ配置された周辺画素とからなる5画素をクラスタップとして抽出するクラスタップ抽出ステップと、
上記クラスタップにおける上記5画素の並び順に8ビットの信号レベルをそれぞれA、B、C、D、Eとし、|(A−B)/(B−C)|の値、|(B−C)/(C−D)|の値、|(C−D)/(D−E)|の値が0〜1、1〜2、2〜3又は3〜255であって、0〜1のとき0とし、1〜2のとき1とし、2〜3のとき2とし、3〜255のとき3として、次式
Figure 0004168298
に従い、上記クラスタップの信号レベル分布の特徴量が表されたクラスCLを算出するクラス算出ステップと、
上記第1画像データより高精細な第2画像データを生成する際、上記クラスCLに対応付けられた予測係数と上記クラスタップとを用いて予測演算を実行することにより、上記第1画像データには存在しない上記第2画像データに用いられる補間画素を生成する補間画素生成ステップと
を具えるデータ変換方法。
A class tap extraction step of extracting, as class taps, 5 pixels each consisting of a target pixel from the first image data and peripheral pixels arranged two pixels before and after the target pixel.
The 8-bit signal levels in the class tap in the class tap are A, B, C, D, and E, respectively, and the value of | (A−B) / (B−C) |, | (B−C) / (C−D) | and the value of | (C−D) / (D−E) | are 0 to 1, 1 to 2, 2 to 3 or 3 to 255, and 0 to 1 0, 1 for 1-2, 2 for 2-3, 3 for 3-255, 3
Figure 0004168298
A class calculating step for calculating a class CL in which the characteristic amount of the signal level distribution of the class tap is represented,
When generating second image data with higher definition than the first image data, a prediction calculation is performed using the prediction coefficient associated with the class CL and the class tap, thereby obtaining the first image data. Lud over data conversion method comprising an interpolation pixel generating step for generating an interpolation pixel to be used in the second image data that does not exist.
JP27025798A 1998-09-24 1998-09-24 Data conversion apparatus and data conversion method Expired - Fee Related JP4168298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27025798A JP4168298B2 (en) 1998-09-24 1998-09-24 Data conversion apparatus and data conversion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27025798A JP4168298B2 (en) 1998-09-24 1998-09-24 Data conversion apparatus and data conversion method

Publications (2)

Publication Number Publication Date
JP2000099703A JP2000099703A (en) 2000-04-07
JP4168298B2 true JP4168298B2 (en) 2008-10-22

Family

ID=17483737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27025798A Expired - Fee Related JP4168298B2 (en) 1998-09-24 1998-09-24 Data conversion apparatus and data conversion method

Country Status (1)

Country Link
JP (1) JP4168298B2 (en)

Also Published As

Publication number Publication date
JP2000099703A (en) 2000-04-07

Similar Documents

Publication Publication Date Title
US7127122B2 (en) Image processing method and image processing apparatus
US7643180B2 (en) Image processing and display apparatus and method for tone resolution expansion of digital images
US7440612B2 (en) Image processing apparatus and method capable of correcting gradation of image data
KR100499434B1 (en) Image converter and image conversion method
JP4517409B2 (en) Data processing apparatus and data processing method
KR101239268B1 (en) Image processing apparatus, image processing method, and a recording medium
KR20060136335A (en) Image processing apparatus, image processing method, and program
JP4168298B2 (en) Data conversion apparatus and data conversion method
JP4035895B2 (en) Image conversion apparatus and method, and recording medium
JP2000125268A (en) Image data converting device and image data converting method
WO2006016336A1 (en) A unit for and method of image conversion
JP4062771B2 (en) Image conversion apparatus and method, and recording medium
JP4352298B2 (en) Arithmetic device, conversion device, and method thereof
JP3743077B2 (en) Image signal conversion apparatus and method
JP4300436B2 (en) Image data conversion apparatus and image data conversion method
JP4337186B2 (en) Image information conversion apparatus, image information conversion method, learning apparatus, and learning method
KR20010102030A (en) Classified adaptive multiple processing system
JP3791029B2 (en) Image signal processing apparatus and method
JP4099553B2 (en) Prediction coefficient generation method and signal processing apparatus
JP4139979B2 (en) Image conversion apparatus and method, and recording medium
JP4235852B2 (en) Image data conversion apparatus and image data conversion method
JP4225039B2 (en) Data processing apparatus and method, recording medium, and program
JP4235853B2 (en) Image data conversion apparatus and image data conversion method
JP4131049B2 (en) Signal processing apparatus and signal processing method
JP4126632B2 (en) Image data conversion apparatus and image data conversion method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080411

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130815

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees