JP4300603B2 - Image information conversion apparatus and method - Google Patents

Image information conversion apparatus and method Download PDF

Info

Publication number
JP4300603B2
JP4300603B2 JP25158198A JP25158198A JP4300603B2 JP 4300603 B2 JP4300603 B2 JP 4300603B2 JP 25158198 A JP25158198 A JP 25158198A JP 25158198 A JP25158198 A JP 25158198A JP 4300603 B2 JP4300603 B2 JP 4300603B2
Authority
JP
Japan
Prior art keywords
image signal
pixel
class
pixels
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25158198A
Other languages
Japanese (ja)
Other versions
JP2000083225A5 (en
JP2000083225A (en
Inventor
哲二郎 近藤
秀雄 中屋
靖 立平
勉 渡辺
伸幸 朝倉
真史 内田
卓夫 守村
一隆 安藤
賢 井上
渉 新妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP25158198A priority Critical patent/JP4300603B2/en
Publication of JP2000083225A publication Critical patent/JP2000083225A/en
Publication of JP2000083225A5 publication Critical patent/JP2000083225A5/en
Application granted granted Critical
Publication of JP4300603B2 publication Critical patent/JP4300603B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、複数の画素データと複数の係数データとの線型1次結合の予測演算を行う画像情報変換装置および方法に関する。
【0002】
【従来の技術】
入力ディジタル画像信号を異なる走査線構造へ変換する画像信号変換装置の一つとして、予め求められた係数データと入力画像信号の画素データとの線型1次結合によって、出力画像信号の画素値を予測するものが提案されている。この予測演算を行うための予測器は、各画素データと各係数データとを乗算する乗算器と、乗算出力を加算する加算器とにより構成される。予測器としては、画素データの個数(タップ数)が変化する場合にも使用できるような汎用性のある構成が好ましい。また、予測結果の良否を判断するために、予測器を通らない画像データを出力として必要とする場合もある。
【0003】
【発明が解決しようとする課題】
従来の予測器では、タップ数を最適とすることによって、未使用のタップが生じないようにされている。従って、異なるタップ数に対応できる汎用性を有しないのが普通であった。また、予測器をスルーした画像データを出力したい場合には、予測器をバイパスする信号線を設け、また、予測器の処理に要する遅延を補償するための遅延回路をバイパス信号路に設けるようにしており、遅延回路を必要とする問題があった。
【0004】
従って、この発明の目的は、タップ数に関して汎用性を有し、また、演算を行わないスルー出力を得るために遅延回路を必要としない画像情報変換装置および方法を提供することにある。
【0005】
【課題を解決するための手段】
請求項1の発明は、入力画像信号から走査線構造の異なる複数の出力画像信号を形成するようにした画像情報変換装置において、
入力画像信号中に存在するラインと同一位置となる出力画像信号の第1のラインの画素を生成するために、生成される画素の周辺に位置する入力画像信号の第1の画素をm個選択する第1のデータ選択手段と、
m個の第1の画素のレベル分布を検出し、検出したレベル分布から第1のクラスを決定する第1のクラス決定手段と、
入力画像信号中に存在するライン間の位置となる出力画像信号の第2のラインの画素を生成するために、生成される画素の周辺に位置する入力画像信号の第2の画素をn個(n>m)選択する第2のデータ選択手段と、
n個の第2の画素のレベル分布を検出し、検出したレベル分布から第2のクラスを決定する第2のクラス決定手段と、
第1および第2のクラスのそれぞれに対応して予め決定され、出力画像信号を推定するための第1および第2の係数データを記憶し、記憶した第1および第2の係数データの内から、第1および第2のクラスのそれぞれに対応する第1および第2の係数データをそれぞれ出力するメモリ手段と、
入力画像信号から生成すべき画素の周辺となる第3の画素を予め設定された個数選択する第3のデータ選択手段と、
第1の係数データと第3の画素とを積和演算する線形推定式によって、第1のラインの画素を生成し、第1の係数データと積和演算される第3の画素がない場合、第1の係数データおよび第3の画素の少なくとも一方をゼロデータとする第1の信号生成手段と、
第2の係数データと第3の画素とを積和演算する線形推定式によって、第2のラインの画素を生成し、第2の係数データと積和演算される第3の画素がない場合、第2の係数データおよび第3の画素の少なくとも一方をゼロデータとする第2の信号生成手段と、
第1および第2の信号生成手段に対して接続され、変換画像を指定された走査線構造へ変換するための走査変換手段とを有し、
第1および第2の係数データは、第1および第2のクラス毎に予め学習によって求められてメモリ手段に記憶され、
学習は、
出力画像信号と同一の画素数を有する教師画像信号を間引き処理することによって、入力画像信号と同一の画素数を有する中間画像信号を形成し、中間画像信号の画素の近傍の教師画像信号の複数の画素の対応する位置の画素の値を重み付け加算することによって生徒画像信号を形成し、
積和演算によって、生徒画像信号から教師画像信号を生成した時に、生成された画素値と画素の真値との誤差を最小にするように、求める処理である
画像情報変換装置である。
【0006】
請求項の発明は、入力画像信号から走査線構造の異なる複数の出力画像信号を形成するようにした画像情報変換方法において、
入力画像信号中に存在するラインと同一位置となる出力画像信号の第1のラインの画素を生成するために、生成される画素の周辺に位置する入力画像信号の第1の画素をm個選択する第1のデータ選択ステップと、
m個の第1の画素のレベル分布を検出し、検出したレベル分布から第1のクラスを決定する第1のクラス決定ステップと、
入力画像信号中に存在するライン間の位置となる出力画像信号の第2のラインの画素を生成するために、生成される画素の周辺に位置する入力画像信号の第2の画素をn個(n>m)選択する第2のデータ選択ステップと、
n個の第2の画素のレベル分布を検出し、検出したレベル分布から第2のクラスを決定する第2のクラス決定ステップと、
第1および第2のクラスのそれぞれに対応して予め決定され、出力画像信号を推定するための第1および第2の係数データをメモリ手段に記憶し、記憶した第1および第2の係数データの内から、第1および第2のクラスのそれぞれに対応する第1および第2の係数データをそれぞれ出力するステップと、
入力画像信号から生成すべき画素の周辺となる第3の画素を予め設定された個数選択する第3のデータ選択ステップと、
第1の係数データと第3の画素とを積和演算する線形推定式によって、第1のラインの画素を生成し、第1の係数データと積和演算される第3の画素がない場合、第1の係数データおよび第3の画素の少なくとも一方をゼロデータとする第1の信号生成ステップと、
第2の係数データと第3の画素とを積和演算する線形推定式によって、第2のラインの画素を生成し、第2の係数データと積和演算される第3の画素がない場合、第2の係数データおよび第3の画素の少なくとも一方をゼロデータとする第2の信号生成ステップと、
第1および第2の信号生成ステップに対して接続され、変換画像を指定された走査線構造へ変換するための走査変換ステップとを有し、
第1および第2の係数データは、第1および第2のクラス毎に予め学習によって求められてメモリ手段に記憶され、
学習は、
出力画像信号と同一の画素数を有する教師画像信号を間引き処理することによって、入力画像信号と同一の画素数を有する中間画像信号を形成し、中間画像信号の画素の近傍の教師画像信号の複数の画素の対応する位置の画素の値を重み付け加算することによって生徒画像信号を形成し、
積和演算によって、生徒画像信号から教師画像信号を生成した時に、生成された画素値と画素の真値との誤差を最小にするように、求める処理である
画像情報変換方法である。
【0007】
入力タップ数が変化し、動作を休止するタップが生じる時には、そのタップに関する予測タップデータまたは係数データをゼロとする。また、スルーしたいタップデータに関する係数を1とし、それ以外のタップデータに関する係数を0とする。それによって、所望のタップデータをスルーできる。
【0008】
【発明の実施の形態】
以下、この発明の一実施形態について図面を参照して説明する。図1は、この発明を適用することができる予測処理の流れを概略的に示す。中心的な部分は、入力画像信号から切り出された予測タップ311と予測係数312との線型1次結合で表される演算を行う積和器313である。システムの機能を設定するために、コマンドがシステムに対して供給される。314で示すエンコーダによって、コマンドの解釈と、解釈した結果に基づいて内部状態を設定する指示が発生する。
【0009】
予測係数群315の中で使用するn個の予測係数312が予測係数切換指示316によって選択される。また、フィルタタップ317の中で使用するn個の予測タップ311が予測タップ切換指示318によって設定される。さらに、積和器313の入力の幅は、nである。予測タップのタップ数および予測係数の個数nが入力最適化処理319によって、nのまま、またはm(n>m)に変換される。入力最適化処理319は、エンコーダ314において形成されたコマンドの解釈に基づく指示に従って行われる。積和器313によって、予測演算がなされ、演算出力がゲイン調整およびリミッター320で処理され、最終的な予測演算出力が生成される。
【0010】
上述したように、入力最適化処理319後において、予測タップ311および予測係数312の個数が積和器313の入力の幅nと等しければ、予測器313において、非動作のタップが生じない。しかしながら、画像信号を変換する変換装置において、後述する画像信号変換装置の実施形態から分かるように、入力画像信号中の画素と、予測すべき画素の位置関係によって、予測の難易度が異なり、その結果、入力最適化処理319後において、予測タップ311および予測係数312の個数がm(n>m)となる場合がある。一方、ハードウエアの規模を小とするために、積和器313を共用することが好ましい。従って、タップ数がmの場合では、積和器313のn−mのタップ数が動作を休止する。さらに、出力として予測係数が乗じられていない所定のタップの画素値をそのまま出力したい場合もある。
【0011】
予測演算を行わずに、いずれかのタップデータをスルーして出力する場合の従来使用されている構成例を図2に示す。破線で囲んで示す301は、積和器を示す。積和器301は、n個の乗算器3021 ,3022 ,・・・,302n と、乗算器3021 〜302n の出力を加算する加算器303とによって構成され、入力の幅としてnタップを有する。乗算器3021 〜302n の一方の入力として、レジスタR11,R12,・・・,R1nからの係数データCOEF1,COEF2,・・・,COEFn がそれぞれ供給される。乗算器3021 〜302n の他方の入力として、レジスタR21,R22,・・・,R2nからのタップデータDT1,DT2,・・・,DTn がそれぞれ供給される。
【0012】
積和器301の加算器303の出力がゲインおよびリミッター304を介してセレクタ305に一方の入力として供給される。セレクタ305の他方の入力には、遅延回路307を介してセレクタ306の出力が供給される。セレクタ305は、一方の入力を選択的に出力する。セレクタ306には、レジスタR21,R22,・・・,R2nからのタップデータDT1,DT2,・・・,DTn が供給され、スルーしたい一つのデータが選択される。
【0013】
図2に示すように、積和器1をバイパスする信号線を設け、積和器301で生じる遅延に対応する時間の遅延回路307を設ける構成では、バイパス信号線、セレクタ306および遅延回路307を付加する必要があり、回路規模が増大する。また、積和器301の入力の幅とタップ数とが通常は、等しい個数に選ばれており、タップ数がnからmに減少した場合の対策がされていなかった。
【0014】
図3に示すこの発明による予測演算器の一実施形態は、これらの問題点を解決することができるものである。図2に示す構成と同様に、積和器301は、n個の乗算器3021 〜302n と、乗算器3021 〜302n の出力を加算する加算器303とによって構成され、入力の幅としてnタップを有する。
【0015】
乗算器3021 〜302n の一方の入力として、セレクタS1,S2,・・・,Snの出力が供給される。セレクタS1,S2,・・・,Snの一方の入力として、レジスタR11,R12,・・・,R1nからの係数データCOEF1,COEF2,・・・,COEFn がそれぞれ供給される。セレクタS1〜Snの他方の入力として、ゼロデータが供給される。セレクタS1〜Snは、それぞれ制御信号CNT1〜CNTnに応答して係数データまたはゼロデータを選択する。また、乗算器3021 〜302n の他方の入力として、レジスタR21〜R2nからのタップデータDT1,DT2,・・・,DTn がそれぞれ供給される。
【0016】
入力ディジタル画像信号が予測タップ選択部(図示しない)に供給され、予測に使用するn個のタップデータDT1,DT2,・・・,DTn が同時に取り出される。一方、予め決定された係数データCOEF1,COEF2,・・・,COEFn がメモリ部(図示しない)から読出される。乗算器3021 〜302n の出力が加算器303において加算され、加算器303から積和演算出力が取り出される。積和器301の出力がゲインおよびリミッター304を介して予測演算出力として出力される。ゲインおよびリミッター304は、演算結果に対するゲインの補正と、演算結果のビット数の制限とを行うもので、制御信号cntによって制御される。
【0017】
上述したこの発明の一実施形態の動作について説明する。先ず、n個のタップデータDT1,DT2,・・・,DTn とn個の係数データCOEF1,COEF2,・・・,COEFn との線型1次結合(COEF1 ×DT1 +COEF2 ×DT2 +・・・+COEFn ×DTn )によって予測演算出力を形成する場合には、セレクタS1〜Snがそれぞれ係数データを乗算器21 〜2n に供給するように、制御信号CNT1〜CNTnによってセレクタS1〜Snが制御される。
【0018】
次に、m(n>m)個のタップとm個の係数データによって予測演算出力を発生する時には、セレクタS1〜Snの内で、m個のセレクタが係数データを選択すると共に、残りのn−mの個数のセレクタがゼロデータを選択するように、制御信号CNT1〜CNTnによってセレクタS1〜Snが制御される。ゼロデータは、例えば接地レベルである。従って、ゼロデータが入力された乗算器は、実質的に乗算動作を行わず、無駄な電力消費を防ぐことができる。さらに、必要に応じて、タップ数の相違に応じてゲインおよびリミッター304を制御信号cntによって最適化する。
【0019】
さらに、予測演算出力ではなく、入力された1以上のタップの画素値をそのまま出力するスルー動作を行う場合について説明する。例えばタップデータDTn を出力したい場合では、係数データCOEFn を1に設定し、セレクタSnがこの1の係数データを選択するように、制御信号CNTnによってセレクタSnを制御する。従って、乗算器302n の出力は、データDTn である。
【0020】
セレクタSn以外の他のセレクタは、全てゼロデータを選択するように、制御信号によって制御される。従って、乗算器302n 以外の乗算器の出力が全てゼロデータとなり、加算器303からは、データDTn が出力される。ゲインおよびリミッター304は、ゲインを1とし、入力ビット数をそのまま出力するように、制御信号cntによって制御する。このようにして、出力としては、タップデータDTn を得ることができる。スルーされるデータが積和器301の通っているので、時間合わせ用の遅延回路は、不要である。
【0021】
この発明では、図4に示すように、セレクタS1〜Snの代わりにアンド回路G1〜Gnを接続した構成も可能である。すなわち、アンド回路G1〜Gnの一方の入力として係数データCOEF1 〜COEFn が供給され、その他方の入力として制御信号CNT1〜CNTnが供給される。乗算器に対する係数データの入力を禁止したい場合には、制御信号CNT1〜CNTnの中で対応するものを"0" とすれば良い。他の構成および動作は、図3に示す予測器と同様である。
【0022】
なお、図3に示す構成では、係数データとゼロデータを選択するために、セレクタS1〜Snを使用し、図4に示す構成では、係数データを無効とするためにアンド回路G1〜Gnを使用している。しかしながら、係数データに対しては何ら処理を行わず、タップデータとゼロデータを選択し、またはタップデータをゼロデータにするようにしても良い。
【0023】
上述したこの発明による動き判定装置は、画像信号変換装置における動きクラスの生成に対して適用することができる。この画像信号変換装置は、SD(Standard Definition )信号が入力され、HD(High Definition )信号を出力するものである。また、HD画素を生成する場合、生成するHD画素の近傍にある、SD画素をクラス分割し、それぞれのクラス毎に予測係数値を学習により獲得することで、より真値に近いHD画素を得るものである。図9は、このような手法による画像信号変換装置である。
【0024】
画像情報変換装置の一例についての説明に先立ち、その前提となる画像情報変換処理について説明する。かかる処理は、標準解像度のディジタル画像信号(以下、SD信号と表記する)を高解像度の画像信号(HD信号と称されることがある)に変換して出力するものである。この際のSD信号としては、例えばライン数が525本でインターレス方式の画像信号(以下、525i信号と表記する)等が用いられる。また、高解像度の画像信号としては、例えばライン数が525本でプログレッシブ方式の出力映像信号(以下、525p信号と表記する)等が用いられる。さらに、出力画像信号における水平方向の画素数が入力画像信号における水平方向の画素数の2倍とされる。
【0025】
かかる画像情報変換処理においては、本願出願人の提案に係るクラス分類適応処理によって解像度を高めようとしている。クラス分類適応処理は、従来の補間処理によって高解像度信号を形成するものとは異なる。すなわち、クラス分類適応処理は、入力SD信号の信号レベルの3次元(時空間)分布に応じてクラス分割を行い、クラス毎に予め学習によって獲得された予測計数値を所定の記憶部に格納し、予測式に基づいた演算によって最適な推定値を出力する処理である。クラス分類適応処理によって、入力SD信号の解像度以上の解像度を得ることが可能となる。
【0026】
図5は、1フィールドの画像の一部を拡大することによって、入力SD信号としての525i信号を、出力画像信号としての525p信号に変換する画像情報変換処理における画素の配置の一例を示すものである。大きなドットが525i信号の画素を示し、また、小さなドットが525p信号の画素を示す。ここで、図5は、あるフレームの奇数フィールドの画素配置を示している。他のフィールド(偶数フィールド)では、525i信号のラインが空間的に0.5ラインずれたものとなる。図5から分かるように、525i信号のラインと同一位置のラインデータy1(黒塗りの小さいドットとして示した)および525i信号の上下のラインの中間位置のラインデータy2(白抜きの小さいドットとして示した)とが形成されることによって525p信号が予測生成される。
【0027】
ここで、y1は既に存在するポイントであるのに対し、y2は新たに予測することによって生成されるポイントである。従って、y2を予測生成する方がy1を予測生成するよりも困難である。このため、y2を予測生成する場合には、y1を予測生成する場合よりも多くのクラス数を割り当てる必要がある。また、例えば装置に備えられるメモリー資産が充分な量を有しない場合、または、より少ないクラス数を用いて、効率的な画像情報変換処理を行う場合等においては、クラスの総数をより少なくするようなクラス値の変換を行う必要がある。これらの観点から、以下に説明する画像情報変換装置は、y1,y2の予測生成を効率的に、また、きめ細かく行えるように、クラス数を適切に割り当てるようにしたものである。
【0028】
以下、かかる画像情報変換装置の一例について適宜図面を参照して説明する。この一例は、入力SD信号としての525i信号を、出力画像信号としての525p信号に変換する画像情報変換処理を行うものである。図6は、画像情報変換処理系の構成の一例を示すブロック図である。入力SD信号(525i信号)がタップ選択回路1、10、20に供給される。
【0029】
タップ選択回路1は、ラインデータy1,y2を予測推定するための演算処理(後述する式(1)に従う演算処理)に必要とされる複数の画素が含まれる領域を切り出し、切り出した領域からラインデータy1,y2を予測推定するために必要なSD画素(以下、予測タップと表記す)を選択する。選択される予測タップが推定予測演算回路4、5に供給される。ここで、予測タップとしては、後述する空間クラスタップと同様なものを使用することができる。但し、予測精度を向上させるために、クラスに対応する予測タップ位置情報によって予測タップを選択するようにしても良い。
【0030】
また、推定予測演算回路4、5には、後述する係数メモリ41からラインデータy1,y2を予測推定するために必要な予測係数を供給される。推定予測演算回路4、5は、タップ選択回路1から供給される予測タップ、および係数メモリ41から供給される予測係数に基づいて、以下の式(1)に従って画素値yを順次予測生成する。
【0031】
y=w1 ×x1 +w2 ×x2 +‥‥+wn ×xn (1)
ここで、x1 ,‥‥,xn が各予測タップであり、w1 ,‥‥,wn が各予測係数である。すなわち、式(1)は、n個の予測タップを用いて画素値yを予測生成するための式である。画素値yの列として、推定予測演算回路4においてはラインデータy1が予測生成され、推定予測演算回路5においてはラインデータy2が予測生成される。予測係数w1 ,‥‥,wn は、y1,y2についてそれぞれ相違したものである。
【0032】
ここでは、後述するように、ラインデータy1を予測するために、5個の予測タップを使用し(すなわち、n=5)、ラインデータy2を予測するために、6個の予測タップを使用する(すなわち、n=6)。このようにタップ数が相違し、予測係数も相違するので、図6では、2個の推定予測演算回路4および5が示されている。これらの推定予測演算回路4および5に対して、上述したこの発明による予測演算器を適用することができる。この発明による予測演算器は、予測タップ数の相違に対処することができるので、ハードウエアの構成としては、同一の構成とすることができる。このように、この発明による予測演算器は、汎用性を有するので、推定予測演算回路の集積回路の設計の労力が少なくできる。
【0033】
推定予測演算回路4、5は、それぞれ、ラインデータy1、y2を線順序変換回路6に供給する。線順序変換回路6は、供給されるラインデータにライン倍速処理を施し、高解像度信号を生成する。この高解像度信号が画像情報変換処理系の最終的な出力画像信号とされる。図示しないが、出力画像信号がCRTディスプレイに供給される。CRTディスプレイは、出力画像信号(525p信号)を表示することが可能なように、その同期系が構成されている。また、入力SD信号としては、放送信号、またはVTR等の再生装置の再生信号が供給される。すなわち、画像情報変換装置をテレビジョン受像機等に内蔵することができる。
【0034】
一方、タップ選択回路10、11は、入力SD信号からそれぞれ、ラインデータy1,y2についての空間クラスを検出するために必要なSD画素(以下、空間クラスタップと表記する)を選択する。また、タップ選択回路20は、入力SD信号から動きクラスを検出するために必要なSD画素(以下、動きクラスタップと表記する)動きクラスタップを選択する。タップ選択回路10、11の出力が空間クラス検出回路12、13にそれぞれ供給され、また、タップ選択回路20の出力が動きクラス検出回路21に供給される。
【0035】
空間クラス検出回路12、13は、供給される空間クラスタップに基づいて、それぞれy1,y2についての空間クラス値を検出する。そして、検出した空間クラス値をそれぞれクラス合成回路30、31に供給する。また、動きクラス検出回路21は、供給される動きクラスタップに基づいて動きクラス値を検出し、検出した動きクラス値をクラス合成回路30、31に供給する。
【0036】
クラス合成回路30、31は、供給される空間クラス値と、動きクラス値とを合成する。クラス合成回路30、31の出力は、それぞれ、クラス値変換回路32、33に供給される。クラス値変換回路32、33は、それぞれ、クラス合成回路30、31の出力に後述するようなクラス値変換処理を施す。クラス値変換処理により、クラスの総数が削減される。
【0037】
変換されたクラス値が係数メモリ41に供給される。係数メモリ41は、後述する学習によって予め決められた予測係数を記憶し、記憶した予測係数の内でクラス値変換回路32、33から供給されるクラス値によって指定されるものを推定予測演算回路4、5に対して出力する。このような動作を可能とするためには、例えば、クラス値変換によって得られるクラス値によって指定されるアドレスに従って予測係数を記憶する等の方法を用いれば良い。
【0038】
ここで、空間クラス検出についてより詳細に説明する。一般に、空間クラス検出回路は、空間クラスタップのレベル分布のパターンに基づいて画像データのレベル分布の空間的パターンを検出し、検出した空間的パターンに基づいて空間クラス値を生成する。この場合、クラス数が膨大になることを防ぐために、各画素について8ビットの入力画素データをより少ないビット数のデータに圧縮するような処理を行う。このような情報圧縮処理の一例として、ADRC(Adaptive Dynamic Range Coding) を用いることができる。また、情報圧縮処理として、DPCM(予測符号化)、VQ(ベクトル量子化)等を用いることもできる。
【0039】
ADRCは、本来、VTR(Video Tape Recoder)向け高能率符号化用に開発された適応的再量子化法であるが、信号レベルの局所的なパターンを短い語長で効率的に表現できるので、この一例では、ADRCを空間クラス分類のコード発生に使用している。ADRCは、空間クラスタップのダイナミックレンジをDR,ビット割当をn,空間クラスタップの画素のデータレベルをL,再量子化コードをQとして、以下の(2)により、最大値MAXと最小値MINとの間を指定されたビット長で均等に分割して再量子化を行う。
【0040】
DR=MAX−MIN+1
Q={(L−MIN+0.5)×2/DR} (2)
但し、{ }は切り捨て処理を意味する。
【0041】
上述したように、ラインデータy2についてのクラス数は、ラインデータy1についてのクラス数よりも大きい。この点について具体的に説明する。まず、y1についての空間クラス検出に使用される空間クラスタップの配置の一例を図7に示す。図7では、水平方向(左→右)に時間が進行する場合に、各フィールド内の画素を垂直方向に並べて示されている。
【0042】
図示されているフィールドを、左から順にF−1/o、F−1/e、F/o、F/eと表記する。なお、F−1/oは、「F−1番目のフレームの奇数(odd)番目の走査線からなるフィールド」である旨を示す表記である。同様に、F−1/eは、「F−1番目のフレームの偶数(even)番目の走査線からなるフィールド」を意味し、F/oは、「F番目のフレームの奇数番目の走査線からなるフィールド」を意味し、また、F/eは、「F番目のフレームの偶数番目の走査線からなるフィールド」を意味する。
【0043】
かかる一例においては、フィールドF/o内のラインデータy1についての空間クラスタップとして、フィールドF−1/e内のT4,T5,およびフィールドF/o内のT1、T2、T3の全部で5個の画素値が使用される。但し、空間クラスタップの配置はこれに限定されるものでは無い。例えば、空間クラスタップとして、水平方向の複数の入力画素を使用しても良い。
【0044】
同様に、y2についての空間クラス検出に使用される空間クラスタップの配置の一例を図8に示す。図8中での表記は図7と同様である。かかる一例においては、フィールドF/o内のラインデータy2についての空間クラスタップとして、フィールドF−1/e内のT6、およびフィールドF/o内のT2、T3、T4,T5,およびフィールドF/e内のT1の全部で6個の画素値が使用される。但し、空間クラスタップの配置はこれに限定されるものでは無い。例えば、空間クラスタップとして、水平方向の複数の入力画素を使用しても良い。なお、図7および図8にそれぞれ示される空間クラスタップと同一の予測タップがラインデータy1およびy2を予測するのに使用される。
【0045】
次に、動きクラス検出についてより詳細に説明する。動きクラス検出回路21は、供給される動きクラスタップに基づいて、以下の式(3)に従ってフレーム間差分絶対値の平均値paramを計算する。そして、計算したparamの値に基づいて、動きクラス値を検出する。
【0046】
【数1】

Figure 0004300603
【0047】
式(3)においてnは動きクラスタップ数であり、例えばn=6と設定することができる(図9参照)。そして、paramの値と、予め設定されたしきい値とを比較することによって動きの指標である動きクラス値が決定される。例えば、param≦2の場合には動きクラス値0、2<param≦4の場合には動きクラス値1、4<param≦8の場合には動きクラス値2、param>8の場合には動きクラス値3というように動きクラス値が生成される。動きクラス値0が動きが最小(静止)であり、動きクラス値1、2、3となるに従って動きが大きいものと判断される。なお、動きベクトルを検出し、検出した動きベクトルに基づいて動きクラスを検出しても良い。
【0048】
動きクラス検出に使用される動きクラスタップの配置の一例を図9に示す。かかる一例においてフィールドF/o内のラインデータy1およびy2を予測する際に使用される動きクラスタップは、フィールドF/o内の画素n1,n3,n5,およびフィールドF/e内の画素n2,n4,n6,並びにフィールドF−1/e内の画素m2,m4,m6,さらに、フィールドF−1/o内の画素m1,m3,m5である。ここで、画素m1と画素n1,画素m2と画素n2,‥‥,画素m6と画素n6の垂直方向の位置が一致している。但し、動きクラスタップの配置はこれに限定されるものでは無い。
【0049】
図7および図8に示したような空間クラスタップ配置を使用して、1ビットADRCでクラス分類する場合には、y1,y2について動きクラス値を共通とし、動きクラス値の分類数を4とすると、クラス数はそれぞれ以下のようになる。
【0050】
y1についてのクラス数 = 25 ×4 = 128
y2についてのクラス数 = 26 ×4 = 256
この場合、合計のクラス数は384である。但し、例えば画像情報変換処理系に備えられるメモリー資産(図6中では係数メモリ41)がこのクラス数に対応するために充分な記憶容量を有しない場合、または、より少ないクラス数で効率的に画像情報変換処理を行う場合等においては、クラスの総数を削減する必要がある。そこで、クラス値変換処理を行うことによってy1,y2についてのクラス数を削減する。図10は、この場合のクラス総数の削減について模式的に示すものである。なお、図10中の仮予測係数については後述する。
【0051】
次に、学習、すなわち適切な予測係数を設定する処理について以下に説明する。まず、学習の第1段階である、クラス値変換テーブルの作成に係る処理系の構成の一例を図11に示す。出力画像信号と同じ信号形式を有する既知の信号(例えば525p信号)が間引きフィルタ51、および正規方程式加算回路61、62に供給される。間引きフィルタ51は、水平方向および垂直方向で画素数がそれぞれ1/2とされ、全体として供給される信号の1/4の画素数を有するSD信号(例えば525i信号)を生成する。
【0052】
かかる処理として、例えば、入力する画像信号について垂直方向の周波数が1/2になるように垂直間引きフィルタによって画素を間引き、さらに、水平方向の周波数が1/2になるように水平間引きフィルタによって画素を間引く等の処理が行われる。間引きフィルタ51の特性を変えることによって学習の特性を変え、それによって、変換して得られる画像の画質を制御することができる。
【0053】
ここで、間引きフィルタ51に対する入力SD信号の一例としての525p信号と、間引きフィルタ51からの出力画像信号の一例としての525i信号との間の画素の空間的関係を図12に示す。525p信号の奇数番目のフィールドでは、偶数番目のラインが間引かれ、また、奇数番目のラインにおいて画素が水平方向に交互に間引かれる。この間引き処理の様子を、図12では、第1フィールドと第3フィールドについて図示した。一方、525p信号の奇数番目のフィールドでは、奇数番目のラインが間引かれ、また、偶数番目のラインにおいて画素が水平方向に交互に間引かれる。この間引き処理の様子を、図12では、第2フィールドについて図示した。
【0054】
図11において、間引きフィルタ51が生成するインターレス画像信号がタップ選択回路101、110、111および120に供給される。タップ選択回路101は、後述する正規方程式の計算において使用され得る予測タップを選択し、選択した予測タップを正規方程式加算回路61、62に供給する。一方、タップ選択回路110、111は、それぞれ、ラインデータy1,y2についての空間クラスタップを選択し、選択した空間クラスタップをそれぞれ、空間クラス検出回路112、113に供給する。さらに、タップ選択回路120は、動きクラスタップを選択し、選択した動きクラスタップを動きクラス検出回路121に供給する。
【0055】
空間クラス検出回路112、113は、空間クラスタップのデータをADRCによって圧縮し、それぞれ、y1,y2についての空間クラス値を独立に検出する。また、動きクラス検出回路121は、動きクラス値を検出する。空間クラス検出回路112の出力と動きクラス検出回路121の出力とがクラス合成回路130に供給される。また、空間クラス検出回路113の出力と動きクラス検出回路121の出力とがクラス合成回路131に供給される。クラス合成回路130、131は、それぞれy1,y2についての空間クラス値と動きクラス値とを合成する。クラス合成回路130、131の出力が正規方程式加算回路61、62に供給される。
【0056】
正規方程式加算回路61は、入力SD信号、タップ選択回路101の出力、およびクラス合成回路130の出力に基づいてy1の予測生成に係る予測係数を解とする正規方程式に係るデータを得るための加算を行う。同様に、正規方程式加算回路62は、入力SD信号、タップ選択回路101の出力、およびクラス合成回路131の出力に基づいてy2の予測生成に係る予測係数を解とする正規方程式に係るデータを得るための加算を行う。
【0057】
正規方程式加算回路61、62は、それぞれ、算出したデータを仮予測係数決定回路63に供給する。仮予測係数決定回路63は、供給されるデータに基づき、正規方程式を解く計算処理を行って、y1,y2の予測生成に係る仮予測係数を算出する。そして、算出した仮予測係数を近接係数クラス統合処理部64に供給する。ここで、仮予測係数と称するのは、最終的な予測係数は、後述するように、クラス統合の結果として決定されるからである。正規方程式を解くための計算処理は、後述する予測係数決定回路263(図13参照)における計算処理と同様である。
【0058】
近接係数クラス統合処理部64は、供給される仮予測係数の間の距離dを、例えば以下の式(4)に従って計算する。
【0059】
【数2】
Figure 0004300603
【0060】
ここで、kl 、kl ’は相異なるクラスの予測係数を示す。また、lは、予測タップの番号を示す。また、nが予測タップの総数を表す。
【0061】
さらに、近接係数クラス統合処理部64は、上述したようにして求めたクラス間の予測係数の距離を所定のしきい値と比較し、互いの距離がしきい値より小さくなるような複数個のクラスを1つのクラスに統合する。クラスを統合することによってクラスの総数を減らすことができる。この際に、あるクラスと他の幾つかのクラスとの間の距離が共にしきい値より小さくなる場合には、距離が最小となるクラス同志を統合するようにすれば良い。上述の所定のしきい値を大きく設定する程、クラス数を削減することができる。従って、しきい値を可変することにより、クラス値変換処理によって得られるクラスの総数を調整することができる。
【0062】
この際に、画像情報変換処理系に備えられるメモリ資産(図6中では係数メモリ41)の記憶容量等の条件に応じて、y1、y2について的確なクラス数を割り振るようにすることにより、メモリ資産をより有効に使用できる、または、より少ないクラス数で効率的に画像情報変換処理を行うことができる、等の効果を得ることができる。
【0063】
そして、近接係数クラス統合処理部64は、クラスの統合に関する情報をクラス値変換テーブル生成部65に供給する。クラス値変換テーブル生成部65は、供給される情報に基づいてクラス値変換テーブルを生成する。このクラス値変換テーブルは、上述したクラス値変換回路32、33(図6参照)、および後述するクラス値変換回路81、82(図13参照)に供給され、記憶される。そして、これらの構成要素の動作において参照される。
【0064】
次に、学習の第2段階としての予測係数の算出処理について詳細に説明する。図13に、予測係数を算出する予測係数算出処理系の構成の一例を示す。出力画像信号と同じ信号形式を有する既知の信号(例えば525p信号)が間引きフィルタ251、正規方程式加算回路261、262に供給される。間引きフィルタ251は、水平方向および垂直方向で画素数がそれぞれ1/2とされ、全体として供給される信号の1/4の画素数を有するSD信号(例えば525i信号)を生成する。
【0065】
かかる処理として、例えば、入力する画像信号について垂直方向の周波数が1/2になるように垂直間引きフィルタによって画素を間引き、さらに、水平方向の周波数が1/2になるように水平間引きフィルタによって画素を間引く等の処理が行われる。間引きフィルタ51の特性を変えることによって学習の特性を変え、それによって、変換して得られる画像の画質を制御することができる。間引きフィルタ251が生成するSD信号がタップ選択回路201、210、211、220に供給される。間引きフィルタ251の特性を変えることによって学習の特性を変え、それによって、変換して得られる画像の画質を制御することができる。
【0066】
タップ選択回路201は、予測タップを選択し、選択した予測タップを正規方程式加算回路261、262に供給する。一方、タップ選択回路210、211が選択する,y1,y2についての空間クラスタップがそれぞれ空間クラス検出回路212、213に供給される。さらに、タップ選択回路220が選択する予測タップが動きクラス検出回路221に供給される。
【0067】
空間クラス検出回路212、213は、供給される空間クラスタップに基づいて、それぞれy1,y2についての空間クラス値を検出する。また、動きクラス検出回路221は、供給される動きクラスタップに基づいて、動きクラス値を検出する。空間クラス検出回路212の出力と動きクラス検出回路221の出力とがクラス合成回路230に供給される。また、空間クラス検出回路212の出力と動きクラス検出回路221の出力とがクラス合成回路231に供給される。クラス合成回路230、231は、それぞれy1,y2についてクラス値を合成し、各クラス値をクラス値変換処理部81、82に供給する。
【0068】
クラス値変換処理部81、82は、上述したようにして生成されるクラス値変換テーブルを記憶しており、かかるクラス値変換テーブルを参照して、クラス合成回路230、231の出力に対してクラス値変換を施す。そして、クラス値変換の結果を、それぞれ、正規方程式加算回路261、262に供給する。
【0069】
正規方程式加算回路261、262は、予測係数を解とする正規方程式を解くための計算処理に使用されるデータを算出する。すなわち、正規方程式加算回路261は、入力SD信号、タップ選択回路201の出力、およびクラス値変換回路81の出力に基づいて加算処理を行うことにより、y1の予測生成に係る予測係数を解とする正規方程式を解くために必要なデータを算出する。また、正規方程式加算回路262は、入力SD信号、タップ選択回路201の出力、およびクラス値変換回路82の出力に基づいて加算処理を行うことにより、y2の予測生成に係る予測係数を解とする正規方程式を解くために必要なデータを算出する。
【0070】
正規方程式加算回路261、262が算出したデータが予測係数決定回路263に供給される。予測係数決定回路263は、供給されるデータに基づいて正規方程式を解くための計算処理を行い、ラインデータy1,y2の予測生成に係る予測係数を算出する。算出される予測係数が係数メモリ84に供給され、記憶される。
【0071】
予測係数の決定に係る処理、すなわち正規方程式加算回路261、262、および予測係数決定回路263が行う処理について、以下、より詳細に説明する。まず、正規方程式について説明する。上述したように、n個の予測タップを使用して、ラインデータy1,y2を構成する各画素を式(1)によって順次予測生成することができる。
【0072】
式(1)において、学習前は予測係数w1 ,‥‥,wn が未定係数である。学習は、クラス毎に複数の信号データに対して行う。信号データの総数をmと表記する場合、式(1)に従って、以下の式(5)が設定される。
【0073】
k =w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn (5)
(k=1,2,‥‥,m)
m>nの場合、予測係数w1 ,‥‥,wn は一意に決まらないので、誤差ベクトルeの要素ek を以下の式(6)で定義して、式(7)によって定義される誤差ベクトルeを最小とするように予測係数を定めるようにする。すなわち、いわゆる最小2乗法によって予測係数を一意に定める。
【0074】
k =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (6)
(k=1,2,‥‥m)
【0075】
【数3】
Figure 0004300603
【0076】
式(7)のe2 を最小とする予測係数を求めるための実際的な計算方法としては、e2 を予測係数wi (i=1,2‥‥)で偏微分し(式(8))、iの各値について偏微分値が0となるように各予測係数wi を定めれば良い。
【0077】
【数4】
Figure 0004300603
【0078】
式(8)から各予測係数wi を定める具体的な手順について説明する。式(9)、(10)のようにXji,Yi を定義すると、式(8)は、式(11)の行列式の形に書くことができる。
【0079】
【数5】
Figure 0004300603
【0080】
【数6】
Figure 0004300603
【0081】
【数7】
Figure 0004300603
【0082】
式(11)が一般に正規方程式と呼ばれるものである。正規方程式加算回路261、262のそれぞれは、クラス値変換回路81、82から供給されたクラス値、予測タップ選択回路201から供給される予測タップ、および入力画像信号と同じ信号形式を有する既知の画像信号を用いて、正規方程式データ、すなわち、式(9)、(10)に従うXji,Yi の値を算出する。そして、算出した正規方程式データを予測係数決定部43に供給する。予測係数決定部43は、正規方程式データに基づいて、掃き出し法等の一般的な行列解法に従って正規方程式を解くための計算処理を行って予測係数wi を算出する。
【0083】
なお、以上のように生成される予測係数は、クラス値変換が施されたデータに基づいて算出されるのに対し、図11を参照して上述した仮予測係数は、クラス値変換が未だ施されていないデータに基づいて算出される。かかる点以外では、両者は正規方程式の解として全く同様な計算処理によって算出される。従って、仮予測係数の決定に係る処理、すなわち図11中の正規方程式加算回路61、62、および予測係数決定回路63が行う処理も、全く同様なものである。
【0084】
すなわち、図11では、クラス合成回路130、131から供給されるクラス値、予測タップ選択回路101から供給される予測タップ、および出力画像信号と同じ信号形式を有する既知の入力画像信号(例えば525p信号)を用いて、正規方程式加算回路61、62のそれぞれが正規方程式データ、すなわち、式(9)、(10)に従うXji,Yi の値を算出する。そして、算出した正規方程式データを仮予測係数決定部63に供給する。仮予測係数決定部63は、正規方程式データに基づいて、掃き出し法等の一般的な行列解法に従って正規方程式を解くための計算処理を行って仮予測係数を算出する。
【0085】
このように、仮予測係数を算出し、それに基づいてクラス値変換テーブルを生成し、さらに、クラス値変換テーブルを参照してクラス値変換を行いながら予測係数を算出することによって、学習が行なわれる。その結果として、予測係数メモリ84には、クラス毎に、プログレッシブ画像の注目画素を推定するための、統計的に最も真値に近いと推定ができる予測係数が格納される。予測係数メモリ84に格納された予測係数は、図6等を参照して上述した画像情報変換処理系内の予測係数メモリ41にロードされる。
【0086】
なお、図9示したような画像信号変換処理系、図11に示したようなクラス値変換テーブルの作成に係る処理系、および図13に示した予測係数の決定に係る処理系は、各々別個に設けても良いし、スイッチ等を適宜設けることによって構成要素を共通に使用するように構成しても良い。但し、これらの処理系を別個に設ける場合には、学習の有効性を担保するため、同一の機能を有する構成要素は、同一の動作特性を有するものを使用する必要がある。例えばタップ選択回路1、51、201は、同一の動作特性を有する必要がある。構成要素を共通に使用する場合には、スイッチング等に起因して装置全体の処理が複雑化するが、装置全体に関わる回路規模、コスト等の削減に寄与することができる。
【0087】
また、タップ選択回路201が出力する予測タップの個数は、画像情報変換処理系において使用される予測タップの個数より大きいものとされる。従って、図13中の予測係数決定部263では、クラス毎により多くの係数が求まる。このようにして求まった予測係数の中で、絶対値が大きいものから順に使用する数の予測係数が選択される。
【0088】
次に、線順序変換回路6が行うライン倍速処理について説明する。上述したようにして推定予測演算回路4、5が生成する525p信号の水平周期は、画像情報変換処理がなされる前の525i信号の水平周期と同一である。線順序変換回路6は、ラインメモリを有し、水平周期を2倍とするライン倍速処理を行う。図14は、ライン倍速処理をアナログ波形を用いて示すものである。推定予測演算回路4、5によって、ラインデータy1およびy2が同時に予測生成される。
【0089】
ラインデータy1には、順にa1,a2,a3‥‥のラインが含まれ、ラインデータy2には、順にb1,b2,b3‥‥のラインが含まれる。線順序変換回路500内には、ラインダブラ(図示せず)とスイッチング回路(図示せず)とが設けられている。ラインダブラは、各ラインのデータを時間軸方向に1/2に圧縮し、圧縮されたデータをスイッチング回路に供給する。スイッチング回路は、供給されるデータを交互に選択して出力する。以上のようにして、線順次出力(a0,b0,a1,b1,‥‥)が形成される。
【0090】
なお、上述した構成では、現存ライン上の出力画素値(ラインデータL1)と、作成ライン上の出力画素値(ラインデータL2)とを並列構成でもって作成するようにしている。これに対し、メモリを追加し、回路の動作速度が速ければ時分割処理でラインデータy1およびy2を順に生成すると共に、ライン倍速処理を行うように構成しても良い。
【0091】
また、上述した画像情報変換装置の一例は、525i信号を525p信号に変換するものであるが、525本のライン数は、一例であって、他のライン数であっても良い。例えば、入力SD信号における水平方向の画素数に対して、2倍以外の画素数を含むラインからなる出力画像信号を予測生成するようにしても良い。より具体的には、出力画像信号として1050i信号、すなわち走査線数が1050本でインターレス方式の画像信号を予測生成するようにしても良い。図15は、1フィールドの画像の一部を拡大することによって、525i信号と、1050i信号とにおける画素の配置を示すものである。大きなドットが525i信号の画素を示し、また、小さなドットが1050i信号の画素を示す。なお、図15の実線で示したものは、あるフレームの奇数フィールドの画素配置である。他のフィールド(偶数フィールド)のラインは、点線で示すように空間的に0.5ラインずれたものであり、ラインデータy1’,y2’の画素が形成される。
【0092】
なお、この発明による予測演算装置は、クラス分類適応処理を使用した画像情報変換装置に限らず、複数の画素データの線型1次結合により予測値または補間値を生成する他の装置に対して適用することができる。
【0093】
【発明の効果】
この発明は、係数データまたはタップデータの一方をゼロデータとすることによって、そのタップに関する演算動作を休止することができ、タップ数の変化に柔軟に対応することができる。また、バイパス信号線、遅延回路を設けずに、積和器をスルーしたタップデータを取り出すことができる。
【0094】
この発明による予測演算装置を使用した画像情報変換装置は、入力画像信号の走査線との位置関係が異なる複数種類の注目点(具体的には、入力画像信号の走査線上に位置するy1と、入力画像信号の走査線の間に位置するy2等)の各々について決定されるクラスの数を、注目点の入力画像信号の走査線に対する位置関係に応じて(例えば、予測生成がより困難なy2に対してより多くのクラス数を割当てる等)、削減するようにしたものである。
【0095】
このため、装置内のメモリ資産の記憶容量に応じてクラス数を設定できるので、メモリ資産の記憶容量が小さい場合にも的確な処理を行うことが可能となる。また、より少ないクラス数の下で効率的な処理を行う場合にも、この発明を適用することが有効となる。
【0096】
また、注目点と入力画像信号の走査線との位置関係の違い等に起因する(具体的にはy1とy2の間での)予測生成の困難さに応じて、各注目点に対して適切なクラス数が割り当てられる。このため、メモリ資産の記憶容量が限られている場合にも、きめ細かく、また効率的な画像情報変換処理を行うことが可能となる。
【図面の簡単な説明】
【図1】この発明を適用することができる予測器を概略的に示す略線図である。
【図2】この発明の説明の参考に用いる予測器の一例のブロック図である。
【図3】この発明による予測器の一実施形態のブロック図である。
【図4】この発明による予測器の他の実施形態のブロック図である。
【図5】この発明が適用される画像情報変換装置の一例によってなされる画像情報変換処理における画素の配置の一例を示す略線図である。
【図6】この発明が適用される画像情報変換装置の一例における画像情報変換処理系の構成の一例を示すブロック図である。
【図7】この発明が適用される画像情報変換装置の一例における、ラインデータy1についての空間クラスタップ配置の一例を示す略線図である。
【図8】この発明が適用される画像情報変換装置の一例における、ラインデータy2についての空間クラスタップ配置の一例を示す略線図である。
【図9】この発明が適用される画像情報変換装置の一例における、動きクラスタップ配置の一例を示す略線図である。
【図10】この発明が適用される画像情報変換装置の一例におけるクラス統合について説明するための略線図である。
【図11】この発明が適用される画像情報変換装置の一例におけるクラス値変換テーブル生成処理系の構成の一例を示すブロック図である。
【図12】クラス値変換テーブル生成処理系および予測係数算出処理系において使用される間引きフィルタによる処理について説明するための略線図である。
【図13】この発明が適用される画像情報変換装置の一例における、予測係数算出処理系の構成の一例を示すブロック図である。
【図14】ライン倍速処理について説明するための略線図である。
【図15】この発明が適用される画像情報変換装置の他の例における画素の配置の一例を示す略線図である。
【符号の説明】
1・・・予測タップ選択回路、4,5・・・推定予測演算回路、 32、33・・・クラス値変換回路、41・・・係数メモリ、64・・・近接係数クラス統合、65・・・クラス値変換テーブル生成部、81、82・・・クラス値変換回路、18、19・・・クラス値変換回路、301・・・積和器、3021 〜302n ・・・乗算器、303・・・加算器、S1〜Sn・・・セレクタ、G1〜Gn・・・アンド回路[0001]
BACKGROUND OF THE INVENTION
  The present invention performs a linear primary combination prediction calculation of a plurality of pixel data and a plurality of coefficient data.imageThe present invention relates to an information conversion apparatus and method.
[0002]
[Prior art]
As one of image signal conversion devices for converting an input digital image signal into a different scanning line structure, a pixel value of an output image signal is predicted by linear primary combination of coefficient data obtained in advance and pixel data of the input image signal What to do has been proposed. A predictor for performing the prediction calculation includes a multiplier that multiplies each pixel data and each coefficient data, and an adder that adds multiplication outputs. The predictor preferably has a versatile configuration that can be used even when the number of pixel data (number of taps) changes. In addition, in order to determine the quality of the prediction result, image data that does not pass through the predictor may be required as an output.
[0003]
[Problems to be solved by the invention]
In the conventional predictor, an unused tap is prevented from occurring by optimizing the number of taps. Therefore, it has been common that there is no versatility that can accommodate different numbers of taps. In addition, when it is desired to output image data that has passed through the predictor, a signal line that bypasses the predictor is provided, and a delay circuit that compensates for the delay required for the processing of the predictor is provided in the bypass signal path. There is a problem that a delay circuit is required.
[0004]
  Therefore, an object of the present invention is versatile with respect to the number of taps, and does not require a delay circuit to obtain a through output that does not perform an operation.imageAn object of the present invention is to provide an information conversion apparatus and method.
[0005]
[Means for Solving the Problems]
  According to a first aspect of the present invention, there is provided an image information conversion apparatus configured to form a plurality of output image signals having different scanning line structures from an input image signal.
  The same position as the line existing in the input image signalOf output image signalTo generate the first line of pixels,GenerationBe doneFirst data selection means for selecting m first pixels of the input image signal located around the pixels;
  first class determining means for detecting a level distribution of m first pixels and determining a first class from the detected level distribution;
  Position between lines present in the input image signalOf output image signalTo generate the second line of pixels,GenerationBe doneSecond data selecting means for selecting n (n> m) second pixels of the input image signal located around the pixels;
  second class determining means for detecting a level distribution of n second pixels and determining a second class from the detected level distribution;
  First and second coefficient data for presuming the output image signal, which are predetermined for each of the first and second classes, are stored, and the stored first and second coefficient data are stored in the first and second coefficient data. Memory means for outputting first and second coefficient data respectively corresponding to each of the first and second classes;
  Third data selection means for selecting a preset number of third pixels around the pixels to be generated from the input image signal;
  First coefficient dataWhen the first line of pixels is generated by a linear estimation formula that performs a product-sum operation on the first pixel and the third pixel, and there is no third pixel that is product-summed with the first coefficient data, the first coefficient data And the first pixel having at least one of the third pixels as zero dataSignal generating means;
  When the second line of pixels is generated by a linear estimation formula that performs a product-sum operation on the second coefficient data and the third pixel, and there is no third pixel that is subjected to a product-sum operation on the second coefficient data, Second signal generation means for setting at least one of the second coefficient data and the third pixel to zero data;
  First and secondScanning conversion means connected to the signal generation means for converting the converted image into a designated scanning line structure;
  The first and second coefficient data are obtained by learning in advance for each of the first and second classes and stored in the memory means.
  Learning is
  An intermediate image signal having the same number of pixels as the input image signal is formed by thinning out the teacher image signal having the same number of pixels as the output image signal, and a plurality of teacher image signals in the vicinity of the pixels of the intermediate image signal are formed. A student image signal is formed by weighted addition of pixel values at corresponding positions of
  This is a process for obtaining an error between the generated pixel value and the true value of the pixel when the teacher image signal is generated from the student image signal by the product-sum operation.
An image information conversion apparatus.
[0006]
  Claim5The present invention provides an image information conversion method in which a plurality of output image signals having different scanning line structures are formed from an input image signal.
  The same position as the line existing in the input image signalOf output image signalTo generate the first line of pixels,GenerationBe doneA first data selection step of selecting m first pixels of the input image signal located around the pixels;
  a first class determining step of detecting a level distribution of m first pixels and determining a first class from the detected level distribution;
  Position between lines present in the input image signalOf output image signalTo generate the second line of pixels,GenerationBe doneA second data selection step of selecting n (n> m) second pixels of the input image signal located around the pixels;
  a second class determining step of detecting a level distribution of n second pixels and determining a second class from the detected level distribution;
  First and second coefficient data which are determined in advance corresponding to each of the first and second classes and for estimating the output image signal are stored in the memory means, and the stored first and second coefficient data Outputting first and second coefficient data respectively corresponding to the first and second classes, respectively,
  A third data selection step of selecting a preset number of third pixels around the pixels to be generated from the input image signal;
  First coefficient dataWhen the first line of pixels is generated by a linear estimation formula that performs a product-sum operation on the first pixel and the third pixel, and there is no third pixel that is product-summed with the first coefficient data, the first coefficient data And the first pixel having at least one of the third pixels as zero dataA signal generation step;
  When the second line of pixels is generated by a linear estimation formula that performs a product-sum operation on the second coefficient data and the third pixel, and there is no third pixel that is subjected to a product-sum operation on the second coefficient data, A second signal generation step in which at least one of the second coefficient data and the third pixel is zero data;
  First and secondA scan conversion step connected to the signal generation step and for converting the converted image into a specified scan line structure;
  The first and second coefficient data are obtained by learning in advance for each of the first and second classes and stored in the memory means.
  Learning is
  An intermediate image signal having the same number of pixels as the input image signal is formed by thinning out the teacher image signal having the same number of pixels as the output image signal, and a plurality of teacher image signals in the vicinity of the pixels of the intermediate image signal are formed. A student image signal is formed by weighted addition of pixel values at corresponding positions of
  This is a process for obtaining an error between the generated pixel value and the true value of the pixel when the teacher image signal is generated from the student image signal by the product-sum operation.
This is an image information conversion method.
[0007]
When the number of input taps changes and a tap that pauses operation occurs, the predicted tap data or coefficient data relating to that tap is set to zero. Further, the coefficient relating to tap data to be passed is set to 1, and the coefficients relating to other tap data are set to 0. Thereby, desired tap data can be passed through.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 schematically shows the flow of prediction processing to which the present invention can be applied. The central part is a product-sum multiplier 313 that performs an operation represented by a linear primary combination of a prediction tap 311 and a prediction coefficient 312 cut out from the input image signal. Commands are provided to the system to set the system's functions. The encoder indicated by 314 generates an instruction for setting the internal state based on the interpretation of the command and the interpretation result.
[0009]
The n prediction coefficients 312 used in the prediction coefficient group 315 are selected by the prediction coefficient switching instruction 316. Further, n prediction taps 311 used in the filter tap 317 are set by the prediction tap switching instruction 318. Further, the input width of the product-sum 313 is n. The number of taps of prediction taps and the number of prediction coefficients n are converted to m or n (n> m) by the input optimization process 319. The input optimization process 319 is performed according to an instruction based on the interpretation of the command formed in the encoder 314. Prediction calculation is performed by the multiplier / summer 313, and the calculation output is processed by the gain adjustment and limiter 320 to generate a final prediction calculation output.
[0010]
As described above, after the input optimization process 319, if the number of prediction taps 311 and prediction coefficients 312 is equal to the input width n of the product-sum 313, no non-operation taps are generated in the predictor 313. However, in the conversion device that converts the image signal, as can be seen from the embodiments of the image signal conversion device described later, the degree of difficulty in prediction differs depending on the positional relationship between the pixel in the input image signal and the pixel to be predicted. As a result, after the input optimization process 319, the number of prediction taps 311 and prediction coefficients 312 may be m (n> m). On the other hand, in order to reduce the scale of the hardware, it is preferable to share the product-summer 313. Therefore, in the case where the number of taps is m, the operation of the n−m taps of the product-sum 313 stops. Furthermore, there is a case where it is desired to output a pixel value of a predetermined tap that is not multiplied by a prediction coefficient as an output as it is.
[0011]
FIG. 2 shows a configuration example conventionally used in the case of outputting through any tap data without performing a prediction calculation. Reference numeral 301 surrounded by a broken line indicates a sum of products. The product-sum multiplier 301 includes n multipliers 302.1, 3022, ..., 302nAnd the multiplier 3021~ 302nAnd an adder 303 that adds the outputs of the two, and has n taps as an input width. Multiplier 3021~ 302n, COEF1, COEF2,..., COEF from the registers R11, R12,.nAre supplied respectively. Multiplier 3021~ 302n, DT, tap data DT1, DT2,... DT from the registers R21, R22,.nAre supplied respectively.
[0012]
The output of the adder 303 of the multiplier / summer 301 is supplied as one input to the selector 305 via the gain and limiter 304. The output of the selector 306 is supplied to the other input of the selector 305 via the delay circuit 307. The selector 305 selectively outputs one input. The selector 306 has tap data DT1, DT2,... DT from the registers R21, R22,.nIs supplied and one piece of data to be passed through is selected.
[0013]
As shown in FIG. 2, in the configuration in which a signal line that bypasses the sum of products 1 is provided and a delay circuit 307 for a time corresponding to the delay generated in the sum of products 301 is provided, the bypass signal line, the selector 306, and the delay circuit 307 are provided. It is necessary to add, and the circuit scale increases. Further, the input width and the number of taps of the product-sum unit 301 are normally selected to be equal, and no countermeasure is taken when the number of taps is reduced from n to m.
[0014]
One embodiment of the predictive calculator according to the present invention shown in FIG. 3 can solve these problems. Similar to the configuration shown in FIG. 2, the product-sum multiplier 301 includes n multipliers 302.1~ 302nAnd the multiplier 3021~ 302nAnd an adder 303 that adds the outputs of the two, and has n taps as an input width.
[0015]
Multiplier 3021~ 302nThe outputs of selectors S1, S2,..., Sn are supplied as one input. Coefficient data COEF1, COEF2,..., COEF from the registers R11, R12,..., R1n as one input of the selectors S1, S2,.nAre supplied respectively. Zero data is supplied as the other input of the selectors S1 to Sn. The selectors S1 to Sn select coefficient data or zero data in response to the control signals CNT1 to CNTn, respectively. Also, the multiplier 3021~ 302n, DT, tap data DT1, DT2,.nAre supplied respectively.
[0016]
An input digital image signal is supplied to a prediction tap selection unit (not shown), and n tap data DT1, DT2,.nAre taken out at the same time. On the other hand, predetermined coefficient data COEF1, COEF2, ..., COEFnAre read from a memory unit (not shown). Multiplier 3021~ 302nAre added by the adder 303, and the product-sum operation output is taken out from the adder 303. The output of the multiplier / summer 301 is output as a prediction calculation output via the gain and limiter 304. The gain and limiter 304 corrects the gain for the calculation result and limits the number of bits of the calculation result, and is controlled by the control signal cnt.
[0017]
The operation of the above-described embodiment of the present invention will be described. First, n tap data DT1, DT2, ..., DTnAnd n coefficient data COEF1, COEF2, ..., COEFnLinear combination with (COEF1 xDT1 + COEF2 xDT2 + ... + COEFn× DTn), When the prediction calculation output is formed, the selectors S1 to Sn respectively convert the coefficient data into the multiplier 2.1~ 2nThe selectors S1 to Sn are controlled by the control signals CNT1 to CNTn.
[0018]
Next, when a prediction calculation output is generated by m (n> m) taps and m coefficient data, among the selectors S1 to Sn, m selectors select coefficient data and the remaining n The selectors S1 to Sn are controlled by the control signals CNT1 to CNTn so that the -m number of selectors select zero data. Zero data is, for example, a ground level. Therefore, the multiplier to which zero data is input does not substantially perform the multiplication operation and can prevent wasteful power consumption. Furthermore, as necessary, the gain and limiter 304 are optimized by the control signal cnt according to the difference in the number of taps.
[0019]
Further, a case will be described in which a through operation is performed in which pixel values of one or more input taps are output as they are instead of the prediction calculation output. For example, tap data DTnIf you want to output the coefficient data COEFnIs set to 1, and the selector Sn is controlled by the control signal CNTn so that the selector Sn selects the coefficient data of 1. Thus, multiplier 302nOutput of data DTnIt is.
[0020]
The selectors other than the selector Sn are controlled by the control signal so as to select all zero data. Thus, multiplier 302nAll the outputs of the multipliers other than 0 become zero data, and the adder 303 receives data DT.nIs output. The gain and limiter 304 is controlled by the control signal cnt so that the gain is 1 and the number of input bits is output as it is. In this way, as output, tap data DTnCan be obtained. Since the data to be passed passes through the product-sum multiplier 301, a delay circuit for time adjustment is not necessary.
[0021]
In the present invention, as shown in FIG. 4, a configuration in which AND circuits G1 to Gn are connected instead of the selectors S1 to Sn is possible. That is, the coefficient data COEF1 to COEFn are supplied as one input of the AND circuits G1 to Gn, and the control signals CNT1 to CNTn are supplied as the other input. When it is desired to prohibit the input of coefficient data to the multiplier, the corresponding one of the control signals CNT1 to CNTn may be set to “0”. Other configurations and operations are the same as those of the predictor shown in FIG.
[0022]
In the configuration shown in FIG. 3, selectors S1 to Sn are used to select coefficient data and zero data, and in the configuration shown in FIG. 4, AND circuits G1 to Gn are used to invalidate coefficient data. is doing. However, no processing is performed on the coefficient data, tap data and zero data may be selected, or the tap data may be set to zero data.
[0023]
The above-described motion determination device according to the present invention can be applied to generation of a motion class in an image signal conversion device. This image signal conversion apparatus receives an SD (Standard Definition) signal and outputs an HD (High Definition) signal. In addition, when generating an HD pixel, an SD pixel in the vicinity of the generated HD pixel is divided into classes, and a prediction coefficient value is obtained by learning for each class, thereby obtaining an HD pixel closer to the true value. Is. FIG. 9 shows an image signal conversion apparatus using such a method.
[0024]
Prior to the description of an example of the image information conversion apparatus, an image information conversion process that is the premise thereof will be described. In this process, a standard resolution digital image signal (hereinafter referred to as an SD signal) is converted into a high resolution image signal (sometimes referred to as an HD signal) and output. As the SD signal at this time, for example, an interlaced image signal (hereinafter referred to as a 525i signal) having 525 lines is used. As the high-resolution image signal, for example, a progressive-type output video signal (hereinafter referred to as a 525p signal) having 525 lines is used. Further, the number of pixels in the horizontal direction in the output image signal is twice the number of pixels in the horizontal direction in the input image signal.
[0025]
In such image information conversion processing, resolution is being improved by class classification adaptation processing according to the proposal of the present applicant. The class classification adaptive processing is different from that in which high resolution signals are formed by conventional interpolation processing. That is, the class classification adaptive processing performs class division according to the three-dimensional (spatio-temporal) distribution of the signal level of the input SD signal, and stores the predicted count value obtained by learning in advance for each class in a predetermined storage unit. This is a process of outputting an optimum estimated value by a calculation based on the prediction formula. With the class classification adaptive processing, it becomes possible to obtain a resolution higher than the resolution of the input SD signal.
[0026]
FIG. 5 shows an example of pixel arrangement in an image information conversion process in which a 525i signal as an input SD signal is converted into a 525p signal as an output image signal by enlarging a part of an image of one field. is there. A large dot indicates a pixel of the 525i signal, and a small dot indicates a pixel of the 525p signal. Here, FIG. 5 shows a pixel arrangement in an odd field of a certain frame. In the other field (even field), the lines of the 525i signal are spatially shifted by 0.5 lines. As can be seen from FIG. 5, the line data y1 (shown as small black dots) at the same position as the line of the 525i signal and the line data y2 (shown as small white dots) between the upper and lower lines of the 525i signal. And 525p signal is predicted and generated.
[0027]
Here, y1 is a point that already exists, whereas y2 is a point generated by a new prediction. Therefore, predicting and generating y2 is more difficult than predicting and generating y1. For this reason, when y2 is predicted and generated, it is necessary to allocate a larger number of classes than when y1 is predicted and generated. In addition, for example, when the memory assets provided in the apparatus do not have a sufficient amount, or when efficient image information conversion processing is performed using a smaller number of classes, the total number of classes should be reduced. Class value conversion needs to be performed. From these viewpoints, the image information conversion apparatus described below is configured to appropriately assign the number of classes so that prediction generation of y1 and y2 can be performed efficiently and finely.
[0028]
Hereinafter, an example of such an image information conversion apparatus will be described with reference to the drawings as appropriate. In this example, image information conversion processing for converting a 525i signal as an input SD signal into a 525p signal as an output image signal is performed. FIG. 6 is a block diagram showing an example of the configuration of the image information conversion processing system. An input SD signal (525i signal) is supplied to the tap selection circuits 1, 10 and 20.
[0029]
The tap selection circuit 1 cuts out an area including a plurality of pixels required for calculation processing (calculation processing according to formula (1) described later) for predicting and estimating the line data y1 and y2, and performs line processing from the cut-out area. SD pixels (hereinafter referred to as prediction taps) necessary for predicting and estimating the data y1 and y2 are selected. The selected prediction tap is supplied to the estimated prediction calculation circuits 4 and 5. Here, as a prediction tap, the thing similar to the space class tap mentioned later can be used. However, in order to improve prediction accuracy, a prediction tap may be selected based on prediction tap position information corresponding to a class.
[0030]
In addition, prediction coefficients necessary for predicting and estimating the line data y1 and y2 are supplied from the coefficient memory 41 (described later) to the estimated prediction calculation circuits 4 and 5. Based on the prediction tap supplied from the tap selection circuit 1 and the prediction coefficient supplied from the coefficient memory 41, the estimated prediction calculation circuits 4 and 5 sequentially predict and generate pixel values y according to the following equation (1).
[0031]
y = w1X1+ W2X2+ ... + wnXn      (1)
Where x1, ..., xnIs each prediction tap, w1, ..., wnAre each prediction coefficient. That is, Expression (1) is an expression for predicting and generating the pixel value y using n prediction taps. As the column of pixel values y, the estimated prediction calculation circuit 4 predicts and generates line data y1, and the estimated prediction calculation circuit 5 predicts and generates line data y2. Prediction coefficient w1, ..., wnAre different for y1 and y2.
[0032]
Here, as will be described later, five prediction taps are used to predict line data y1 (ie, n = 5), and six prediction taps are used to predict line data y2. (Ie n = 6). Thus, since the number of taps is different and the prediction coefficients are also different, FIG. 6 shows two estimated prediction calculation circuits 4 and 5. The prediction arithmetic unit according to the present invention described above can be applied to these estimated prediction arithmetic circuits 4 and 5. Since the prediction calculator according to the present invention can cope with the difference in the number of prediction taps, the hardware configuration can be the same. As described above, since the prediction arithmetic unit according to the present invention has versatility, it is possible to reduce the effort for designing the integrated circuit of the estimated prediction arithmetic circuit.
[0033]
The estimated prediction calculation circuits 4 and 5 supply line data y1 and y2 to the line order conversion circuit 6, respectively. The line order conversion circuit 6 performs line double speed processing on the supplied line data to generate a high resolution signal. This high resolution signal is used as the final output image signal of the image information conversion processing system. Although not shown, an output image signal is supplied to the CRT display. The CRT display has a synchronous system so that an output image signal (525p signal) can be displayed. As the input SD signal, a broadcast signal or a reproduction signal of a reproduction device such as a VTR is supplied. That is, the image information conversion device can be built in a television receiver or the like.
[0034]
On the other hand, the tap selection circuits 10 and 11 select SD pixels (hereinafter referred to as space class taps) necessary to detect the space class for the line data y1 and y2 from the input SD signal, respectively. The tap selection circuit 20 selects an SD pixel (hereinafter referred to as a motion class tap) motion class tap necessary for detecting a motion class from the input SD signal. The outputs of the tap selection circuits 10 and 11 are supplied to the space class detection circuits 12 and 13, respectively, and the output of the tap selection circuit 20 is supplied to the motion class detection circuit 21.
[0035]
The space class detection circuits 12 and 13 detect space class values for y1 and y2, respectively, based on the supplied space class tap. Then, the detected space class value is supplied to the class synthesis circuits 30 and 31, respectively. Further, the motion class detection circuit 21 detects a motion class value based on the supplied motion class tap, and supplies the detected motion class value to the class synthesis circuits 30 and 31.
[0036]
The class synthesis circuits 30 and 31 synthesize the supplied space class value and the motion class value. The outputs of the class synthesis circuits 30 and 31 are supplied to class value conversion circuits 32 and 33, respectively. The class value conversion circuits 32 and 33 perform class value conversion processing as described later on the outputs of the class synthesis circuits 30 and 31, respectively. The total number of classes is reduced by the class value conversion process.
[0037]
The converted class value is supplied to the coefficient memory 41. The coefficient memory 41 stores prediction coefficients determined in advance by learning, which will be described later. Among the stored prediction coefficients, the coefficient specified by the class values supplied from the class value conversion circuits 32 and 33 is estimated prediction calculation circuit 4. 5 is output. In order to enable such an operation, for example, a method of storing a prediction coefficient according to an address specified by a class value obtained by class value conversion may be used.
[0038]
Here, the space class detection will be described in more detail. In general, the spatial class detection circuit detects a spatial pattern of the level distribution of image data based on the level distribution pattern of the spatial class tap, and generates a spatial class value based on the detected spatial pattern. In this case, in order to prevent the number of classes from becoming enormous, processing for compressing 8-bit input pixel data into data having a smaller number of bits is performed for each pixel. As an example of such information compression processing, ADRC (Adaptive Dynamic Range Coding) can be used. Moreover, DPCM (predictive coding), VQ (vector quantization), etc. can also be used as information compression processing.
[0039]
ADRC is an adaptive requantization method originally developed for high-efficiency coding for VTR (Video Tape Recoder), but it can efficiently express local patterns of signal level with a short word length. In this example, ADRC is used to generate codes for spatial classification. ADRC uses the maximum value MAX and the minimum value MIN according to the following (2), where DR is the dynamic range of the space class tap, n is the bit allocation, L is the data level of the pixel of the space class tap, and Q is the requantization code. Are re-quantized by equally dividing the interval between and with a specified bit length.
[0040]
DR = MAX-MIN + 1
Q = {(L−MIN + 0.5) × 2 / DR} (2)
However, {} means a truncation process.
[0041]
As described above, the number of classes for line data y2 is larger than the number of classes for line data y1. This point will be specifically described. First, FIG. 7 shows an example of an arrangement of space class taps used for space class detection for y1. In FIG. 7, when time advances in the horizontal direction (left to right), the pixels in each field are shown side by side in the vertical direction.
[0042]
The illustrated fields are expressed as F-1 / o, F-1 / e, F / o, and F / e in order from the left. F-1 / o is a notation indicating that the field is composed of an odd-numbered (odd) th scanning line of the F-1th frame. Similarly, F-1 / e means "a field made up of even-numbered (even) scan lines of the F-1th frame", and F / o means "odd-numbered scanlines of the Fth frame". "F / e" means "a field consisting of even-numbered scanning lines of the F-th frame".
[0043]
In such an example, a total of five space class taps for the line data y1 in the field F / o, T4, T5 in the field F-1 / e, and T1, T2, T3 in the field F / o. Pixel values are used. However, the arrangement of the space class taps is not limited to this. For example, a plurality of horizontal input pixels may be used as the space class tap.
[0044]
Similarly, FIG. 8 shows an example of the arrangement of space class taps used for space class detection for y2. The notation in FIG. 8 is the same as in FIG. In such an example, T6 in field F-1 / e, and T2, T3, T4, T5 in field F / o, and field F / as the space class tap for line data y2 in field F / o. A total of 6 pixel values for T1 in e are used. However, the arrangement of the space class taps is not limited to this. For example, a plurality of horizontal input pixels may be used as the space class tap. Note that the same prediction taps as the space class taps shown in FIGS. 7 and 8 are used to predict the line data y1 and y2.
[0045]
Next, motion class detection will be described in more detail. The motion class detection circuit 21 calculates the average value param of the inter-frame difference absolute value according to the following equation (3) based on the supplied motion class tap. Then, the motion class value is detected based on the calculated param value.
[0046]
[Expression 1]
Figure 0004300603
[0047]
In Equation (3), n is the number of motion class taps, and can be set to n = 6, for example (see FIG. 9). Then, a motion class value that is a motion index is determined by comparing the value of param with a preset threshold value. For example, motion class value 0 when param ≦ 2, motion class value 1 when 2 <param ≦ 4, motion class value 2 when 4 <param ≦ 8, motion when param> 8 A motion class value is generated, such as class value 3. It is determined that the motion class value 0 is the minimum (still) motion, and the motion class values 1, 2, and 3 increase the motion. Note that a motion vector may be detected, and a motion class may be detected based on the detected motion vector.
[0048]
An example of the arrangement of motion class taps used for motion class detection is shown in FIG. In such an example, the motion class taps used in predicting line data y1 and y2 in field F / o are pixels n1, n3, n5 in field F / o and pixels n2, n in field F / e. n4, n6, and pixels m2, m4, and m6 in the field F-1 / e, and pixels m1, m3, and m5 in the field F-1 / o. Here, the vertical positions of the pixel m1, the pixel n1, the pixel m2, the pixel n2,..., The pixel m6, and the pixel n6 are the same. However, the arrangement of the motion class taps is not limited to this.
[0049]
In the case of class classification by 1-bit ADRC using the space class tap arrangement as shown in FIG. 7 and FIG. 8, the motion class value is common for y1 and y2, and the classification number of the motion class value is 4. Then, the number of classes is as follows.
[0050]
Number of classes for y1 = 2Five× 4 = 128
Number of classes for y2 = 26× 4 = 256
In this case, the total number of classes is 384. However, for example, when the memory resource (coefficient memory 41 in FIG. 6) provided in the image information conversion processing system does not have a sufficient storage capacity to cope with this number of classes, or efficiently with a smaller number of classes. When performing image information conversion processing, etc., it is necessary to reduce the total number of classes. Therefore, the number of classes for y1 and y2 is reduced by performing class value conversion processing. FIG. 10 schematically shows the reduction of the total number of classes in this case. The temporary prediction coefficient in FIG. 10 will be described later.
[0051]
Next, learning, that is, processing for setting an appropriate prediction coefficient will be described below. First, FIG. 11 shows an example of the configuration of a processing system related to creation of a class value conversion table, which is the first stage of learning. A known signal (for example, a 525p signal) having the same signal format as the output image signal is supplied to the thinning filter 51 and the normal equation adding circuits 61 and 62. The thinning filter 51 generates an SD signal (for example, a 525i signal) having the number of pixels halved in the horizontal direction and the vertical direction and having a ¼ pixel number of the signal supplied as a whole.
[0052]
As such processing, for example, the pixels are thinned out by a vertical thinning filter so that the frequency in the vertical direction of the input image signal is halved, and further, the pixels by the horizontal thinning filter so that the frequency in the horizontal direction is halved. Processing such as thinning out is performed. By changing the characteristic of the thinning filter 51, the characteristic of learning can be changed, and thereby the image quality of the image obtained by conversion can be controlled.
[0053]
Here, FIG. 12 shows a spatial relationship of pixels between a 525p signal as an example of an input SD signal to the decimation filter 51 and a 525i signal as an example of an output image signal from the decimation filter 51. In the odd-numbered field of the 525p signal, the even-numbered lines are thinned out, and the pixels are alternately thinned out in the horizontal direction in the odd-numbered lines. This thinning process is illustrated for the first field and the third field in FIG. On the other hand, in the odd-numbered field of the 525p signal, the odd-numbered lines are thinned out, and the pixels are alternately thinned out in the horizontal direction in the even-numbered lines. This thinning process is illustrated for the second field in FIG.
[0054]
In FIG. 11, the interlaced image signal generated by the thinning filter 51 is supplied to the tap selection circuits 101, 110, 111 and 120. The tap selection circuit 101 selects a prediction tap that can be used in the calculation of a normal equation to be described later, and supplies the selected prediction tap to the normal equation addition circuits 61 and 62. On the other hand, the tap selection circuits 110 and 111 select space class taps for the line data y1 and y2, respectively, and supply the selected space class taps to the space class detection circuits 112 and 113, respectively. Further, the tap selection circuit 120 selects a motion class tap and supplies the selected motion class tap to the motion class detection circuit 121.
[0055]
The space class detection circuits 112 and 113 compress the space class tap data by ADRC, and independently detect the space class values for y1 and y2, respectively. The motion class detection circuit 121 detects a motion class value. The output of the space class detection circuit 112 and the output of the motion class detection circuit 121 are supplied to the class synthesis circuit 130. The output of the space class detection circuit 113 and the output of the motion class detection circuit 121 are supplied to the class synthesis circuit 131. The class synthesis circuits 130 and 131 synthesize the space class value and the motion class value for y1 and y2, respectively. The outputs of the class synthesis circuits 130 and 131 are supplied to the normal equation addition circuits 61 and 62.
[0056]
The normal equation addition circuit 61 is an addition for obtaining data related to a normal equation whose solution is a prediction coefficient related to y1 prediction generation based on the input SD signal, the output of the tap selection circuit 101, and the output of the class synthesis circuit 130. I do. Similarly, the normal equation addition circuit 62 obtains data related to a normal equation having a prediction coefficient related to y2 prediction generation as a solution based on the input SD signal, the output of the tap selection circuit 101, and the output of the class synthesis circuit 131. Addition for
[0057]
The normal equation addition circuits 61 and 62 supply the calculated data to the temporary prediction coefficient determination circuit 63, respectively. The temporary prediction coefficient determination circuit 63 performs a calculation process for solving a normal equation based on the supplied data, and calculates temporary prediction coefficients related to y1 and y2 prediction generation. Then, the calculated temporary prediction coefficient is supplied to the proximity coefficient class integration processing unit 64. Here, the temporary prediction coefficient is referred to because the final prediction coefficient is determined as a result of class integration as will be described later. The calculation process for solving the normal equation is the same as the calculation process in the prediction coefficient determination circuit 263 (see FIG. 13) described later.
[0058]
The proximity coefficient class integration processing unit 64 calculates the distance d between the provisional prediction coefficients supplied, for example, according to the following formula (4).
[0059]
[Expression 2]
Figure 0004300603
[0060]
Where kl, Kl'Represents the prediction coefficient of different classes. L indicates the number of the prediction tap. N represents the total number of prediction taps.
[0061]
Furthermore, the proximity coefficient class integration processing unit 64 compares the distance of the prediction coefficient between the classes obtained as described above with a predetermined threshold, and a plurality of such that the mutual distance is smaller than the threshold. Merge classes into one class. By integrating classes, the total number of classes can be reduced. At this time, if the distances between a certain class and some other classes are both smaller than the threshold value, the classes having the smallest distance may be integrated. As the predetermined threshold value is set larger, the number of classes can be reduced. Therefore, by changing the threshold value, the total number of classes obtained by the class value conversion process can be adjusted.
[0062]
At this time, by assigning an appropriate number of classes for y1 and y2 according to conditions such as the storage capacity of the memory assets (coefficient memory 41 in FIG. 6) provided in the image information conversion processing system, the memory It is possible to obtain an effect that assets can be used more effectively or image information conversion processing can be performed efficiently with a smaller number of classes.
[0063]
Then, the proximity coefficient class integration processing unit 64 supplies information related to class integration to the class value conversion table generation unit 65. The class value conversion table generation unit 65 generates a class value conversion table based on the supplied information. This class value conversion table is supplied to and stored in the class value conversion circuits 32 and 33 (see FIG. 6) and class value conversion circuits 81 and 82 (see FIG. 13) described later. Reference is then made in the operation of these components.
[0064]
Next, prediction coefficient calculation processing as a second stage of learning will be described in detail. FIG. 13 shows an example of a configuration of a prediction coefficient calculation processing system that calculates a prediction coefficient. A known signal (for example, a 525p signal) having the same signal format as the output image signal is supplied to the thinning filter 251 and the normal equation adding circuits 261 and 262. The thinning filter 251 generates an SD signal (for example, a 525i signal) having the number of pixels halved in the horizontal direction and the vertical direction and having a ¼ pixel number of the signal supplied as a whole.
[0065]
As such processing, for example, the pixels are thinned out by a vertical thinning filter so that the frequency in the vertical direction of the input image signal becomes 1/2, and further, the pixels by the horizontal thinning filter so that the frequency in the horizontal direction becomes 1/2. Processing such as thinning out is performed. By changing the characteristic of the thinning filter 51, the characteristic of learning can be changed, and thereby the image quality of the image obtained by conversion can be controlled. The SD signal generated by the thinning filter 251 is supplied to the tap selection circuits 201, 210, 211, and 220. By changing the characteristic of the thinning filter 251, the characteristic of learning can be changed, and thereby the image quality of the image obtained by conversion can be controlled.
[0066]
The tap selection circuit 201 selects a prediction tap and supplies the selected prediction tap to the normal equation addition circuits 261 and 262. On the other hand, the space class taps for y1 and y2 selected by the tap selection circuits 210 and 211 are supplied to the space class detection circuits 212 and 213, respectively. Further, the prediction tap selected by the tap selection circuit 220 is supplied to the motion class detection circuit 221.
[0067]
The space class detection circuits 212 and 213 detect space class values for y1 and y2, respectively, based on the supplied space class tap. The motion class detection circuit 221 detects a motion class value based on the supplied motion class tap. The output of the space class detection circuit 212 and the output of the motion class detection circuit 221 are supplied to the class synthesis circuit 230. Further, the output of the space class detection circuit 212 and the output of the motion class detection circuit 221 are supplied to the class synthesis circuit 231. The class synthesis circuits 230 and 231 synthesize class values for y1 and y2, respectively, and supply the class values to the class value conversion processing units 81 and 82.
[0068]
The class value conversion processing units 81 and 82 store the class value conversion table generated as described above. With reference to the class value conversion table, the class value conversion processing units 81 and 82 class the output of the class synthesis circuits 230 and 231. Perform value conversion. Then, the result of the class value conversion is supplied to the normal equation adding circuits 261 and 262, respectively.
[0069]
The normal equation addition circuits 261 and 262 calculate data used for calculation processing for solving a normal equation having a prediction coefficient as a solution. That is, the normal equation addition circuit 261 performs an addition process based on the input SD signal, the output of the tap selection circuit 201, and the output of the class value conversion circuit 81, thereby obtaining a prediction coefficient relating to the prediction generation of y1 as a solution. Calculate the data required to solve the normal equation. Further, the normal equation addition circuit 262 performs an addition process based on the input SD signal, the output of the tap selection circuit 201, and the output of the class value conversion circuit 82, thereby obtaining a prediction coefficient related to the prediction generation of y2. Calculate the data required to solve the normal equation.
[0070]
Data calculated by the normal equation addition circuits 261 and 262 is supplied to the prediction coefficient determination circuit 263. The prediction coefficient determination circuit 263 performs a calculation process for solving a normal equation based on the supplied data, and calculates a prediction coefficient related to prediction generation of the line data y1 and y2. The calculated prediction coefficient is supplied to the coefficient memory 84 and stored therein.
[0071]
Processing related to determination of the prediction coefficient, that is, processing performed by the normal equation addition circuits 261 and 262 and the prediction coefficient determination circuit 263 will be described in more detail below. First, the normal equation will be described. As described above, each pixel constituting the line data y1 and y2 can be sequentially predicted and generated by the equation (1) using n prediction taps.
[0072]
In equation (1), the prediction coefficient w before learning1, ..., wnIs an undetermined coefficient. Learning is performed on a plurality of signal data for each class. When the total number of signal data is expressed as m, the following equation (5) is set according to equation (1).
[0073]
yk= W1Xk1+ W2Xk2+ ... + wnXkn      (5)
(K = 1, 2,..., M)
If m> n, prediction coefficient w1, ..., wnIs not uniquely determined, the element e of the error vector ekIs defined by the following equation (6), and the prediction coefficient is determined so as to minimize the error vector e defined by equation (7). That is, the prediction coefficient is uniquely determined by a so-called least square method.
[0074]
ek= Yk-{W1Xk1+ W2Xk2+ ... + wnXkn} (6)
(K = 1, 2, ... m)
[0075]
[Equation 3]
Figure 0004300603
[0076]
E in equation (7)2As a practical calculation method for obtaining the prediction coefficient that minimizes2Prediction coefficient wi(i = 1, 2...) is partially differentiated (equation (8)), and each prediction coefficient w is set so that the partial differential value becomes 0 for each value of i.iShould be determined.
[0077]
[Expression 4]
Figure 0004300603
[0078]
From Equation (8), each prediction coefficient wiA specific procedure for determining the above will be described. X as in equations (9) and (10)ji, Yi(8) can be written in the form of the determinant of equation (11).
[0079]
[Equation 5]
Figure 0004300603
[0080]
[Formula 6]
Figure 0004300603
[0081]
[Expression 7]
Figure 0004300603
[0082]
Equation (11) is generally called a normal equation. Each of the normal equation addition circuits 261 and 262 is a known image having the same signal format as the class value supplied from the class value conversion circuits 81 and 82, the prediction tap supplied from the prediction tap selection circuit 201, and the input image signal. Using the signal, normal equation data, ie X according to equations (9), (10)ji, YiIs calculated. Then, the calculated normal equation data is supplied to the prediction coefficient determination unit 43. Based on the normal equation data, the prediction coefficient determination unit 43 performs a calculation process for solving the normal equation in accordance with a general matrix solution method such as a sweep-out method and the prediction coefficient wiIs calculated.
[0083]
The prediction coefficient generated as described above is calculated based on the data subjected to the class value conversion, whereas the provisional prediction coefficient described above with reference to FIG. 11 has not yet been subjected to the class value conversion. It is calculated based on data that has not been processed. Except for this point, both are calculated by the same calculation process as the solution of the normal equation. Therefore, the processing related to the determination of the temporary prediction coefficient, that is, the processing performed by the normal equation addition circuits 61 and 62 and the prediction coefficient determination circuit 63 in FIG. 11 is exactly the same.
[0084]
That is, in FIG. 11, the class value supplied from the class synthesis circuits 130 and 131, the prediction tap supplied from the prediction tap selection circuit 101, and a known input image signal (for example, a 525p signal) having the same signal format as the output image signal. ), Each of the normal equation adding circuits 61 and 62 is normal equation data, that is, X according to the equations (9) and (10).ji, YiIs calculated. Then, the calculated normal equation data is supplied to the provisional prediction coefficient determination unit 63. The temporary prediction coefficient determination unit 63 calculates a temporary prediction coefficient by performing a calculation process for solving the normal equation according to a general matrix solution method such as a sweep-out method based on the normal equation data.
[0085]
Thus, learning is performed by calculating a temporary prediction coefficient, generating a class value conversion table based on the temporary prediction coefficient, and calculating the prediction coefficient while performing class value conversion with reference to the class value conversion table. . As a result, the prediction coefficient memory 84 stores, for each class, a prediction coefficient that can be estimated to be statistically closest to the true value for estimating the pixel of interest of the progressive image. The prediction coefficient stored in the prediction coefficient memory 84 is loaded into the prediction coefficient memory 41 in the image information conversion processing system described above with reference to FIG.
[0086]
The image signal conversion processing system as shown in FIG. 9, the processing system related to the creation of the class value conversion table as shown in FIG. 11, and the processing system related to the determination of the prediction coefficient shown in FIG. The components may be provided in common, or the components may be used in common by appropriately providing a switch or the like. However, when these processing systems are provided separately, in order to ensure the effectiveness of learning, it is necessary to use constituent elements having the same function as those having the same operation characteristics. For example, the tap selection circuits 1, 51, and 201 need to have the same operation characteristics. When the components are used in common, the processing of the entire apparatus is complicated due to switching or the like, but it can contribute to reduction of the circuit scale, cost, etc. relating to the entire apparatus.
[0087]
The number of prediction taps output from the tap selection circuit 201 is larger than the number of prediction taps used in the image information conversion processing system. Therefore, the prediction coefficient determination unit 263 in FIG. 13 determines more coefficients for each class. Of the prediction coefficients obtained in this way, the number of prediction coefficients to be used is selected in descending order of the absolute value.
[0088]
Next, the line double speed process performed by the line order conversion circuit 6 will be described. As described above, the horizontal period of the 525p signal generated by the estimated prediction calculation circuits 4 and 5 is the same as the horizontal period of the 525i signal before the image information conversion process is performed. The line order conversion circuit 6 has a line memory and performs line double speed processing that doubles the horizontal period. FIG. 14 shows line double speed processing using an analog waveform. Line data y1 and y2 are simultaneously predicted and generated by the estimated prediction calculation circuits 4 and 5.
[0089]
The line data y1 includes lines a1, a2, a3,... In order, and the line data y2 includes lines b1, b2, b3,. In the line order conversion circuit 500, a line doubler (not shown) and a switching circuit (not shown) are provided. The line doubler compresses the data of each line by half in the time axis direction, and supplies the compressed data to the switching circuit. The switching circuit alternately selects and outputs the supplied data. As described above, line sequential outputs (a0, b0, a1, b1,...) Are formed.
[0090]
In the configuration described above, the output pixel value (line data L1) on the existing line and the output pixel value (line data L2) on the creation line are created in a parallel configuration. On the other hand, a memory may be added so that the line data y1 and y2 are generated in order by time division processing and the line double speed processing is performed if the operation speed of the circuit is high.
[0091]
Moreover, although an example of the image information conversion apparatus described above converts a 525i signal into a 525p signal, the number of 525 lines is an example and may be another number of lines. For example, an output image signal including a line including a number of pixels other than twice the number of pixels in the horizontal direction in the input SD signal may be predicted and generated. More specifically, a 1050i signal, that is, an interlaced image signal having 1050 scanning lines may be predicted and generated as the output image signal. FIG. 15 shows the pixel arrangement in the 525i signal and the 1050i signal by enlarging a part of the image of one field. A large dot indicates a pixel of a 525i signal, and a small dot indicates a pixel of a 1050i signal. Note that what is indicated by a solid line in FIG. 15 is a pixel arrangement in an odd field of a certain frame. The other field (even field) lines are spatially shifted by 0.5 lines as shown by dotted lines, and pixels of line data y1 'and y2' are formed.
[0092]
Note that the prediction calculation device according to the present invention is not limited to the image information conversion device using the class classification adaptive process, but is applied to other devices that generate a prediction value or an interpolation value by linear linear combination of a plurality of pixel data. can do.
[0093]
【The invention's effect】
In the present invention, by setting one of the coefficient data or the tap data to zero data, the arithmetic operation relating to the tap can be paused, and the change in the number of taps can be flexibly dealt with. In addition, tap data that has passed through the accumulator can be taken out without providing a bypass signal line and a delay circuit.
[0094]
The image information conversion apparatus using the prediction arithmetic apparatus according to the present invention has a plurality of types of attention points (specifically, y1 positioned on the scanning line of the input image signal, and different positional relationships with the scanning line of the input image signal, The number of classes determined for each of the input image signal scan lines (such as y2 positioned between the scan lines of the input image signal) is determined according to the positional relationship of the point of interest with respect to the scan line of the input image signal (for example, y2 is more difficult to predict and generate For example, a larger number of classes are allocated to the above and the like).
[0095]
For this reason, since the number of classes can be set according to the storage capacity of the memory asset in the apparatus, accurate processing can be performed even when the storage capacity of the memory asset is small. Moreover, it is effective to apply the present invention also when efficient processing is performed under a smaller number of classes.
[0096]
Further, depending on the difficulty of predictive generation (specifically, between y1 and y2) due to the difference in the positional relationship between the target point and the scanning line of the input image signal, it is appropriate for each target point. The appropriate number of classes. For this reason, even when the storage capacity of the memory asset is limited, it is possible to perform fine and efficient image information conversion processing.
[Brief description of the drawings]
FIG. 1 is a schematic diagram schematically showing a predictor to which the present invention can be applied.
FIG. 2 is a block diagram of an example of a predictor used for reference in the description of the present invention.
FIG. 3 is a block diagram of an embodiment of a predictor according to the present invention.
FIG. 4 is a block diagram of another embodiment of a predictor according to the present invention.
FIG. 5 is a schematic diagram illustrating an example of pixel arrangement in an image information conversion process performed by an example of an image information conversion apparatus to which the present invention is applied;
FIG. 6 is a block diagram showing an example of the configuration of an image information conversion processing system in an example of an image information conversion apparatus to which the present invention is applied.
FIG. 7 is a schematic diagram illustrating an example of a space class tap arrangement for line data y1 in an example of an image information conversion apparatus to which the present invention is applied.
FIG. 8 is a schematic diagram illustrating an example of a space class tap arrangement for line data y2 in an example of an image information conversion apparatus to which the present invention is applied;
FIG. 9 is a schematic diagram illustrating an example of motion class tap arrangement in an example of an image information conversion apparatus to which the present invention is applied;
FIG. 10 is a schematic diagram for explaining class integration in an example of an image information conversion apparatus to which the present invention is applied;
FIG. 11 is a block diagram showing an example of a configuration of a class value conversion table generation processing system in an example of an image information conversion apparatus to which the present invention is applied.
FIG. 12 is a schematic diagram for explaining processing by a thinning filter used in a class value conversion table generation processing system and a prediction coefficient calculation processing system;
FIG. 13 is a block diagram illustrating an example of a configuration of a prediction coefficient calculation processing system in an example of an image information conversion apparatus to which the present invention is applied.
FIG. 14 is a schematic diagram for explaining line double speed processing;
FIG. 15 is a schematic diagram illustrating an example of pixel arrangement in another example of the image information conversion apparatus to which the present invention is applied;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Prediction tap selection circuit, 4, 5 ... Prediction prediction calculation circuit, 32, 33 ... Class value conversion circuit, 41 ... Coefficient memory, 64 ... Proximity coefficient class integration, 65 ... Class value conversion table generation unit, 81, 82... Class value conversion circuit, 18, 19... Class value conversion circuit, 301.1~ 302n... Multiplier, 303 ... Adder, S1-Sn ... Selector, G1-Gn ... AND circuit

Claims (5)

入力画像信号から走査線構造の異なる複数の出力画像信号を形成するようにした画像情報変換装置において、
入力画像信号中に存在するラインと同一位置となる出力画像信号の第1のラインの画素を生成するために、上記生成される画素の周辺に位置する上記入力画像信号の第1の画素をm個選択する第1のデータ選択手段と、
上記m個の第1の画素のレベル分布を検出し、上記検出したレベル分布から第1のクラスを決定する第1のクラス決定手段と、
上記入力画像信号中に存在するライン間の位置となる上記出力画像信号の第2のラインの画素を生成するために、上記生成される画素の周辺に位置する上記入力画像信号の第2の画素をn個(n>m)選択する第2のデータ選択手段と、
上記n個の第2の画素のレベル分布を検出し、上記検出したレベル分布から第2のクラスを決定する第2のクラス決定手段と、
上記第1および第2のクラスのそれぞれに対応して予め決定され、上記出力画像信号を推定するための第1および第2の係数データを記憶し、上記記憶した第1および第2の係数データの内から、上記第1および第2のクラスのそれぞれに対応する第1および第2の係数データをそれぞれ出力するメモリ手段と、
上記入力画像信号から生成すべき画素の周辺となる第3の画素を予め設定された個数選択する第3のデータ選択手段と、
上記第1の係数データと上記第3の画素とを積和演算する線形推定式によって、上記第1のラインの画素を生成し、上記第1の係数データと上記積和演算される上記第3の画素がない場合、上記第1の係数データおよび上記第3の画素の少なくとも一方をゼロデータとする第1の信号生成手段と、
上記第2の係数データと上記第3の画素とを積和演算する線形推定式によって、上記第2のラインの画素を生成し、上記第2の係数データと上記積和演算される上記第3の画素がない場合、上記第2の係数データおよび上記第3の画素の少なくとも一方をゼロデータとする第2の信号生成手段と、
上記第1および第2の信号生成手段に対して接続され、変換画像を指定された走査線構造へ変換するための走査変換手段とを有し、
上記第1および第2の係数データは、上記第1および第2のクラス毎に予め学習によって求められて上記メモリ手段に記憶され、
上記学習は、
上記出力画像信号と同一の画素数を有する教師画像信号を間引き処理することによって、上記入力画像信号と同一の画素数を有する中間画像信号を形成し、上記中間画像信号の画素の近傍の上記教師画像信号の複数の画素の対応する位置の画素の値を重み付け加算することによって生徒画像信号を形成し、
上記積和演算によって、上記生徒画像信号から上記教師画像信号を生成した時に、生成された画素値と画素の真値との誤差を最小にするように、求める処理である
画像情報変換装置。
In an image information conversion apparatus configured to form a plurality of output image signals having different scanning line structures from an input image signal,
To generate the first pixel of the line of the input image signal an output image signal having the same position and a line that is present in the first pixel of the input image signal located around the pixel to be the generated m First data selection means for selecting the number;
First class determining means for detecting a level distribution of the m first pixels and determining a first class from the detected level distribution;
A second pixel of the input image signal located around the generated pixel in order to generate a pixel of the second line of the output image signal that is a position between lines present in the input image signal; Second data selection means for selecting n (n> m),
Second class determining means for detecting a level distribution of the n second pixels and determining a second class from the detected level distribution;
First and second coefficient data for presuming the output image signal, stored in advance corresponding to each of the first and second classes, and the stored first and second coefficient data Memory means for outputting first and second coefficient data respectively corresponding to each of the first and second classes,
Third data selection means for selecting a preset number of third pixels around the pixels to be generated from the input image signal;
The pixels of the first line are generated by a linear estimation expression that performs a product-sum operation on the first coefficient data and the third pixel, and the product-sum operation is performed on the third coefficient. If there is no pixel, the first signal generating means that uses at least one of the first coefficient data and the third pixel as zero data ;
The pixel of the second line is generated by a linear estimation formula that performs a product-sum operation on the second coefficient data and the third pixel, and the product-sum operation is performed on the second coefficient data and the third pixel. If there is no pixel, the second signal generating means that uses at least one of the second coefficient data and the third pixel as zero data,
Scanning conversion means connected to the first and second signal generation means for converting the converted image into a designated scanning line structure;
The first and second coefficient data are obtained by learning in advance for each of the first and second classes and stored in the memory means.
The above learning
By thinning out the teacher image signal having the same number of pixels as the output image signal, an intermediate image signal having the same number of pixels as the input image signal is formed, and the teacher near the pixels of the intermediate image signal is formed. A student image signal is formed by weighted addition of pixel values at corresponding positions of a plurality of pixels of the image signal,
An image information conversion apparatus, which is a process for obtaining an error between a generated pixel value and a true value of a pixel when the teacher image signal is generated from the student image signal by the product-sum operation.
さらに、上記出力画像信号の生成すべき画素の周辺に位置する入力画像信号の複数のフィールドから複数の第4の画素を選択する第4のデータ選択手段と、
上記複数の第4の画素のレベル分布を検出し、上記検出したレベル分布から動きクラスを決定する動きクラス決定手段と、
上記第1のクラスと上記動きクラスとを統合し、第1の統合クラスを生成する第1のクラス統合手段と、
上記第2のクラスと上記動きクラスとを統合し、第2の統合クラスを生成する第2のクラス統合手段とを有し、
上記メモリ手段から上記第1および第2の統合クラスのそれぞれに対応する第1および第2の係数データをそれぞれ出力する請求項1に記載の画像情報変換装置。
A fourth data selection means for selecting a plurality of fourth pixels from a plurality of fields of the input image signal located around the pixel to be generated of the output image signal;
Motion class determining means for detecting a level distribution of the plurality of fourth pixels and determining a motion class from the detected level distribution;
First class integration means for integrating the first class and the motion class to generate a first integrated class;
A second class integration unit that integrates the second class and the motion class and generates a second integrated class;
2. The image information conversion apparatus according to claim 1, wherein first and second coefficient data corresponding to each of the first and second integrated classes are output from the memory means.
請求項1において、
インターレス方式入力画像信号からプログレッシブ方式出力画像信号を形成するようにしたことを特徴とする画像情報変換装置。
In claim 1,
An image information conversion apparatus, wherein a progressive output image signal is formed from an interlace input image signal.
請求項1において、
さらに、水平方向に上記入力画像信号の2倍の画素数の上記出力画像信号を生成することを特徴とする画像情報変換装置。
In claim 1,
Furthermore, the image information conversion apparatus characterized by generating the output image signal having the number of pixels twice as large as the input image signal in the horizontal direction.
入力画像信号から走査線構造の異なる複数の出力画像信号を形成するようにした画像情報変換方法において、
入力画像信号中に存在するラインと同一位置となる出力画像信号の第1のラインの画素を生成するために、上記生成される画素の周辺に位置する上記入力画像信号の第1の画素をm個選択する第1のデータ選択ステップと、
上記m個の第1の画素のレベル分布を検出し、上記検出したレベル分布から第1のクラスを決定する第1のクラス決定ステップと、
上記入力画像信号中に存在するライン間の位置となる上記出力画像信号の第2のラインの画素を生成するために、上記生成される画素の周辺に位置する上記入力画像信号の第2の画素をn個(n>m)選択する第2のデータ選択ステップと、
上記n個の第2の画素のレベル分布を検出し、上記検出したレベル分布から第2のクラスを決定する第2のクラス決定ステップと、
上記第1および第2のクラスのそれぞれに対応して予め決定され、上記出力画像信号を推定するための第1および第2の係数データをメモリ手段に記憶し、上記記憶した第1および第2の係数データの内から、上記第1および第2のクラスのそれぞれに対応する第1および第2の係数データをそれぞれ出力するステップと、
上記入力画像信号から生成すべき画素の周辺となる第3の画素を予め設定された個数選択する第3のデータ選択ステップと、
上記第1の係数データと上記第3の画素とを積和演算する線形推定式によって、上記第1のラインの画素を生成し、上記第1の係数データと上記積和演算される上記第3の画素がない場合、上記第1の係数データおよび上記第3の画素の少なくとも一方をゼロデータとする第1の信号生成ステップと、
上記第2の係数データと上記第3の画素とを積和演算する線形推定式によって、上記第2のラインの画素を生成し、上記第2の係数データと上記積和演算される上記第3の画素がない場合、上記第2の係数データおよび上記第3の画素の少なくとも一方をゼロデータとする第2の信号生成ステップと、
上記第1および第2の信号生成ステップに対して接続され、変換画像を指定された走査線構造へ変換するための走査変換ステップとを有し、
上記第1および第2の係数データは、上記第1および第2のクラス毎に予め学習によって求められてメモリ手段に記憶され、
上記学習は、
上記出力画像信号と同一の画素数を有する教師画像信号を間引き処理することによって、上記入力画像信号と同一の画素数を有する中間画像信号を形成し、上記中間画像信号の画素の近傍の上記教師画像信号の複数の画素の対応する位置の画素の値を重み付け加算することによって生徒画像信号を形成し、
上記積和演算によって、上記生徒画像信号から上記教師画像信号を生成した時に、生成された画素値と画素の真値との誤差を最小にするように、求める処理である
画像情報変換方法。
In an image information conversion method for forming a plurality of output image signals having different scanning line structures from an input image signal,
To generate the first pixel of the line of the input image signal an output image signal having the same position and a line that is present in the first pixel of the input image signal located around the pixel to be the generated m A first data selection step for selecting the number;
A first class determining step of detecting a level distribution of the m first pixels and determining a first class from the detected level distribution;
A second pixel of the input image signal located around the generated pixel in order to generate a pixel of the second line of the output image signal that is a position between lines present in the input image signal; A second data selection step of selecting n (n> m),
A second class determining step of detecting a level distribution of the n second pixels and determining a second class from the detected level distribution;
First and second coefficient data, which are predetermined for each of the first and second classes and for estimating the output image signal, are stored in the memory means, and the stored first and second classes are stored. Outputting first and second coefficient data respectively corresponding to the first and second classes from among the coefficient data of
A third data selection step of selecting a preset number of third pixels around the pixels to be generated from the input image signal;
The pixels of the first line are generated by a linear estimation expression that performs a product-sum operation on the first coefficient data and the third pixel, and the product-sum operation is performed on the third coefficient. When there is no pixel, a first signal generation step in which at least one of the first coefficient data and the third pixel is zero data ;
The pixel of the second line is generated by a linear estimation formula that performs a product-sum operation on the second coefficient data and the third pixel, and the product-sum operation is performed on the second coefficient data and the third pixel. When there is no pixel, a second signal generation step in which at least one of the second coefficient data and the third pixel is zero data;
A scan conversion step connected to the first and second signal generation steps for converting the converted image into a specified scan line structure;
The first and second coefficient data are obtained by learning in advance for each of the first and second classes and stored in the memory means,
The above learning
By thinning out the teacher image signal having the same number of pixels as the output image signal, an intermediate image signal having the same number of pixels as the input image signal is formed, and the teacher near the pixels of the intermediate image signal is formed. A student image signal is formed by weighted addition of pixel values at corresponding positions of a plurality of pixels of the image signal,
An image information conversion method, which is a process for obtaining an error between a generated pixel value and a true value of a pixel when the teacher image signal is generated from the student image signal by the product-sum operation.
JP25158198A 1998-09-04 1998-09-04 Image information conversion apparatus and method Expired - Fee Related JP4300603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25158198A JP4300603B2 (en) 1998-09-04 1998-09-04 Image information conversion apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25158198A JP4300603B2 (en) 1998-09-04 1998-09-04 Image information conversion apparatus and method

Publications (3)

Publication Number Publication Date
JP2000083225A JP2000083225A (en) 2000-03-21
JP2000083225A5 JP2000083225A5 (en) 2005-10-27
JP4300603B2 true JP4300603B2 (en) 2009-07-22

Family

ID=17224953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25158198A Expired - Fee Related JP4300603B2 (en) 1998-09-04 1998-09-04 Image information conversion apparatus and method

Country Status (1)

Country Link
JP (1) JP4300603B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4692801B2 (en) * 2001-05-31 2011-06-01 ソニー株式会社 Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient information generating apparatus and generating method used therefor
JP4691831B2 (en) * 2001-05-31 2011-06-01 ソニー株式会社 Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, information acquiring apparatus and acquiring method used therefor, and recording medium
JP4691835B2 (en) * 2001-06-12 2011-06-01 ソニー株式会社 Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, coefficient data acquiring apparatus and acquiring method used therefor, and information recording medium
JP4649786B2 (en) * 2001-07-05 2011-03-16 ソニー株式会社 Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient seed data generating apparatus and generating method used therefor
JP4691849B2 (en) * 2001-08-03 2011-06-01 ソニー株式会社 Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and information acquiring apparatus and acquiring method used therefor
JP4055655B2 (en) 2003-05-29 2008-03-05 ソニー株式会社 Coefficient generation apparatus and generation method, class configuration generation apparatus and generation method, information signal processing apparatus, and program for executing each method
US10645384B2 (en) 2016-05-02 2020-05-05 Sony Corporation Encoding apparatus and encoding method as well as decoding apparatus and decoding method

Also Published As

Publication number Publication date
JP2000083225A (en) 2000-03-21

Similar Documents

Publication Publication Date Title
JP4158232B2 (en) Image information conversion device and image display device
JP4147632B2 (en) Image information conversion apparatus, image information conversion method, and television receiver
US6057885A (en) Picture information converting apparatus and method thereof and sum-of-product calculating circuit and method thereof
KR20020074200A (en) Information signal processing device, information signal progessing method, image signal processing device and image display device using it, coefficient type data creating device used therein and creating method, coefficient data creating device and creating method, and information providing medium
JP4300603B2 (en) Image information conversion apparatus and method
JP3321915B2 (en) Image signal converter
JP4131048B2 (en) Image information conversion apparatus, conversion method, and image display apparatus
JP4193233B2 (en) Motion determination device, method and image information conversion device
JP3723995B2 (en) Image information conversion apparatus and method
JP4140091B2 (en) Image information conversion apparatus and image information conversion method
JP4099555B2 (en) Image information converter
JP4470324B2 (en) Image signal conversion apparatus and method
JP4123587B2 (en) Image information processing apparatus and method
JP4193236B2 (en) Image information conversion apparatus, image information conversion method, and television receiver
JP3653287B2 (en) Image information conversion apparatus and image information conversion method
JP3800638B2 (en) Image information conversion apparatus and method
JP4310847B2 (en) Image information conversion apparatus and conversion method
JP4042121B2 (en) Image information processing apparatus and image information processing method
JP2000050213A (en) Image information converter, conversion method and image display device
JP2000092454A (en) Device and method for image information conversion
JP4001143B2 (en) Coefficient generation apparatus and method
JP2006020347A (en) Apparatus and method for generating coefficient
JP2000244879A (en) Image information conversion device and method
JPH0799635A (en) Image information converter
JP2000083223A (en) Image information converter and image information converting method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090413

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140501

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees