JP4447671B2 - Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor - Google Patents

Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor Download PDF

Info

Publication number
JP4447671B2
JP4447671B2 JP14280397A JP14280397A JP4447671B2 JP 4447671 B2 JP4447671 B2 JP 4447671B2 JP 14280397 A JP14280397 A JP 14280397A JP 14280397 A JP14280397 A JP 14280397A JP 4447671 B2 JP4447671 B2 JP 4447671B2
Authority
JP
Japan
Prior art keywords
signal
pixel
neural network
image signal
coupling coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14280397A
Other languages
Japanese (ja)
Other versions
JPH10336598A (en
Inventor
哲二郎 近藤
泰史 野出
丈晴 西片
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP14280397A priority Critical patent/JP4447671B2/en
Publication of JPH10336598A publication Critical patent/JPH10336598A/en
Application granted granted Critical
Publication of JP4447671B2 publication Critical patent/JP4447671B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、例えばNTSC方式のビデオ信号をハイビジョンのビデオ信号に変換する画像信号の変換装置および変換方法、並びにそれに使用されるニューラルネットワークの結合係数の生成装置および生成方法に関する。詳しくは、画素信号を予測する際に、ニューラルネットワークを使用することによって、非線形な予測を行うことができ、常に最適な画素信号の予測を行い得るようにした画像信号変換装置に係るものである。
【0002】
【従来の技術】
近年、オーディオ・ビジュアル指向の高まりから、より高解像度の画像を得ることができるようなテレビ受信機の開発が望まれ、この要望に応えて、いわゆるハイビジョンが開発された。ハイビジョンの走査線数は、NTSC方式の走査線数が525本であるのに対して、2倍以上の1125本である。また、ハイビジョンの縦横比は、NTSC方式の縦横比が3:4であるのに対して、9:16となっている。このため、ハイビジョンでは、NTSC方式に比べて、高解像度で臨場感のある画像を表示することができる。
【0003】
ハイビジョンはこのように優れた特性を有するが、NTSC方式のビデオ信号をそのまま供給しても、ハイビジョン方式による画像表示を行うことはできない。これは、上述のようにNTSC方式とハイビジョンとでは規格が異なるからである。
【0004】
そこで、NTSC方式のビデオ信号に応じた画像をハイビジョン方式で表示するため、本出願人は、先に、NTSC方式のビデオ信号をハイビジョンのビデオ信号に変換するための変換装置を提案した(特願平6−205934号参照)。この変換装置では、ハイビジョンのビデオ信号を構成する各画素の信号を、NTSC方式の所定領域の画素の信号と係数データ(予測係数値)とから線形1次式を使用して予測するようになっている。
【0005】
【発明が解決しようとする課題】
上述した変換装置においては、ハイビジョンのビデオ信号を構成する各画素の信号を線形1次式によって予測するものであり、最適な画素信号を求めることができない場合がある。
【0006】
そこで、この発明では、常に最適な画素信号の予測を行い得る画像信号変換装置等を提供することを目的とする。
【0007】
【課題を解決するための手段】
この発明に係る画像信号変換装置は、第1の画像信号を、この第1の画像信号 と同じあるいはそれより多い画素数の第2の画像信号に変換するようにした画像信号変換装置において、上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第1の領域の画素の信号を切り出す第1の画素切り出し手段と、上記第1の画素切り出し手段により切り出された上記第1の領域の画素の信号のレベル分布パターンを検出し、このパターンに基づいて予測しようとする上記第2の画像信号を構成する所定画素の信号が属するクラスを決定してクラス情報を出力するクラス決定手段と、少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークにより、上記第2の画像信号を構成する所定画素の信号を予測するニューラルネット予測手段と、上記クラス情報で示される各クラスに対応した上記ニューラルネット予測手段の上記結合係数を記憶しておく結合係数記憶手段と、上記クラス決定手段より出力される上記クラス情報に対応して上記結合係数記憶手段より結合係数を読み出す結合係数読み出し手段と、上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第2の領域の画素の信号を切り出す第2の画素切り出し手段とを具備し、上記ニューラルネット予測手段は、上記結合係数記憶手段より読み出された結合係数を上記ニューラルネットワークの結合係数とし、上記第2の画素切り出し手段により切り出された上記第2の領域の画素の信号を上記ニューラルネットワークの上記入力層のユニットへの入力値として、上記ニューラルネットワークの演算を行なって得られた上記ニューラルネットワークの上記出力層のユニットの出力値を、画素信号値を表現するためのビット数に応じた画素信号値に変換し、上記第2の画像信号を構成する所定画素信号の予測値として出力するものである。
【0008】
ここで、第1および第2の画素切り出し手段が共通であってもよく、この場合第1および第2の領域は同じくなる。また、ニューラルネット予測手段は、例えばバックプロパゲーションネットワークを使用して構成される。さらに、ニューラルネット予測手段は、その出力部に、ニューラルネットワークの出力層のユニットより得られる結合の度合いを示す値を画素信号値に変換する正規化手段を有していてもよい。
【0009】
また、この発明に係る画像信号変換方法は、第1の画像信号を、この第1の画像信号 と同じあるいはそれより多い画素数の第2の画像信号に変換するようにした画像信号変換方法において、上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第1の領域の画素の信号を切り出す第1のステップと、上記第1のステップで切り出された上記第1の領域の画素の信号のレベル分布パターンを検出し、このパターンに基づいて予測しようとする上記第2の画像信号を構成する所定画素の信号が属するクラスを決定してクラス情報を出力する第2のステップと、少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークにより、上記第2の画像信号を構成する所定画素の信号を予測する第3のステップと、上記第2のステップで出力される上記クラス情報で示される各クラスに対応した上記結合係数を記憶手段により読み出す第4のステップと、上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第2の領域の画素の信号を切り出す第5のステップと、を具備し、上記第3のステップでは、上記記憶手段より読み出された結合係数を上記ニューラルネットワークの結合係数とし、上記第2の画素切り出し手段により切り出された上記第2の領域の画素の信号を上記ニューラルネットワークの上記入力層のユニットへの入力値として、上記ニューラルネットワークの演算を行なって得られた上記ニューラルネットワークの上記出力層のユニットの出力値を、画素信号値を表現するためのビット数に応じた画素信号値に変換し、上記第2の画像信号を構成する所定画素信号の予測値として出力するものである。
【0010】
予測しようとする第2の画像信号を構成する所定画素に対応して第1の画像信号から第1の領域の画素の信号が切り出され、そのレベル検出パターンに基づいて上述した第2の画像信号を構成する所定画素の信号が属するクラスが決定されてクラス情報が出力される。このクラス情報に対応して結合係数記憶手段より結合係数が読み出される。また、上述した第2の画像信号を構成する所定画素に対応して第1の画像信号から第2の領域の画素の信号が切り出される。そして、この第2の領域の画素の信号と結合係数記憶手段より読み出された結合係数とから、ニューラルネットワークを使用して、上述した第2の画像信号を構成する所定画素の信号が求められる。このように、画素信号をニューラルネットワークを使用して予測することで、非線形な予測が行われこととなり、線形1次式によって予測するものと比べて、常に最適な画素信号の予測を行うことが可能となる。
【0011】
また、この発明に係る結合係数生成装置は、第1の画像信号を、この第1の画像信号より多い画素数の第2の画像信号に変換する際に使用されるニューラルネットワークの結合係数を生成する装置において、上記第2の画像信号に対応する教師信号に対してその画素数を減らす処理して上記第1の画像信号に対応する入力信号を得る信号処理手段と、上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第1の領域の画素の信号を順次切り出す第1の画素切り出し手段と、上記第1の画素切り出し手段により順次切り出された上記第1の領域の画素の信号のレベル分布のパターンを検出し、このパターンに基づいて上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラスを決定してクラス情報を出力するクラス決定手段と、上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第2の領域の画素の信号を順次切り出す第2の画素切り出し手段と、少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークの上記入力層のユニットへの入力値として上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素値を入力し、上記教師信号を構成する上記複数の画素値を上記出力層のユニットの出力値に基づく値の真値とする学習によって、上記クラス決定手段より出力される上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラス毎に上記ニューラルネットワークの上記結合係数を得るニューラルネット学習手段とを備えるものである。
【0012】
ここで、第1および第2の画素切り出し手段は共通でもよく、この場合第1および第2の領域は同じくなる。また、例えば、ニューラルネット学習手段は、バックプロパゲーションネットワークを使用して構成される。
【0013】
また、ニューラルネット学習手段は、例えば入力層、隠れ層、出力層の各ユニットからなり、上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素の信号が上記入力層に供給されるニューラルネットワーク部と、上記ニューラルネットワーク部の出力層のユニットからの出力値を画素信号値を表現するためのビット数に応じた画素信号値に変換する正規化手段と、上記正規化手段より出力される画素信号値と、上記ニュラルネットワーク部の上記入力層に供給される上記第2の領域の画素の信号に対応した上記教師信号を構成する所定画素の信号とを比較して誤差を検出する誤差検出手段と、上記クラス情報で示される各クラス毎に、上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素の信号とそれに対応した上記教師信号を構成する所定画素の信号との組み合わせでなる学習データに対し、上記誤差検出手段で検出される誤差が充分小さな一定範囲内に入る方向に上記ニューラルネットワーク部の出力層および隠れ層のユニットにおける結合係数を変更する結合係数変更手段と、上記誤差が上記一定範囲内に入ったときの上記ニューラルネットワーク部の出力層および隠れ層のユニットにおける結合係数を学習結果とする結合係数決定手段とを有している。
【0014】
また、この発明に係る結合係数生成方法は、第1の画像信号を、この第1の画像信号より多い画素数の第2の画像信号に変換する際に使用されるニューラルネットワークの結合係数を生成する方法において、上記第2の画像信号に対応する教師信号に対してその画素数を減らす処理して上記第1の画像信号に対応する入力信号を得る第1のステップと、上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第1の領域の画素の信号を順次切り出す第2のステップと、上記第2のステップで順次切り出された上記第1の領域の画素の信号のレベル分布のパターンを検出し、このパターンに基づいて上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラスを決定してクラス情報を出力する第3のステップと、上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第2の領域の画素の信号を順次切り出す第4のステップと、少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークの上記入力層のユニットへの入力値として上記第4のステップで順次切り出された上記第2の領域の画素値を入力し、上記教師信号を構成する上記複数の画素値を上記出力層のユニットの出力値に基づく値の真値とする学習によって、上記第3のステップで出力される上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラス毎に上記ニューラルネットワークの上記結合係数を得る第5のステップとを備えるものである。
【0015】
第2の画像信号、例えばハイビジョンのビデオ信号に対応する教師信号が処理されて第1の画像信号、例えばNTSC方式のビデオ信号に対応する入力信号が得られる。教師信号を構成する複数の画素の信号にそれぞれ対応して、入力信号より第1の領域の画素の信号が順次切り出され、その第1の領域の画素の信号のレベル分布パターンに基づいて教師信号を構成する複数の画素の信号がそれぞれ属するクラスが決定されてクラス情報が出力される。
【0016】
また、教師信号を構成する複数の画素の信号にそれぞれ対応して、入力信号より第2の領域の画素の信号が順次切り出される。そして、この第2の領域の画素の信号と、教師信号を構成する複数の画素の信号がそれぞれ属するクラスを示すクラス情報と、教師信号を構成する複数の画素の信号とから、ニューラルネットワークによる学習によって、各クラス毎に結合係数が求められる。
【0017】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は実施の形態としての画像信号変換装置100の構成を示している。この画像信号変換装置100は、NTSC方式のビデオ信号を構成する画素データ(以下、「SD画素データ」という)からハイビジョンのビデオ信号を構成する画素データ(以下、「HD画素データ」という)を得るためのものである。
【0018】
この画像信号変換装置100は、SD画素データが供給される入力端子101と、この入力端子101に供給されるSD画素データより、予測しようとする所定のHD画素データに対応した領域のSD画素データを切り出す画素切り出し手段としての領域切り出し回路102と、この領域切り出し回路102で切り出されたSD画素データに対してADRC(Adaptive Dynamic Range Coding)処理を適用して、主に空間内の波形を表すクラス(空間クラス)を決定してクラス情報を出力するADRC回路103とを有している。
【0019】
図4および図5は、SD画素とHD画素の位置関係を示している。領域切り出し回路102では、例えば図6に示すように、HD画素データyを予測しようとする場合、これらHD画素データyの近傍に位置するSD画素データk1〜k5が切り出される。
【0020】
ADRC回路103では、領域切り出し回路102で切り出されたSD画素データのレベル分布のパターン化を目的として、各SD画素データを、例えば8ビットデータから2ビットデータに圧縮するような演算が行われる。そして、ADRC回路103からは、各SD画素データに対応した圧縮データ(再量子化コード)qiが空間クラスのクラス情報として出力される。
【0021】
本来ADRCは、VTR(Video Tape Recorder)向け高性能符号化用に開発された適応的再量子化法であるが、信号レベルの局所的なパターンを短い語長で効率的に表現できるので、本実施の形態では、領域切り出し回路102で切り出されたSD画素データのレベル分布のパターン化に使用している。
【0022】
ADRC回路103では、領域内のSD画素データの最大値をMAX、その最小値をMIN、領域内のダイナミックレンジをDR(=MAX−MIN+1)、再量子化ビット数をpとすると、領域内の各SD画素データkiに対して、(1)式の演算により再量子化コードqiが得られる。ただし、(1)式において、〔 〕は切り捨て処理を意味している。領域切り出し回路102で、Na個のSD画素データが切り出されるとき、i=1〜Naである。
qi=〔(ki−MIN+0.5)・2p /DR〕 ・・・(1)
【0023】
また、画像信号変換装置100は、入力端子101に供給されるSD画素データより、予測しようとする所定のHD画素データに対応した領域のSD画素データを切り出す領域切り出し回路104と、この領域切り出し回路104で切り出されたSD画素データより、主に動きの程度を表すためのクラス(動きクラス)を決定してクラス情報を出力する動きクラス決定回路105とを有している。
【0024】
領域切り出し回路104では、例えば図7に示すように、HD画素データyを予測しようとする場合、これらHD画素データyの近傍に位置する10個のSD画素データm1〜m5,n1〜n5が切り出される。
【0025】
動きクラス決定回路105では、領域切り出し回路104で切り出されたSD画素データmi,niからフレーム間差分が算出され、さらにその差分の絶対値の平均値に対してしきい値処理が行われて動きの指標である動きクラスのクラス情報MVが出力される。
【0026】
すなわち、動きクラス決定回路105では、(2)式によって、差分の絶対値の平均値AVが算出される。領域切り出し回路104で、例えば上述したように10個のSD画素データm1〜m5,n1〜n5が切り出されるとき、(2)式におけるNbは5である。
【0027】
【数1】

Figure 0004447671
【0028】
そして、動きクラス決定回路105では、上述したように算出された平均値AVが1個または複数個のしきい値と比較されてクラス情報MVが得られる。例えば、3個のしきい値th1,th2,th3(th1<th2<th3)が用意され、4つの動きクラスを決定する場合、AV≦th1のときはMV=0、th1<AV≦th2のときはMV=1、th2<AV≦th3のときはMV=2、th3<AVのときはMV=3とされる。
【0029】
また、画像信号変換装置100は、ADRC回路103より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス決定回路105より出力される動きクラスの情報MVに基づき、予測しようとするHD画素データが属するクラスを示すクラスコードCLを得るためのクラスコード発生回路106を有している。クラスコード発生回路106では、(3)式によって、クラスコードCLの演算が行われる。なお、(3)式において、Naは領域切り出し回路102で切り出されるSD画素データの個数、pはADRC回路103における再量子化ビット数を示している。
【0030】
【数2】
Figure 0004447671
【0031】
また、画像信号変換装置100は、後述ニューラルネットワーク予測回路で使用されるニューラルネットワークの結合係数が各クラス毎に記憶されている記憶手段としてのROMテーブル107を有している。ROMテーブル107にはクラスコード発生回路106より出力されるクラスコードCLが読み出しアドレス情報として供給され、このROMテーブル107からはクラスコードCLに対応した結合係数Wiが読み出される。
【0032】
また、画像信号変換装置100は、入力端子101に供給されるSD画素データより、予測しようとする所定のHD画素データに対応した領域のSD画素データを切り出す領域切り出し回路108と、この領域切り出し回路108で切り出されたSD画素データと、上述したROMテーブル107より読み出される結合係数Wiとから、ニューラルネットワークを使用して、予測しようとするHD画素データを求めるニューラルネット予測回路109と、このニューラルネット予測回路109で求められたHD画素データを導出する出力端子110とを有している。
【0033】
領域切り出し回路108では、例えば図8に示すように、HD画素データyを予測しようとする場合、このHD画素データyの近傍に位置する25個のSD画素データx1〜x25が切り出される。ここで、領域切り出し回路108は、上記した領域切り出し回路102と共通であってもよい。
【0034】
図2は、ニューラルネット予測回路109の要部構成例を示しており、バックプロバゲーションニューラルネットワークを使用した例である。このニューラルネット予測回路109は、ニューラルネットワーク部121と、このニューラルネットワーク部121の出力層のユニットより得られる結合の度合いを示す値を画素信号値に変換して出力する正規化部122とを有して構成されている。
【0035】
ニューラルネットワーク部121は、3階層で構成され、入力層にn個のユニット、隠れ層に4個のユニット、出力層に1個のユニットが配されている。この場合、入力層の各ユニットには、上述した領域切り出し回路108で切り出されるn個のSD画素データx1〜xnがそれぞれ供給される。そして、この入力層の各ユニットは、それぞれ供給されたSD画素データx1〜xnを何等変更せずに、隠れ層の各ユニットに分配する。
【0036】
また、隠れ層の各ユニットは、入力層の各ユニットと結合係数で結合されている。そして、隠れ層の各ユニットより出力される結合の度合いを示す値は出力層のユニットに供給される。さらに、出力層のユニットは、隠れ層の各ユニットと結合係数で結合されている。そして、出力層のユニットより出力される結合の度合いを示す値はニューラルネットワーク部121の出力値として正規化部122に供給される。
【0037】
図3は、隠れ層および出力層のユニットの構成例を示している。前層のユニットの個数がm個であるとして、前層の各ユニットの出力値をA1〜Amとし、また前層の各ユニットとの結合における結合係数をW1〜Wmとするとき、ユニットの出力値Uは、(4)式で表される。そして、この(4)式において、f( )は非線形要素としての伝達関数であり、例えば(5)式のような関数がよく使用される。この(5)式で、aは適当な実数である。
【0038】
【数3】
Figure 0004447671
【0039】
なお、上述したようにROMテーブル107よりクラスコードCLに対応して読み出される結合係数Wiが、隠れ層および出力層のユニットにおける結合係数W1〜Wmとして使用されることになる。
【0040】
また、ニューラルネットワーク部121の出力層のユニットより得られる結合の度合いを示す値は0より大きく、かつ1より小さな値となる。そのため、正規化部122では、例えば画素信号値が8ビットで表される場合には、結合の度合いを示す値に「256」をかけ算して、予測対象画素値としてのHD画素データyを得るようにされる。
【0041】
図2に示すニューラルネット予測回路109は一例であって、これに限定されるものではない。例えば、ニューラルネットワーク部121を、隠れ層を増やすことで4層以上の構成とすることもできる。また、隠れ層および出力層のユニットの個数も任意に設定できる。
【0042】
図1に示す画像信号変換装置100の動作を説明する。予測しようとする所定のHD画素データyに対応して、入力端子101に供給されるSD画素データより領域切り出し回路102で所定領域のSD画素データkiが切り出され、この切り出された各SD画素データkiに対してADRC回路103でADRC処理が施されて空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiが得られる。
【0043】
また、上述した予測しようとするHD画素データyに対応して、入力端子101に供給されるSD画素データより領域切り出し回路104で所定領域のSD画素データmi,niが切り出され、この切り出された各SD画素データmi,niより動きクラス決定回路105で動きクラス(主に動きの程度を表すためのクラス分類)を示すクラス情報MVが得られる。
【0044】
この動きクラス情報MVと上述したADRC回路103で得られる再量子化コードqiとから、クラスコード発生回路106で予測しようとするHD画素データyが属するクラスを示すクラス情報としてのクラスコードCLが得られる。そして、このクラスコードCLがROMテーブル107に読み出しアドレス情報として供給され、このROMテーブル107より予測しようとするHD画素データyが属するクラスに対応したニューラルネットワークの結合係数Wiが読み出される。
【0045】
また、上述した予測しようとするHD画素データyに対応して、入力端子101に供給されるSD画素データより領域切り出し回路108で所定領域のSD画素データxiが切り出される。そして、ニューラルネット予測回路109では、その切り出されたSD画素データxiと、上述したようにROMテーブル107より読み出された結合係数Wiとから、ニューラルネットワークを使用して、予測しようとするHD画素データyが求められる。そして、このニューラルネット予測回路109より順次出力されるHD画素データyが出力端子110に導出される。
【0046】
図1に示す画像信号変換装置100においては、HD画素データyをニューラルネットワークを使用して予測するものであり、非線形な予測(線形な予測を含む)が行われるため、従来の線形1次式によって予測するものと比べて、常に最適なHD画素データyの予測を行うことが可能となる。
【0047】
ところで、画像信号変換装置100のROMテーブル107には、上述したように各クラスに対応したニューラルネットワークの結合係数が記憶されている。この係数データは、予め学習によって生成されたものである。図9は、学習によって、各クラス毎にニューラルネットワークの結合係数を生成する結合係数生成装置200の構成例を示している。
【0048】
この結合係数生成装置200は、教師信号としてのハイビジョンのビデオ信号を構成するHD画素データが供給される入力端子201と、このHD画素データに対して水平および垂直の間引きフィルタ処理を行って、入力信号としてのNTSC方式のビデオ信号を構成するSD画素データを得る信号処理部202とを有している。信号処理部202では、HD画素データに対して、垂直間引きフィルタによってフィールド内の垂直方向のライン数が1/2となるように間引き処理されると共に、さらに水平間引きフィルタによって水平方向の画素数が1/2となるように間引き処理される。したがって、SD画素とHD画素の位置関係は、図4および図5に示すようになる。
【0049】
また、結合係数生成装置200は、入力端子201に供給されるHD画素データより得られる予測対象画素値としての複数個のHD画素データにそれぞれ対応して、信号処理部202より出力されるSD画素データより所定領域のSD画素データを順次切り出す領域切り出し回路203と、この領域切り出し回路203で順次切り出されたSD画素データに対してADRC処理を適用して、主に空間内の波形を表すクラス(空間クラス)を決定してクラス情報を出力するADRC回路204とを有している。
【0050】
領域切り出し回路203は、上述した画像信号変換装置100の領域切り出し回路102と同様に構成される。この領域切り出し回路203からは、例えば図6に示すように、予測対象画素値としてのHD画素データyに対応して、このHD画素データyの近傍に位置するSD画素データk1〜k5が切り出される。また、ADRC回路204も、上述した画像信号変換装置100のADRC回路103と同様に構成される。このADRC回路204からは、予測対象値としての各HD画素データにそれぞれ対応して切り出された所定領域のSD画素データ毎に再量子化コードqiが空間クラスを示すクラス情報として出力される。
【0051】
また、結合係数生成装置200は、上述した予測対象画素値としての各HD画素データにそれぞれ対応して、信号処理部202より出力されるSD画素データより所定領域のSD画素データを順次切り出す領域切り出し回路205と、この領域切り出し回路205で切り出されたSD画素データより、主に動きの程度を表すためのクラス(動きクラス)を決定してクラス情報を出力する動きクラス決定回路206とを有している。
【0052】
領域切り出し回路205は、上述した画像信号変換装置100の領域切り出し回路104と同様に構成される。この領域切り出し回路205からは、例えば図7に示すように、予測対象画素値としてのHD画素データyに対応して、このHD画素データyの近傍に位置する10個のSD画素データm1〜m5,n1〜n5が切り出される。また、動きクラス決定回路206も、上述した画像信号変換装置100の動きクラス決定回路105と同様に構成される。この動きクラス決定回路206からは、予測対象画素値としての各HD画素データにそれぞれ対応して切り出された所定領域のSD画素データ毎に動きの指標である動きクラスのクラス情報MVが出力される。
【0053】
また、結合係数生成装置200は、ADRC回路204より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス決定回路206より出力される動きクラスのクラス情報MVに基づいてクラスコードCLを得るためのクラスコード発生回路207を有している。このクラスコード発生回路207は、上述した画像信号変換装置100のクラスコード発生回路106と同様に構成される。このクラスコード発生回路207からは、予測対象画素値としての各HD画素データにそれぞれ対応して、そのHD画素データが属するクラスを示すクラスコードCLが出力される。
【0054】
また、結合係数生成装置200は、上述した予測対象画素値としての各HD画素データにそれぞれ対応して、信号処理部202より出力されるSD画素データより所定領域のSD画素データを順次切り出す領域切り出し回路208を有している。領域切り出し回路208は、上述した画像信号変換装置100の領域切り出し回路108と同様に構成される。この領域切り出し回路208からは、例えば図8に示すように、予測対象画素値としてのHD画素データyに対応して、このHD画素データyの近傍に位置する25個のSD画素データx1〜x25が切り出される。
【0055】
また、結合係数生成装置200は、入力端子201に供給されるHD画素データより得られる予測対象画素値としての各HD画素データyと、予測対象画素値としての各HD画素データyにそれぞれ対応して領域切り出し回路208で順次切り出されたSD画素データxiと、予測対象画素値としての各HD画素データyにそれぞれ対応してクラスコード発生回路207より出力されるクラスコードCLとから、ニューラルネットワークによる学習によって、各クラス毎に結合係数を得るニューラルネット学習回路209と、このニューラルネット学習回路209で得られた各クラス毎の結合係数Wiを記憶するためのメモリ210とを有している。
【0056】
図10は、ニューラルネット学習回路209の要部構成例を示しており、図2示すニューラルネット予測回路109と同様に、バックプロバゲーションニューラルネットワークを使用した例である。このニューラルネット学習回路209は、ニューラルネットワーク部221と、このニューラルネットワーク部221の出力層のユニットより出力される結合の度合いを示す値を画素信号値に変換して出力する正規化部222と、この正規化部222より出力される画素信号値yoと予測対象画素値としてのHD画素データyとを比較して誤差εを検出する誤差検出部223とを有して構成されている。ニューラルネットワーク部221および正規化部222は、それぞれは図2に示すニューラルネット予測回路109のニューラルネットワーク部121および正規化部122と同様に構成されている。
【0057】
このニューラルネット学習回路209では、各クラス毎に、複数個の学習データを用いて結合係数が生成される。ここで、1個の学習データは、予測対象画素値としての1個のHD画素データyとそれに対応するn個のSD画素データx1〜xnとの組み合わせで構成されている。
【0058】
ここで、あるクラスにおける結合係数の生成は、以下のように行われる。まず、ニューラルネットワーク部221の隠れ層および出力層のユニットにおける結合係数が初期値の状態で、あるクラスの複数個の学習データのうち1番目の学習データを構成するn個のSD画素データx1〜xnをニューラルネットワーク部221の入力層のユニットに供給する。この状態で、出力層のユニットより得られる結合の度合いを示す値を正規化部222で画素信号値yoに変換する。そして、誤差検出部223で、この画素信号値yoと上述の1番目の学習データを構成する1個のHD画素データyとを比較して誤差εを検出する。この誤差εが充分小さな一定範囲内にあるときは、この状態での隠れ層および出力層のユニットにおける結合係数をあるクラスの結合係数Wiとしてメモリ210に供給して記憶させ、あるクラスにおける結合係数の生成動作を終了する。
【0059】
一方、誤差εが一定範囲内にないときは、この誤差εが一定範囲内に入る方向にニューラルネットワーク部221の出力層、さらには隠れ層のユニットにおける結合係数を変更する。つまり、ニューラルネットワーク部221の出力層での誤差を入力層に向かって伝搬させて学習を行うものである。そして、このように出力層および隠れ層のユニットにおける結合係数を変更した後に、あるクラスの複数個の学習データのうち2番目の学習データを構成するn個のSD画素データx1〜xnをニューラルネットワーク部221の入力層のユニットに供給する。
【0060】
この状態で、出力層のユニットより得られる結合の度合いを示す値を正規化部222で画素信号値yoに変換する。そして、誤差検出部223で、この画素信号値yoと上述の2番目の学習データを構成する1個のHD画素データyとを比較して誤差εを検出する。この誤差εが充分小さな一定範囲内にあるときは、この状態での隠れ層および出力層のユニットにおける結合係数をあるクラスの結合係数Wiとしてメモリ210に供給して記憶させ、あるクラスにおける結合係数の生成動作を終了する。一方、誤差εが一定範囲内にないときは、この誤差εが一定範囲内に入る方向にニューラルネットワーク部221の出力層、さらには隠れ層のユニットにおける結合係数を変更する。
【0061】
以下、同様にして、誤差εが一定範囲内に入るまで、順次次の学習データを使用し、ニューラルネットワーク部221の出力層、隠れ層のユニットにおける結合係数を変更していく。ただし、あるクラスの複数個の学習データを全て使用しても、誤差εが一定範囲内に入らないときは、最終的に出力層、隠れ層のユニットで使用された結合係数をあるクラスの結合係数Wiとしてメモリ210に供給して記憶させ、あるクラスにおける結合係数の生成動作を終了する。
【0062】
なお、あるクラスの複数個の学習データを全て使用しても、誤差εが一定範囲内に入らないときは、出力層、隠れ層のユニットにおける結合係数の初期値や(5)式の伝達関数における実数aを変更して、上述した生成動作を最初からやり直すようにしてもよい。
【0063】
図9に示す結合係数生成装置200の動作を説明する。入力端子201には教師信号としてのハイビジョンのビデオ信号を構成するHD画素データが供給され、そしてこのHD画素データに対して信号処理部202で水平および垂直の間引き処理等が行われて入力信号としてのNTSC方式のビデオ信号を構成するSD画素データが得られる。
【0064】
また、入力端子201に供給されるHD画素データより得られる予測対象画素値としての各HD画素データyにそれぞれ対応して、信号処理部202より出力されるSD画素データから領域切り出し回路203で所定領域のSD画素データkiが順次切り出され、この切り出された各SD画素データkiに対してADRC回路204でADRC処理が施されて空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiが得られる。
【0065】
また、予測対象画素値としての各HD画素データyにそれぞれ対応して、信号処理部202より出力されるSD画素データから領域切り出し回路205で所定領域のSD画素データmi,niが順次切り出され、この切り出された各SD画素データmi,niより動きクラス決定回路206で動きクラス(主に動きの程度を表すためのクラス分類)を示すクラス情報MVが得られる。そして、このクラス情報MVと上述したADRC回路204で得られる再量子化コードqiとからクラスコード発生回路207で、予測対象画素値としての各HD画素データyが属するクラスを示すクラス情報としてのクラスコードCLが得られる。
【0066】
また、予測対象画素値としての各HD画素データyにそれぞれ対応して、信号処理部202より出力されるSD画素データから領域切り出し回路208で所定領域のSD画素データxiが順次切り出される。そして、入力端子201に供給されるHD画素データより得られる予測対象画素値としての各HD画素データyと、予測対象画素値としての各HD画素データyにそれぞれ対応して領域切り出し回路208で順次切り出されたSD画素データxiと、予測対象画素値としての各HD画素データyにそれぞれ対応してクラスコード発生回路207より出力されるクラスコードCLとから、ニューラルネットワークによる学習によって、各クラス毎に結合係数Wiが生成される。そして、この結合係数Wiは、クラス別にアドレス分割されたメモリ210に記憶される。
【0067】
図11は、ニューラルネット学習回路209における結合係数の学習フローを示している。まず、ステップST1で、入力端子201に供給されるHD画素データより得られる予測対象画素値としての1個のHD画素データyと、それに対応して領域切り出し回路208で切り出されるn個のSD画素データx1〜xnとの組み合わせで、1個の学習データを生成する。次に、ステップST2で、クラスコード発生回路207より供給されるクラスコードCLによって、ステップST1で生成された学習データのクラス分類をする。
【0068】
次に、ステップST3で、入力端子201に供給されるHD画素データより得られる予測対象画素値としての各HD画素データyの全てに対応した学習データの生成が終了したか否かを判定し、学習データの生成が終了していないときは、ステップST1に戻って、学習データの生成を続ける。一方、学習データの生成が終了したときは、ステップST4で、N=1とし、ステップST5で、Nクラスに分類された複数個の学習データを使用して、このNクラスの結合係数Wiを生成する処理をする。
【0069】
次に、ステップST6で、全てのクラスの結合係数Wiの生成が終了したか否かを判定する。終了していないときは、ステップST7で、Nを1だけ増し、その後にステップST5に戻って、上述したようにNクラスの結合係数Wiを生成する処理をする。一方、終了したときは、結合係数の学習フローを終了する。
【0070】
また、図12は、Nクラスの結合係数生成処理フローを示している。まず、ステップST11で、M=1とする。次に、ステップST12で、NクラスのM番目の学習データを構成するn個のSD画素データをニューラルネットワーク部221の入力層のユニットに供給し、この状態で出力層のユニットより結合の度合いを示す値を得る。
【0071】
次に、ステップST13で、ニューラルネットワーク部221の出力層のユニットとより得られる結合の度合いを示す値を正規化部222に供給して正規化することで画素信号値yoを得る。そして、ステップST14で、NクラスのM番目の学習データを構成する1個のHD画素データyと、ステップST13で得られた画素信号値yoとを誤差検出部223で比較して誤差εを検出する。
【0072】
次に、ステップST15で、ステップST14で検出される誤差εが充分小さな一定範囲内に入っているか否かを判定する。誤差εが一定範囲内に入っているときは、ステップST16で、その状態での隠れ層および出力層のユニットにおける結合係数をNクラスの結合係数Wiとしてメモリ210に供給して記憶させ、その後にNクラスにおける結合係数の生成動作を終了する。
【0073】
一方、誤差εが一定範囲内にないときは、ステップST17で、この誤差εが一定範囲内に入る方向にニューラルネットワーク部221の出力層および隠れ層のユニットにおける結合係数を変更する。そして、ステップST18で、Mを1だけ増やし、その後にステップST19で、MがNクラスに分類された学習データの個数Mnより大きいか否かを判定する。
【0074】
M>Mnであるときは、Nクラスに分類された学習データの全てを使用したことになるので、ステップST16で、その状態での隠れ層および出力層のユニットにおける結合係数をNクラスの結合係数Wiとしてメモリ210に供給して記憶させ、その後にNクラスにおける結合係数の生成動作を終了する。一方、M>Mnでないときは、ステップST12に戻って、上述した動作を繰り返し行う。
【0075】
なお、図12には図示していないが、学習データを全て使用しても誤差εが一定範囲内に入らないとき、出力層、隠れ層のユニットにおける結合係数の初期値や(5)式の伝達関数における実数aを変更して、上述した生成動作を最初からやり直す場合には、ステップST19でM>Mnであるとき、結合係数の初期値や伝達関数の実数aを変更して、ステップST11に戻るようにすればよい。
【0076】
なお、上述実施の形態においては、空間波形を少ないビット数でパターン化する情報圧縮手段として、ADRC回路103(図1)、204(図9)を設けることにしたが、これはほんの一例であり、信号波形のパターンの少ないクラスで表現できるような情報圧縮手段であれば何を設けるかは自由であり、例えばDPCM(Differential Pulse Code Modulation)やVQ(Vector Quantization )等の圧縮手段を用いてもよい。
【0077】
また、上述実施の形態では、SD画素データよりHD画素データを得るものを示したが、例えばあるSD画素データより解像度を増した他のSD画素データを得る場合、あるいはあるHD画素データより解像度を増した他のHD画素データを得る場合にも同様に適用できる。この場合には、変換前と変換後の画素数は同じとなる。
【0078】
また、上述実施の形態においては、NTSC方式のビデオ信号をハイビジョンのビデオ信号に変換する例を示したが、この発明はそれに限定されるものでなく、第1の画像信号をこの第1の画像信号と同じあるいはそれより多い画素数の第2の画像信号に変換する場合に同様に適用できることは勿論である。
【0079】
【発明の効果】
この発明によれば、第1の画像信号をこの第1の画像信号と同じあるいはそれより多い画素数の第2の画像信号に変換する際、ニューラルネットワークを使用して第2の画像信号を構成する画素信号を予測するものであり、非線形な予測(線形な予測を含む)が行われるため、従来の線形1次式によって予測するものと比べて、常に最適な画素信号の予測を行うことができる。
【図面の簡単な説明】
【図1】実施の形態としての画像信号変換装置の構成を示すブロック図である。
【図2】画像信号変換装置のニューラルネット予測回路の要部構成例を示す図である。
【図3】ニューラルネットワークを構成する隠れ層、出力層のユニットの構成例を示す図である。
【図4】SD画素とHD画素の位置関係を説明するための略線図である。
【図5】SD画素とHD画素の位置関係を説明するための略線図である。
【図6】空間クラス分類に使用するSD画素データを説明するための略線図である。
【図7】動きクラス分類に使用するSD画素データを説明するための略線図である。
【図8】ニューラルネットワークを使用したHD画素データの予測に用いるSD画素データを説明するための略線図である。
【図9】ニューラルネット予測回路で使用される結合係数を学習によって生成する結合係数生成装置の構成例を示すブロック図である。
【図10】結合係数生成装置のニューラルネット学習回路の要部構成例を示す図である。
【図11】結合係数の学習フローを示すフローチャートである。
【図12】学習フローにおけるNクラスの結合係数生成処理を説明するためのフローチャートである。
【符号の説明】
100・・・画像信号変換装置、101,201・・・入力端子、102,104,108,203,205,208・・・領域切り出し回路、103,204・・・ADRC回路、105,206・・・動きクラス決定回路、106,207・・・クラスコード発生回路、107・・・ROMテーブル、109・・・ニューラルネット予測回路、110・・・出力端子、121,221・・・ニューラルネットワーク部、122,222・・・正規化部、209・・・ニューラルネット学習回路、210・・・メモリ、223・・・誤差検出部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image signal conversion apparatus and conversion method for converting, for example, an NTSC video signal into a high-definition video signal, and a generation apparatus and generation method for a coupling coefficient of a neural network used therefor. More specifically, the present invention relates to an image signal conversion apparatus that can perform non-linear prediction by using a neural network when predicting a pixel signal, and can always predict an optimal pixel signal. .
[0002]
[Prior art]
In recent years, the development of television receivers capable of obtaining higher-resolution images has been desired due to the increase in audio / visual orientation, and so-called high-vision has been developed in response to this demand. The number of high-definition scanning lines is 1125, which is more than twice that of 525 scanning lines in the NTSC system. The aspect ratio of the high-definition television is 9:16, whereas the aspect ratio of the NTSC system is 3: 4. For this reason, high-definition images can be displayed with a higher resolution and presence than in the NTSC system.
[0003]
Although HDTV has such excellent characteristics, even if an NTSC video signal is supplied as it is, image display using the HDTV system cannot be performed. This is because the standards differ between the NTSC system and the high vision as described above.
[0004]
Therefore, in order to display an image corresponding to the NTSC video signal in the high-definition system, the present applicant has previously proposed a conversion device for converting an NTSC video signal into a high-definition video signal (Japanese Patent Application). No. 6-205934). In this conversion device, the signal of each pixel constituting the high-definition video signal is predicted from the signal of the pixel in a predetermined area of the NTSC system and coefficient data (prediction coefficient value) using a linear linear expression. ing.
[0005]
[Problems to be solved by the invention]
In the above-described conversion device, the signal of each pixel constituting the high-definition video signal is predicted by a linear linear expression, and an optimal pixel signal may not be obtained.
[0006]
Therefore, an object of the present invention is to provide an image signal conversion device and the like that can always predict an optimal pixel signal.
[0007]
[Means for Solving the Problems]
The image signal conversion device according to the present invention is the image signal conversion device configured to convert the first image signal into a second image signal having the same or more number of pixels as the first image signal. A first pixel cutout unit that cuts out a signal of a pixel in a first region located in the vicinity of a predetermined pixel that constitutes the second image signal from the first image signal; and the first pixel cutout unit The level distribution pattern of the signal of the pixel in the first area is detected, and the class information is determined by determining the class to which the signal of the predetermined pixel constituting the second image signal to be predicted belongs based on this pattern. Classifying means for outputting, and at least an input layer and an output layer are provided. The units of each layer are combined with each other by a predetermined coupling coefficient, and the input values to the units of the combined layer are combined. Sum of products of output values of multiple units in the previous layer and the above coupling coefficient Including non-linear operations A neural network prediction means for predicting a signal of a predetermined pixel constituting the second image signal by a neural network, and the coupling coefficient of the neural network prediction means corresponding to each class indicated by the class information; Coupling coefficient storage means to be placed, coupling coefficient reading means for reading a coupling coefficient from the coupling coefficient storage means corresponding to the class information output from the class determining means, and the second image from the first image signal Second pixel clipping means for cutting out a signal of a pixel in a second region located in the vicinity of a predetermined pixel constituting the signal, and the neural network prediction means is a combination read out from the coupling coefficient storage means The second region cut out by the second pixel cut-out means is set as a coupling coefficient of the neural network. The pixel signal value is expressed as an input value to the input layer unit of the neural network, and the output value of the output unit of the neural network obtained by performing the operation of the neural network is expressed as a pixel signal value. Is converted into a pixel signal value corresponding to the number of bits to be output, and is output as a predicted value of a predetermined pixel signal constituting the second image signal.
[0008]
Here, the first and second pixel cutout means may be common, and in this case, the first and second regions are the same. Further, the neural network prediction means is configured using, for example, a back propagation network. Furthermore, the neural network predicting means may have a normalizing means for converting a value indicating the degree of coupling obtained from the unit of the output layer of the neural network into a pixel signal value at its output unit.
[0009]
The image signal conversion method according to the present invention is an image signal conversion method in which the first image signal is converted into a second image signal having the same or greater number of pixels as the first image signal. A first step of cutting out a signal of a pixel in a first region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal, and the above step cut out in the first step The level distribution pattern of the signal of the pixel in the first region is detected, and the class to which the signal of the predetermined pixel constituting the second image signal to be predicted belongs is determined based on this pattern, and class information is output. A second step, comprising at least an input layer and an output layer, wherein the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the combined layer is a plurality of layers before the combination; Product sum of the output value of the unit and the above coupling coefficient Including non-linear operations A third step of predicting a signal of a predetermined pixel constituting the second image signal by a neural network; and the coupling coefficient corresponding to each class indicated by the class information output in the second step. A fourth step of reading out by the storage means, and a fifth step of cutting out the signal of the pixel in the second region located in the vicinity of the predetermined pixel constituting the second image signal from the first image signal. And in the third step, the coupling coefficient read out from the storage means is used as the coupling coefficient of the neural network, and the signal of the pixel in the second region cut out by the second pixel cutting-out means is obtained. As the input value to the unit of the input layer of the neural network, the neural network obtained by performing the operation of the neural network The output value of the unit of the output layer of the network is converted into a pixel signal value corresponding to the number of bits for expressing the pixel signal value, and output as a predicted value of a predetermined pixel signal constituting the second image signal Is.
[0010]
A signal of a pixel in the first region is cut out from the first image signal corresponding to a predetermined pixel constituting the second image signal to be predicted, and the above-described second image signal is based on the level detection pattern. The class to which the signal of the predetermined pixel that constitutes belongs is determined and class information is output. Corresponding to this class information, the coupling coefficient is read from the coupling coefficient storage means. Further, the signal of the pixel in the second region is cut out from the first image signal corresponding to the predetermined pixel constituting the second image signal described above. Then, a signal of a predetermined pixel constituting the above-described second image signal is obtained from the signal of the pixel in the second area and the coupling coefficient read from the coupling coefficient storage means by using a neural network. . Thus, by predicting a pixel signal using a neural network, non-linear prediction is performed, and it is possible to always predict an optimal pixel signal as compared with that predicted by a linear linear expression. It becomes possible.
[0011]
The coupling coefficient generation device according to the present invention generates a coupling coefficient of a neural network used when converting the first image signal into a second image signal having a larger number of pixels than the first image signal. The signal processing means for obtaining the input signal corresponding to the first image signal by reducing the number of pixels of the teacher signal corresponding to the second image signal, A first pixel cutout unit that sequentially cuts out signals of pixels in a first region located in the vicinity of a plurality of pixels constituting the teacher signal; and a first pixel cutout unit that is cut out sequentially by the first pixel cutout unit. A class of detecting a level distribution pattern of pixel signals, determining a class to which each of the plurality of pixel signals constituting the teacher signal belongs based on the pattern, and outputting class information. A second pixel cutout means for sequentially cutting out signals of pixels in a second region located in the vicinity of a plurality of pixels constituting the teacher signal from the input signal, and at least an input layer and an output layer Each layer unit is combined with a predetermined coupling coefficient between the layers, and the input value to the combined layer unit is the product sum of the output values of the plurality of layer units before combining and the above coupling coefficient Including non-linear operations The pixel values of the second region sequentially cut out by the second pixel cut-out means are inputted as input values to the unit of the input layer of the neural network, and the plurality of pixel values constituting the teacher signal are inputted as the input values. The combination of the neural network for each class to which the signals of the plurality of pixels constituting the teacher signal output from the class determination means belong by learning to be a true value based on the output value of the unit of the output layer And a neural network learning means for obtaining a coefficient.
[0012]
Here, the first and second pixel cutout means may be common, and in this case, the first and second regions are the same. Further, for example, the neural network learning means is configured using a back propagation network.
[0013]
The neural network learning means is composed of units of an input layer, a hidden layer, and an output layer, for example, and the signals of the pixels in the second area sequentially cut out by the second pixel cut-out means are supplied to the input layer. Neural network unit and output layer unit of the above neural network unit The output value from the output signal according to the number of bits used to represent the pixel signal value Normalization means for converting to pixel signal values; pixel signal values output from the normalization means; - Error detection means for detecting an error by comparing a signal of a predetermined pixel constituting the teacher signal corresponding to a signal of a pixel in the second region supplied to the input layer of the network unit, and the class information Learning data consisting of a combination of a signal of the pixel in the second area sequentially cut out by the second pixel cut-out means and a signal of a predetermined pixel constituting the teacher signal corresponding to each class indicated by On the other hand, coupling coefficient changing means for changing the coupling coefficient in the output layer and hidden layer units of the neural network unit in a direction in which the error detected by the error detection means falls within a sufficiently small fixed range, Coupling coefficient determination using the coupling coefficient in the output layer and hidden layer units of the above neural network unit when it falls within a certain range as the learning result And a means.
[0014]
Further, the coupling coefficient generation method according to the present invention generates a coupling coefficient of a neural network used when converting the first image signal into a second image signal having a larger number of pixels than the first image signal. In the method, a first step of obtaining an input signal corresponding to the first image signal by reducing the number of pixels of the teacher signal corresponding to the second image signal, and from the input signal, A second step of sequentially cutting out signals of pixels in a first region located in the vicinity of a plurality of pixels constituting the teacher signal, and a signal of pixels in the first region sequentially cut out in the second step A third step of detecting a level distribution pattern, determining a class to which the signals of the plurality of pixels constituting the teacher signal belong based on the pattern, and outputting class information; A fourth step of sequentially cutting out signals of pixels in the second region located in the vicinity of the plurality of pixels constituting the teacher signal from the input signal; and at least an input layer and an output layer, each layer unit comprising: Combined with a predetermined coupling coefficient between layers, the input value to the unit of the layer after the combination is the product sum of the output value of the multiple units of the layer before the combination and the above coupling coefficient Including non-linear operations The pixel values of the second region sequentially extracted in the fourth step are input as input values to the input layer unit of the neural network, and the plurality of pixel values constituting the teacher signal are input to the output layer. The above-mentioned coupling coefficient of the neural network for each class to which the signals of the plurality of pixels constituting the teacher signal output in the third step belong by learning to be a true value based on the output value of the unit of And a fifth step of obtaining
[0015]
A teacher signal corresponding to the second image signal, for example, a high-definition video signal is processed to obtain an input signal corresponding to the first image signal, for example, the NTSC video signal. Corresponding to the signals of the plurality of pixels constituting the teacher signal, the signals of the pixels in the first region are sequentially cut out from the input signal, and the teacher signal is based on the level distribution pattern of the signals of the pixels in the first region. The class to which the signals of the plurality of pixels constituting each belong is determined and class information is output.
[0016]
Further, the signals of the pixels in the second region are sequentially cut out from the input signal corresponding to the signals of the plurality of pixels constituting the teacher signal. Then, learning by a neural network is performed from the signals of the pixels in the second region, the class information indicating the classes to which the signals of the plurality of pixels constituting the teacher signal respectively belong, and the signals of the plurality of pixels constituting the teacher signal. Thus, a coupling coefficient is obtained for each class.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of an image signal conversion apparatus 100 as an embodiment. The image signal conversion apparatus 100 obtains pixel data (hereinafter referred to as “HD pixel data”) constituting a high-definition video signal from pixel data (hereinafter referred to as “SD pixel data”) constituting an NTSC video signal. Is for.
[0018]
The image signal converter 100 includes an input terminal 101 to which SD pixel data is supplied, and SD pixel data in an area corresponding to predetermined HD pixel data to be predicted based on the SD pixel data supplied to the input terminal 101. A region cutout circuit 102 serving as a pixel cutout means for cutting out a pixel, and a class that mainly represents a waveform in space by applying ADRC (Adaptive Dynamic Range Coding) processing to the SD pixel data cut out by the region cutout circuit 102 An ADRC circuit 103 that determines (space class) and outputs class information.
[0019]
4 and 5 show the positional relationship between the SD pixel and the HD pixel. For example, as shown in FIG. 6, in the region cutout circuit 102, when the HD pixel data y is to be predicted, the SD pixel data k positioned in the vicinity of the HD pixel data y is used. 1 ~ K Five Is cut out.
[0020]
In the ADRC circuit 103, for the purpose of patterning the level distribution of the SD pixel data cut out by the area cutout circuit 102, an operation is performed to compress each SD pixel data from, for example, 8-bit data to 2-bit data. The ADRC circuit 103 outputs compressed data (requantized code) qi corresponding to each SD pixel data as class information of the space class.
[0021]
ADRC is originally an adaptive requantization method developed for high-performance coding for VTR (Video Tape Recorder), but it can express local patterns of signal level efficiently with a short word length. In the embodiment, it is used for patterning the level distribution of the SD pixel data cut out by the area cutout circuit 102.
[0022]
In the ADRC circuit 103, assuming that the maximum value of SD pixel data in the region is MAX, the minimum value is MIN, the dynamic range in the region is DR (= MAX−MIN + 1), and the number of requantization bits is p, For each SD pixel data ki, a requantization code qi is obtained by the calculation of the equation (1). However, in the expression (1), [] means a truncation process. When Na pieces of SD pixel data are cut out by the area cutout circuit 102, i = 1 to Na.
qi = [(ki-MIN + 0.5) .2 p / DR] (1)
[0023]
Further, the image signal conversion apparatus 100 includes an area extraction circuit 104 that extracts SD pixel data of an area corresponding to predetermined HD pixel data to be predicted from the SD pixel data supplied to the input terminal 101, and the area extraction circuit. A motion class determining circuit 105 that determines a class (motion class) mainly representing the degree of motion from the SD pixel data cut out at 104 and outputs class information.
[0024]
For example, as shown in FIG. 7, in the region cutout circuit 104, when the HD pixel data y is to be predicted, ten SD pixel data m positioned in the vicinity of the HD pixel data y are displayed. 1 ~ M Five , N 1 ~ N Five Is cut out.
[0025]
In the motion class determination circuit 105, an inter-frame difference is calculated from the SD pixel data mi, ni extracted by the region extraction circuit 104, and a threshold process is performed on the average value of the absolute value of the difference to perform motion. Class information MV of a motion class that is an index of
[0026]
That is, in the motion class determination circuit 105, the average value AV of the absolute value of the difference is calculated by the equation (2). In the area cutout circuit 104, for example, as described above, ten SD pixel data m 1 ~ M Five , N 1 ~ N Five Is cut out, Nb in the equation (2) is 5.
[0027]
[Expression 1]
Figure 0004447671
[0028]
In the motion class determination circuit 105, the average value AV calculated as described above is compared with one or a plurality of threshold values to obtain class information MV. For example, three thresholds th 1 , Th 2 , Th Three (Th 1 <Th 2 <Th Three ) And four motion classes are determined, AV ≦ th 1 When MV = 0, th 1 <AV ≦ th 2 When MV = 1, th 2 <AV ≦ th Three When MV = 2, th Three When AV, MV = 3.
[0029]
Also, the image signal conversion apparatus 100 tries to perform prediction based on the requantization code q i as the class information of the spatial class output from the ADRC circuit 103 and the motion class information MV output from the motion class determination circuit 105. A class code generation circuit 106 for obtaining a class code CL indicating a class to which the HD pixel data belongs. In the class code generation circuit 106, the calculation of the class code CL is performed by the equation (3). In Equation (3), Na represents the number of SD pixel data cut out by the region cutout circuit 102, and p represents the number of requantization bits in the ADRC circuit 103.
[0030]
[Expression 2]
Figure 0004447671
[0031]
Further, the image signal conversion apparatus 100 includes a ROM table 107 as a storage unit in which a coupling coefficient of a neural network used in a neural network prediction circuit described later is stored for each class. The class code CL output from the class code generation circuit 106 is supplied to the ROM table 107 as read address information, and the coupling coefficient Wi corresponding to the class code CL is read from the ROM table 107.
[0032]
Further, the image signal conversion apparatus 100 includes an area extraction circuit 108 that extracts SD pixel data of an area corresponding to predetermined HD pixel data to be predicted from the SD pixel data supplied to the input terminal 101, and the area extraction circuit. A neural network prediction circuit 109 for obtaining HD pixel data to be predicted using a neural network from the SD pixel data cut out at 108 and the coupling coefficient Wi read from the ROM table 107, and the neural network And an output terminal 110 for deriving HD pixel data obtained by the prediction circuit 109.
[0033]
For example, as shown in FIG. 8, in the region cutout circuit 108, when HD pixel data y is to be predicted, 25 SD pixel data x located in the vicinity of the HD pixel data y 1 ~ X twenty five Is cut out. Here, the region cutout circuit 108 may be common to the region cutout circuit 102 described above.
[0034]
FIG. 2 shows a configuration example of a main part of the neural network prediction circuit 109, which is an example using a back-propagation neural network. The neural network prediction circuit 109 includes a neural network unit 121 and a normalization unit 122 that converts a value indicating the degree of coupling obtained from the unit of the output layer of the neural network unit 121 into a pixel signal value and outputs the pixel signal value. Configured.
[0035]
The neural network unit 121 is configured in three layers, with n units in the input layer, four units in the hidden layer, and one unit in the output layer. In this case, each unit of the input layer includes n pieces of SD pixel data x cut out by the region cutout circuit 108 described above. 1 ~ X n Are supplied respectively. Each unit of the input layer is supplied with each supplied SD pixel data x 1 ~ X n Is distributed to each unit in the hidden layer without any change.
[0036]
Each unit in the hidden layer is coupled to each unit in the input layer with a coupling coefficient. A value indicating the degree of coupling output from each unit in the hidden layer is supplied to the unit in the output layer. Furthermore, the unit of the output layer is coupled to each unit of the hidden layer with a coupling coefficient. A value indicating the degree of coupling output from the output layer unit is supplied to the normalization unit 122 as an output value of the neural network unit 121.
[0037]
FIG. 3 shows a configuration example of the units of the hidden layer and the output layer. Assuming that the number of units in the previous layer is m, the output value of each unit in the previous layer is A 1 ~ A m And the coupling coefficient for coupling with each unit in the previous layer is W 1 ~ W m , The output value U of the unit is expressed by equation (4). In the equation (4), f () is a transfer function as a nonlinear element, and for example, a function like the equation (5) is often used. In this equation (5), a is an appropriate real number.
[0038]
[Equation 3]
Figure 0004447671
[0039]
As described above, the coupling coefficient Wi read from the ROM table 107 corresponding to the class code CL is the coupling coefficient W in the unit of the hidden layer and the output layer. 1 ~ W m Will be used as.
[0040]
The value indicating the degree of coupling obtained from the unit of the output layer of the neural network unit 121 is greater than 0 and smaller than 1. Therefore, in the normalization unit 122, for example, when the pixel signal value is represented by 8 bits, the value indicating the degree of combination is multiplied by “256” to obtain the HD pixel data y as the prediction target pixel value. To be done.
[0041]
The neural network prediction circuit 109 shown in FIG. 2 is an example, and the present invention is not limited to this. For example, the neural network unit 121 can be configured to have four or more layers by increasing the number of hidden layers. The number of hidden layer and output layer units can also be set arbitrarily.
[0042]
The operation of the image signal conversion apparatus 100 shown in FIG. 1 will be described. Corresponding to the predetermined HD pixel data y to be predicted, the SD pixel data ki of the predetermined area is cut out by the area cutout circuit 102 from the SD pixel data supplied to the input terminal 101, and each of the cut out SD pixel data The ADRC circuit 103 applies ADRC processing to k i to obtain a requantized code q i as class information of a space class (mainly class classification for waveform expression in space).
[0043]
Corresponding to the HD pixel data y to be predicted, the SD pixel data mi, ni in a predetermined area is extracted from the SD pixel data supplied to the input terminal 101 by the area extraction circuit 104. The class information MV indicating the motion class (mainly class classification for representing the degree of motion) is obtained by the motion class determination circuit 105 from each SD pixel data mi, ni.
[0044]
From this motion class information MV and the requantized code qi obtained by the above-mentioned ADRC circuit 103, a class code CL as class information indicating a class to which the HD pixel data y to be predicted by the class code generation circuit 106 belongs is obtained. It is done. The class code CL is supplied to the ROM table 107 as read address information, and the coupling coefficient Wi of the neural network corresponding to the class to which the HD pixel data y to be predicted belongs is read from the ROM table 107.
[0045]
Corresponding to the HD pixel data y to be predicted, the SD pixel data xi in a predetermined area is cut out by the area cutout circuit 108 from the SD pixel data supplied to the input terminal 101. Then, the neural network prediction circuit 109 uses the neural network to predict the HD pixel to be predicted from the extracted SD pixel data xi and the coupling coefficient Wi read from the ROM table 107 as described above. Data y is determined. Then, the HD pixel data y sequentially output from the neural network prediction circuit 109 is derived to the output terminal 110.
[0046]
In the image signal conversion apparatus 100 shown in FIG. 1, HD pixel data y is predicted using a neural network, and nonlinear prediction (including linear prediction) is performed. Therefore, it is possible to always predict the optimal HD pixel data y as compared with the case of predicting by.
[0047]
By the way, the ROM table 107 of the image signal conversion apparatus 100 stores the coupling coefficient of the neural network corresponding to each class as described above. This coefficient data is generated in advance by learning. FIG. 9 shows a configuration example of a coupling coefficient generation apparatus 200 that generates a coupling coefficient of a neural network for each class by learning.
[0048]
This coupling coefficient generation apparatus 200 performs an input terminal 201 to which HD pixel data constituting a high-definition video signal as a teacher signal is supplied, and performs horizontal and vertical thinning filter processing on the HD pixel data to obtain an input. And a signal processing unit 202 for obtaining SD pixel data constituting an NTSC video signal as a signal. In the signal processing unit 202, the HD pixel data is thinned by the vertical thinning filter so that the number of lines in the vertical direction in the field is halved, and the horizontal thinning filter further reduces the number of pixels in the horizontal direction. Thinning-out processing is performed so as to be ½. Therefore, the positional relationship between the SD pixel and the HD pixel is as shown in FIGS.
[0049]
Further, the coupling coefficient generation device 200 corresponds to each of a plurality of HD pixel data as prediction target pixel values obtained from the HD pixel data supplied to the input terminal 201, and outputs SD pixels output from the signal processing unit 202. An area extraction circuit 203 that sequentially extracts SD pixel data of a predetermined area from data, and a class (mainly representing a waveform in space by applying ADRC processing to the SD pixel data sequentially extracted by the area extraction circuit 203 And an ADRC circuit 204 that determines the (space class) and outputs class information.
[0050]
The region cutout circuit 203 is configured in the same manner as the region cutout circuit 102 of the image signal conversion apparatus 100 described above. For example, as shown in FIG. 6, the region cutout circuit 203 corresponds to the HD pixel data y as the prediction target pixel value, and the SD pixel data k located in the vicinity of the HD pixel data y. 1 ~ K Five Is cut out. Further, the ADRC circuit 204 is configured in the same manner as the ADRC circuit 103 of the image signal conversion apparatus 100 described above. From this ADRC circuit 204, a re-quantization code qi is output as class information indicating a spatial class for each SD pixel data of a predetermined area cut out corresponding to each HD pixel data as a prediction target value.
[0051]
In addition, the coupling coefficient generation device 200 performs region segmentation in which SD pixel data in a predetermined region is sequentially segmented from the SD pixel data output from the signal processing unit 202, corresponding to each HD pixel data serving as the above-described prediction target pixel value. A circuit 205, and a motion class determination circuit 206 that determines a class (motion class) mainly representing the degree of motion from the SD pixel data cut out by the region cutout circuit 205 and outputs class information. ing.
[0052]
The area cutout circuit 205 is configured in the same manner as the area cutout circuit 104 of the image signal conversion apparatus 100 described above. For example, as shown in FIG. 7, the area cutout circuit 205 corresponds to the HD pixel data y as the prediction target pixel value, and the 10 SD pixel data m positioned in the vicinity of the HD pixel data y. 1 ~ M Five , N 1 ~ N Five Is cut out. The motion class determination circuit 206 is also configured in the same manner as the motion class determination circuit 105 of the image signal conversion apparatus 100 described above. The motion class determination circuit 206 outputs motion class class information MV that is a motion index for each SD pixel data of a predetermined area cut out corresponding to each HD pixel data as a prediction target pixel value. .
[0053]
In addition, the coupling coefficient generation apparatus 200 classifies the class code based on the requantization code q i as the class information of the space class output from the ADRC circuit 204 and the class information MV of the motion class output from the motion class determination circuit 206. A class code generation circuit 207 for obtaining CL is provided. The class code generation circuit 207 is configured in the same manner as the class code generation circuit 106 of the image signal conversion apparatus 100 described above. The class code generation circuit 207 outputs a class code CL indicating the class to which the HD pixel data belongs, corresponding to each HD pixel data as the prediction target pixel value.
[0054]
In addition, the coupling coefficient generation device 200 performs region segmentation in which SD pixel data in a predetermined region is sequentially segmented from the SD pixel data output from the signal processing unit 202, corresponding to each HD pixel data serving as the above-described prediction target pixel value. A circuit 208 is included. The area cutout circuit 208 is configured in the same manner as the area cutout circuit 108 of the image signal conversion apparatus 100 described above. For example, as shown in FIG. 8, the region cutout circuit 208 corresponds to the HD pixel data y as the prediction target pixel value and corresponds to 25 SD pixel data x located in the vicinity of the HD pixel data y. 1 ~ X twenty five Is cut out.
[0055]
Further, the coupling coefficient generation device 200 corresponds to each HD pixel data y as a prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201 and each HD pixel data y as a prediction target pixel value. From the SD pixel data x i sequentially cut out by the region cut-out circuit 208 and the class code CL output from the class code generation circuit 207 corresponding to each HD pixel data y as the prediction target pixel value, a neural network is used. A neural network learning circuit 209 that obtains a coupling coefficient for each class by learning and a memory 210 for storing the coupling coefficient Wi for each class obtained by the neural network learning circuit 209 are provided.
[0056]
FIG. 10 shows a configuration example of a main part of the neural network learning circuit 209, which is an example using a back-propagation neural network, like the neural network prediction circuit 109 shown in FIG. The neural network learning circuit 209 includes a neural network unit 221, a normalization unit 222 that converts a value indicating a degree of coupling output from a unit of an output layer of the neural network unit 221 into a pixel signal value, and outputs the pixel signal value; The pixel signal value yo output from the normalization unit 222 and the HD pixel data y as the prediction target pixel value are compared to detect an error ε. The neural network unit 221 and the normalizing unit 222 are configured in the same manner as the neural network unit 121 and the normalizing unit 122 of the neural network prediction circuit 109 shown in FIG.
[0057]
In this neural network learning circuit 209, a coupling coefficient is generated for each class using a plurality of learning data. Here, one learning data includes one HD pixel data y as a prediction target pixel value and n SD pixel data x corresponding thereto. 1 ~ X n It is composed of a combination.
[0058]
Here, the generation of the coupling coefficient in a certain class is performed as follows. First, n SD pixel data x constituting the first learning data among a plurality of learning data of a certain class in the state where the coupling coefficient in the unit of the hidden layer and the output layer of the neural network unit 221 is an initial value. 1 ~ X n Is supplied to the unit of the input layer of the neural network unit 221. In this state, the normalization unit 222 converts the value indicating the degree of coupling obtained from the output layer unit into the pixel signal value yo. Then, the error detection unit 223 compares this pixel signal value yo with one HD pixel data y constituting the first learning data described above, and detects an error ε. When the error ε is within a sufficiently small fixed range, the coupling coefficient in the unit of the hidden layer and the output layer in this state is supplied to and stored in the memory 210 as the coupling coefficient Wi of a certain class. The generation operation of is terminated.
[0059]
On the other hand, when the error ε is not within a certain range, the coupling coefficient in the output layer of the neural network unit 221 and further the unit of the hidden layer is changed in a direction in which the error ε falls within the certain range. That is, learning is performed by propagating an error in the output layer of the neural network unit 221 toward the input layer. Then, after changing the coupling coefficient in the units of the output layer and the hidden layer in this way, the n pieces of SD pixel data x constituting the second learning data among the plurality of learning data of a certain class 1 ~ X n Is supplied to the unit of the input layer of the neural network unit 221.
[0060]
In this state, the normalization unit 222 converts the value indicating the degree of coupling obtained from the output layer unit into the pixel signal value yo. Then, the error detection unit 223 compares this pixel signal value yo with one HD pixel data y constituting the second learning data described above, and detects an error ε. When the error ε is within a sufficiently small fixed range, the coupling coefficient in the unit of the hidden layer and the output layer in this state is supplied to and stored in the memory 210 as the coupling coefficient Wi of a certain class. The generation operation of is terminated. On the other hand, when the error ε is not within a certain range, the coupling coefficient in the output layer of the neural network unit 221 and further the unit of the hidden layer is changed in a direction in which the error ε falls within the certain range.
[0061]
In the same manner, the next learning data is used sequentially until the error ε falls within a certain range, and the coupling coefficients in the output layer and hidden layer units of the neural network unit 221 are changed. However, if the error ε does not fall within a certain range even if all the learning data of a certain class is used, the coupling coefficient used in the unit of the output layer and the hidden layer is finally combined. The coefficient Wi is supplied to and stored in the memory 210, and the generation operation of the coupling coefficient in a certain class is finished.
[0062]
If the error ε does not fall within a certain range even if all the learning data of a certain class is used, the initial value of the coupling coefficient in the unit of the output layer and the hidden layer, and the transfer function of equation (5) The real number a may be changed, and the above-described generation operation may be performed again from the beginning.
[0063]
The operation of the coupling coefficient generation device 200 shown in FIG. 9 will be described. HD pixel data constituting a high-definition video signal as a teacher signal is supplied to the input terminal 201, and the HD pixel data is subjected to horizontal and vertical thinning processing and the like by the signal processing unit 202 as an input signal. SD pixel data constituting the NTSC video signal is obtained.
[0064]
In addition, in accordance with each HD pixel data y as a prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201, the region extraction circuit 203 performs predetermined processing from the SD pixel data output from the signal processing unit 202. The SD pixel data ki of the area is sequentially cut out, and the ADRC circuit 204 performs ADRC processing on the cut out SD pixel data ki, and the space class (mainly class classification for waveform representation in the space) is obtained. A requantization code q i as class information is obtained.
[0065]
Corresponding to each HD pixel data y as a prediction target pixel value, SD pixel data mi, ni of a predetermined region are sequentially cut out from the SD pixel data output from the signal processing unit 202 by the region cutout circuit 205, The class information MV indicating the motion class (mainly class classification for representing the degree of motion) is obtained by the motion class determination circuit 206 from the extracted SD pixel data mi, ni. Then, a class code as a class information indicating a class to which each HD pixel data y as a prediction target pixel value belongs in the class code generation circuit 207 from the class information MV and the requantization code qi obtained by the ADRC circuit 204 described above. A code CL is obtained.
[0066]
Corresponding to each HD pixel data y as a prediction target pixel value, SD pixel data x i of a predetermined region is sequentially cut out from the SD pixel data output from the signal processing unit 202 by the region cut-out circuit 208. Then, the region extraction circuit 208 sequentially corresponds to each HD pixel data y as a prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201 and each HD pixel data y as a prediction target pixel value. From the extracted SD pixel data xi and the class code CL output from the class code generation circuit 207 corresponding to each HD pixel data y as a prediction target pixel value, learning is performed for each class by neural network learning. A coupling coefficient Wi is generated. The coupling coefficient Wi is stored in the memory 210 that is divided into addresses by class.
[0067]
FIG. 11 shows a learning flow of coupling coefficients in the neural network learning circuit 209. First, in step ST1, one HD pixel data y as a prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201, and n SD pixels cut out by the region cut-out circuit 208 corresponding thereto. Data x 1 ~ X n One learning data is generated in combination. Next, in step ST2, the learning data generated in step ST1 is classified by the class code CL supplied from the class code generation circuit 207.
[0068]
Next, in step ST3, it is determined whether or not the generation of learning data corresponding to all of the HD pixel data y as prediction target pixel values obtained from the HD pixel data supplied to the input terminal 201 is completed, If the generation of learning data has not ended, the process returns to step ST1 and continues to generate learning data. On the other hand, when the generation of learning data is completed, N = 1 is set in step ST4, and a plurality of learning data classified into N classes is used in step ST5 to generate this N class coupling coefficient Wi. To process.
[0069]
Next, in step ST6, it is determined whether or not the generation of the coupling coefficient Wi for all classes has been completed. If not completed, N is incremented by 1 in step ST7, and then the process returns to step ST5 to generate the N-class coupling coefficient Wi as described above. On the other hand, when finished, the learning flow of the coupling coefficient is finished.
[0070]
FIG. 12 shows an N-class coupling coefficient generation processing flow. First, in step ST11, M = 1 is set. Next, in step ST12, n SD pixel data constituting the M-th learning data of the N class are supplied to the input layer unit of the neural network unit 221, and in this state, the degree of coupling is set by the output layer unit. Get the value shown.
[0071]
Next, in step ST13, a value indicating the degree of coupling obtained from the unit of the output layer of the neural network unit 221 is supplied to the normalizing unit 222 and normalized to obtain a pixel signal value yo. In step ST14, the error detection unit 223 compares the single HD pixel data y constituting the M-th learning data of the N class with the pixel signal value yo obtained in step ST13 to detect the error ε. To do.
[0072]
Next, in step ST15, it is determined whether or not the error ε detected in step ST14 is within a sufficiently small fixed range. When the error ε is within a certain range, in step ST16, the coupling coefficient in the unit of the hidden layer and the output layer in that state is supplied to the memory 210 as the N-class coupling coefficient Wi and stored. The generation operation of the coupling coefficient in the N class is finished.
[0073]
On the other hand, when the error ε is not within the certain range, the coupling coefficient in the unit of the output layer and the hidden layer of the neural network unit 221 is changed in a direction in which the error ε falls within the certain range in step ST17. In step ST18, M is increased by 1, and then in step ST19, it is determined whether M is larger than the number Mn of learning data classified into the N class.
[0074]
When M> Mn, all of the learning data classified into the N class is used. Therefore, in step ST16, the coupling coefficient in the unit of the hidden layer and the output layer in the state is changed to the coupling coefficient of the N class. Wi is supplied to the memory 210 and stored therein, and then the coupling coefficient generation operation in the N class is terminated. On the other hand, if not M> Mn, the process returns to step ST12 and the above-described operation is repeated.
[0075]
Although not shown in FIG. 12, when the error ε does not fall within a certain range even when all of the learning data is used, the initial value of the coupling coefficient in the units of the output layer and the hidden layer and the equation (5) When the real number a in the transfer function is changed and the above-described generation operation is started again from the beginning, when M> Mn in step ST19, the initial value of the coupling coefficient and the real number a of the transfer function are changed, and step ST11 is performed. Return to.
[0076]
In the above embodiment, the ADRC circuits 103 (FIG. 1) and 204 (FIG. 9) are provided as information compression means for patterning the spatial waveform with a small number of bits, but this is only an example. Any information compression means that can be expressed in a class with few signal waveform patterns can be freely provided. For example, compression means such as DPCM (Differential Pulse Code Modulation) and VQ (Vector Quantization) can be used. Good.
[0077]
In the above-described embodiment, the HD pixel data is obtained from the SD pixel data. However, for example, when obtaining other SD pixel data whose resolution is higher than that of certain SD pixel data, or the resolution is higher than that of certain HD pixel data. The present invention can be applied in the same way to obtain other increased HD pixel data. In this case, the number of pixels before conversion and after conversion is the same.
[0078]
In the above-described embodiment, an example in which an NTSC video signal is converted into a high-definition video signal has been described. However, the present invention is not limited to this, and the first image signal is converted into the first image signal. Of course, the present invention can be similarly applied to the case of converting to a second image signal having the same or larger number of pixels as the signal.
[0079]
【The invention's effect】
According to the present invention, when the first image signal is converted into the second image signal having the same or larger number of pixels as the first image signal, the second image signal is configured using the neural network. Since the prediction of the pixel signal to be performed is performed and nonlinear prediction (including linear prediction) is performed, it is possible to always perform prediction of the optimal pixel signal as compared with the prediction based on the conventional linear linear expression. it can.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image signal conversion apparatus according to an embodiment.
FIG. 2 is a diagram illustrating a configuration example of a main part of a neural network prediction circuit of an image signal conversion apparatus.
FIG. 3 is a diagram illustrating a configuration example of a hidden layer and an output layer unit constituting a neural network.
FIG. 4 is a schematic diagram for explaining a positional relationship between SD pixels and HD pixels.
FIG. 5 is a schematic diagram for explaining the positional relationship between SD pixels and HD pixels.
FIG. 6 is a schematic diagram for explaining SD pixel data used for space class classification.
FIG. 7 is a schematic diagram for explaining SD pixel data used for motion class classification;
FIG. 8 is a schematic diagram for explaining SD pixel data used for prediction of HD pixel data using a neural network.
FIG. 9 is a block diagram illustrating a configuration example of a coupling coefficient generation device that generates a coupling coefficient used in a neural network prediction circuit by learning;
FIG. 10 is a diagram illustrating a configuration example of a main part of a neural network learning circuit of a coupling coefficient generation device.
FIG. 11 is a flowchart showing a learning flow of coupling coefficients.
FIG. 12 is a flowchart for explaining N-class coupling coefficient generation processing in a learning flow;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Image signal converter 101, 201 ... Input terminal, 102, 104, 108, 203, 205, 208 ... Area extraction circuit, 103, 204 ... ADRC circuit, 105, 206 ... Motion class determination circuit, 106, 207 ... class code generation circuit, 107 ... ROM table, 109 ... neural network prediction circuit, 110 ... output terminal, 121, 221 ... neural network unit, 122, 222 ... normalization unit, 209 ... neural network learning circuit, 210 ... memory, 223 ... error detection unit

Claims (7)

第1の画像信号を、この第1の画像信号 と同じあるいはそれより多い画素数の第2の画像信号に変換するようにした画像信号変換装置において、
上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第1の領域の画素の信号を切り出す第1の画素切り出し手段と、
上記第1の画素切り出し手段により切り出された上記第1の領域の画素の信号のレベル分布パターンを検出し、このパターンに基づいて予測しようとする上記第2の画像信号を構成する所定画素の信号が属するクラスを決定してクラス情報を出力するクラス決定手段と、
少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークにより、上記第2の画像信号を構成する所定画素の信号を予測するニューラルネット予測手段と、
上記クラス情報で示される各クラスに対応した上記ニューラルネット予測手段の上記結合係数を記憶しておく結合係数記憶手段と、
上記クラス決定手段より出力される上記クラス情報に対応して上記結合係数記憶手段より結合係数を読み出す結合係数読み出し手段と、
上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第2の領域の画素の信号を切り出す第2の画素切り出し手段と
を具備し、
上記ニューラルネット予測手段は、
上記結合係数記憶手段より読み出された結合係数を上記ニューラルネットワークの結合係数とし、上記第2の画素切り出し手段により切り出された上記第2の領域の画素の信号を上記ニューラルネットワークの上記入力層のユニットへの入力値として、上記ニューラルネットワークの演算を行なって得られた上記ニューラルネットワークの上記出力層のユニットの出力値を、画素信号値を表現するためのビット数に応じた画素信号値に変換し、上記第2の画像信号を構成する所定画素信号の予測値として出力する
ことを特徴とする画像信号変換装置。
In the image signal conversion apparatus configured to convert the first image signal into a second image signal having the same or more pixels as the first image signal,
First pixel cutout means for cutting out a signal of a pixel in a first region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal;
A signal of a predetermined pixel constituting the second image signal to be detected based on the level distribution pattern of the signal of the pixel in the first region cut out by the first pixel cutout unit is detected. A class determining means for determining a class to which the class belongs and outputting class information;
At least an input layer and an output layer are provided, the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the layer after the combination is combined with the output value of the plurality of units of the layer before the combination A neural network prediction means for predicting a signal of a predetermined pixel constituting the second image signal by a neural network including a non-linear operation of a product sum with a coefficient;
Coupling coefficient storage means for storing the coupling coefficient of the neural network prediction means corresponding to each class indicated by the class information;
A coupling coefficient reading means for reading out a coupling coefficient from the coupling coefficient storage means corresponding to the class information output from the class determining means;
Second pixel clipping means for clipping a signal of a pixel in a second region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal,
The neural network prediction means is
The coupling coefficient read out from the coupling coefficient storage means is used as the coupling coefficient of the neural network, and the pixel signal of the second region cut out by the second pixel cutting-out means is input to the input layer of the neural network. As an input value to the unit, the output value of the unit of the output layer of the neural network obtained by performing the operation of the neural network is converted into a pixel signal value corresponding to the number of bits for expressing the pixel signal value. And outputting as a predicted value of a predetermined pixel signal constituting the second image signal.
上記ニューラルネット予測手段は、バックプロパゲーションネットワークを使用して構成されることを特徴とする請求項1に記載の画像信号変換装置。  2. The image signal conversion apparatus according to claim 1, wherein the neural network prediction means is configured using a back-propagation network. 第1の画像信号を、この第1の画像信号 と同じあるいはそれより多い画素数の第2の画像信号に変換するようにした画像信号変換方法において、
上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第1の領域の画素の信号を切り出す第1のステップと、
上記第1のステップで切り出された上記第1の領域の画素の信号のレベル分布パターンを検出し、このパターンに基づいて予測しようとする上記第2の画像信号を構成する所定画素の信号が属するクラスを決定してクラス情報を出力する第2のステップと、
少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークにより、上記第2の画像信号を構成する所定画素の信号を予測する第3のステップと、
上記第2のステップで出力される上記クラス情報で示される各クラスに対応した上記結合係数を記憶手段により読み出す第4のステップと、
上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第2の領域の画素の信号を切り出す第5のステップと、
を具備し、
上記第3のステップでは、
上記記憶手段より読み出された結合係数を上記ニューラルネットワークの結合係数とし、上記第2の画素切り出し手段により切り出された上記第2の領域の画素の信号を上記ニューラルネットワークの上記入力層のユニットへの入力値として、上記ニューラルネットワークの演算を行なって得られた上記ニューラルネットワークの上記出力層のユニットの出力値を、画素信号値を表現するためのビット数に応じた画素信号値に変換し、上記第2の画像信号を構成する所定画素信号の予測値として出力する
ことを特徴とする画像信号変換方法。
In the image signal conversion method in which the first image signal is converted into a second image signal having the same or larger number of pixels as the first image signal,
A first step of cutting out a signal of a pixel in a first region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal;
The level distribution pattern of the signal of the pixel in the first region cut out in the first step is detected, and the signal of the predetermined pixel constituting the second image signal to be predicted based on this pattern belongs A second step of determining a class and outputting class information;
At least an input layer and an output layer are provided, the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the layer after the combination is combined with the output value of the plurality of units of the layer before the combination A third step of predicting a signal of a predetermined pixel constituting the second image signal by a neural network including a nonlinear operation of a product sum with a coefficient;
A fourth step of reading out the coupling coefficient corresponding to each class indicated by the class information output in the second step by a storage means;
A fifth step of cutting out a signal of a pixel in a second region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal;
Comprising
In the third step,
The coupling coefficient read from the storage means is used as the coupling coefficient of the neural network, and the pixel signal of the second area cut out by the second pixel cutting-out means is sent to the unit of the input layer of the neural network. As an input value, the output value of the output layer unit of the neural network obtained by performing the operation of the neural network is converted into a pixel signal value corresponding to the number of bits for expressing the pixel signal value, An image signal conversion method comprising: outputting as a predicted value of a predetermined pixel signal constituting the second image signal.
第1の画像信号を、この第1の画像信号より多い画素数の第2の画像信号に変換する際に使用されるニューラルネットワークの結合係数を生成する装置において、
上記第2の画像信号に対応する教師信号に対してその画素数を減らす処理して上記第1の画像信号に対応する入力信号を得る信号処理手段と、
上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第1の領域の画素の信号を順次切り出す第1の画素切り出し手段と、
上記第1の画素切り出し手段により順次切り出された上記第1の領域の画素の信号のレベル分布のパターンを検出し、このパターンに基づいて上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラスを決定してクラス情報を出力するクラス決定手段と、
上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第2の領域の画素の信号を順次切り出す第2の画素切り出し手段と、
少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークの上記入力層のユニットへの入力値として上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素値を入力し、上記教師信号を構成する上記複数の画素値を上記出力層のユニットの出力値に基づく値の真値とする学習によって、上記クラス決定手段より出力される上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラス毎に上記ニューラルネットワークの上記結合係数を得るニューラルネット学習手段と
を備えることを特徴とする結合係数生成装置。
In an apparatus for generating a coupling coefficient of a neural network used when converting a first image signal into a second image signal having a larger number of pixels than the first image signal,
Signal processing means for obtaining an input signal corresponding to the first image signal by reducing the number of pixels of the teacher signal corresponding to the second image signal;
First pixel clipping means for sequentially cutting out signals of pixels in a first region located in the vicinity of a plurality of pixels constituting the teacher signal from the input signal;
A level distribution pattern of the signals of the pixels in the first region sequentially cut out by the first pixel cut-out means is detected, and the signals of the plurality of pixels constituting the teacher signal belong to each of the patterns based on the pattern. A class determining means for determining a class and outputting class information;
A second pixel cutout means for sequentially cutting out signals of pixels in a second region located in the vicinity of a plurality of pixels constituting the teacher signal from the input signal;
At least an input layer and an output layer are provided, the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the layer after the combination is combined with the output value of the plurality of units of the layer before the combination Input the pixel values of the second region sequentially cut out by the second pixel cut-out means as input values to the unit of the input layer of the neural network including the non-linear calculation of the product sum with the coefficient, and the teacher signal The plurality of pixel values constituting the teacher signal output from the class determining means are learned by making the plurality of pixel values constituting the true value of the value based on the output value of the unit of the output layer, respectively. And a neural network learning means for obtaining the coupling coefficient of the neural network for each class to which the class belongs.
上記ニューラルネット学習手段は、バックプロパゲーションネットワークを使用して構成されることを特徴とする請求項4に記載の結合係数生成装置。  5. The coupling coefficient generation apparatus according to claim 4, wherein the neural network learning means is configured using a back-propagation network. 上記ニューラルネット学習手段は、
入力層、隠れ層、出力層の各ユニットからなり、上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素の信号が上記入力層に供給されるニューラルネットワーク部と、
上記ニューラルネットワーク部の出力層のユニットからの出力値を画素信号値を表現するためのビット数に応じた画素信号値に変換する正規化手段と、
上記正規化手段より出力される画素信号値と、上記ニューラルネットワーク部の上記入力層に供給される上記第2の領域の画素の信号に対応した上記教師信号を構成する所定画素の信号とを比較して誤差を検出する誤差検出手段と、
上記クラス情報で示される各クラス毎に、上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素の信号とそれに対応した上記教師信号を構成する所定画素の信号との組み合わせでなる学習データに対し、上記誤差検出手段で検出される誤差が充分小さな一定範囲内に入る方向に上記ニューラルネットワーク部の出力層および隠れ層のユニットにおける結合係数を変更する結合係数変更手段と、
上記誤差が上記一定範囲内に入ったときの上記ニューラルネットワーク部の出力層および隠れ層のユニットにおける結合係数を学習結果とする結合係数決定手段と
を有することを特徴とする請求項5に記載の結合係数生成装置。
The neural network learning means
A neural network unit composed of units of an input layer, a hidden layer, and an output layer, and a signal of a pixel in the second region sequentially cut out by the second pixel cutout unit is supplied to the input layer;
Normalization means for converting the output value from the unit of the output layer of the neural network unit into a pixel signal value corresponding to the number of bits for expressing the pixel signal value;
The pixel signal value output from the normalizing means is compared with the signal of a predetermined pixel constituting the teacher signal corresponding to the pixel signal of the second region supplied to the input layer of the neural network unit. And error detection means for detecting the error,
For each class indicated by the class information, a combination of a signal of the pixel in the second area sequentially cut out by the second pixel cut-out unit and a signal of a predetermined pixel constituting the teacher signal corresponding thereto. Coupling coefficient changing means for changing the coupling coefficient in the unit of the output layer and hidden layer of the neural network unit in a direction in which the error detected by the error detection means falls within a sufficiently small fixed range,
6. Coupling coefficient deciding means that uses a coupling coefficient in a unit of an output layer and a hidden layer of the neural network unit when the error falls within the certain range as a learning result. Coupling coefficient generator.
第1の画像信号を、この第1の画像信号より多い画素数の第2の画像信号に変換する際に使用されるニューラルネットワークの結合係数を生成する方法において、
上記第2の画像信号に対応する教師信号に対してその画素数を減らす処理して上記第1の画像信号に対応する入力信号を得る第1のステップと、
上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第1の領域の画素の信号を順次切り出す第2のステップと、
上記第2のステップで順次切り出された上記第1の領域の画素の信号のレベル分布のパターンを検出し、このパターンに基づいて上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラスを決定してクラス情報を出力する第3のステップと、
上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第2の領域の画素の信号を順次切り出す第4のステップと、
少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークの上記入力層のユニットへの入力値として上記第4のステップで順次切り出された上記第2の領域の画素値を入力し、上記教師信号を構成する上記複数の画素値を上記出力層のユニットの出力値に基づく値の真値とする学習によって、上記第3のステップで出力される上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラス毎に上記ニューラルネットワークの上記結合係数を得る第5のステップと
を備えることを特徴とする結合係数生成方法。
In a method for generating a coupling coefficient of a neural network used when converting a first image signal into a second image signal having a larger number of pixels than the first image signal,
A first step of obtaining an input signal corresponding to the first image signal by processing the teacher signal corresponding to the second image signal to reduce the number of pixels;
A second step of sequentially cutting out signals of pixels in a first region located in the vicinity of a plurality of pixels constituting the teacher signal from the input signal;
The level distribution pattern of the signal of the pixels in the first region sequentially cut out in the second step is detected, and the class to which the signals of the plurality of pixels constituting the teacher signal belong respectively is detected based on the pattern. A third step of determining and outputting class information;
A fourth step of sequentially cutting out the signals of the pixels in the second region located in the vicinity of the plurality of pixels constituting the teacher signal from the input signal;
At least an input layer and an output layer are provided, the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the layer after the combination is combined with the output value of the plurality of units of the layer before the combination A pixel value of the second region sequentially cut out in the fourth step is input as an input value to the unit of the input layer of the neural network including a nonlinear product-sum operation with a coefficient, and the teacher signal is configured The signals of the plurality of pixels constituting the teacher signal output in the third step belong to each of the plurality of pixel values to be learned by learning the true value of the value based on the output value of the output layer unit. And a fifth step of obtaining the coupling coefficient of the neural network for each class.
JP14280397A 1997-05-30 1997-05-30 Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor Expired - Fee Related JP4447671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14280397A JP4447671B2 (en) 1997-05-30 1997-05-30 Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14280397A JP4447671B2 (en) 1997-05-30 1997-05-30 Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor

Publications (2)

Publication Number Publication Date
JPH10336598A JPH10336598A (en) 1998-12-18
JP4447671B2 true JP4447671B2 (en) 2010-04-07

Family

ID=15324007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14280397A Expired - Fee Related JP4447671B2 (en) 1997-05-30 1997-05-30 Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor

Country Status (1)

Country Link
JP (1) JP4447671B2 (en)

Also Published As

Publication number Publication date
JPH10336598A (en) 1998-12-18

Similar Documents

Publication Publication Date Title
JP3669530B2 (en) Image signal conversion apparatus and image signal conversion method
US6466269B1 (en) Video signal converter, conversion method of video signal, image display unit using them and television receiver
JPH10112843A (en) Image processor and image processing method
US6477278B1 (en) Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium
JPH0795591A (en) Digital picture signal processing unit
JP3946781B2 (en) Image information conversion apparatus and method
JP4447671B2 (en) Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor
JP3703034B2 (en) Image signal processing method and image signal transmission apparatus
JP3743077B2 (en) Image signal conversion apparatus and method
JP3723995B2 (en) Image information conversion apparatus and method
JP4140091B2 (en) Image information conversion apparatus and image information conversion method
JP3759538B2 (en) Image signal processing method and image signal transmission apparatus
JP3243861B2 (en) Image information conversion device
JP3334468B2 (en) Quantization bit number conversion apparatus and method
JPH08307835A (en) Classification adaptive processing unit and its method
JPH10112844A (en) Image processor and image processing method
US8228995B2 (en) Image processing apparatus, image processing method, and program
JP3326879B2 (en) Image signal converter
JP4038881B2 (en) Image signal conversion apparatus and conversion method, and coefficient data generation apparatus and generation method used therefor
JPH08317347A (en) Image information converting device
JP3480011B2 (en) Image information conversion device
JP3653287B2 (en) Image information conversion apparatus and image information conversion method
JPH0785287A (en) Predictive coding device and its decoding device
JP4649786B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient seed data generating apparatus and generating method used therefor
JPH0970048A (en) Vector quantization method, image information compression method, sound information compression method, compressed image information recording medium, compressed image information reproducing device and compressed image information communication equipment

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070424

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091204

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees