JP3539533B2 - 画像データ補間装置 - Google Patents

画像データ補間装置 Download PDF

Info

Publication number
JP3539533B2
JP3539533B2 JP31384896A JP31384896A JP3539533B2 JP 3539533 B2 JP3539533 B2 JP 3539533B2 JP 31384896 A JP31384896 A JP 31384896A JP 31384896 A JP31384896 A JP 31384896A JP 3539533 B2 JP3539533 B2 JP 3539533B2
Authority
JP
Japan
Prior art keywords
pixel
data
neural network
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31384896A
Other languages
English (en)
Other versions
JPH10164519A (ja
Inventor
和幸 菅
輝彦 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP31384896A priority Critical patent/JP3539533B2/ja
Publication of JPH10164519A publication Critical patent/JPH10164519A/ja
Application granted granted Critical
Publication of JP3539533B2 publication Critical patent/JP3539533B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ビデオテープレコーダやテレビ等において高品質な静止画像を表示するための画像データ補間装置に関し、特に、インターレース走査においてフィールド画像から画像データを補間してフレーム画像を生成する画像データ補間装置に関するものである。
【0002】
【従来の技術】
従来より、ビデオテープレコーダやテレビ等において、映像を映し出す方法として、一般にインターレース走査方法が採用されている。インターレース走査方法とは、1枚のフレーム画像を、時間を異にした2枚のフィールド画像に分けて、1回目の走査の軌跡に2回目の走査が埋まるように、2回に分けて走査して映像を映し出す走査方法である。このように、2回に分けて映し出される2枚の画像は、人間の視覚特性上の残像効果により、1枚の画像として認識される。
【0003】
しかしながら、2回に分けて送られてきた2枚のフィールド画像をそのままフレーム画像に変換して静止画像を生成する場合、被写体およびその被写体を撮像するためのカメラが完全に静止していれば問題はないが、何れかが動いていれば、フィールド画像間の時間上のずれにより、画像の奇数走査線と偶数走査線との間で画像の連続性が損なわれ、2枚のフィールド画像の間にずれが生じることになる。
【0004】
そこで、インターレース走査方式を採用するビデオテープレコーダ等の画像データ処理装置において静止画像を表示する場合、何れか一方のフィールド画像を基にしてフレーム画像を導くことが考えられている。つまり、フィールド画像を補間処理してフレーム画像を生成することにより、2枚のフィールド画像の間の映像の時間上のずれを排除して高品質な1枚の静止画像を表示するようになっている。
【0005】
このような2枚のフィールド画像のうちの何れか一方のフィールド画像を補間処理してフレーム画像を生成する画像データ補間方法について、図13ないし図17を参照しながら以下に説明する。ここで、図13に示すようなフィールド画像100の補間処理について説明する。また、図14は、図13に示すフィールド画像100の一部の領域(図中○で示す)の拡大図である。この図では、奇数番目の水平走査線に画像データが存在し、偶数番目の水平走査線に画像データが存在しない状態を示している。つまり、以下の各補間方法は、この画像データの存在しない水平走査線上に画像データを補間する処理方法を示している。
【0006】
尚、以下の説明において、補間すべき画素(以下、補間画素と称する)の画素データをB(0)で示し、補間の際に参照される上記補間画素の上側および下側の水平走査線(以下、単に走査線と称する)のそれぞれの参照画素の画素データをA(n)、C(n)で示すものとする。但し、nは画素データB(0)を基準とした水平走査線上の参照画素の配列番号を表す。
【0007】
第1の補間方法は、図15に示すように、フィールド画像の奇数番目の走査線1、走査線3、…のそれぞれの補間画素の画素データを、各奇数番目の走査線の下側の偶数番目の走査線2、走査線4、…の参照画素の画素データとして補間する方法である。即ち、上記の補間方法によれば、B(0)=A(0)として補間することになる。この場合、奇数番目の走査線上に参照画素の画素データが存在しているので、奇数番目の走査線から偶数番目の走査線を補間するようになっているが、逆に偶数番目の走査線上に参照画素の画素データが存在している場合には、偶数番目の走査線から奇数番目の走査線を補間する。
【0008】
しかしながら、上記第1の補間方法では、垂直方向の解像度が1/2になり、画像周縁部の斜線にギザギザが極めて目立つようになる。
【0009】
第2の補間方法は、図16に示すように、補間画素の画素データを、該補間画素の上下の2つの参照画素の画像データの平均値で補間する方法である。即ち、上記の補間方法によれば、B(0)=(A(0)+C(0))/2として補間することになる。
【0010】
しかしながら、上記第2の補間方法では、画像周縁部の斜線のギザギザは、上記第1の補間方法に比べて目立たなくなるが、斜線部分(エッジ)の劣化により画像全体がぼけた状態で認識される。
【0011】
第3の補間方法は、図17に示すように、エッジの方向性に注目し、補間画素の垂直方向だけでなく右上から左下方向、および左上から右下方向の全部で3方向について、その方向の補間画素を挟む2個の参照画素の画素データに対して絶対値差分を計算し、これが最小になる方向の2個の参照画素の画素データの平均値で補間する方法である。
【0012】
即ち、上記の補間方法によれば、|A(−1)−C(1)|、|A(0)−C(0)|、|A(1)−C(−1)|のうち最小のものを見つけて、それぞれに対応して、
B(0)=(A(−1)+C(1))/2、
B(0)=(A(0)+C(0))/2、
B(0)=(A(1)+C(−1))/2、
のいずれかで補間することになる。例えば、|A(0)−C(0)|が最小であれば、B(0)=(A(0)+C(0))/2を用いて補間処理する。
【0013】
ところが、かなり水平に近い傾斜エッジを有する画像を補間する場合、上記第3の補間方法のように3方向の参照画素だけでは十分に補間することができない虞がある。
【0014】
これに対処するためには、例えば図18に示すように、5方向の参照画素の画素データを利用したり、図19に示すように、7方向の参照画素の画素データを利用したりする必要がある。図18および図19において、図15ないし図17と同様に、B(0)は補間画素を示し、A(n)、C(n)は参照画素を示している。但し、nは画像データB(0)を基準とした水平走査線上の参照画素の配列番号を表す。
【0015】
しかしながら、上記のように参照画素数を増やしても、補間画素から参照画素までが遠い場合、例えば図19では、A(−3)とC(3)、またはA(3)とC(−3)の各参照画素で画素データの差が最小となった場合、実際にこれらが適当な補間方向であれば問題は生じないが、適当な補間方向でないときには、B(0)は隣接した画素とは全く異なる値で置き換えられる可能性がある。このような場合、補間画素が画像上では極めて目立つノイズとなって現れる。
【0016】
そこで、上記の問題点を解決するために、例えば特開平5−37910号公報には、ニューラルネットワークを用いてライン補間するライン補間装置が開示されている。このライン補間装置は、図20に示すように、補間すべきラインの画素に対して場所的・時間的に異なる所定の画素情報を遅延させる遅延回路201…と、遅延された画像情報が入力されてライン補間用の信号が出力されるニューラルネットワーク200とからなり、インターレース走査方式で入力された画像信号を複数の遅延回路201…を通すことで並列化して、補間すべき画素の周囲に位置する複数の参照画素の画像データを、予め学習されたニューラルネットワーク200に入力して補間画素の画素データを得るようになっている。
【0017】
このように、予め学習されたニューラルネットワーク200により補間画素の画像データを得る補間方法では、上記ニューラルネットワーク200に多くの種類の画像を予め学習させることで、画像の輪郭線が連続であることなどが学習され、ライン補間用の信号の生成が効率良く成される。
【0018】
【発明が解決しようとする課題】
ところが、上記公報に開示された技術では、高画質化テレビジョンのノンインターレース表示時に適用されるものであり、ビデオレート処理の高速化が必要とされている。このため、補間画素の画素データを迅速に得る必要がある。これに対応させるには、ニューラルネットワークによって予め学習させる画像の種類を多くする必要がある。
【0019】
しかも、上記公報に開示された技術では、ビデオレート処理の高速化のために、参照画素の画素データの並列化された多入力方式の規模が大きく複雑なニューラルネットワークの回路が要求され、装置が大きなものとなるという問題が生じる。
【0020】
本発明は、上記の問題点を解決するためになされたもので、その目的は、動画像から導かれた単発的な静止画像の表示やビデオプリンタ出力等のビデオレート処理を行わない装置に適用することを前提とし、入力画像毎にニューラルネットワークを学習させることで、入力画像に応じた補間処理を行うことで高品質の静止画像を得ることができ、しかも、各参照画素の画素データを順番に入力するような構造にすることで、構築されるニューラルネットワークを簡略化できる画像データ補間装置を提供することにある。
【0021】
【課題を解決するための手段】
請求項1の画像データ補間装置は、上記の課題を解決するために、フレーム画像を構成する2枚のフィールド画像のうち、1枚のフィールド画像の補間すべき画素の画素データを、該フィールド画像の走査線上の既存画素の画素データを用いて補間処理して生成する画像データ補間装置において、入力されるアナログのビデオ信号をA/D変換してデジタル化した画像データを生成するA/Dコンバータと、上記A/Dコンバータにてデジタル化して得られた画像データの1フレーム分の画像データを格納するフレームメモリと、補間すべき画素毎に、それぞれの補間すべき画素を含む所定範囲内の既存の周辺画素の画素データに基づいて学習すると共に、処理対象の画素を移動するときは新たに必要となる既存の周辺画素の画素データのみを入力する階層型ニューラルネットワークによって、補間すべき画素の画像データを生成する処理により、上記フレームメモリに格納された1フレーム分の画像データにおける1フィールド分の画像データを使用して、1フィールド分の画像データを生成し、この1フレーム分の画像データ、および既に存在する上記1フィールド分の画素データとを合わせて1フレーム分の画像データを生成する補間画素データ生成手段とが設けられていることを特徴としている。
【0022】
上記の構成によれば、補間すべき画素毎に学習可能な階層型ニューラルネットワークを用いて補間処理を行うようになっているので、入力画像に応じた高品位の静止画像を得ることができる。しかも、補間処理が階層型ニューラルネットワークを用いて行われているので、出力画像のエッジ部をハッキリさせることができると共に、斜め線をギザギザのない滑らかな線にすることができる。
【0023】
また、上述のように、上記階層型ニューラルネットワークは、補間画素毎に学習可能であるので、随時学習が可能となり、階層型ニューラルネットワークの結合の重み調整を入力画像毎にリアルタイムで行うことができ、入力されるどのような画像に対しても入出力関係を最適にすることができる。
【0024】
このようなリアルタイムに学習可能な階層型ニューラルネットワークを用いて、補間すべき画素毎に、補間処理が行われると、それぞれの入力画像毎にネットワークの重みを調整することができるので、常に最適な補間処理が可能となる。したがって、どのような入力画像に対しても、補間処理において生じる問題としてのエッジ部分のボケや、斜め線のギザギザを無くすことができるので、補間処理後の静止画像に滑らかさが生じ、静止画像の品位を向上させることができる。
【0025】
さらに、上記構成の画像データ補間装置では、静止画像を得るものであるので、ビデオレート処理の必要はなく、ビデオレート処理の高速化のために、参照画素の画素データを並列化してニューラルネットワークに入力する必要がなくなる。よって、参照画素の画素データは、順番にニューラルネットワークに入力すればよいので、従来のように参照画素の画素データの並列化された多入力方式のように回路規模が大きく複雑にならず、階層型ニューラルネットワークを簡略化できる。
【0026】
請求項2の画像データ補間装置は、請求項1の構成に加えて、階層型ニューラルネットワークは、学習により補間画素とその周辺の画素とを含めた各画素の位置情報と画素データとが対応する画素データ曲面を形成することを特徴としている。
【0027】
上記の構成によれば、請求項1の作用に加えて、階層型ニューラルネットワークの学習によって得られた画素データ曲面を用いれば、補間画素の画素データを周囲の画像に応じで生成することができるので、さらに、静止画像の品位を向上させることができる。
【0028】
請求項3の画像データ補間装置は、請求項1または2の構成に加えて、階層型ニューラルネットワークは、各画素の位置情報を入力とし、入力された位置情報における画素データを出力とするように構成されていることを特徴としている。
【0029】
上記の構成によれば、請求項1または2の構成による作用に加えて、フィールド画像の補間すべき画素に対して補間処理を行うには、階層型ニューラルネットワークの入力が補間すべき画素の位置情報だけで十分であり、また、このときの出力が補間画素の画素データであるので、階層型ニューラルネットワークにおける入出力関係が複雑にならずに、規模が小さく、簡単な構造の階層型ニューラルネットワークを用いることができる。
【0030】
また、請求項4の画像データ補間装置は、上記の課題を解決するために、請求項1、2または3の構成に加えて、補間処理手段は、補間処理を行う際、先ず、補間すべき画素を含む所定範囲の周辺画素の既存の画素データを教師データとし、その既存の画素データの位置情報を入力データとして階層型ニューラルネットワークに学習させ、学習終了後、補間すべき画素の位置情報を入力することによって補間すべき画素の画素データを生成することを特徴としている。
【0031】
上記の構成によれば、請求項1、2または3の構成による作用に加えて、補間処理を行う際、階層型ニューラルネットワークの学習方法が、既存画素の位置情報とその画素データを用いて行われるので、学習のための計算量が少なくて済み、高速に学習を行うことができる。これにより、補間すべき画素の補間処理の高速化を図ることができる。
【0032】
請求項5の画像データ補間装置は、上記の課題を解決するために、請求項3または4の構成に加えて、階層型ニューラルネットワークは、2つのノードからなる入力層、少なくとも1つ以上のノードからなる中間層、1つのノードからなる出力層より構成されるバックプロパゲーション型ニューラルネットワークであることを特徴としている。
【0033】
上記の構成によれば、請求項3または4の構成による作用に加えて、フィールド画像の補間すべき画素に対して、補間処理を行う場合、階層型ニューラルネットワークとして、2入力1出力のバックプロパゲーション型ニューラルネットワークが用いられているので、入出力関係が簡素であり、簡単なハード構成にて入力画像の変換処理を行うことができる。
【0034】
請求項6の画像データ補間装置は、上記の課題を解決するために、請求項3または4の構成に加えて、階層型ニューラルネットワークは、2つのノードからなる入力層、big、middle、smallを表現するメンバーシップ関数を構成する2つの層からなるメンバーシップ層、2つの入力に対して全てのメンバーシップ値の組み合わせをとり、ファジィの理論積を得るように構成されるルール層、1つのノードからなる出力層より構成されるファジィ・ニューラルネットワークであることを特徴としている。
【0035】
上記の構成によれば、請求項3または4の構成による作用に加えて、フィールド画像の補正すべき画素に対して補間処理を行う場合、階層型ニューラルネットワークとして、2入力1出力のファジィ・ニューラルネットワークが用いられているので、ハード構成上は上記の請求項5記載のバックプロバケーション型ニューラルネットワークよりも複雑になるものの、より細かい部分画像の階調曲面を表現することが可能となり、請求項5のバックプロバケーション型ニューラルネットワークより最適な補間画素データを得ることが可能となる。
【0036】
【発明の実施の形態】
本発明の実施の一形態について図1ないし図12に基づいて説明すれば、以下の通りである。
【0037】
本実施の形態に係る画像データ補間装置は、図1に示すように、入力されるアナログのビデオ信号(以下、入力ビデオ信号と称する)PiをA/D変換してデジタル化した画像データDを生成するA/Dコンバータ1と、画像データDに対して所定の補間処理する補間処理部6、補間処理された画像データD’をD/A変換して、外部に出力するアナログのビデオ信号(以下、出力ビデオ信号と称する)Poを生成するD/Aコンバータ3とで構成されている。
【0038】
上記補間処理部6は、フレームメモリ2、コントローラ4、CPU5からなり、A/Dコンバータ1で得られた画像データDを1フレーム分毎補間処理を行うようになっている。尚、補間処理の詳細については、後述する。
【0039】
上記フレームメモリ2は、A/Dコンバータ1にてデジタル化して得られた画像データDの1フレーム分の画像データを格納すると共に、上記CPU5にて補間処理された画像データD’を格納するようになっている。尚、1フレーム分の画像データは、1フレーム画像を構成する2枚のフィールド画像、即ち第1フィールド画像の画像データ(以下、第1フィールドデータと称する)と、第2フィールド画像の画像データ(以下、第2フィールドデータと称する)とで構成されている。
【0040】
したがって、フレームメモリ2では、1フレーム分の画像データのうち、第1フィールドデータを構成する画素データをフレーム画像の奇数番目の水平走査線に対応するデータ格納領域である奇数行アドレスに、第2フィールドデータを構成する画素データをフレーム画像の偶数番目の水平走査線に対応するデータ格納領域である偶数行アドレスに、それぞれ対応づけて格納するようになっている。
【0041】
フレームメモリ2は、コントローラ4による制御によって格納された画像データDあるいはD’をD/Aコンバータ3に転送するようになっている。
【0042】
上記コントローラ4は、CPU5の指示に基づいて、A/Dコンバータ1、フレームメモリ2、D/Aコンバータ3の動作を制御するようになっている。
【0043】
CPU5は、フレームメモリ2およびコントローラ4の動作を制御するようになっている。また、CPU5は、フィールド画素の補間すべき画素(以下、補間画素と称する)の画素データ(以下、補間画素データと称する)を、該補間画素を含む所定範囲内の既存の周辺画素(以下、参照画素と称する)の画素データに基づいて生成するようになっている。したがって、このCPU5には、補間処理用の制御プログラムを格納したROMが内蔵されており、階層型のニューラルネットワークを用いて補間処理する補間処理機能を有している。
【0044】
上記の構成の画像データ補間装置の動作について図1に示すブロック図および図4に示すフローチャートを参照しながら以下に説明する。尚、本説明では、入力ビデオ信号Piをデジタル化して得られる画像データDとして、輝度データを想定した場合について述べる。また、本動作は、上記CPU5に内蔵されたROMに格納された補間処理用の制御プログラムに沿って行われる。
【0045】
先ず、CPU5は、コントローラ4がA/Dコンバータ1を制御することによって、入力ビデオ信号Piを画像データDにA/D変換する(S1)。
【0046】
そして、変換して得られた画像データDのうち、1フレーム分の画像データDを、コントローラ4の制御によりフレームメモリ2に入力し、所定の格納領域に格納する(S2)。つまり、フレームメモリ2では、入力した1フレーム分の画像データのうち第1フィールド画像を構成する画素データを奇数行アドレスに、また第2フィールド画像を構成する画素データを偶数行アドレスに対応させて格納している。
【0047】
次に、CPU5は、フレームメモリ2に格納された1枚のフィールド画像の画像データを読み込み、参照画素から補間画素の画素データを生成する補間処理を行う(S3)。この補間処理では、フィールド画像の補間画素毎に補間処理して画素データを1フィールド分生成し、この1フィールド分の画素データからなる画像データと、既に存在する1フィールド分の画素データからなる画像データとを合わせて1枚のフレーム画像の画像データD’を生成するようになっている。
【0048】
続いて、CPU5は、一つの補間画素を補間処理して得た画素データD’をフレームメモリ2の所定の格納領域に格納する(S4)。そして、1フィールド分の補間処理が終了したか否かを判定する(S5)。ここで、補間処理が終了していなければ、1フィールド分の補間処理が終了するまで繰り返される。
【0049】
そして、S5にて、CPU5は、1フィールド分の補間処理が終了したと判定したときに、フレームメモリ2に格納された1フレーム分の画像データD’をD/Aコンバータ3に転送し、コントローラ4を介してD/Aコンバータ3を制御することでアナログの出力ビデオ信号Poに変換させる(S6)。そして、このD/A変換され画像データD’を外部に出力して、最終的に、入力ビデオ信号Piの1フレーム分の画像の静止画像を得る。
【0050】
以上のように、CPU5は、補間画素に対して、該補間画素を含む所定範囲内の既存の参照画素の画素データを用いて補間処理を施す補間処理機能を有している。具体的には、CPU5の補間処理は、既存の画素データによって良く学習された階層型のニューラルネットワークを用いて行われる。このCPU5の補間処理機能について以下に説明する。
【0051】
上記CPU5の補間処理機能とは、例えば図2に示すように、既に存在する1枚のフィールド画像の各行の画像データ(図中、斜線で示した部分)からこのフィールド画像の各行の間の行の画像データ(図中、白抜きの部分)を生成するものである。具体的には、補間画素12の周囲にある既存の画素でマトリクス状に囲まれた領域(以下、参照画像領域と称する)11内に含まれる参照画素の画素データを用いて一つずつ補間して、上記補間画素12の画素データを生成し、1フィールド分の画像データを生成するようになっている。
【0052】
つまり、CPU5は、図3に示すように、参照画像領域11内の既在のフィールド画像の『・・・,i−1,i+1,・・・』の行の画像データから、『・・・,i−2,i,i+2,...』の行の画像データを生成するものとし、第i行j列の補間画素12の画素データ(以下、補間画素データと称する)f(j,i) を生成して補間するようになっている。ここでは、一つの補間画素12について、4×7の参照画素13…を用いて補間処理を行っている。尚、この参照画素13の数は、特に限定するものではない。
【0053】
そして、CPU5は、1フィールド内の各補間画素12…について、それぞれ参照画像領域11の既存の参照画素の画素データを用いて補間処理を行い、1フィールド分の補間画素の画素データを生成するようになっている。
【0054】
ここで、上述の補間処理について、図3に示すマトリクス状の参照画像領域11および図5に示すフローチャートを参照しながら以下に説明する。
【0055】
先ず、CPU5は、フレームメモリ2から図3に示す第i−3行、第i−1行、第i+1行、第i+3行における第j−3列、第j−2列、第j−1列、第j列、第j+1列、第j+2列、第j+3列の参照画素の画素データを読み込む(S11)。
【0056】
次に、CPU5は、読み込んだ参照画像領域11内の既存画像データを用いてニューラルネットワークの学習を行う(S12)。つまり、CPU5は、読み込んだ参照画像領域11の4×7画素領域内の画像データ(以下、部分画像データと称する)の位置情報(x,y)(x=−3,−2,−1,0,1,2,3:y=−3,−1,1,3)とそれぞれの位置での画素データf(x,y)とを、それぞれ階層型ニューラルネットワークの入力データ、および教師データとする。教師データとは、ニューラルネットワークがそれぞれの入力値に対して正しい出力値が出力できるように目標値として与えるデータであり、ニューラルネットワークは出力値がこの教師データに近づくように、ネットワークの結合の重みを変化させてゆく。
【0057】
次いで、CPU5は、ニューラルネットワークの学習回数、つまり、一つの画素に対して行われる学習回数が1000回達成したか否かを判定する(S13)。もし、学習回数が1000回達成していれば、S15に移行し、学習回数が1000回達成していなければ、S14に移行して、学習誤差が5%以内であるか否かを判定する(S14)。ここで、学習誤差が5%以内であれば、S15に移行し、学習誤差が5%以内でなければ、S12に移行して、再びニューラルネットワークの学習を行う。
【0058】
S15では、学習後のニューラルネットワークへの、補間画素12の位置情報の入力が行われる。次いで、ニューラルネットワークにて上記位置情報から、補間画素位置での補間画素12の画素データの出力が行われ(S16)、図4のフローチャートのS4に移行し、補間画素12の画素データがフレームメモリ2に格納される。
【0059】
同様にして、補間画素を移動して、図3に示す第i行の全ての画素について、順次繰り返し補間画素データを求め、この補間画素データをフレームメモリ2の対応するアドレスに格納して1行分の補間画素データを得る。ここで、補間に必要な参照画素データの読み出しは処理対象の画素を移動したことにより新たに必要になった分だけ行えば良い。こうすれば、補間処理のための参照画素データの読み込みやデータの演算等の処理を必要最小限にすることができるので、補間処理速度を向上させることができる。
【0060】
さらに、同様にして、上述した補間処理を各行毎に繰り返して行い、最終的に1フィールド分の画像データから1フレーム分の画像データD’が生成される。そして、一連のフィールド画像の補間処理が終了して1フレーム分の画像データD’が得られると、CPU5は、コントローラ4を介してフレームメモリ2およびD/Aコンバータ3を制御し、フレームメモリ2に格納された1フレーム分の画像データD’をD/Aコンバータ3により出力ビデオ信号Poに変換して外部に出力する。
【0061】
本実施の形態では、CPU5にて補間処理に用いられる階層型ニューラルネットワークとして、バックプロパゲーション型ニューラルネットワークとファジィ・ニューラルネットワークとを用いた場合について説明する。尚、各階層型ニューラルネットワークの詳細は、上記学習方法と共に後述する。
【0062】
上述したニューラルネットワークの学習によって、図6に示すような既存の画素データの位置にある矢印の先端部を非線形な曲線で結んだときに形成される階調曲面(画素データ曲面)が得られる。図6では、実線の矢印は既存の画素データを表し、破線の矢印は補間画素の画素データを表しており、矢印の長さが各画素データf(x,y)の大きさ、即ち輝度データの大きさを表している。ここで、x、yはそれぞれフィールド画像の補間画素の位置情報を示すx軸、y軸を示し、f(x,y)は画素値(輝度データの大きさ)を示している。
【0063】
ここで、上記CPU5で使用される2種類の階層型ニューラルネットワークについて、図7ないし図12に基づいて以下に説明する。
【0064】
先ず、バックプロパゲーション型ニューラルネットワークについて説明する。本ニューラルネットワークは、図7に示すように、2入力1出力となっており、入力層11、中間層12、出力層13の3層で構成されている。上記ニューラルネットワークにおいて、2つの入力項目はそれぞれ画素の位置情報であり、1つの出力項目は入力された画素位置における画素値である。
【0065】
入力層11は、入力値X1が入力されるノードA1、入力値X2が入力されるノードA2の2つのノードからなる。参照符X1・X2は、画素の位置情報、即ちX1は画素のx軸の位置情報、X2は画素のy軸の位置情報を示す。
【0066】
中間層12は、9つのノードD1〜D9からなり、これらノードD1〜D9は入力層11のノードA1と重みW11〜W19で結合されると共に、入力層11のノードA2と重みW21〜W29で結合されている。この重みW11〜W19、W21〜W29は、後述する学習により調整するようになっている。
【0067】
尚、中間層12のノード数は、サンプルの画像データを用いて中間層12におけるノード数を1から順に1個ずつ増やして学習させたときに、一番精度良く学習できたときのノード数を用いるようになっている。したがって、本実施の形態のように、中間層12のノード数を9個に限定するものではなく、学習精度を考慮して任意のノード数にしても良い。
【0068】
出力層13は、1つのノードE1からなり、このノードE1は中間層12のノードD1〜D9と重みV11〜V91で結合されている。この重みV11〜V91は、後述する学習により決定され、出力値Y1として出力されるようになっている。
【0069】
上記のように構築されたバックプロパゲーション型のニューラルネットワークの学習方法について以下に説明する。
【0070】
先ず、入力層11から出力層13までの順方向の演算について説明する。
最初に、入力層11では部分画像データの位置情報を入力データ(X1・X2)として入力し、そのまま中間層12に出力する。即ち、以下の(1)式に示すようになる。
【0071】
【数1】
Figure 0003539533
【0072】
ここで、Ii は入力層11の各ノードからの出力値であり、例えばノードA1からの出力値はI1 となり、ノードA2からの出力値はI2 となる。また、Xiは画素の位置情報を表す入力データを表し、例えばX1は画素のx軸の位置情報、X2は画素のy軸の位置情報を表す入力データを表す。
【0073】
次に、中間層12では、入力層11からの出力値に基づいて演算が行われ、各ノードD1〜D9の出力値が決定される。即ち、入力層11と中間層12との間では、以下の(2)式による演算が行われる。
【0074】
【数2】
Figure 0003539533
【0075】
ここで、Hj は中間層12の各ノードからの出力値であり、例えばノードD1からの出力値はH1 、ノードD2からの出力値はH2 となる。また、Wijは入力層11の各ノードと中間層12の各ノードとの結合の度合いを示す重みであり、例えば入力層11のノードA1と中間層12のノードD1との結合の重みはW11である。また、θj は中間層12の各ノードにおけるオフセット値である。
【0076】
上記の(2)式の(Ii ・Wij+θj )を入力値Xとした場合、f(X)は入力値Xに対して単調に増加する非線形な単調増加関数であり、例えば図8に示すようなシグモイド関数が適用される。このシグモイド関数は、以下の(3)式で表される。
【0077】
【数3】
Figure 0003539533
【0078】
最後に、出力層13では、中間層12からの出力値に基づいて演算が行われ、ノードE1の出力値が決定される。即ち、中間層12と出力層13との間では、以下の(4)式による演算が行われる。
【0079】
【数4】
Figure 0003539533
【0080】
ここで、Okは出力層13のノードE1からの出力値Y1である。また、Vjkは中間層12の各ノードD1〜D9と出力層13のノードE1との結合の度合いを示す重みであり、例えば中間層12のノードD1とノードE1との結合の重みはV11である。また、θk は出力層13のノードE1におけるオフセット値である。
【0081】
上記の(4)式の(Hj ・Vjk+θk )を入力値Xとした場合、f(X)は入力値Xに対して単調に増加する非線形な単調増加関数であり、上述した(2)式と同様に、例えば図8に示すようなシグモイド関数が適用される。
【0082】
ここまでが、学習のための順方向の演算である。
【0083】
次に、学習のための逆方向の演算について以下に説明する。
この学習の目的は、ニューラルネットワークにおける最適な入出力関係を得ることであり、このために、教師データを目標にして、ネットワーク中の結合の重みを微調整するようになっている。以下に、ネットワークの結合の重みの微調整の方法について説明する。
【0084】
先ず、出力層13のノードE1の出力値と教師データとの2乗誤差を、以下の(5)式を用いて計算する。
【0085】
【数5】
Figure 0003539533
【0086】
ここで、Ekは教師データと出力値との2乗誤差であり、Tkは教師データである。つまり、この学習の目的は、上記Ekを小さくすることになる。そこで、以下の(6)式を用いて、EkをOkで偏微分することにより、OkによるEkへの影響を求める。
【0087】
【数6】
Figure 0003539533
【0088】
更に、中間層12と出力層13との間の結合の重みVjkによるEkへの影響、および入力層11と中間層12との間の結合の重みWijによるEkへの影響を、以下の(7)・(8)式を用いて求める。
【0089】
【数7】
Figure 0003539533
【0090】
【数8】
Figure 0003539533
【0091】
上記の(7)・(8)式を用いて求めたEkへの影響に基づき、以下の(9)・(10)式を用いて各結合の重みを微調整する。
【0092】
【数9】
Figure 0003539533
【0093】
【数10】
Figure 0003539533
【0094】
ここで、αは微調整する度合いを示す値であり、通常0.05〜0.25ぐらいの値を用いる。また、tは学習回数を表している。
【0095】
したがって、上記(9)・(10)式では、現在の結合の重み(Vjk、Wij)に微調整する値を加えて、次回の演算/学習のときの結合の重みとしている。
【0096】
以上のように、上記のアルゴリズムに従って繰り返し学習を行い、結合の重みを修正していくことで、教師データと出力値との2乗誤差をある程度まで小さくできるようになる。そして、予め設定された学習回数、もしくは誤差の値が誤差の許容値以下になった時点で学習を終了する。尚、本実施の形態では、前述した通り規定の学習回数を1000回とし、誤差の許容値は5%とし、学習回数が1000回あるいは誤差が5%以下になった時点で学習を終了するようになっている。
【0097】
このように学習されたバックプロパゲーション型ニューラルネットワークにより、解像度変換処理や変倍処理を入力された画像の全ての部分画像に対して行うことによって、入力された画像が変換処理され、解像度が変換された画像、もしくは倍率が変換された画像となる。
【0098】
次に、ファジィ・ニューラルネットワークについて説明する。本ニューラルネットワークは、図9に示すように、2入力1出力となっており、入力層21、中間層としてのメンバーシップ層前半部22、メンバーシップ層後半部23、ルール層24、および出力層25の5つの層からなり、2層目と3層目を合わせてメンバーシップ層を構築している。上記ファジィ・ニューラルネットワークにおいて、2つの入力項目はそれぞれ画素の位置情報であり、1つの出力項目は入力された画素位置における画素値である。
【0099】
上記のファジィ・ニューラルネットワークにおける各層のノードとノードとの間の結合は以下のようにして構成される。
【0100】
先ず、入力層21は、入力項目毎に2つのノードA1、A2およびノードA3、A4で構成されており、ノードA2、A4にはそれぞれ定数1が入力され、ノードA1には入力値X1(x軸の位置情報)が入力され、ノードA3には入力値X2(y軸の位置情報)が入力されるようになっている。
【0101】
次に、メンバーシップ層では、各入力項目毎に、図10〜図12に示すような、small、middle、bigのメンバーシップ関数が構成されている。
【0102】
従って、メンバーシップ層前半部22では、ノードB1〜B4、ノードB5〜B8の各4つのノードを構成し、ノードB1〜B4では定数1と入力値X1とを結合させ、ノードB5〜B8では定数1と入力値X2とを結合させる一方、メンバーシップ層後半部23では、ノードC1〜C3、ノードC4〜C5の各3つのノードを構成し、メンバーシップ層前半部22の1つまたは2つのノードを結合させるようになっている。
【0103】
即ち、図9に示すメンバーシップ層後半部23の1つのノードを結合させる部分であるノードC1、C4は、図12に示すbigのメンバーシップ関数を構成する部分となり、ノードC3、C6は、図10に示すsmallのメンバーシップ関数を構成する部分となる。また、メンバーシップ層後半部23の2つのノードを結合させる部分であるノードC2、C5は、図11に示すmiddleを構成する部分となる。
【0104】
上記構成のメンバーシップ層の各ノードは、1入力項目毎に必ず構成されるものであり、入力項目毎のノード数は固定である。本実施の形態では、1入力項目に対するメンバーシップ層前半部22のノード数は4、メンバーシップ層後半部23のノード数は3となっている。
【0105】
次いで、ルール層24では、メンバーシップ層後半部23の入力値X1に関係するノードC1に対して入力値X2に関係するノードC4〜C6のそれぞれと論理積を取るようにノードD1〜D3が構成されている。同様にして入力値X1に関係するノードC2に対して入力値X2に関係するノードC4〜C6のそれぞれと論理積を取るようにノードD4〜D6が構成され、入力値X1に関係するノードC3に対して入力値X2に関係するノードC4〜C6のそれぞれと論理積を取るようにノードD7〜D9が構成されている。即ち、ルール層24では、2つの入力値X1・X2に対して全てのメンバーシップ値の組み合わせをとり、ファジィの論理積を得るように構成されている。
【0106】
最後に、出力層25では、ルール層24からの出力を全て結合し、入力画像の各画素位置での画素値である出力値Y1を出力する1つのノードE1を有している。
【0107】
このようにして構成されたファジィ・ニューラルネットワークのノード間の結合部分には、結合毎に全て重みがある。
【0108】
従って、入力層21とメンバーシップ層前半部22との結合部分では、メンバーシップ関数のセンター値(メンバーシップ関数の出力値が0.5となるときの入力値)が重みWc11〜Wc14およびWc21〜Wc24となっている。
【0109】
即ち、メンバーシップ関数は、前述したように3種類あり、それぞれのメンバーシップ関数のセンター値は各重みと一致している。例えば、入力値X1のbigを表すメンバーシップ関数のセンター値の重みはWc11であり、middleを表すメンバーシップ関数のセンター値の重みはWc12とWc13であり、smallを表すメンバーシップ関数のセンター値の重みはWc14である。尚、middleは、2つのメンバーシップ関数の論理積の形となっているので、2つのセンター値を有している。
【0110】
次に、メンバーシップ層前半部22とメンバーシップ層後半部23との結合部分では、メンバーシップ関数の傾きが重みWg11〜Wg14およびWg21〜Wg24となっている。この場合、メンバーシップ関数の傾きが各重みと一致している。例えば、入力値X1のbigを表すメンバーシップ関数の傾きの重みはWg11であり、middleを表すメンバーシップ関数の傾きの重みはWg12とWg13であり、smallを表すメンバーシップ関数の傾きの重みはWg14である。尚、middleは、2つのメンバーシップ関数の論理積の形となっているので、2つの傾きを有している。
【0111】
最後に、ルール層24と出力層25との結合部分では、エキスパートから得た知識が重みWf1 〜Wf9 となっている。このエキスパートから得た知識では、出力値が大きくなるような入力値の組み合わせのルールの重みは1に近い値とし、出力値が小さくなるような入力値の組み合わせのルールの重みは0に近い値とする。それ以外のルールの重みは0.5に初期設定しておく。
【0112】
また、上述した結合部分以外の結合部分の重み、例えばメンバーシップ層後半部23とルール層24との結合部分の重みは、1で固定されている。
【0113】
上記構成のファジィ・ニューラルネットワークにおいて、各層の出力値を求める方法について以下に説明する。尚、入力層21の出力値は、入力値と同じであるので説明は省略する。
【0114】
メンバーシップ層は、以下の(11)式に示すように、2層目でメンバーシップ関数のセンター値Wc11〜Wc14およびWc21〜Wc24を加える。
【0115】
【数11】
Figure 0003539533
【0116】
ここで、xは入力層21の出力値、Wcはメンバーシップ関数のセンター値、Hは2層目の出力である。また、iは各入力項目の数であり、jはbigのとき1、middleのとき2または3、smallのとき4となっている。
【0117】
上記(11)式は、後に代入する以下の(12)式に示すようなシグモイド関数の原点の位置をメンバーシップ関数のセンター値の位置に合わせることを示している。
【0118】
次に、以下の(13)式に示すように、3層目でメンバーシップ関数の傾きを掛けてシグモイド関数に代入することにより、その入力値の各領域でのメンバーシップ関数の出力値を得るようになっている。尚、middleの場合は(13)式の代わりに以下の(14)式を用いる。
【0119】
【数12】
Figure 0003539533
【0120】
【数13】
Figure 0003539533
【0121】
【数14】
Figure 0003539533
【0122】
ここで、Wgはメンバーシップ関数の傾きの値、f(X)はシグモイド関数、Mはメンバーシップ関数の出力値、min{f(X1),f(X2)}はf(X1)とf(X2)との論理積を示す。また、kはメンバーシップ層後半部23のノードの番号であり、iはbigのとき1、middleのとき2、smallのとき3となっている。また、上記(14)式では、論理積を計算することにより、minのカッコの中の2つの関数のうち、小さい方の値を選択することになる。
【0123】
次いで、ルール層24では、以下の(15)式を用いてANDルールの計算が行われる。即ち、2つの入力項目の中で、それぞれ3つの領域(big、middle、small)から1つずつ選び、その2つのメンバーシップ出力値の論理積の計算が行われる。
【0124】
【数15】
Figure 0003539533
【0125】
ここで、RはANDルールの出力値であり、k1とk2はメンバーシップ層後半部23のノード番号である。また、ここでも論理積の計算により、minのカッコの中の2つの関数のうち、小さい方の値を選択することになる。
【0126】
最後に、出力層25では、以下の(16)式を用いて出力値の計算が行われる。即ち、ファジィルールの前件部命題(例:X1がbigである)によって得られた各ANDルールの出力値とそのルールからの結合の重みの値Wfを掛け合わせて、それをANDルールの出力全体の合計値で割ったものの総和を取ることで計算が行われる。
【0127】
【数16】
Figure 0003539533
【0128】
ここで、nはルール層24のノード番号である。
【0129】
以上が、上記のファジィ・ニューラルネットワークに入力値を代入してから出力値を得るまでの計算の過程を示す。尚、上記構成のファジィ・ニューラルネットワークを初めに構築した状態では、各層のノード間の結合の重みの値は各層毎に決まった値を有しており、入力値を代入しても、出力値はでたらめな値であり、対象物の入出力関係を正しくシミュレートできない。そこで、正しくシミュレートするために、結合の重みの調整を行う必要がある。これがファジィ・ニューラルネットワークにおける学習である。
【0130】
上記ファジィ・ニューラルネットワークにおける学習について以下に説明する。
【0131】
対象物の入出力関係を表したサンプルデータの出力値を教師データTとし、以下の(17)式を用いて、この教師データTと、サンプルデータの入力値(X1、X2、…、Xn)から上記の(11)〜(16)式によって得られた出力値yとの2乗誤差を用いる。
【0132】
【数17】
Figure 0003539533
【0133】
ここで、Eは教師データTと出力値yとの2乗誤差を表す。この誤差を少なくすることによって対象物の入出力関係が正しくシミュレートできているものと判断する。
【0134】
この誤差を減らす方法として、バックプロパゲーション法に基づいて学習アルゴリズムを用いる。以下、この学習アルゴリズムについて説明する。
【0135】
上記(17)式をyにおいて偏微分すると、以下の(18)式に示すようになる。これが、誤差に対する出力値yの影響を示す。
【0136】
【数18】
Figure 0003539533
【0137】
次いで、上記(17)式をWfにおいて偏微分すると、以下の(19)式に示すようになる。このとき、上記(17)式のyに上記(16)式を代入する。
【0138】
【数19】
Figure 0003539533
【0139】
次に、上記(17)式をWg、Wcにおいてそれぞれ偏微分すると、以下の(20)(21)式に示すようになる。このとき、上記(17)式に、上記(16)式、(15)式および(14)式、または(13)式、(11)式を代入する。
【0140】
【数20】
Figure 0003539533
【0141】
【数21】
Figure 0003539533
【0142】
上記(19)〜(21)式までが誤差に対するそれぞれの結合の重みの影響を示す。ここで、上記(20)式および(21)式におけるrは修正すべきメンバーシップ関数を実現している重みからANDルールの出力として選択された数だけ、ルール層24のノードからの誤差の総和を取っている。
【0143】
これらの影響が少なくなる方向に重みを修正することによって、全体的に誤差を減らすようにする。この修正する量は、以下の(22)〜(24)式に示すようになる。
【0144】
【数22】
Figure 0003539533
【0145】
【数23】
Figure 0003539533
【0146】
【数24】
Figure 0003539533
【0147】
ここで、α、β、γは学習パラメータであり、影響を小さくする重みの修正量を決定するためのパラメータである。このパラメータを用いて、以下の(25)〜(27)式に示すような修正が行われる。
【0148】
【数25】
Figure 0003539533
【0149】
【数26】
Figure 0003539533
【0150】
【数27】
Figure 0003539533
【0151】
以上のような学習アルゴリズムに従って繰り返し学習を行い、重みを修正することで誤差を小さくしている。そして、誤差の値が予め設定した誤差の許容値以下になった時点で学習を終了とする。この誤差の許容値は予め設定されるものであり、本実施の形態では5%以下になった時点で学習を終了するものとする。
【0152】
上記構成の画像データ補間装置において、補間画素に対して補間処理を行う際、先ず、補間画素周りに既に存在する画素(参照画素)の画素データを教師データとし、その既存の画素の画素値に対応する位置情報を入力データとしてCPU5にて階層型ニューラルネットワークに学習させ、学習終了後、補間画素の位置情報を入力することによって補間画素の画素データを得るようになっている。
【0153】
このように、入力画像毎に学習可能な階層型ニューラルネットワークであるバックプロパゲーション型ニューラルネットワークやファジィ・ニューラルネットワークを用いて補間処理がが行われるので、1フレーム分の画像に対応する静止画像を形成する場合に、出力画像のエッジ部をハッキリさせることができると共に、斜め線をギザギザのない滑らかな線にすることができる。
【0154】
しかも、上記階層型ニューラルネットワークは、補間画素毎に学習可能であるので、入力されるどのような画像に対しても入出力関係を最適にすることができる。このようなリアルタイムに学習可能な階層型ニューラルネットワークを用いて、補間画素毎に、補間処理が行われると、それぞれの入力画像毎にネットワークの重みを調整することができるので、常に最適な変換処理が可能となる。
【0155】
したがって、どのような入力画像に対しても、変換処理において生じる問題としてのエッジ部分のボケや、斜め線のギザギザを無くすことができるので、変換後の画像に滑らかさが生じ、変換後の静止画像の品位を向上させることができる。
【0156】
また、上記画像データ補間装置では、階層型ニューラルネットワークが学習により補間画素とその周辺の画素とを含め、それぞれの画素位置と画素データとが対応する画素データ曲面である階調曲面を形成している。本実施の形態では、画像データとして輝度データを用いていることから、画像データ曲面が階調曲面となっている。よって、処理対象となる画像データが他のデータであれば、それに応じた画像データ曲面が形成される。
【0157】
上記階調曲面を用いれば、補間画素の画素データを周囲の画像に応じて容易に生成することができるので、さらに、静止画像の品位を向上させることができる。
【0158】
また、上記画像データ補間装置における階層型ニューラルネットワークは、入力画像の各補間画素周囲の各マトリクス内に配置された画素の位置情報を入力とし、入力された各画素の位置情報における画素値を出力とするように構成されている。
【0159】
このように、フィールド画像に対して補間処理を行うには、階層型ニューラルネットワークは、入力が各補間画素の位置情報だけで十分であり、また、このときの出力がフィールド画像の各マトリクス内における各補間画素の位置での画素データであるので、ニューラルネットワークにおける入出力関係が複雑にならずに、規模が小さく、簡単な構造のニューラルネットワークを用いることができる。
【0160】
さらに、本実施の形態の画像データ補間装置では、補間処理を行う際、階層型ニューラルネットワークの学習方法が、既存画素の位置情報とその既存画素の画素データを用いて行われるので、学習のための計算量が少なくて済み、高速に学習を行うことができる。これにより、補間処理の高速化を図ることができる。
【0161】
さらに、フィールド画像に対して補間処理を行う場合、階層型ニューラルネットワークとして、2入力1出力のファジィ・ニューラルネットワークが用いられているので、ハード構成上は上記のバックプロバケーション型ニューラルネットワークよりも複雑になるものの、より細かい部分画像の階調曲面を表現することが可能となり、バックプロバケーション型ニューラルネットワークより最適な補間画素値あるいは変倍画素値を得ることが可能となる。
【0162】
尚、本実施の形態では、画像データ補間装置の補間処理部6を構成するCPU5が、内部のROMに格納されたプログラムに従って階層型ニューラルネットワークを用いた補間処理を行うようになっているが、これに限定されるものではない。即ち、上記補間処理における演算処理を他のハードウェアによって実現して良く、また、パーソナルコンピュータやワークステーションによりソフトウェアによって同様の補間処理を全て実行するようにしても良い。
【0163】
また、上記CPU5に採用された階層型ニューラルネットワークとして、図7に示すバックプロパゲーション型ニューラルネットワークや、図9に示すファジィ・ニューラルネットワークを用いたが、これらに限定するものではなく、入力層から出力層へ向かう結合のみがある他の階層型ニューラルネットワークを用いても同様の効果を奏する。
【0164】
さらに、本実施の形態の画像データ補間装置によれば、フレームメモリ2の後方にD/Aコンバータ3が接続され、静止画像を生成する装置となっているが、このD/Aコンバータ3の代わりにプリンタエンジンを接続すれば、高画質なビデオプリンタを実現することができる。
【0165】
【発明の効果】
請求項1の発明の画像データ補間装置は、以上のように、フレーム画像を構成する2枚のフィールド画像のうち、1枚のフィールド画像の補間すべき画素の画素データを、該フィールド画像の走査線上の既存画素の画素データを用いて補間処理して生成する画像データ補間装置において、入力されるアナログのビデオ信号をA/D変換してデジタル化した画像データを生成するA/Dコンバータと、上記A/Dコンバータにてデジタル化して得られた画像データの1フレーム分の画像データを格納するフレームメモリと、補間すべき画素毎に、それぞれの補間すべき画素を含む所定範囲内の既存の周辺画素の画素データに基づいて学習すると共に、処理対象の画素を移動するときは新たに必要となる既存の周辺画素の画素データのみを入力する階層型ニューラルネットワークによって、補間すべき画素の画像データを生成する処理により、上記フレームメモリに格納された1フレーム分の画像データにおける1フィールド分の画像データを使用して、1フィールド分の画像データを生成し、この1フレーム分の画像データ、および既に存在する上記1フィールド分の画素データとを合わせて1フレーム分の画像データを生成する補間画素データ生成手段とが設けられている構成である。
【0166】
それゆえ、補間すべき画素毎に学習可能な階層型ニューラルネットワークを用いて補間処理を行うようになっているので、入力画像に応じた高品位の静止画像を得ることができる。しかも、補間処理が階層型ニューラルネットワークを用いて行われているので、出力画像のエッジ部をハッキリさせることができると共に、斜め線をギザギザのない滑らかな線にすることができる。
【0167】
また、上述のように、上記階層型ニューラルネットワークは、入力画像毎に学習可能であるので、随時学習が可能となり、階層型ニューラルネットワークの結合の重み調整を入力画像毎にリアルタイムで行うことができ、入力されるどのような画像に対しても入出力関係を最適にすることができる。
【0168】
このようなリアルタイムに学習可能な階層型ニューラルネットワークを用いて、補間すべき画素毎に、補間処理が行われると、それぞれの入力画像毎にネットワークの重みを調整することができるので、常に最適な補間処理が可能となる。したがって、どのような入力画像に対しても、補間処理において生じる問題としてのエッジ部分のボケや、斜め線のギザギザを無くすことができるので、補間処理後の静止画像に滑らかさが生じ、静止画像の品位を向上させることができる。
【0169】
さらに、上記構成の画像データ補間装置では、静止画像を得るものであるので、ビデオレート処理の必要はなく、ビデオレート処理の高速化のために、参照画素の画素データを並列化してニューラルネットワークに入力する必要がなくなる。よって、参照画素の画素データは、順番にニューラルネットワークに入力すればよいので、従来のように参照画素の画素データの並列化された多入力方式のように回路規模が大きく複雑にならず、階層型ニューラルネットワークを簡略化できるという効果を奏する。
【0170】
請求項2の発明の画像データ補間装置は、請求項1の構成に加えて、階層型ニューラルネットワークは、学習により補間画素とその周辺の画素とを含めた各画素の位置情報と画素データとが対応する画素データ曲面を形成する構成である。
【0171】
それゆえ、請求項1の構成による効果に加えて、階層型ニューラルネットワークの学習によって得られた画素データ曲面を用いれば、補間画素の画素データを周囲の画像に応じで生成することができるので、さらに、静止画像の品位を向上させることができるという効果を奏する。
【0172】
請求項3の発明の画像データ補間装置は、以上のように、請求項1または2の構成に加えて、階層型ニューラルネットワークは、各画素の位置情報を入力とし、入力された位置情報における画素データを出力とするように構成されている。
【0173】
それゆえ、請求項1または2の構成による効果に加えて、フィールド画像の補間すべき画素に対して補間処理を行うには、階層型ニューラルネットワークの入力が補間すべき画素の位置情報だけで十分であり、また、このときの出力が補間画素の画素データであるので、階層型ニューラルネットワークにおける入出力関係が複雑にならずに、規模が小さく、簡単な構造の階層型ニューラルネットワークを用いることができるという効果を奏する。
【0174】
請求項4の発明の画像データ補間装置は、以上のように、請求項1、2または3の構成に加えて、補間処理手段は、補間処理を行う際、先ず、補間すべき画素を含む所定範囲の周辺画素の既存の画素データを教師データとし、その既存の画素データの位置情報を入力データとして階層型ニューラルネットワークに学習させ、学習終了後、補間すべき画素の位置情報を入力することによって補間すべき画素の画素データを生成する構成である。
【0175】
それゆえ、請求項1、2または3の構成による効果に加えて、補間処理を行う際、階層型ニューラルネットワークの学習方法が、既存画素の位置情報とその画素データを用いて行われるので、学習のための計算量が少なくて済み、高速に学習を行うことができる。これにより、補間すべき画素の補間処理の高速化を図ることができるという効果を奏する。
【0176】
請求項5の発明の画像データ補間装置は、以上のように、請求項3または4の構成に加えて、階層型ニューラルネットワークは、2つのノードからなる入力層、少なくとも1つ以上のノードからなる中間層、1つのノードからなる出力層より構成されるバックプロパゲーション型ニューラルネットワークである構成である。
【0177】
それゆえ、請求項3または4の構成による効果に加えて、フィールド画像の補間すべき画素に対して、補間処理を行う場合、階層型ニューラルネットワークとして、2入力1出力のバックプロパゲーション型ニューラルネットワークが用いられているので、入出力関係が簡素であり、簡単なハード構成にて入力画像の変換処理を行うことができるという効果を奏する。
【0178】
請求項6の発明の画像データ補間装置は、以上のように、請求項3または4の構成に加えて、階層型ニューラルネットワークは、2つのノードからなる入力層、big、middle、smallを表現するメンバーシップ関数を構成する2つの層からなるメンバーシップ層、2つの入力に対して全てのメンバーシップ値の組み合わせをとり、ファジィの理論積を得るように構成されるルール層、1つのノードからなる出力層より構成されるファジィ・ニューラルネットワークである構成である。
【0179】
それゆえ、請求項3または4の構成による効果に加えて、フィールド画像の補正すべき画素に対して補間処理を行う場合、階層型ニューラルネットワークとして、2入力1出力のファジィ・ニューラルネットワークが用いられているので、ハード構成上は上記の請求項5記載のバックプロバケーション型ニューラルネットワークよりも複雑になるものの、より細かい部分画像の階調曲面を表現することが可能となり、請求項5のバックプロバケーション型ニューラルネットワークより最適な補間画素データを得ることができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の画像データ補間装置の概略構成ブロック図である。
【図2】1フィールド画像の画素配置を示す説明図である。
【図3】図2に示したフィールド画像の補間画素周辺の拡大図である。
【図4】図1に示す画像データ補間装置の動作の流れを示すフローチャートである。
【図5】図1に示す画像データ補間装置の補間処理の流れを示すフローチャートである。
【図6】図1に示す画像データ補間装置に備えられた階層型ニューラルネットワークの学習によって得られた補間画素近傍の階調曲面を示す説明図である。
【図7】図1に示す画像データ補間装置に適用される階層型ニューラルネットワークとしてのバックプロパゲーション型のニューラルネットワークを示す模式図である。
【図8】シグモイド関数を示すグラフである。
【図9】図1に示す画像処理装置に適用される階層型ニューラルネットワークとしてのファジィ・ニューラルネットワークを示す模式図である。
【図10】上記ファジィ・ニューラルネットワークのメンバーシップ層のsmallを示すメンバーシップ関数のグラフである。
【図11】上記ファジィ・ニューラルネットワークのメンバーシップ層のmiddleを示すメンバーシップ関数のグラフである。
【図12】上記ファジィ・ニューラルネットワークのメンバーシップ層のbigを示すメンバーシップ関数のグラフである。
【図13】フィールド画像の一例を示す説明図である。
【図14】図13に示すフィールド画像の補間すべき画素近傍の拡大図である。
【図15】従来の補間方法において、図13に示したフィールド画像の補間すべき画素を垂直方向に隣接した上下の何れかの画素で補間する場合の説明図である。
【図16】従来の補間方法において、図13に示したフィールド画像の補間すべき画素を垂直方向に隣接した上下の画素の平均値で補間する場合の説明図である。
【図17】従来の補間方法において、図13に示したフィールド画像の補間すべき画素を、該画素の斜め方向の画素の相関性を使用して補間する場合の説明図である。
【図18】従来の補間方法において、補間すべき画素を、該画素の5方向の画素に基づいて補間する場合の説明図である。
【図19】従来の補間方法において、補間すべき画素を、該画素の7方向の画素に基づいて補間する場合の説明図である。
【図20】従来のニューラルネットワークを用いて補間すべき画素の補間処理を行う場合の説明図である。
【符号の説明】
1 A/Dコンバータ
2 フレームメモリ
3 D/Aコンバータ
4 コントローラ
5 CPU(補間画素データ生成手段)
6 補間処理部

Claims (6)

  1. フレーム画像を構成する2枚のフィールド画像のうち、1枚のフィールド画像の補間すべき画素の画素データを、該フィールド画像の走査線上の既存画素の画素データを用いて補間処理して生成する画像データ補間装置において、
    入力されるアナログのビデオ信号をA/D変換してデジタル化した画像データを生成するA/Dコンバータと、
    上記A/Dコンバータにてデジタル化して得られた画像データの1フレーム分の画像データを格納するフレームメモリと、
    補間すべき画素毎に、それぞれの補間すべき画素を含む所定範囲内の既存の周辺画素の画素データに基づいて学習すると共に、処理対象の画素を移動するときは新たに必要となる既存の周辺画素の画素データのみを入力する階層型ニューラルネットワークによって、補間すべき画素の画像データを生成する処理により、上記フレームメモリに格納された1フレーム分の画像データにおける1フィールド分の画像データを使用して、1フィールド分の画像データを生成し、この1フレーム分の画像データ、および既に存在する上記1フィールド分の画素データとを合わせて1フレーム分の画像データを生成する補間画素データ生成手段とが設けられていることを特徴とする画像データ補間装置。
  2. 上記階層型ニューラルネットワークは、学習により補間画素とその周辺の画素とを含めた各画素の位置情報と画素データとが対応する画素データ曲面を形成することを特徴とする請求項1記載の画像データ補間装置。
  3. 上記階層型ニューラルネットワークは、各画素の位置情報を入力とし、入力された位置情報における画素データを出力とするように構成されていることを特徴とする請求項1または2記載の画像データ補間装置。
  4. 上記補間処理手段は、補間処理を行う際、先ず、補間すべき画素を含む所定範囲内の既存の周辺画素の画素データを教師データとし、その既存の画素データの位置情報を入力データとして階層型ニューラルネットワークに学習させ、学習終了後、補間すべき画素の位置情報を入力することによって補間すべき画素の画素データを生成することを特徴とする請求項1、2または3に記載の画像データ補間装置。
  5. 上記階層型ニューラルネットワークは、2つのノードからなる入力層、少なくとも1つ以上のノードからなる中間層、1つのノードからなる出力層より構成されるバックプロパゲーション型ニューラルネットワークであることを特徴とする請求項3または4記載の画像データ補間装置。
  6. 上記階層型ニューラルネットワークは、2つのノードからなる入力層、big、middle、smallを表現するメンバーシップ関数を構成する2つの層からなるメンバーシップ層、2つの入力に対して全てのメンバーシップ値の組み合わせをとり、ファジィの理論積を得るように構成されるルール層、1つのノードからなる出力層より構成されるファジィ・ニューラルネットワークであることを特徴とする請求項3または4記載の画像データ補間装置。
JP31384896A 1996-11-25 1996-11-25 画像データ補間装置 Expired - Fee Related JP3539533B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31384896A JP3539533B2 (ja) 1996-11-25 1996-11-25 画像データ補間装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31384896A JP3539533B2 (ja) 1996-11-25 1996-11-25 画像データ補間装置

Publications (2)

Publication Number Publication Date
JPH10164519A JPH10164519A (ja) 1998-06-19
JP3539533B2 true JP3539533B2 (ja) 2004-07-07

Family

ID=18046244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31384896A Expired - Fee Related JP3539533B2 (ja) 1996-11-25 1996-11-25 画像データ補間装置

Country Status (1)

Country Link
JP (1) JP3539533B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3458704B2 (ja) * 1998-04-10 2003-10-20 トヨタ自動車株式会社 曲面生成方法
JP2004328634A (ja) 2003-04-28 2004-11-18 Sony Corp 画像復号化装置及び方法
CN113067959B (zh) * 2021-03-16 2022-05-03 合肥合芯微电子科技有限公司 影像插补方法、装置和存储介质

Also Published As

Publication number Publication date
JPH10164519A (ja) 1998-06-19

Similar Documents

Publication Publication Date Title
JP3184092B2 (ja) 画像処理方法
JP3058774B2 (ja) 映像合成装置及び映像合成方法
KR100270268B1 (ko) 디지탈 화상프로세서 및 디지탈 화상처리 방법
JPH10243407A (ja) 画像信号処理装置及び画像入力処理装置
JP3333839B2 (ja) 補間ライン検出方法及び補間ライン検出装置
WO2005025232A1 (ja) 撮像装置
JP3539533B2 (ja) 画像データ補間装置
JPH076228A (ja) X線検査装置
JP3378167B2 (ja) 画像処理方法
JPH1141565A (ja) 画像データ補間装置
JPH0981723A (ja) 画像処理装置
JP4258976B2 (ja) 画像処理装置および処理方法
JP2920635B2 (ja) 画像処理装置
JP3539552B2 (ja) 画像処理装置
JP3444170B2 (ja) フィールド画像補間方法及びフィールド画像補間装置
JP3179475B2 (ja) 信号処理装置及び信号処理方法
JP2000078538A (ja) 画像データ補間装置
JP3061945B2 (ja) 画像補正装置
JPH07240901A (ja) ニューラルネットワークによるライン補間装置
JPH08102850A (ja) 画像処理装置
JPH11185033A (ja) 画像処理方法及び装置
JPH0818926A (ja) ニューラルネットワークによるライン補間装置
JP3411950B2 (ja) 動き検出装置
JPH1040363A (ja) 画像処理装置
JPH10164358A (ja) 画像処理方法および画像処理装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040317

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080402

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100402

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees