JPH09319866A - 画像処理方法 - Google Patents

画像処理方法

Info

Publication number
JPH09319866A
JPH09319866A JP8132222A JP13222296A JPH09319866A JP H09319866 A JPH09319866 A JP H09319866A JP 8132222 A JP8132222 A JP 8132222A JP 13222296 A JP13222296 A JP 13222296A JP H09319866 A JPH09319866 A JP H09319866A
Authority
JP
Japan
Prior art keywords
input
image
neural network
pixel
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8132222A
Other languages
English (en)
Other versions
JP3184092B2 (ja
Inventor
Teruhiko Matsuoka
輝彦 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP13222296A priority Critical patent/JP3184092B2/ja
Priority to EP97107215A priority patent/EP0810550B1/en
Priority to DE69719859T priority patent/DE69719859T2/de
Priority to US08/852,252 priority patent/US6233365B1/en
Publication of JPH09319866A publication Critical patent/JPH09319866A/ja
Application granted granted Critical
Publication of JP3184092B2 publication Critical patent/JP3184092B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Color Image Communication Systems (AREA)

Abstract

(57)【要約】 【課題】 画像の解像度および倍率を変換したときに、
どのような入力画像に対してもエッジ部および斜め線が
滑らかな出力画像を得ることのできる画像処理方法を提
供する。 【解決手段】 n(n>1)階調の原画像を入力する画
像データ入力手段1と、入力された原画像に対して解像
度や倍率の変換処理を行う画像データ変換手段2と、変
換画像を出力する画像データ出力手段3とを備える。画
像データ変換手段2は、複数のマトリクスに分割したn
階調の入力画像データ毎に、該入力画像毎に学習可能な
階層型ニューラルネットワークを用いて上記変換処理を
行う。これにより、どのような画像が入力されても、そ
れぞれの入力画像毎にネットワークの重みを調整するこ
とができるので、常に最適な変換処理が可能となる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、n(n>1)階調
の入力画像に対して変換処理を施して、画像の解像度や
倍率を変換して、n階調の出力画像を得る画像処理方法
に関するものである。
【0002】
【従来の技術】従来より、n(n>1)階調の入力画像
に対して変換処理を施して、画像の解像度や倍率を変換
して、n階調の出力画像を得る画像処理方法として種々
のものが提案されている。
【0003】画像の解像度を変換する方法として、例え
ば、図7(a)に示すように、補間前の画素値を補間後
の周辺の補間画素値として用いる単純補間法や、図7
(b)に示すように、補間前の画素値の平均値を補間後
の画素値として用いる平均法等がある。
【0004】さらに他の画像の解像度を変換する方法と
して、例えば図7(c)に示すように、補間前の各画素
値を直線で結び、この直線上の値を補間値として用いる
線形補間法がある。現在、この線形補間法が主流となっ
ている。
【0005】一方、画像の倍率を変換する方法として、
例えば図8(a)に示すように、補間前の画素値を補間
後の周辺の変倍画素値として用いる単純補間法や、図8
(b)に示すように、補間前の画素値の平均値を変倍画
素値として用いる平均法等がある。
【0006】さらに他の画像の倍率を変換する方法とし
て、例えば図8(c)に示すように、補間前の各画素値
を直線で結び、この直線上の値を補間値として用いる線
形補間法がある。現在、この線形補間法が主流となって
いる。
【0007】ところが、上記の各方法では、解像度変換
処理あるいは変倍処理された画像のエッジ部がボケた
り、斜め線がギザギザになったりして滑らかさが無くな
るという問題が生じる。
【0008】そこで、例えば特開平6−12486号公
報には、入力画像に対してニューラルネットワークを用
いて非線形な拡大処理を行い、処理後の画像のエッジ部
をハッキリとさせ、斜め線のギザギザを目立たなくして
滑らかさのある画像を得る『画像補正装置』が開示され
ている。
【0009】上記画像補正装置では、以下のようにして
拡大処理される。先ず、2値画像において、注目画素と
その右隣、下隣、斜下隣の4画素領域を抽出する。次
に、この4画素領域の各画素の値を変更した場合、即ち
注目画素を主走査方向にK倍、副走査方向にL倍拡大し
た場合、この拡大した領域の画素が周囲の画素と滑らか
に接続できるような拡大領域の画素を統計的に調べ、そ
の結果を教師信号とし、また、4画素領域の各画素の値
を入力信号として予めニューラルネットワークの学習を
行う。そして、学習後のニューラルネットワークを用い
て、入力された2値画像の拡大処理を行う。
【0010】
【発明が解決しようとする課題】しかしながら、上記公
報に開示されている拡大処理では、予め用意された統計
的なデータが用いられてニューラルネットワークが学習
されているので、学習後のニューラルネットワークの結
合の重みは固定される。このため、再学習による重みの
微調整ができず、統計的なデータが不十分の場合、入力
画像の種類によっては、滑らかな拡大画像を得ることが
できないという問題が生じる。
【0011】本発明は、上記の問題点を解決するために
なされたもので、その目的は、どのような画像が入力さ
れても、画像の解像度および倍率を変換したときに、エ
ッジ部および斜め線が滑らかとなるような出力画像を得
ることのできる画像処理方法を提供することにある。
【0012】
【課題を解決するための手段】請求項1の画像処理方法
は、上記の課題を解決するために、n(n>1)階調の
入力画像を複数のマトリクスに分割し、これら分割され
たマトリクス毎に、入力画像毎に学習可能な階層型ニュ
ーラルネットワークを用いて解像度変換処理および変倍
処理の少なくとも一方の処理を行い、n階調の処理画像
を出力画像として得ることを特徴としている。
【0013】上記の構成によれば、入力画像を、分割し
たマトリクス毎に、入力画像毎に学習可能な階層型ニュ
ーラルネットワークを用いて解像度変換処理や変倍処理
を行うようになっているので、出力画像のエッジ部をハ
ッキリさせることができると共に、斜め線をギザギザの
ない滑らかな線にすることができる。しかも、上記階層
型ニューラルネットワークは、入力画像毎に学習可能で
あるので、随時学習が可能となり、ニューラルネットワ
ークの結合の重み調整を入力画像毎にリアルタイムで行
うことができ、入力されるどのような画像に対して入出
力関係を最適にすることができる。
【0014】このようなリアルタイムに学習可能な階層
型ニューラルネットワークを用いて、分割したマトリク
ス毎に、解像度変換処理および変倍処理の少なくとも一
方の処理が行われると、それぞれの入力画像毎にネット
ワークの重みを調整することができるので、常に最適な
変換処理が可能となる。したがって、どのような入力画
像に対しても、変換処理において生じる問題としてのエ
ッジ部分のボケや、斜め線のギザギザを無くすことがで
きるので、変換後の画像に滑らかさが生じ、変換画像の
品位を向上させることができる。
【0015】請求項2の画像処理方法に示すように、請
求項1の構成に加えて、階層型ニューラルネットワーク
は、入力画像の各画素の位置情報を入力とし、入力され
た各画素の位置情報における画素値を出力とするように
構成されていることを特徴としている。
【0016】これにより、請求項1の構成による作用に
加えて、入力画像に対して解像度変換処理や変倍処理を
行うには、階層型ニューラルネットワークは、入力が入
力画像の各画素の位置情報だけで十分であり、また、こ
のときの出力が入力画像の各マトリクス内における各位
置での画素値であるので、ニューラルネットワークにお
ける入出力関係が複雑にならずに、規模が小さく、簡単
な構造のニューラルネットワークを用いることができ
る。
【0017】また、請求項3の画像処理方法は、上記の
課題を解決するために、請求項1または2の構成に加え
て、解像度変換処理や変倍処理を行う際、初めに上記マ
トリクス内の既存の画素値を教師データとし、その既存
の画素値の位置情報を入力データとして階層型ニューラ
ルネットワークに学習させ、学習終了後、解像度変換処
理では、補間画素の位置情報を入力することによって補
間画素値を得、変倍処理では、変倍後の画素の位置情報
を入力することによって変倍画素値を得ることを特徴と
している。
【0018】上記の構成によれば、請求項1または2の
構成による作用に加えて、解像度変換処理や変倍処理を
行う際、階層型ニューラルネットワークの学習方法が、
既存画素の位置情報とその既存画素値を用いて行われる
ので、学習のための計算量が少なくて済み、高速に学習
を行うことができる。これにより、画像の解像度変換処
理や変倍処理の高速化を図ることができる。
【0019】請求項4の画像処理方法は、上記の課題を
解決するために、請求項2または3の構成に加えて、階
層型ニューラルネットワークは、2つのノードからなる
入力層、少なくとも1つ以上のノードからなる中間層、
1つのノードからなる出力層より構成されるバックプロ
パゲーション型ニューラルネットワークであることを特
徴としている。
【0020】上記の構成によれば、請求項2または3の
構成による作用に加えて、入力画像に対して解像度変換
処理や変倍処理を行う場合、階層型ニューラルネットワ
ークとして、2入力1出力のバックプロパゲーション型
ニューラルネットワークが用いられているので、入出力
関係が簡素であり、簡単なハード構成にて入力画像の変
換処理を行うことができる。
【0021】請求項5の画像処理方法は、上記の課題を
解決するために、請求項2または3の構成に加えて、階
層型ニューラルネットワークは、2つのノードからなる
入力層、big、middle、smallを表現する
メンバーシップ関数を構成する2つの層からなるメンバ
ーシップ層、2つの入力に対して全てのメンバーシップ
値の組み合わせをとり、ファジィの理論積を得るように
構成されるルール層、1つのノードからなる出力層より
構成されるファジィ・ニューラルネットワークであるこ
とを特徴としている。
【0022】上記の構成によれば、請求項1、2または
3の構成による作用に加えて、入力画像に対して解像度
変換処理や変倍処理を行う場合、階層型ニューラルネッ
トワークとして、2入力1出力のファジィ・ニューラル
ネットワークが用いられているので、ハード構成上は上
記の請求項4記載のバックプロバケーション型ニューラ
ルネットワークよりも複雑になるものの、より細かい部
分画像の階調曲面を表現することが可能となり、請求項
4のバックプロバケーション型ニューラルネットワーク
より最適な補間画素値あるいは変倍画素値を得ることが
可能となる。
【0023】
【発明の実施の形態】本発明の実施の一形態について図
1ないし図6に基づいて説明すれば、以下の通りであ
る。
【0024】本実施の形態に係る画像処理方法を適用し
た画像処理装置は、図1に示すように、画像データ入力
手段1と、画像データ変換手段2と、画像データ出力手
段3とからなり、n(n>1)階調の原画像を入力し
て、この原画像に対して解像度や倍率の変換処理を施し
てn階調の変換画像を出力するようになっている。
【0025】即ち、画像データ入力手段1は、図示しな
いスキャナ等の画像読取り手段によりn階調の原画像を
画像データとして取り込むようになっている。また、画
像データ変換手段2は、後述する方法により画像データ
入力手段1にて入力された画像データに対して解像度や
倍率を変換するようになっている。さらに、画像データ
出力手段3は、画像データ変換手段2にて解像度や倍率
が変換された画像データをメモリ等の記憶手段に記憶
し、その後、この記憶した画像データに対して出力処理
を施して、この処理画像をn階調の変換画像として出力
するようになっている。
【0026】上記画像データ変換手段2は、入力された
原画像に対して解像度や倍率の変換処理を施すために、
画像データ分割手段4、既存画素位置情報/画素値抽出
手段5、既存画素値学習手段6、変換画素位置入力手段
7、変換画素値演算手段8、変換画素値出力手段9を備
えている。
【0027】上記画像データ分割手段4は、画像データ
入力手段1により取り込まれた画像データ(以下、入力
画像データと称する)を各画素の位置情報に基づいてマ
トリクス状に分割する手段である。このとき、分割され
る一つのマトリクスの大きさは、基本的には入力画像デ
ータよりも小さければ良く、演算の簡略化、高速化を考
慮すれば、マトリクスの縦・横ともに入力画像データの
縦・横の画素数の約数となるようにすれば良い。尚、本
実施の形態では、入力画像データの大きさを255×2
55画素とし、一つのマトリクスの大きさを3×3画素
とする。また、入力画像データは、n=256階調、縦
・横300dpi×300dpiの解像度とする。
【0028】既存画素位置情報/画素値抽出手段5は、
画像データ分割手段4で3×3画素の大きさのマトリク
スに分割された入力画像データ(以下、部分画像データ
と称する)に含まれる各画素の位置情報とそれぞれの位
置での画素値とを階層型ニューラルネットワークの入力
データおよび教師データとして抽出し、これら各データ
を図示しないメモリに一時的に格納させる手段である。
尚、変倍処理を行うとき、既存画素位置情報/画素値抽
出手段5にて抽出する各画素の位置情報は、変倍後の位
置情報とする。
【0029】上記の画素値とは、画像データの各画素に
おける濃度値や輝度値等の階調を表す値である。また、
この画素値から得られる教師データは、階層型ニューラ
ルネットワークがそれぞれの入力値に対して正しい出力
値を出力できるように目標値として与えるデータであ
る。つまり、上記の階層型ニューラルネットワークは、
出力値がこの教師データに近づくようにネットワークの
結合の重みを変化させていくようになっている。
【0030】既存画素値学習手段6は、既存画素位置情
報/画素値抽出手段5でメモリに格納させた画像データ
の位置情報および上記画像データの各位置での画素値を
入力データおよび教師データとして階層型ニューラルネ
ットワークに与えて、該ニューラルネットワークを学習
させる。この学習回数は、最高1000回程度とする。
しかしながら、学習誤差が5%程度になった場合には、
学習回数が1000回に満たなくとも学習を終了する。
この学習方法については、後述する。
【0031】本実施の形態では、上記の階層型ニューラ
ルネットワークとして、バックプロパゲーション型ニュ
ーラルネットワークとファジィ・ニューラルネットワー
クとを用いた場合について説明する。尚、各階層型ニュ
ーラルネットワークの詳細は、上記学習方法と共に後述
する。
【0032】上記既存画素値学習手段6において、階層
型ニューラルネットワークの学習が行われると、図2に
示すように、既存の画素値を非線形な曲線で結んだとき
に形成される階調曲面が得られる。図2では、●は既存
画素を、○は変換により補間された画素を示し、x、y
はそれぞれ入力画素データのx軸、y軸を示し、z軸は
画素値を示し、入力画像データのx軸、y軸の解像度が
それぞれ2倍となるような解像度変換を行った結果を示
している。
【0033】変換画素位置入力手段7は、既存画素値学
習手段6で学習された階層型のニューラルネットワーク
に対して、変換後の各画素の位置情報を入力する手段で
ある。図2における○のxとyの値が、変換後の各画素
の位置情報である。
【0034】変換画素値演算手段8は、変換画素位置入
力手段7にて位置情報の入力された階層型ニューラルネ
ットワークによりそれぞれの位置での画素値を演算して
求める。求めて得られた結果が、図2における○で示さ
れた部分であり、それぞれの○のzの値が補間画素値と
なる。
【0035】変換画素値出力手段9は、変換画素値演算
手段8での演算により求められた変換画素値をメモリに
記憶させ、その後画像データ出力手段3に変換後の画像
データとして出力するようになっている。
【0036】ここで、上記既存画素値学習手段6で使用
される2種類の階層型ニューラルネットワークについ
て、図3ないし図6に基づいて以下に説明する。
【0037】先ず、バックプロパゲーション型ニューラ
ルネットワークについて説明する。本ニューラルネット
ワークは、図3に示すように、2入力1出力となってお
り、入力層11、中間層12、出力層13の3層で構成
されている。上記ニューラルネットワークにおいて、2
つの入力項目はそれぞれ画素の位置情報であり、1つの
出力項目は入力された画素位置における画素値である。
【0038】入力層11は、入力値X1が入力されるノ
ードA1、入力値X2が入力されるノードA2の2つの
ノードからなる。参照符X1・X2は、画素の位置情
報、即ちX1は画素のx軸の位置情報、X2は画素のy
軸の位置情報を示す。
【0039】中間層12は、9つのノードD1〜D9か
らなり、これらノードD1〜D9は入力層11のノード
A1と重みW11〜W19で結合されると共に、入力層11
のノードA2と重みW21〜W29で結合されている。この
重みW11〜W19、W21〜W29は、後述する学習により調
整するようになっている。
【0040】尚、中間層12のノード数は、サンプルの
画像データを用いて中間層12におけるノード数を1か
ら順に1個ずつ増やして学習させたときに、一番精度良
く学習できたときのノード数を用いるようになってい
る。したがって、本実施の形態のように、中間層12の
ノード数を9個に限定するものではなく、学習精度を考
慮して任意のノード数にしても良い。
【0041】出力層13は、1つのノードE1からな
り、このノードE1は中間層12のノードD1〜D9と
重みV11〜V91で結合されている。この重みV11〜V91
は、後述する学習により決定され、出力値Y1として出
力されるようになっている。
【0042】上記のように構築されたバックプロパゲー
ション型のニューラルネットワークの学習方法について
以下に説明する。
【0043】先ず、入力層11から出力層13までの順
方向の演算について説明する。最初に、入力層11では
部分画像データの位置情報を入力データ(X1・X2)
として入力し、そのまま中間層12に出力する。即ち、
以下の(1)式に示すようになる。
【0044】
【数1】
【0045】ここで、Ii は入力層11の各ノードから
の出力値であり、例えばノードA1からの出力値はI1
となり、ノードA2からの出力値はI2 となる。また、
Xiは画素の位置情報を表す入力データを表し、例えば
X1は画素のx軸の位置情報、X2は画素のy軸の位置
情報を表す入力データを表す。
【0046】次に、中間層12では、入力層11からの
出力値に基づいて演算が行われ、各ノードD1〜D9の
出力値が決定される。即ち、入力層11と中間層12と
の間では、以下の(2)式による演算が行われる。
【0047】
【数2】
【0048】ここで、Hj は中間層12の各ノードから
の出力値であり、例えばノードD1からの出力値は
1 、ノードD2からの出力値はH2 となる。また、W
ijは入力層11の各ノードと中間層12の各ノードとの
結合の度合いを示す重みであり、例えば入力層11のノ
ードA1と中間層12のノードD1との結合の重みはW
11である。また、θ1j は中間層12の各ノードにおけ
るオフセット値である。
【0049】上記の(2)式の(Ii ・Wij+θ1j
を入力値Xとした場合、f(X)は入力値Xに対して単
調に増加する非線形な単調増加関数であり、例えば図4
に示すようなシグモイド関数が適用される。このシグモ
イド関数は、以下の(3)式で表される。
【0050】
【数3】
【0051】最後に、出力層13では、中間層12から
の出力値に基づいて演算が行われ、ノードE1の出力値
が決定される。即ち、中間層12と出力層13との間で
は、以下の(4)式による演算が行われる。
【0052】
【数4】
【0053】ここで、Okは出力層13のノードE1か
らの出力値Y1である。また、Vjkは中間層12の各ノ
ードD1〜D9と出力層13のノードE1との結合の度
合いを示す重みであり、例えば中間層12のノードD1
とノードE1との結合の重みはV11である。また、θ2
k は出力層13のノードE1におけるオフセット値であ
る。
【0054】上記の(4)式の(Hj ・Vjk+θ2k
を入力値Xとした場合、f(X)は入力値Xに対して単
調に増加する非線形な単調増加関数であり、上述した
(2)式と同様に、例えば図4に示すようなシグモイド
関数が適用される。
【0055】次に、学習のための逆方向の演算について
以下に説明する。この学習の目的は、ニューラルネット
ワークにおける最適な入出力関係を得ることであり、こ
のために、教師データを目標にして、ネットワーク中の
結合の重みを微調整するようになっている。以下に、ネ
ットワークの結合の重みの微調整の方法について説明す
る。
【0056】先ず、出力層13のノードE1の出力値と
教師データとの2乗誤差を、以下の(5)式を用いて計
算する。
【0057】
【数5】
【0058】ここで、Ekは教師データと出力値との2
乗誤差であり、Tkは教師データである。つまり、この
学習の目的は、上記Ekを小さくすることになる。そこ
で、以下の(6)式を用いて、EkをOkで偏微分する
ことにより、OkによるEkへの影響を求める。
【0059】
【数6】
【0060】更に、中間層12と出力層13との間の結
合の重みVjkによるEkへの影響、および入力層11と
中間層12との間の結合の重みWijによるEkへの影響
を、以下の(7)・(8)式を用いて求める。
【0061】
【数7】
【0062】
【数8】
【0063】上記の(7)・(8)式を用いて求めたE
kへの影響に基づき、以下の(9)・(10)式を用い
て各結合の重みを微調整する。
【0064】
【数9】
【0065】
【数10】
【0066】ここで、αは微調整する度合いを示す値で
あり、通常0.05〜0.25ぐらいの値を用いる。ま
た、tは学習回数を表している。
【0067】したがって、上記(9)・(10)式で
は、現在の結合の重み(Vjk、Wij)に微調整する値を
加えて、次回の演算/学習のときの結合の重みとしてい
る。
【0068】以上のように、上記のアルゴリズムに従っ
て繰り返し学習を行い、結合の重みを修正していくこと
で、教師データと出力値との2乗誤差をある程度まで小
さくできるようになる。そして、予め設定された学習回
数、もしくは誤差の値が誤差の許容値以下になった時点
で学習を終了する。尚、本実施の形態では、前述した通
り規定の学習回数を1000回とし、誤差の許容値は5
%とし、学習回数が1000回あるいは誤差が5%以下
になった時点で学習を終了するようになっている。
【0069】このように学習されたバックプロパゲーシ
ョン型ニューラルネットワークにより、解像度変換処理
や変倍処理を入力された画像の全ての部分画像に対して
行うことによって、入力された画像が変換処理され、解
像度が変換された画像、もしくは倍率が変換された画像
となる。
【0070】次に、ファジィ・ニューラルネットワーク
について説明する。本ニューラルネットワークは、図5
に示すように、2入力1出力となっており、入力層2
1、中間層としてのメンバーシップ層前半部22、メン
バーシップ層後半部23、ルール層24、および出力層
25の5つの層からなり、2層目と3層目を合わせてメ
ンバーシップ層を構築している。上記ファジィ・ニュー
ラルネットワークにおいて、2つの入力項目はそれぞれ
画素の位置情報であり、1つの出力項目は入力された画
素位置における画素値である。
【0071】上記のファジィ・ニューラルネットワーク
における各層のノードとノードとの間の結合は以下のよ
うにして構成される。
【0072】先ず、入力層21は、入力項目毎に2つの
ノードA1、A2およびノードA3、A4で構成されて
おり、ノードA2、A4にはそれぞれ定数1が入力さ
れ、ノードA1には入力値X1(x軸の位置情報)が入
力され、ノードA3には入力値X2(y軸の位置情報)
が入力されるようになっている。
【0073】次に、メンバーシップ層では、各入力項目
毎に、図6に示すような、big、middle、sm
allのメンバーシップ関数が構成されている。
【0074】従って、メンバーシップ層前半部22で
は、ノードB1〜B4、ノードB5〜B8の各4つのノ
ードを構成し、ノードB1〜B4では定数1と入力値X
1とを結合させ、ノードB5〜B8では定数1と入力値
X2とを結合させる一方、メンバーシップ層後半部23
では、ノードC1〜C3、ノードC4〜C5の各3つの
ノードを構成し、メンバーシップ層前半部22の1つま
たは2つのノードを結合させるようになっている。
【0075】即ち、メンバーシップ層前半部22の1つ
のノードを結合させる部分であるノードC1、C4は、
bigのメンバーシップ関数を構成する部分となり、ノ
ードC3、C6は、smallのメンバーシップ関数を
構成する部分となる。また、メンバーシップ層前半部2
2の2つのノードを結合させる部分であるノードC2、
C5は、middleを構成する部分となる。
【0076】上記構成のメンバーシップ層の各ノード
は、1入力項目毎に必ず構成されるものであり、入力項
目毎のノード数は固定である。本実施の形態では、1入
力項目に対するメンバーシップ層前半部22のノード数
は4、メンバーシップ層後半部23のノード数は3とな
っている。
【0077】次いで、ルール層24では、メンバーシッ
プ層後半部23の入力値X1に関係するノードC1に対
して入力値X2に関係するノードC4〜C6のそれぞれ
と論理積を取るようにノードD1〜D3が構成されてい
る。同様にして入力値X1に関係するノードC2に対し
て入力値X2に関係するノードC4〜C6のそれぞれと
論理積を取るようにノードD4〜D6が構成され、入力
値X1に関係するノードC3に対して入力値X2に関係
するノードC4〜C6のそれぞれと論理積を取るように
ノードD7〜D9が構成されている。即ち、ルール層2
4では、2つの入力値X1・X2に対して全てのメンバ
ーシップ値の組み合わせをとり、ファジィの論理積を得
るように構成されている。
【0078】最後に、出力層25では、ルール層24か
らの出力を全て結合し、入力画像の各画素位置での画素
値である出力値Y1を出力する1つのノードE1を有し
ている。
【0079】このようにして構成されたファジィ・ニュ
ーラルネットワークのノード間の結合部分には、結合毎
に全て重みがある。
【0080】従って、入力層21とメンバーシップ層前
半部22との結合部分では、メンバーシップ関数のセン
ター値(メンバーシップ関数の出力値が0.5となると
きの入力値)が重みWc11〜Wc14およびWc21〜Wc
24となっている。
【0081】即ち、メンバーシップ関数は、前述したよ
うに3種類あり、それぞれのメンバーシップ関数のセン
ター値は各重みと一致している。例えば、入力値X1の
bigを表すメンバーシップ関数のセンター値の重みは
Wc11であり、middleを表すメンバーシップ関数
のセンター値の重みはWc12とWc13であり、smal
lを表すメンバーシップ関数のセンター値の重みはWc
14である。尚、middleは、2つのメンバーシップ
関数の論理積の形となっているので、2つのセンター値
を有している。
【0082】次に、メンバーシップ層前半部22とメン
バーシップ層後半部23との結合部分では、メンバーシ
ップ関数の傾きが重みWg11〜Wg14およびWg21〜W
g24となっている。この場合、メンバーシップ関数の傾
きが各重みと一致している。例えば、入力値X1のbi
gを表すメンバーシップ関数の傾きの重みはWg11であ
り、middleを表すメンバーシップ関数の傾きの重
みはWg12とWg13であり、smallを表すメンバー
シップ関数の傾きの重みはWg14である。尚、midd
leは、2つのメンバーシップ関数の論理積の形となっ
ているので、2つの傾きを有している。
【0083】最後に、ルール層24と出力層25との結
合部分では、エキスパートから得た知識が重みWf1 〜
Wf9 となっている。このエキスパートから得た知識で
は、出力値が大きくなるような入力値の組み合わせのル
ールの重みは1に近い値とし、出力値が小さくなるよう
な入力値の組み合わせのルールの重みは0に近い値とす
る。それ以外のルールの重みは0.5に初期設定してお
く。
【0084】また、上述した結合部分以外の結合部分の
重み、例えばメンバーシップ層後半部23とルール層2
4との結合部分の重みは、1で固定されている。
【0085】上記構成のファジィ・ニューラルネットワ
ークにおいて、各層の出力値を求める方法について以下
に説明する。尚、入力層21の出力値は、入力値と同じ
であるので説明は省略する。
【0086】メンバーシップ層は、以下の(11)式に
示すように、2層目でメンバーシップ関数のセンター値
Wc11〜Wc14およびWc21〜Wc24を加える。
【0087】
【数11】
【0088】ここで、xは入力層21の出力値、Wcは
メンバーシップ関数のセンター値、Hは2層目の出力で
ある。また、iは各入力項目の数であり、jはbigの
とき1、middleのとき2または3、smallの
とき4となっている。
【0089】上記(11)式は、後に代入する以下の
(12)式に示すようなシグモイド関数の原点の位置を
メンバーシップ関数のセンター値の位置に合わせること
を示している。
【0090】次に、以下の(13)式に示すように、3
層目でメンバーシップ関数の傾きを掛けてシグモイド関
数に代入することにより、その入力値の各領域でのメン
バーシップ関数の出力値を得るようになっている。尚、
middleの場合は(13)式の代わりに以下の(1
4)式を用いる。
【0091】
【数12】
【0092】
【数13】
【0093】
【数14】
【0094】ここで、Wgはメンバーシップ関数の傾き
の値、f(X)はシグモイド関数、Mはメンバーシップ
関数の出力値、min{f(X1),f(X2)}はf
(X1)とf(X2)との論理積を示す。また、kはメ
ンバーシップ層後半部23のノードの番号であり、θは
bigのとき1、middleのとき2、smallの
とき3となっている。また、上記(14)式では、論理
積を計算することにより、minのカッコの中の2つの
関数のうち、小さい方の値を選択することになる。
【0095】次いで、ルール層24では、以下の(1
5)式を用いてANDルールの計算が行われる。即ち、
2つの入力項目の中で、それぞれ3つの領域(big、
middle、small)から1つずつ選び、その2
つのメンバーシップ出力値の論理積の計算が行われる。
【0096】
【数15】
【0097】ここで、RはANDルールの出力値であ
り、k1とk2はメンバーシップ層後半部23のノード
番号である。また、ここでも論理積の計算により、mi
nのカッコの中の2つの関数のうち、小さい方の値を選
択することになる。
【0098】最後に、出力層25では、以下の(16)
式を用いて出力値の計算が行われる。即ち、ファジィル
ールの前件部命題(例:X1がbigである)によって
得られた各ANDルールの出力値とそのルールからの結
合の重みの値Wfを掛け合わせて、それをANDルール
の出力全体の合計値で割ったものの総和を取ることで計
算が行われる。
【0099】
【数16】
【0100】ここで、nはルール層24のノード番号で
ある。
【0101】以上が、上記のファジィ・ニューラルネッ
トワークに入力値を代入してから出力値を得るまでの計
算の過程を示す。尚、上記構成のファジィ・ニューラル
ネットワークを初めに構築した状態では、各層のノード
間の結合の重みの値は各層毎に決まった値を有してお
り、入力値を代入しても、出力値はでたらめな値であ
り、対象物の入出力関係を正しくシミュレートできな
い。そこで、正しくシミュレートするために、結合の重
みの調整を行う必要がある。これがファジィ・ニューラ
ルネットワークにおける学習である。
【0102】上記ファジィ・ニューラルネットワークに
おける学習について以下に説明する。
【0103】対象物の入出力関係を表したサンプルデー
タの出力値を教師データTとし、以下の(17)式を用
いて、この教師データTと、サンプルデータの入力値
(X1、X2、…、Xn)から上記の(11)〜(1
6)式によって得られた出力値yとの2乗誤差を用い
る。
【0104】
【数17】
【0105】ここで、Eは教師データTと出力値yとの
2乗誤差を表す。この誤差を少なくすることによって対
象物の入出力関係が正しくシミュレートできているもの
と判断する。
【0106】この誤差を減らす方法として、バックプロ
パゲーション法に基づいて学習アルゴリズムを用いる。
以下、この学習アルゴリズムについて説明する。
【0107】上記(17)式をyにおいて偏微分する
と、以下の(18)式に示すようになる、これが、誤差
に対する出力値yの影響を示す。
【0108】
【数18】
【0109】次いで、上記(17)式をWfにおいて偏
微分すると、以下の(19)式に示すようになる。この
とき、上記(17)式のyに上記(16)式を代入す
る。
【0110】
【数19】
【0111】次に、上記(17)式をWg、Wcにおい
てそれぞれ偏微分すると、以下の(20)(21)式に
示すようになる。このとき、上記(17)式に、上記
(16)式、(15)式および(14)式、または(1
3)式、(11)式を代入する。
【0112】
【数20】
【0113】
【数21】
【0114】上記(19)〜(21)式までが誤差に対
するそれぞれの結合の重みの影響を示す。ここで、上記
(20)式および(21)式におけるrは修正すべきメ
ンバーシップ関数を実現している重みからANDルール
の出力として選択された数だけ、ルール層24のノード
からの誤差の総和を取っている。
【0115】これらの影響が少なくなる方向に重みを修
正することによって、全体的に誤差を減らすようにす
る。この修正する量は、以下の(22)〜(24)式に
示すようになる。
【0116】
【数22】
【0117】
【数23】
【0118】
【数24】
【0119】ここで、α、β、γは学習パラメータであ
り、影響を小さくする重みの修正量を決定するためのパ
ラメータである。このパラメータを用いて、以下の(2
5)〜(27)式に示すような修正が行われる。
【0120】
【数25】
【0121】
【数26】
【0122】
【数27】
【0123】以上のような学習アルゴリズムに従って繰
り返し学習を行い、重みを修正することで誤差を小さく
している。そして、誤差の値が予め設定した誤差の許容
値以下になった時点で学習を終了とする。この誤差の許
容値は予め設定されるものであり、本実施の形態では5
%以下になった時点で学習を終了するものとする。
【0124】このように学習されたファジィ・ニューラ
ルネットワークにより、解像度変換処理や変倍処理を、
入力された画像の全ての部分画像に対して行うことによ
って、上述したバックプロパゲーション型ニューラルネ
ットワークよりも適切に入力された画像が変換処理さ
れ、解像度が変換された画像、もしくは倍率が変換され
た画像を得ることができる。
【0125】本実施の形態における画像処理方法では、
解像度変換処理や変倍処理を行う際、先ず、上記画像デ
ータ分割手段4にて分割されたマトリクス内の既存の画
素の画素値を教師データとし、その既存の画素の画素値
に対応する位置情報を入力データとして既存画素値学習
手段6にて階層型ニューラルネットワークに学習させ、
学習終了後、解像度変換処理であれば、補間画素の位置
情報を入力することによって補間画素値を得、変倍処理
であれば、変倍後の画素の位置情報を入力することによ
って変倍画素値を得るようになっている。
【0126】このように、入力画像を、分割したマトリ
クス毎に、入力画像毎に学習可能な階層型ニューラルネ
ットワークであるバックプロパゲーション型ニューラル
ネットワークやファジィ・ニューラルネットワークを用
いて解像度変換処理や変倍処理が行われるので、出力画
像のエッジ部をハッキリさせることができると共に、斜
め線をギザギザのない滑らかな線にすることができる。
【0127】しかも、上記階層型ニューラルネットワー
クは、入力画像毎に学習可能であるので、入力されるど
のような画像に対して入出力関係を最適にすることがで
きる。このようなリアルタイムに学習可能な階層型ニュ
ーラルネットワークを用いて、分割したマトリクス毎
に、解像度変換処理および変倍処理の少なくとも一方の
処理が行われると、それぞれの入力画像毎にネットワー
クの重みを調整することができるので、常に最適な変換
処理が可能となる。
【0128】したがって、どのような入力画像に対して
も、変換処理において生じる問題としてのエッジ部分の
ボケや、斜め線のギザギザを無くすことができるので、
変換後の画像に滑らかさが生じ、変換画像の品位を向上
させることができる。
【0129】また、上記画像処理方法における階層型ニ
ューラルネットワークは、入力画像の各画素の位置情報
を入力とし、入力された各画素の位置情報における画素
値を出力とするように構成されている。
【0130】このように、入力画像に対して解像度変換
処理や変倍処理を行うには、階層型ニューラルネットワ
ークは、入力が入力画像の各画素の位置情報だけで十分
であり、また、このときの出力が入力画像の各マトリク
ス内における各位置での画素値であるので、ニューラル
ネットワークにおける入出力関係が複雑にならずに、規
模が小さく、簡単な構造のニューラルネットワークを用
いることができる。
【0131】さらに、本画像処理方法では、解像度変換
処理や変倍処理を行う際、階層型ニューラルネットワー
クの学習方法が、既存画素の位置情報とその既存画素値
を用いて行われるので、学習のための計算量が少なくて
済み、高速に学習を行うことができる。これにより、画
像の解像度変換処理や変倍処理の高速化を図ることがで
きる。
【0132】そして、入力画像に対して解像度変換処理
や変倍処理を行う場合、画像処理方法に適用される階層
型ニューラルネットワークとしてバックプロパゲーショ
ン型ニューラルネットワークが用いられているので、入
力画像に対して解像度変換処理や変倍処理を行う場合、
簡素なハード構成にて入力画像の変換処理を行うことが
できる。
【0133】さらに、入力画像に対して解像度変換処理
や変倍処理を行う場合、階層型ニューラルネットワーク
として、2入力1出力のファジィ・ニューラルネットワ
ークが用いられているので、ハード構成上は上記のバッ
クプロバケーション型ニューラルネットワークよりも複
雑になるものの、より細かい部分画像の階調曲面を表現
することが可能となり、バックプロバケーション型ニュ
ーラルネットワークより最適な補間画素値あるいは変倍
画素値を得ることが可能となる。
【0134】尚、本実施の形態では、階層型ニューラル
ネットワークとして、図3に示すバックプロパゲーショ
ン型ニューラルネットワークや、図5に示すファジィ・
ニューラルネットワークを用いたが、これらに限定する
ものではなく、入力層から出力層へ向かう結合のみがあ
る他の階層型ニューラルネットワークを用いても同様の
効果を奏する。
【0135】
【発明の効果】請求項1の発明の画像処理方法は、以上
のように、n(n>1)階調の入力画像を複数のマトリ
クスに分割し、これら分割されたマトリクス毎に、入力
画像毎に学習可能な階層型ニューラルネットワークを用
いて解像度変換処理および変倍処理の少なくとも一方の
処理を行い、n階調の処理画像を出力画像として得る構
成である。
【0136】それゆえ、どのような画像が入力されて
も、それぞれの入力画像毎にネットワークの重みを調整
することができるので、常に最適な変換処理が可能とな
る。これにより、各変換処理において生じる問題として
のエッジ部分のボケや、斜め線のギザギザを無くすこと
ができるので、変換後の画像に滑らかさが生じ、変換画
像の品位を向上させることができるという効果を奏す
る。
【0137】請求項2の発明の画像処理方法は、以上の
ように、請求項1の構成に加えて、階層型ニューラルネ
ットワークは、入力画像の各画素の位置情報を入力と
し、入力された各画素の位置情報における画素値を出力
とするように構成されている。
【0138】それゆえ、請求項1の構成による効果に加
えて、階層型ニューラルネットワークとして、規模が小
さく、簡単な構造のニューラルネットワークを用いるこ
とができるという効果を奏する。
【0139】請求項3の発明の画像処理方法は、以上の
ように、請求項1または2の構成に加えて、解像度変換
処理や変倍処理を行う際、初めに上記マトリクス内の既
存の画素値を教師データとし、その既存の画素値の位置
情報を入力データとして階層型ニューラルネットワーク
に学習させ、学習終了後、解像度変換処理では、補間画
素の位置情報を入力することによって補間画素値を得、
変倍処理では、変倍後の画素の位置情報を入力すること
によって変倍画素値を得る構成である。
【0140】それゆえ、請求項1または2の構成による
効果に加えて、解像度変換処理や変倍処理を行う際、階
層型ニューラルネットワークの学習方法が、既存画素の
位置情報とその既存画素値を用いて行われるので、学習
のための計算量が少なくて済み、高速に学習を行うこと
ができる。これにより、画像の解像度変換処理や変倍処
理の高速化を図ることができるという効果を奏する。
【0141】請求項4の発明の画像処理方法は、以上の
ように、請求項2または3の構成に加えて、階層型ニュ
ーラルネットワークは、2つのノードからなる入力層、
少なくとも1つ以上のノードからなる中間層、1つのノ
ードからなる出力層より構成されるバックプロパゲーシ
ョン型ニューラルネットワークである。
【0142】それゆえ、請求項2または3の構成による
効果に加えて、入力画像に対して解像度変換処理や変倍
処理を行う場合、階層型ニューラルネットワークとし
て、2入力1出力のバックプロパゲーション型ニューラ
ルネットワークが用いられているので、簡素なハード構
成にて入力画像の変換処理を行うことができるという効
果を奏する。
【0143】請求項5の発明の画像処理方法は、以上の
ように、請求項2または3の構成に加えて、階層型ニュ
ーラルネットワークは、2つのノードからなる入力層、
big、middle、smallを表現するメンバー
シップ関数を構成する2つの層からなるメンバーシップ
層、2つの入力に対して全てのメンバーシップ値の組み
合わせをとり、ファジィの理論積を得るように構成され
るルール層、1つのノードからなる出力層より構成され
るファジィ・ニューラルネットワークである。
【0144】それゆえ、請求項2または3の構成による
効果に加えて、入力画像に対して解像度変換処理や変倍
処理を行う場合、階層型ニューラルネットワークとし
て、2入力1出力のファジィ・ニューラルネットワーク
が用いられているので、ハード構成上は上記の請求項4
記載のバックプロバケーション型ニューラルネットワー
クよりも複雑になるものの、より細かい部分画像の階調
曲面を表現することが可能となり、請求項4のバックプ
ロバケーション型ニューラルネットワークより最適な補
間画素値あるいは変倍画素値を得ることができるという
効果を奏する。
【図面の簡単な説明】
【図1】本発明の画像処理方法を適用した画像処理装置
の概略ブロック図である。
【図2】階調曲面を示す説明図である。
【図3】図1に示す画像処理装置に適用される階層型ニ
ューラルネットワークとしてのバックプロパゲーション
型のニューラルネットワークを示す模式図である。
【図4】シグモイド関数を示すグラフである。
【図5】図1に示す画像処理装置に適用される階層型ニ
ューラルネットワークとしてのファジィ・ニューラルネ
ットワークを示す模式図である。
【図6】メンバーシップ関数を示すグラフである。
【図7】従来の画像処理方法における解像度変換方法を
示す説明図である。
【図8】従来の画像処理方法における変倍処理方法を示
す説明図である。
【符号の説明】
1 画像データ入力手段 2 画像データ変換手段 3 画像データ出力手段 4 画像データ分割手段 5 既存画素位置情報/画素値抽出手段 6 既存画素値学習手段 7 変換画素位置入力手段 8 変換画素値演算手段 9 変換画素値出力手段

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】n(n>1)階調の入力画像を複数のマト
    リクスに分割し、これら分割されたマトリクス毎に、入
    力画像毎に学習可能な階層型ニューラルネットワークを
    用いて解像度変換処理および変倍処理の少なくとも一方
    の処理を行い、n階調の処理画像を出力画像として得る
    ことを特徴とする画像処理方法。
  2. 【請求項2】上記階層型ニューラルネットワークは、入
    力画像の各画素の位置情報を入力とし、入力された各画
    素の位置情報における画素値を出力とするように構成さ
    れていることを特徴とする請求項1記載の画像処理方
    法。
  3. 【請求項3】上記変換処理を行う際、先ず、入力される
    画像のマトリクス内の既存の画素値を教師データとし、
    その既存の画素値の位置情報を入力データとして階層型
    ニューラルネットワークに学習させ、学習終了後、上記
    変換処理が解像度変換処理であれば、補間画素の位置情
    報を入力することによって補間画素値を得、また、変倍
    処理であれば、変倍後の画素の位置情報を入力すること
    によって変倍画素値を得ることを特徴とする請求項1ま
    たは2記載の画像処理方法。
  4. 【請求項4】上記階層型ニューラルネットワークは、2
    つのノードからなる入力層、少なくとも1つ以上のノー
    ドからなる中間層、1つのノードからなる出力層より構
    成されるバックプロパゲーション型ニューラルネットワ
    ークであることを特徴とする請求項2または3記載の画
    像処理方法。
  5. 【請求項5】上記階層型ニューラルネットワークは、2
    つのノードからなる入力層、big、middle、s
    mallを表現するメンバーシップ関数を構成する2つ
    の層からなるメンバーシップ層、2つの入力に対して全
    てのメンバーシップ値の組み合わせをとり、ファジィの
    理論積を得るように構成されるルール層、1つのノード
    からなる出力層より構成されるファジィ・ニューラルネ
    ットワークであることを特徴とする請求項2または3記
    載の画像処理方法。
JP13222296A 1996-05-27 1996-05-27 画像処理方法 Expired - Fee Related JP3184092B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP13222296A JP3184092B2 (ja) 1996-05-27 1996-05-27 画像処理方法
EP97107215A EP0810550B1 (en) 1996-05-27 1997-04-30 Image-processing method
DE69719859T DE69719859T2 (de) 1996-05-27 1997-04-30 Bildverarbeitungsverfahren
US08/852,252 US6233365B1 (en) 1996-05-27 1997-05-06 Image-processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13222296A JP3184092B2 (ja) 1996-05-27 1996-05-27 画像処理方法

Publications (2)

Publication Number Publication Date
JPH09319866A true JPH09319866A (ja) 1997-12-12
JP3184092B2 JP3184092B2 (ja) 2001-07-09

Family

ID=15076249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13222296A Expired - Fee Related JP3184092B2 (ja) 1996-05-27 1996-05-27 画像処理方法

Country Status (4)

Country Link
US (1) US6233365B1 (ja)
EP (1) EP0810550B1 (ja)
JP (1) JP3184092B2 (ja)
DE (1) DE69719859T2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296697A (ja) * 1998-04-10 1999-10-29 Toyota Motor Corp 曲面生成方法
US6970605B1 (en) 1999-06-01 2005-11-29 Sony Corporation Image processing apparatus, image processing method, noise-amount estimate apparatus, noise-amount estimate method, and storage medium
US7031513B1 (en) * 1998-11-09 2006-04-18 Sony Corporation Data processing apparatus and data processing method
US7088768B2 (en) 1998-11-09 2006-08-08 Sony Corporation Data processing apparatus and data processing method
JP2007328735A (ja) * 2006-06-09 2007-12-20 Victor Co Of Japan Ltd 画像処理装置及び画像処理プログラム
JP2009176283A (ja) * 2007-11-28 2009-08-06 Honda Research Inst Europe Gmbh 物体特性のロバストな推定を用いる適応型運転者支援システム
JP2010055303A (ja) * 2008-08-27 2010-03-11 Denso It Laboratory Inc 学習データ管理装置、学習データ管理方法及び車両用空調装置ならびに機器の制御装置
WO2019038651A1 (ja) * 2017-08-24 2019-02-28 株式会社半導体エネルギー研究所 画像処理方法
KR20200084463A (ko) * 2018-12-27 2020-07-13 (주)인스페이스 딥러닝 기반 위성영상 해상도 조절방법

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100251967B1 (ko) * 1998-02-28 2000-04-15 윤종용 비디오 포맷 변환을 위한 룩업 테이블 구성방법과 룩업테이블을 이용한 스캔 포맷 컨버터
ATE453903T1 (de) * 2001-12-21 2010-01-15 Ibm Verfahren und schaltungen zur bildskalierung mit hilfe neuronaler netzwerke
WO2005001750A2 (en) 2003-06-30 2005-01-06 Honda Motor Co., Ltd. System and method for face recognition
EP1649408B1 (en) * 2003-06-30 2012-01-04 Honda Motor Co., Ltd. Systems and methods for training component-based object identification systems
US20050129306A1 (en) * 2003-12-12 2005-06-16 Xianglin Wang Method and apparatus for image deinterlacing using neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
KR102087681B1 (ko) * 2015-09-17 2020-03-11 삼성전자주식회사 이미지 처리 장치, 이미지 처리 방법 및 컴퓨터 판독가능 기록 매체
US10373019B2 (en) 2016-01-13 2019-08-06 Ford Global Technologies, Llc Low- and high-fidelity classifiers applied to road-scene images
US11157798B2 (en) 2016-02-12 2021-10-26 Brainchip, Inc. Intelligent autonomous feature extraction system using two hardware spiking neutral networks with spike timing dependent plasticity
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US9836820B2 (en) * 2016-03-03 2017-12-05 Mitsubishi Electric Research Laboratories, Inc. Image upsampling using global and local constraints
CN110022772B (zh) * 2016-11-25 2023-08-08 三星电子株式会社 X射线装置及其获取医学图像的方法
KR102399148B1 (ko) 2016-11-25 2022-05-19 삼성전자주식회사 엑스선 장치 및 이의 의료 영상 획득
US11151441B2 (en) 2017-02-08 2021-10-19 Brainchip, Inc. System and method for spontaneous machine learning and feature extraction
CN113870872A (zh) * 2018-06-05 2021-12-31 安克创新科技股份有限公司 基于深度学习的语音音质增强方法、装置和系统
CN111986069A (zh) * 2019-05-22 2020-11-24 三星电子株式会社 图像处理装置及其图像处理方法
CN114722208B (zh) * 2022-06-08 2022-11-01 成都健康医联信息产业有限公司 一种健康医疗文本自动分类和安全等级自动分级方法
CN117634711B (zh) * 2024-01-25 2024-05-14 北京壁仞科技开发有限公司 张量维度切分方法、系统、设备和介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4742399A (en) * 1985-11-01 1988-05-03 Dainippon Screen Mfg. Co., Ltd. Method of and apparatus for generating high-resolution bilevel image data
JPH0695723B2 (ja) * 1989-03-15 1994-11-24 松下電器産業株式会社 色修正装置
JP2612358B2 (ja) * 1990-02-27 1997-05-21 株式会社日立製作所 画像処理装置
DE69123991T2 (de) * 1990-03-23 1997-05-22 Canon Kk Bildverarbeitung mit neuronalem Netzwerk
US5309525A (en) * 1990-06-14 1994-05-03 Canon Kabushiki Kaisha Image processing apparatus using neural network
US5109282A (en) * 1990-06-20 1992-04-28 Eye Research Institute Of Retina Foundation Halftone imaging method and apparatus utilizing pyramidol error convergence
JP2521843B2 (ja) * 1990-10-04 1996-08-07 大日本スクリーン製造株式会社 セットアップパラメ―タ決定特性を修正する方法及び自動セットアップ装置
US5680481A (en) * 1992-05-26 1997-10-21 Ricoh Corporation Facial feature extraction method and apparatus for a neural network acoustic and visual speech recognition system
JP3061945B2 (ja) 1992-06-25 2000-07-10 松下電送システム株式会社 画像補正装置
US5617484A (en) * 1992-09-25 1997-04-01 Olympus Optical Co., Ltd. Image binarizing apparatus
JP3218107B2 (ja) * 1993-01-29 2001-10-15 ローム株式会社 ファジィニューロン
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5548697A (en) * 1994-12-30 1996-08-20 Panasonic Technologies, Inc. Non-linear color corrector having a neural network and using fuzzy membership values to correct color and a method thereof

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296697A (ja) * 1998-04-10 1999-10-29 Toyota Motor Corp 曲面生成方法
US7031513B1 (en) * 1998-11-09 2006-04-18 Sony Corporation Data processing apparatus and data processing method
US7088768B2 (en) 1998-11-09 2006-08-08 Sony Corporation Data processing apparatus and data processing method
US7747069B2 (en) 1998-11-09 2010-06-29 Sony Corporation Data processing apparatus and data processing method
US7912277B2 (en) 1998-11-09 2011-03-22 Sony Corporation Data processing apparatus and data processing method
US6970605B1 (en) 1999-06-01 2005-11-29 Sony Corporation Image processing apparatus, image processing method, noise-amount estimate apparatus, noise-amount estimate method, and storage medium
US7209595B2 (en) 1999-06-01 2007-04-24 Sony Corporation Image processing apparatus, image processing method, noise-amount estimate apparatus, noise-amount estimate method, and storage medium
US7454083B2 (en) 1999-06-01 2008-11-18 Sony Corporation Image processing apparatus, image processing method, noise-amount estimate apparatus, noise-amount estimate method, and storage medium
JP4692401B2 (ja) * 2006-06-09 2011-06-01 日本ビクター株式会社 画像処理装置及び画像処理プログラム
JP2007328735A (ja) * 2006-06-09 2007-12-20 Victor Co Of Japan Ltd 画像処理装置及び画像処理プログラム
JP2009176283A (ja) * 2007-11-28 2009-08-06 Honda Research Inst Europe Gmbh 物体特性のロバストな推定を用いる適応型運転者支援システム
JP2010055303A (ja) * 2008-08-27 2010-03-11 Denso It Laboratory Inc 学習データ管理装置、学習データ管理方法及び車両用空調装置ならびに機器の制御装置
WO2019038651A1 (ja) * 2017-08-24 2019-02-28 株式会社半導体エネルギー研究所 画像処理方法
KR20200039679A (ko) * 2017-08-24 2020-04-16 가부시키가이샤 한도오따이 에네루기 켄큐쇼 화상 처리 방법
JPWO2019038651A1 (ja) * 2017-08-24 2020-10-01 株式会社半導体エネルギー研究所 画像処理方法
US11502003B2 (en) 2017-08-24 2022-11-15 Semiconductor Energy Laboratory Co., Ltd. Image processing method
KR20200084463A (ko) * 2018-12-27 2020-07-13 (주)인스페이스 딥러닝 기반 위성영상 해상도 조절방법

Also Published As

Publication number Publication date
US6233365B1 (en) 2001-05-15
EP0810550A2 (en) 1997-12-03
EP0810550A3 (en) 1999-07-07
JP3184092B2 (ja) 2001-07-09
DE69719859T2 (de) 2004-02-05
EP0810550B1 (en) 2003-03-19
DE69719859D1 (de) 2003-04-24

Similar Documents

Publication Publication Date Title
JP3184092B2 (ja) 画像処理方法
US5832132A (en) Image processing using neural network
EP0461903B1 (en) Image processing apparatus using neural network
JPH05225332A (ja) 空間的可変濾波の方法及び装置
JPH0865508A (ja) 誤差拡散方法、誤差拡散システム及び誤差生成方法
JPH04144361A (ja) セットアップパラメータ決定特性を修正する方法及び自動セットアップ装置
Son Inverse halftoning through structure-aware deep convolutional neural networks
US6603575B2 (en) System and apparatus for single subpixel elimination with local error compensation in a high addressable error diffusion process
US6301381B1 (en) Neurofilter, and method of training same to operate on image data such as to discriminate between text and picture regions of an image which is expressed by image data
CN113099121B (zh) 一种基于弱监督学习的isp实现方法
US5748329A (en) Method and apparatus for adaptive color scanning/printing data correction employing neural networks
JPH0981723A (ja) 画像処理装置
JP3378167B2 (ja) 画像処理方法
JPH11261814A (ja) 画像属性判別システム
JP3982874B2 (ja) 画像データ処理方法及びシステム
US6353687B1 (en) System and apparatus for single subpixel elimination with local error compensation in an high addressable error diffusion process
JP3539533B2 (ja) 画像データ補間装置
JP2863072B2 (ja) 画像階調変換方法及び画像処理装置
JPH11168628A (ja) 画像データ処理方法及びシステム
JPH08263649A (ja) ニューラルベースの空間画像強化システム
JP2859377B2 (ja) ニューラルネットを用いた画像処理方法および画像処理装置
JP3061945B2 (ja) 画像補正装置
JPH0447470A (ja) ニューラルネットを用いた画像処理方式及び同方式を用いた画像処理装置
JP2906717B2 (ja) 画像変倍方法
JPH10164358A (ja) 画像処理方法および画像処理装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080427

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090427

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090427

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100427

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees