JPH0981723A - 画像処理装置 - Google Patents
画像処理装置Info
- Publication number
- JPH0981723A JPH0981723A JP7231269A JP23126995A JPH0981723A JP H0981723 A JPH0981723 A JP H0981723A JP 7231269 A JP7231269 A JP 7231269A JP 23126995 A JP23126995 A JP 23126995A JP H0981723 A JPH0981723 A JP H0981723A
- Authority
- JP
- Japan
- Prior art keywords
- neurons
- input
- layer
- pixel
- neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 210000002569 neuron Anatomy 0.000 claims abstract description 81
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 230000001537 neural effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000009499 grossing Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000005260 human cell Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
【課題】 画像処理のためのニューラルネットワークを
安価でハードウェア化する。 【解決手段】 画像処理装置に具備するニューラルネッ
トワークを、画像中の注目画素を含む7×7領域の各画
素の情報が入力されるニューロンを有する入力層と、該
入力層の全ニューロン49個と結合した1つのニューロ
ンと、前記7×7領域に含まれる5つの3×3領域1a
〜eのいずれか1つの領域の各画素の情報が入力される
前記入力層のニューロン9個と結合した9個のニューロ
ンのグループ5つとを有する中間層と、該中間層の全ニ
ューロンと結合し、前記注目画素に対する情報を出力す
る1つのニューロンを有する出力層とを具える。
安価でハードウェア化する。 【解決手段】 画像処理装置に具備するニューラルネッ
トワークを、画像中の注目画素を含む7×7領域の各画
素の情報が入力されるニューロンを有する入力層と、該
入力層の全ニューロン49個と結合した1つのニューロ
ンと、前記7×7領域に含まれる5つの3×3領域1a
〜eのいずれか1つの領域の各画素の情報が入力される
前記入力層のニューロン9個と結合した9個のニューロ
ンのグループ5つとを有する中間層と、該中間層の全ニ
ューロンと結合し、前記注目画素に対する情報を出力す
る1つのニューロンを有する出力層とを具える。
Description
【0001】
【発明の属する技術分野】本発明は、例えば多値画像デ
ータの情報を削減して得られた二値画像データから、元
の多値画像データを復元するような多値画像を二値画像
に変換する処理や、領域が中間調部分であるか文字部分
であるかを判別する処理などの画像処理に関するもので
ある。
ータの情報を削減して得られた二値画像データから、元
の多値画像データを復元するような多値画像を二値画像
に変換する処理や、領域が中間調部分であるか文字部分
であるかを判別する処理などの画像処理に関するもので
ある。
【0002】
【従来の技術】従来、二値画像から多値画像を推定する
方法として、図10に示されるような平滑フィルタを使
用する方法や、階層型ニューラルネットワークを使用す
る方法が用いられている。
方法として、図10に示されるような平滑フィルタを使
用する方法や、階層型ニューラルネットワークを使用す
る方法が用いられている。
【0003】
【発明が解決しようとしている課題】しかしながら、平
滑化フィルタでは、中間調部分、文字部分を同時に良好
に多値変換することはできない。例えば、図10(a)
のような小さなウィンドウを用いれば文字は良好に多値
変換するが、中間調部分に粒状性が残る。又、図10
(b)のような広いウィンドウでは中間調部分は良好に
多値変換するが文字がぼける。このフィルタの欠点を補
うのが、ニューラルネットワークを使用する方法であ
る。ニューラルネットワークによる方法は、入力情報を
増やせば増やすほど良好な多値変換が行える。
滑化フィルタでは、中間調部分、文字部分を同時に良好
に多値変換することはできない。例えば、図10(a)
のような小さなウィンドウを用いれば文字は良好に多値
変換するが、中間調部分に粒状性が残る。又、図10
(b)のような広いウィンドウでは中間調部分は良好に
多値変換するが文字がぼける。このフィルタの欠点を補
うのが、ニューラルネットワークを使用する方法であ
る。ニューラルネットワークによる方法は、入力情報を
増やせば増やすほど良好な多値変換が行える。
【0004】しかしながら、入力層と中間層との間、中
間層と出力層との間の全てを結合したニューラルネット
ワークは、計算量が膨大なため、ソフトウェアで処理す
ると、かなりの時間を要する。例えば、256×256
画素3色の画像を入力層49個、中間層25個、出力層
11個のニューラルネットワークで処理すると、約12
分かかる。そこで、ハードウェア化が望まれるのである
が、現在公開されているニューロチップは高価であり、
実用的ではない。
間層と出力層との間の全てを結合したニューラルネット
ワークは、計算量が膨大なため、ソフトウェアで処理す
ると、かなりの時間を要する。例えば、256×256
画素3色の画像を入力層49個、中間層25個、出力層
11個のニューラルネットワークで処理すると、約12
分かかる。そこで、ハードウェア化が望まれるのである
が、現在公開されているニューロチップは高価であり、
実用的ではない。
【0005】
【課題を解決するための手段】上記課題を解決するため
に、本発明によれば、画像処理装置に、画像中の注目画
素を含む第1の領域の各画素の情報が入力されるニュー
ロンを有する入力層と、該入力層の全ニューロンと結合
した少なくとも1つのニユーロンと、前記第1の領域に
含まれる複数の第2の領域のいずれか1つの領域の各画
素の情報が入力される前記入力層のニューロンと結合し
た複数のニューロンとを有する中間層と、該中間層の全
ニューロンと結合し、前記注目画素に対する情報を出力
する少なくとも1つのニューロンを有する出力層とを具
えたニューラルネットワークを具備する。
に、本発明によれば、画像処理装置に、画像中の注目画
素を含む第1の領域の各画素の情報が入力されるニュー
ロンを有する入力層と、該入力層の全ニューロンと結合
した少なくとも1つのニユーロンと、前記第1の領域に
含まれる複数の第2の領域のいずれか1つの領域の各画
素の情報が入力される前記入力層のニューロンと結合し
た複数のニューロンとを有する中間層と、該中間層の全
ニューロンと結合し、前記注目画素に対する情報を出力
する少なくとも1つのニューロンを有する出力層とを具
えたニューラルネットワークを具備する。
【0006】
【発明の実施の形態】本実施形態のニューラルネットワ
ーク構成について述べる前に、ニューラルネットワーク
の概要を簡単に説明する。
ーク構成について述べる前に、ニューラルネットワーク
の概要を簡単に説明する。
【0007】ニューラルネットワークとは、人間の細胞
を真似たネットワークで、ネットワークの個々の構成要
素は人間の神経細胞と似た機能をもつ。その要素はニュ
ーロンと呼ばれる。ニューロンは互いに接続していて、
各ニューロンの動作、及びニューロン間の接続形態をう
まく決めることで、パターン認識機能を埋め込むことが
できる。
を真似たネットワークで、ネットワークの個々の構成要
素は人間の神経細胞と似た機能をもつ。その要素はニュ
ーロンと呼ばれる。ニューロンは互いに接続していて、
各ニューロンの動作、及びニューロン間の接続形態をう
まく決めることで、パターン認識機能を埋め込むことが
できる。
【0008】ニューラルネットワークは大きく2種類の
タイプに分かれる。階層型ネットワークと相互結合型ネ
ットワークの2種類である。ここで、多値復元に使用す
るのは前者の階層型ネットワークで、学習により接続形
態(重み係数)を調節するのが特徴であり、学習アルゴ
リズムをバックプロパゲーションと呼ぶ。
タイプに分かれる。階層型ネットワークと相互結合型ネ
ットワークの2種類である。ここで、多値復元に使用す
るのは前者の階層型ネットワークで、学習により接続形
態(重み係数)を調節するのが特徴であり、学習アルゴ
リズムをバックプロパゲーションと呼ぶ。
【0009】〔ニューロンの構造〕ニューロンの構造を
図7に示す。構造は単純で、他のニューロンからの入力
を重みを掛けながら受ける部分、入力を一定の規則にし
たがって変換する部分、結果を出力する部分からなる。
この重みは接続されている他のニューロンとの結合の強
さを表している。重み係数が0というのは結合のないこ
とを表す。学習の段階ではこの重み係数は可変である
が、出力誤差が収束して学習を打ち切った時点での重み
係数は定数となり、通常変わることはない。
図7に示す。構造は単純で、他のニューロンからの入力
を重みを掛けながら受ける部分、入力を一定の規則にし
たがって変換する部分、結果を出力する部分からなる。
この重みは接続されている他のニューロンとの結合の強
さを表している。重み係数が0というのは結合のないこ
とを表す。学習の段階ではこの重み係数は可変である
が、出力誤差が収束して学習を打ち切った時点での重み
係数は定数となり、通常変わることはない。
【0010】ニューロンは他の複数ニューロンiからの
信号input〔i〕と重みw〔i〕の積和を入力値と
する。その入力値をsumとするとsumは次の式で表
せる。
信号input〔i〕と重みw〔i〕の積和を入力値と
する。その入力値をsumとするとsumは次の式で表
せる。
【0011】
【外1】
【0012】各ニューロンはsumを関数fに適用し、
変換する。この変換には一般的に図8(a)のようなし
きい値関数か図8(b)のようなシグモイド関数を使
う。今回のシミュレーションでは(b)のシグモイド関
数を使った。シグモイド関数とは、微分可能な擬似関数
で、
変換する。この変換には一般的に図8(a)のようなし
きい値関数か図8(b)のようなシグモイド関数を使
う。今回のシミュレーションでは(b)のシグモイド関
数を使った。シグモイド関数とは、微分可能な擬似関数
で、
【0013】
【外2】 で表せる。この関数は0〜1の値を出力する。
【0014】〔階層型ネットワーク〕階層型ネットワー
クの構成例を図9に示す。
クの構成例を図9に示す。
【0015】入力信号を受け取るだけの入力層のニュー
ロンの数は、入力ベクトルの数と一致し、出力層のニュ
ーロンの数は分類すべきクラスの数だけ必要である。中
間層の数、及び中間層のニューロンの数は原則的にいく
つでも良く、又なくても構わない。学習は以下のステッ
プで行う。
ロンの数は、入力ベクトルの数と一致し、出力層のニュ
ーロンの数は分類すべきクラスの数だけ必要である。中
間層の数、及び中間層のニューロンの数は原則的にいく
つでも良く、又なくても構わない。学習は以下のステッ
プで行う。
【0016】入力層・中間層間、中間層・出力層間の
すべての重み係数に乱数で初期値を与える。
すべての重み係数に乱数で初期値を与える。
【0017】入力パタンと、その入力のときの理想的
な出力(理想出力)とを用意する。
な出力(理想出力)とを用意する。
【0018】入力パタンを入力層のニューロンに入力
し、ネットワークの構成に従って出力を計算する。
し、ネットワークの構成に従って出力を計算する。
【0019】出力と理想出力との誤差を求める。
【0020】誤差から各重み係数の修正量を求め、重
み係数を更新する。
み係数を更新する。
【0021】誤差が収束するまで〜の処理を繰り
返す。
返す。
【0022】以上のステップにより得られた重み係数が
最終的な定数となる。
最終的な定数となる。
【0023】〔ネットワーク構造〕図3のような7×7
のウインドウを設けた場合のネットワーク構造を図1に
示す。注目画素を中心とした7×7のウインドウ内の各
画素を入力値とするので入力層のニューロンは各画素に
対応する49個である。前記7×7のウインドウ内に注
目画素を含む3×3の小領域を5つ作成し、中間層の立
場から構造を見て説明する。まず、中間層の最初の1つ
のニューロンは、7×7の領域に含まれる各画素に対応
する入力層のニューロン(すなわち全ニューロン)と結
合している。次の9つのニューロンは、いずれも第1の
小領域1aに含まれる画素に対応する入力層の9個のニ
ューロンと結合している。次の9つのニューロンは第2
の小領域1bに含まれる画素に対応する入力層の9個の
ニューロンと結合している。以下、同様に第3、第4、
第5の小領域(1c,1d,1e)内に含まれる画素に
対応する入力層のニューロンに結合する中間層のニュー
ロンがそれぞれ9個であり、この結果として、中間層の
ニューロンは全部で1+9×5=46個となる。この中
間層のニューロンは全て出力層のニューロンに接続して
いる。図1では接続線、重み係数はグループずつ束にし
て表してあり、数字がその束の数を表している。例えば
小領域1a内の画素に対応する入力層のニューロン9個
とそれに接続される中間層のニューロン9個との結線
は、全て接続しあっているので9×9=81本あり、重
み係数も81個ある。
のウインドウを設けた場合のネットワーク構造を図1に
示す。注目画素を中心とした7×7のウインドウ内の各
画素を入力値とするので入力層のニューロンは各画素に
対応する49個である。前記7×7のウインドウ内に注
目画素を含む3×3の小領域を5つ作成し、中間層の立
場から構造を見て説明する。まず、中間層の最初の1つ
のニューロンは、7×7の領域に含まれる各画素に対応
する入力層のニューロン(すなわち全ニューロン)と結
合している。次の9つのニューロンは、いずれも第1の
小領域1aに含まれる画素に対応する入力層の9個のニ
ューロンと結合している。次の9つのニューロンは第2
の小領域1bに含まれる画素に対応する入力層の9個の
ニューロンと結合している。以下、同様に第3、第4、
第5の小領域(1c,1d,1e)内に含まれる画素に
対応する入力層のニューロンに結合する中間層のニュー
ロンがそれぞれ9個であり、この結果として、中間層の
ニューロンは全部で1+9×5=46個となる。この中
間層のニューロンは全て出力層のニューロンに接続して
いる。図1では接続線、重み係数はグループずつ束にし
て表してあり、数字がその束の数を表している。例えば
小領域1a内の画素に対応する入力層のニューロン9個
とそれに接続される中間層のニューロン9個との結線
は、全て接続しあっているので9×9=81本あり、重
み係数も81個ある。
【0024】〔ハード構成〕以上の構造は、入力層のニ
ューロン49個、中間層のニューロン46個、出力層の
ニューロン1個のネットワークで一部の結線がない(重
み係数が0である)ネットワークに等しいが、ランダム
に結線を省くのではなく規則的に省いたことにより、 小領域に対応する入力層のニューロン9個 それに接続される中間層のニューロン9個 その9個の中間層のニューロンと出力層のニューロン
との重み係数9個 は1セットと考えられる。1つのセットは9個の入力か
ら1個の出力を出すブラックボックスと考えられるの
で、9ビットのルックアップテーブルに置き換えること
ができる。1a〜1eの5つのブラックボックスの様子
を図4に示す。401は小領域内の画素に対応する入力
層のニューロンで1a〜1eに中で重複が存在する。4
02はそれに接続される中間層のニューロン9個であ
る。403はその9個の中間層のニューロンと出力層の
ニューロンとの重み係数9個である。401と402の
間はすべて結合しており、404には402からの出力
と403の値の積和の値が与えられる。
ューロン49個、中間層のニューロン46個、出力層の
ニューロン1個のネットワークで一部の結線がない(重
み係数が0である)ネットワークに等しいが、ランダム
に結線を省くのではなく規則的に省いたことにより、 小領域に対応する入力層のニューロン9個 それに接続される中間層のニューロン9個 その9個の中間層のニューロンと出力層のニューロン
との重み係数9個 は1セットと考えられる。1つのセットは9個の入力か
ら1個の出力を出すブラックボックスと考えられるの
で、9ビットのルックアップテーブルに置き換えること
ができる。1a〜1eの5つのブラックボックスの様子
を図4に示す。401は小領域内の画素に対応する入力
層のニューロンで1a〜1eに中で重複が存在する。4
02はそれに接続される中間層のニューロン9個であ
る。403はその9個の中間層のニューロンと出力層の
ニューロンとの重み係数9個である。401と402の
間はすべて結合しており、404には402からの出力
と403の値の積和の値が与えられる。
【0025】又、一番目の中間層のニューロンは、入力
層の全ニューロン49個から情報をもらっている。これ
も49個の結線と重み係数の組を10+10+10+1
0+9の5つに分けて考えるとルックアップテーブルに
することができる。これを図5に示す。
層の全ニューロン49個から情報をもらっている。これ
も49個の結線と重み係数の組を10+10+10+1
0+9の5つに分けて考えるとルックアップテーブルに
することができる。これを図5に示す。
【0026】501は入力層のニューロン49個、50
2は、入力層のニューロンと中間層の1番目のニューロ
ンとの重み係数である。
2は、入力層のニューロンと中間層の1番目のニューロ
ンとの重み係数である。
【0027】さらにシグモイド関数も、やはりルックア
ップテーブルで処理することにする。
ップテーブルで処理することにする。
【0028】従って図1のニューラルネットワークは図
2のようなハード構成となる。
2のようなハード構成となる。
【0029】図2において、201は7ラインバッファ
で、FIFOメモリ201a〜201gにより構成さ
れ、図示していない画像入力装置によって原稿から読み
取られた画像データが、FIFOメモリ201a〜20
1gに入力される。FIFOメモリ201a〜201g
には、画像の垂直方向の連続する7ラインのデータが記
憶され、7ラインの内、水平位置の左端から右端までの
データが順次クロックに同期して出力される。
で、FIFOメモリ201a〜201gにより構成さ
れ、図示していない画像入力装置によって原稿から読み
取られた画像データが、FIFOメモリ201a〜20
1gに入力される。FIFOメモリ201a〜201g
には、画像の垂直方向の連続する7ラインのデータが記
憶され、7ラインの内、水平位置の左端から右端までの
データが順次クロックに同期して出力される。
【0030】これにより、水平、垂直で7×7の領域内
のデータがデータラッチ202にラッチされる。データ
ラッチ202にラッチされている49個のデータは、1
0、10、10、10、9の束に分かれ、5つのルック
アップテーブル203にそれぞれ入力される。
のデータがデータラッチ202にラッチされる。データ
ラッチ202にラッチされている49個のデータは、1
0、10、10、10、9の束に分かれ、5つのルック
アップテーブル203にそれぞれ入力される。
【0031】ルックアップテーブル203からの5つの
出力は、アダー204で加算される。加算されたデータ
はシグモイド関数のルックアップテーブル205に入力
され、シグモイド関数変換されたデータを出力する。
出力は、アダー204で加算される。加算されたデータ
はシグモイド関数のルックアップテーブル205に入力
され、シグモイド関数変換されたデータを出力する。
【0032】一方、ラッチ202からの49個のデータ
のうち、小領域1a内の画素に対応するデータはルック
アップテーブル206のルックアップテーブル206a
に入力される。
のうち、小領域1a内の画素に対応するデータはルック
アップテーブル206のルックアップテーブル206a
に入力される。
【0033】同様に小領域1b〜1e内の画素に対応す
るデータは、ルックアップテーブル206b〜206e
にそれぞれ入力される。
るデータは、ルックアップテーブル206b〜206e
にそれぞれ入力される。
【0034】ルックアップテーブル205からの出力と
ルックアップテーブル206からの5つの出力は、アダ
ー207で加算される。加算されたデータは、最終的な
シグモイド関数ルックアップテーブル208に入力さ
れ、多値データを出力する。
ルックアップテーブル206からの5つの出力は、アダ
ー207で加算される。加算されたデータは、最終的な
シグモイド関数ルックアップテーブル208に入力さ
れ、多値データを出力する。
【0035】(他の実施形態)以上の実施形態におい
て、入力データ領域は7×7ではなく、5×5でも構わ
ない。それにより、図2のルックアップテーブル203
は3つに減り、アダー204の負担も軽くなる。入力デ
ータはもちろん、矩形でなくても構わないし、注目画素
を中心とする必要もない。小領域の形もどんな形でも良
いし、もちろん数も限定されない。
て、入力データ領域は7×7ではなく、5×5でも構わ
ない。それにより、図2のルックアップテーブル203
は3つに減り、アダー204の負担も軽くなる。入力デ
ータはもちろん、矩形でなくても構わないし、注目画素
を中心とする必要もない。小領域の形もどんな形でも良
いし、もちろん数も限定されない。
【0036】又、上述の実施形態では、シグモイド関数
を使用したが、しきい値関数でも良いし、その他図6に
示すようなシグモイド関数を近似した関数、その他でも
良い。中間層の数と、ニューロン数もいくつでも構わな
い。
を使用したが、しきい値関数でも良いし、その他図6に
示すようなシグモイド関数を近似した関数、その他でも
良い。中間層の数と、ニューロン数もいくつでも構わな
い。
【0037】又、本発明の利用可能な画像処理も、上述
の2値画像から多値画像への変換に限らず、領域判別、
エッジ強調、ぼけ修復などいろいろな画像処理分野にこ
の構成は応用可能である。さらに拡張すれば、このグル
ープ分けされたネットワークは、画像処理に限らず、あ
らゆる分野に応用可能である。
の2値画像から多値画像への変換に限らず、領域判別、
エッジ強調、ぼけ修復などいろいろな画像処理分野にこ
の構成は応用可能である。さらに拡張すれば、このグル
ープ分けされたネットワークは、画像処理に限らず、あ
らゆる分野に応用可能である。
【0038】
【発明の効果】以上説明したように、本発明によれば、
画像処理装置に具備するニューラルネットワークを、画
像中の注目画素を含む第1の領域の各画素の情報が入力
されるニューロンを有する入力層と、該入力層の全ニュ
ーロンと結合した少なくとも1つのニューロンと、前記
第1の領域に含まれる複数の第2の領域のいずれか1つ
の領域の各画素の情報が入力される前記入力層のニュー
ロンと結合した複数のニューロンとを有する中間層と、
該中間層の全ニューロンと結合し、前記注目画素に対す
る情報を出力する少なくとも1つのニューロンを有する
出力層とを具えた構成としたので、ニューラルネットワ
ークのハードウェア化が安価に実現でき、これにより、
ニューラルネットワークを利用した画像処理が、リアル
タイムに実行可能となるという効果がある。
画像処理装置に具備するニューラルネットワークを、画
像中の注目画素を含む第1の領域の各画素の情報が入力
されるニューロンを有する入力層と、該入力層の全ニュ
ーロンと結合した少なくとも1つのニューロンと、前記
第1の領域に含まれる複数の第2の領域のいずれか1つ
の領域の各画素の情報が入力される前記入力層のニュー
ロンと結合した複数のニューロンとを有する中間層と、
該中間層の全ニューロンと結合し、前記注目画素に対す
る情報を出力する少なくとも1つのニューロンを有する
出力層とを具えた構成としたので、ニューラルネットワ
ークのハードウェア化が安価に実現でき、これにより、
ニューラルネットワークを利用した画像処理が、リアル
タイムに実行可能となるという効果がある。
【図1】本発明の1実施形態の画像処理装置のネットワ
ーク構成を示す図である。
ーク構成を示す図である。
【図2】本発明の1実施形態の画像処理装置のハードウ
ェア構成を示す図である。
ェア構成を示す図である。
【図3】参照ウィンドウの構成を示す図である。
【図4】小領域のセットのハードウェア構成を示す図で
ある。
ある。
【図5】入力層の全てのニューロンと結合した中間層の
ニューロンのハードウェア構成を示す図である。
ニューロンのハードウェア構成を示す図である。
【図6】シグモイド関数を近似した関数の例を示す図で
ある。
ある。
【図7】ニューロンの構造を示す図である。
【図8】ニューロンの入出力の例を示す図である。
【図9】階層型ニューラルネットワークの構成を示す図
である。
である。
【図10】平滑化フィルタの例を示す図である。
Claims (5)
- 【請求項1】 画像中の注目画素を含む第1の領域の各
画素の情報が入力されるニューロンを有する入力層と、 該入力層の全ニューロンと結合した少なくとも1つのニ
ューロンと、前記第1の領域に含まれる複数の第2の領
域のいずれか1つの領域の各画素の情報が入力される前
記入力層のニューロンと結合した複数のニューロンとを
有する中間層と、 該中間層の全ニューロンと結合し、前記注目画素に対す
る情報を出力する少なくとも1つのニューロンを有する
出力層とを具えたニューラルネットワークを具備した画
像処理装置。 - 【請求項2】 前記入力層に入力される情報が各画素の
2値情報であり、前記出力層より出力される情報が前記
注目画素の多値情報であることを特徴とする請求項1に
記載の画像処理装置。 - 【請求項3】 前記ニューラルメットワークを、ROM
で構成された複数のルックアップテーブルと、該複数の
ルックアップテーブルの一部の出力を加算するアダーと
を用いて構成したことを特徴とする請求項1に記載の画
像処理装置。 - 【請求項4】 前記第2の領域の各々が注目画素を含む
領域であることを特徴とする請求項1に記載の画像処理
装置。 - 【請求項5】 前記第2の領域のすべての合併が前記第
1の領域と等しくなることを特徴する請求項1に記載の
画像処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7231269A JPH0981723A (ja) | 1995-09-08 | 1995-09-08 | 画像処理装置 |
US08/708,741 US6026178A (en) | 1995-09-08 | 1996-09-05 | Image processing apparatus using neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7231269A JPH0981723A (ja) | 1995-09-08 | 1995-09-08 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0981723A true JPH0981723A (ja) | 1997-03-28 |
Family
ID=16920966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7231269A Withdrawn JPH0981723A (ja) | 1995-09-08 | 1995-09-08 | 画像処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6026178A (ja) |
JP (1) | JPH0981723A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086850A (ja) * | 2018-11-22 | 2020-06-04 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7221807B2 (en) * | 2002-03-29 | 2007-05-22 | Sharp Laboratories Of America, Inc. | Methods and systems for digital image characteristic adjustment using a neural network |
ATE556387T1 (de) * | 2005-10-07 | 2012-05-15 | Comdys Holding B V | Neuronales netzwerk, einrichtung zum verarbeiten von informationen, verfahren zum betreiben eines neuronalen netzwerks, programmelement und computerlesbares medium |
EP2517171A1 (en) * | 2009-12-23 | 2012-10-31 | Nokia Corp. | Pixel information reproduction using neural networks |
WO2011076976A1 (en) * | 2009-12-23 | 2011-06-30 | Nokia Corporation | Determining color information using a binary sensor |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
JP5911165B2 (ja) * | 2011-08-05 | 2016-04-27 | 株式会社メガチップス | 画像認識装置 |
US10825231B2 (en) * | 2018-12-10 | 2020-11-03 | Arm Limited | Methods of and apparatus for rendering frames for display using ray tracing |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02214987A (ja) * | 1989-02-16 | 1990-08-27 | Matsushita Electric Ind Co Ltd | 彩色装置 |
US5271068A (en) * | 1990-03-15 | 1993-12-14 | Sharp Kabushiki Kaisha | Character recognition device which divides a single character region into subregions to obtain a character code |
DE69123991T2 (de) * | 1990-03-23 | 1997-05-22 | Canon Kk | Bildverarbeitung mit neuronalem Netzwerk |
EP0461902B1 (en) * | 1990-06-14 | 1998-12-23 | Canon Kabushiki Kaisha | Neural network |
US5309525A (en) * | 1990-06-14 | 1994-05-03 | Canon Kabushiki Kaisha | Image processing apparatus using neural network |
-
1995
- 1995-09-08 JP JP7231269A patent/JPH0981723A/ja not_active Withdrawn
-
1996
- 1996-09-05 US US08/708,741 patent/US6026178A/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086850A (ja) * | 2018-11-22 | 2020-06-04 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム |
US11496635B2 (en) | 2018-11-22 | 2022-11-08 | Canon Kabushiki Kaisha | Information processing system for obtaining read data of handwritten characters, training a model based on the characters, and producing a font for printing using the model |
Also Published As
Publication number | Publication date |
---|---|
US6026178A (en) | 2000-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0810550B1 (en) | Image-processing method | |
US5495542A (en) | Binary to multi-level image restoration using neural network | |
US6243490B1 (en) | Data processing using neural networks having conversion tables in an intermediate layer | |
EP0778696B1 (en) | Method and apparatus for providing halftoning processing of color images by means of a neural network | |
EP0461903B1 (en) | Image processing apparatus using neural network | |
JPH05344340A (ja) | 階調変換処理方法および装置 | |
US5491776A (en) | Signal processing apparatus and learning method therefor | |
JPH0981723A (ja) | 画像処理装置 | |
Son | Inverse halftoning through structure-aware deep convolutional neural networks | |
JPH08305846A (ja) | ニューロフィルターと像域分割方法とフィルター装置 | |
JP3378167B2 (ja) | 画像処理方法 | |
US6009193A (en) | Method and apparatus for converting N-value image to M-value image, for < NM | |
JP2859377B2 (ja) | ニューラルネットを用いた画像処理方法および画像処理装置 | |
JPH0447474A (ja) | ニューラルネットワークを用いた画像処理方式 | |
JP2810497B2 (ja) | 画像処理装置 | |
JPH0447470A (ja) | ニューラルネットを用いた画像処理方式及び同方式を用いた画像処理装置 | |
JP2891505B2 (ja) | 中間調画像復元方法 | |
JPH0451378A (ja) | 画像処理装置 | |
JPH0620048A (ja) | 画像処理装置 | |
JP3386822B2 (ja) | ニューラルネットによる画像の2値化処理 | |
Tanaka et al. | CNN state equations for binocular stereo vision | |
JPH06164902A (ja) | ニューラルネットワークによる画像の圧縮再生 | |
JPH0447472A (ja) | ニャーラルネットワークを用いた画像処理方式 | |
Blair et al. | Partitioning schemes for use in a neural network for digital image halftoning | |
JPH0447475A (ja) | ニューラルネットワークを用いた画像処理方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20021203 |