JPH1070652A - 画像領域属性判別装置 - Google Patents

画像領域属性判別装置

Info

Publication number
JPH1070652A
JPH1070652A JP8226583A JP22658396A JPH1070652A JP H1070652 A JPH1070652 A JP H1070652A JP 8226583 A JP8226583 A JP 8226583A JP 22658396 A JP22658396 A JP 22658396A JP H1070652 A JPH1070652 A JP H1070652A
Authority
JP
Japan
Prior art keywords
block
area
attribute
image
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8226583A
Other languages
English (en)
Inventor
Makoto Araoka
真 新阜
Tetsuya Ito
哲也 伊藤
Shinji Yamamoto
眞司 山本
Kazuaki Nakamura
和明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP8226583A priority Critical patent/JPH1070652A/ja
Publication of JPH1070652A publication Critical patent/JPH1070652A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】注目領域の画像の種類と注目領域のサイズとの
相互関連に起因する属性の誤判別を可及的になくし、属
性の判別をより正確に行うことを目的とする。 【解決手段】原画像のうちの属性を判別すべき注目領域
に対して、互いにサイズの異なる複数のブロック領域に
対応する画像データを抽出するブロック領域抽出部11
と、互いにサイズの異なるブロック領域の画像データが
入力され、入力された画像データに基づいて注目領域の
属性をそれぞれ判別するための複数のブロック判別用ニ
ューラルネットワーク12A,12B,12Cと、これ
らブロック判別用ニューラルネットワークから出力され
る各判別結果に基づいて、注目領域の属性を総合的に判
別するための総合判別用ニューラルネットワーク13と
を有し、ブロック判別用ニューラルネットワークは、ブ
ロック領域のサイズに応じて判別すべき属性の種類が互
いに異なるように構成される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、複写機などにおい
て画像処理を行う際に用いられる画像領域属性判別装置
に関する。
【0002】
【従来の技術】従来より、複写機においては、原稿の画
像を読み取って得られた多値の画像データに対して、画
像品質の向上を図るために、画像の種類に応じた種々の
画像処理が行われる。例えば、文字画像に対しては文字
を明瞭にするためにエッジ強調処理や2値化処理が行わ
れ、写真画像に対しては階調性を重視した処理が行わ
れ、網点画像に対してはモアレ防止のために平滑化処理
が行われる。
【0003】さて、複写原稿には、文字画像、写真画
像、網点画像などが混在している場合がある。その場合
には、原稿画像をそれぞれの領域に分割する必要があ
る。領域分割に当たっては、原稿画像の中から注目領域
を順次抽出し、抽出したそれぞれの注目領域についてそ
の属性を判別することが行われる。
【0004】例えば特開平4−114560号公報に
は、原稿画像から64×64画素の注目領域に対応する
画像データを抽出し、抽出した画像データに基づいてヒ
ストグラム特徴量及び線密度特徴量を抽出し、これをニ
ューラルネットワークに入力して属性を判別することが
提案されている。
【0005】また、井上らの報告書「ニューラルネット
ワークを利用した画像領域の分離方式」(日本シミュレ
ーション学会第13回シミュレーション・テクノロジー
・コンファレンス、1994年6月)には、8×8画素
の注目領域における平均輝度及び最大濃度差を特徴量と
して抽出し、これをニューラルネットワークに入力して
属性を判別することが提案されている。
【0006】
【発明が解決しようとする課題】しかし、従来において
は、属性を判別すべき1つの注目領域に対応して画像デ
ータを1つのみ抽出し、その1つの画像データに基づい
て属性の判別を行っているので、注目領域の実際の画像
の種類と注目領域のサイズ(大きさ)との関連で誤判別
の生じることがあり、正確な判別を行えないという問題
があった。
【0007】例えば、注目領域の画像が網点画像である
場合に、その網点周期に比べて注目領域のサイズが小さ
いときには、画像データの中に網点周期に関する情報が
含まれないために網点画像を写真画像(濃淡画像)と誤
判別してしまう可能性がある。また、注目領域の画像が
文字画像である場合にその文字が大きいとき、網点画像
である場合に網点の線や点が太いときにも、注目領域の
中に文字や網点の特徴が入らないために写真画像と誤判
別してしまう可能性がある。
【0008】また、上述した従来からの種々の提案にお
いては、ニューラルネットワークとして、入力層、中間
層、及び出力層からなる3層のパーセプトロン、又はそ
の改良型が用いられている。また、ニューラルネットワ
ークに与える入力信号として、ブロック領域の画像デー
タから抽出された種々の特徴量が用いられている。つま
り、従来においては、物理的な意味を有する種々の特徴
量を組み合わせることによって、ニューラルネットワー
クによる属性の判別が行われている。
【0009】しかし、複写機のように領域属性をリアル
タイムで判別する必要がある場合には、特徴量を抽出す
るための回路が複雑となり、回路を構成すること自体が
困難であるとともに、処理速度、柔軟性、コストの点で
も不利であった。また、種々の複写原稿に対して特徴量
毎に閾値を決定することが極めて困難であり、多くの経
験とノウハウを必要とし、閾値決定のための実験などに
多くの時間と労力を要するものであった。
【0010】請求項1乃至請求項3の発明は、上述の問
題に鑑みてなされたもので、注目領域の画像の種類と注
目領域のサイズとの相互関連に起因する属性の誤判別を
可及的になくし、属性の判別をより正確に行うことので
きる画像領域属性判別装置を提供することを目的とす
る。
【0011】請求項2の発明は、さらに、入力された画
像データに基づいてその領域の属性をより正確に且つ容
易に判別することを目的とする。
【0012】
【課題を解決するための手段】請求項1の発明に係る装
置は、原画像のうちの属性を判別すべき注目領域に対し
て、互いにサイズの異なる複数のブロック領域に対応す
る画像データを抽出するブロック領域抽出手段と、互い
にサイズの異なるブロック領域の画像データが入力さ
れ、入力された画像データに基づいて注目領域の属性を
それぞれ判別するための複数のブロック判別用ニューラ
ルネットワークと、前記ブロック判別用ニューラルネッ
トワークから出力される各判別結果に基づいて、前記注
目領域の属性を総合的に判別するための総合判別用ニュ
ーラルネットワークとを有し、前記ブロック判別用ニュ
ーラルネットワークは、ブロック領域のサイズに応じて
判別すべき属性の種類が互いに異なるように構成されて
なる。
【0013】請求項2の発明に係る装置は、原画像のう
ちの属性を判別すべき注目領域に対して、互いにサイズ
の異なる複数のブロック領域に対応する画像データを抽
出するブロック領域抽出手段と、互いにサイズの異なる
ブロック領域の画像データが入力され、入力された画像
データに基づいて注目領域の属性をそれぞれ判別するた
めの複数のブロック判別用ニューラルネットワークと、
前記ブロック判別用ニューラルネットワークから出力さ
れる各判別結果に基づいて、前記注目領域の属性を総合
的に判別するための総合判別用ニューラルネットワーク
とを有し、前記各ブロック判別用ニューラルネットワー
クは、少なくとも1つの中間層のニューロン数が入力層
のニューロン数よりも小さく且つ入力層と出力層のニュ
ーロン数が互いに同一であり、恒等写像を学習済の第1
のニューラルネットワークのうちの前記入力層から前記
中間層までで構成される、1つ又は複数の特徴抽出用セ
ンサと、前記特徴抽出用センサからの出力が入力される
ように結合され、前記特徴抽出用センサの入力層に入力
される前記画像データに基づいて、前記注目領域の属性
についての判別結果を出力する第2のニューラルネット
ワークとからなり、前記ブロック判別用ニューラルネッ
トワークは、ブロック領域のサイズに応じて判別すべき
属性の種類が互いに異なるように構成されてなる。
【0014】請求項3の発明に係る装置は、前記ブロッ
ク領域抽出手段は、前記ブロック領域に対応する画像デ
ータのデータ量を減少させるためのデータ圧縮手段を含
んでなる。
【0015】ブロック領域抽出手段によって、1つの注
目領域に対して互いにサイズの異なる複数のブロック領
域に対応する画像データが抽出される。例えば、8×8
画素の注目領域に対して、8×8画素、16×16画
素、32×32画素の3種類のサイズのブロック領域に
対応する画像データが抽出される。
【0016】データ圧縮手段を有する場合には、データ
の間引き又は代表値の演算などによって画像データの圧
縮が行われ、例えば3種類の各画像データが8×8画素
に圧縮され、これによってデータ量が減少される。デー
タ量が減少されても、それぞれのサイズに含まれていた
画像の特徴は継承される。データ量が減少されることに
よって解像度が低下し、その結果、解像度の異なる3種
類の画像データとなる。
【0017】ブロック判別用ニューラルネットワーク
は、サイズの異なるブロック領域に対応する画像データ
に基づいて、注目領域の属性をそれぞれ判別する。その
場合に、各ブロック判別用ニューラルネットワークは、
判別する属性の種類が互いに異なる。例えば、8×8画
素のブロック領域に対しては、文字領域、文字背景領
域、写真平坦領域、写真エッジ領域、網点領域の5種類
の属性を判別し、16×16画素のブロック領域に対し
ては、文字領域、文字背景領域、写真平坦領域、網点領
域の4種類の属性を判別し、32×32画素のブロック
領域に対しては、文字領域、文字背景領域、写真平坦領
域の3種類の属性を判別する。つまり、写真エッジ領域
の属性の判別に当たっては8×8画素の比較的小さいサ
イズのブロック領域のみの画像データを用い、網点領域
の属性の判別に当たっては8×8画素及び16×16画
素の比較的小さい方のサイズのブロック領域の画像デー
タを用い、文字領域、文字背景領域、及び写真平坦領域
の3つの属性の判別に当たっては全部のサイズのブロッ
ク領域の画像データを用いる。
【0018】総合判別用ニューラルネットワークは、各
ブロック判別用ニューラルネットワークの判別結果に基
づいて、当該注目領域についての属性を総合的に判別す
る。請求項2の発明では、特徴抽出用センサによって、
入力される画像データの特徴量が抽出される。この場合
の特徴量は、物理的に明確な意味を持った特徴量ではな
い。例えば、入力として文字画像又は写真画像などの画
像データを入力した場合は、「文字画像らしさ」「写真
画像らしさ」などといった画像の性質を表すようなもの
である。
【0019】第2のニューラルネットワークからは、学
習によって、特徴抽出用センサにより抽出される特徴量
に対応した出力が得られる。ニューラルネットワークに
よって、入力された画像データに対して、文字領域、文
字背景領域、写真平坦領域、写真エッジ領域、網点領域
などの属性が判別される。
【0020】
【発明の実施の形態】図1は本発明に係る属性判別装置
1の構成を示すブロック図、図2は原稿PPの注目領域
TAとブロック領域BA1〜3との関係を説明する図、
図3はブロック判別用ニューラルネットワーク12Aの
構成を示す図、図4は特徴抽出用ネットワーク23の作
成過程を示す図、図5は砂時計型のニューラルネットワ
ークNNAの例を示す図、図6は領域判別用ネットワー
ク24Aの例を示す図、図7はブロック判別用ニューラ
ルネットワーク12Bの構成を示す図、図8は領域判別
用ネットワーク24Bの例を示す図、図9はブロック判
別用ニューラルネットワーク12Cの構成を示す図、図
10は領域判別用ネットワーク24Cの例を示す図、図
11は総合判別用ニューラルネットワーク13の構成を
示す図、図12はブロック判別用ニューラルネットワー
ク12の作成方法を示すフローチャートである。
【0021】属性判別装置1は、例えば図示しないデジ
タル式の複写機に組み込まれている。複写機のイメージ
リーダ部が原稿台にセットされた原稿PPを読み取るこ
とによって、原稿PPの画像(原画像)PMについての
多値の画像データDMが得られる。イメージリーダ部
は、読み取り密度が例えば400dpiのラインセンサ
を備えており、原稿PPを縦方向(副走査方向)に走査
することによって、例えば256階調の画像データDM
を得る。属性判別装置1は、得られた画像データDMに
基づいて、原画像PMに含まれる注目領域TAについて
の属性ATを判別する。注目領域TAは、例えば8×8
画素の正方形の領域であり、原画像PMに対して各注目
領域TAが互いに重ならないように割り当てられてい
る。
【0022】図1に示すように、属性判別装置1は、ブ
ロック領域抽出部11、ブロック判別用ニューラルネッ
トワーク12A,12B,12C、及び総合判別用ニュ
ーラルネットワーク13から構成されている。なお、ブ
ロック判別用ニューラルネットワーク12A,12B,
12Cの全部又は一部を指して「ブロック判別用ニュー
ラルネットワーク12」と記載することがある。また、
ブロック判別用ニューラルネットワーク12A,12
B,12Cは、それぞれ入力される画像データDMa
1,2,3の解像度が異なるので、それぞれ、第1解像
度用のブロック判別用ニューラルネットワーク12A、
第2解像度用のブロック判別用ニューラルネットワーク
12B、第3解像度用のブロック判別用ニューラルネッ
トワーク12Cと言うことがある。
【0023】ブロック領域抽出部11は、入力された画
像データDMから、原画像PMのうちの属性ATを判別
すべき注目領域TAについて、互いにサイズの異なる複
数のブロック領域BA(BA1,BA2,BA3)に対
応する画像データDMa(DMa1,DMa2,DMa
3)を抽出するものである。ブロック領域抽出部11
は、データ抽出部21(21a,21b,21c)、及
びデータ圧縮部22(22b,22c)からなる。
【0024】データ抽出部21aは、1つの注目領域T
Aに対して、その注目領域TAと同一位置で同一サイズ
のブロック領域BA1の画像データDMa1を抽出す
る。データ抽出部21bは、その注目領域TAに対し
て、縦横とも注目領域TAの2倍のサイズのブロック領
域BA2の画像データDMaa2を抽出する。データ抽
出部21cは、その注目領域TAに対して、縦横とも注
目領域TAの4倍のサイズのブロック領域BA3の画像
データDMaa3を抽出する。つまり、各データ抽出部
21が抽出するブロック領域BA1,BA2,BA3
は、縦横のサイズ比が1対2対4であり、面積比では1
対4対16である。注目領域TAが8×8画素の領域で
ある場合には、ブロック領域BA1,BA2,BA3
は、それぞれ、8×8画素、16×16画素、32×3
2画素である。したがって、画像データDMa1,DM
aa2,DMaa3のデータ量比は、1対4対16であ
る。
【0025】データ圧縮部22bは、データ抽出部21
bによって抽出された画像データDMaa2を間引いて
データ量を4分の1に減少させ、それを画像データDM
a2とする。データの間引き方法として、例えば、主走
査方向に沿って4画素から3画素を間引く。又は、2×
2画素の領域から3画素を間引く。データ圧縮部22c
は、データ抽出部21cによって抽出された画像データ
DMaa3を間引いてデータ量を16分の1に減少さ
せ、画像データDMa3とする。これによって、各ブロ
ック領域BA1〜3に対応する画像データDMa1,D
Ma2,DMa3のデータ量は全て64(=8×8)画
素分となる。
【0026】ブロック判別用ニューラルネットワーク1
2は、ブロック領域抽出部11から出力される3種類の
各画像データDMa1,DMa2,DMa3に基づい
て、注目領域TAの属性ATが、文字領域、文字背景領
域、写真平坦領域、写真エッジ領域、又は網点領域であ
るか否かについての判別結果を出力する。つまり、各サ
イズのブロック領域BA1〜3毎に、注目領域TAの属
性ATを判別してその結果を出力する。
【0027】ブロック判別用ニューラルネットワーク1
2は、特徴抽出用ネットワーク23A,23B,23
C、及び第2のニューラルネットワークとしての領域判
別用ネットワーク24A,24B,24Cからなってい
る。
【0028】次に、ブロック判別用ニューラルネットワ
ーク12の作成方法について図12を参照して説明す
る。まず、第1解像度用のブロック判別用ニューラルネ
ットワーク12Aの特徴抽出用ネットワーク23Aの作
成方法について説明する。
【0029】すなわち、図4に示すように、第1のニュ
ーラルネットワークとしての5個のニューラルネットワ
ークNNA(NNA1〜5)を準備する(ステップ#
1)。図5に示すように、各ニューラルネットワークN
NAは、砂時計型の5層のものであり、第1層(入力
層)から第5層(出力層)までの各ニューロン数が、6
4,60,10,60,64である。つまり、ニューラ
ルネットワークNNAは、第3層(中間層)のニューロ
ン数が入力層のニューロン数よりも小さく、入力層と出
力層のニューロン数が互いに同一であり、第3層を中心
として左右対称形である。
【0030】また、各ニューラルネットワークNNAに
おいて、入力層S、中間層(第3層)Ab、及び出力層
Rの応答関数はリニア関数であり、中間層(第2層)A
a及び中間層(第4層)Acの応答関数はシグモイド関
数である。第1層から第3層までの部分が特徴抽出用セ
ンサとしてのネットワークA1〜5であり、第4層及び
第5層の部分がネットワークB1〜5である。
【0031】これらの各ニューラルネットワークNNA
に対し、それぞれ特定の分布的特徴を有した入力信号を
入力層に入力してその恒等写像を学習させる(ステップ
#2)。
【0032】すなわち、1つ目のニューラルネットワー
クNNA1には、入力層Sに学習用の文字画像を入力
し、入力した文字画像と同じ画像(復元文字画像)を出
力層Rから出力するように学習させる。その場合には、
各入力層への入力値と各入力層に対応する各出力層から
の出力値とが等しくなる。
【0033】2つ目のニューラルネットワークNNA2
には、入力層Sに学習用の文字背景画像を入力し、入力
した文字背景画像と同じ画像(復元文字背景画像)を出
力層Rから出力するように学習させる。
【0034】3つ目のニューラルネットワークNNA3
には、入力層Sに学習用の写真平坦画像を入力し、入力
した写真平坦画像と同じ画像(復元写真平坦画像)を出
力層Rから出力するように学習させる。
【0035】4つ目のニューラルネットワークNNA4
には、入力層Sに学習用の写真エッジ画像を入力し、入
力した写真エッジ画像と同じ画像(復元写真エッジ画
像)を出力層Rから出力するように学習させる。
【0036】5つ目のニューラルネットワークNNA5
には、入力層Sに学習用の網点画像を入力し、入力した
網点画像と同じ画像(復元網点画像)を出力層Rから出
力するように学習させる。
【0037】ニューラルネットワークNNAの学習は、
周知の技術であるバックプロパゲーション法による。学
習においては、文字画像、文字背景画像、写真平坦画
像、写真エッジ画像、及び網点画像の各サンプルを多数
作成し、それらの各サンプルから得られた8×8画素に
ついての画像データを、サンプルデータとして入力層S
に入力する。各ニューラルネットワークNNAについ
て、サンプル全体に対する平均二乗誤差が小さくなるよ
うに学習を行う。
【0038】各ニューラルネットワークNNAは、学習
することによって、それぞれの中間層Abに「文字画像
らしさ」「文字背景画像らしさ」「写真平坦画像らし
さ」「写真エッジ画像らしさ」「網点画像らしさ」とい
った各画像の性質を表すような特徴量が取得される。つ
まり、ニューラルネットワークNNAの学習によって、
各画像の特徴量が取得される。但し、この場合の特徴量
は、物理的に明確な意味を持った特徴量ではない。各中
間層Abは各入力層Sよりもニューロン数が小さく、し
たがって中間層Abには、入力層Sに入力された情報の
特徴が圧縮され又は集約されて現れていると考えること
ができる。なお、ニューラルネットワークの中間層にお
ける特徴量の取得に関しては、入江らの報告書「多層パ
ーセプトロンによる内部表現の獲得」(電子情報通信学
会文誌 Vol.J73−D−II、No.8、P117
3〜8、1990年8月)を参照することができる。
【0039】学習済のニューラルネットワークNNA1
〜5の各第1層から第3層までの部分(ネットワークA
1〜5)を取り出したものが、特徴抽出用ネットワーク
23Aである(ステップ#3)。特徴抽出用ネットワー
ク23Aは、各ネットワークA1〜5の入力層S同士は
並列に接続され、64(=8×8)個の画像データが各
ネットワークA1〜5に同時に入力される。ネットワー
クA1〜5における出力層からは、合計50(=10×
5)個のデータが出力される。
【0040】図6に示すように、領域判別用ネットワー
ク24Aは3層のものであり、入力層S、中間層A、出
力層Rの各ニューロン数は、50,50,5である。入
力層Sの応答関数はリニア関数であり、中間層A及び出
力層Rの応答関数はシグモイド関数である。領域判別用
ネットワーク24Aの入力層Sに、特徴抽出用ネットワ
ーク23Aの出力層を接続する(ステップ#4)。
【0041】上述のように構成されたブロック判別用ニ
ューラルネットワーク12Aに対して、ニューラルネッ
トワークNNAを学習させたのと同じ分布的特徴を有す
る入力信号を入力し、特徴抽出用ネットワーク23Aの
結合係数を変更することなく、領域判別用ネットワーク
24Aを学習させる(ステップ#5)。
【0042】すなわち、ブロック判別用ニューラルネッ
トワーク12Aに対して、まず学習用の文字画像を入力
し、領域判別用ネットワーク24Aの出力層Rのニュー
ロンr1の出力が「1」となるように学習させる。次
に、学習用の文字背景画像を入力し、領域判別用ネット
ワーク24Aのニューロンr2の出力が「1」となるよ
うに学習させる。さらに、学習用の写真平坦画像、写真
エッジ画像、及び網点画像を順次入力し、領域判別用ネ
ットワーク24Aのニューロンr3,4,5の出力が
「1」となるようにそれぞれ学習させる。この学習過程
において、領域判別用ネットワーク24Aの結合係数が
変化する。なお、ブロック判別用ニューラルネットワー
ク12Aの学習は、周知の技術であるバックプロパゲー
ション法による。学習に用いられるサンプルは、ニュー
ラルネットワークNNAの学習において用いたサンプル
と同一のものでもよく又は異なるものでもよい。文字画
像、文字背景画像、写真平坦画像、写真エッジ画像、及
び網点画像のそれぞれについて、平均二乗誤差が小さく
なるように学習を行う。
【0043】このようにして第1解像度用のブロック判
別用ニューラルネットワーク12Aが作成される。そし
て、同様な方法で、第2解像度用及び第3解像度用のブ
ロック判別用ニューラルネットワーク12B,12Cを
作成する。
【0044】その際に、第2解像度用のブロック判別用
ニューラルネットワーク12Bについては、図7に示す
ように、文字画像、文字背景画像、写真平坦画像、及び
網点画像の4種類の属性ATのみを判別させ、写真エッ
ジ画像であるか否かの判別はさせない。
【0045】したがって、特徴抽出用ネットワーク23
Bの作成に当たっては、第1のニューラルネットワーク
として4個のニューラルネットワークNNA(NNA1
〜3,5)のみを準備する。各ニューラルネットワーク
NNA1〜3,5に対して、写真エッジ画像を除く4種
類の属性ATについての学習を行わせる。その結果、4
個のニューラルネットワークNNA1〜3,5から、4
個のネットワークA1〜3,5が得られる。4個のネッ
トワークA1〜3,5の入力層S同士を並列に接続した
ものが特徴抽出用ネットワーク23Bであり、64個の
画像データがそれぞれ同時に入力される。ネットワーク
A1〜3,5における出力層からは、合計40(=10
×4)個のデータが出力される。
【0046】図8に示すように、領域判別用ネットワー
ク24Bは3層のものであり、入力層S、中間層A、出
力層Rの各ニューロン数は、40,40,4である。領
域判別用ネットワーク24Bの入力層Sに、特徴抽出用
ネットワーク23Bの出力層を接続する。
【0047】また、第3解像度用のブロック判別用ニュ
ーラルネットワーク12Cについては、図9に示すよう
に、文字画像、文字背景画像、及び写真平坦画像の3種
類の属性ATのみを判別させ、写真エッジ画像及び網点
画像であるか否かの判別はさせない。
【0048】したがって、特徴抽出用ネットワーク23
Cの作成に当たっては、第1のニューラルネットワーク
として3個のニューラルネットワークNNA(NNA1
〜3)のみを準備する。各ニューラルネットワークNN
A1〜3に対して、文字画像、文字背景画像、及び写真
平坦画像の3種類の属性ATについての学習を行わせ
る。その結果、3個のニューラルネットワークNNA1
〜3から、3個のネットワークA1〜3が得られる。3
個のネットワークA1〜3の入力層S同士を並列に接続
したものが特徴抽出用ネットワーク23Cであり、64
個の画像データがそれぞれ同時に入力される。ネットワ
ークA1〜3における出力層からは、合計30(=10
×3)個のデータが出力される。
【0049】図10に示すように、領域判別用ネットワ
ーク24Cは3層のものであり、入力層S、中間層A、
出力層Rの各ニューロン数は、30,30,3である。
領域判別用ネットワーク24Cの入力層Sに、特徴抽出
用ネットワーク23Cの出力層を接続する。
【0050】作成されたブロック判別用ニューラルネッ
トワーク12A,B,Cに、それぞれサイズの異なるブ
ロック領域BA1,2,3の画像データDMa1,2,
3が入力される。
【0051】ブロック判別用ニューラルネットワーク1
2Aにおいては、各出力層Rの5個のニューロンr1〜
5から、それぞれ、文字領域、文字背景領域、写真平坦
領域、写真エッジ領域、網点領域に対応する出力SA
(SA1〜5)が得られる。つまり、ブロック判別用ニ
ューラルネットワーク12Aは、各ネットワークA1〜
5の入力層Sに入力されたデータに基づいて、注目領域
TAの属性ATをそれぞれ判別し、それが文字領域であ
る場合にはニューロンr1の出力SA1が「1」に近く
なり、文字背景領域である場合にはニューロンr2の出
力SA2が「1」に近くなり、写真平坦領域である場合
にはニューロンr3の出力SA3が「1」に近くなり、
写真エッジ領域である場合にはニューロンr4の出力S
A4が「1」に近くなり、網点領域である場合にはニュ
ーロンr5の出力SA5が「1」に近くなる。
【0052】ブロック判別用ニューラルネットワーク1
2Bにおいては、各出力層Rの4個のニューロンr1〜
4から、それぞれ、文字領域、文字背景領域、写真平坦
領域、網点領域に対応する出力SB(SB1〜4)が得
られる。つまり、ブロック判別用ニューラルネットワー
ク12Bは、各ネットワークA1〜3,5の入力層Sに
入力されたデータに基づいて、注目領域TAの属性AT
をそれぞれ判別し、それが文字領域である場合にはニュ
ーロンr1の出力SB1が「1」に近くなり、文字背景
領域である場合にはニューロンr2の出力SB2が
「1」に近くなり、写真平坦領域である場合にはニュー
ロンr3の出力SB3が「1」に近くなり、網点領域で
ある場合にはニューロンr4の出力SB4が「1」に近
くなる。
【0053】ブロック判別用ニューラルネットワーク1
2Cにおいては、各出力層Rの3個のニューロンr1〜
3から、それぞれ、文字領域、文字背景領域、写真平坦
領域に対応する出力SC(SC1〜3)が得られる。つ
まり、ブロック判別用ニューラルネットワーク12C
は、各ネットワークA1〜3の入力層Sに入力されたデ
ータに基づいて、注目領域TAの属性ATをそれぞれ判
別し、それが文字領域である場合にはニューロンr1の
出力SC1が「1」に近くなり、文字背景領域である場
合にはニューロンr2の出力SC2が「1」に近くな
り、写真平坦領域である場合にはニューロンr3の出力
SC3が「1」に近くなる。
【0054】このようにして、各ブロック判別用ニュー
ラルネットワーク12A,12B,12Cは、各サイズ
のブロック領域BA1〜3毎に、注目領域TAの属性A
Tを判別し、それぞれ出力SA,SB,SCを出力す
る。
【0055】総合判別用ニューラルネットワーク13
は、ブロック判別用ニューラルネットワーク12からの
出力SA,SB,SCに基づいて、当該注目領域TAの
属性ATを決定する。その際に、文字領域、文字背景領
域、写真平坦領域の各属性ATについては、全部の出力
SA,SB,SCに基づいて属性ATが決定されるが、
網点領域の属性ATについては、2つの出力SA,SB
のみに基づいて属性ATが決定され、写真エッジ領域の
属性ATについては、1つの出力SAのみに基づいて属
性ATが決定される。
【0056】つまり、文字領域、文字背景領域、写真平
坦領域の各属性ATについては、サイズの異なる3つの
ブロック領域BA1〜3の画像データDMa1,2,3
がそのまま用いられ、網点領域の属性ATについては2
つのブロック領域BA1,2の画像データDMa1,2
が用いられ、写真エッジ領域の属性ATについては最も
狭い領域を見ている1つのブロック領域BA1の画像デ
ータDMa1のみが用いられる。
【0057】また、このようにして決定された各注目領
域TAの属性ATに基づいて、モルフォロジーなどによ
る平滑化を行い、これによって注目領域TA毎の判別結
果を補正し、各領域を大きくして誤判別の低減を行う。
これによって、原画像PMは、文字領域、文字背景画
像、写真平坦領域、写真エッジ領域、網点領域の5つの
領域に分割される。
【0058】文字領域に対しては、例えばエッジ強調処
理、2値化処理が行われ、写真平坦領域及び写真エッジ
画像に対しては自然な階調性を得るための処理又は特定
の階調を強調する処理が行われ、網点領域に対してはモ
アレ防止のために平滑化処理が行われる。
【0059】なお、写真画像とは、銀塩写真のように、
原画像PMの読み取り密度に対して充分に画素密度の大
きい濃淡画像のことであり、写真平坦画像はそのうちの
濃度変化の少ない部分、写真エッジ画像はそのうちの濃
度変化の大きい部分である。写真平坦画像は、文字画像
の白地部分である文字背景画像と区別される。例えば、
文字背景画像については白化処理が行われるに対し、写
真平坦画像については階調性を生かした処理が行われ
る。また、網点画像は、網点が細かくなるにしたがって
写真画像との差異が少なくなる。例えば、原画像PMの
読み取り密度が400dpiである場合には、網点の密
度が200線/インチになると、読み取った画像データ
DMは写真画像の場合と異ならない。したがって、その
場合には、200線/インチ以上の網点画像は写真画像
に含めてもよい。
【0060】上述の実施形態によると、1つの注目領域
TAに対して3種類のサイズのブロック領域BA1〜3
に対応する画像データDMa1〜3に基づいて属性AT
を判別するので、判別対象の画像の種類と注目領域TA
のサイズとの相互関連に起因する属性ATの誤判別がな
くなり、属性ATの判別を正確に行うことができる。し
たがって、例えば、注目領域TAの画像が網点画像であ
る場合に、2つのブロック領域BA1,2のいずれかに
は網点周期の情報が適当に含まれることとなり、網点画
像を写真画像と誤判別してしまうおそれがない。また、
文字が大きいとき又は網点の線や点が太いときにも、ブ
ロック領域BA1〜3又はブロック領域BA1,2のい
ずれかには文字や網点の特徴に関する情報が含まれ、そ
れらを正確に判別することができる。
【0061】しかも、ブロック判別用ニューラルネット
ワーク12A,B,Cは、ブロック領域BA1,2,3
のサイズに応じて判別すべき属性ATの種類が互いに異
なるように構成されており、それぞれの属性ATに応じ
た良好な判別が行われる。つまり、各属性ATについて
種々のテストを行った結果によると、文字領域、文字背
景画像、写真平坦領域の各領域についてはブロック領域
BAのサイズの大きい方が、写真エッジ領域、網点領域
の各領域についてはブロック領域BAのサイズの小さい
方が、それぞれ良好な判別結果の得られることが判明し
たのである。
【0062】なお、各ブロック判別用ニューラルネット
ワーク12A,B,Cにおける判別の対象となる属性A
Tの種類は、上述した以外の組み合わせとすることも可
能である。例えば、各ブロック判別用ニューラルネット
ワーク12A,B,Cにおける判別の対象となる属性A
Tが互いに異なるようにしてもよい。
【0063】上述の実施形態によると、ブロック判別用
ニューラルネットワーク12に対して、ブロック領域抽
出部11によって画像データDMから抽出した各64個
の生の画像データDMaを入力することにより、各ブロ
ック領域BAの属性ATを判別することができる。つま
り、ブロック判別用ニューラルネットワーク12への入
力信号として特徴量を与える必要がなく、判別対象とな
る画像データをそのまま入力することができるので、ブ
ロック判別用ニューラルネットワーク12への入力が容
易である。
【0064】したがって、従来のように物理的な意味を
持った特徴量を予め抽出しておく必要がなく、そのため
の回路又はプログラムなどが不要であり、回路構成、処
理速度、柔軟性、コストなどの点で有利である。
【0065】上述の実施形態によると、属性ATの判別
にブロック判別用ニューラルネットワーク12及び総合
判別用ニューラルネットワーク13を用いているので、
それらの学習効果によって簡単に属性ATの判別が行わ
れ、確実な属性ATの判別が行われる。
【0066】因みに、ブロック判別用ニューラルネット
ワーク12を用いることなく、例えば特徴量である空間
周波数スペクトル成分に応じた閾値によって網点領域で
あるか否かを判別するとした場合には、目の粗い網点画
像は低周波のスペクトル成分が多くなり、目の細かい網
点画像は高周波のスペクトル成分が多くなるため、空間
周波数スペクトル成分の多少に応じて単純に網点画像で
あるか否かを判別することができず、閾値を決定するの
に多くの経験とノウハウを必要とし、しかも誤判別の多
発を免れない。
【0067】ブロック判別用ニューラルネットワーク1
2を学習させた後では、入力されるデータと学習によっ
て得られた結合係数との積和演算、及び応答関数を表し
たテーブルの検索などによって判別のための処理を行う
ことが可能であるので、演算の処理速度の向上を図るこ
とができる。特に、各ネットワークA1〜5の結合係数
は変化しないので、ニューラルネットワークNNAの学
習によって得られた結合係数のみを転用することによっ
て容易に特徴抽出用ネットワーク23A,B,Cを構成
することができる。しかも演算処理を単純化することが
できるので演算速度が速い。
【0068】したがって、属性判別装置1を用いた複写
機では、原稿PPの領域分割を正確に行うことができ、
原稿PPから得られた画像データDMに対し、その領域
に応じた適切な処理をリアルタイムで行なって明瞭な複
写画像を出力することができる。
【0069】上述の実施形態においては、8×8画素の
正方形の領域を注目領域TAとしたが、4×4画素、3
×3画素、2×2画素、16×16画素、64×64画
素など、種々のサイズの領域をブロック領域BAとして
よい。正方形でなくてもよい。注目領域TAのサイズと
ブロック領域BA1のサイズを同一としたが、ブロック
領域BA1のサイズを注目領域TAのサイズよりも大き
くしてよい。また、ブロック領域BA2,3のサイズを
2倍又は4倍としたが、他の倍数、例えば1.5倍、3
倍、9倍などとしてもよい。
【0070】上述の実施形態においては、データ圧縮部
22b,22cによって同一のデータ量の画像データD
Ma1〜3となるようにしたので、メモリが有効に利用
でき、且つ処理の簡素化が図られ、処理速度が向上す
る。しかし、画像データDMa1〜3のデータ量は必ず
しも同一でなくてもよい。
【0071】上述の実施形態においては、データ抽出部
21aで抽出した画像データDMa1についてはデータ
量を減少させなかったが、データ圧縮部22を用いてデ
ータ量を減少させてもよい。データ圧縮部22b,22
cで画像データDMaa2,3を間引くことによってデ
ータ量を減少させたが、画像データDMaa2,DMa
a3のうちの小領域に対応する複数の画像データについ
ての濃度平均値、最大濃度値、最小濃度値、中間濃度値
などを求め、得られた値で小領域を代表することによっ
てデータ量を減少させてもよい。
【0072】その場合に、例えば次の(1)〜(4)に
示す方法で圧縮処理を行うことができる。 (1)各サイズのブロック領域BAから小領域を抽出す
る。 (2)抽出した各小領域の画像データからそれぞれの濃
度平均値を求める。 (3)求めた濃度平均値(又は最大濃度値、最小濃度
値、中間濃度値)を代表値とする新たな小領域を作成す
る。 (4)新たに作成した小領域から新たなブロック領域を
作成する。
【0073】上述の実施形態においては、文字領域、文
字背景領域、写真平坦領域、写真エッジ領域、網点領域
の5種類の属性判別を行ったが、4種類以下又は6種類
以上の属性判別を行うように構成してもよい。
【0074】上述の実施形態において、ブロック領域抽
出部11は、プログラム及びデータが格納されたメモリ
とプログラムを実行するCPUによってソフト的に実現
される。また、ブロック判別用ニューラルネットワーク
12は、コンピュータによるシミュレータによって実現
される。したがって、上述したように、ブロック判別用
ニューラルネットワーク12は、学習済の結合係数と応
答関数を表したテーブル、及びそれらを演算及び検索す
るためのプログラムから実現することが可能である。こ
のような態様も本発明の各ニューラルネットワークに含
まれる。また、各ニューラルネットワークをハードウエ
アで直接実現してもよい。
【0075】上述の実施形態において、ニューラルネッ
トワークNNAとして5層のものを用いたが、4層以下
又は6層以上のものでもよい。5個のネットワークA1
〜5を用いたが、4個以下又は6個以上でもよい。領域
判別用ネットワーク24A,B,Cとして3層のものを
用いたが、4層、5層、又はそれ以上のものでもよい。
複数のネットワークA1〜5に対してそれぞれ1つの領
域判別用ネットワーク24A,B,Cを結合したが、各
ネットワークA1〜5に対応してそれぞれ別個の領域判
別用ネットワークを結合してもよい。各層のニューロン
数、結合係数の有無、応答関数の種類、学習方法など
は、上述した以外に種々変更することができる。その
他、属性判別装置1の各部又は全体の構成、処理内容、
処理順序などは、本発明の主旨に沿って適宜変更するこ
とができる。
【0076】
【発明の効果】請求項1乃至請求項3の発明によると、
互いにサイズの異なる複数のブロック領域の画像データ
に基づいて注目領域の属性を判別するので、注目領域の
画像の種類と注目領域のサイズとの相互関連に起因する
属性の誤判別を可及的になくし、属性の判別をより正確
に行うことができる。
【0077】請求項2の発明によると、画像領域におけ
る特徴量を抽出する必要がなく、入力された画像データ
に基づいて注目領域の属性をより正確に且つ容易に判別
することができる。
【0078】また、ブロック判別用ニューラルネットワ
ーク及び総合判別用ニューラルネットワークを学習させ
た後では、入力されるデータと学習によって得られた結
合係数との積和演算、及び応答関数を表したテーブルの
検索などによって判別のための情報処理を行うことがで
きるので、演算速度の向上を図ることができる。
【0079】また、特徴抽出用センサの結合係数は、学
習済の第1のニューラルネットワークの結合係数をその
まま転用することが可能であるので、特徴抽出用センサ
を容易に構成することができ、しかも演算処理を単純化
することができるので演算速度の向上を図ることができ
る。
【0080】請求項3の発明によると、ブロック領域の
サイズの大型化にともなってデータ量が膨大になること
が防止される。
【図面の簡単な説明】
【図1】本発明に係る属性判別装置の構成を示すブロッ
ク図である。
【図2】原稿の注目領域とブロック領域との関係を説明
する図である。
【図3】第1解像度用のブロック判別用ニューラルネッ
トワークの構成を示す図である。
【図4】特徴抽出用ネットワークの作成過程を示す図で
ある。
【図5】砂時計型のニューラルネットワークの例を示す
図である。
【図6】第1解像度用の領域判別用ネットワークの例を
示す図である。
【図7】第2解像度用のブロック判別用ニューラルネッ
トワークの構成を示す図である。
【図8】第2解像度用の領域判別用ネットワークの例を
示す図である。
【図9】第3解像度用のブロック判別用ニューラルネッ
トワークの構成を示す図である。
【図10】第3解像度用の領域判別用ネットワークの例
を示す図である。
【図11】総合判別用ニューラルネットワークの構成を
示す図である。
【図12】ブロック判別用ニューラルネットワークの作
成方法を示すフローチャートである。
【符号の説明】
1 属性判別装置(画像領域属性判別装置) 11 ブロック領域抽出部(ブロック領域抽出手段) 12A,12B,12C ブロック判別用ニューラルネ
ットワーク 13 総合判別用ニューラルネットワーク 22 データ圧縮部(データ圧縮手段) 24A,24B,24C 領域判別用ネットワーク(第
2のニューラルネットワーク) NNA ニューラルネットワーク(第1のニューラルネ
ットワーク) A1〜4 ネットワーク(特徴抽出用センサ) BA1〜3 ブロック領域 TA 注目領域
フロントページの続き (72)発明者 山本 眞司 愛知県豊橋市王が崎町上原1−3,3− 402 (72)発明者 中村 和明 愛知県豊橋市三本木町字元三本木9−1 スタープラ ザ207

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】原画像のうちの属性を判別すべき注目領域
    に対して、互いにサイズの異なる複数のブロック領域に
    対応する画像データを抽出するブロック領域抽出手段
    と、 互いにサイズの異なるブロック領域の画像データが入力
    され、入力された画像データに基づいて注目領域の属性
    をそれぞれ判別するための複数のブロック判別用ニュー
    ラルネットワークと、 前記ブロック判別用ニューラルネットワークから出力さ
    れる各判別結果に基づいて、前記注目領域の属性を総合
    的に判別するための総合判別用ニューラルネットワーク
    とを有し、 前記ブロック判別用ニューラルネットワークは、ブロッ
    ク領域のサイズに応じて判別すべき属性の種類が互いに
    異なるように構成されてなる、 ことを特徴とする画像領域属性判別装置。
  2. 【請求項2】原画像のうちの属性を判別すべき注目領域
    に対して、互いにサイズの異なる複数のブロック領域に
    対応する画像データを抽出するブロック領域抽出手段
    と、 互いにサイズの異なるブロック領域の画像データが入力
    され、入力された画像データに基づいて注目領域の属性
    をそれぞれ判別するための複数のブロック判別用ニュー
    ラルネットワークと、 前記ブロック判別用ニューラルネットワークから出力さ
    れる各判別結果に基づいて、前記注目領域の属性を総合
    的に判別するための総合判別用ニューラルネットワーク
    とを有し、 前記各ブロック判別用ニューラルネットワークは、 少なくとも1つの中間層のニューロン数が入力層のニュ
    ーロン数よりも小さく且つ入力層と出力層のニューロン
    数が互いに同一であり、恒等写像を学習済の第1のニュ
    ーラルネットワークのうちの前記入力層から前記中間層
    までで構成される、1つ又は複数の特徴抽出用センサ
    と、 前記特徴抽出用センサからの出力が入力されるように結
    合され、前記特徴抽出用センサの入力層に入力される前
    記画像データに基づいて、前記注目領域の属性について
    の判別結果を出力する第2のニューラルネットワークと
    からなり、 前記ブロック判別用ニューラルネットワークは、ブロッ
    ク領域のサイズに応じて判別すべき属性の種類が互いに
    異なるように構成されてなる、 ことを特徴とする画像領域属性判別装置。
  3. 【請求項3】前記ブロック領域抽出手段は、 前記ブロック領域に対応する画像データのデータ量を減
    少させるためのデータ圧縮手段を含んでなる、 請求項1又は2記載の画像領域属性判別装置。
JP8226583A 1996-08-28 1996-08-28 画像領域属性判別装置 Pending JPH1070652A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8226583A JPH1070652A (ja) 1996-08-28 1996-08-28 画像領域属性判別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8226583A JPH1070652A (ja) 1996-08-28 1996-08-28 画像領域属性判別装置

Publications (1)

Publication Number Publication Date
JPH1070652A true JPH1070652A (ja) 1998-03-10

Family

ID=16847457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8226583A Pending JPH1070652A (ja) 1996-08-28 1996-08-28 画像領域属性判別装置

Country Status (1)

Country Link
JP (1) JPH1070652A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114928A (ja) * 2017-12-22 2019-07-11 ブラザー工業株式会社 画像処理装置、コンピュータプログラム、および、画像処理方法
JP2020144636A (ja) * 2019-03-07 2020-09-10 セイコーエプソン株式会社 情報処理装置、学習装置及び学習済モデル
WO2023063215A1 (ja) * 2021-10-13 2023-04-20 株式会社前川製作所 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114928A (ja) * 2017-12-22 2019-07-11 ブラザー工業株式会社 画像処理装置、コンピュータプログラム、および、画像処理方法
JP2020144636A (ja) * 2019-03-07 2020-09-10 セイコーエプソン株式会社 情報処理装置、学習装置及び学習済モデル
WO2023063215A1 (ja) * 2021-10-13 2023-04-20 株式会社前川製作所 食肉用の作用点演算システム、食肉加工システム、及び、食肉用の作用点演算方法

Similar Documents

Publication Publication Date Title
US5884296A (en) Network and image area attribute discriminating device and method for use with said neural network
JP4667062B2 (ja) 画像解析装置、画像解析方法、及びブロブ識別装置
US8995780B2 (en) Compression of digital images of scanned documents
JP2702928B2 (ja) 画像入力装置
EP0713329A1 (en) Method and apparatus for automatic image segmentation using template matching filters
EP1081648B1 (en) Method for processing a digital image
US5315409A (en) Method of and apparatus for obtaining binary image
JPH10271326A (ja) 画像処理装置
JP7059889B2 (ja) 学習装置、画像生成装置、学習方法、及び学習プログラム
JPH1070652A (ja) 画像領域属性判別装置
JP5979008B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN115512203A (zh) 信息检测方法、装置、设备及存储介质
JPH08251404A (ja) 画像領域属性判別方法及び装置
JPH08251405A (ja) 画像領域属性判別装置
JP2003087562A (ja) 画像処理装置および画像処理方法
JP3248965B2 (ja) 2値化しきい値決定装置
JPH08251403A (ja) 画像領域属性判別装置
JPH08249300A (ja) ニューラルネットワーク及びその作成方法
JP3030126B2 (ja) 画像処理方法
JPH0965032A (ja) ファクシミリ通信方法及びファクシミリ装置
JP3540128B2 (ja) 画像処理回路
JP2853140B2 (ja) 画像領域識別装置
JP2757868B2 (ja) 画像情報の2値化処理回路
JPH06103399A (ja) 画像処理装置
JP3436003B2 (ja) 画像処理装置