JP3095623B2 - 属性判定方法 - Google Patents

属性判定方法

Info

Publication number
JP3095623B2
JP3095623B2 JP06133998A JP13399894A JP3095623B2 JP 3095623 B2 JP3095623 B2 JP 3095623B2 JP 06133998 A JP06133998 A JP 06133998A JP 13399894 A JP13399894 A JP 13399894A JP 3095623 B2 JP3095623 B2 JP 3095623B2
Authority
JP
Japan
Prior art keywords
pattern
data
value
character
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06133998A
Other languages
English (en)
Other versions
JPH087045A (ja
Inventor
典昭 湯川
彰一 石井
光隆 手嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP06133998A priority Critical patent/JP3095623B2/ja
Priority to CN95106248A priority patent/CN1122237C/zh
Priority to KR1019950015957A priority patent/KR100238572B1/ko
Priority to US08/491,070 priority patent/US5655031A/en
Publication of JPH087045A publication Critical patent/JPH087045A/ja
Application granted granted Critical
Publication of JP3095623B2 publication Critical patent/JP3095623B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、テレビカメラなどの信
号入力装置とコンピュータを備えた信号処理装置を用い
て入力画像に含まれるパターンがどのような種類に属す
るかを判定する属性判定方法に関するものである。
【0002】
【従来の技術】近年、工業製品等の検査工程において
は、製品の正確な種類分類、不良種類分類等が重要な課
題の一つとなっている。これらは自動化が強く望まれて
おり、テレビカメラなどの画像入力装置とコンピュータ
を備えた画像処理装置が広く用いられている。例えば、
製品に書かれている製造番号等を自動的に識別するテレ
ビカメラを用いた文字認識装置はその中の一つとして挙
げられる。
【0003】従来のテレビカメラを用いた文字認識装置
の例を以下に説明する。図15に装置の概略構成を示
す。対象11の表面にハーフミラー14を介して光源1
5から照明光を照射するとともに、ハーフミラー14を
介してテレビカメラ12で対象11の表面を撮像する。
このテレビカメラ12はCCDセンサを備えており、各
画素ごとに濃淡信号が得られ、これはデジタル化された
形で認識処理部13の中で処理される。なお、認識処理
部13は、画像データを記憶する記憶部と文字認識処理
を実行するプログラムを格納する格納部が設けられてい
ることは言うまでもない。
【0004】図16に認識処理部の構成を示す。テレビ
カメラ12から出力された映像信号aはA/D変換回路
21に入力され、A/D変換回路21にてデジタル化さ
れて出力されたデジタル信号bは画像メモリ22で記憶
される。画像メモリ22からは画像データcが出力さ
れ、2値化回路23で2値画像dに変換される。2値化
回路23では、図17に示すように、画像データ27に
おける文字部分を「黒」、背景部分を「白」にするよう
に2値化を行う。2値画像dは文字切出回路24に入力
され、切出画像eが出力される。文字切出回路24で
は、図18に示すように、1文字毎に外接する外接矩形
28を検出して文字列が文字ごとに分離される。この文
字切出は、水平軸と垂直軸に投影される投影データをも
とに文字の分離が行われることが多い。文字毎に分離さ
れた切出画像eは正規化回路25に入力され、メッシュ
パターンデータfが出力される。正規化回路25では、
各文字の外接矩形内に存在する画素が適当なメッシュサ
イズのパターンに正規化変換される。各メッシュに対応
する複数画素からの変換は、それらの平均値、最大値、
最小値、中央値、最多頻度値等を用いることによって行
われる。図19に、文字毎に分離された画像29が、横
5×縦9のメッシュサイズのメッシュパターン30に変
換される様子を示す。メッシュパターンデータfは文字
判定回路26に入力され、文字の判定結果gが出力され
る。文字としては、工業用の場合、英数字の「0」〜
「9」、「A」〜「Z」、特殊文字の「−」の37文字
が用いられることが多く、文字判定回路26はメッシュ
パターンデータがどの文字に近いかを結果として出力す
る。図20に上記37文字の標準パターンデータ(スタ
ンダードパターンデータ)を示す。
【0005】文字判定回路26にはニューラルネットワ
ーク(以下、NNと記す)がよく用いられる。NNにつ
いては、各種の構成のものがあるが(参考文献:飯沼
編、「ニューロコンピュータ」、技術評論社、平成元年
9月刊)、実際に良く応用されるパーセプトロン型のN
Nの構成を図21に示す。このNNは、入力層、中間
層、出力層の3層からなり、各々の多数のニューロンと
呼ばれる非線形素子で構成されている。入力層には、値
として背景の部分を示す「0」、文字の部分を示す
「1」を取る45個(横5×縦9)のニューロンが存在
し、出力層には、判定される文字である英数字の「0」
〜「9」、「A」〜「Z」、特殊文字の「−」に対応す
る37個のニューロンが存在する。ここでは、入力層と
中間層、中間層と出力層は、それぞれニューロン間で結
線されており、その上にウエイトωが定義されている。
個々のニューロンは、接続されているニューロンの出力
yとその結線上に定義されたウエイトωの積をすべての
結線について総和し、それを非線形関数処理してから
0.0から1.0の値を出力する。ここで、ウエイトω
の値により、このNNは様々な特性を持つことになる。
このウエイトの決定には、実際のデータを与えて、出力
層ニューロンが期待の出力を出すかどうか見て、その誤
差分だけのウエイトの修正を何度も繰り返すことで行わ
れる。この修正方法として、バックプロパゲーションが
よく用いられる。(D.E.Rumelhart,et.al:Learning Rep
resentations by Back-Propagating Errors,Nature,No.
323,pp533-536(1986))。スタンダードパターンデータ
を入力層に与え、その文字に対応するニューロンを1.
0に、それ以外のニューロンを0.0にするような出力
層の期待の出力を想定し、その誤差量分だけのウエイト
ωの修正を何度も繰り返すことで行われる。実施例で
は、すべての出力層のニューロンの値と期待の出力値の
誤差が0.1以下になるまで修正作業を繰り返すことに
している。修正作業が終わったNNに対して判定作業を
行わせた場合、図22に示すように、入力層に「A」が
入力されると、出力層における「A」に対応するニュー
ロンの出力が他のニューロンに比べて大きくなる。理想
的には、「A」に対応するニューロンが1.0に近い
値、それ以外のニューロンが0.0に近い値となる。実
施例では、文字の判定条件を次のようにしている。
【0006】1)出力層のニューロンが0.7以上の値
になった場合、それの対応する文字を判定文字とする
(判定条件)。
【0007】2)出力層のニューロンで1番目に大きい
値と2番目に大きい値の差が0.3以上の場合、1番目
に対応する文字を判定文字とする(判定条件)。
【0008】3)出力層のどのニューロンからもそのよ
うな値が出力されない場合、「?」として判定不可能と
する。
【0009】
【発明が解決しようとする課題】しかしながら、上記従
来のNNを用いた判定方法では、要求される信頼性でそ
の属性判定(文字判定)を行えないという問題があっ
た。実際の例をもとに以下に説明する。
【0010】図20に示した標準パターンデータ(スタ
ンダードパターンデータ)で、入力層:45(横45×
縦9の2値(0,1)パターン)、中間層:45、出力
層:37(英数字の「0」〜「9」、「A」〜「Z」、
特殊文字の「−」)の3層からなるネットワークに対
し、学習を行った結果実施したものである。
【0011】図23〜図26は、文字判定の検定に用い
た文字パターンであり、「2」、「9」、「A」、
「F」の4文字がそれぞれ30個づつである。図の中で
は黒の「1」を「*」で示し、白の「0」を「_」で示
している。
【0012】文字「2」について代表的な結果を示す
と、図23において、(1)は1番大きい出力ニューロ
ンが「2」でその値が0.86であり、判定条件を満
たしている。(2)は1番大きい出力ニューロンが
「2」でその値が0.63であり、2番目に大きい出力
ニューロンが「Z」でその値が0.12であり、その差
が0.63であるので判定条件を満たしている。しか
し、(4)は1番大きい出力ニューロンが「2」でその
値が0.34であり、2番目に大きい出力ニューロンが
「S」でその値が0.15であり、その差が0.19で
あるため判定不可能になる。同様に、(9)は1番大き
い出力ニューロンが「2」でその値が0.58であり、
2番目に大きい出力ニューロンが「C」でその値が0.
48であり、その差が0.10で判定不可能になる。
【0013】文字「9」について代表的な結果を示す
と、図24において、(1)は1番大きい出力ニューロ
ンが「9」でその値が0.90であり、判定条件を満
たしている。(3)は1番大きい出力ニューロンが
「9」でその値が0.37であり、2番目に大きい出力
ニューロンが「5」でその値が0.07であり、その差
が0.30であるので判定条件を満たしている。しか
し、(2)は1番大きい出力ニューロンが「9」でその
値が0.27であり、2番目に大きい出力ニューロンが
「3」でその値が0.07であり、その差が0.20で
あるため判定不可能になる。同様に、(8)は1番大き
い出力ニューロンが「9」でその値が0.38であり、
2番目に大きい出力ニューロンが「S」でその値が0.
18であり、その差が0.20で判定不可能になる。
【0014】文字「A」について代表的な結果を示す
と、図25において、(1)は1番大きい出力ニューロ
ンが「A」でその値が0.91であり、判定条件を満
たしている。(3)は1番大きい出力ニューロンが
「A」でその値が0.66であり、2番目に大きい出力
ニューロンが「4」でその値が0.11であり、その差
が0.55であるので判定条件を満たしている。しか
し、(22)は1番大きい出力ニューロンが「A」でそ
の値が0.22であり、2番目に大きい出力ニューロン
が「M」でその値が0.08であり、その差が0.14
であるため判定不可能になる。同様に、(26)は1番
大きい出力ニューロンが「Q」でその値が0.52であ
り、2番目に大きい出力ニューロンが「A」でその値が
0.38であり、その差が0.14で判定不可能にな
る。
【0015】文字「F」について代表的な結果を示す
と、図26において、(1)は1番大きい出力ニューロ
ンが「F」でその値が0.91であり、判定条件を満
たしている。(3)は1番大きい出力ニューロンが
「F」でその値が0.65であり、2番目に大きい出力
ニューロンが「P」でその値が0.27であり、その差
が0.39であるので判定条件を満たしている。しか
し、(5)は1番大きい出力ニューロンが「K」でその
値が0.12であり、2番目に大きい出力ニューロンが
「F」でその値が0.09であり、その差が0.03で
あるため判定不可能になる。同様に、(6)は1番大き
い出力ニューロンが「K」でその値が0.11であり、
2番目に大きい出力ニューロンが「F」でその値が0.
09であり、その差が0.02で判定不可能になる。
【0016】以上の実験では、かなり標準パターンデー
タからかけ離れているものも実験文字に含んでいるもの
の、人間では何とか識別可能な文字である。120個全
部の結果では、正答:82/120(68%)、誤答:
5/120(4%)、判定不可能:33/12(28
%)であった。この結果から分かるように誤答、判定不
可能の多さに問題がある。
【0017】また、NNの能力の改善を目指して構造を
変更しようと取り組んでも、ウエイトωの決定方法が実
際のデータとそれに対する期待出力を与えて自己組織化
を行っているため、内部構造がブラックボックス的にな
っていて最適な方法を見いだし難いという問題がある。
【0018】本発明は、上記従来の問題点に鑑み、属性
判定の正答率が高く、信頼性の高い属性判定ができると
ともに、さらに能力改善も比較的容易に行える属性判定
方法を提供することを目的としている。
【0019】
【課題を解決するための手段】本発明の属性判定方法
は、入力画像に含まれる入力パターンの複数の特徴デー
タと、前記入力パターンに対し、予めニューラルネット
ワークを用いて類似度の高い標準パターンの判定を行
い、その結果から上位の複数個の標準パターンを選択
し、選択した標準パターンから求めた特徴データのメン
バシップ関数とを比較し、入力パターンに最も類似度の
高い標準パターンを判定する属性判定方法であって、入
力パターンの各特徴データに対する各メンバシップ関数
の出力値を得ることを全ての特徴データに対して行い、
全ての特徴データに対する出力値の総合値を求め、これ
を判定すべき各標準パターンに対して行い、最も総合値
の高い標準パターンを判別することを特徴とする。
【0020】好適には、総合値にニューラルネットワー
クの判定結果を考慮して行う。
【0021】さらに、入力パターンをメッシュパターン
とし、特徴データとしてメッシュパターンデータを列ご
とに上から下及び下から上に進み黒のメッシュに当たる
までの白のメッシュ数を合計した上下の縦構造ベクトル
和と、メッシュパターンデータを行ごとに左から右及び
右から左に進み黒のメッシュに当たるまでの白のメッシ
ュ数を合計した左右の横構造ベクトル和と、メッシュパ
ターンデータの上半分と下半分及び左半分と右半分の黒
の面積差を求めた上下と左右の面積差と、列中央で上下
方向に黒と交叉する回数を求めた上下交叉本数とを用い
ることにより文字認識を行う。
【0022】
【作用】本発明の属性判定方法によれば、予めニューラ
ルネットワークを用いて類似度の高い標準パターンの判
定を行って上位の複数個の標準パターンを選択し、選択
した標準パターンから求めた複数の特徴データのメンバ
シップ関数と入力パターンの複数の特徴データを比較
し、全ての特徴量についてのメンバシップ関数の出力値
の総合値を、ニューラルネットワークを用いて選択した
標準パターンに対して求め、最も総合値の高い標準パタ
ーンを判別するファジィ推論にて属性判別を行うので、
その特徴データを適当に設定することにより属性判定の
正答率を高くでき、信頼性の高い属性判定ができる。ま
た、本発明の判定方法は、その仕組みが明確であり、必
要な特徴データの組み合わせができるため、特徴データ
の補充・変更によりさらに的確な属性判定ができるよう
になり、能力改善も比較的容易に行うことができる。
【0023】また、ニューラルネットワークは内部構造
がブラックボックス的であることに対応して特徴データ
の選定などの手間が要らず、その適否の影響を受けず、
かつ精細な判別には問題はあっても粗い判別には効果的
であるので、予めニューラルネットワークを用いて類似
度の高い標準パターンの判定を行って上位の複数個の標
準パターンを選択し、選択した標準パターンを用いて上
記方法にて判別を行っているので、より少ないデータ処
理にて信頼性の高い判別を行うことができるとともに、
特徴データの選定も簡単になる。
【0024】
【実施例】以下、本発明の第1実施例について図1〜図
12を参照しながら説明する。
【0025】図1は属性判定方法の学習方法の処理の流
れを示し、図2は属性判定方法の処理の流れを示す。入
力パターンを得るまでは従来の技術と同様であり、2値
にメッシュ化されたメッシュパターンに対して以下の処
理を行う。ここでは、横5×縦9のメッシュパターンを
用いて説明する。
【0026】まず、学習方法について説明する。これ
は、文字判定に必要な特徴量からメンバシップ関数を求
めるために行う。
【0027】特徴量抽出回路1にスタンダードメッシュ
パターンデータiが入力され、ここで必要とする特徴量
jが出力される。ここでは、特徴量jとして縦構造ベク
トル和1、縦構造ベクトル和2、横構造ベクトル和1、
横構造ベクトル和2、上下面積和、左右面積和、上下交
差本数の特徴量1〜7を用いる。
【0028】縦構造ベクトル和1(特徴量1:UDVE
C)は、図3に示すように、列ごとに上から下へ進み、
最初に黒のメッシュに当たるまでの白のメッシュの数を
求め、これを合計する特徴量である。図3の「U」の例
では縦構造ベクトル和1は、0+8+8+8+0=24
となる。
【0029】縦構造ベクトル和2(特徴量2:DUVE
C)は、列ごとに下から上へ進み、最初に黒のメッシュ
に当たるまでの白のメッシュの数を求め、これを合計す
る特徴量である。図3の「U」の例では縦構造ベクトル
和2は、0+0+0+0+0=0となる。
【0030】横構造ベクトル和1(特徴量3:LRVE
C)は、図4に示すように、行ごとに左から右へ進み、
最初に黒のメッシュに当たるまでの白のメッシュの数を
求め、これを合計する特徴量である。図4の「3」の例
では横構造ベクトル和1は、0+4+4+4+0+4+
4+4+0=24となる。
【0031】横構造ベクトル和2(特徴量4:RLVE
C)は、行ごとに右から左へ進み、最初に黒のメッシュ
に当たるまでの白のメッシュの数を求め、これを合計す
る特徴量である。図4の「3」の例では横構造ベクトル
和2は、0+0+0+0+0+0+0+0+0=0とな
る。
【0032】上下面積差(特徴量5:UDDIFF)
は、図5に示すように、上半分の横4×縦4の黒の面積
と下半分の横4×縦4の黒の面積との差を求めた特徴量
である。図5の「U」の例では上下面積差は8−11=
−3となる。
【0033】左右面積差(特徴量6:LRDIFF)
は、図5に示すように、左半分の横2×縦9の黒の面積
と右半分の横2×縦9の黒の面積との差を求めた特徴量
である。図7の「U」の例では上下面積差は10−10
=0となる。
【0034】上下交差本数(特徴量7:VCN)は、図
6に示すように列中央で上から下へ進み、黒に交差する
回数を求めた特徴量である。図6の「3」の例では上下
交差本数は3となる。
【0035】特徴量抽出回路1で求めた特徴量jは、メ
ンバシップ関数抽出回路2に入力され、メンバシップ関
数kが出力される。メンバシップ関数とは、スタンダー
ドメッシュパターンデータの特徴量(以下、基準特徴量
と呼ぶ)を中心として一定の広がりを持った入出力関数
であり、判定すべきメッシュパターンデータの特徴量j
を入力とし、基準特徴量とのずれを評価する寄与値を出
力する。ここでは、基準特徴量が入力の時に最大値1.
0を出力するとして、これを中心に広がる関数を形成す
るように作成する。図7はメンバシップ関数を示し、横
軸に特徴量、縦軸に寄与値を取っている。図7の例で
は、基準特徴量Sに対し、幅Aで寄与値1.0を出力す
る区間が続き、幅Bで寄与値0.0〜1.0を出力する
区間が続き、幅Cで寄与値−1.0〜0.0を出力する
区間が続くように形成している。なお、各幅A、B、C
は他のスタンダードメッシュパターンデータの特徴量と
の重なりを考慮して経験的に設定する。例えば、各文字
の同じ基準特徴量が0〜30程度の場合、幅A=1、幅
B=2、幅C=5程度を設定するのが適当である。図8
に基準特徴量Sが10、幅A=1、幅B=2、幅C=5
の場合のメンバシップ関数を示している。
【0036】次に、判定方法について、図2を参照して
説明する。これは、文字判定に必要な特徴量を求め、こ
れをメンバシップ関数と比較して寄与値を求め、最後に
総合寄与値を求めることにより判定を行う。
【0037】特徴量抽出回路3に判定すべきメッシュパ
ターンデータfが入力され、ここで必要とする特徴量j
が抽出される。ここでは、予め求めている基準特徴量に
対応して縦構造ベクトル和1、縦構造ベクトル和2、横
構造ベクトル和1、横構造ベクトル和2、上下面積和、
左右面積和、上下交差本数を用いる。この特徴量jをメ
ンバシップ関数比較回路4に入力し、寄与値lを出力す
る。これを、ここで採用した7つの特徴量について同様
に行う。図9は寄与値の求め方を示しており、入力され
る特徴量(23)に対して出力として寄与値(0.5)
が得られる。
【0038】寄与値合計回路5に各寄与値lが入力さ
れ、総合寄与値mが出力される。図10は、ファジィ推
論方法について示したものである。7つの特徴量に関し
て各文字のメンバシップ関数に対する寄与値を求め、各
文字毎に総合寄与値を横軸に沿って求め、最終的に最も
大きい総合寄与値を持つ文字を判定結果とする。
【0039】次に、実際のメッシュパターンデータに対
して上記判定処理を適用した例を説明する。
【0040】図20に示すスタンダードメッシュパター
ンデータについては図11に示すように基準特徴量が計
算される。そして、特徴量1〜6については幅A=1、
幅B=2、幅C=5で、特徴量7については幅A=0、
幅B=1、幅C=1としてメンバシップ関数が作成され
る。以上で学習を終了する。
【0041】次に、判定処理を図12を参照して説明す
る。判定対象のメッシュパターン10を図12(a)に
示し、図12(b)に各文字に関してそれぞれの特徴量
のメンバシップ関数に対する寄与値と、各文字に対する
総合寄与値を示す。図12(a)において、「1」は
黒、「0」は白であり、この対象パターン10の特徴量
を各々求めると、特徴量1(UDVEC)は、1+0+
0+0+0=1、特徴量2(DUVEC)は、0+0+
0+0+0=0、特徴量3(LRVEC)は、1+0+
4+3+2+1+0+0+0=11、特徴量4(RLV
EC)は、0+0+0+1+2+3+4+4+0=1
4、特徴量5(UDDIFF)は、8−8=0、特徴量
6(LRDIFF)は、7−7=0、特徴量7(VC
N)は、3である。各文字について各々これらの特徴量
の寄与値を求め、その総合寄与値を求める処理を行う
が、ここでは簡単のために「2」、「3」、「C」、
「E」、「I」、「S」、「Z」のみを例示し、他の文
字については図示を省略している。各々の文字に対する
総合寄与値は、「2」が7.00、「3」が1.30、
「C」が0.10、「E」が1.20、「I」が4.0
0、「S」が6.00、「Z」が6.50であり、対象
パターン11は最も大きい寄与値を持つ「2」と判定さ
れる。
【0042】これらの処理は、文字を判定するのに適し
た特徴量を適当に補充・変更することにより、より判定
能力を向上させることが可能である。また、処理が非常
に簡単であるため特徴量の数をかなり多くしても問題に
なることもない。
【0043】次に、本発明の第2実施例について説明す
る。この実施例は、NNを用いた処理を予備的に行った
後に上記ファジィ推論による判定処理を行うものであ
る。即ち、NNによる判別方法では上記のように精度の
高い判別には問題はあっても、殆どの文字判定において
正答の文字に対応する出力層のニューロンの値は上から
3位以内に入っているので、粗い判別の方法としては簡
単で良い方法であり、本実施例は予めNN処理にて文字
を選択した後、ファジィ推論による判定を行うものであ
る。
【0044】図13に文字判定の流れを示している。メ
ッシュパターンデータを作成するまでは上記実施例と同
様である。ステップ#1で従来例と同様にNN判定処理
を行う。次にステップ#2でNN判定結果が判定しきい
値以上であれば、ステップ#3で対応する文字を結果と
する。もし、判定しきい値以下であれば、ファジィ推論
に進むとともにその際にNN判定結果のある程度大きい
値をもつものだけでファジィ推論を行うようにする。こ
のように、ステップ#4でNN出力データから選別され
たデータのみNN出力データのポイントセットを行う。
ステップ#5で選別されたデータ(文字)のみの特徴量
の抽出を行う。ステップ#6で各々のメンバシップ関数
からファジィ推論によりポイントセットを行う。ステッ
プ#7でファジィ推論判定結果が判定しきい値以上であ
れば、ステップ#8で対応する文字を結果とする。も
し、判定しきい値以下であれば、ステップ#9で判定不
可能であるとする。
【0045】実際のパターンデータに対して適用した例
を説明すると、図20に示したスタンダードメッシュパ
ターンに対して、判定対象のメッシュパターン12を図
14(a)に示し、図14(b)に選択された各文字に
関してNN出力データとそれぞれの特徴量のメンバシッ
プ関数に対する寄与値と、各文字に対する総合寄与値を
示す。NN出力データは0.01以上を選択して残し、
その出力データを10倍してファジィ推論に加えてい
る。最終的に最も大きな総合寄与値を持つ「2」と判定
されている。
【0046】上述の7つの特徴量以外に適当な特徴量を
加えて全部で26個の特徴量を選んで、図23〜図26
に示した120個の文字パターンの判別に適用した具体
適用例においては、正答が108/120(90%)、
誤答が1/120(1%)、判定不可能が11/12
(9%)であった。これは、NN単独による判定と比較
すると、誤答が1/5に、判定不可能が1/3に低減し
ている。人間が判断しても判断しにくい文字パターンを
含んでいることを考慮すると、判断能力は従来技術と比
較してかなり向上している。
【0047】なお、上記実施例においては文字認識につ
いて説明したが、分別すべき属性に対して有効な特徴量
を選択し、メンバシップ関数を形成し、ファジィ推論を
行うのであれば、文字認識に限定せずに幅広く応用する
ことができることは言うまでもない。また、上記実施例
ではメッシュデータの中を2値データとして扱ったが、
メッシュデータの中で濃淡値から有効な特徴量を選べる
のであれば適用することができる。また、上記実施例で
は正規化後のメッシュデータから特徴量を抽出したが、
正規化前のデータから有効な特徴量を選べるのであれば
正規化する必要はない。また、寄与値の範囲を−1.0
〜1.0としたが、これに限定されるものではない。ま
た、特徴量の数も限定されない。また、NNと組み合わ
せる際の判定しきい値も適当に設定すれば良い。また、
上記実施例ではファジィ推論による判定時にNN出力デ
ータを加えたが、NNでは文字選択だけを行い、ファジ
ィ推論時にはNN出力データを考慮しなくてもよい。ま
た、NN出力データを考慮する場合にも、その乗数は判
別対象に応じて任意に設定すればよい。
【0048】又、本発明の対象となる入力パターンとし
ては、例えば、半導体ウエハや液晶パネル上の識別番
号、ICチップ上の製造番号など、対象物上の文字や記
号や模様などをテレビカメラで撮像した画像から得たパ
ターンには限らない。
【0049】
【発明の効果】本発明の属性判定方法によれば、以上の
説明から明らかなように、予めニューラルネットワーク
を用いて類似度の高い標準パターンの判定を行って上位
の複数個の標準パターンを選択し、選択した標準パター
ンから求めた複数の特徴データのメンバシップ関数と入
力パターンの複数の特徴データを比較し、全ての特徴量
についてのメンバシップ関数の出力値の総合値を、ニュ
ーラルネットワークを用いて選択した標準パターンに対
して求め、最も総合値の高い標準パターンを判別して属
性判別を行うので、その特徴データを適当に設定するこ
とにより属性判定の正答率を高くでき、信頼性の高い属
性判定ができる。また、処理が非常に単純であるため、
特徴データの数をかなり多くしても処理時間や処理容量
等が問題となることもない。また、本発明の判定方法
は、その仕組みが明確であり、必要な特徴データの組み
合わせができるため、特徴データの補充・変更によりさ
らに的確な属性判定ができるようになり、能力改善も比
較的容易に行うことができる等の効果がある。
【0050】また、ニューラルネットワークは精細な判
別には問題はあっても粗い判別には効果的であることに
鑑みて、予めニューラルネットワークを用いて類似度の
高い標準パターンの判定を行って上位の複数個の標準パ
ターンを選択し、選択した標準パターンを用いて上記方
法にて判別を行っているので、より少ないデータ処理に
て信頼性の高い判別を行うことができるとともに、特徴
データの選定も簡単になるという効果が得られる。
【0051】また、ニューラルネットワークによる判別
を予め用いる場合に、属性判定時にニューラルネットワ
ークの出力値を考慮すると、さらに信頼性の高い判別が
できることがある。
【0052】また、文字の判別に際して、入力パターン
をメッシュパターンとし、特徴データとして上下の縦構
造ベクトル和と、左右の横構造ベクトル和と、上下と左
右の面積差と、上下交叉本数とを用いることにより、文
字の持つ特徴を的確に識別して高い正答率で文字を判別
することができる。
【図面の簡単な説明】
【図1】本発明の属性判定方法の一実施例における学習
方法の処理の流れ図である。
【図2】同実施例における判定方法の処理の流れ図であ
る。
【図3】同実施例における特徴量の縦構造ベクトル和の
説明図である。
【図4】同実施例における特徴量の横構造ベクトル和の
説明図である。
【図5】同実施例における特徴量の面積差の説明図であ
る。
【図6】同実施例における特徴量の上下交差本数の説明
図である。
【図7】メンバシップ関数の説明図である。
【図8】同実施例におけるメンバシップ関数の一例の説
明図である。
【図9】同実施例における寄与値の求め方の説明図であ
る。
【図10】同実施例におけるファジィ推論方法の説明図
である。
【図11】同実施例におけるスタンダードメッシュパタ
ーンデータに対応する各基準特徴量を示す図である。
【図12】同実施例における対象パターン「2」に対応
する判定結果を示す図である。
【図13】本発明の属性判定方法の他の実施例における
処理の流れ図である。
【図14】同実施例における対象パターン「2」に対応
する判定結果を示す図である。
【図15】文字認識装置の概略構成図である。
【図16】従来例の文字認識装置の画像処理部の構成図
である。
【図17】2値化された画像の説明図である。
【図18】文字切り出しされた画像の説明図である。
【図19】メッシュパターンデータへの変換の説明図で
ある。
【図20】標準パターンデータの説明図である。
【図21】ニューラルネットワークの構成の説明図であ
る。
【図22】ニューラルネットワークのデータ入力時の反
応の説明図である。
【図23】判定対象が「2」の場合における判定検定用
文字データの説明図である。
【図24】判定対象が「9」の場合における判定検定用
の文字データの説明図である。
【図25】判定対象が「A」の場合における判定検定用
の文字データの説明図である。
【図26】判定対象が「F」の場合における判定検定用
の文字データの説明図である。
【符号の説明】
1 特徴量抽出回路 2 メンバシップ関数抽出回路 3 特徴量抽出回路 4 メンバシップ関数比較回路 5 寄与値合計回路 f メッシュパターンデータ i スタンダードメッシュパターンデータ j 特徴量 k メンバシップ関数 l 寄与値 m 総合寄与値
フロントページの続き (56)参考文献 特開 平3−257695(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06K 9/66 JICSTファイル(JOIS)

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力画像に含まれる入力パターンの複数
    の特徴データと 前記入力パターンに対し、予めニューラルネットワーク
    を用いて類似度の高い標準パターンの判定を行い、その
    結果から上位の複数個の標準パターンを選択し、選択し
    た標準パターンから求めた特徴データのメンバシップ関
    数と を比較し、 入力パターンに最も類似度の高い標準パターンを判定す
    る属性判定方法であって、入力パターンの各特徴データ
    に対する各メンバシップ関数の出力値を得ることを全て
    の特徴データに対して行い、全ての特徴データに対する
    出力値の総合値を求め、これを判定すべき各標準パター
    ンに対して行い、最も総合値の高い標準パターンを判別
    することを特徴とする属性判定方法。
  2. 【請求項2】 総合値にニューラルネットワークの判定
    結果を考慮することを特徴とする請求項1に記載の属性
    判定方法。
  3. 【請求項3】 請求項1又は2に記載の属性判定方法に
    おいて、入力パターンをメッシュパターンとし、特徴デ
    ータとしてメッシュパターンデータを列ごとに上から下
    及び下から上に進み黒のメッシュに当たるまでの白のメ
    ッシュ数を合計した上下の縦構造ベクトル和と、メッシ
    ュパターンデータを行ごとに左から右及び右から左に進
    み黒のメッシュに当たるまでの白のメッシュ数を合計し
    た左右の横構造ベクトル和と、メッシュパターンデータ
    の上半分と下半分及び左半分と右半分の黒の面積差を求
    めた上下と左右の面積差と、列中央で上下方向に黒と交
    叉する回数を求めた上下交叉本数とを用いて文字認識を
    行うことを特徴とする属性判定方法。
JP06133998A 1994-06-16 1994-06-16 属性判定方法 Expired - Fee Related JP3095623B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP06133998A JP3095623B2 (ja) 1994-06-16 1994-06-16 属性判定方法
CN95106248A CN1122237C (zh) 1994-06-16 1995-06-13 属性判定方法
KR1019950015957A KR100238572B1 (ko) 1994-06-16 1995-06-16 속성판정방법
US08/491,070 US5655031A (en) 1994-06-16 1995-06-16 Method for determining attributes using neural network and fuzzy logic

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06133998A JP3095623B2 (ja) 1994-06-16 1994-06-16 属性判定方法

Publications (2)

Publication Number Publication Date
JPH087045A JPH087045A (ja) 1996-01-12
JP3095623B2 true JP3095623B2 (ja) 2000-10-10

Family

ID=15117998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06133998A Expired - Fee Related JP3095623B2 (ja) 1994-06-16 1994-06-16 属性判定方法

Country Status (4)

Country Link
US (1) US5655031A (ja)
JP (1) JP3095623B2 (ja)
KR (1) KR100238572B1 (ja)
CN (1) CN1122237C (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3563911B2 (ja) * 1997-03-04 2004-09-08 シャープ株式会社 文字認識装置
TW200403598A (en) * 2002-03-29 2004-03-01 Olympus Optical Co Test figure, geometric feature analyzing system, geometric feature analyzing-method, printer, and inkjet printer
FI121583B (fi) * 2002-07-05 2011-01-14 Syslore Oy Symbolijonon etsintä
US20040042650A1 (en) * 2002-08-30 2004-03-04 Lockheed Martin Corporation Binary optical neural network classifiers for pattern recognition
CN101484910B (zh) * 2006-07-06 2015-04-08 旭硝子株式会社 聚类系统及缺陷种类判定装置
RU2417442C2 (ru) * 2008-12-19 2011-04-27 Учреждение Российской академии наук Институт конструкторско-технологической информатики РАН (ИКТИ РАН) Способ построения систем нечеткой логики и устройство для его реализации
US9116923B2 (en) * 2011-10-06 2015-08-25 Trimble Navigation Limited Construction drawing evaluation systems and methods
WO2023113295A1 (ko) * 2021-12-16 2023-06-22 주식회사 씨에스리 모델 갱신 장치 및 방법
US20250209312A1 (en) * 2023-12-23 2025-06-26 Qomplx Llc Collaborative generative artificial intelligence content identification and verification

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5911152B2 (ja) * 1976-10-19 1984-03-13 肇産業株式会社 パタ−ンマツチング方法及びその実施装置
US4864628A (en) * 1983-08-26 1989-09-05 Texas Instruments Incorporated Method of optical character recognition
JPH01183793A (ja) * 1988-01-18 1989-07-21 Toshiba Corp 文字認識装置
JPH0695192A (ja) * 1991-05-01 1994-04-08 Matsushita Electric Ind Co Ltd 画像認識装置及び画像入力方法
US5237627A (en) * 1991-06-27 1993-08-17 Hewlett-Packard Company Noise tolerant optical character recognition system
CA2077970C (en) * 1991-11-19 1999-02-23 Daniel P. Huttenlocher Optical word recognition by examination of word shape
US5479533A (en) * 1992-02-28 1995-12-26 Yamatake-Honeywell Co., Ltd. Pattern recognition apparatus and method using fuzzy logic

Also Published As

Publication number Publication date
KR960002071A (ko) 1996-01-26
KR100238572B1 (ko) 2000-01-15
US5655031A (en) 1997-08-05
CN1122237C (zh) 2003-09-24
CN1144943A (zh) 1997-03-12
JPH087045A (ja) 1996-01-12

Similar Documents

Publication Publication Date Title
CN119006469B (zh) 基于机器视觉的基板玻璃表面缺陷自动检测方法及系统
CN111680690B (zh) 一种文字识别方法及装置
Bhattacharya et al. Interleaved deep artifacts-aware attention mechanism for concrete structural defect classification
CN110378837B (zh) 基于鱼眼摄像头的目标检测方法、装置和存储介质
CN110796643A (zh) 一种铁轨扣件缺陷检测方法和系统
Türkyılmaz et al. License plate recognition system using artificial neural networks
CN111209858B (zh) 一种基于深度卷积神经网络的实时车牌检测方法
CN114882252B (zh) 半监督遥感影像变化检测方法、装置和计算机设备
CN110378313A (zh) 细胞团识别方法、装置及电子设备
JP3095623B2 (ja) 属性判定方法
CN110135446B (zh) 文本检测方法及计算机存储介质
EP0511668A2 (en) Image recognition device and image recognition method
CN111242046A (zh) 一种基于图像检索的地面交通标志识别方法
CN110929746A (zh) 一种基于深度神经网络的电子卷宗标题定位提取与分类方法
Meignen et al. One application of neural networks for detection of defects using video data bases: identification of road distresses
CN112418262A (zh) 车辆再识别的方法、客户端及系统
CN118840322A (zh) 一种基于深度学习的道路病害检测方法
CN114066825A (zh) 一种改进的基于深度学习的复杂纹理图像瑕疵检测方法
CN117893868A (zh) 一种基于特征增强和多尺度的无参考框图像目标检测方法
CN112489068A (zh) 一种基于卷积神经网络的医学图像分割的方法
CN116091784B (zh) 一种目标跟踪方法、设备及存储介质
CN117953266A (zh) 一种基于可形变卷积的航拍垃圾检测方法
CN116110010A (zh) 一种基于建议框生成增强算法的高速公路遮挡行人检测方法
CN108268836A (zh) 自动指纹分类方法
CN118351284B (zh) 工业异源视觉识别系统及方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees