JPH0410088A - 識別装置 - Google Patents

識別装置

Info

Publication number
JPH0410088A
JPH0410088A JP2112294A JP11229490A JPH0410088A JP H0410088 A JPH0410088 A JP H0410088A JP 2112294 A JP2112294 A JP 2112294A JP 11229490 A JP11229490 A JP 11229490A JP H0410088 A JPH0410088 A JP H0410088A
Authority
JP
Japan
Prior art keywords
feature extraction
feature
identification
neural network
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2112294A
Other languages
English (en)
Inventor
Yasushi Ishizuka
康司 石塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2112294A priority Critical patent/JPH0410088A/ja
Publication of JPH0410088A publication Critical patent/JPH0410088A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 【産業上の利用分野】
この発明は、文字認識あるいは音声認識等に用いられる
識別装置に関する。
【従来の技術】
従来、文字画像情報あるいは音声情報等のパターンを表
すパターン情報が入力されて、この人力されたパターン
情報が属するカテゴリを識別して入カバターンを複数の
カテゴリに分類する識別装置において、入力されたパタ
ーン情報が属するカテゴリを識別する際には類似度法等
の統計的手法を用いることが多い。このような統計的手
法は次のように実施される手法である。すなわち、まず
学習サンプルのパターン(学習パターン)情報から1種
類または数種類の特徴量を抽出し、この抽出した特徴量
に対して統計演算を行う。こうして、各カテゴリ毎に1
乃至数種類のパターンマツチング用の辞書パターンを作
成する。次に、入力されたパターン情報から上記学習サ
ンプルの場合と同数の特徴量を抽出し、この入カバター
ン情報の特徴量と辞書パターンとを比較して最も類似度
の高い辞書パターンのカテゴリ名を識別結果として出力
するのである。 その際に、上記類似度算出に用いられる学習パターン情
報あるいは入カバターン情報から抽出される特徴量は、
識別装置を構築する人によって予め推測された識別対象
パターンのカテゴリを分類する際に必要な基準情報を表
せるように抽出されるのである。つまり、上述のような
既知の特徴抽出法によって抽出される特徴量は解析的な
特徴量であると言える。
【発明か解決しようとする課題】
上述のように、上記識別装置における統計的手法によっ
て抽出される解析的な特徴量は、予め推測されたカテゴ
リ識別の基準情報を表すように抽出されるので、識別装
置を構築する人が推測した識別基準に基づく識別には大
いに効果を発揮するのである。ところが、統計的手法に
よって学習パターン情報あるいは入カバターン情報から
特徴量を抽出する段階において、予め推測された基準情
報以外の情報は欠落してしまうのである。その場合には
、往々にしてその欠落した情報の中にカテゴリ識別基準
として必要な情報が含まれる場合がある。その結果とし
て、上記統計的手法にはパターン情報が有する上記推測
の範囲を越えた広範囲な識別情報を抽出するという能力
に欠けるという問題かある。 そこで、上述のような必要情報の欠落を回避するために
、抽出する特徴量の次元数を増加する方法が考えられる
。ところが、その場合には同じ内容を表す情報かオーバ
ーラツプして抽出されたり、計算量か飛躍的に増加して
現在の計算機ノステムては対処できないのである。 また、あるパターン情報から比較的広範囲な識別情報を
自動的に抽出する手法として、自己組織化ニューラルネ
ットワークを用いる手法がある。 しかしながら、このようなニューラルネットワークによ
る特徴量の抽出は、抽出処理が終了するまではいかなる
特徴量が抽出されるかは全く不明であるという不便さが
ある。 そこで、この発明の目的は、既知の特徴抽出法によって
抽出される解析的な特徴量と非解析的な特徴量とに基づ
いて入カバターン情報が属するカテゴリの分類等を実施
して、より高精度の識別を可能にする識別装置を提供す
ることにある。
【課題を解決するための手段】 上記目的を達成するため、この発明は、入力された文字
または音節等を表すパターン情報の特徴量に基づいて上
記パターン情報が属するカテゴリを識別する識別装置に
おいて、上記入力されたパターン情報の特徴量を既知の
特徴抽出手法によって抽出する第1特徴抽出手段と、上
記入力されf二パターン情報の特徴量を自己組織化ニュ
ーラルネットワークを用いた特徴抽出手法によって抽出
する第2特徴抽出手段と、上記第1特徴抽出手段によっ
て抽出された特徴量と上記第2特徴抽出手段によって抽
出された特徴量とに基づいて、上記パターン情報が属す
るカテゴリを識別するカテゴリ識別手段を備えたことを
特徴としている。 また、この発明は、上記識別装置において、上記第1特
徴抽出手段をニューラルネットワークによって構成した
ことを特徴としている。 また、この発明は、上記各識別装置において、上記カテ
ゴリ識別手段をニューラルネットワークによって構成し
たことを特徴としている。 また、この発明は、上記第1特徴抽出手段およびカテゴ
リ識別手段のうち少なくとも一方をニューラルネットワ
ークによって構成した識別装置において、上記第1特徴
抽出手段、第2特徴抽出手段およびカテゴリ識別手段の
うち少なくとも2以上の手段を構成する2以上のニュー
ラルネットワークを同じハードウェアで成すと共に、上
記各ニューラルネットワークにおける出力値算出の際の
積和演算を1つの演算手段によって実行することを特徴
としている。 ま1こ、この発明は、上記識別装置におけるカテゴリ識
別手段を、上記第1特徴抽出手段および第2特徴抽出手
段によって抽出されfコ特微量と辞書パターンとの積和
演算結果に基づいて上記パターン情報が属するカテゴリ
を識別する類似度法を用いるように成し、上記第2特徴
抽出手段で用いられる自己組織化ニューラルネットワー
クと上記類似度法を用いるカテゴリ識別手段とを同じハ
ードウェアで成すと共に、上記自己組織化ニューラルネ
ットワークにおける積和演算と上記類似度法における積
和演算とを1つの演算手段によって実行することを特徴
としている。
【作用】
文字または音節等を表すパターン情報が第1特徴抽出手
段に入力される。そして、入力されたパターン情報の特
徴量が既知の特徴抽出手法によって抽出される。同様に
、上記パターン情報が第2特徴抽出手段に入力される。 そして、入力されたパターン情報の特徴量が自己組織化
ニューラルネットワークを用いた特徴抽出手法によって
抽出される。そうすると、上記第1特徴抽出手段によっ
て抽出された特ffi!jiと上記第2特徴抽出手段に
よって抽出された特徴量とに基づいて、上記パターン情
報か属するカテゴリがカテゴリ識別手段によって識別さ
れる。したがって、上記既知の特徴抽出手法によって抽
出された解析的な特徴量の欠点が自己組織化ニューラル
ネットワークによって抽出された特徴量によって補完さ
れる。 また、上記第1特徴抽出手段およびカテゴリ識別手段の
うち少なくとも一方をニューラルネットワークによって
構成した識別装置においては、同しハードウェアで成し
た上記第1特徴抽出手段第2特徴抽出手段およびカテゴ
リ識別手段のうち少なくとも2以上の手段を構成する2
以上のニューラルネットワークにおける積和演算が、1
つの演算手段によって実行される。し1こがって、簡単
なハードウェアで効率的に演算処理が実行される。 また、上記カテゴリ識別手段を類似度法を用いて上記パ
ターン情報が属するカテゴリを識別するように成した識
別装置においては、同じハードウェアで成した上記第2
特徴抽出手段で用いられる自己組織化ニューラルネット
ワークと上記カテゴリ識別手段とにおける積和演算が、
1つの演算手段によって実行される。したかって、簡単
なハードウェアで効率的に演算処理が実行される。
【実施例】
以下、この発明を図示の実施例により詳細に説明する。 この発明は、特徴量として解析的な特徴量と非解析的な
特徴量との2種類の特徴量を用いることによって、入カ
バターンか属するカテゴリ分類を高精度に実施するもの
である。 すなわち、第1図に示すように、識別装置1における特
徴抽出部2を既知の特徴抽出法に基づく第1特徴抽出部
3と自己組織化ニューラルネットワークによる特徴抽出
法に基つく第2特徴抽出部4とによって構成する。こう
することによって、第1特徴抽出部3として既知の特徴
抽出法の中で特に解析的な特徴抽出法を用いた場合には
、第1特徴抽出部3によって解析的な特徴量が抽出され
る。一方、第2特徴抽出部4においては自己組織化ニュ
ーラルネットワークによる特徴抽出法を用いているので
、非解析的な特徴量が抽出されるのである。 カテゴリ識別部5では、上記第1特徴抽出部3によって
抽出された解析的な特徴量と第2特徴抽出部4によって
抽出されf二非解析的な特徴量とを用いて、入カバター
ン情報が属するカテゴリを識別して出力するのである。 一般に、既知の特徴抽出法によって抽出された特徴量を
用いたカテゴリ識別は、比較的容易にある程度の識別レ
ベルまで達することができる。ところが、−旦ある程度
の識別レベルに達した後はあまり識別能力が向上しない
。つまり、既知の特徴抽出法によって抽出され1こ解析
的な特徴量を用いた識別においては、解析能力(計算能
力とのバランスによって設定される)によって識別レベ
ルかある程度決定されてしまうのである。そこで、上述
のように、既知の特徴抽出法による解析的な特徴量の欠
点を補完する特徴量として自己組織化ニューラルネット
ワークによる非解析的な特徴量を用いることにより、既
知の特徴抽出法を複数組み合わせた場合に比較して効果
的に識別能力を向上させることができるのである。 以下、上述のような識別装置を、文字認識や音声認識に
用いfコ場合を例にして、より具体的に説明する。 見上火胤烈 第1実施例は上述のような識別装置を文字認識に用いた
場合の例である。 第2図は本実施例におけるブロック図である。 第2図にお0て、スキャナ入力部11に文字画像が入力
されて得られた文字画像情報か前処理部12に入力され
る。この前処理部12においては、スキャナ入力部11
によって読み取られた文字画像情報の外枠か一定の大き
さになるように正規化されノイズ除去等か実施されると
共に、入力された文字画像情報が既知の方法によって1
文字領域に切り出される。そうすると、特徴抽出部13
では、上記前処理部12によって切り出された1文字領
域を小額域に分割し、この分割された小領域の画像情報
毎に特徴量を抽出する。 その際に、上記特徴抽出部13は既知の特徴抽出法に基
づく第1特徴抽出部14と自己組織化ニューラルネット
ワークに基づく第2特徴抽出部15とから構成されてい
る。本実施例では、上記第1特徴抽出部I4における上
記既知の特徴抽出法としては濃淡メツシュ法を用いる。 この濃淡メツツユ法による特徴量は、上記スキャナ入力
部11によって読み取られた画像情報を8×8の小領域
に分割する。そして、小領域の中における平均濃度が閾
値以上の値を示す小領域の特徴量には“1”を与える一
方、そうでない小領域の特徴量には“0”を与えるもの
である。 一方、上記第2特徴抽出部15において用いられる自己
組織化ニューラルネットワークは自己組織化学習によっ
て学習され1こコホーネン型二二一うルネットワークを
9セツト用いる。このコホーネン型ニューラルネットワ
ークは、入力ノードから成る入力層と10個の自己組織
化ノードを有する出力層とから成る2層構造を成し、入
力ノートと各自己組織化ノードとの結合にはウェイトベ
クトルが付加されている。そして、予め学習パターン情
報に基つく学習ベクトルを用いた自己組織化学習によっ
て、この学習ベクトルの内容を写像するように学習ベク
トルに対応した特定のウェイトベクトルの内容が予め設
定されている。 上記9セツトの自己組織化ニューラルネットワークの夫
々の入力ノードには次のような入力ベクトルが入力され
る。すなわち、1文字領域の文字画像情報を3×3の小
領域に分割し、この分割した9個の小領域のうちの異な
る一つの小領域における画像情報から得られた入力ベク
トルが入力されるのである。 こうして、各自己組織化ニューラルネットワークの入力
ノートに入力ベクトルが入力されると、入力ベクトルと
各自己組織化ノートに対応するつエイトヘクトルの内容
との内積が算出される(0〜1の数)。そして、その算
出値が上記自己組織化ノードから出力される。こうして
、総ての(10個の)自己組織化ノートに係る出力値が
算出されて入力ベクトルの特徴を表す10個の出力値か
ら成る10次元のベクトルが得られるのである。 その結果、上記9セツトの自己組織化ニューラルネット
ワークからの出力値から成るベクトルは、入力された文
字画像情報の特徴を9箇所の小領域毎に表すことになる
のである。 そこで、このように9セツトの自己組織化ニューラルネ
ットワークから出力される1文字画像情報の特徴を表す
9小領域×10次元(−90次元)のベクトルの内容を
、その文字画像情報の特徴量とするのである。 1文字識別部16は、上記第1特徴抽出部14における
灘淡メッンユ法によって抽出された64次元の特徴量を
表すベクトル(以下、特徴ベクトルと言う)と、上記第
2特徴抽出部15における自己組織化ニューラルネット
ワークによって抽出され?=90次元の特徴ベクトルと
を用いて、入力された1文字画像情報が属するカテゴリ
を類似度法によって識別する。 その際に用いられる辞書パターンは次のようにして予め
生成されて辞書メモリ17に格納される。 すなわち、辞書用文字に基づく文字画像情報をスキャナ
入力部11に読み取らせ、前処理部12で1文字領域に
切り出し、特徴抽出部13における第1特徴抽出部】4
によって8×8の小領域毎に抽出されt: 64次元の
特徴ベクトルと、第2特徴抽出部15によって3×3の
小領域毎に抽出された90次元の特徴ベクトルとから成
る合計154次元の特徴ベクトルを、辞書パターンとし
て上記辞書メモリ17に格納するのである。 こうして、種々の辞書用文字の文字画像に基づいて作成
された辞書パターンと、識別対象文字の文字画像に基づ
いて第1特徴抽出部14によって抽出された64次元の
特徴ベクトルと第2特徴抽出部I5によって抽出された
90次元の特徴ベクトルとから成る合計154次元の特
徴ベクトルとのマツチングが1文字識別部16によって
行われる。そして、最も高い類似度を示す辞書パターン
に付加されたカテゴリ名が識別カテゴリ(すなわち、入
力された文字画像の文字コード)として出力され、後処
理部18で言語処理等の処理が実施された後に識別結果
出力部19から外部機器に出力される。 CPU(中央処理装置)20は、上記スキャナ入力部1
1.前処理部12.第1特徴抽出部14.第2特徴抽出
部I5,1文字識別部16.後処理部18および識別結
果出力部19を制御して文字認識処理を実行する。 第3図は、第2図における特徴抽出部13と1文字識別
部16との動作手順を示すフローチャートである。以下
、第3図に従って特徴抽出部13において実施される特
徴抽出処理動作と1文字識別部16において実施される
1文字識別処理動作とについて説明する ステップS1で、前処理部12によって切り出された1
文字領域の文字画像情報か8×8の小領域単位で特徴抽
出部13の第1特徴抽出部14に入力される。一方、前
処理部12によって切り出された1文字領域の文字画像
情報が3×3の小領域単位で第2特徴抽出部157こお
ける自己組織化ニューラルネットワークに入力される。 ステップS2で、入力された8X8の小領域単位の画像
情報に基づいて、第1特徴抽出部14における濃淡メツ
シュ法による特徴量が各小領域毎に抽出されて、64次
元の特徴ベクトルが得られる。 ステップS3で、入力された3×3の各小領域毎の画像
情報に基づく9個の入力ベクトルが、夫々第2特徴抽出
部15における9セツトの自己組織化ニューラルネット
ワークの対応する入力ノードに入力されて、各自己組織
化ニューラルネッ)・ワーク内の10個の自己組織化ノ
ードにおいて出力値が算出される。その結果、9箇所の
小領域の特徴量を表す9個の10次元のベクトルが得ら
れ、この90次元のベクトルか特徴ベクトルとして抽出
される。 ステップS4で、上記ステップS2において抽出された
64次元の特徴ベクトルと、上記ステップS3において
抽出された90次元の特徴ベクトルとの正規化が行われ
る。 この正規化は、濃淡メツシュ法による特徴ベクトルと自
己組織化ニューラルネットワークによる特徴ベクトルと
の値の大きさのバランスを取って、両持微量の重みを同
程度にするために実施されるのである。 ここで、上記ステップS1において辞書用文字の文字画
像情報が入力された場合には、上記ステップS2におい
て抽出された64次元の特徴ベクトルと上記ステップS
3において抽出された90次元の特徴ベクトルとから成
る154次元の特徴ベクトルが上記ステップS4におい
て正規化されて、辞書パターンとして上記辞書メモリ1
7に格納されるのである。 ステップS5で、上記ステップS2.ステップS3およ
びステップS4によって得られた識別対象文字に係る上
記154次元の特徴ベクトルと、上記辞書メモリ17か
ら順次読み出された154次元の辞書パターンとのマツ
チングが取られる。 ステップS6で、上記ステップS5におけるマツチング
結果に基づいて、識別対象文字に係る特徴ベクトルと最
も類似度の高い辞書パターンに付加されたカテゴリ名(
すなわち、その辞書パターンを得るに際して入力された
文字画像の文字コード)が、入力された識別対象文字の
識別結果として出力される。 このように、本実施例においては、特徴抽出部13を既
知の特徴抽出法に基づく第1特徴抽出部14および自己
組織化ニューラルネットワークに基づく第2特徴抽出部
15で構成する。そして、第1特徴抽出部14における
濃淡メツツユ法によって解析的な特徴量を抽出する一方
、第2特徴抽出部15である自己組織化ニューラルネッ
トワークによって非解析的な特徴量を抽出する。こうし
て抽出された上記2種類の特徴量を組み合わせfコ15
4次元の特徴ベクトルに基づLlて識別対象の文字画像
情報と辞書パターンとの類似度を1文字識別部16で算
出し、その類似度算出結果に基づいて1文字識別を行う
のである。したがって、濃淡メツシュ法によって抽出さ
れた解析的な特徴量に基づく文字認識の欠点(例えば、
濁点と半濁点との識別限度等)が自己組織化ニューラル
ネッ・トワークによる非解析的な特徴量によって補完さ
れて、正しく文字識別ができるのである。 上記実施例において、第1特徴抽出部14による特徴抽
出は濃淡メツツユ法に限定されるものではない。例えば
、ニューラルネットワークに用いた特徴抽出法を用いて
もよい。 第2実施例 第2実施例は、上述の第1実施例における1文字識別処
理を識別ニューラルネットワークを用いて実施するもの
である。 第4図は本実施例におけるブロック図であり、第2図に
示した第1実施例におけるブロック図とほぼ同じである
。但し、本実施例における1文字識別部26は上述のよ
うに識別ニューラルネットワークによって構成されてい
る。 そして、本実施例においては、第2特徴抽出部25を構
成する自己組織化ニューラルネットワークと1文字識別
部26を構成する識別ニューラルネットワークとを同一
のハードウェアで構成することによって、ハードウェア
の効率的な利用と大幅なハードウェアの削減を図るよう
にしている。 また、上記自己組織化ニューラルネットワークにおける
出力値(入力ベクトルとウェイトベクトルとの内積)演
算と上記識別ニューラルネットワークにおける出力値演
算との際に、専用の並列演算部30で並列処理を実施す
ることによって各演算の高速化を図るようにしている。 本実施例は、以上の2点において第1実施例とは異なる
のである。 第4図において、スキャナ入力部21で得られた文字画
像情報が前処理部22て1文字領域に切り出される。こ
うして、切り出された1文字領域の画像情報が8×8の
小領域に分割され、各小領域毎に画像情報が第1特徴抽
出部24に入力されて第1実施例の場合と同様に濃淡メ
ツシュ法によって64次元の特徴ベクトルか生成される
。同様に、切り出された1文字領域の画像情報が3×3
の小領域に分割され、各小領域毎に画像情報が第2特徴
抽出部25に入力されて自己組織化ニューラルネットワ
ークによる90次元の特徴ベクトルが生成される。こう
して生成された、64次元の特徴ベクトルと90次元の
特徴ベクトルとに基づいて1文字識別部26によって1
文字識別が実施される。 ここで、上記1文字識別部26を構成する識別ニューラ
ルネットワークは誤差逆伝播学習によって学習されるパ
ーセプトロン型ニューラルネットワークを用いるのであ
る。このパーセブトロン型ニューラルネットワークは、
例えば入力層、中間層、出力層から成る3層構造を成し
、各層を構成するノート間の結合には結合の重みを表す
ウェイトベクトルか付加されている。そして、予め属す
るカテゴリが既知である学習パターン情報に基づく学習
ベクトルを用い1こ誤差逆伝播学習によって、入力ベク
トルか属するカテゴリを識別できるように上記各ウェイ
トベクトルの内容が予め設定されている。 上記入力層は154個のノードを有し、この154個の
ノードには第1特徴抽出部24からの64次元の特徴ベ
クトルと第2特徴抽出部25からの90次元の特徴ベク
トルとから成る154次元の特徴ベクトルの各要素値が
入力される。そうすると、中間層および出力層の各ノー
ドは下層のノードから入力された入力値と上記下層のノ
ードとの結合に付加されたウェイトベクトルの内容との
内積を算出し、結合されている上層のノードに出力する
。その結果、出力層の各ノードからの出力値に基づいて
、最大値を出力している出力層のノードが割り付けられ
ているカテゴリが入力された特徴量ベクトルが属してい
るカテゴリであると識別されるのである。 その際に、上述のように、上記第2特徴抽出部25にお
ける演算あるいは1文字識別部26におする演算は、後
に詳述するように並列演算部30によって並列処理され
るのである。 こうして、上記1文字識別部26における識別対象文字
の文字画像情報に係る1文字識別が終了して識別カテゴ
リが出力されると、以下第1実施例の場合と同様にして
、後処理部27によって言語処理等が実施されて、識別
結果が識別結果出力部29から外部機器に出力される。 次に、上記並列演算部30によって実行される第2特徴
抽出部25における特徴抽出処理および1文字識別部2
6における1文字識別処理について詳細に説明する。 第5図は上記並列演算部30、第2特徴抽出部25を構
成する自己組織化ニューラルネットワークおよび1文字
識別部26を構成する識別ニューラルネットワーク(パ
ーセプトロン型ニューラルネットワーク)の詳細なブロ
ック図である。 本実施例においては、上記自己組織化ニューラルネット
ワークおよび識別ニューラルネットワークを同じハード
ウェアによって構成する。すなわち第5図において、第
1乗算器35.第1加算器36および第1内部メモリ3
7から成る第1演算モジュール38.・、第X乗算器3
9.第X加算器40および第X内部メモリ41から成る
第X演算モジュール42によって構成される演算部43
、入力バッファ44および出力バッファ45で自己組織
化ニューラルネットワークあるいは識別ニューラルネッ
トワークを形成するのである。つまり、上記入力バッフ
ァ44によって自己組織化ニューラルネットワークある
いは識別ニューラルネットワークの入力ノードを形成し
、上記各乗算器35.・、39および加算器36.・・
・、40によって自己組織化ニューラルネットワークあ
るいは識別ニューラルネットワークにおける各ノートを
形成し、各内部メモリ37.・・・、41によって自己
組織化ニューラルネットワークあるいは識別ニューラル
ネットワークのウェイトベクトルを形成するのである。 一方、並列演算部30は、自己組織化ニューラルネット
ワークのウェイトベクトルの内容を格納しておく自己組
織化ニューラルネットワーク用メモリ32と識別ニュー
ラルネットワークのウェイトベクトルの内容を格納して
おく識別ニューラルネットワーク用メモリ33とから成
るメモリ31と、制御部34とから構成される。上記制
御部34は、上記メモリ31.各乗算器35〜39.加
算器36〜40および内部メモリ37〜41等を制御し
て、自己組織化ニューラルネットワークによる特徴抽出
処理および識別ニューラルネットワークによる1文字識
別処理を実行する。 上記並列演算部30による上記特徴抽出処理および1文
字識別処理は、次のように実行される。 すなわち、CPU29の制御に従う制御部34の制御に
基づいて、入カバソファ44.演算部43および出力バ
ッファ45が夫々9個のブロックに縦割り区分される。 つまり、9セツトの自己組織化ニューラルネットワーク
が形成されるのである。 そして、1文字領域か分割された9個の小領域の画像情
報に基づく9個の入力ベクトルが、上記前処理部22か
ら入力バッファ44の対応する領域(すなわち、第2特
徴抽出部25を構成する9セツトの自己組織化ニューラ
ルネットワークの各入力ノート)に取り込まれる。次に
、メモリ31の自己組織化ニューラルネットワーク用メ
モリ32から、学習済みの各ウェイトベクトルの内容か
読み出されて、9セントの自己組織化ニューラルネット
ワークの該当する内部メモリにロードされる。 そうした後、各乗算器35〜39および各加算器36〜
40が制御されて、以下のように出力値演算処理が実行
される。例えば、1セント目の自己組織化ニューラルネ
ットワークにおける第1乗算器35および第1加算器3
6によって、第1内部メモリ37にロードされた第1の
自己組織化ノードに係るウェイトベクトルの要素値と入
カバソファ44における1セツト目の自己組織化ニュー
ラルネットワークの領域に格納された一つの小領域に係
る人力ベクトルの要素値との積和が算出される。そして
、算出された積和の値が出力バッファ45における1セ
ツト目の自己組織化ニューラルネットワークの領域に格
納される。以下、同様にして、1セツト目の自己組織化
ニューラルネットワークにおける他の各自己組織化ノー
ドに係るウェイトベクトルと入力ベクトルとの内積が算
出されて出カバソファ45における1セツト目の自己組
織化ニューラルネットワークの領域に格納される。 こうして、1セツト目の自己組織化ニューラルネットワ
ークに係る出力値演算処理が終了すると、1セツト目の
自己組織化ニューラルネットワークにおける10個の自
己組織化ノードから出力される出力値から成る10次元
ベクトルは対応する小領域の画像情報の特徴を表してい
るのである。 上述の1セツト目の自己組織化ニューラルネットワーク
係る出力値演算処理に平行して、他の8セツトの自己M
縦比ニューラルネットワークに係る出力値演算処理か制
御部34の制御の下に実行される。その結果、得られた
各セットの自己組織化ニューラルネットワークにおける
各自己組織化ノードからの出力値から成るベクトルは、
各小領域の画像情報の特徴を表すのである。このように
、各自己組織化ニューラルネットワークによって求めら
れ1こ各小領域の画像情報の特徴を表すベクトルは、出
力バッファ45における各自己組織化ニューラルネット
ワークの領域に格納される。 この際に、9セツトの自己組織化ニューラルネットワー
クにおける積和演算は並列処理されるため、第2特徴抽
出部25における特徴抽出処理は高速に行われるのであ
る。 こうして、第2特徴抽出部25を構成する自己組織化ニ
ューラルネットワークにおける出力値演算処理か実施さ
れて非解析的な特徴抽出が終了すると、次に、CPU2
9の制御に従う制御部34の制御に基づいて、1文字認
識部26を構成する識別ニューラルネットワークによる
1文字識別処理が次のように実行される。 すなわち、まず、入力バッファ44.演算部43および
出力バッファ45の夫々に対する区分か解除され、一つ
の3層バーセプトロン型ニューラルネットワークか形成
される。つまり、演算部43を構成する複数の演算モジ
ュール38〜42が、3層バーセプトロン型ニューラル
ネットワークにおける中間層および出力層における各ノ
ードとウェイトベクトルとに割り当てられるのである。 こうした後、上記第1特徴抽出部24における濃淡メツ
シュ法によって抽出された64次元の特徴ベクトルと、
上記第2特徴抽出部25を構成する自己組織化ニューラ
ルネットワークによって算出されて出力バッファ45に
格納されている90次元のウェイトベクトルとから成る
154次元の特徴ベクトルが、大カバソファ44(すな
わち、1文字識別部26を構成する識別ニューラルネッ
トワークの入力ノード)に取り込まれる。次に、メモリ
31における識別ニューラルネットワーク用メモリ33
から学習済みの各ウェイトベクトルの内容が読み出され
て、識別ニューラルネットワークである3層バーセプト
ロン型ニューラルネットワークの中間層および出力層の
対応したノードを構成する演算モジュールの内部メモリ
にロードされる。 そうした後、各乗算器35〜39および各加算器36〜
40が制御されて、以下のように出力値算出処理が実行
される。例えば、中間層の第1ノードを構成する第1乗
算器35および第1加算器36は、第1内部メモリ37
にロードされた第1ノートに係るウェイトベクトルの要
素値と入カバソファ44に格納された154次元の特徴
ベクトルの要素値との積和を算出する。そして、算出さ
れた積和の値が出力バッファ45の所定の領域に格納さ
れる。それと平行して、中間層の他のノートに係るウェ
イトベクトルと入力ベクトルとの内積が同様にして算出
されて出力バッファ45の所定の領域に格納される。 こうして、中間層における総てのノードに係る内積演算
処理が終了すると、上記出力バッファ45の上記所定の
領域に格納された中間層における各ノードに係る内積値
を読み出して、この複数の内積値から成るベクトルが入
力バッファ44の出力層のノードに対応する領域に取り
込まれる。そして、上述と同様にして、上記中間層の各
ノートからの出力値から成るベクトルと出力層の各ノー
トに係るウェイトベクトルとの内積が並列処理によって
算出される。そして、出力層における総てのノードに係
る内積値か算出されて、識別ニューラルネットワークの
出力値として出力バッファ45の所定の領域に格納され
る。 その後、CPU29は、出力バッファ45の上記所定の
領域に格納された出力層の各ノードにおける出力値に基
づいて、入力された154次元の特徴ベクトルが属する
カテゴリを識別するのである。 その際に、中間層内あるいは出力層内における各ノード
に係る内積演算処理は並列処理されるため、1文字識別
部26における1文字識別処理は高速に行われるのであ
る。 このように、第2特徴抽出部25を構成する自己組織化
ニューラルネットワークと1文字識別部26を構成する
3層パーセブトロン型ニューラルネットワークとを、入
力バッファ44.演算部43および出力バッファ45か
ら成る同じバードウェアで構成することによって、識別
装置におけるハードウェアの簡素化および有効利用を図
ることができるのである。ま1こ、自己組織化ニューラ
ルネットワークおよび識別二、−ラルネットワークにお
ける出力値算出の際に、各層内における各ノードの出力
値演算を上記並列演算部30の制御に基づいて並列処理
することによって、非解析的な特徴抽出および1文字識
別を高速に実行できるのである。 その際における制御部34の処理動作は非常に単純なの
で、制御部34として高価なCPU等を用いる必要がな
くゲートアレイ等で構成できる。 第6図は、第4図における特徴抽出部23と1文字識別
部26との動作手順を示すフローチャートである。この
フローチャートは基本的には第3図におけるフローチャ
ートと同様である。但し、本実施例におけるフローチャ
ートにおいては、ステップS14での1文字識別は上述
のように3層パーセプトロン型ニューラルネットワーク
によって実施されるのである。この場合、バーセプトロ
ン型ニューラルネットワークには入力ベクトルの正規化
を内部的に行う能力があるために、第1特徴抽出部24
からの特徴ベクトルと第2特徴抽出部25からの特徴ベ
クトルとを正規化する必要がないのである。まに、ステ
ップSI3での第2特徴抽山部25による非解析的な特
徴抽出(すなわち、自己組織化ニューラルネットワーク
の出力値演算処理)、あるいは、ステップS14での1
文字識別部26による1文字識別処理(すなわち、識別
ニューラルネットワークによる識別処理)は、並列演算
部30の制御の下に並列処理されるのである。 このように、本実施例においては、特徴抽出部23を、
濃淡メッツユ法に基づく第1特徴抽出部24と自己組織
化ニューラルネットワークに基づく第2特徴抽出部25
とによって構成したので、第1実施例の場合と同じ効果
を有する。 まl二、上述のように、上記第2特徴抽出部25および
I文字識別部26を自己組織化ニューラルネットワーク
および識別ニューラルネットワークなるニューラルネッ
トワークで構成したので、両ニューラルネットワークを
同じノ\−ドウエアによって構成することができ、大幅
なハードウェアの削減を図ることができる。さらに、上
記自己組織化ニューラルネットワークおよび識別ニュー
ラルネ・ソトワークにおける各層内ノートにおける出力
値算出処理を、並列演算部30の制御に基づいて並列処
理するようにしにので、自己組織化ニューラルネットワ
ークにおける特徴抽出処理および識別用ニューラルネッ
トワークによるI文字識別を高速に実施できる。 本実施例における上述のような手法は、必すしもニュー
ラルネットワークを用いた処理の場合に限らず実施でき
る。例えば、第4図における1文字識別部26において
、類似度法等のような互いに独立した積和演算を用いる
場合には、上述のような並列演算部30による並列処理
を実行することか可能である。この場合も、1文字識別
に要する時間の短縮とハードウェアの効率的な利用か可
能となるのである。 第3実施例 第3実施例はこの発明に係る識別装置を音声認識に用い
た場合の例である。 第7図は本実施例におけるブロック図である。 第7図において、音声入力部51に音声か入力されて、
得られf二音南情報か前処理部52に入力される。この
前処理部52においては、入力された音声情報が音節区
間の抽出に必要な情報(パワーおよび零交叉数等)に基
づいて音節に切り出される。そうすると、特徴抽出部5
3では、上記前処理部52によって切り出されたl音節
の特徴量が抽出される。 その際に、上記特徴抽出部53は既知の特徴抽出法に基
づく第1特徴抽出部54と自己組織化ニューラルネット
ワークによる特徴抽出法に基づく第2特徴抽出部55と
から構成されている。 本実施例では、上記第1特徴抽出部54における既知の
特徴抽出法は帯域ろ波器(以下、BPFと言う)による
方法を用いる。 このBPFによる特徴抽出法は、入力されrこ1音節の
音声波形を時間軸方向に16分割し、この16分割され
た1音節の音節波形を周波数軸に16分割するBPF群
に入力した際における出力値(例えば、パワー)を用い
る。つまり、1音節の音声波形から256次元の特徴量
を抽出するのであ一方、上記第2特徴抽出部55におい
て用いられる自己組織化ニューラルネットワークとして
は、出力層に64個の自己組織化ノートを有するコホー
ネン型ニューラルネットワークを1セツト用いる。そし
て、上記音声人力部5Iに人力されて前処理部52によ
って切り出された1音節の音声波形を時間方向に正規化
した波形の時間軸に沿った所定数の波高値等から得られ
た入力ベクトルが入力される。こうして、自己組織化ニ
ューラルネットワークの入力ノードに入力ベクトルが入
力されて出力値演算処理が開始される。その結果、自己
組織化ニューラルネットワークからの出力値から成るベ
クトルは、入力されたl音節の音声波形の特徴を表すこ
とになるのである。 そこで、このように自己組織化ニューラルネットワーク
から出力されるl音節の音声波形の特徴を表す64次元
ヘクトルの内容を、その音声波形の非解析的な特徴量と
するのである。 l音節識別部56は、上記第1特徴抽出部54であるB
PF群からの出力に基づいて抽出された256次元の特
徴ベクトルと、上記第2特徴抽出部55である自己組織
化ニューラルネットワークによって抽出され1こ64次
元の特徴ベクトルとを用いて、入力された1音節音声波
形が属するカテゴリ(すなわち、音節コード)を類似度
法によって識別する。 その際に用いられる辞書パターンは、次のようにして予
め生成されて辞書メモリ57に格納される。すなわち、
標準音声の音声情報に基づいて、上記第1特徴抽出部5
4によって抽出された256次元の特徴ベクトルと上記
第2特徴抽出部55によって抽出された64次元の特徴
ベクトルとを得、この得られた両特徴ベクトルから成る
320次元の特徴ベクトルを辞書パターンとして上記辞
書メモリ57に格納するのである。 こうして、種々の標準音声の音声情報に基づいて作成さ
れた辞書パターンと、識別対象音声の音声情報に基づく
320次元の特徴ベクトルとのマツチングが1音節識別
部56によって行われる。そして、最も高い類似度を示
す辞書パターンに付加され1♀力テゴリ名が識別カテゴ
リとして出力され、後処理部58て言語処理か実施され
fコ後に識別結果出力部59から外部機器に出力される
。 CPU60は、上記音声入力部51.前処理部52第1
特徴抽出部54.第2特徴抽出部551音節識別部56
.後処理部58および識別結果出力部59を制御して音
声認識処理を実施する。 第8図は、第7図における特徴抽出部53と1音節識別
部56との動作手順を示すフローチャートである。第8
図のフローチャートは基本的には第3図のフローチャー
トと同じであるから、ここでは概略を説明するに止どめ
る。 第8図において、入力されたl音節の音声波形に基づい
て、第1特徴抽出部を構成するBPF群によって256
次元の特徴ベクトルが抽出される一方、第2特徴抽出部
55を構成する自己組織化ニューラルネットワークによ
って64次元の特徴ベクトルが抽出される(ステップ9
21〜ステツプ523)。さらに、上記BPF群で抽出
されfこ256次元の特徴ベクトルと自己組織化ニュー
ラルネットワークで抽出された64次元の特徴ベクトル
との重みのバランスを取るための正規化が行われる(ス
テップ524)。 ここで、上記ステップS21において標準音声の音声情
報が入力された場合に上記ステップS22およびステッ
プS23において抽出された特徴ベクトルから成る32
0次元の特徴ベクトルは、正規化されて辞書パターンと
して上記辞書メモリ57に格納されるのである。 次に、識別対象音節の音声情報に係る両特徴ベクトルか
ら成る320次元の特徴ベクトルと上記辞書パターンと
のマツチングが取られる(ステップ525)。そして、
マツチング結果に基づいて、識別対象音節に係る特徴ベ
クトルと最も類似度の高い辞書パターンに付加されたカ
テゴリ名が、入力された識別対象音節の音声情報が属す
るカテゴリの識別結果として出力されるのである(ステ
ップ826)。 このように、本実施例においては、特徴抽出部53を、
BPF群から成る第1特徴抽出部54および自己組織化
ニューラルネットワークから成る第2特徴抽出部55で
構成する。そして、BPP群からの出力値に基づく25
6次元の特徴ベクトルと自己組織化ニューラルネットワ
ークに基づく64次元の特徴ベクトルとを組み合わせた
320次元の特徴ベクトルに基づいて識別対象音節の音
声情報と辞書パターンとの類似度を算出し、その類似度
算出結果に基づいてl音節識別を行うのである。したが
って、BPF群からの出力値から抽出されfコ解析的な
特徴量に基づく音声識別の欠点が自己組織化ニューラル
ネットワークによる非解析的な特徴量によって補完され
て、正しく音声を識別できるのである。 上記実施例において、第1特徴抽出部54によって実施
される特徴抽出法はBPF群からの出力値に基つく方法
に限定されるのではない。 上記実施例において、1音節識別部56によって実施さ
れる1音節識別処理は、辞書パターンとの類似度算出結
果に基づいて実施するようにしている。しなしながら、
この発明においてはこれに限定されるものではなく、第
2実施例の場合と同様に識別ニューラルネットワークに
よって実施するようにしてもよい。 この発明における小領域数、自己組織化ニューラルネッ
トワークにおける自己組織化ノード数。 識別ニューラルネットワークにおける出力層を形成する
ノード数等は、上記各実施例に限定されるものではない
。 上記各実施例においては、この発明に係る識別装置を文
字認識あるいは音声認識に用いているが、それらに限定
されるのではない。
【発明の効果】
以上より明らかなように、この発明の識別装置は、第1
特徴抽出手段において既知の特徴抽出法によって抽出さ
れた特徴量と第2特徴抽出手段において自己組織化ニュ
ーラルネットワークによって抽出された特徴量とに基づ
いて、カテゴリ識別手段によって、入力されたパターン
情報か属するカテゴリを識別するようにしたので、上記
既知の特徴抽出法によって抽出される解析的な特徴量に
基つくカテゴリ識別の欠点か上記自己組織化ニューラル
ネットワークによって抽出される非解析的な特徴量によ
って補完され、より高精度な識別が可能になる。 ま1こ、上述のように、上記自己組織化ニューラルネッ
トワークによる特徴抽出法と既知の特徴抽出法とを併用
しているので、抽出処理か終了するまでいかなる特徴量
が抽出されるか全く不明であるということはない。 また、上記第1特徴抽出手段およびカテゴリ識別手段の
うち少なくとも一方をニューラルネットワークによって
構成しf二識別装置は、上記第1特徴抽出手段または第
2特徴抽出手段またはカテゴリ識別手段を構成する2以
上のニューラルネットワークを同じハードウェアで成す
と共に、上記各ニューラルネッ)・ワークにおける積和
演算を1つの演算手段によって実行するようにしf二の
で、ハードウェアの大幅な削減を図ることかできる。 また、上記カテゴリ識別手段を類似度を用いて上記パタ
ーン情報か属するカテゴリを識別するように成した識別
装置は、上記第2特徴抽出手段で用いられる自己組織化
ニューラルネットワークと上記類似度法を用いるカテゴ
リ識別手段とを同じハードウェアで成すと共に、上記自
己組織化ニューラルネットワークにおける積和演算と上
記類似度法における積和演算とを1つの演算手段によっ
て実行するようにしたので、ハードウェアの大幅な削減
を図ることができる。
【図面の簡単な説明】
第1図はこの発明の識別装置における概念図、第2図は
第1図の識別装置を文字認識に用いた場合における一実
施例のブロック図、第3図は第2図における特徴抽出部
および1文字識別部による処理動作のブロック図、第4
図は第2図とは異なる実施例におけるブロック図、第5
図は第4図における第2特徴抽出部および1文字識別部
と並列演算部30との詳細ブロック図、第6図は第4図
における特徴抽出部および1文字識別部による処理動作
のブロック図、第7図は第1図の識別装置を音声認識に
用いた場合における一実施例のブロック図、第8図は第
7図における特徴抽出部および1音節識別部による処理
動作のブロック図である。 1・・・識別装置、 213.23.53・特徴抽出部、 3.14,24.54・第1特徴抽出部、4.15.2
5,5.5・・第2特徴抽出部、5 ・カテゴリ識別部
、 11.21 ・・スキャナ入力部、 + 2.22.52・・・前処理部、 16.26・・1文字識別部、 17.57・辞書メモリ、 18.27.58・後処理部、 19.28.59・・識別結果出力部 20.29,60・・・CPL’、 30・・並列演算部、 32・・・自己組織化ニューラルネットワーク用メモリ
、33・識別ニューラルネットワーク用メモリ、34 
制御部、 35.39・・乗算器、  36.40・・・加算器、
内部メモリ、 44・・入カバ、ファ、 出力バノファ、 51・ 音声入力部、 56・・ 1音節識別部。 特 許 出 願 人 ヤ ーブ株式会 社 代 理 人

Claims (5)

    【特許請求の範囲】
  1. (1)入力された文字または音節等を表すパターン情報
    の特徴量に基づいて上記パターン情報が属するカテゴリ
    を識別する識別装置において、上記入力されたパターン
    情報の特徴量を既知の特徴抽出手法によって抽出する第
    1特徴抽出手段と、 上記入力されたパターン情報の特徴量を自己組織化ニュ
    ーラルネットワークを用いた特徴抽出手法によって抽出
    する第2特徴抽出手段と、 上記第1特徴抽出手段によって抽出された特徴量と上記
    第2特徴抽出手段によって抽出された特徴量とに基づい
    て、上記パターン情報が属するカテゴリを識別するカテ
    ゴリ識別手段を備えたことを特徴とする識別装置。
  2. (2)請求項1に記載の識別装置において、上記第1特
    徴抽出手段をニューラルネットワークによって構成した
    ことを特徴とする識別装置。
  3. (3)請求項1または請求項2に記載の識別装置におい
    て、 上記カテゴリ識別手段をニューラルネットワークによっ
    て構成したことを特徴とする識別装置。
  4. (4)請求項2または請求項3に記載の識別装置におい
    て、 上記第1特徴抽出手段、第2特徴抽出手段およびカテゴ
    リ識別手段のうち少なくとも2以上の手段を構成する2
    以上のニューラルネットワークを同じハードウェアで成
    すと共に、上記各ニューラルネットワークにおける出力
    値算出の際の積和演算を1つの演算手段によって実行す
    ることを特徴とする識別装置。
  5. (5)請求項1または請求項2または請求項4のいずれ
    かに記載の識別装置において、 上記カテゴリ識別手段を、上記第1特徴抽出手段および
    第2特徴抽出手段によって抽出された特徴量と辞書パタ
    ーンとの積和演算結果に基づいて上記パターン情報が属
    するカテゴリを識別する類似度法を用いるように成し、 上記第2特徴抽出手段で用いられる自己組織化ニューラ
    ルネットワークと上記類似度法を用いるカテゴリ識別手
    段とを同じハードウェアで成すと共に、上記自己組織化
    ニューラルネットワークにおける積和演算と上記類似度
    法における積和演算とを1つの演算手段によって実行す
    ることを特徴とする識別装置。
JP2112294A 1990-04-27 1990-04-27 識別装置 Pending JPH0410088A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2112294A JPH0410088A (ja) 1990-04-27 1990-04-27 識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2112294A JPH0410088A (ja) 1990-04-27 1990-04-27 識別装置

Publications (1)

Publication Number Publication Date
JPH0410088A true JPH0410088A (ja) 1992-01-14

Family

ID=14583089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2112294A Pending JPH0410088A (ja) 1990-04-27 1990-04-27 識別装置

Country Status (1)

Country Link
JP (1) JPH0410088A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644203A (ja) * 1992-05-12 1994-02-18 Matsushita Electric Ind Co Ltd 統合型学習システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644203A (ja) * 1992-05-12 1994-02-18 Matsushita Electric Ind Co Ltd 統合型学習システム

Similar Documents

Publication Publication Date Title
US11216729B2 (en) Recognition system and recognition method
CN112101241A (zh) 一种基于深度学习的轻量级表情识别方法
US9530042B1 (en) Method for fingerprint classification
CN110503149B (zh) 一种图像中局部特征分类方法及系统
CN112818764A (zh) 一种基于特征重建模型的低分辨率图像人脸表情识别方法
JPH02238588A (ja) 文字認識装置
CN112199516A (zh) 一种构建知识图谱的方法、装置、终端和存储介质
CN113836928A (zh) 文本实体生成方法、装置、设备及存储介质
CN110503152B (zh) 用于目标检测的双路神经网络训练方法及图像处理方法
JPH08227408A (ja) ニューラルネットワーク
CN112632248A (zh) 问答方法、装置、计算机设备和存储介质
CN111860601B (zh) 预测大型真菌种类的方法及装置
CN111968087A (zh) 一种植物病害区域检测方法
KR20210057996A (ko) 멀티 태스크 러닝 분류기 학습장치 및 방법
CN116543277A (zh) 模型构建方法及目标检测方法
JPH0410088A (ja) 識別装置
JP3164872B2 (ja) 情報データベース装置
CN115546862A (zh) 基于跨尺度局部差异深度子空间特征的表情识别方法和系统
CN115273202A (zh) 一种人脸比对方法、系统、设备及存储介质
Achar et al. Indian currency recognition system using CNN and comparison with yolov5
CN114049675A (zh) 基于轻量双通道神经网络的人脸表情识别方法
CN116266394A (zh) 多模态的情绪识别方法、设备及存储介质
CN109308565B (zh) 人群绩效等级识别方法、装置、存储介质及计算机设备
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
JP2778194B2 (ja) パターン認識方法および装置