JPH07282258A - サイン認識装置 - Google Patents
サイン認識装置Info
- Publication number
- JPH07282258A JPH07282258A JP6073400A JP7340094A JPH07282258A JP H07282258 A JPH07282258 A JP H07282258A JP 6073400 A JP6073400 A JP 6073400A JP 7340094 A JP7340094 A JP 7340094A JP H07282258 A JPH07282258 A JP H07282258A
- Authority
- JP
- Japan
- Prior art keywords
- signature
- data
- learning
- sample
- true
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/35—Individual registration on entry or exit not involving the use of a pass in combination with an identity check by means of a handwritten signature
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Collating Specific Patterns (AREA)
- Character Discrimination (AREA)
Abstract
(57)【要約】
【目的】 学習時における入力者の負担を軽減させ、同
時に学習時間を短縮させる機能を備えたサイン認識装置
を提供すること。 【構成】 本発明のサイン認識装置201は、主に、入
力手段202と、特徴抽出手段203と、サンプル発生
手段204と、ファジィネット手段209と、学習制御
手段215とから構成されており、サンプル発生手段2
03が複数のサンプルデータを自発的に生成し、この生
成されたサンプルデータに基づいて、結合荷重係数を決
定するため、手書サインを登録希望するユーザの手間を
減少させることができる。また、ファジィネット手段2
09内の出力層211には、学習時において、内部関数
として線形関数が設置されており、通常のニューラルネ
ットに使用される非線形関数(シグモイド関数)に比
べ、学習に要する時間を短縮することができるという優
れた効果がある。
時に学習時間を短縮させる機能を備えたサイン認識装置
を提供すること。 【構成】 本発明のサイン認識装置201は、主に、入
力手段202と、特徴抽出手段203と、サンプル発生
手段204と、ファジィネット手段209と、学習制御
手段215とから構成されており、サンプル発生手段2
03が複数のサンプルデータを自発的に生成し、この生
成されたサンプルデータに基づいて、結合荷重係数を決
定するため、手書サインを登録希望するユーザの手間を
減少させることができる。また、ファジィネット手段2
09内の出力層211には、学習時において、内部関数
として線形関数が設置されており、通常のニューラルネ
ットに使用される非線形関数(シグモイド関数)に比
べ、学習に要する時間を短縮することができるという優
れた効果がある。
Description
【0001】
【産業上の利用分野】この発明はニューラルネットの学
習、認識機能を利用したサイン認識装置に係り、詳細に
は、手書サインの特徴に応じて、正例(真サイン)及び
負例(偽サイン)を生成し、この生成した正例及び負例
に基づいて、ニューラルネットの学習を行うサイン認識
装置に関するものである。
習、認識機能を利用したサイン認識装置に係り、詳細に
は、手書サインの特徴に応じて、正例(真サイン)及び
負例(偽サイン)を生成し、この生成した正例及び負例
に基づいて、ニューラルネットの学習を行うサイン認識
装置に関するものである。
【0002】
【従来の技術】従来、ニューラルネットの学習、認識機
能を利用したサイン認識装置においては、図10に示す
構成のものがある。図10において、サイン認識装置1
01は、手書サインを入力する入力手段102と、その
特徴を抽出する特徴抽出手段103と、ニューラルネッ
トにより文字を認識するニューラルネット手段104
と、文字認識を自動獲得する学習手段105と、学習に
よって得られた結合荷重係数αを保持する係数記憶手段
106と、ニューラルネット手段104からの出力結果
を表示する表示手段107とから構成されている。
能を利用したサイン認識装置においては、図10に示す
構成のものがある。図10において、サイン認識装置1
01は、手書サインを入力する入力手段102と、その
特徴を抽出する特徴抽出手段103と、ニューラルネッ
トにより文字を認識するニューラルネット手段104
と、文字認識を自動獲得する学習手段105と、学習に
よって得られた結合荷重係数αを保持する係数記憶手段
106と、ニューラルネット手段104からの出力結果
を表示する表示手段107とから構成されている。
【0003】さらに詳細に説明すると、サイン認識装置
101においては、文字の形状の他に、筆圧、筆速等の
様々な情報を取り込んで手書サインを認識するオンライ
ン認識装置と、文字の形状のみを取り込んで手書サイン
を認識するオフライン認識装置とがある。まず、オンラ
イン認識装置に利用される入力手段102は、リアルタ
イムな手書サインデータを取り込む必要性からタブレッ
ト、あるいはディジタイザのようなものが使用され、筆
跡や筆圧情報が取り出せる構成となている。そして、こ
の入力手段102の出力は、特徴抽出手段103に接続
されており、この特徴抽出手段103は、入力手段10
2からの出力をフーリエ変換及びスペクトル分析して、
ニューラルネット手段104に出力する。一方、オフラ
イン認識装置に利用される入力手段102は、ファクシ
ミリに代表されるようなイメージスキャナ装置が使用さ
れ、文字の形状を取り出すことができる構成となってい
る。また、特徴抽出手段103は、ストローク密度を求
める仕組になっており、その求めた結果をニューラルネ
ット手段104に出力する。
101においては、文字の形状の他に、筆圧、筆速等の
様々な情報を取り込んで手書サインを認識するオンライ
ン認識装置と、文字の形状のみを取り込んで手書サイン
を認識するオフライン認識装置とがある。まず、オンラ
イン認識装置に利用される入力手段102は、リアルタ
イムな手書サインデータを取り込む必要性からタブレッ
ト、あるいはディジタイザのようなものが使用され、筆
跡や筆圧情報が取り出せる構成となている。そして、こ
の入力手段102の出力は、特徴抽出手段103に接続
されており、この特徴抽出手段103は、入力手段10
2からの出力をフーリエ変換及びスペクトル分析して、
ニューラルネット手段104に出力する。一方、オフラ
イン認識装置に利用される入力手段102は、ファクシ
ミリに代表されるようなイメージスキャナ装置が使用さ
れ、文字の形状を取り出すことができる構成となってい
る。また、特徴抽出手段103は、ストローク密度を求
める仕組になっており、その求めた結果をニューラルネ
ット手段104に出力する。
【0004】次に、ニューラルネット手段104は、3
層構造のBP(バックプロパゲーションモデル)が使用
されることが多く、ニューラルネットとは、その構成単
位であるニューロンの入出力がネットワークを構成した
ものである。そして、通常1つのニューロンは、複数の
結合荷重係数αと入力信号iの積の総和をシグモイド関
数で変換したものを出力としているため、実際には積和
演算となり、マイクロコンピュータやDSP(デジタル
シグナルプロセッサ)等のデバイスや専用プロセッサ等
で実現されている。
層構造のBP(バックプロパゲーションモデル)が使用
されることが多く、ニューラルネットとは、その構成単
位であるニューロンの入出力がネットワークを構成した
ものである。そして、通常1つのニューロンは、複数の
結合荷重係数αと入力信号iの積の総和をシグモイド関
数で変換したものを出力としているため、実際には積和
演算となり、マイクロコンピュータやDSP(デジタル
シグナルプロセッサ)等のデバイスや専用プロセッサ等
で実現されている。
【0005】また、学習手段105は、上記ニューラル
ネット手段104に学習を行わせるためのフィードバッ
クループを能動的に制御するためのものであり、1つの
方法としては、出力信号が期待値に対して最も誤差が少
なくなるように、1部あるいは全部の結合荷重係数αを
変化させ、結合荷重係数αがある値に収束するように制
御している。そして、こうした方法としては勾配法がよ
く知られている。なお、学習が行われたニューラルネッ
トは、それ自体に認識機能を有するため、一旦学習が行
われたならば、認識時には学習手段105が切り離され
ることが多い。また、学習によって得られた結合荷重係
数αは、係数記憶手段106に記憶保持されることにな
る。
ネット手段104に学習を行わせるためのフィードバッ
クループを能動的に制御するためのものであり、1つの
方法としては、出力信号が期待値に対して最も誤差が少
なくなるように、1部あるいは全部の結合荷重係数αを
変化させ、結合荷重係数αがある値に収束するように制
御している。そして、こうした方法としては勾配法がよ
く知られている。なお、学習が行われたニューラルネッ
トは、それ自体に認識機能を有するため、一旦学習が行
われたならば、認識時には学習手段105が切り離され
ることが多い。また、学習によって得られた結合荷重係
数αは、係数記憶手段106に記憶保持されることにな
る。
【0006】さらに、表示手段107は、LCD(液晶
ディスプレイ)やCRT(ブラウン管)あるいはLED
(発光ダイオード)等が使用され、認識結果の表示や操
作を円滑に行うためのガイダンス等の表示を行う。次に
上記構成の作用について簡単に説明する。まず、オンラ
イン認識装置の場合は、手書サインが入力手段102に
よってディジタイズされ、リアルタイムに取り込んでい
ることから、連続する座標データや筆圧データが得られ
る。こうして得られた連続するサインデータは、特徴抽
出手段103によってフーリエ変換がなされ、スペクト
ル分析が行われることで、手書サインの特徴をスペクト
ル分布と強度という形で表される。一方、オフライン認
識装置の場合は、イメージスキャナに取り込まれたデー
タのXYマップを多方面から走査し、データの存在する
量(ストローク密度)を求めることで、ストローク密度
を手書サインの特徴として捕らえる。
ディスプレイ)やCRT(ブラウン管)あるいはLED
(発光ダイオード)等が使用され、認識結果の表示や操
作を円滑に行うためのガイダンス等の表示を行う。次に
上記構成の作用について簡単に説明する。まず、オンラ
イン認識装置の場合は、手書サインが入力手段102に
よってディジタイズされ、リアルタイムに取り込んでい
ることから、連続する座標データや筆圧データが得られ
る。こうして得られた連続するサインデータは、特徴抽
出手段103によってフーリエ変換がなされ、スペクト
ル分析が行われることで、手書サインの特徴をスペクト
ル分布と強度という形で表される。一方、オフライン認
識装置の場合は、イメージスキャナに取り込まれたデー
タのXYマップを多方面から走査し、データの存在する
量(ストローク密度)を求めることで、ストローク密度
を手書サインの特徴として捕らえる。
【0007】そして、これら手書サインの特徴としての
データは、ニューラルネット手段104を介して学習手
段105によって学習がなされ、ニューラルネット手段
104の結合荷重係数αが定まってゆく。一方、認識時
には、学習手段105がニューラルネット手段104か
ら切り離され、ニューラルネット手段104が持つシグ
モイド関数にしたがって0〜1の値を出力し、この値が
大きいほど学習されたパターンに近い情報が入力された
ことになる。そして、こうして認識された結果は、表示
手段107によって表示されるか、あるいは同認識結果
を他のコンピュータ等に信号として伝達される場合があ
る。
データは、ニューラルネット手段104を介して学習手
段105によって学習がなされ、ニューラルネット手段
104の結合荷重係数αが定まってゆく。一方、認識時
には、学習手段105がニューラルネット手段104か
ら切り離され、ニューラルネット手段104が持つシグ
モイド関数にしたがって0〜1の値を出力し、この値が
大きいほど学習されたパターンに近い情報が入力された
ことになる。そして、こうして認識された結果は、表示
手段107によって表示されるか、あるいは同認識結果
を他のコンピュータ等に信号として伝達される場合があ
る。
【0008】なお、以上の説明したように、ニューラル
ネット手段104は、1回の学習では1つの入力認識し
か行えない。そのため、係数記憶手段106によって様
々なパターンを記憶しておき、必要に応じて他の学習パ
ターンを呼び出したりすることで、様々なパターンに対
応している。また、オンライン認識装置とオフライン認
識装置の場合について説明したが、これは基本的には入
力手段102の違いと特徴抽出手段103におけるデー
タ処理の違いだけであり、その他の手段については同じ
ものであると考えてよい。(但し、ニューラルネットに
おける結合荷重係数αの持つ意味は異なる)
ネット手段104は、1回の学習では1つの入力認識し
か行えない。そのため、係数記憶手段106によって様
々なパターンを記憶しておき、必要に応じて他の学習パ
ターンを呼び出したりすることで、様々なパターンに対
応している。また、オンライン認識装置とオフライン認
識装置の場合について説明したが、これは基本的には入
力手段102の違いと特徴抽出手段103におけるデー
タ処理の違いだけであり、その他の手段については同じ
ものであると考えてよい。(但し、ニューラルネットに
おける結合荷重係数αの持つ意味は異なる)
【0009】
【発明が解決しようとする課題】ところが上述した従来
のものでは、1つのパターンを学習させる際に、少数の
正例(真のサイン)と複数の負例(偽のサイン)を学習
させねばならない。特に手書サインというものを認識さ
せるためには、本人のサインを登録するときの状態によ
ってサインの筆記状態がばらつく(文字変形が生じる)
ため、正例さえも5〜10パターン程度の学習が必要で
あり、負例にいたってはその5〜10倍程度の学習が必
要になる。もちろん、正例1、負例1パターンの学習の
みでも差し支えない。しかし、例えば「正例」と認識す
る場合、サインの変形具合の許容値が小さいものとなっ
てしまい、本人のサインであっても正しく認識しない恐
れがある。しかしながら、より正確に認識をさせるため
に学習させるには、多くの正例と負例のパターンを入力
して学習させる必要がある。また、学習手段について
は、一般に最急降下法による学習のため、学習終了まで
に多大な時間を必要とする。以上のように、手書サイン
を学習登録させる場合には、幾つもの正例や負例を必要
とし、また、それを学習させるのに事例数に比例した時
間を必要とする問題がある。
のものでは、1つのパターンを学習させる際に、少数の
正例(真のサイン)と複数の負例(偽のサイン)を学習
させねばならない。特に手書サインというものを認識さ
せるためには、本人のサインを登録するときの状態によ
ってサインの筆記状態がばらつく(文字変形が生じる)
ため、正例さえも5〜10パターン程度の学習が必要で
あり、負例にいたってはその5〜10倍程度の学習が必
要になる。もちろん、正例1、負例1パターンの学習の
みでも差し支えない。しかし、例えば「正例」と認識す
る場合、サインの変形具合の許容値が小さいものとなっ
てしまい、本人のサインであっても正しく認識しない恐
れがある。しかしながら、より正確に認識をさせるため
に学習させるには、多くの正例と負例のパターンを入力
して学習させる必要がある。また、学習手段について
は、一般に最急降下法による学習のため、学習終了まで
に多大な時間を必要とする。以上のように、手書サイン
を学習登録させる場合には、幾つもの正例や負例を必要
とし、また、それを学習させるのに事例数に比例した時
間を必要とする問題がある。
【0010】そこで本発明は上記問題点に鑑みてなされ
たものであり、自動的に複数の正例と負例パターンを発
生させることで、学習時における入力者の負担を軽減さ
せるとともに、ニューラルネットにおける学習時間を短
縮させる機能を持たせることである。
たものであり、自動的に複数の正例と負例パターンを発
生させることで、学習時における入力者の負担を軽減さ
せるとともに、ニューラルネットにおける学習時間を短
縮させる機能を持たせることである。
【0011】
【課題を解決するための手段】そのため、上記課題を達
成するために本発明に係るサイン認識装置は、手書され
た手書サインを取り込み、この取り込んだ手書サインに
対応した手書データを出力する入力手段と、この入力手
段から出力された前記手書データから特徴を抽出し、そ
の抽出した特徴から特徴手書データを出力する特徴抽出
手段と、前記特徴手書データを取り込み、この取り込ん
だ特徴手書データに対し、各々異なる所定係数を掛け合
わせることによって、本人の真の手書サインに相当する
真のサンプルデータ及び本人の真の手書サイン以外に相
当する偽のサンプルデータをそれぞれ複数生成するサン
プル発生手段と、本人の真の手書サインであるか否かに
対応して教師信号を出力する学習制御手段と、前記サン
プル発生手段で複数生成された前記サンプルデータを取
り込み、このサンプルデータと前記教師信号とを比較す
ることで、より好ましい結合荷重係数を学習し、この学
習によって決定した結合荷重係数に基づいて、新たに入
力された手書サインの特徴手書データが、前記本人の真
の手書サインであるか否かを判断するニューラルネット
手段とを採用するものである。
成するために本発明に係るサイン認識装置は、手書され
た手書サインを取り込み、この取り込んだ手書サインに
対応した手書データを出力する入力手段と、この入力手
段から出力された前記手書データから特徴を抽出し、そ
の抽出した特徴から特徴手書データを出力する特徴抽出
手段と、前記特徴手書データを取り込み、この取り込ん
だ特徴手書データに対し、各々異なる所定係数を掛け合
わせることによって、本人の真の手書サインに相当する
真のサンプルデータ及び本人の真の手書サイン以外に相
当する偽のサンプルデータをそれぞれ複数生成するサン
プル発生手段と、本人の真の手書サインであるか否かに
対応して教師信号を出力する学習制御手段と、前記サン
プル発生手段で複数生成された前記サンプルデータを取
り込み、このサンプルデータと前記教師信号とを比較す
ることで、より好ましい結合荷重係数を学習し、この学
習によって決定した結合荷重係数に基づいて、新たに入
力された手書サインの特徴手書データが、前記本人の真
の手書サインであるか否かを判断するニューラルネット
手段とを採用するものである。
【0012】また、本発明のサイン認識装置は、手書さ
れた手書サインを取り込み、この取り込んだ手書サイン
に対応した手書データを出力する入力手段と、この入力
手段から出力された前記手書データから特徴手書データ
を抽出し、その特徴手書データを出力する特徴抽出手段
と、本人の真の手書サイン及び真の手書サイン以外のサ
インに対応した教師信号を出力する学習制御手段と、前
記特徴手書データを取込み、この取込んだ特徴手書デー
タを所定の内部関数に基づいて演算する出力層を有し、
この出力層で演算されたデータと前記教師信号とを比較
することで学習し、この学習によって新たに入力された
手書サインの特徴手書データが、前記本人の真の手書サ
インであるか否かを判断するニューラルネット手段とを
備えたサイン認識装置において、前記ニューラルネット
手段が、前記学習を行う場合には、前記出力層の前記内
部関数を線形関数とし、前記新たに入力された手書サイ
ンの特徴データが前記本人の真のサインであるか否かを
判断する場合には、前記出力層の前記内部関数を非線形
関数に切り換えるように設定されている。
れた手書サインを取り込み、この取り込んだ手書サイン
に対応した手書データを出力する入力手段と、この入力
手段から出力された前記手書データから特徴手書データ
を抽出し、その特徴手書データを出力する特徴抽出手段
と、本人の真の手書サイン及び真の手書サイン以外のサ
インに対応した教師信号を出力する学習制御手段と、前
記特徴手書データを取込み、この取込んだ特徴手書デー
タを所定の内部関数に基づいて演算する出力層を有し、
この出力層で演算されたデータと前記教師信号とを比較
することで学習し、この学習によって新たに入力された
手書サインの特徴手書データが、前記本人の真の手書サ
インであるか否かを判断するニューラルネット手段とを
備えたサイン認識装置において、前記ニューラルネット
手段が、前記学習を行う場合には、前記出力層の前記内
部関数を線形関数とし、前記新たに入力された手書サイ
ンの特徴データが前記本人の真のサインであるか否かを
判断する場合には、前記出力層の前記内部関数を非線形
関数に切り換えるように設定されている。
【0013】
【作用および発明の効果】上記のサイン認識装置による
と、サンプル発生手段が、特徴抽出手段にて抽出された
特徴手書データを取り込み、この取り込んだ特徴手書デ
ータに所定係数を掛け合わせることによって、少しずつ
値の異なる複数のサンプルデータを生成する。そして、
ニューラルネット手段は、この生成された複数のサンプ
ルデータを取り込むことで学習し、この学習によって結
合荷重係数を決定する。さらに、このニューラルネット
手段は、上記決定した結合荷重係数に基づいて、今回入
力された手書サインが、前回取り込んだ本人の真のサイ
ンと同じであるか否かを判断する。つまり、ニューラル
ネット手段が学習する場合、サンプル発生手段がないの
であれば、手書サインを登録希望する本人が、何度も入
力手段に手書サインを入力しなければならないが、サン
プル発生手段が構成されているおかげで、自発的に複数
のサンプルデータが生成され、ニューラルネット手段が
学習していくため、手書サインを登録希望する本人の手
間を、減少させることができるという優れた効果があ
る。
と、サンプル発生手段が、特徴抽出手段にて抽出された
特徴手書データを取り込み、この取り込んだ特徴手書デ
ータに所定係数を掛け合わせることによって、少しずつ
値の異なる複数のサンプルデータを生成する。そして、
ニューラルネット手段は、この生成された複数のサンプ
ルデータを取り込むことで学習し、この学習によって結
合荷重係数を決定する。さらに、このニューラルネット
手段は、上記決定した結合荷重係数に基づいて、今回入
力された手書サインが、前回取り込んだ本人の真のサイ
ンと同じであるか否かを判断する。つまり、ニューラル
ネット手段が学習する場合、サンプル発生手段がないの
であれば、手書サインを登録希望する本人が、何度も入
力手段に手書サインを入力しなければならないが、サン
プル発生手段が構成されているおかげで、自発的に複数
のサンプルデータが生成され、ニューラルネット手段が
学習していくため、手書サインを登録希望する本人の手
間を、減少させることができるという優れた効果があ
る。
【0014】また、上述のサイン認識装置によると、ニ
ューラルネット手段が学習を行う場合には、出力層の内
部関数を線形関数(例えばY=αX)としたうえで結合
荷重係数を決定し、この結合荷重係数を決定することに
より、本人の真のサインであるか否かを分離するための
境界域を設定する。そこで、この設定された境界域に対
応するように、例えば、非線形関数(例えばシグモイド
関数)を出力層に設置する。そして、この非線形関数が
出力層に設置された状態で、新たに入力されたサイン
が、本人の真のサインであるか否かの判断を行う。つま
り、学習時には、出力層の内部関数を線形関数とし、本
人の真のサインであるか否かを判断を行う認識時には、
出力層の内部関数を非線形関数として内部関数を置き換
えている。そして、通常、学習時において、出力層に設
定される内部関数は、線形関数であるほうが非線形関数
(シグモイド関数)であるよりも、本人の真のサインで
あるか否かを分離するための境界域を設定するうえで必
要とされる時間が短くて済む。したがって、上述のサイ
ン認識装置は、学習時に必要とされる時間を短縮するこ
とができる。
ューラルネット手段が学習を行う場合には、出力層の内
部関数を線形関数(例えばY=αX)としたうえで結合
荷重係数を決定し、この結合荷重係数を決定することに
より、本人の真のサインであるか否かを分離するための
境界域を設定する。そこで、この設定された境界域に対
応するように、例えば、非線形関数(例えばシグモイド
関数)を出力層に設置する。そして、この非線形関数が
出力層に設置された状態で、新たに入力されたサイン
が、本人の真のサインであるか否かの判断を行う。つま
り、学習時には、出力層の内部関数を線形関数とし、本
人の真のサインであるか否かを判断を行う認識時には、
出力層の内部関数を非線形関数として内部関数を置き換
えている。そして、通常、学習時において、出力層に設
定される内部関数は、線形関数であるほうが非線形関数
(シグモイド関数)であるよりも、本人の真のサインで
あるか否かを分離するための境界域を設定するうえで必
要とされる時間が短くて済む。したがって、上述のサイ
ン認識装置は、学習時に必要とされる時間を短縮するこ
とができる。
【0015】
【実施例】以下、本発明を図に示す実施例に基づいて説
明する。図1は本発明の一実施例を表す構成図である。
図1において、サイン認識装置201は、大きく分けて
主に、ユーザの手書サインを取り込む入力手段202
と、その手書サインの特徴を抽出する特徴抽出手段20
3と、自発的に上記手書サインのサンプルを生成するサ
ンプル発生手段204と、2層の単純パーセプトロン
(Perceptoron)構成を使用したファジィネ
ット手段209と、このファジィネット手段209に学
習を行わせるため、フィードバックループを能動的に制
御するための学習制御手段215と、認識結果の表示や
操作を円滑に行うためのガイダンス等の表示を行う表示
手段216とから構成されている。
明する。図1は本発明の一実施例を表す構成図である。
図1において、サイン認識装置201は、大きく分けて
主に、ユーザの手書サインを取り込む入力手段202
と、その手書サインの特徴を抽出する特徴抽出手段20
3と、自発的に上記手書サインのサンプルを生成するサ
ンプル発生手段204と、2層の単純パーセプトロン
(Perceptoron)構成を使用したファジィネ
ット手段209と、このファジィネット手段209に学
習を行わせるため、フィードバックループを能動的に制
御するための学習制御手段215と、認識結果の表示や
操作を円滑に行うためのガイダンス等の表示を行う表示
手段216とから構成されている。
【0016】さらに詳細に説明すると、入力手段202
においては、オンラインによるサイン認識装置として使
用する場合、リアルタイムな手書サインデータを取り込
む必要性からタブレット、あるいはディジタイザのうよ
うなものが使用され、筆跡や筆圧情報が取り出せる構成
になっている。一方、オフラインによるサイン認識装置
として使用する場合、入力手段202は、ファクシミリ
に代表されるようなイメージスキャナ装置が使用され、
文字の形状を取り出せる構成になっている。なお、いず
れの場合においても、入力手段202の出力は、特徴抽
出手段203に接続されており、この入力手段202に
取り込まれた手書データは、特徴抽出手段203に入力
されることになる。
においては、オンラインによるサイン認識装置として使
用する場合、リアルタイムな手書サインデータを取り込
む必要性からタブレット、あるいはディジタイザのうよ
うなものが使用され、筆跡や筆圧情報が取り出せる構成
になっている。一方、オフラインによるサイン認識装置
として使用する場合、入力手段202は、ファクシミリ
に代表されるようなイメージスキャナ装置が使用され、
文字の形状を取り出せる構成になっている。なお、いず
れの場合においても、入力手段202の出力は、特徴抽
出手段203に接続されており、この入力手段202に
取り込まれた手書データは、特徴抽出手段203に入力
されることになる。
【0017】次に、上記特徴抽出手段203は、オンラ
インによる認識装置の場合、手書サイン入力によるデー
タの座標マッピング以外に、筆跡速度や筆圧情報のよう
なリアルタイムな連続データを取り込む。このとき、こ
の特徴抽出手段203は、フーリエ変換によって手書サ
インのスペクトラム分布と強度の情報を得る。なお、オ
ンラインによる特徴抽出の場合、このスペクトラム分布
と強度の情報を得ることは、手書サインの個人的特徴を
検出するうえで効率が良い。一方、オフラインによる認
識装置の場合、特徴抽出手段203は、入力手段202
から取り込んだ手書データを一旦メモリに記憶する。こ
のとき、メモリ内に記憶される手書データは、2次元上
のマップに配置されるように設定される。このとき、特
徴抽出手段203は、2次元上のマップに記憶された手
書データを多方面からアクセスし、データの存在個数を
求めることによりストローク密度を求める。なお、オフ
ラインによる特徴抽出の場合は、こうしたサインのスト
ローク密度を求めることが、手書サインの個人的特徴を
検出するうえで効率が良い。そして、以上のようにし
て、特徴抽出手段203にて得られた手書サインの情報
は、この特徴抽出手段203の出力側に接続された切換
手段218を介してサンプル発生手段204に取り込ま
れる。
インによる認識装置の場合、手書サイン入力によるデー
タの座標マッピング以外に、筆跡速度や筆圧情報のよう
なリアルタイムな連続データを取り込む。このとき、こ
の特徴抽出手段203は、フーリエ変換によって手書サ
インのスペクトラム分布と強度の情報を得る。なお、オ
ンラインによる特徴抽出の場合、このスペクトラム分布
と強度の情報を得ることは、手書サインの個人的特徴を
検出するうえで効率が良い。一方、オフラインによる認
識装置の場合、特徴抽出手段203は、入力手段202
から取り込んだ手書データを一旦メモリに記憶する。こ
のとき、メモリ内に記憶される手書データは、2次元上
のマップに配置されるように設定される。このとき、特
徴抽出手段203は、2次元上のマップに記憶された手
書データを多方面からアクセスし、データの存在個数を
求めることによりストローク密度を求める。なお、オフ
ラインによる特徴抽出の場合は、こうしたサインのスト
ローク密度を求めることが、手書サインの個人的特徴を
検出するうえで効率が良い。そして、以上のようにし
て、特徴抽出手段203にて得られた手書サインの情報
は、この特徴抽出手段203の出力側に接続された切換
手段218を介してサンプル発生手段204に取り込ま
れる。
【0018】次に、サンプル発生手段204は、ランダ
ム係数発生手段205と、振れ幅選択発生手段206
と、掛け算手段207と、第1の記憶手段208とから
構成されており、学習手段215からの制御信号を取り
込むとともに、特徴抽出手段203からの出力信号を取
り込んで、正例(本人のサイン)、負例(本人以外のサ
イン)のサンプルを生成している。
ム係数発生手段205と、振れ幅選択発生手段206
と、掛け算手段207と、第1の記憶手段208とから
構成されており、学習手段215からの制御信号を取り
込むとともに、特徴抽出手段203からの出力信号を取
り込んで、正例(本人のサイン)、負例(本人以外のサ
イン)のサンプルを生成している。
【0019】さらに詳細に説明すると、ランダム係数発
生手段205の出力は、振れ幅選択手段206に接続さ
れており、この振れ幅選択手段206は、ランダム係数
発生手段205から出力されるランダムな数値を、例え
ば、正例のサンプル(本人のサイン)を生成する場合に
は最大振幅値を基準にして振れ幅を5%以内に制限する
数値を選択する。一方、負例のサンプル(本人以外のサ
イン)を生成する場合には最大振幅値を基準にして振れ
幅を20%〜25%以内に制限する数値を選択する。そ
れ以外の場合(25%を越える場合あるいは6〜19%
の場合)には、そのランダムな数値を無効として使用し
ないというように、それぞれランダムな数値を状況に合
わせて選択している。さらに、振れ幅選択手段206の
出力に接続された掛け算手段207は、前述した特徴抽
出手段203から出力される手書サインの情報と上記振
れ幅選択手段206から出力されるランダム係数とを掛
け合わせ、人為的に複数のサンプルを生成するものであ
る。そして、この生成された複数のサンプルは、第1の
記憶手段208に出力され、第1の記憶手段208にお
いて逐次記憶されることになる。
生手段205の出力は、振れ幅選択手段206に接続さ
れており、この振れ幅選択手段206は、ランダム係数
発生手段205から出力されるランダムな数値を、例え
ば、正例のサンプル(本人のサイン)を生成する場合に
は最大振幅値を基準にして振れ幅を5%以内に制限する
数値を選択する。一方、負例のサンプル(本人以外のサ
イン)を生成する場合には最大振幅値を基準にして振れ
幅を20%〜25%以内に制限する数値を選択する。そ
れ以外の場合(25%を越える場合あるいは6〜19%
の場合)には、そのランダムな数値を無効として使用し
ないというように、それぞれランダムな数値を状況に合
わせて選択している。さらに、振れ幅選択手段206の
出力に接続された掛け算手段207は、前述した特徴抽
出手段203から出力される手書サインの情報と上記振
れ幅選択手段206から出力されるランダム係数とを掛
け合わせ、人為的に複数のサンプルを生成するものであ
る。そして、この生成された複数のサンプルは、第1の
記憶手段208に出力され、第1の記憶手段208にお
いて逐次記憶されることになる。
【0020】次に、ファジィネット手段209は、ファ
ジィ推論部(入力層を含む)210と、出力層211
と、比較部212と、係数積算部213とから構成され
ており、入力層から出力層211に一方向に向かってデ
ータに重み係数(結合荷重係数)を掛ける、2層Per
ceptoron構成を採用したファジィネットであ
る。なお、上記入力層はメンバシップ関数を内部関数に
持つファジィ化手段から成り、出力層211は推論規則
が設定された構成であることを特徴としている。さら
に、図1及び図2に基づいて詳細に説明すると、このフ
ァジィ推論部210は、その入力層にファジィ推論器3
01が構成されており、このファジィ推論器301は、
図2に示すようなSmall、Bigの2つのルールか
らなるメンバーシップ関数を内部関数に有する。そし
て、入力層から取り込んだデータを、上記2つのメンバ
ーシップ関数の入力として、各々のメンバーシップ関数
に対応したグレード値を演算する。さらに、ファジィ推
論器301の出力側には、乗算手段302が構成されて
おり、この乗算手段302は、ファジー推論器301か
ら出力されたグレード値に結合荷重係数Wijを掛け合わ
せる演算を行う。また、乗算手段302の出力は、加算
手段303に接続されており、この加算手段303は、
各々の乗算手段302からの出力結果の総和を演算し、
出力層211に出力するよう構成されている。
ジィ推論部(入力層を含む)210と、出力層211
と、比較部212と、係数積算部213とから構成され
ており、入力層から出力層211に一方向に向かってデ
ータに重み係数(結合荷重係数)を掛ける、2層Per
ceptoron構成を採用したファジィネットであ
る。なお、上記入力層はメンバシップ関数を内部関数に
持つファジィ化手段から成り、出力層211は推論規則
が設定された構成であることを特徴としている。さら
に、図1及び図2に基づいて詳細に説明すると、このフ
ァジィ推論部210は、その入力層にファジィ推論器3
01が構成されており、このファジィ推論器301は、
図2に示すようなSmall、Bigの2つのルールか
らなるメンバーシップ関数を内部関数に有する。そし
て、入力層から取り込んだデータを、上記2つのメンバ
ーシップ関数の入力として、各々のメンバーシップ関数
に対応したグレード値を演算する。さらに、ファジィ推
論器301の出力側には、乗算手段302が構成されて
おり、この乗算手段302は、ファジー推論器301か
ら出力されたグレード値に結合荷重係数Wijを掛け合わ
せる演算を行う。また、乗算手段302の出力は、加算
手段303に接続されており、この加算手段303は、
各々の乗算手段302からの出力結果の総和を演算し、
出力層211に出力するよう構成されている。
【0021】次に、出力層211においては、内部関数
が設定されており、ファジィ推論部210から出力され
てくる信号を、上記内部関数に応じて演算処理し、その
結果を比較部212に出力するように構成されている。
さらに、この比較部212は、出力層211の出力及び
学習制御手段215の出力がそれぞれ接続された構成で
あり、出力層211の出力信号及び学習制御手段215
からの教師信号を取り込んで、これらの差分を演算す
る。また、係数積算部213は、比較部212から出力
されてくる信号を取り込み、この取り込んだ信号に基づ
いて、結合荷重係数Wijの更新量を計算し、その更新量
を順次加算して、その加算した総和をファジィ推論部2
10内部の乗算部302に出力する構成になっている。
が設定されており、ファジィ推論部210から出力され
てくる信号を、上記内部関数に応じて演算処理し、その
結果を比較部212に出力するように構成されている。
さらに、この比較部212は、出力層211の出力及び
学習制御手段215の出力がそれぞれ接続された構成で
あり、出力層211の出力信号及び学習制御手段215
からの教師信号を取り込んで、これらの差分を演算す
る。また、係数積算部213は、比較部212から出力
されてくる信号を取り込み、この取り込んだ信号に基づ
いて、結合荷重係数Wijの更新量を計算し、その更新量
を順次加算して、その加算した総和をファジィ推論部2
10内部の乗算部302に出力する構成になっている。
【0022】また、第2の記憶手段214は、学習時の
場合、決定された結合荷重係数Wijを、手書サインを登
録したユーザごとに記憶保持し、認識時の場合、学習制
御手段215からの信号に応じて学習時に記憶保持され
た結合荷重係数Wijを読出し、その読出した結合荷重係
数Wijをファジィネット手段209に出力する構成にな
っている。
場合、決定された結合荷重係数Wijを、手書サインを登
録したユーザごとに記憶保持し、認識時の場合、学習制
御手段215からの信号に応じて学習時に記憶保持され
た結合荷重係数Wijを読出し、その読出した結合荷重係
数Wijをファジィネット手段209に出力する構成にな
っている。
【0023】学習制御手段215は、振れ幅選択手段2
06、第1の記憶手段208、比較部212、第2の記
憶手段214のそれぞれを、例えば、正例、負例を一致
させて制御しており、詳細については後述する。表示手
段216は、例えば、液晶表示器やCRTが用いられる
ものであり、この実施例においては、手書データが本物
であるか偽物であるかの判定結果、あるいは、入力した
手書データを再生曲線として再生画像等を表示する。ま
た、ID入力手段217は、例えば、キーボード等の入
力手段である。
06、第1の記憶手段208、比較部212、第2の記
憶手段214のそれぞれを、例えば、正例、負例を一致
させて制御しており、詳細については後述する。表示手
段216は、例えば、液晶表示器やCRTが用いられる
ものであり、この実施例においては、手書データが本物
であるか偽物であるかの判定結果、あるいは、入力した
手書データを再生曲線として再生画像等を表示する。ま
た、ID入力手段217は、例えば、キーボード等の入
力手段である。
【0024】切換手段218は、特徴抽出手段203と
サンプル発生手段204との間に設けられ、学習時には
サンプル発生手段204に手書データを伝達し、認識時
にはファジィネット手段209に手書データを伝達する
構成であり、サンプル発生手段204を接続したり、切
り離したりする作動を行っている。なお、上述した特徴
抽出手段203、サンプル発生手段204、ファジィネ
ット手段209、第2の記憶手段214、学習制御手段
215、のそれぞれは、CPU219のプログラムによ
り制御され、動作が実現される。
サンプル発生手段204との間に設けられ、学習時には
サンプル発生手段204に手書データを伝達し、認識時
にはファジィネット手段209に手書データを伝達する
構成であり、サンプル発生手段204を接続したり、切
り離したりする作動を行っている。なお、上述した特徴
抽出手段203、サンプル発生手段204、ファジィネ
ット手段209、第2の記憶手段214、学習制御手段
215、のそれぞれは、CPU219のプログラムによ
り制御され、動作が実現される。
【0025】次に、以上のように構成されたサイン認識
装置においては、(1)学習モード、(2)認識モード
の2つの動作モードからなり、学習モードの動作後、認
識モードに移り、サイン認識装置として動作する。そこ
で、2つの動作モードについて各々以下に説明する。 (1)学習モード 学習モードにおける全体作動について、図3に示すフロ
ーチャートに基づき説明する。なお、図3はCPU21
9の作動を示すフローチャートである。
装置においては、(1)学習モード、(2)認識モード
の2つの動作モードからなり、学習モードの動作後、認
識モードに移り、サイン認識装置として動作する。そこ
で、2つの動作モードについて各々以下に説明する。 (1)学習モード 学習モードにおける全体作動について、図3に示すフロ
ーチャートに基づき説明する。なお、図3はCPU21
9の作動を示すフローチャートである。
【0026】まず、ステップ100においては、サイン
を登録希望するユーザがID(個人認識)コードをID
入力手段217から入力し、これによってID入力手段
217から発生するIDコード信号を取り込む。なお、
このID入力の処理は、登録を希望したユーザと、以下
の処理で入力される手書データとを、動作処理上で一致
させるための登録番号(ラベル)付与として機能する。
を登録希望するユーザがID(個人認識)コードをID
入力手段217から入力し、これによってID入力手段
217から発生するIDコード信号を取り込む。なお、
このID入力の処理は、登録を希望したユーザと、以下
の処理で入力される手書データとを、動作処理上で一致
させるための登録番号(ラベル)付与として機能する。
【0027】ステップ110においては、IDコードを
入力したユーザが入力手段202を使用して手書による
サインを行うことによって、入力手段202が手書サイ
ンに応じた手書データを出力する。ステップ120にお
いては、特徴抽出手段203が、入力手段202から出
力された手書データを取り込む。このとき、特徴抽出手
段203は、取り込んだ手書データから特徴部分を抽出
し、この抽出した各特徴部分を特徴手書データとして出
力する。なお、この特徴抽出手段203の詳細な作動に
ついては後述する。
入力したユーザが入力手段202を使用して手書による
サインを行うことによって、入力手段202が手書サイ
ンに応じた手書データを出力する。ステップ120にお
いては、特徴抽出手段203が、入力手段202から出
力された手書データを取り込む。このとき、特徴抽出手
段203は、取り込んだ手書データから特徴部分を抽出
し、この抽出した各特徴部分を特徴手書データとして出
力する。なお、この特徴抽出手段203の詳細な作動に
ついては後述する。
【0028】ステップ130においては、サンプル発生
手段204が、特徴抽出手段203から出力された特徴
手書データを取り込む。ここで、サンプル発生手段20
4は、取り込んだ特徴手書データに基づいて、正例(本
人のサイン)、負例(本人以外のサイン)のサンプルを
自発的に生成し、この生成したサンプル情報を第1の記
憶手段208に逐次記憶させる。なお、このサンプル発
生手段204の詳細な作動についても後述する。
手段204が、特徴抽出手段203から出力された特徴
手書データを取り込む。ここで、サンプル発生手段20
4は、取り込んだ特徴手書データに基づいて、正例(本
人のサイン)、負例(本人以外のサイン)のサンプルを
自発的に生成し、この生成したサンプル情報を第1の記
憶手段208に逐次記憶させる。なお、このサンプル発
生手段204の詳細な作動についても後述する。
【0029】ステップ140においては、ファジィネッ
ト手段209が、ステップ130にて逐次記憶されてい
た特徴手書データを取り込む。これにより、ファジィネ
ット手段209は、取り込んだ特徴手書データから個人
的な特徴を学習していき、正例(本人のサイン)、負例
(本人以外のサイン)の判断条件として必要な境界線を
得ることになる。なお、詳細な作動については後述す
る。
ト手段209が、ステップ130にて逐次記憶されてい
た特徴手書データを取り込む。これにより、ファジィネ
ット手段209は、取り込んだ特徴手書データから個人
的な特徴を学習していき、正例(本人のサイン)、負例
(本人以外のサイン)の判断条件として必要な境界線を
得ることになる。なお、詳細な作動については後述す
る。
【0030】ステップ150においては、第2の記憶手
段214が、ファジィネット手段209により決定され
た判断条件のデータを、前述したID(個人認識)コー
ドと共に記憶する。以上の作用によって、特定のIDコ
ードに対応した手書サインの学習がなされるが、次に、
上述した各々の詳細な作動について説明する。
段214が、ファジィネット手段209により決定され
た判断条件のデータを、前述したID(個人認識)コー
ドと共に記憶する。以上の作用によって、特定のIDコ
ードに対応した手書サインの学習がなされるが、次に、
上述した各々の詳細な作動について説明する。
【0031】まず、ステップ120、すなわち特徴抽出
手段203の詳細な作動について説明する。図4は、特
徴抽出手段203の作動を示すフローチャートである。
なお、この作動の説明については、オフラインによる特
徴抽出(詳細には、特徴線分抽出法)の場合について説
明する。ステップ200においては、入力手段202か
ら取り込んだ手書データをメモリ(図示されていない)
内に、1,0(点がある、ない)の画素情報として一時
的に記憶し、ここから細線化により線分情報を抽出す
る。このとき、上下左右各方向から画素情報を走査し、
この走査の際に生じる手書サインの影を、細線化情報と
して取り出している。なお、この細線化する手法は、デ
ータが簡単化されるため計算時間が少なくてすみ、かつ
手書サインの個人性特徴をほぼ保持できる。
手段203の詳細な作動について説明する。図4は、特
徴抽出手段203の作動を示すフローチャートである。
なお、この作動の説明については、オフラインによる特
徴抽出(詳細には、特徴線分抽出法)の場合について説
明する。ステップ200においては、入力手段202か
ら取り込んだ手書データをメモリ(図示されていない)
内に、1,0(点がある、ない)の画素情報として一時
的に記憶し、ここから細線化により線分情報を抽出す
る。このとき、上下左右各方向から画素情報を走査し、
この走査の際に生じる手書サインの影を、細線化情報と
して取り出している。なお、この細線化する手法は、デ
ータが簡単化されるため計算時間が少なくてすみ、かつ
手書サインの個人性特徴をほぼ保持できる。
【0032】ステップ210においては、細線化して得
られた画像データから図5(a)に示すように端点を検
出し、端点から端点までを1つの線分として、線分デー
タを取り出す。ステップ220においては、この線分デ
ータに前述したIDコードを付加することによって、線
分データのラベリングを行う。
られた画像データから図5(a)に示すように端点を検
出し、端点から端点までを1つの線分として、線分デー
タを取り出す。ステップ220においては、この線分デ
ータに前述したIDコードを付加することによって、線
分データのラベリングを行う。
【0033】ステップ230においては、細線化によっ
て得られた線分データから、次の要素を取り出す。取り
出す要素としては、重心位置(X,Y)、長さ
(L)、曲がり(Stop ,Sbottom)、傾き(θ)
等のパラメータである。ここで、曲がりは図5(b)に
示すように線分の各端点を結ぶ直線lと線分データが囲
む面積により定義する。また、傾きθは、線分lと水平
線とのなす角度である。
て得られた線分データから、次の要素を取り出す。取り
出す要素としては、重心位置(X,Y)、長さ
(L)、曲がり(Stop ,Sbottom)、傾き(θ)
等のパラメータである。ここで、曲がりは図5(b)に
示すように線分の各端点を結ぶ直線lと線分データが囲
む面積により定義する。また、傾きθは、線分lと水平
線とのなす角度である。
【0034】ステップ240においては、上記パラメー
タを以下の手法により正規化する。まず、重心の位置
X,Yは、それぞれ細線化して得られた手書サインの左
右・上下の幅(図5(a);Xleft〜Xright ,Ytop
〜Ybottom)で正規化し、長さLは、その手書サインの
最大値(Lmax )で正規化してそれぞれX,Y,Lと表
す。また、曲がりは線分lの一部aを斜辺にもつ直角二
等辺三角形(図5(b)参照)の面積Striangleで正規
化し、Stop ,Sbottomとする。傾きは、−π/2〜π
/2で正規化し、θと表す。以上の処理により、1つの
線分データからの6つのパラメータ(X,Y,L,S
top ,Sbottom,θ)を得ることができる。
タを以下の手法により正規化する。まず、重心の位置
X,Yは、それぞれ細線化して得られた手書サインの左
右・上下の幅(図5(a);Xleft〜Xright ,Ytop
〜Ybottom)で正規化し、長さLは、その手書サインの
最大値(Lmax )で正規化してそれぞれX,Y,Lと表
す。また、曲がりは線分lの一部aを斜辺にもつ直角二
等辺三角形(図5(b)参照)の面積Striangleで正規
化し、Stop ,Sbottomとする。傾きは、−π/2〜π
/2で正規化し、θと表す。以上の処理により、1つの
線分データからの6つのパラメータ(X,Y,L,S
top ,Sbottom,θ)を得ることができる。
【0035】ステップ250においては、正規化が行わ
れた各要素の中から、ニューラルネットワークの規模に
応じて使用するものを選択する。これは、全てのパラメ
ータを認識に用いれば、高い認識率が得られることが期
待できるが、ニューラルネットワークの規模自体が大き
くなってしまうため、本実施例においては、このパラメ
ータの中から選択して使用する。
れた各要素の中から、ニューラルネットワークの規模に
応じて使用するものを選択する。これは、全てのパラメ
ータを認識に用いれば、高い認識率が得られることが期
待できるが、ニューラルネットワークの規模自体が大き
くなってしまうため、本実施例においては、このパラメ
ータの中から選択して使用する。
【0036】次に、ステップ130、すなわちサンプル
発生手段204の詳細な作動について説明する。図6
は、サンプル発生手段204の作動を示すフローチャー
トである。まず、ステップ300においては、特徴抽出
手段203から出力される特徴手書データ(特徴要素I
n)を取り込む。これにより、ステップ310に移行
し、以下の処理を開始する。すなわち、学習制御手段2
15からの制御信号に基づいて、正例(本人のサイ
ン)、負例(本人以外のサイン)のサンプルを自発的に
生成する処理を開始する。
発生手段204の詳細な作動について説明する。図6
は、サンプル発生手段204の作動を示すフローチャー
トである。まず、ステップ300においては、特徴抽出
手段203から出力される特徴手書データ(特徴要素I
n)を取り込む。これにより、ステップ310に移行
し、以下の処理を開始する。すなわち、学習制御手段2
15からの制御信号に基づいて、正例(本人のサイ
ン)、負例(本人以外のサイン)のサンプルを自発的に
生成する処理を開始する。
【0037】ステップ310においては、ランダム係数
発生手段205によって、乱数を発生させる。なお、こ
の乱数は、上記特徴手書データに掛け合わす係数であ
る。ステップ320においては、ランダム係数発生手段
205にて発生された乱数が振幅選択手段206に取り
込まれる。さらに、学習制御手段215からの制御信号
に基づいて、例えば、正例のサンプル生成の場合には、
振れ幅を最大振幅値の5%以内に制限する乱数を選択、
一方、負例のサンプル生成の場合には、振れ幅を最大振
幅値の20〜25%以内に制限する乱数を選択、という
ように振幅選択手段206に上記乱数の選択をさせる。
このとき、正例として処理する場合にはステップ330
に移行し、負例として処理する場合にはステップ340
に移行する。
発生手段205によって、乱数を発生させる。なお、こ
の乱数は、上記特徴手書データに掛け合わす係数であ
る。ステップ320においては、ランダム係数発生手段
205にて発生された乱数が振幅選択手段206に取り
込まれる。さらに、学習制御手段215からの制御信号
に基づいて、例えば、正例のサンプル生成の場合には、
振れ幅を最大振幅値の5%以内に制限する乱数を選択、
一方、負例のサンプル生成の場合には、振れ幅を最大振
幅値の20〜25%以内に制限する乱数を選択、という
ように振幅選択手段206に上記乱数の選択をさせる。
このとき、正例として処理する場合にはステップ330
に移行し、負例として処理する場合にはステップ340
に移行する。
【0038】続いて、ステップ330においては、掛け
算手段207によって、振幅選択手段206にて選択さ
れたランダム係数(最大振幅値の5%以内に制限する係
数)と、特徴抽出手段203から取り込んだ特徴手書デ
ータとを取り込ませ、ランダム係数と特徴手書データと
を掛け合わせる。一方、ステップ340においては、負
例に対応したランダム係数(最大振幅値の20〜25%
以内に制御する係数)と特徴手書データとを掛け合わせ
る。
算手段207によって、振幅選択手段206にて選択さ
れたランダム係数(最大振幅値の5%以内に制限する係
数)と、特徴抽出手段203から取り込んだ特徴手書デ
ータとを取り込ませ、ランダム係数と特徴手書データと
を掛け合わせる。一方、ステップ340においては、負
例に対応したランダム係数(最大振幅値の20〜25%
以内に制御する係数)と特徴手書データとを掛け合わせ
る。
【0039】ステップ350においては、ステップ33
0、340にて掛け合わされた結果に対応した正例、負
例のサンプルデータを、第1の記憶手段208に逐次記
憶する。さらに、ステップ360においては、正例、負
例のサンプルデータが、必要とされるサンプルの個数分
あるか否かを判定し、必要個数分があると判定されるま
で、ステップ310〜360の処理を繰り返す。
0、340にて掛け合わされた結果に対応した正例、負
例のサンプルデータを、第1の記憶手段208に逐次記
憶する。さらに、ステップ360においては、正例、負
例のサンプルデータが、必要とされるサンプルの個数分
あるか否かを判定し、必要個数分があると判定されるま
で、ステップ310〜360の処理を繰り返す。
【0040】以上の処理を実行することによって、ユー
ザによる1つの手書サイン入力に対し、例えば、正例、
負例の発生を異なった係数で5回ずつ掛け合わせれば、
10回分の手書サイン入力を行ったことと同じになる。
なお、ランダム係数を選択するうえで、例えば、正例の
サンプル生成の場合は振れ幅を最大振幅値の5%以内に
制限する乱数、一方、負例のサンプル生成の場合は振れ
幅を最大振幅値の20〜25%以内に制限する乱数とい
うように設定したが、これに限るものではない。しかし
ながら、乱数を設定する最低限の条件として、正例の係
数と負例の係数との間の設定値(例えば上述した実施例
であれば、6〜19%の係数)は、本人及び本人以外を
判断するうえであいまいになるため採用しない。また、
著しく本人の手書サインと異なる場合(上述した実施例
であれば、25パーセントより大きいランダム係数)
は、記憶しても判断するうえで無意味なため採用しな
い。
ザによる1つの手書サイン入力に対し、例えば、正例、
負例の発生を異なった係数で5回ずつ掛け合わせれば、
10回分の手書サイン入力を行ったことと同じになる。
なお、ランダム係数を選択するうえで、例えば、正例の
サンプル生成の場合は振れ幅を最大振幅値の5%以内に
制限する乱数、一方、負例のサンプル生成の場合は振れ
幅を最大振幅値の20〜25%以内に制限する乱数とい
うように設定したが、これに限るものではない。しかし
ながら、乱数を設定する最低限の条件として、正例の係
数と負例の係数との間の設定値(例えば上述した実施例
であれば、6〜19%の係数)は、本人及び本人以外を
判断するうえであいまいになるため採用しない。また、
著しく本人の手書サインと異なる場合(上述した実施例
であれば、25パーセントより大きいランダム係数)
は、記憶しても判断するうえで無意味なため採用しな
い。
【0041】次に、ステップ140、すなわちファジィ
ネット手段209の詳細な作動について説明する。な
お、このときの作動は、学習時の作動であって、本人及
び本人以外を判定する際の結合荷重係数Wijの設定に関
する処理である。図7は、ファジィネット手段209の
作動を示すフローチャートである。まず、ステップ40
0においては、初期設定として結合荷重係数Wijをラン
ダムな数値に設定する。
ネット手段209の詳細な作動について説明する。な
お、このときの作動は、学習時の作動であって、本人及
び本人以外を判定する際の結合荷重係数Wijの設定に関
する処理である。図7は、ファジィネット手段209の
作動を示すフローチャートである。まず、ステップ40
0においては、初期設定として結合荷重係数Wijをラン
ダムな数値に設定する。
【0042】その後、ステップ410においては、第1
の記憶手段208に逐次記憶されていたサンプルデータ
を、ファジィネット手段209の入力層、すなわちファ
ジィ推論部210に取り込み、以下のようなファジィ推
論を行う。まず、このファジィ推論とは、同一人物でも
書く度に微妙に異なる手書サインのブレを吸収させるた
めに行われる処理であり、本実施例では、図2に示され
るファジィネットの構成を採用した。図2に示されるよ
うに、このファジィネットは、サンプルデータの各々の
パラメータ、例えば、重心位置、長さ、曲がり、傾き
(X,Y,L,Stop ,Sbottom,θ)をネットの入力
部D0 〜Dm から取り込み、この取り込んだサンプルデ
ータをファジィ推論器301に設定したBig,Sma
llの2つのルールからなるメンバーシップ関数の入力
として、各々に対応したグレード値を演算する。これに
よって、例えば、入力が0.8だったとして、Bigで
あれば0.8+a(a>0)なる値を持ち、Small
であれば0.8−b(b>0)なる値を持つことにな
る。これによって、0.8という入力値を中心値とし
て、ある所定の振幅(a+b)を持った形で演算処理が
行われる。そのため、同一人物でも書く度に微妙に異な
る手書サインのブレを吸収させることができる。次に、
この演算した双方のグレード値を乗算手段302に入力
し、双方のグレード値に結合荷重係数Wijを掛け合わせ
る。そして、加算手段303においては、その総和を演
算した後、出力ユニットである出力層211に伝送す
る。ここで、出力層211は、予め設定された内部関
数、例えば、Y=αX(0.0≦X≦1.0)なる線形
関数に基づいて、上述した正例及び負例に応じたデータ
値(0.0〜1.0)を演算し、この演算結果を比較部
212に入力する。
の記憶手段208に逐次記憶されていたサンプルデータ
を、ファジィネット手段209の入力層、すなわちファ
ジィ推論部210に取り込み、以下のようなファジィ推
論を行う。まず、このファジィ推論とは、同一人物でも
書く度に微妙に異なる手書サインのブレを吸収させるた
めに行われる処理であり、本実施例では、図2に示され
るファジィネットの構成を採用した。図2に示されるよ
うに、このファジィネットは、サンプルデータの各々の
パラメータ、例えば、重心位置、長さ、曲がり、傾き
(X,Y,L,Stop ,Sbottom,θ)をネットの入力
部D0 〜Dm から取り込み、この取り込んだサンプルデ
ータをファジィ推論器301に設定したBig,Sma
llの2つのルールからなるメンバーシップ関数の入力
として、各々に対応したグレード値を演算する。これに
よって、例えば、入力が0.8だったとして、Bigで
あれば0.8+a(a>0)なる値を持ち、Small
であれば0.8−b(b>0)なる値を持つことにな
る。これによって、0.8という入力値を中心値とし
て、ある所定の振幅(a+b)を持った形で演算処理が
行われる。そのため、同一人物でも書く度に微妙に異な
る手書サインのブレを吸収させることができる。次に、
この演算した双方のグレード値を乗算手段302に入力
し、双方のグレード値に結合荷重係数Wijを掛け合わせ
る。そして、加算手段303においては、その総和を演
算した後、出力ユニットである出力層211に伝送す
る。ここで、出力層211は、予め設定された内部関
数、例えば、Y=αX(0.0≦X≦1.0)なる線形
関数に基づいて、上述した正例及び負例に応じたデータ
値(0.0〜1.0)を演算し、この演算結果を比較部
212に入力する。
【0043】以上の処理により、一般に従来技術として
使用される非線形関数(シグモイド関数等)に比べ、上
述したような線形関数は、正例及び負例に分割するうえ
で短時間で境界域を決定することができる。その理由を
以下に説明すると、学習時の初期設定として結合荷重係
数Wijはランダムな数値に設定されており、この状態で
結合荷重係数Wijが上述した正例、負例に応じたデータ
値(0.0〜1.0)に掛け合わされた場合、出力層2
11に伝送されるデータ値は、図98(a)に示される
シグモイド関数のx軸上で、一様にバラツキが生じる。
例えば、シグモイド関数のx軸上に設定されるデータ値
は、正例であったとしても0付近に設定されたり、負例
であったとしても1付近に設定されたりする。そして、
これらのデータ値は、結合荷重係数Wijが学習により変
化することで、いずれは正例であれば1付近、負例であ
れば0付近というように分けられる。しかしながら、図
9(a)に示されるようなシグモイド関数においては、
本発明のようなY=αXなる線形関数に比べ、0および
1付近にプレッシャが掛かっている(0および1付近の
変化量が小さい)。そのため、例えば、初期状態におい
て正例のデータ値が0付近に設定された場合、学習によ
って正例のデータ値を1付近まで変化させるまでに、そ
の変化量は、Y=αXなる線形関数の方がシグモイド関
数に比べ少ない変化量ですむ。したがって、一般に従来
技術として使用される非線形関数(シグモイド関数等)
に比べ、本発明のような線形関数は、学習時において正
例及び負例に分割するうえで短時間で境界域を決定する
ことができる。
使用される非線形関数(シグモイド関数等)に比べ、上
述したような線形関数は、正例及び負例に分割するうえ
で短時間で境界域を決定することができる。その理由を
以下に説明すると、学習時の初期設定として結合荷重係
数Wijはランダムな数値に設定されており、この状態で
結合荷重係数Wijが上述した正例、負例に応じたデータ
値(0.0〜1.0)に掛け合わされた場合、出力層2
11に伝送されるデータ値は、図98(a)に示される
シグモイド関数のx軸上で、一様にバラツキが生じる。
例えば、シグモイド関数のx軸上に設定されるデータ値
は、正例であったとしても0付近に設定されたり、負例
であったとしても1付近に設定されたりする。そして、
これらのデータ値は、結合荷重係数Wijが学習により変
化することで、いずれは正例であれば1付近、負例であ
れば0付近というように分けられる。しかしながら、図
9(a)に示されるようなシグモイド関数においては、
本発明のようなY=αXなる線形関数に比べ、0および
1付近にプレッシャが掛かっている(0および1付近の
変化量が小さい)。そのため、例えば、初期状態におい
て正例のデータ値が0付近に設定された場合、学習によ
って正例のデータ値を1付近まで変化させるまでに、そ
の変化量は、Y=αXなる線形関数の方がシグモイド関
数に比べ少ない変化量ですむ。したがって、一般に従来
技術として使用される非線形関数(シグモイド関数等)
に比べ、本発明のような線形関数は、学習時において正
例及び負例に分割するうえで短時間で境界域を決定する
ことができる。
【0044】次に、ステップ420においては、学習制
御手段215によって、もう1つの入力データである教
師信号T(正例の場合:1.0、負例の場合:0.0)
を、比較部212に与える。なお、この教師信号Tは、
前記第1の記憶手段208に逐次記憶されている正例、
負例のデータの出力に対応したものとなっている。即
ち、第1の記憶手段208から取り込んだサンプルデー
タが正例であれば、学習制御手段215から出力される
信号も正例の教師信号T(1.0)であり、取り込んだ
サンプルデータが負例であれば、学習制御手段215か
ら出力される信号も正例の教師信号T(1.0)である
ということである。
御手段215によって、もう1つの入力データである教
師信号T(正例の場合:1.0、負例の場合:0.0)
を、比較部212に与える。なお、この教師信号Tは、
前記第1の記憶手段208に逐次記憶されている正例、
負例のデータの出力に対応したものとなっている。即
ち、第1の記憶手段208から取り込んだサンプルデー
タが正例であれば、学習制御手段215から出力される
信号も正例の教師信号T(1.0)であり、取り込んだ
サンプルデータが負例であれば、学習制御手段215か
ら出力される信号も正例の教師信号T(1.0)である
ということである。
【0045】ステップ430においては、比較部212
によって、出力層211からの出力と教師信号Tとの差
分が演算され、この差分が係数積算部213に入力され
る。ステップ440においては、係数積算部213によ
って、比較器212からの出力を用いてデルタルールに
より、結合荷重係数Wijの更新量を計算し、その更新量
を順次加算していく。なお、この結合荷重係数Wijの更
新量を決めるデルタルールは以下に示す数式1で表され
る。
によって、出力層211からの出力と教師信号Tとの差
分が演算され、この差分が係数積算部213に入力され
る。ステップ440においては、係数積算部213によ
って、比較器212からの出力を用いてデルタルールに
より、結合荷重係数Wijの更新量を計算し、その更新量
を順次加算していく。なお、この結合荷重係数Wijの更
新量を決めるデルタルールは以下に示す数式1で表され
る。
【0046】
【数1】ΔW(t)=η(teach−O(t))Y’
*Y(t)+βΔW(t−1) 但し、ΔW(t):更新量、η:学習率、teach:
教師信号、O(t):ファジィネット手段の出力Y’:
線形関数の微分値、Y(t):入力層の出力、β:慣性
係数 ステップ450においては、全てのサンプルデータがデ
ルタルールにより計算されたと判断されるまで、ステッ
プ410〜450までの処理を繰り返す。その後、ステ
ップ460においては、ステップ450にて演算された
更新量の総和をΔWijとし、新たな結合荷重係数Wij’
→Wij+ΔWijとして、結合荷重係数Wijを変更する。
なお、このような結合荷重係数Wijの変更の仕方をEp
ochモードといい、このEpoch学習モードは、学
習の収束が確実に保証されている点で優れている。
*Y(t)+βΔW(t−1) 但し、ΔW(t):更新量、η:学習率、teach:
教師信号、O(t):ファジィネット手段の出力Y’:
線形関数の微分値、Y(t):入力層の出力、β:慣性
係数 ステップ450においては、全てのサンプルデータがデ
ルタルールにより計算されたと判断されるまで、ステッ
プ410〜450までの処理を繰り返す。その後、ステ
ップ460においては、ステップ450にて演算された
更新量の総和をΔWijとし、新たな結合荷重係数Wij’
→Wij+ΔWijとして、結合荷重係数Wijを変更する。
なお、このような結合荷重係数Wijの変更の仕方をEp
ochモードといい、このEpoch学習モードは、学
習の収束が確実に保証されている点で優れている。
【0047】次に、ステップ470においては、以下に
説明する判断条件に基づいて、結合荷重係数Wijの更新
動作を終了し、その終了した時点の結合荷重係数Wij
を、手書サインを入力したユーザの結合荷重係数Wijと
して認識する。なお、終了する時の判断の基準は、新た
に結合荷重係数Wijを変更し、全てのデータが出力層2
11から出力されたとき、正例に対応するデータ値の最
小値が、負例に対応するデータ値の最大値より、大きい
と判断された時を基準としている。つまり、結合荷重係
数Wijが変更され、更新されていく過程で、正例に対応
する出力及び負例に対応する出力の分布が、徐々に分か
れていき、上記基準を満たしたとき境界を持つことを意
味し、学習を終了する。即ち、こうした境界ができたと
きの結合荷重係数Wijが、正例及び負例を分けるときの
最適な結合荷重係数Wijであり、この最適な結合荷重係
数Wijが認識された時点で学習を終了する。
説明する判断条件に基づいて、結合荷重係数Wijの更新
動作を終了し、その終了した時点の結合荷重係数Wij
を、手書サインを入力したユーザの結合荷重係数Wijと
して認識する。なお、終了する時の判断の基準は、新た
に結合荷重係数Wijを変更し、全てのデータが出力層2
11から出力されたとき、正例に対応するデータ値の最
小値が、負例に対応するデータ値の最大値より、大きい
と判断された時を基準としている。つまり、結合荷重係
数Wijが変更され、更新されていく過程で、正例に対応
する出力及び負例に対応する出力の分布が、徐々に分か
れていき、上記基準を満たしたとき境界を持つことを意
味し、学習を終了する。即ち、こうした境界ができたと
きの結合荷重係数Wijが、正例及び負例を分けるときの
最適な結合荷重係数Wijであり、この最適な結合荷重係
数Wijが認識された時点で学習を終了する。
【0048】ステップ480においては、こうして学習
が終了したときの結合荷重係数Wijを、第2の記憶手段
214に記憶させる。以上の処理が、ファジィネット手
段209の詳細な作動である。 (2)認識モード 次に、認識処理の作動について説明する。図8は、その
認識処理の作動を示すフローチャートである。
が終了したときの結合荷重係数Wijを、第2の記憶手段
214に記憶させる。以上の処理が、ファジィネット手
段209の詳細な作動である。 (2)認識モード 次に、認識処理の作動について説明する。図8は、その
認識処理の作動を示すフローチャートである。
【0049】まず、ステップ500においては、学習時
と同様にユーザが入力手段217からID(個人認識)
コードを入力し、これにより、ID入力手段217から
出力されるIDコード信号を取り込む。ステップ510
においては、ステップ500にて入力されたIDコード
に対応する結合荷重係数Wijを、第2の記憶手段214
から引出し、同結合荷重係数Wijをファジィネット手段
に設定する。
と同様にユーザが入力手段217からID(個人認識)
コードを入力し、これにより、ID入力手段217から
出力されるIDコード信号を取り込む。ステップ510
においては、ステップ500にて入力されたIDコード
に対応する結合荷重係数Wijを、第2の記憶手段214
から引出し、同結合荷重係数Wijをファジィネット手段
に設定する。
【0050】ステップ520においては、出力層211
に設定されている内部関数を、線形関数(Y=αX)か
らシグモイド関数等の非線形関数に置き換える。このと
き、シグモイド関数の置き換え方としては、図9(a)
に示されるように、シグモイド関数の中心を学習時にお
ける正例データの出力値の最小値o1と負例データの出
力値の最大値o2との中点((o1+o2)/2)をあ
てはめる方法を使います。 こうして認識の準備が整っ
たらステップ530に移行し、このステップ530にお
いては、ユーザが入力した手書サインを、入力手段20
2から取り込む。
に設定されている内部関数を、線形関数(Y=αX)か
らシグモイド関数等の非線形関数に置き換える。このと
き、シグモイド関数の置き換え方としては、図9(a)
に示されるように、シグモイド関数の中心を学習時にお
ける正例データの出力値の最小値o1と負例データの出
力値の最大値o2との中点((o1+o2)/2)をあ
てはめる方法を使います。 こうして認識の準備が整っ
たらステップ530に移行し、このステップ530にお
いては、ユーザが入力した手書サインを、入力手段20
2から取り込む。
【0051】ステップ540においては、入力手段20
2から取り込んだ手書データを特徴抽出手段203に入
力し、この入力した手書データから特徴部分を抽出させ
る。なお、この特徴抽出手段203の作動は、前述した
学習時の作用と同一のものである。ステップ550にお
いては、特徴抽出手段203によって抽出されたサイン
の特徴要素を、切換手段218を切り換えることによっ
て、ファジィネット手段209に取り込ませる。ここ
で、ファジィネット手段209は、認識時の場合、ファ
ジィ推論部210(ファジィ推論器301、乗算器30
2、加算手段303)と出力層211とから構成され、
係数積算部213と比較部212とは使用しない。そし
て、ファジィネット手段209に入力されたサインの特
徴要素は、ファジィ推論器301に入力され、手書サイ
ンの特徴手書データがファジィ推論機能によってBi
g,Smallの2つのグループに分けられ、前述した
学習時の場合と同様に、同一人物でも書く度に微妙に異
なる手書サインのブレが吸収される。次に、乗算手段3
02によって、ファジィ推論器301からの出力は、第
2の記憶手段214から取り出した結合荷重係数Wijと
掛け合わされ、加算手段303でその総和が演算され
る。そして、加算手段303にて演算された総和は、出
力層211に設定された内部関数により演算が施され
る。なお、出力層211に設定された内部関数は、数式
2に示されるようなシグモイド関数であり、図9(a)
に示される非線形関数である。
2から取り込んだ手書データを特徴抽出手段203に入
力し、この入力した手書データから特徴部分を抽出させ
る。なお、この特徴抽出手段203の作動は、前述した
学習時の作用と同一のものである。ステップ550にお
いては、特徴抽出手段203によって抽出されたサイン
の特徴要素を、切換手段218を切り換えることによっ
て、ファジィネット手段209に取り込ませる。ここ
で、ファジィネット手段209は、認識時の場合、ファ
ジィ推論部210(ファジィ推論器301、乗算器30
2、加算手段303)と出力層211とから構成され、
係数積算部213と比較部212とは使用しない。そし
て、ファジィネット手段209に入力されたサインの特
徴要素は、ファジィ推論器301に入力され、手書サイ
ンの特徴手書データがファジィ推論機能によってBi
g,Smallの2つのグループに分けられ、前述した
学習時の場合と同様に、同一人物でも書く度に微妙に異
なる手書サインのブレが吸収される。次に、乗算手段3
02によって、ファジィ推論器301からの出力は、第
2の記憶手段214から取り出した結合荷重係数Wijと
掛け合わされ、加算手段303でその総和が演算され
る。そして、加算手段303にて演算された総和は、出
力層211に設定された内部関数により演算が施され
る。なお、出力層211に設定された内部関数は、数式
2に示されるようなシグモイド関数であり、図9(a)
に示される非線形関数である。
【0052】
【数2】O=1/(1+e-s) 但し、O:出力、s:入力 上記シグモイド関数によれば、入力Sが大きいほど出力
Oは、1に近い値を取ることになる。したがって、サイ
ンの特徴手書データが入力され、それが正例として学習
されたものと近似であれば、ファジィネット手段209
からは1に近い値が出力され、それは、より真に近いこ
とを意味し、一方、負例として学習されたものと近似で
あれば、ファジィネット手段209からは0に近い値が
出力され、それはより偽に近いことを意味する。なお、
上記シグモイド関数の代わりに、図9(b)に示すよう
な、シグモイド関数を直線で近似、あるいは補間したよ
うな関数で置き換えてもよい。
Oは、1に近い値を取ることになる。したがって、サイ
ンの特徴手書データが入力され、それが正例として学習
されたものと近似であれば、ファジィネット手段209
からは1に近い値が出力され、それは、より真に近いこ
とを意味し、一方、負例として学習されたものと近似で
あれば、ファジィネット手段209からは0に近い値が
出力され、それはより偽に近いことを意味する。なお、
上記シグモイド関数の代わりに、図9(b)に示すよう
な、シグモイド関数を直線で近似、あるいは補間したよ
うな関数で置き換えてもよい。
【0053】こうして、ステップ560においては、フ
ァジィネット手段209で認識された結果を示す信号
が、表示手段216に伝達され、その真偽の結果やその
度合い等が表示されることで、サイン認識の処理動作を
終了する。なお、本実施例においては、2層のPerc
eptron構成のニューラルネットを採用したが、こ
れに限るものでなく、例えば、3層のBP(バックプロ
パゲーション)モデル等を採用しても良い。
ァジィネット手段209で認識された結果を示す信号
が、表示手段216に伝達され、その真偽の結果やその
度合い等が表示されることで、サイン認識の処理動作を
終了する。なお、本実施例においては、2層のPerc
eptron構成のニューラルネットを採用したが、こ
れに限るものでなく、例えば、3層のBP(バックプロ
パゲーション)モデル等を採用しても良い。
【0054】また、結合荷重係数Wijの更新について、
本実施例においては、Epochモードを使用したが、
例えばPatternモードを使用しても良い。但し、
本実施例のように、学習の収束が保証されている点で
は、Epochモードを使用することが望ましい。さら
に、ファジィ推論器301は、2つ以上のルールを保有
してもよい。
本実施例においては、Epochモードを使用したが、
例えばPatternモードを使用しても良い。但し、
本実施例のように、学習の収束が保証されている点で
は、Epochモードを使用することが望ましい。さら
に、ファジィ推論器301は、2つ以上のルールを保有
してもよい。
【図1】本発明の一実施例を示すブロック構成図であ
る。
る。
【図2】図1に示すファジィ推論部の詳細なブロック構
成図である。
成図である。
【図3】上記一実施例において学習時の作動を示すフロ
ーチャートである。
ーチャートである。
【図4】図1に示す特徴抽出手段の作動を示すフローチ
ャートである。
ャートである。
【図5】(a)及び(b)は、特徴要素を抽出する方法
を示す説明図である。
を示す説明図である。
【図6】図1に示すサンプル発生手段の作動を示すフロ
ーチャートである。
ーチャートである。
【図7】図1に示すファジィネット手段の作動を示すフ
ローチャートである。
ローチャートである。
【図8】上記一実施例において認識時の作動を示すフロ
ーチャートである。
ーチャートである。
【図9】(a)は図1に示すファジィネット手段の出力
層に設定されたシグモイド関数であり、(b)は(a)
に示すシグモイド関数を直線で近似した関数である。
層に設定されたシグモイド関数であり、(b)は(a)
に示すシグモイド関数を直線で近似した関数である。
【図10】従来技術を示すブロック構成図である。
202 入力手段 203 特徴抽出手段 204 サンプル発生手段 205 ファジィネット手段 215 学習制御手段
Claims (12)
- 【請求項1】 手書された手書サインを取り込み、この
取り込んだ手書サインに対応した手書データを出力する
入力手段と、 この入力手段から出力された前記手書データから特徴を
抽出し、その抽出した特徴から特徴手書データを出力す
る特徴抽出手段と、 前記特徴手書データを取り込み、この取り込んだ特徴手
書データに対し、各々異なる所定係数を掛け合わせるこ
とによって、本人の真の手書サインに相当する真のサン
プルデータ及び本人の真の手書サイン以外に相当する偽
のサンプルデータをそれぞれ複数生成するサンプル発生
手段と、 本人の真の手書サインであるか否かに対応して教師信号
を出力する学習制御手段と、 前記サンプル発生手段で複数生成された前記サンプルデ
ータを取り込み、このサンプルデータと前記教師信号と
を比較することで、より好ましい結合荷重係数を学習
し、この学習によって決定した結合荷重係数に基づい
て、新たに入力された手書サインの特徴手書データが、
前記本人の真の手書サインであるか否かを判断するニュ
ーラルネット手段と、 を備えたことを特徴とするサイン認識装置。 - 【請求項2】 前記サンプル発生手段は、 前記各々異なる所定係数を形成する乱数を発生する乱数
発生手段と、 この乱数発生手段で発生した乱数を選択する選択手段
と、 前記特徴手書データを取り込む手段と、 この取り込まれた特徴手書データと前記選択手段にて選
択された乱数とを掛け合わせることによって、前記複数
のサンプルデータを生成する掛け算手段と、 を備えたことを特徴とする請求項1記載のサイン認識装
置。 - 【請求項3】 前記選択手段は、前記真のサンプルデー
タを生成するための設定値及び前記偽のサンプルデータ
を生成するための設定値がそれぞれ設定されており、前
記学習制御手段からの教師信号に基づいて、いずれか一
方の設定値を判定し、この判定した設定値にしたがって
前記乱数を選択することを特徴とする請求項2記載のサ
イン認識装置。 - 【請求項4】 前記サンプル発生手段は、前記掛け算手
段にて掛け合わせた結果を一時的に記憶する第1の記憶
手段を備えたことを特徴とする請求項2記載のサイン認
識装置。 - 【請求項5】 前記ニューラルネット手段は、2層パー
セプトロン構成であることを特徴とする請求項1記載の
サイン認識装置。 - 【請求項6】 前記ニューラルネット手段は、 前記サンプルデータを所定の内部関数に基づいて演算す
る出力層を有し、前記学習を行う場合には、前記出力層
の前記内部関数を線形関数として、前記結合荷重係数を
学習して決定し、前記新たに入力された手書サインの特
徴データが、前記本人の真のサインであるか否かを判断
する場合には、前記出力層の前記内部関数を非線形関数
に切り換えることを特徴とする請求項1記載のサイン認
識装置。 - 【請求項7】 前記非線形関数は、シグモイド関数が設
定されていることを特徴とする請求項6記載のサイン認
識装置。 - 【請求項8】 前記ニューラルネット手段と前記サンプ
ル発生手段との間には、前記サンプル発生手段で生成さ
れた前記複数の前記サンプルデータを取り込んで、ファ
ジィ推論処理を行うファジィ推論部を備えたことを特徴
とするサイン認識装置。 - 【請求項9】 前記特徴抽出手段から出力された前記特
徴データが、前記サンプル発生手段および前記ニューラ
ルネット手段のいずれか一方に入力されるように切り換
える切換手段を、前記特徴抽出手段と前記サンプル発生
手段並びに前記ニューラルネット手段との間に備えるこ
とを特徴とする請求項1記載のサイン認識装置。 - 【請求項10】 前記新たに入力された手書サインが本
人の真の手書サインであるか否かを表示するとともに、
前記本人の真の手書サインを再生して表示する表示手段
を備えることを特徴とする請求項1記載のサイン認識装
置。 - 【請求項11】 手書された手書サインを取り込み、こ
の取り込んだ手書サインに対応した手書データを出力す
る入力手段と、 この入力手段から出力された前記手書データから特徴手
書データを抽出し、その特徴手書データを出力する特徴
抽出手段と、 本人の真の手書サイン及び真の手書サイン以外のサイン
に対応した教師信号を出力する学習制御手段と、 前記特徴手書データを取込み、この取込んだ特徴手書デ
ータを所定の内部関数に基づいて演算する出力層を有
し、この出力層で演算されたデータと前記教師信号とを
比較することで学習し、この学習によって新たに入力さ
れた手書サインの特徴手書データが、前記本人の真の手
書サインであるか否かを判断するニューラルネット手段
と、 を備えたサイン認識装置において、 前記ニューラルネット手段が、前記学習を行う場合に
は、前記出力層の前記内部関数を線形関数とし、前記新
たに入力された手書サインの特徴データが前記本人の真
のサインであるか否かを判断する場合には、前記出力層
の前記内部関数を非線形関数に切り換えるように設定す
る。 - 【請求項12】 前記非線形関数は、シグモイド関数が
設定されていることを特徴とする請求項11記載のサイ
ン認識装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6073400A JPH07282258A (ja) | 1994-04-12 | 1994-04-12 | サイン認識装置 |
US08/231,465 US5553156A (en) | 1994-04-12 | 1994-04-22 | Signature recognition apparatus which can be trained with a reduced amount of sample data |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6073400A JPH07282258A (ja) | 1994-04-12 | 1994-04-12 | サイン認識装置 |
US08/231,465 US5553156A (en) | 1994-04-12 | 1994-04-22 | Signature recognition apparatus which can be trained with a reduced amount of sample data |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07282258A true JPH07282258A (ja) | 1995-10-27 |
Family
ID=26414544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6073400A Pending JPH07282258A (ja) | 1994-04-12 | 1994-04-12 | サイン認識装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5553156A (ja) |
JP (1) | JPH07282258A (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19511470C1 (de) * | 1995-03-29 | 1996-10-24 | Siemens Ag | Verfahren zur Ermittlung eines Referenzschriftzuges anhand einer Menge von schreiberidentischen Musterschriftzügen |
US5705993A (en) * | 1995-07-14 | 1998-01-06 | Alesu; Paul | Authentication system and method |
AT2118U1 (de) * | 1996-12-17 | 1998-04-27 | Johann Fendt | Fehlertolerantes image - computerterminal |
CN1371504A (zh) * | 1999-01-13 | 2002-09-25 | 电脑相关想象公司 | 签名识别系统和方法 |
KR100416038B1 (ko) * | 2000-06-27 | 2004-01-31 | (주)패스싸인 | 다이나믹 프로그램과 뉴럴 네트워크를 이용한 전자서명인증방법 |
US6687390B2 (en) | 2001-12-04 | 2004-02-03 | Applied Neural Conputing Ltd. | System for and method of web signature recognition system based on object map |
GB0201232D0 (en) * | 2002-01-19 | 2002-03-06 | Queen Mary & Westfield College | Authentication systems |
US7130776B2 (en) * | 2002-03-25 | 2006-10-31 | Lockheed Martin Corporation | Method and computer program product for producing a pattern recognition training set |
KR100453687B1 (ko) * | 2002-07-13 | 2004-10-20 | 한국전자통신연구원 | 극점간의 매핑을 이용한 온라인 서명인증장치 및 그 방법 |
US20070177773A1 (en) * | 2006-01-31 | 2007-08-02 | International Business Machines Corporation | Method and apparatus for rolling enrollment for signature verification |
CN101763596A (zh) * | 2009-12-25 | 2010-06-30 | 鸿富锦精密工业(深圳)有限公司 | 数字签章系统及方法 |
US20160146725A1 (en) * | 2014-11-21 | 2016-05-26 | Michael Bornstein Cbcs Comics | System and method for signature verification |
US20160344558A1 (en) * | 2015-05-20 | 2016-11-24 | Donald Gene Archer | System and Method for Obtaining Authorization |
JP6658033B2 (ja) * | 2016-02-05 | 2020-03-04 | 富士通株式会社 | 演算処理回路、および情報処理装置 |
CN109858488B (zh) * | 2018-12-28 | 2021-09-17 | 众安信息技术服务有限公司 | 一种基于样本增强的手写样本识别方法与系统 |
CN110287840B (zh) * | 2019-06-17 | 2023-03-24 | 上海理工大学 | 手写图像识别方法 |
CN114882600B (zh) * | 2022-06-10 | 2024-09-06 | 西安电子科技大学 | 基于元学习的在线手写签名认证方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4979126A (en) * | 1988-03-30 | 1990-12-18 | Ai Ware Incorporated | Neural network with non-linear transformations |
US5073867A (en) * | 1989-06-12 | 1991-12-17 | Westinghouse Electric Corp. | Digital neural network processing elements |
US5271090A (en) * | 1990-03-21 | 1993-12-14 | At&T Bell Laboratories | Operational speed improvement for neural network |
US5161204A (en) * | 1990-06-04 | 1992-11-03 | Neuristics, Inc. | Apparatus for generating a feature matrix based on normalized out-class and in-class variation matrices |
US5390261A (en) * | 1991-05-13 | 1995-02-14 | Huang; Yee-Wei | Method and apparatus for pattern classification using distributed adaptive fuzzy windows |
US5359699A (en) * | 1991-12-02 | 1994-10-25 | General Electric Company | Method for using a feed forward neural network to perform classification with highly biased data |
-
1994
- 1994-04-12 JP JP6073400A patent/JPH07282258A/ja active Pending
- 1994-04-22 US US08/231,465 patent/US5553156A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US5553156A (en) | 1996-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH07282258A (ja) | サイン認識装置 | |
Várkonyi-Kóczy et al. | Human–computer interaction for smart environment applications using fuzzy hand posture and gesture models | |
WO2021143101A1 (zh) | 人脸识别方法和人脸识别装置 | |
US5619619A (en) | Information recognition system and control system using same | |
JP4546157B2 (ja) | 情報処理方法、情報処理装置、撮像装置 | |
KR100320063B1 (ko) | 패턴인식장치 | |
JP4708278B2 (ja) | タッチパネルシステム及びその動作方法 | |
JP2761391B2 (ja) | 焦点検出装置 | |
CN111327828B (zh) | 拍照方法、装置、电子设备及存储介质 | |
JP2010134957A (ja) | パターン認識方法 | |
US7310446B2 (en) | Recognition device and method | |
CN109978870A (zh) | 用于输出信息的方法和装置 | |
CN112561801A (zh) | 基于se-fpn的目标检测模型训练方法、目标检测方法及装置 | |
CN116486233A (zh) | 一种多光谱双流网络的目标检测方法 | |
JP7552287B2 (ja) | 物体検出方法、物体検出装置、及び、コンピュータープログラム | |
Nie | Research on facial expression recognition of robot based on CNN convolution neural network | |
Shinde et al. | Feedforward back propagation neural network (FFBPNN) based approach for the identification of handwritten math equations | |
JPH05265369A (ja) | 学習装置 | |
JP2961706B2 (ja) | 病気の重度診断装置 | |
JPH0696220A (ja) | 階層型ニューラルネットワークを用いた物体認識方式 | |
JP2642491B2 (ja) | 商品仕様決定方法、並びに商品仕様決定見積方法とその装置 | |
Kozan et al. | Possibilities of using the dermatoglyphic method to identify an unknown person (literature review) | |
JPH02210589A (ja) | 文字認識装置 | |
JPH0233687A (ja) | マルチフォント文字認識用ニューラルネットワーク学習方法 | |
JPH02165285A (ja) | パターン認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20031028 |