JP3640137B2 - Bill discrimination device and recording medium - Google Patents

Bill discrimination device and recording medium Download PDF

Info

Publication number
JP3640137B2
JP3640137B2 JP02005598A JP2005598A JP3640137B2 JP 3640137 B2 JP3640137 B2 JP 3640137B2 JP 02005598 A JP02005598 A JP 02005598A JP 2005598 A JP2005598 A JP 2005598A JP 3640137 B2 JP3640137 B2 JP 3640137B2
Authority
JP
Japan
Prior art keywords
denomination
feature amount
banknote
unit
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02005598A
Other languages
Japanese (ja)
Other versions
JPH11219461A (en
Inventor
和広 土屋
晴幸 松本
東洋史 門崎
達也 古井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Retail Systems Co Ltd
Original Assignee
Fuji Electric Retail Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Retail Systems Co Ltd filed Critical Fuji Electric Retail Systems Co Ltd
Priority to JP02005598A priority Critical patent/JP3640137B2/en
Publication of JPH11219461A publication Critical patent/JPH11219461A/en
Application granted granted Critical
Publication of JP3640137B2 publication Critical patent/JP3640137B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は紙幣鑑別装置および記録媒体に関し、特に、紙幣の種類とその真贋を鑑別する紙幣鑑別装置、および、紙幣鑑別処理をコンピュータに実行させるためのプログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
例えば、現金自動支払機(CD:Cash Dispenser )や両替機において、投入された紙幣の真贋判定を行うためには、以下の処理を行う必要がある。
(1)投入された紙幣の方向の判別
(2)投入された紙幣の金種の判別
(3)投入された紙幣の真贋の判別
従来においては、例えば、投入された紙幣の特徴量を抽出し、抽出された特徴量とデータベースに登録されている基準となるデータとを比較して類似度を算出することにより以上の処理を行っていた。
【0003】
ところで、抽出した特徴量と登録されている既知のデータとを照合する、いわゆるパターン認識処理では、認識精度を向上させるためには、多数の特徴量を使用する必要がある。特に、紙幣の真贋判定などでは、非常に高い認識精度が要求されるため、従来の方法では、認識の精度を向上させるために多数の特徴量を用いて比較処理を行う必要が生じ、その結果、処理に多大な時間が必要となっていた。
【0004】
近年、神経細胞(ニューロン)の構造や動作をハードウエアやソフトウエアによってシミュレートし、人間の脳が実行している高度な情報処理を工学的に実現しようとするニューラルネットワークと呼ばれる技術が実用化されつつある。
【0005】
このようなニューラルネットワークは、非線形素子であるニューロンを階層的に接続し、各層間のニューロンのシナプスの重み値を学習によって決定することにより、高度な処理を実現するものである。
【0006】
【発明が解決しようとする課題】
しかし、ニューラルネットワークでは、一般に、基準となるデータ(学習対象のデータ)が多数になると認識の精度が低下することが知られている。
【0007】
紙幣の鑑別では、前述の(1)〜(3)の処理である、投入される紙幣の方向の判別(表裏および左右の判別)、金種の判別(日本銀行券では1000円札、5000円札、10000円札、および、それらの新旧券)、および、贋札と真札との判別を行う必要がある。
【0008】
ところで、近年では、コピー技術の進歩によって、精巧な贋札を簡単に製造することが可能となっている。従って、第3番目の真贋を正確に判別するためには、たくさんの学習対象となるデータ(種々の贋札のデータ)に対する学習処理が必要となる。
【0009】
従って、前述の(1)〜(3)の処理を正確に行うためには、ニューラルネットワークの内部パラメータの数が膨大となり、その開発に多大な時間を要するとともに、開発コストが非常に高くつくという課題があった。
【0010】
本発明はこのような点に鑑みてなされたものであり、紙幣の鑑別を正確に行うことが可能な紙幣鑑別装置と、コンピュータにそのような紙幣鑑別処理を実行させるプログラムが記録された記録媒体を提供することを目的とする。
【0011】
また、本発明は、開発の時間とコストを低減することが可能な紙幣鑑別装置と、コンピュータにそのような紙幣鑑別処理を実行させるプログラムが記録された記録媒体を提供することを目的とする。
【0012】
【課題を解決するための手段】
本発明では上記課題を解決するために、紙幣の種類とその真贋を鑑別する紙幣鑑別装置において、前記紙幣からの光に対応する画像信号を入力する画像信号入力手段と、前記画像入力手段から入力された画像信号から、第1の特徴量を抽出する第1の特徴量抽出手段と、前記第1の特徴量抽出手段によって抽出された第1の特徴量に対して所定の処理を施すことにより、金種を判定する金種判定手段と、前記金種判定手段の判定結果に応じて、前記画像信号から第2の特徴量を抽出する第2の特徴量抽出手段と、ニューラルネットワークによって構成され、前記第2の特徴量抽出手段によって抽出された第2の特徴量から、紙幣の真贋を判定する真贋判定手段と、前記ニューラルネットワークのパラメータを、前記金種判定手段の判定結果に応じて設定するパラメータ設定手段と、を有することを特徴とする紙幣鑑別装置が提供される。
【0013】
ここで、画像入力手段は、紙幣からの光に対応する画像信号を入力する。第1の特徴量抽出手段は、画像入力手段から入力された画像信号から、第1の特徴量を抽出する。金種判定手段は、第1の特徴量抽出手段によって抽出された第1の特徴量に対して所定の処理を施すことにより、金種を判定する。第2の特徴量抽出手段は、金種判定手段の判定結果に応じて、画像信号から第2の特徴量を抽出する。真贋判定手段は、ニューラルネットワークによって構成され、第2の特徴量抽出手段によって抽出された第2の特徴量から、紙幣の真贋を判定する。パラメータ設定手段は、ニューラルネットワークのパラメータを、金種判定手段の判定結果に応じて設定する。
【0014】
例えば、画像入力手段は、紙幣を透過した光を入力し、第1の抽出手段は、入力された画像信号から複数の領域を特徴量として抽出する。金種判定手段は、第1の特徴量抽出手段によって抽出された特徴量をニューラルネットワークに入力することにより、紙幣の金種と方向を判定する。第2の特徴量抽出手段は、金種判定手段によって判明した金種に応じた領域を画像信号から抽出する。パラメータ設定手段は、金種判定手段によって判明した金種に応じたパラメータを記憶部より読み出し、真贋判定手段に供給する。真贋判定手段は、第2の特徴量抽出手段によって抽出された、各金種に対応する領域の特徴量を読み込むともに、パラメータ設定手段によって設定されたパラメータを有するニューラルネットワークにより、紙幣の真贋を判定する。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の原理を説明する原理図である。この図において、画像信号入力手段1は、紙幣の画像信号iを入力する。第1の特徴量抽出手段2は、紙幣の画像信号iから特徴量を抽出する。
【0016】
金種判定手段3は、第1の特徴量抽出手段2によって抽出された特徴量に対して所定の処理を施すことにより、その紙幣の金種(例えば、日本銀行券では、1000円、5000円、10000円、および、それらの新旧紙幣)を判定する。
【0017】
方向判定手段4は、第1の特徴量抽出手段2によって抽出された特徴量に対して所定の処理を施すことにより、画像信号入力手段1から入力された紙幣の方向(表裏および左右)を判定する。
【0018】
パラメータ設定手段5は、金種判定手段3の処理の結果判明した紙幣の金種に対応するパラメータを、真贋判定手段8に対して供給する。
第2の特徴量抽出手段6は、金種判定手段3の処理の結果判明した紙幣の金種に対応する領域の特徴量を抽出する。
【0019】
並べ替え手段7は、方向判定手段4の処理の結果判明した紙幣の方向に対応して第2の特徴量抽出手段6が抽出した特徴量を並べ替え、真贋判定手段8に供給する。
【0020】
真贋判定手段8は、例えば、積和演算処理を行うニューラルネットワーク等によって構成されており、パラメータ設定手段5から供給されたパラメータ(紙幣の画像信号iの金種に対応したパラメータ)に基づき、並べ替え手段7から供給された特徴量に対して所定の処理を施し、紙幣の真贋(真札であるか否か)を判定する。
【0021】
以上のような構成によれば、紙幣の真贋の判定処理を他の処理(紙幣の方向の判別処理と紙幣の金種の判別処理)とは別に実行するようにし、また、金種判定手段3によって判明した金種に対応するパラメータに基づいて真贋処理を行うようにしたので、紙幣の鑑別精度を向上させることが可能となる。
【0022】
図2は、本発明の実施の形態の構成例を示す図である。この実施の形態は、例えば、現金自動支払機や両替機などのように、紙幣の鑑別を必要とする装置に実装される。なお、この図と図1の原理図との対応関係を以下に示す。
【0023】
画像信号入力手段1には、画像信号入力部11が対応している。第1の特徴量抽出手段2には、第1の特徴量抽出部12が対応している。金種判定手段3には、金種・方向判定部13が対応している。
【0024】
方向判定手段4には、金種・方向判定部13が対応している。パラメータ設定手段5には、パラメータ設定部15とデータベース21とが対応している。第2の特徴量抽出手段6には、第2の特徴量抽出部16が対応している。
【0025】
並べ替え手段7には、並べ替え部17が対応している。更に、真贋判定手段8には、真贋判定部18が対応している。
次に、以上の実施の形態の構成例について説明する。
【0026】
画像信号入力部11は、例えば、図3に示すような構成とされており、現金自動支払機や両替機の紙幣投入部の内側に設けられている。投入された紙幣50は、上部部材40および下部部材41によってその上下面を構成されている通路42内を一定の方向に搬送される。発光部44は、下部部材41に形成された凹部43内に配置され、制御信号44iに応じて赤色または緑色の光を放射する。フィルタ45は、発光部44から照射される光の面内強度分布が一様となるようにする。
【0027】
レンズ47は、紙幣50を透過した光(発光部44からの光)を、CCD(Charge Coupled Device )イメージセンサ48の受光面に収束させる。CCDイメージセンサ48は、レンズ47によって収束された、紙幣の光画像を対応する画像信号48iに変換して出力する。
【0028】
図4は、図3に示す光学系の構成の概要を説明する図である。この図に示すように、発光部44は、緑(G)色および赤(R)色の波長帯域の光を放射する2種類のLED(Light Emitting Diode)が交互に配置されて形成されている。
【0029】
発光部44の緑色または赤色のLEDより射出された光は、フィルタ45により面内強度分布が一様となるように調節された後、紙幣50に照射される。紙幣50に照射された光のうち、紙幣50を透過した光は、レンズ47に入射され、CCDイメージセンサ48の受光面に収束される。CCDイメージセンサ48は、収束された紙幣50の光画像を対応する画像信号48iに変換して出力する。
【0030】
なお、緑色および赤色のLEDは、1ライン分だけ紙幣50が搬送された後に、例えば、緑色、赤色の順に点灯される。そして、1ライン分の走査が完了すると、紙幣50が更に1ライン分だけ搬送され、同様の動作が繰り返されることになる。
【0031】
その結果、画像入力部11からは、紙幣50の1ライン分の画像信号が、緑色、赤色の順に出力されることになる。
第1の特徴量抽出部12は、画像信号入力部11から入力された緑色および赤色の画像信号から特徴量を抽出して出力する。
【0032】
金種・方向判定部13は、ニューラルネットワークによって構成されており、第1の特徴量抽出部12によって抽出された特徴量に対して積和演算を施すことにより、紙幣の金種と、その投入方向とを判定して出力する。
【0033】
第2の特徴量抽出部16は、金種・方向判定部13によって判明した金種に対応する領域(各金種毎に定められている特定の領域)から特徴量を抽出する。
並べ替え部17は、金種・方向判定部13によって判明した紙幣の投入方向に対応して、第2の特徴量抽出部16によって抽出された特徴量の順序を並べ替えて真贋判定部18に供給する。
【0034】
検証部19は、第1の特徴量抽出部12によって抽出された特徴量に所定の処理を施して得られたデータと、データベース20に記録されている基準データとを比較し、金種・方向判定部13の判定結果が正しいか否かを検証する。
【0035】
パラメータ設定部15は、金種・方向判定部13によって判明した金種に対応するパラメータ(真贋判定用のパラメータ)をデータベース21から読み出して、真贋判定部18に供給する。
【0036】
真贋判定部18は、ニューラルネットワークによって構成され、パラメータ設定部15から供給された金種毎のパラメータに応じた積和演算を、並べ替え部17から供給された特徴量に対して施すことにより、投入された紙幣の真贋を判定し、判定結果を出力する。
【0037】
検証部22は、第2の特徴量抽出部16によって抽出された特徴量に所定の処理を施して得られたデータと、データベース23に記録されている基準データとを比較し、真贋判定部18の判定結果が正しいか否かを検証する。
【0038】
次に、以上の実施の形態の動作を図5に示すフローチャートを参照して説明する。
図5は、図2に示す実施の形態において実行される処理の一例を示す図である。このフローチャートが開始されると、以下に示す処理が実行されることになる。
[S1]第1の特徴量抽出部12は、画像信号入力部11から入力された、紙幣の画像信号から特徴量を抽出する。
【0039】
図6は、特徴量の抽出方法の一例を示す図である。この図に示すように、画像信号入力部11から入力された緑色と赤色の画像信号は、51の領域にそれぞれ分割された後、各領域から所定の条件を満たす複数の画素が選択され、その画素の画素値の平均を求めることにより特徴量が抽出される。例えば、第1番目に示されている項目では、51の領域のそれぞれにおいて、透光画素(紙幣以外の部分を透過した光に対応する画素)および明画素(紙幣のピンホール等を透過した光に対応する画素)を除く全ての画素群のうち、その値が上位5番目から下位5番目までの間に位置する画素値の平均を算出する。このようにして得られた、抽出項目「平均」、「最小」、および、「最大」は、以下に示す式によって正規化された後、金種・方向判定部13に供給されることになる。ここで、全領域明度平均値は、各色の画像の全領域明度の平均値である。なお、以下の式では、「平均」の正規化値についてのみ示してあるが、「最小」および「最大」についても同様の式により正規化を行う。また、以降の説明における特徴量とは、式(1)によって正規化された正規化値を示すものとする。
【0040】
【数1】

Figure 0003640137
【0041】
また、第1の特徴量抽出部12は、画像信号入力部11から入力された画像信号に対して所定の処理を施すことにより、図7に示すような、紙幣の長手長と短手長とを取得した後、これらの値を正規化して金種・方向判定部13に対して供給する。
[S2]金種・方向判定部13は、第1の特徴量抽出部12によって抽出された特徴量に対して積和演算を施すことにより、投入された紙幣の金種と投入方向とを判定し、得られた結果を出力する。
【0042】
図8は、金種・方向判定部13の構成の概要を説明する図である。この図に示すように、金種・方向判定部13は、いわゆるニューラルネットワークによって構成されている。入力された特徴量(特徴量1〜特徴量n)は、第1層(入力層)のニューロンに供給される。第1層のニューロンと第2層(中間層)のニューロンは、それぞれが固有の重みを有する複数のシナプスによって接続されているので、第1層に入力された各特徴量に所定の重み値ωが乗算されて第2層のニューロンに伝達される。第2層のニューロンは、単調増加の関数(階段状の非連続関数を含む)であり、シナプスから入力される値の総和値に応じた出力を発生する。同様の動作は第3層(出力層)のニューロンにおいても行われ、判定結果としての出力信号が、各ニューロンから出力されることになる。この図に示す例では、投入された紙幣と方向との全ての組み合わせが、第3層のニューロンのそれぞれに対して割り振られている。従って、旧千円札がA方向(詳細は後述する)で投入された場合には、図中左端のニューロンが最も大きい出力を発生することになる。
【0043】
なお、このようなニューラルネットワークのパラメータは、別の装置(例えば、大型計算機)などを用いて、各金種と方向毎に行う。
[S3]金種・方向判定部13は、ステップS2における判別処理に成功したか否かを判定する。
【0044】
即ち、理想的には、第3層のニューロンのうち、単一のニューロンのみが出力を発生することが望ましいが、種々の誤差等に起因して複数のニューロンが出力を発生する場合が生ずる。そのような場合には、例えば、(第2位の出力値/第1位の出力値)<0.4であるか否かを判定する。その結果、前述の条件を満足する場合にはステップS4に進み、また、満足しない場合にはステップS13に進む。
[S4]金種・方向判定部13は、更に、第3層のニューロンの出力に対して以下の処理を施すことにより、金種と方向を確定可能であるかを判定する。
【0045】
即ち、第3層のニューロンの出力のうちの第1位の出力が値(A1(K,H))よりも大きく、かつ、第2位の出力が値(A2(K,H))よりも小さいか否かを判定する。なお、A1(K,H)およびA2(K,H)は、金種・方向判定部13によって判定された金種Kおよび方向Hに対応する基準値であり、許容される誤差等に応じて決定する。
【0046】
その結果、これら2つの条件を双方とも満足する場合にはステップS5に進み、また、それ以外の場合にはステップS13に進む。
[S5]検証部19は、金種・方向判定部13によって判明した紙幣の方向に応じて、第1の特徴量抽出部12から供給される特徴量を並べ替える。
【0047】
即ち、以降で実施する特徴量距離2乗値算出のための基準値(平均値と分散値)を4方向で共通化して距離2乗値の信頼性を向上(方向による差異を解消)させるために並べ換え処理を行う。即ち、複数の領域の特徴量は、一定の順序で抽出されることから、投入方向によって同一の特徴量の出力順序が異なることを防止するためである。
【0048】
なお、特徴量並べ替えのルールは、次に示す前提に基づいている。
(1)第1の特徴量抽出部12によって抽出される領域は、紙幣中央を中心として上下左右対称に配置されている。
(2)同じ紙幣に対しては、投入方向に拘わらず、得られる画像の内容は同一である。
【0049】
ここで、本実施の形態では、第1の特徴量抽出部12によって抽出される領域は、紙幣中央を中心として上下左右対称であるので、第1の前提条件は満足している。
【0050】
また、本実施の形態では、透過型の画像信号入力部11を用いているので、第2の前提条件も満足される。
次に、並べ替え処理の詳細について以下に述べる。
【0051】
いま、投入された紙幣が図9に示すようなものであるとする。ここで、図9(A)を表(おもて)面とし、図9(B)を裏(うら)面とする。この場合において、この紙幣の投入される方向の全ての場合は、図10に示す4通りとなる。
【0052】
即ち、A方向は、表面を上側(CCDイメージセンサ48側)に向け、図9(A)に示す紙幣の左側を先に投入した場合である。B方向は、表面を上側(CCDイメージセンサ48側)に向け、図9(A)に示す紙幣の右側を先に投入した場合である。また、C方向は、裏面を上側(CCDイメージセンサ48側)に向け、図9(B)に示す紙幣の左側を先に投入した場合である。更に、D方向は、裏面を上側(CCDイメージセンサ48側)に向け、図9(B)に示す紙幣の右側を先に投入した場合である。
【0053】
第1の特徴量抽出部12は、図10に示すように、入力された画像信号から、5つの領域(領域1〜領域5)の特徴量を順次(領域1〜領域5の順に)抽出する。なお、これらの領域は、前述のように、上下左右対称に配置されており、また、それぞれの領域からは、緑色と赤色の画像の双方が取得される。
【0054】
従って、抽出される特徴量は、図11に示すように、紙幣の投入される方向によって異なることになる。例えば、A方向を基準とした場合、B方向に紙幣が投入された場合には、領域1〜領域5から抽出される模様は、緑模様3,4,1,2, 5の順番に抽出されることになる。なお、赤色の画像の場合も図11の場合と同様である。
【0055】
検証部19は、以上のようにして抽出された特徴量を、以下の規則に従って並べ替える。
(1)紙幣の投入方向がA方向の場合は並べ替えを行わない。
(2)紙幣の投入方向がB方向の場合は、紙幣の中央を中心として180度回転した並びに変更する。
(3)紙幣の投入方向がC方向の場合は、紙幣の短手方向中央を中心として、短手方向に反転した並びに変更する。
(4)紙幣の投入方向がD方向の場合は、紙幣の長手方向中央を中心として、長手方向に反転した並びに変更する。
【0056】
以上の処理の結果得られる特徴量を図12に示す。この図に示すように、例えば、紙幣の投入方向がB方向である場合には、緑特徴量3(領域3から抽出された特徴量)が最初に出力され、以下、緑特徴量4,1,2,5の順に出力されることになる。
[S6]検証部19は、データベース20に格納されている、各金種毎の特徴量の平均値と、ステップS5の処理によって適宜並べ替えられた特徴量とのずれ(模様距離2乗値)を、緑模様および赤模様の平均、最小、最大のそれぞれについて算出する。
【0057】
なお、距離2乗値を算出する場合に用いる式を以下に示す。
【0058】
【数2】
Figure 0003640137
【0059】
【数3】
Figure 0003640137
【0060】
【数4】
Figure 0003640137
【0061】
【数5】
Figure 0003640137
【0062】
【数6】
Figure 0003640137
【0063】
【数7】
Figure 0003640137
【0064】
ここで、変数Kは、金種・方向判定部13によって判定された金種を示している。また、変数nは、模様の種類(模様1〜模様N)の何れであるかを示す。また、平均値A(K,n)と分散値S(K,n)とは、データベース20に格納されている。なお、以上の式(2)〜式(7)に現れる各式は、以下のように定義される。
R(緑,n,平均):鑑別紙幣の金種Kに対する緑模様nの平均の距離2乗値
R(緑,n,最小):鑑別紙幣の金種Kに対する緑模様nの最小の距離2乗値
R(緑,n,最大):鑑別紙幣の金種Kに対する緑模様nの最大の距離2乗値
R(赤,n,平均):鑑別紙幣の金種Kに対する赤模様nの平均の距離2乗値
R(赤,n,最小):鑑別紙幣の金種Kに対する赤模様nの最小の距離2乗値
R(赤,n,最大):鑑別紙幣の金種Kに対する赤模様nの最大の距離2乗値
V(緑,n,平均):鑑別紙幣の緑模様nの平均
V(緑,n,最小):鑑別紙幣の緑模様nの最小
V(緑,n,最大):鑑別紙幣の緑模様nの最大
V(赤,n,平均):鑑別紙幣の赤模様nの平均
V(赤,n,最小):鑑別紙幣の赤模様nの最小
V(赤,n,最大):鑑別紙幣の赤模様nの最大
A(K,緑,n,平均):金種Kの緑模様nの平均の平均値
A(K,緑,n,最小):金種Kの緑模様nの最小の平均値
A(K,緑,n,最大):金種Kの緑模様nの最大の平均値
A(K,赤,n,平均):金種Kの赤模様nの平均の平均値
A(K,赤,n,最小):金種Kの赤模様nの最小の平均値
A(K,赤,n,最大):金種Kの赤模様nの最大の平均値
S(K,緑,n,平均):金種Kの緑模様nの平均の分散値
S(K,緑,n,最小):金種Kの緑模様nの最小の分散値
S(K,緑,n,最大):金種Kの緑模様nの最大の分散値
S(K,赤,n,平均):金種Kの赤模様nの平均の分散値
S(K,赤,n,最小):金種Kの赤模様nの最小の分散値
S(K,赤,n,最大):金種Kの赤模様nの最大の分散値
σ(K,緑,n,平均):金種Kの緑模様nの平均の標準偏差
σ(K,緑,n,最小):金種Kの緑模様nの最小の標準偏差
σ(K,緑,n,最大):金種Kの緑模様nの最大の標準偏差
σ(K,赤,n,平均):金種Kの赤模様nの平均の標準偏差
σ(K,赤,n,最小):金種Kの赤模様nの最小の標準偏差
σ(K,赤,n,最大):金種Kの赤模様nの最大の標準偏差
[S7]検証部19は、ステップS6において算出された距離2乗値の中から最大のものを探索する処理を実行する。なお、この処理の詳細については、図13を参照して後述する。
【0065】
即ち、R(緑,n,平均)、R(緑,n,最小)、R(緑,n,最大)、R(赤,n,平均)、R(赤,n,最小)、および、R(赤,n,最大)の中で、最大値Rmax を有するものを探索する。
[S8]検証部19は、ステップS7の処理により得られた最大値Rmax を取得する。
[S9]検証部19は、ステップS8において取得された最大値Rmax が閾値Dth1 よりも小さいか否かを判定する。なお、この閾値Dth1 としては、例えば、値25などを用いる。
[S10]検証部19は、距離2乗値の総和値Rsum を算出する。なお、このRsum は、以下の式により得られたRsum (緑、平均)、Rsum (緑、最小)、Rsum (緑、最大)、Rsum (赤、平均)、Rsum (赤、最小)、および、Rsum (赤、最大)を全て加算して得られる値を示している。
【0066】
【数8】
Figure 0003640137
【0067】
【数9】
Figure 0003640137
【0068】
【数10】
Figure 0003640137
【0069】
【数11】
Figure 0003640137
【0070】
【数12】
Figure 0003640137
【0071】
【数13】
Figure 0003640137
【0072】
[S11]検証部19は、ステップS10において算出された距離2乗値の総和値Rsum が所定の閾値Dth2 よりも小さいか否かを判定する。その結果、Rsum がDth2 よりも小さい場合はステップS12に進み、それ以外の場合にはステップS13に進む。
[S12]検証部19は、検証結果を、例えば、図示せぬ制御部に対して出力する。その結果、制御部は、図14に示す処理(真贋判定処理)を実行することになる。
[S13]図示せぬ制御部は、投入された紙幣の判別処理が正常に実行できなかったことを示すメッセージを出力する。
【0073】
次に、図13を参照して、図5のステップS7に示す処理の詳細について説明する。この処理は、距離2乗値の最大値を探索するものである。このフローチャートが開始されると、以下の処理が実行されることになる。
[S31]検証部19は、色(緑または赤)を表す変数cを値1に初期設定し、また、変数nおよび変数mも同様に値1に初期設定する。なお、cの値が“1”および“2”の場合は、それぞれ“緑”と“赤”とに対応している。また、nの値は緑色または赤色の模様(模様1〜模様Nの何れか)を示す。更に、変数mの値が“1”,“2”,“3”の場合は、それぞれ、“平均”、“最小”、“最大”を示している。
[S32]検証部19は、Rmax に初期値として配列Rの最初の値R(1,1,1)を代入する。なお、R(1,1,1)は、R(緑, 緑模様1,平均)に対応している。
[S33]検証部19は、Rmax の値がR(c,n,m)の値よりも大きいか否かを判定し、その結果、大きい場合にはステップS34に進み、そうでない場合にはステップS35に進む。
[S34]検証部19は、Rmax にR(c,n,m)の値を代入する。
[S35]検証部19は、変数mの値を1だけインクリメントする。
[S36]検証部19は、mの値が3以下である場合にはステップS33に戻り、その他の場合にはステップS37に進む。
[S37]検証部19は、変数mに値1を代入する。
[S38]検証部19は、変数nの値を1だけインクリメントする。
[S39]検証部19は、nの値がN(模様の種類)以下である場合にはステップS33に戻り、その他の場合にはステップS40に進む。
[S40]検証部19は、変数nに値1を代入する。
[S41]検証部19は、変数cの値を1だけインクリメントする。
[S41]検証部19は、cの値が2以下である場合にはステップS33に戻り、その他の場合には処理を終了する。
【0074】
以上の処理によれば、距離2乗値の中から最大の値を有するものが抽出されることになる。
次に、図14を参照して、真贋判定部18と検証部22において実行される処理について説明する。このフローチャートが開始されると、以下に示す処理が実行されることになる。
[S61]第2の特徴量抽出部16は、金種・方向判定部13によって判明した金種に対応する領域の特徴量を画像信号入力部11から入力された画像信号から抽出する。
[S62]特徴量並べ替え部17は、金種・方向判定部13によって判明した方向に対応して、第2の特徴量抽出部16によって抽出された特徴量を並べ替える。なお、この並べ替えの方法は、図5のステップS5の処理と同様である。
[S63]真贋判定部18は、金種・方向判定部13によって判明した金種に対応するパラメータを、パラメータ設定部15を介してデータベース21から取得する。そして、並べ替え部17から供給される特徴量に対して、積和演算を行い、投入された紙幣の真贋を判定する。
【0075】
図15は、真贋判定部18の構成の概要を説明する図である。この図に示すように、真贋判定部18は、ニューラルネットワークによって構成されており、入力された特徴量に対して積和演算を施すことにより、紙幣の真贋を判定する。
【0076】
なお、このようなニューラルネットワークのパラメータ(データベース21に格納されているパラメータ)の学習処理は、他の装置(例えば、大型コンピュータなど)を用いて各金種毎に行う。
[S64]真贋判定部18は、判定に成功したか否かを判定する。
【0077】
即ち、真贋判定部18は、ニューロンの出力の最大値が、最大出力値の70%以上であり、かつ、ニューロンの出力の第2番目の値が、最大出力値の30%以下である場合には、金種・方向判定部13によって判定された金種の紙幣の真札であると判定する。
[S65]検証部22は、並べ替え部17から供給された特徴量から、特徴量距離2乗値を算出する。
【0078】
即ち、検証部22は、以下の式により、特徴量距離2乗値を算出する。
【0079】
【数14】
Figure 0003640137
【0080】
ここで、各変数は、以下のように定義される。
K :金種・方向判定部13によって判明した金種
R(n):鑑別紙幣の模様nの距離2乗値
V(n):鑑別紙幣の模様nの特徴量
A(K,n):金種K,模様nの特徴量の平均値
S(K,n):金種K,模様nの特徴量の分散値
なお、r(n)、および、σ(K,n)を以下のように定義したとき、R(n)=r(n)2 によって表すことができる。
【0081】
【数15】
Figure 0003640137
【0082】
ここで、r(n)およびσ(K,n)は、以下のように定義される。
r(n) :鑑別紙幣の模様nの距離値
σ(K,n):金種K,模様nの標準偏差
なお、S(K,n)=σ(K,n)2 である。
[S66]検証部22は、距離2乗値の最大値(最大値を有する模様)を探索する。この処理は、図5に示すステップS7の処理と同様であるのでその説明は省略する。なお、この処理の結果取得される模様は、金種・方向判定部13によって判明した金種の基準からもっともずれているものである。
[S67]検証部22は、ステップS66において探索した距離2乗値の最大値Rmax を取得する。
[S68]検証部22は、取得され距離2乗値の最大値Rmax が所定の閾値Dth1 よりも小さい場合には、ステップS69に進み、そうでない場合には、ステップS72に進む。
[S69]検証部22は、距離2乗値の総和値Rsum を求める。
【0083】
即ち、検証部22は、以下の式に基づいて総和値Rsum を算出する。
【0084】
【数16】
Figure 0003640137
【0085】
ここで、R(n)は、鑑別紙幣の模様の距離2乗値であり、また、Nは模様数を示している。
[S70]検証部22は、距離2乗の総和値Rsum が所定の閾値Dth2 よりも小さい場合にはステップS71に進み、また、そうでない場合にはステップS72に進む。
[S71]真贋判定部18は、判定結果を出力する。
[S72]図示せぬ制御部は、投入された紙幣の鑑別が不可能であることを示すメッセージを出力する。
【0086】
以上の処理によれば、金種に応じたパラメータにより、紙幣の真贋を判定するようにしたので、正確に判定を行うことが可能となる。
これまで示してきたように、以上の実施の形態によれば、金種および方向の判定処理と、真贋の判定処理とを分離して行うようにしたので、それぞれの処理を正確に実行することが可能となる。
【0087】
また、真贋の判定処理では、金種判定部13によって判明した金種に対応するパラメータに基づく処理を行うようにしたので、真贋処理を正確に実行することが可能となる。
【0088】
更に、検証部19,22により、ニューラルネットワークの判定結果を検証するようにしたので、誤った判定結果が出力されることを防止することが可能となる。
【0089】
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、紙幣鑑別装置が有すべき機能の処理内容は、コンピュータで読み取り可能な記録媒体に記録されたプログラムに記述されており、このプログラムをコンピュータで実行することにより、上記処理がコンピュータで実現される。コンピュータで読み取り可能な記録媒体としては、磁気記録装置や半導体メモリ等がある。
【0090】
市場に流通させる場合には、CD−ROM(Compact Disk Read Only Memory) やフロッピーディスク等の可搬型記録媒体にプログラムを格納して流通させたり、ネットワークを介して接続されたコンピュータの記憶装置に格納しておき、ネットワークを通じて他のコンピュータに転送することもできる。コンピュータで実行する際には、コンピュータ内のハードディスク装置等にプログラムを格納しておき、メインメモリにロードして実行する。
【0091】
【発明の効果】
以上説明したように本発明では、画像入力手段は、紙幣を透過した光を入力し、第1の特徴量抽出手段は、入力された画像信号から複数の領域を特徴量として抽出し、金種判定手段は、第1の特徴量抽出手段によって抽出された特徴量をニューラルネットワークに入力することにより、紙幣の金種と方向を判定し、第2の特徴量抽出手段は、金種判定手段によって判明した金種に応じた領域を画像信号から抽出し、パラメータ設定手段は、金種判定手段によって判明した金種に応じたパラメータを記憶部より読み出し、真贋判定手段に供給し、真贋判定手段は、第2の特徴量抽出手段によって抽出された、各金種に対応する領域の特徴量を読み込むともに、パラメータ設定手段によって設定されたパラメータを有するニューラルネットワークにより紙幣の真贋を判定するようにしたので、紙幣の鑑別精度を向上させることが可能となる。
【図面の簡単な説明】
【図1】本発明の原理を説明する原理図である。
【図2】本発明の実施の形態の構成例を示す図である。
【図3】画像信号入力部の詳細な構成例を示す図である。
【図4】図3に示す光学系の構成の概要を説明する図である。
【図5】図2に示す実施の形態において実行される処理の一例を説明するフローチャートである。
【図6】特徴量の抽出方法を示す図である。
【図7】紙幣の長手長と短手長とを説明する図である。
【図8】金種・方向判定部の構成の概要を説明する図である。
【図9】投入された紙幣の表裏面の模様を示す図である。
【図10】紙幣の方向が変化した場合における、第1の特徴量抽出部が抽出する領域と紙幣の模様との関係を説明する図である。
【図11】紙幣の方向と抽出される模様との関係を示す図である。
【図12】並べ替えられた模様と、領域との関係を示す図である。
【図13】図5の「距離2乗値最大模様探索処理」の詳細について説明するフローチャートである。
【図14】図2に示す実施の形態において実行される他の処理の一例を説明するフローチャートである。
【図15】図2に示す真贋判定部の構成の概要を説明する図である。
【符号の説明】
1 画像信号入力手段
2 第1の特徴量抽出手段
3 金種判定手段
4 方向判定手段
5 パラメータ設定手段
6 第2の特徴量抽出手段
7 並べ替え手段
8 真贋判定手段
11 画像信号入力部
12 第1の特徴量抽出部
13 金種・方向判定部
15 パラメータ設定部
16 第2の特徴量抽出部
17 並べ替え部
18 真贋判定部
19 検証部
20 データベース
21 データベース
22 検証部
23 データベース[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a banknote discriminating apparatus and a recording medium, and more particularly to a banknote discriminating apparatus that discriminates between the type of banknote and its authenticity, and a recording medium that records a program for causing a computer to execute banknote discrimination processing.
[0002]
[Prior art]
For example, in an automatic teller machine (CD: Cash Dispenser) or a money changer, the following processing needs to be performed in order to determine the authenticity of an inserted bill.
(1) Discrimination of the direction of inserted bills
(2) Discrimination of denominations of inserted banknotes
(3) Identification of authenticity of inserted bills
Conventionally, for example, the above-described processing is performed by extracting the feature amount of the inserted banknote and comparing the extracted feature amount with the reference data registered in the database to calculate the similarity. It was.
[0003]
By the way, in the so-called pattern recognition process for collating the extracted feature quantity with the registered known data, it is necessary to use a large number of feature quantities in order to improve the recognition accuracy. In particular, since a very high recognition accuracy is required for determining the authenticity of banknotes, the conventional method needs to perform comparison processing using a large number of feature amounts in order to improve the recognition accuracy. A lot of time was required for processing.
[0004]
In recent years, a technology called a neural network has been put into practical use to simulate the structure and operation of nerve cells (neurons) with hardware and software, and to engineer advanced information processing performed by the human brain. It is being done.
[0005]
Such a neural network realizes high-level processing by hierarchically connecting neurons as non-linear elements and determining the synaptic weight values of neurons between layers by learning.
[0006]
[Problems to be solved by the invention]
However, in a neural network, it is generally known that the accuracy of recognition decreases when the number of reference data (data to be learned) increases.
[0007]
In the bill discrimination, the above-described processes (1) to (3) are discriminated in the direction of the inserted bill (front / back and left / right discrimination), and the denomination (in Japanese banknotes, 1000 yen bill, 5000 yen). Bills, 10,000 yen bills, and old and new bills), and bills and true bills.
[0008]
By the way, in recent years, it has become possible to easily manufacture elaborate bills with the progress of copying technology. Therefore, in order to accurately determine the third authenticity, learning processing for a lot of data to be learned (data of various tags) is necessary.
[0009]
Therefore, in order to accurately perform the processes (1) to (3) described above, the number of internal parameters of the neural network becomes enormous, and it takes a lot of time to develop it, and the development cost is very high. There was a problem.
[0010]
The present invention has been made in view of the above points, and a bill discrimination device capable of accurately discriminating bills and a recording medium on which a program for causing a computer to execute such bill discrimination processing is recorded. The purpose is to provide.
[0011]
Another object of the present invention is to provide a banknote discriminating apparatus capable of reducing development time and cost, and a recording medium on which a program for causing a computer to execute such banknote discrimination processing is recorded.
[0012]
[Means for Solving the Problems]
In the present invention, in order to solve the above-mentioned problem, in the banknote discriminating apparatus for discriminating between the type of banknote and its authenticity, an image signal input means for inputting an image signal corresponding to light from the banknote, and an input from the image input means A first feature quantity extraction unit for extracting a first feature quantity from the image signal obtained, and a predetermined process performed on the first feature quantity extracted by the first feature quantity extraction unit; A denomination determining unit that determines a denomination, a second feature amount extracting unit that extracts a second feature amount from the image signal according to a determination result of the denomination determining unit, and a neural network. The authenticity determining means for determining the authenticity of the banknote from the second feature value extracted by the second feature value extracting means, and the parameter of the neural network as the determination result of the denomination determining means. Flip bill discrimination apparatus characterized by having a parameter setting means for setting are provided.
[0013]
Here, an image input means inputs the image signal corresponding to the light from a banknote. The first feature quantity extraction unit extracts the first feature quantity from the image signal input from the image input unit. The denomination determining unit determines the denomination by performing a predetermined process on the first feature amount extracted by the first feature amount extracting unit. The second feature amount extraction unit extracts the second feature amount from the image signal according to the determination result of the denomination determination unit. The authenticity determining means is constituted by a neural network, and determines the authenticity of the banknote from the second feature quantity extracted by the second feature quantity extracting means. The parameter setting means sets the parameters of the neural network according to the determination result of the denomination determining means.
[0014]
For example, the image input unit inputs light transmitted through the banknote, and the first extraction unit extracts a plurality of regions as feature amounts from the input image signal. The denomination determining unit determines the denomination and direction of the bill by inputting the feature amount extracted by the first feature amount extracting unit to the neural network. The second feature amount extraction unit extracts an area corresponding to the denomination determined by the denomination determination unit from the image signal. The parameter setting means reads a parameter corresponding to the denomination determined by the denomination determination means from the storage unit and supplies it to the authenticity determination means. The authenticity determining means reads the feature value of the area corresponding to each denomination extracted by the second feature value extracting means, and determines the authenticity of the banknote by the neural network having the parameters set by the parameter setting means. To do.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a principle diagram illustrating the principle of the present invention. In this figure, an image signal input means 1 inputs a banknote image signal i. The first feature amount extraction unit 2 extracts a feature amount from the image signal i of the banknote.
[0016]
The denomination determining unit 3 performs a predetermined process on the feature amount extracted by the first feature amount extracting unit 2, thereby denominating the banknote (for example, 1000 yen and 5000 yen for banknotes). 10000 yen and their old and new banknotes).
[0017]
The direction determination unit 4 performs predetermined processing on the feature amount extracted by the first feature amount extraction unit 2 to determine the direction (front and back, left and right) of the banknote input from the image signal input unit 1. To do.
[0018]
The parameter setting unit 5 supplies a parameter corresponding to the denomination of the banknote determined as a result of the processing of the denomination determination unit 3 to the authenticity determination unit 8.
The second feature amount extraction unit 6 extracts the feature amount of the area corresponding to the denomination of the banknote determined as a result of the processing of the denomination determination unit 3.
[0019]
The rearrangement unit 7 rearranges the feature amounts extracted by the second feature amount extraction unit 6 corresponding to the direction of the banknotes determined as a result of the processing of the direction determination unit 4, and supplies it to the authenticity determination unit 8.
[0020]
The authenticity determination means 8 is constituted by, for example, a neural network that performs a product-sum operation process, and is arranged based on the parameters supplied from the parameter setting means 5 (parameters corresponding to the denomination of the image signal i of banknotes). Predetermined processing is performed on the feature amount supplied from the replacement means 7 to determine whether the bill is authentic (whether it is a genuine note).
[0021]
According to the above configuration, the bill authenticity determination process is executed separately from the other processes (the banknote direction determination process and the banknote denomination determination process), and the denomination determination means 3 Since the authentication process is performed based on the parameter corresponding to the denomination determined by the above, it is possible to improve the discrimination accuracy of the banknote.
[0022]
FIG. 2 is a diagram showing a configuration example of the embodiment of the present invention. This embodiment is mounted on an apparatus that requires banknote discrimination, such as an automatic teller machine or a money changer. The correspondence between this figure and the principle diagram of FIG. 1 is shown below.
[0023]
An image signal input unit 11 corresponds to the image signal input means 1. The first feature quantity extraction unit 12 corresponds to the first feature quantity extraction unit 2. A denomination / direction determination unit 13 corresponds to the denomination determination unit 3.
[0024]
The direction determination unit 4 corresponds to the denomination / direction determination unit 13. The parameter setting unit 15 and the database 21 correspond to the parameter setting means 5. The second feature quantity extraction unit 16 corresponds to the second feature quantity extraction means 6.
[0025]
The sorting unit 17 corresponds to the sorting means 7. Further, an authenticity determination unit 18 corresponds to the authenticity determination means 8.
Next, a configuration example of the above embodiment will be described.
[0026]
The image signal input unit 11 is configured as shown in FIG. 3, for example, and is provided inside the banknote insertion unit of the automatic teller machine or the money changer. The inserted banknote 50 is conveyed in a fixed direction through a passage 42 whose upper and lower surfaces are constituted by the upper member 40 and the lower member 41. The light emitting unit 44 is disposed in a recess 43 formed in the lower member 41, and emits red or green light in accordance with the control signal 44i. The filter 45 makes the in-plane intensity distribution of the light emitted from the light emitting unit 44 uniform.
[0027]
The lens 47 converges the light transmitted through the banknote 50 (light from the light emitting unit 44) on the light receiving surface of a CCD (Charge Coupled Device) image sensor 48. The CCD image sensor 48 converts the optical image of the banknote converged by the lens 47 into a corresponding image signal 48i and outputs it.
[0028]
FIG. 4 is a diagram for explaining the outline of the configuration of the optical system shown in FIG. As shown in this figure, the light emitting section 44 is formed by alternately arranging two types of LEDs (Light Emitting Diodes) that emit light in the wavelength bands of green (G) and red (R) colors. .
[0029]
The light emitted from the green or red LED of the light emitting unit 44 is adjusted by the filter 45 so that the in-plane intensity distribution is uniform, and then irradiated to the bill 50. Of the light irradiated on the bill 50, the light transmitted through the bill 50 is incident on the lens 47 and converged on the light receiving surface of the CCD image sensor 48. The CCD image sensor 48 converts the converged optical image of the bill 50 into a corresponding image signal 48i and outputs it.
[0030]
The green and red LEDs are turned on in the order of green and red, for example, after the banknote 50 is conveyed by one line. When the scanning for one line is completed, the banknote 50 is further conveyed by one line, and the same operation is repeated.
[0031]
As a result, the image signal for one line of the banknote 50 is output from the image input unit 11 in the order of green and red.
The first feature amount extraction unit 12 extracts feature amounts from the green and red image signals input from the image signal input unit 11 and outputs them.
[0032]
The denomination / direction determination unit 13 is configured by a neural network, and performs a product-sum operation on the feature amount extracted by the first feature amount extraction unit 12, thereby denomination of the banknote and its insertion Determine the direction and output.
[0033]
The second feature amount extraction unit 16 extracts a feature amount from a region corresponding to the denomination found by the denomination / direction determination unit 13 (a specific region determined for each denomination).
The rearrangement unit 17 rearranges the order of the feature amounts extracted by the second feature amount extraction unit 16 in accordance with the bill insertion direction determined by the denomination / direction determination unit 13 to the authenticity determination unit 18. Supply.
[0034]
The verification unit 19 compares the data obtained by subjecting the feature quantity extracted by the first feature quantity extraction unit 12 to the reference data recorded in the database 20, and compares the denomination / direction. It is verified whether or not the determination result of the determination unit 13 is correct.
[0035]
The parameter setting unit 15 reads a parameter (parameter for authenticity determination) corresponding to the denomination determined by the denomination / direction determination unit 13 from the database 21 and supplies the parameter to the authenticity determination unit 18.
[0036]
The authenticity determination unit 18 is configured by a neural network, and performs a product-sum operation according to the parameter for each denomination supplied from the parameter setting unit 15 on the feature amount supplied from the rearrangement unit 17. The authenticity of the inserted bill is determined, and the determination result is output.
[0037]
The verification unit 22 compares the data obtained by subjecting the feature amount extracted by the second feature amount extraction unit 16 to a predetermined process and the reference data recorded in the database 23, and the authenticity determination unit 18. It is verified whether the judgment result of is correct.
[0038]
Next, the operation of the above embodiment will be described with reference to the flowchart shown in FIG.
FIG. 5 is a diagram showing an example of processing executed in the embodiment shown in FIG. When this flowchart is started, the following processing is executed.
[S1] The first feature quantity extraction unit 12 extracts a feature quantity from the image signal of the banknote input from the image signal input unit 11.
[0039]
FIG. 6 is a diagram illustrating an example of a feature amount extraction method. As shown in this figure, the green and red image signals input from the image signal input unit 11 are divided into 51 areas, and then a plurality of pixels satisfying a predetermined condition are selected from each area. A feature amount is extracted by calculating an average of pixel values of pixels. For example, in the item shown first, in each of the 51 areas, a light-transmitting pixel (a pixel corresponding to light transmitted through a part other than the banknote) and a light pixel (light transmitted through a pinhole or the like of the banknote) Among all the pixel groups excluding the pixel corresponding to (5), the average of the pixel values whose values are located between the upper fifth and the lower fifth is calculated. The extracted items “average”, “minimum”, and “maximum” obtained in this way are normalized by the following expressions and then supplied to the denomination / direction determination unit 13. . Here, the all-region lightness average value is an average value of all-region lightness of each color image. In the following expression, only the “average” normalized value is shown, but “minimum” and “maximum” are also normalized by the same expression. Further, the feature value in the following description is a normalized value normalized by the equation (1).
[0040]
[Expression 1]
Figure 0003640137
[0041]
Further, the first feature quantity extraction unit 12 performs a predetermined process on the image signal input from the image signal input unit 11 to obtain the long and short lengths of banknotes as shown in FIG. After acquisition, these values are normalized and supplied to the denomination / direction determination unit 13.
[S2] The denomination / direction determination unit 13 determines the denomination and insertion direction of the inserted banknote by performing a product-sum operation on the feature amount extracted by the first feature amount extraction unit 12. And output the obtained results.
[0042]
FIG. 8 is a diagram for explaining the outline of the configuration of the denomination / direction determination unit 13. As shown in this figure, the denomination / direction determination unit 13 is configured by a so-called neural network. The input feature quantity (feature quantity 1 to feature quantity n) is supplied to the first layer (input layer) neurons. Since the neurons of the first layer and the neurons of the second layer (intermediate layer) are connected by a plurality of synapses each having a unique weight, a predetermined weight value ω is assigned to each feature amount input to the first layer. Is multiplied and transmitted to the second layer of neurons. The second layer neuron is a monotonically increasing function (including a step-like discontinuous function) and generates an output corresponding to the sum of values input from the synapse. A similar operation is performed in the neurons of the third layer (output layer), and an output signal as a determination result is output from each neuron. In the example shown in this figure, all combinations of inserted bills and directions are assigned to each of the third layer neurons. Therefore, when the old thousand yen bill is inserted in the A direction (details will be described later), the leftmost neuron in the figure generates the largest output.
[0043]
Such neural network parameters are determined for each denomination and direction using another device (for example, a large computer).
[S3] The denomination / direction determination unit 13 determines whether or not the determination process in step S2 is successful.
[0044]
That is, ideally, it is desirable that only a single neuron of the third layer neurons generates an output, but a plurality of neurons may generate an output due to various errors. In such a case, for example, it is determined whether (second output value / first output value) <0.4. As a result, if the above condition is satisfied, the process proceeds to step S4. If not satisfied, the process proceeds to step S13.
[S4] The denomination / direction determination unit 13 further determines whether the denomination and direction can be determined by performing the following processing on the output of the third layer neuron.
[0045]
That is, the first output among the outputs of the third layer neurons is larger than the value (A1 (K, H)), and the second output is larger than the value (A2 (K, H)). It is determined whether or not it is small. A1 (K, H) and A2 (K, H) are reference values corresponding to the denomination K and the direction H determined by the denomination / direction determination unit 13, and according to an allowable error or the like. decide.
[0046]
As a result, if both of these two conditions are satisfied, the process proceeds to step S5. Otherwise, the process proceeds to step S13.
[S5] The verification unit 19 rearranges the feature amounts supplied from the first feature amount extraction unit 12 in accordance with the direction of the banknote determined by the denomination / direction determination unit 13.
[0047]
That is, in order to improve the reliability of the distance square value (eliminate the difference depending on the direction) by standardizing the reference values (average value and variance value) for calculating the feature value distance square value performed in the following four directions. Perform the sorting process. That is, the feature amounts of the plurality of regions are extracted in a fixed order, and therefore, the output order of the same feature amount is prevented from being different depending on the input direction.
[0048]
Note that the feature amount rearrangement rule is based on the following assumptions.
(1) The region extracted by the first feature amount extraction unit 12 is arranged symmetrically in the vertical and horizontal directions with the center of the banknote as the center.
(2) For the same banknote, the content of the obtained image is the same regardless of the insertion direction.
[0049]
Here, in the present embodiment, the region extracted by the first feature amount extraction unit 12 is vertically and horizontally symmetrical about the center of the banknote, so the first precondition is satisfied.
[0050]
In the present embodiment, since the transmissive image signal input unit 11 is used, the second precondition is also satisfied.
Next, details of the rearrangement process will be described below.
[0051]
Assume that the inserted banknote is as shown in FIG. Here, FIG. 9A is a front surface and FIG. 9B is a back surface. In this case, there are four cases shown in FIG.
[0052]
That is, the A direction is a case where the front side is directed upward (CCD image sensor 48 side) and the left side of the banknote shown in FIG. The B direction is a case where the front side is directed upward (CCD image sensor 48 side) and the right side of the banknote shown in FIG. Further, the C direction is a case where the back side is directed upward (CCD image sensor 48 side), and the left side of the banknote shown in FIG. Furthermore, the D direction is when the back side is directed upward (CCD image sensor 48 side) and the right side of the banknote shown in FIG.
[0053]
As shown in FIG. 10, the first feature amount extraction unit 12 sequentially extracts feature amounts of five regions (region 1 to region 5) from the input image signal (in the order of region 1 to region 5). . Note that these regions are arranged vertically and horizontally symmetrically as described above, and both green and red images are acquired from each region.
[0054]
Therefore, as shown in FIG. 11, the extracted feature amount differs depending on the direction in which the bill is inserted. For example, when the A direction is used as a reference and a banknote is inserted in the B direction, patterns extracted from the areas 1 to 5 are extracted in the order of green patterns 3, 4, 1, 2, and 5. It will be. Note that the case of a red image is the same as in the case of FIG.
[0055]
The verification unit 19 rearranges the feature quantities extracted as described above according to the following rules.
(1) Rearrangement is not performed when the bill insertion direction is the A direction.
(2) When the bill insertion direction is the B direction, the banknote is rotated 180 degrees around the center of the bill.
(3) When the banknote insertion direction is the C direction, the banknotes are reversed and changed around the center of the banknote in the short direction.
(4) When the bill insertion direction is the D direction, the bill is reversed and changed in the longitudinal direction with the center in the longitudinal direction of the bill as the center.
[0056]
FIG. 12 shows feature amounts obtained as a result of the above processing. As shown in this figure, for example, when the bill insertion direction is the B direction, the green feature amount 3 (the feature amount extracted from the region 3) is output first. , 2 and 5 in this order.
[S6] The verification unit 19 shifts the average value of the feature values for each denomination stored in the database 20 and the feature values appropriately rearranged by the process of step S5 (pattern distance square value). Is calculated for each of the average, minimum and maximum of the green and red patterns.
[0057]
In addition, the formula used when calculating the distance square value is shown below.
[0058]
[Expression 2]
Figure 0003640137
[0059]
[Equation 3]
Figure 0003640137
[0060]
[Expression 4]
Figure 0003640137
[0061]
[Equation 5]
Figure 0003640137
[0062]
[Formula 6]
Figure 0003640137
[0063]
[Expression 7]
Figure 0003640137
[0064]
Here, the variable K indicates the denomination determined by the denomination / direction determination unit 13. The variable n indicates which of the pattern types (pattern 1 to pattern N). The average value A (K, n) and the variance value S (K, n) are stored in the database 20. In addition, each formula appearing in the above formulas (2) to (7) is defined as follows.
R (green, n, average): Average distance square value of the green pattern n for the denomination K of the discrimination banknote
R (green, n, minimum): minimum distance square value of the green pattern n with respect to the denomination K of the discrimination banknote
R (green, n, maximum): Maximum distance square value of the green pattern n for the denomination K of the discrimination banknote
R (red, n, average): The average distance square value of the red pattern n for the denomination K of the discrimination banknote
R (red, n, minimum): minimum distance square value of red pattern n for denomination K denomination K
R (red, n, maximum): maximum distance square value of red pattern n for denomination K denomination K
V (green, n, average): average of green pattern n of the bill
V (green, n, minimum): the minimum of the green pattern n of the discrimination banknote
V (green, n, maximum): Maximum of the green pattern n of the discrimination banknote
V (red, n, average): average of red pattern n of the discrimination banknote
V (red, n, minimum): the minimum of the red pattern n of the discrimination bill
V (red, n, maximum): maximum of red pattern n of the discrimination banknote
A (K, green, n, average): average value of green pattern n of denomination K
A (K, green, n, minimum): minimum average value of the green pattern n of the denomination K
A (K, green, n, maximum): the maximum average value of the green pattern n of the denomination K
A (K, red, n, average): average value of red pattern n of denomination K
A (K, red, n, minimum): minimum average value of red pattern n of denomination K
A (K, red, n, maximum): maximum average value of red pattern n of denomination K
S (K, green, n, average): average dispersion value of green pattern n of denomination K
S (K, green, n, minimum): minimum variance value of green pattern n of denomination K
S (K, green, n, maximum): maximum variance value of green pattern n of denomination K
S (K, red, n, average): average dispersion value of red pattern n of denomination K
S (K, red, n, minimum): minimum variance value of red pattern n of denomination K
S (K, red, n, maximum): maximum dispersion value of red pattern n of denomination K
σ (K, green, n, average): standard deviation of average of green pattern n of denomination K
σ (K, green, n, minimum): the minimum standard deviation of green pattern n of denomination K
σ (K, green, n, maximum): the maximum standard deviation of the green pattern n of denomination K
σ (K, red, n, average): standard deviation of the average of red pattern n of denomination K
σ (K, red, n, minimum): minimum standard deviation of red pattern n of denomination K
σ (K, red, n, maximum): maximum standard deviation of red pattern n of denomination K
[S7] The verification unit 19 executes a process of searching for the maximum value among the squared distance values calculated in step S6. Details of this process will be described later with reference to FIG.
[0065]
R (green, n, average), R (green, n, minimum), R (green, n, maximum), R (red, n, average), R (red, n, minimum), and R A search is made for (red, n, maximum) having the maximum value Rmax.
[S8] The verification unit 19 obtains the maximum value Rmax obtained by the process of step S7.
[S9] The verification unit 19 determines whether or not the maximum value Rmax acquired in step S8 is smaller than the threshold value Dth1. For example, a value 25 is used as the threshold value Dth1.
[S10] The verification unit 19 calculates the sum value Rsum of the distance square values. This Rsum is obtained by the following formula: Rsum (green, average), Rsum (green, minimum), Rsum (green, maximum), Rsum (red, average), Rsum (red, minimum), and A value obtained by adding all Rsum (red, maximum) is shown.
[0066]
[Equation 8]
Figure 0003640137
[0067]
[Equation 9]
Figure 0003640137
[0068]
[Expression 10]
Figure 0003640137
[0069]
[Expression 11]
Figure 0003640137
[0070]
[Expression 12]
Figure 0003640137
[0071]
[Formula 13]
Figure 0003640137
[0072]
[S11] The verification unit 19 determines whether or not the sum value Rsum of the squared distance values calculated in step S10 is smaller than a predetermined threshold value Dth2. As a result, if Rsum is smaller than Dth2, the process proceeds to step S12. Otherwise, the process proceeds to step S13.
[S12] The verification unit 19 outputs the verification result to, for example, a control unit (not shown). As a result, the control unit executes the process (authentication determination process) shown in FIG.
[S13] A control unit (not shown) outputs a message indicating that the inserted bill cannot be properly identified.
[0073]
Next, details of the process shown in step S7 of FIG. 5 will be described with reference to FIG. This processing searches for the maximum value of the distance square value. When this flowchart is started, the following processing is executed.
[S31] The verification unit 19 initializes a variable c representing a color (green or red) to a value of 1, and similarly initializes a variable n and a variable m to a value of 1. When the value of c is “1” and “2”, they correspond to “green” and “red”, respectively. The value of n indicates a green or red pattern (any one of patterns 1 to N). Further, when the value of the variable m is “1”, “2”, and “3”, “average”, “minimum”, and “maximum” are shown, respectively.
[S32] The verification unit 19 substitutes the first value R (1, 1, 1) of the array R as an initial value for Rmax. R (1, 1, 1) corresponds to R (green, green pattern 1, average).
[S33] The verification unit 19 determines whether or not the value of Rmax is larger than the value of R (c, n, m). If the result is larger, the process proceeds to step S34; Proceed to S35.
[S34] The verification unit 19 substitutes the value of R (c, n, m) for Rmax.
[S35] The verification unit 19 increments the value of the variable m by 1.
[S36] If the value of m is 3 or less, the verification unit 19 returns to step S33, and otherwise proceeds to step S37.
[S37] The verification unit 19 assigns the value 1 to the variable m.
[S38] The verification unit 19 increments the value of the variable n by 1.
[S39] If the value of n is N (pattern type) or less, the verification unit 19 returns to step S33, and otherwise proceeds to step S40.
[S40] The verification unit 19 substitutes the value 1 for the variable n.
[S41] The verification unit 19 increments the value of the variable c by one.
[S41] If the value of c is 2 or less, the verification unit 19 returns to step S33, and otherwise ends the process.
[0074]
According to the above processing, the one having the maximum value is extracted from the distance square values.
Next, with reference to FIG. 14, the process performed in the authenticity determination part 18 and the verification part 22 is demonstrated. When this flowchart is started, the following processing is executed.
[S61] The second feature quantity extraction unit 16 extracts the feature quantity of the region corresponding to the denomination found by the denomination / direction determination unit 13 from the image signal input from the image signal input unit 11.
[S62] The feature quantity rearrangement unit 17 rearranges the feature quantities extracted by the second feature quantity extraction unit 16 in accordance with the direction found by the denomination / direction determination unit 13. This rearrangement method is the same as the processing in step S5 in FIG.
[S63] The authenticity determination unit 18 acquires a parameter corresponding to the denomination found by the denomination / direction determination unit 13 from the database 21 via the parameter setting unit 15. Then, a product-sum operation is performed on the feature amount supplied from the rearrangement unit 17 to determine the authenticity of the inserted bill.
[0075]
FIG. 15 is a diagram for explaining the outline of the configuration of the authenticity determination unit 18. As shown in this figure, the authenticity determination unit 18 is configured by a neural network, and determines the authenticity of a bill by performing a product-sum operation on the input feature value.
[0076]
Note that learning processing of such neural network parameters (parameters stored in the database 21) is performed for each denomination using another device (for example, a large computer).
[S64] The authenticity determination unit 18 determines whether the determination is successful.
[0077]
That is, the authenticity determination unit 18 determines that the maximum value of the neuron output is 70% or more of the maximum output value and the second value of the neuron output is 30% or less of the maximum output value. Is determined to be a true note of a denomination banknote determined by the denomination / direction determination unit 13.
[S65] The verification unit 22 calculates a feature value distance squared value from the feature values supplied from the sorting unit 17.
[0078]
That is, the verification unit 22 calculates a feature value distance squared value by the following equation.
[0079]
[Expression 14]
Figure 0003640137
[0080]
Here, each variable is defined as follows.
K: Denomination determined by denomination / direction determination unit 13
R (n): Distance square value of pattern n of the discrimination banknote
V (n): feature amount of pattern n of the discrimination banknote
A (K, n): Average value of the denominations of denomination K and pattern n
S (K, n): Variance value of the denomination of denomination K and pattern n
When r (n) and σ (K, n) are defined as follows, R (n) = r (n) 2 Can be represented by
[0081]
[Expression 15]
Figure 0003640137
[0082]
Here, r (n) and σ (K, n) are defined as follows.
r (n): Distance value of the pattern n of the discrimination banknote
σ (K, n): Standard deviation of denomination K, pattern n
S (K, n) = σ (K, n) 2 It is.
[S66] The verification unit 22 searches for the maximum value (pattern having the maximum value) of the distance square value. Since this process is the same as the process of step S7 shown in FIG. The pattern acquired as a result of this processing is the one most deviated from the denomination standard determined by the denomination / direction determination unit 13.
[S67] The verification unit 22 obtains the maximum value Rmax of the distance square value searched in step S66.
[S68] The verification unit 22 proceeds to step S69 when the maximum value Rmax of the squared distance values is smaller than the predetermined threshold value Dth1, and proceeds to step S72 otherwise.
[S69] The verification unit 22 calculates the sum value Rsum of the distance square values.
[0083]
That is, the verification unit 22 calculates the total value Rsum based on the following equation.
[0084]
[Expression 16]
Figure 0003640137
[0085]
Here, R (n) is a distance square value of the pattern of the discrimination banknote, and N indicates the number of patterns.
[S70] The verification unit 22 proceeds to step S71 if the sum of squared distances Rsum is smaller than the predetermined threshold value Dth2, otherwise proceeds to step S72.
[S71] The authenticity determination unit 18 outputs a determination result.
[S72] The control unit (not shown) outputs a message indicating that the inserted bill cannot be identified.
[0086]
According to the above processing, since the authenticity of the banknote is determined based on the parameter corresponding to the denomination, the determination can be performed accurately.
As described above, according to the above embodiment, the denomination and direction determination process and the authenticity determination process are performed separately, so that each process is executed accurately. Is possible.
[0087]
In the authenticity determination process, since the process based on the parameter corresponding to the denomination determined by the denomination determination unit 13 is performed, it is possible to accurately execute the authenticity process.
[0088]
Furthermore, since the verification units 19 and 22 verify the determination result of the neural network, it is possible to prevent an erroneous determination result from being output.
[0089]
The above processing functions can be realized by a computer. In that case, the processing contents of the functions that the bill validator should have are described in a program recorded on a computer-readable recording medium, and the above processing is realized by the computer by executing this program on the computer. Is done. Examples of the computer-readable recording medium include a magnetic recording device and a semiconductor memory.
[0090]
When distributing to the market, store the program in a portable recording medium such as a CD-ROM (Compact Disk Read Only Memory) or floppy disk, or store it in a computer storage device connected via a network. In addition, it can be transferred to another computer through the network. When executed by a computer, the program is stored in a hard disk device or the like in the computer, loaded into the main memory and executed.
[0091]
【The invention's effect】
As described above, in the present invention, the image input means inputs light transmitted through the banknote, and the first feature quantity extraction means extracts a plurality of regions as feature quantities from the input image signal, and denominations The determining means inputs the feature amount extracted by the first feature amount extracting means to the neural network, thereby determining the denomination and direction of the banknote, and the second feature amount extracting means is determined by the denomination determining means. An area corresponding to the determined denomination is extracted from the image signal, and the parameter setting means reads the parameter corresponding to the denomination determined by the denomination determining means from the storage unit and supplies the parameter to the authenticity determining means. The neural network having the parameters set by the parameter setting means while reading the feature quantities of the region corresponding to each denomination extracted by the second feature quantity extraction means Since so as to determine a more banknotes authenticity of, it is possible to improve the discrimination accuracy of the banknote.
[Brief description of the drawings]
FIG. 1 is a principle diagram illustrating the principle of the present invention.
FIG. 2 is a diagram illustrating a configuration example of an embodiment of the present invention.
FIG. 3 is a diagram illustrating a detailed configuration example of an image signal input unit.
4 is a diagram for explaining the outline of the configuration of the optical system shown in FIG. 3; FIG.
FIG. 5 is a flowchart for explaining an example of processing executed in the embodiment shown in FIG. 2;
FIG. 6 is a diagram illustrating a feature amount extraction method;
FIG. 7 is a view for explaining the long and short lengths of banknotes.
FIG. 8 is a diagram illustrating an outline of a configuration of a denomination / direction determination unit.
FIG. 9 is a diagram showing patterns on the front and back sides of a bill inserted.
FIG. 10 is a diagram illustrating a relationship between a region extracted by a first feature amount extraction unit and a bill pattern when the bill direction changes.
FIG. 11 is a diagram illustrating a relationship between a bill direction and a pattern to be extracted.
FIG. 12 is a diagram illustrating a relationship between a rearranged pattern and a region.
13 is a flowchart for explaining the details of the “distance square value maximum pattern search process” in FIG. 5; FIG.
FIG. 14 is a flowchart illustrating an example of another process executed in the embodiment shown in FIG.
15 is a diagram illustrating an outline of a configuration of an authenticity determination unit illustrated in FIG. 2. FIG.
[Explanation of symbols]
1 Image signal input means
2 First feature quantity extraction means
3 Denomination judging means
4 Direction determination means
5 Parameter setting means
6 Second feature quantity extraction means
7 Sorting means
8 Authentication means
11 Image signal input section
12 1st feature-value extraction part
13 Denomination / Direction Judgment Unit
15 Parameter setting section
16 Second feature amount extraction unit
17 Sorting part
18 Authentication section
19 Verification Department
20 database
21 Database
22 Verification Department
23 Database

Claims (6)

紙幣の種類とその真贋を鑑別する紙幣鑑別装置において、
前記紙幣からの光に対応する画像信号を入力する画像信号入力手段と、
前記画像入力手段から入力された画像信号から、第1の特徴量を抽出する第1の特徴量抽出手段と、
前記第1の特徴量抽出手段によって抽出された第1の特徴量に対して所定の処理を施すことにより、金種を判定する金種判定手段と、
前記金種判定手段の判定結果に応じて、前記画像信号から第2の特徴量を抽出する第2の特徴量抽出手段と、
ニューラルネットワークによって構成され、前記第2の特徴量抽出手段によって抽出された第2の特徴量から、前記紙幣の真贋を判定する真贋判定手段と、
前記ニューラルネットワークのパラメータを、前記金種判定手段の判定結果に応じて設定するパラメータ設定手段と、
を有することを特徴とする紙幣鑑別装置。
In the banknote discriminating device that discriminates between the type of banknote and its authenticity,
Image signal input means for inputting an image signal corresponding to the light from the banknote;
First feature quantity extraction means for extracting a first feature quantity from the image signal input from the image input means;
A denomination determination unit that determines a denomination by performing a predetermined process on the first feature amount extracted by the first feature amount extraction unit;
A second feature amount extraction unit that extracts a second feature amount from the image signal in accordance with a determination result of the denomination determination unit;
An authenticity determination unit configured to determine the authenticity of the banknote from the second feature amount, which is configured by a neural network and extracted by the second feature amount extraction unit;
Parameter setting means for setting the parameters of the neural network according to the determination result of the denomination determining means,
A bill discriminating apparatus characterized by comprising:
前記紙幣の方向を判定する方向判定手段と、
前記方向判定手段によって判定された紙幣の方向に応じて前記第2の特徴量抽出手段によって抽出された第2の特徴量を並べ替え、前記真贋判定手段に供給する並べ替え手段と、を更に有することを特徴とする請求項1記載の紙幣鑑別装置。
Direction determining means for determining the direction of the bill;
A rearrangement unit that rearranges the second feature amount extracted by the second feature amount extraction unit according to the direction of the banknote determined by the direction determination unit and supplies the second feature amount to the authenticity determination unit; The bill discriminating apparatus according to claim 1.
前記金種判定手段と前記方向判定手段とは、ニューラルネットワークによって構成されていることを特徴とする請求項2記載の紙幣鑑別装置。3. The banknote discrimination device according to claim 2, wherein the denomination determining unit and the direction determining unit are configured by a neural network. 鑑別の対象となる全ての金種に対応する前記第1の特徴量に関するデータを記録する第1の特徴量記録手段と、
前記第1の特徴量記録手段に記録されているデータと、前記第1の特徴量抽出手段によって抽出された第1の特徴量に所定の処理を施して得られたデータとを比較し、前記金種判定手段の判定結果が正しいか否かを検証する金種判定結果検証手段と、を更に有することを特徴とする請求項1記載の紙幣鑑別装置。
First feature amount recording means for recording data relating to the first feature amount corresponding to all denominations to be identified;
Comparing the data recorded in the first feature quantity recording means with the data obtained by subjecting the first feature quantity extracted by the first feature quantity extraction means to a predetermined process; The banknote discrimination device according to claim 1, further comprising denomination determination result verification means for verifying whether or not the determination result of the denomination determination means is correct.
鑑別の対象となる全ての金種に対応する前記第2の特徴量に関するデータを記録する第2の特徴量記録手段と、
前記第2の特徴量記録手段に記録されているデータと、前記第2の特徴量抽出手段によって抽出された第2の特徴量に所定の処理を施して得られたデータとを比較し、前記真贋判定手段の判定結果が正しいか否かを検証する真贋判定結果検証手段と、を更に有することを特徴とする請求項1記載の紙幣鑑別装置。
Second feature value recording means for recording data relating to the second feature value corresponding to all denominations to be identified;
Comparing the data recorded in the second feature quantity recording means with the data obtained by subjecting the second feature quantity extracted by the second feature quantity extraction means to a predetermined process; 2. The banknote discrimination device according to claim 1, further comprising: an authenticity determination result verification unit that verifies whether the determination result of the authenticity determination unit is correct.
紙幣の種類とその真贋を鑑別する紙幣鑑別処理をコンピュータに実行させるプログラムを記録したコンピュータ読みとり可能な記録媒体において、
コンピュータを
前記紙幣からの光に対応する画像信号を入力する画像信号入力手段、
前記画像入力手段から入力された画像信号から、第1の特徴量を抽出する第1の特徴量抽出手段、
前記第1の特徴量抽出手段によって抽出された第1の特徴量に対して所定の処理を施すことにより、金種を判定する金種判定手段、
前記金種判定手段の判定結果に応じて、前記画像信号から第2の特徴量を抽出する第2の特徴量抽出手段、
ニューラルネットワークによって構成され、前記第2の特徴量抽出手段によって抽出された第2の特徴量から、紙幣の真贋を判定する真贋判定手段、
前記ニューラルネットワークのパラメータを、前記金種判定手段の判定結果に応じて設定するパラメータ設定手段、
として機能させるプログラムが記録されているコンピュータ読みとり可能な記録媒体。
In a computer-readable recording medium recording a program for causing a computer to execute a banknote discrimination process for discriminating between the type of banknote and its authenticity,
Image signal input means for inputting an image signal corresponding to light from the banknote to the computer;
First feature amount extraction means for extracting a first feature amount from the image signal input from the image input means;
A denomination determination unit that determines a denomination by performing a predetermined process on the first feature amount extracted by the first feature amount extraction unit;
Second feature quantity extraction means for extracting a second feature quantity from the image signal according to the determination result of the denomination determination means;
An authenticity determination unit configured to determine the authenticity of the banknote from the second feature amount, which is configured by a neural network and extracted by the second feature amount extraction unit;
Parameter setting means for setting the parameters of the neural network according to the determination result of the denomination determining means,
A computer-readable recording medium on which a program that functions as a computer is recorded.
JP02005598A 1998-01-30 1998-01-30 Bill discrimination device and recording medium Expired - Fee Related JP3640137B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02005598A JP3640137B2 (en) 1998-01-30 1998-01-30 Bill discrimination device and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02005598A JP3640137B2 (en) 1998-01-30 1998-01-30 Bill discrimination device and recording medium

Publications (2)

Publication Number Publication Date
JPH11219461A JPH11219461A (en) 1999-08-10
JP3640137B2 true JP3640137B2 (en) 2005-04-20

Family

ID=12016398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02005598A Expired - Fee Related JP3640137B2 (en) 1998-01-30 1998-01-30 Bill discrimination device and recording medium

Country Status (1)

Country Link
JP (1) JP3640137B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1868166A3 (en) * 2006-05-31 2007-12-26 MEI, Inc. Method and apparatus for validating banknotes
JP6833496B2 (en) * 2016-12-19 2021-02-24 株式会社東芝 Learning device, paper leaf discrimination device and paper leaf discrimination method

Also Published As

Publication number Publication date
JPH11219461A (en) 1999-08-10

Similar Documents

Publication Publication Date Title
US5678677A (en) Method and apparatus for the classification of an article
KR101238292B1 (en) Paper sheet management apparatus, paper sheet management method, and computer readable recording medium with paper sheet management program
JP5344668B2 (en) Method for automatically confirming securities media item and method for generating template for automatically confirming securities media item
US7639858B2 (en) Currency validation
US20170132866A1 (en) A self-learning system and methods for automatic document recognition, authentication, and information extraction
EP1217589B1 (en) Currency validator
US8600146B2 (en) Method for the classification of banknotes
Aseffa et al. Ethiopian banknote recognition using convolutional neural network and its prototype development using embedded platform
EP1516293B1 (en) Currency validator
JP3640137B2 (en) Bill discrimination device and recording medium
JP2001331839A (en) Method and device for discriminating paper money
Pandey et al. A review of credit card fraud detection techniques
CN107958531A (en) Paper Currency Identification and device and equipment
Garain et al. Even big data is not enough: need for a novel reference modelling for forensic document authentication
CN112766320A (en) Classification model training method and computer equipment
JP3423136B2 (en) Paper sheet identification method
US8474592B2 (en) Currency discrimination
Goel Bank Note Authentication Using ML
JPH09120469A (en) Medium category decision method
JP2001056876A (en) Method for identifying denomination and counterfeit of medium by using neural network
Namrata et al. IDENTIFICATION OF CURRENCY VIA IMAGE PROCESSING TECHNIQUES AND ARTIFICIAL INTELLIGENCE
CN115169516A (en) Optically variable ink identification method, apparatus, electronic device and storage medium
CN115631573A (en) Cash paper money identification method and device
JPH1069558A (en) Paper money identifying method
JP2005004321A (en) Medium recognition device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100128

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110128

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110128

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120128

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130128

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130128

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130128

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130128

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130128

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130128

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees