JPH09282387A - Document processor - Google Patents

Document processor

Info

Publication number
JPH09282387A
JPH09282387A JP9267396A JP9267396A JPH09282387A JP H09282387 A JPH09282387 A JP H09282387A JP 9267396 A JP9267396 A JP 9267396A JP 9267396 A JP9267396 A JP 9267396A JP H09282387 A JPH09282387 A JP H09282387A
Authority
JP
Japan
Prior art keywords
data
bill
processing
image
bills
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9267396A
Other languages
Japanese (ja)
Inventor
Noriyoshi Ishino
知徳 石野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP9267396A priority Critical patent/JPH09282387A/en
Publication of JPH09282387A publication Critical patent/JPH09282387A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To efficiently and surely sort bills and securities by integrating and handling all bills and securities. SOLUTION: An image reader 10 generates MICR(magnetic ink character recognition) character data and a surface image from an actual bill TG1 and generates OCR-processed character recognition data from the surface image and feature data after specific image processing, and sends them to an image file server IFS. A data determination part 20 corrects and additionally input recognition data by referring to the surface image, and performs confirmation processing. Then, an encoder 30 prints necessary MICR characters on the bill TG2 outputted from the image reader 10 according to data acquired from the image file server IFS. At this time, the surface image of the bill TG2 is read to generate its feature data, which are compared with the feature data generated by the image reader 10 to give a print to only the matching bill.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、銀行・信用金庫・
信用組合等の金融機関で顧客によって持ち込まれた約束
手形・為替手形の処理、特に仕訳処理を簡単にして省人
化を図ることができる帳票処理装置に関する。
TECHNICAL FIELD The present invention relates to banks, credit unions,
The present invention relates to a form processing device capable of simplifying the processing of promissory notes / exchange bills brought in by a customer at a financial institution such as a credit union, and in particular, simplifying the journal processing to save labor.

【0002】[0002]

【従来の技術】従来、金融機関では、窓口で受け付けた
手形や小切手等の証券上に記載されたチェックライタ印
字等を目視して、記載された金額データ等を読み取り、
この読み取った金額データ等を手作業で、該証券上の下
部にあるクリアバンド領域に磁気インク文字認識(MI
CR)文字によってエンコード印字していた。
2. Description of the Related Art Conventionally, financial institutions visually check check writer prints and the like written on securities such as bills and checks received at counters, and read the written amount data,
Magnetic ink character recognition (MI
It was encoded and printed with the (CR) character.

【0003】しかし、チェックライタ印字の文字を目視
でその都度読み取る必要があるので、証券類の処理に時
間がかかるという問題点があった。
However, since it is necessary to visually read the characters printed on the check writer each time, there is a problem that it takes time to process securities.

【0004】そこで、例えば特開平3−102470号
公報に記載された証券処理装置では、クリアバンド内の
金融機関番号を読み取って金融機関を識別するととも
に、証券類の画像データを取得する。そして、獲得した
画像データに対して、識別した金融機関に対応する光学
的な読取スライスレベルでチェックライタ文字を読むこ
とにより、証券類上の地紋等の影響をなくし、チェック
ライタ印字の文字のみを確実に認識し、この認識した文
字内容をクリアバンド内の所定位置にMICR文字で自
動印字するようにしている。
Therefore, for example, in the securities processing apparatus disclosed in Japanese Patent Laid-Open No. 3-102470, the financial institution number is read in the clear band to identify the financial institution, and the image data of securities is acquired. Then, by reading the check writer characters on the acquired image data at the optical reading slice level corresponding to the identified financial institution, the influence of the tint block on the securities is eliminated, and only the check writer printed characters are printed. It is surely recognized, and the recognized character contents are automatically printed as MICR characters at a predetermined position in the clear band.

【0005】これにより、窓口で受け付けた証券類の処
理が効率的になり、処理時間も短縮される。
As a result, the processing of securities received at the counter becomes efficient and the processing time is shortened.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、証券類
のうち、小切手及び約束手形は振り出す際に、どこの金
融機関のどの口座から支払いがされるかが予めわかって
いるので、これら小切手及び約束手形上にMICR文字
で記載された金融機関番号、口座番号を印字しておくこ
とができるが、為替手形は、その振出時にならないと誰
が支払いをするのかがわからないために、MICR文字
によって、予め取り扱う金融機関の金融機関番号等を印
字することができない。
However, among the securities, when a check and a promissory note are to be drawn out, it is known in advance from which financial institution and which account the payment will be made. The financial institution number and account number written in MICR characters can be printed on the bill, but the bill of exchange is handled in advance by MICR characters because it is not known who pays the bill unless it is issued. The financial institution number of the financial institution cannot be printed.

【0007】例えば、図13に示す約束手形には、MI
CR文字で金融機関コードが印字されているが、図14
に示す為替手形には、MICR文字が印字されていな
い。
For example, the promissory note shown in FIG.
The financial institution code is printed with CR characters.
MICR characters are not printed on the bill of exchange shown in.

【0008】従って、為替手形の場合には、MICR文
字に基づいてデータ検索を行うことができず、小切手及
び約束手形と同様なデータ検索に基づいた仕訳処理を行
うことができないことから、全体的に効率的な仕訳処理
を行うことができないという問題点があった。
Therefore, in the case of a bill of exchange, it is not possible to perform data retrieval based on MICR characters, and it is not possible to carry out journal processing based on data retrieval similar to checks and promissory notes. However, there was a problem that the journal entry processing could not be performed efficiently.

【0009】すなわち、手形の種類によって処理内容が
異なるため、手形を統一して処理することができず、第
1段階として、為替手形のみを他の手形と分類するとい
う余分な仕訳処理を行う必要がある。
That is, since the processing contents differ depending on the type of bills, the bills cannot be processed in a unified manner, and as a first step, it is necessary to perform an extra journalizing process of classifying only the bills of exchange as other bills. There is.

【0010】なお、特開平3−102470号公報のも
のによっても、為替手形の場合、金融機関番号等が印字
されていないため、この金融機関番号等を手作業でMI
CR印字した後に、再度、約束手形等と同様な自動処理
によって金額データを該為替手形にMICR印字すると
いう重複した処理が強いられることになる。
In the case of the bill of exchange, the financial institution number and the like are not printed even in the case of Japanese Patent Application Laid-Open No. 3-102470.
After the CR printing, the duplicate processing of forcing the amount data to be MICR printed again on the bill of exchange is forced by the automatic processing similar to the promissory note.

【0011】そこで、本発明は、かかる問題点を除去
し、全ての手形類を統一して取扱い、該手形類の仕訳処
理を効率的かつ確実に行うことができる帳票処理装置を
提供することを目的とする。
Accordingly, the present invention eliminates such problems, and provides a form processing apparatus which can handle all bills in a unified manner and can perform journal processing of the bills efficiently and reliably. To aim.

【0012】[0012]

【課題を解決するための手段】第1の発明は、受け付け
た手形証券に必要なMICR文字を印字して該手形証券
を支払期日等によって分類する処理を行う帳票処理装置
において、バッチ処理の識別子をもとに送られてくる前
記手形証券に関するデータを受信して記憶するととも
に、オンラインによって該データの修正、追加を可能と
するサーバ手段と、前記手形証券の裏面に一連の通過番
号を印字する番号印字手段、該手形証券の少なくとも表
面の画像データを読み取る第1の読取手段、該画像デー
タをもとに該手形証券上の文字を認識する文字認識手
段、前記通過番号、画像データ、及び文字認識結果を前
記手形証券に関するデータとして前記サーバ手段に送出
する制御を行う制御手段を有し、前記サーバ手段に接続
された第1の処理手段と、前記第1の処理手段による処
理が終了した手形証券に関するデータを前記サーバ手段
から取得し、該手形証券に関するデータのうちの画像デ
ータを参照して、該手形証券に関するデータの修正ある
いは追加入力及び確認処理を行い、該修正あるいは追加
及び確認処理が行われた手形証券に関するデータを前記
サーバ手段に送出する、前記サーバ手段に接続された第
2の処理手段と、前記第1の処理手段による処理が終了
した手形証券の少なくとも表面の画像データを読み取る
第2の読取手段、該第2の読取手段によって読み取った
少なくとも表面の画像データに対応し、前記第2の処理
手段による処理が終了した手形証券に関するデータを前
記サーバ手段から取得するデータ取得手段、該データ取
得手段が取得した画像データと前記第2の読取手段が読
み取った画像データとが一致するか否かを比較照合する
照合手段、該照合手段による照合結果が一致する手形証
券に前記データ取得手段が取得した手形証券に関するデ
ータをMICR文字で印字するMICR文字印字手段を
有し、前記サーバ手段に接続された第3の処理手段とを
具備し、前記第3の処理手段によって処理された手形証
券を、該手形証券に印字されたMICR文字の情報に基
づいて分類する処理を行うことを特徴とする。
According to a first aspect of the present invention, a batch processing identifier is provided in a form processing apparatus that prints MICR characters necessary for accepted bills of bill and classifies the bills of bill by bill due date. The bill related to the bill is sent and stored, and the server means for correcting and adding the data online and a series of passage numbers are printed on the back of the bill. Number printing means, first reading means for reading image data of at least the surface of the bill of commerce, character recognition means for recognizing characters on the bill of commerce based on the image data, the passage number, image data, and characters First processing means connected to the server means, which has a control means for controlling transmission of a recognition result to the server means as data relating to the bill of exchange. , Obtaining data relating to the bill of exchange securities which has been processed by the first processing means from the server means, referring to image data of the data relating to the bill of exchange securities, correcting or additionally inputting data of the bill of exchange securities, and Processing by the first processing means and second processing means connected to the server means for performing confirmation processing, and sending to the server means data relating to the bill of securities for which the correction or addition and confirmation processing has been performed. Second bill reading means for reading at least the image data of the front side of the bill of commerce completed by the bill, and the bill of bill corresponding to at least the image data of the front side read by the second reading means, the bill being processed by the second processing means. Data acquisition means for acquiring data relating to the data from the server means, image data acquired by the data acquisition means, and the second Collating means for comparing and collating whether or not the image data read by the reading means is matched, and the bill-related securities obtained by the data acquisition means are printed in MICR characters on the bills of bill having the matching results of the matching means. MICR character printing means, third processing means connected to the server means, and bill information processed by the third processing means, MICR character information printed on the bill securities It is characterized by performing a classification process based on.

【0013】第2の発明は、第1の発明において、前記
第1の処理手段は、前記第1の読取手段が読み取った画
像データから該画像の特徴を示す特徴データを生成する
第1の生成手段を具備し、該生成した特徴データを含め
た手形証券に関するデータとして前記サーバ手段に送出
し、前記第3の処理手段は、前記第2の読取手段が読み
取った画像データから該画像の特徴を示す特徴データを
生成する第2の生成手段を具備し、前記照合手段は、前
記第1の生成手段が生成した特徴データと前記第2の生
成手段が生成した特徴データとを比較照合することを特
徴とする。
According to a second aspect of the present invention, in the first aspect, the first processing means generates the characteristic data indicating the characteristic of the image from the image data read by the first reading means. Means for transmitting the bill characteristic data including the generated characteristic data to the server means, and the third processing means extracts the characteristic of the image from the image data read by the second reading means. A second generation unit that generates the characteristic data shown, wherein the collation unit compares and collates the characteristic data generated by the first generation unit with the characteristic data generated by the second generation unit. Characterize.

【0014】第3の発明は、第1の発明または第2の発
明において、前記第1の処理手段及び前記第3の処理手
段のそれぞれは、手形証券上に印字されたMICR文字
を読み取るMICR文字読取手段を具備し、前記第1の
処理手段は、該第1の処理手段のMICR文字読取手段
によって読み取られたMICR文字が示すデータを前記
手形証券に関するデータとして前記サーバ手段に送出
し、前記第3の処理手段のデータ取得手段は、前記サー
バ手段に送出されたMICR文字が示すデータを含む手
形証券に関するデータを取得し、前記第3の処理手段の
照合手段は、該第3の処理手段のMICR文字読取手段
によって読み取られたMICR文字が示すデータと前記
データ取得手段によって取得されたMICR文字が示す
データとが一致するか否かを含めて比較照合することを
特徴とする。
In a third aspect based on the first or second aspect, each of the first processing means and the third processing means is a MICR character for reading a MICR character printed on a bill of commerce. The first processing means sends the data represented by the MICR character read by the MICR character reading means of the first processing means to the server means as data relating to the bill of lading, and The data acquiring means of the processing means of No. 3 acquires the data relating to the bill of exchange including the data indicated by the MICR character sent to the server means, and the collating means of the third processing means of the third processing means. The data indicated by the MICR character read by the MICR character reading means and the data indicated by the MICR character acquired by the data acquisition means match. And comparing the verification, including whether.

【0015】第4の発明は、第1の発明から第3の発明
において、前記第1の処理手段は、複数の手形証券を1
枚づつ繰り出す第1のホッパ手段と、処理が終了した手
形証券を出力する第1のスタッカ手段とを具備し、前記
第3の処理手段は、前記第1のスタッカ手段から出力さ
れた複数の手形証券を1枚づつ繰り出す第2のホッパ手
段と、前記照合手段による照合結果が一致する手形証券
を出力する第1のポケット及び前記照合手段による照合
結果が一致しない手形証券を出力する第2のポケットを
有する第2のスタッカ手段とを具備したことを特徴とす
る。
In a fourth aspect based on the first to third aspects, the first processing means includes a plurality of bill notes.
It is provided with a first hopper means for feeding out one by one and a first stacker means for outputting the bills that have been processed, and the third processing means is a plurality of bills output from the first stacker means. Second hopper means for paying out securities one by one, a first pocket for outputting bills of bill with matching results by the matching means, and a second pocket for outputting bills of bills with mismatching matching results by the matching means. And a second stacker unit having a.

【0016】[0016]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0017】図1は、本発明の実施の形態である手形処
理装置の構成を示す図である。図1において、本手形処
理装置は、各種のデータを保持し、管理するイメージフ
ァイルサーバIFS、イメージファイルサーバIFSに
接続される2つのローカルエリアネットワーク(LA
N)1,2、LAN1に接続されるイメージリーダ1
0、LAN1に接続されるエンコーダ30、LAN1に
接続することができるリーダソータ40、LAN2に接
続されるデータ確定部20から構成される。
FIG. 1 is a diagram showing a configuration of a bill processing apparatus according to an embodiment of the present invention. In FIG. 1, the bill processing apparatus includes an image file server IFS that holds and manages various data, and two local area networks (LA) connected to the image file server IFS.
N) 1, 2, image reader 1 connected to LAN 1
0, an encoder 30 connected to LAN1, a reader sorter 40 connectable to LAN1, and a data determination unit 20 connected to LAN2.

【0018】イメージリーダ10は、添票が添付された
手形TG1を1枚毎取り込むホッパ部11、ホッパ部1
1によって取り込んだ手形上のMICR文字を読み込む
MICRリーダ12、取り込んだ手形の表(おもて)面
イメージ全体及び所定の部分イメージを読み込む表面イ
メージセンサ13、取り込んだ手形の裏面イメージを読
み込む裏面イメージセンサ14、取り込んだ手形の裏面
の所定箇所に一連の通過番号(追番)を印字するエンド
ースプリンタ15、処理済の手形を出力するスタッカ部
16、表面イメージセンサ13によって読み込まれた所
定の部分のイメージからOCR(光学的文字認識)処理
する文字認識部17、表面イメージセンサ13によって
読み込まれた表面イメージ全体のうちの所定の部分のイ
メージに対して所定の画像処理を施した特徴データを生
成するイメージ処理部18、各種のデータを一時記憶す
る一時記憶部19、及びLAN1等との通信処理を含め
た各種の処理を全体制御する制御部C10を有する。な
お、スタッカ部16は、出力口が1ポケットであり、ホ
ッパ11から入力された手形等は全てこの1ポケットに
出力される。
The image reader 10 includes a hopper unit 11 and a hopper unit 1 that take in each of the bills TG1 with an attached slip.
MICR reader 12 that reads MICR characters on the bill captured by 1., front image sensor 13 that reads the entire front (front) image of the bill that has been captured and a predetermined partial image, back image that reads the back image of the captured bill The sensor 14, the endless printer 15 that prints a series of passage numbers (serial numbers) at predetermined positions on the back surface of the captured bill, the stacker unit 16 that outputs the processed bill, and the predetermined portion read by the front surface image sensor 13 A character recognition unit 17 that performs OCR (optical character recognition) processing from an image, and generates characteristic data by performing predetermined image processing on a predetermined portion of the entire surface image read by the surface image sensor 13. Image processing unit 18, temporary storage unit 19 for temporarily storing various data And a control unit C10 for controlling overall various processes including a communication process with the LAN1 like. The stacker unit 16 has an output port of one pocket, and all bills and the like input from the hopper 11 are output to this one pocket.

【0019】エンコーダ30は、イメージリーダ10に
よって処理された手形TG2を1枚毎取り込むホッパ部
31、ホッパ部31によって取り込んだ手形上のMIC
R文字を読み込むMICRリーダ32、取り込んだ手形
の表面イメージ全体を読み込む表面イメージセンサ3
3、手形にMICR文字を印字するMICRエンコーダ
34、MICR文字が印字された手形の裏面に処理済マ
ークを印字するエンドースプリンタ35、処理された手
形を出力するスタッカ部36、表面イメージセンサ33
によって読み込まれた表面イメージ全体のうちの所定の
部分のイメージに対して処理の画像処理を施した特徴デ
ータを生成するイメージ処理部37、イメージリーダ1
0のイメージ処理部18が生成した特徴データとイメー
ジ処理部37が生成した特徴データとを照合する照合部
38、ホッパ31から入力された一連の手形に対する処
理結果を印字するジャーナルプリンタ39、及びLAN
1等との通信処理を含めた各種の処理を全体制御する制
御部C30を有する。なお、スタッカ部36は、出力口
が2ポケットであり、照合部38で特徴データが一致す
る等の照合結果が得られ、MICRエンコーダ34でM
ICR文字が印字された手形を出力する「処理済」ポケ
ットと、照合部38で特徴データが一致しない等の照合
結果が得られた手形を出力する「リジェクト」ポケット
とを有する。
The encoder 30 includes a hopper unit 31 that takes in the bills TG2 processed by the image reader 10 one by one, and a MIC on the bill that is taken in by the hopper unit 31.
MICR reader 32 that reads the R character, surface image sensor 3 that reads the entire captured surface image of the handprint
3. MICR encoder 34 for printing MICR characters on a bill, endors printer 35 for printing a processed mark on the back of the bill with MICR characters printed, stacker unit 36 for outputting the processed bill, and front surface image sensor 33
An image processing unit 37 for generating characteristic data by performing image processing on a predetermined portion of the entire surface image read by the image reader 1.
0, the collation unit 38 that collates the characteristic data generated by the image processing unit 18 with the characteristic data generated by the image processing unit 37, the journal printer 39 that prints the processing result for the series of bills input from the hopper 31, and the LAN.
It has a control unit C30 that totally controls various processes including a communication process with the first and the like. It should be noted that the stacker unit 36 has two pockets for output, the collation unit 38 obtains a collation result such as matching of feature data, and the MICR encoder 34 outputs M.
It has a "processed" pocket for outputting a bill with ICR characters printed thereon, and a "reject" pocket for outputting a bill with a collation result such as feature data not matching in the collating unit 38.

【0020】データ確定部20は、イメージリーダ10
によって読み込まれた手形の表面イメージおよび認識結
果が反映された表面画像を参照して、オペレータが不足
するデータを追加入力するとともに誤認識した文字の訂
正あるいは認識できないデータの追加入力を行う入力処
理部21と、入力処理部21によって修正あるいは追加
の入力が行われた手形を含む全ての手形のデータが正し
いかを、表面イメージ全体及び裏面イメージ全体を参照
してオペレータが確認する確認処理部22とを有する。
入力処理部21は、第1入力処理部21aと第2入力処
理部21bとの2つの端末を有し、第1入力処理部21
aでは、主として文字認識部17で読み取ることができ
なかったデータ、例えば金額データの追加入力または訂
正入力を行う。第2入力処理部21bは、主として支払
人氏名等の追加入力を行う。なお、第1入力処理部21
a及び第2入力処理部21bは、小規模店の場合、1つ
の端末によって兼用することができる。確認処理部22
は、手形の表面イメージ全体及び裏面イメージを参照し
て、データに誤りがある場合に、このデータを修正し、
確定データとして出力する。従って、データ確定部20
は、通常3人のオペレータが手入力処理し、小規模店
は、2人のオペレータが手入力処理する。オペレータの
人数は、店舗規模に応じ、随時増やすことが可能となっ
ている。
The data confirming section 20 includes an image reader 10
An input processing unit that refers to the surface image of the handprint read by the computer and the surface image that reflects the recognition result, and additionally inputs the data that the operator lacks and corrects the misrecognized character or additionally inputs the unrecognizable data. 21 and a confirmation processing unit 22 for the operator to confirm whether the data of all the bills including the bills corrected or added by the input processing unit 21 are correct by referring to the entire front image and the entire back image. Have.
The input processing unit 21 has two terminals, a first input processing unit 21a and a second input processing unit 21b, and the first input processing unit 21
In a, mainly data that could not be read by the character recognition unit 17, for example, additional input or correction input of amount data is performed. The second input processing unit 21b mainly performs additional input of the payer name and the like. The first input processing unit 21
In the case of a small-scale store, a and the second input processing unit 21b can be shared by one terminal. Confirmation processing unit 22
Refers to the entire front and back images of the handprint and corrects this data if there is an error,
Output as confirmed data. Therefore, the data confirmation unit 20
Are usually manually input by three operators, and in small shops, two operators are manually input. The number of operators can be increased at any time according to the size of the store.

【0021】イメージファイルサーバIFSは、データ
格納部3を有し、LAN1を介したイメージリーダ10
及びエンコーダ30、あるいはリーダソータ40との間
で入出力されるデータの格納及び読出し、及びLAN2
を介したデータ確定部20との間で入出力されるデータ
の読出し及び更新を行う。データ格納部3には、イメー
ジリーダ10から入力される手形の通過番号、表面イメ
ージ、裏面イメージ、特徴データ、MICRデータ、文
字認識データ等、データ確定部20の入力処理部22か
ら入力される仮確定データ、データ確定部20の確認処
理部22から入力される確定データが入力され、記憶さ
れている。また、データ格納部3からデータ確定部20
及びエンコーダ30には、処理対象の手形の表面イメー
ジ全体、認識結果を反映した画像データ及び印字データ
が出力される。
The image file server IFS has a data storage unit 3 and an image reader 10 via the LAN 1.
And storing / reading of data input / output to / from the encoder 30 or the reader / sorter 40, and the LAN 2
The data input / output to / from the data determination unit 20 via the memory is read and updated. The data storage unit 3 temporarily inputs the bill pass number, the front side image, the back side image, the feature data, the MICR data, the character recognition data, and the like input from the image reader 10 from the input processing unit 22 of the data determination unit 20. The confirmation data and the confirmation data input from the confirmation processing unit 22 of the data confirmation unit 20 are input and stored. In addition, the data storage unit 3 to the data determination unit 20
The encoder 30 outputs the entire surface image of the handprint to be processed, the image data reflecting the recognition result, and the print data.

【0022】リーダソータ40は、LAN1に接続さ
れ、あるいはオフラインで、エンコーダ30のスタッカ
部36の「処理済」ポケットから出力された手形を分類
処理する。リーダソータ40は、「処理済」ポケットか
ら出力された手形を入力するホッパ部41、ホッパ部4
1から取り込まれた手形のMICR文字を読み込むMI
CRリーダ42、この読み込んだMICR文字に基づい
て取立区分/支払期日順に分類するソータ/スタッカ部
43、及び全体の制御を行う制御部C40を有する。な
お、ソータ/スタッカ部43は、本例では11ポケット
を有し、11分類以上に分類する場合は、ポケットを増
やすこともできるが、リジェクトされた手形を繰り返し
ホッパ部41から入力することによっても行える。
The reader sorter 40 is connected to the LAN 1 or is off-line to classify the bills output from the “processed” pocket of the stacker unit 36 of the encoder 30. The reader sorter 40 includes a hopper unit 41 and a hopper unit 4 for inputting bills output from the "processed" pocket.
MI that reads the MICR character of the bill imported from 1.
It has a CR reader 42, a sorter / stacker unit 43 that sorts in order of collection section / payment date based on the read MICR characters, and a control unit C40 that controls the whole. Note that the sorter / stacker unit 43 has 11 pockets in this example, and in the case of classifying into 11 or more categories, the number of pockets can be increased, but it is also possible to repeatedly input rejected bills from the hopper unit 41. You can do it.

【0023】また、ソータ/スタッカ部43から分類出
力された手形は、この分類に従って係員が保管庫に取立
区分/支払期日別に保管し、支払期日が迫った手形は、
この保管庫から取り出されて処理される。
The bills sorted and output from the sorter / stacker unit 43 are stored by the staff according to the classification according to collection category / payment date.
It is taken out of this storage and processed.

【0024】なお、この手形処理装置は、主として金融
機関のセンターの集中課で用いられる装置である。この
センターの集中課には、この金融機関の各支店から、支
払期日が2週間以上の手形が集積され、集中課では、こ
の集積された手形を期日/種別/店別に分類して保管す
る業務を行う。
The bill handling apparatus is mainly used in the centralized section of the center of a financial institution. Bills with due dates of two weeks or more are collected from each branch of this financial institution in the centralized section of this center. In the centralized section, the collected bills are sorted and stored according to date / type / store. I do.

【0025】次に、図2を参照してイメージファイルサ
ーバIFSのデータ格納部3に格納されるデータ構成に
ついて説明する。
Next, the data structure stored in the data storage unit 3 of the image file server IFS will be described with reference to FIG.

【0026】データ格納部3内には、各バッチIDとこ
の各バッチIDの管理テーブルの格納場所を示すバッチ
管理テーブルTBATCHと、各手形毎の管理テーブル
TBを有し、各手形から取得したデータを管理する。す
なわち、バッチ管理テーブルTBATCHは、まとまり
のある手形群をバッチID(バッチ番号)によって管理
し、この各バッチIDが示す手形群を管理する管理テー
ブルTBの格納場所を有している。この格納場所によっ
て示される管理テーブルTBは、イメージリーダ10を
通過した通過番号N、表面イメージセンサ13によって
取得された表面イメージ全体を格納する表面イメージフ
ァイルF1の格納場所を示すポインタP1、裏面イメー
ジセンサ14によって取得された裏面イメージ全体を格
納する裏面イメージファイルF2の格納場所を示すポイ
ンタP2、イメージ処理部18によって取得された特徴
データを格納する特徴データファイルF3の格納場所を
示すポインタP3、交換所コード等の各種の手形データ
Dの格納場所を示すポインタP4、手形種類G、第1入
力処理部21aによる処理が処理済か否かを示す処理フ
ラグFG1、第2入力処理部21bによる処理が処理済
か否かを示す処理フラグFG2、確認処理部22による
処理が処理済か否かを示す処理フラグFG3から構成さ
れる。分散処理では、バッチIDを特定することにより
並行処理が可能となる。
The data storage unit 3 has a batch management table TBATCH indicating each batch ID, a management table storage location of each batch ID, and a management table TB for each bill, and data acquired from each bill. Manage. That is, the batch management table TBATCH has a storage location of a management table TB that manages a group of bills of note by a batch ID (batch number) and manages the group of bills indicated by each batch ID. The management table TB indicated by this storage location includes a passage number N that has passed through the image reader 10, a pointer P1 indicating the storage location of a front surface image file F1 that stores the entire front surface image acquired by the front surface image sensor 13, and a back surface image sensor. Pointer P2 indicating the storage location of the back side image file F2 storing the entire back side image acquired by 14; Pointer P3 indicating the storage location of the characteristic data file F3 storing the characteristic data acquired by the image processing unit 18; A pointer P4 indicating a storage location of various bill data D such as a code, a bill type G, a processing flag FG1 indicating whether or not the processing by the first input processing unit 21a has been processed, and a processing by the second input processing unit 21b is processed. By the processing flag FG2 indicating whether or not it has been completed, the confirmation processing unit 22 Process consists of processing flag FG3 indicating whether processed. In distributed processing, parallel processing becomes possible by specifying the batch ID.

【0027】次に、図3を参照してデータ格納部3に格
納される手形データDとイメージリーダ10,データ確
定部20,エンコーダ30との間の関係について説明す
る。
Next, the relationship between the bill data D stored in the data storage unit 3 and the image reader 10, the data determination unit 20, and the encoder 30 will be described with reference to FIG.

【0028】まず、イメージリーダ10では、入力され
た手形TG1に対してMICRリーダ12がMICR文
字の読み取りを行い、読み取ったコードライン52を手
形データDAとしてデータ格納部3に格納する。また、
表面イメージセンサ13は、文字認識用イメージ54と
表面イメージ全体55とを取り込み、文字認識用イメー
ジ54は、文字認識部17によってOCR処理57さ
れ、手形データDAとしてデータ格納部3に格納され、
表面イメージ全体55と裏面イメージセンサ14によっ
て取り込まれた裏面イメージ全体56とは、それぞれ表
面イメージファイルF1及び裏面イメージファイルF2
としてデータ格納部3に格納される。また、表面イメー
ジ全体55は、イメージ処理部18によって所定の部分
の画像の特徴抽出処理58が行われ、処理結果である特
徴データは特徴データファイルF3としてデータ格納部
3に格納される。
First, in the image reader 10, the MICR reader 12 reads MICR characters from the input bill TG1 and stores the read code line 52 in the data storage unit 3 as the bill data DA. Also,
The surface image sensor 13 takes in the character recognition image 54 and the entire surface image 55, the character recognition image 54 is OCR processed 57 by the character recognition unit 17, and is stored in the data storage unit 3 as the bill data DA.
The entire front image 55 and the entire back image 56 captured by the back image sensor 14 are the front image file F1 and the back image file F2, respectively.
Is stored in the data storage unit 3. Further, the entire surface image 55 is subjected to the feature extraction processing 58 of the image of a predetermined portion by the image processing unit 18, and the feature data as the processing result is stored in the data storage unit 3 as the feature data file F3.

【0029】一方、データ確定部20の第1入力処理部
21aは、表面イメージファイルF1が示すイメージを
参照して、OCR処理がリジェクトされた手形データを
第1入力として入力し、仮確定データDBを生成する。
また、第2入力処理部21bは、表面イメージファイル
F1が示すイメージを参照して、OCR処理されない手
形番号や支払人氏名等を第2入力として入力し、仮確定
データDBあるいは確定データDCの一部を生成する。
さらに、確認処理部22は、表面イメージファイルF1
が示すイメージを参照して、仮確定データDBが正しい
かを確認し、正しくない場合は修正あるいは追加した確
定データDCを生成する。
On the other hand, the first input processing unit 21a of the data confirmation unit 20 refers to the image indicated by the front image file F1 and inputs the bill data rejected by the OCR process as the first input, and the temporary confirmation data DB To generate.
Further, the second input processing unit 21b refers to the image indicated by the surface image file F1 and inputs the bill number, payer name, etc., which are not OCR processed, as the second input, and outputs the temporary confirmation data DB or the confirmation data DC. Produce a copy.
Further, the confirmation processing unit 22 uses the front surface image file F1.
Is checked to see if the temporary confirmation data DB is correct, and if it is not correct, corrected or added confirmation data DC is generated.

【0030】エンコーダ30では、入力された手形TG
2のMICR文字をMICRリーダ32によって読み取
る処理72を行って、読み取ったコードライン73と手
形データDA内のコードラインとのMICR文字を比較
するとともに、表面イメージセンサ33が取り込んだ表
面イメージ全体76から生成された特徴データと特徴デ
ータファイルF3が示す特徴データとのイメージマッチ
ング(照合処理)77を行い、MICR文字または照合
処理77の少なくとも一方が一致した場合にのみ、MI
CRエンコーダ34によって手形TG2に確定データD
CをMICR文字で印字する。
In the encoder 30, the input bill TG is input.
A process 72 for reading the MICR character No. 2 by the MICR reader 32 is performed to compare the read MICR character with the code line 73 and the code line in the bill data DA, and from the entire surface image 76 captured by the surface image sensor 33. Image matching (matching process) 77 between the generated feature data and the feature data indicated by the feature data file F3 is performed, and MI is matched only when at least one of the MICR character and the match process 77 matches.
Confirm data D on the bill TG2 by the CR encoder 34
Print C with MICR characters.

【0031】なお、イメージリーダ10による処理、デ
ータ確定部20による処理、及びエンコーダ30による
処理は、それぞれイメージがファイルサーバIFSを介
してバッチ単位で分散して実行することができる。但
し、データ確定部20による処理対象は、イメージリー
ダ10により処理が終了した手形のデータであり、エン
コーダ30による処理対象は、データ確定部20により
処理が終了した手形のデータであることを前提としてい
る。
It should be noted that the processing by the image reader 10, the processing by the data confirming unit 20, and the processing by the encoder 30 can be executed by distributing the image in batch units via the file server IFS. However, it is assumed that the processing target by the data confirmation unit 20 is the bill data that has been processed by the image reader 10, and the processing target by the encoder 30 is the bill data that has been processed by the data confirmation unit 20. There is.

【0032】次に、図4から図6のフローチャートを参
照して、手形処理装置の手形処理手順について説明す
る。なお、上述したように、イメージリーダ10、デー
タ確定部20、及びエンコーダ30の各処理は、分散し
て実行される。
Next, a bill processing procedure of the bill processing apparatus will be described with reference to the flowcharts of FIGS. As described above, the processes of the image reader 10, the data determination unit 20, and the encoder 30 are distributed and executed.

【0033】図4は、手形の分類に係る手形処理手順を
示す全体フローチャートを示している。まず、金融機関
が定める当バッチ処理のIDをイメージリーダ10の図
示しない端末部から入力する。そして、イメージリーダ
10のホッパ部11に現物の手形TG1を載置すること
によって、手形TG1の入力を開始させる(ステップ1
01)。この手形TG1は、数百枚程度の手形がまとま
った単位で入力され、添票が添付される。その後、イメ
ージリーダ10は、初期データの取得処理を行う(ステ
ップ102)。この処理によって取得されるデータは、
図3に示す手形データDA、表面イメージ、裏面イメー
ジ、特徴データ等である。その後、これらの取得された
データは、LAN1を介してイメージファイルサーバI
FSのデータ格納部3に格納される。
FIG. 4 is an overall flowchart showing a bill processing procedure relating to bill classification. First, the ID of this batch process defined by a financial institution is input from a terminal unit (not shown) of the image reader 10. Then, the actual bill TG1 is placed on the hopper unit 11 of the image reader 10 to start the input of the bill TG1 (step 1
01). The bill TG1 is input in a unit of several hundred bills, and a bill is attached. After that, the image reader 10 performs an initial data acquisition process (step 102). The data acquired by this process is
The bill data DA, the front side image, the back side image, the characteristic data and the like shown in FIG. Thereafter, these acquired data are transmitted to the image file server I via the LAN 1.
It is stored in the data storage unit 3 of the FS.

【0034】その後、データ確定部20は、データ格納
部3に格納された表面イメージを参照して、データ格納
部3に格納された手形データDAの修正、追加の処理を
行うとともに、確認処理を行う(ステップ104)。こ
の結果、仮確定データDBを介して確定データDCが生
成される。
After that, the data confirming unit 20 refers to the surface image stored in the data storage unit 3 to correct and add the bill data DA stored in the data storage unit 3 and to perform confirmation processing. Perform (step 104). As a result, the finalized data DC is generated via the temporary finalized data DB.

【0035】その後、イメージリーダ10のスタッカ部
16から出力された現物の手形TG2をエンコーダ30
に再入力する(ステップ105)。このとき、バッチI
Dをエンコーダ30に入力する。このバッチIDにより
イメージファイルサーバIFS内において格納されてい
るファイルを特定する。この再入力された手形TG2
は、エンコーダ30によってMICR文字及び特徴デー
タが再読み取りされ、イメージファイルサーバIFSの
データ格納部3に格納されているMICR文字及び特徴
データのいづれかと照合され、一致した手形のデータを
MICR文字でエンコードを行い、処理済マークを裏面
にエンドースする。
After that, the actual bill TG2 output from the stacker unit 16 of the image reader 10 is transferred to the encoder 30.
Again (step 105). At this time, batch I
Input D to the encoder 30. The file stored in the image file server IFS is specified by this batch ID. This re-entered bill TG2
The encoder 30 re-reads the MICR character and the characteristic data, compares them with the MICR character and the characteristic data stored in the data storage unit 3 of the image file server IFS, and encodes the matched bill data with the MICR character. And end the processed mark on the back side.

【0036】その後、エンコーダ30から出力された現
物の手形TG3は、リーダソータ40によって分類され
(ステップ108)、分類された現物の手形は、分類に
従って保管庫4に格納される。
Thereafter, the physical bills TG3 output from the encoder 30 are classified by the reader / sorter 40 (step 108), and the classified physical bills are stored in the storage box 4 according to the classification.

【0037】ここで、ステップ102の初期データの取
得処理を図5の詳細フローチャートを参照して説明す
る。
Now, the process of acquiring the initial data in step 102 will be described with reference to the detailed flowchart of FIG.

【0038】図5において、まずホッパ部11から1枚
の手形が繰り出し入力され、この手形に対して通過番号
を付与する(ステップ201)。続いて、MICRリー
ダ12が、この手形のMICR文字を読み取る(ステッ
プ202)。このMICR文字は、例えば図13に示す
約束手形の領域ER内のMICR文字であり、このMI
CR文字から、交換所コード、金融機関コード、支店コ
ード、口座番号等のコードが読み取られる。その後、表
面イメージセンサ13によって、この手形の表面イメー
ジ及びOCR認識用イメージが取り込まれるとともに、
裏面イメージセンサ14によって、裏面イメージが取り
込まれる(ステップ203)。この取り込まれたイメー
ジのうちのOCR認識用イメージに対しては、文字認識
部17がOCRによる文字認識を行う(ステップ20
4)。このOCR認識用イメージの領域は、例えば図1
3に示す約束手形では、領域CR1〜CR3があり、O
CRの文字認識によって、領域CR1からは、交換所コ
ード、金融機関コード、支店コードが得られ、領域CR
2からは、金額が得られ、領域CR3からは、支払期日
が得られる。また、ステップ203で取り込まれた表面
イメージに対しては、さらにイメージ処理部18によっ
て所定の画像処理が施された特徴データが生成される
(ステップ205)。
In FIG. 5, first, one bill is fed out from the hopper unit 11, and a pass number is given to this bill (step 201). Then, the MICR reader 12 reads the MICR character of this handprint (step 202). This MICR character is, for example, the MICR character in the area ER of the promissory note shown in FIG.
Codes such as an exchange code, a financial institution code, a branch code, and an account number are read from the CR character. Thereafter, the surface image sensor 13 captures the surface image of the handprint and the OCR recognition image, and
The back image is captured by the back image sensor 14 (step 203). The character recognition unit 17 performs character recognition by OCR on the OCR recognition image of the captured images (step 20).
4). The area of this OCR recognition image is, for example, as shown in FIG.
In the promissory note shown in 3, there are areas CR1 to CR3, and
By the character recognition of CR, the exchange code, the financial institution code, and the branch code can be obtained from the area CR1.
The amount is obtained from 2, and the payment due date is obtained from the region CR3. Further, with respect to the front surface image captured in step 203, the image processing section 18 further performs predetermined image processing to generate characteristic data (step 205).

【0039】その後、ステップ201で付与された通過
番号、ステップ202で読み取られたMICRデータ、
ステップ203で取り込まれた表面イメージデータ、裏
面イメージデータ、ステップ204で文字認識された文
字認識データ、及びステップ205で生成された特徴デ
ータは、一時記憶部19に記憶され(ステップ20
6)、処理中の手形の裏面に通過番号をプリントしてス
タッカ部16に出力する(ステップ207)。その後、
次の手形が入力されたか否かを判断し(ステップ20
8)、次の手形が入力された場合には、ステップ201
に移行して上述した処理を繰り返し、次の手形が入力さ
れない場合には、ステップ102にリターンする。この
ようにして得られた初期データは、データ格納部3に転
送されて格納され、管理される。
After that, the passage number given in step 201, the MICR data read in step 202,
The front side image data, the back side image data captured in step 203, the character recognition data recognized in step 204, and the feature data generated in step 205 are stored in the temporary storage unit 19 (step 20).
6) The pass number is printed on the back surface of the bill being processed and output to the stacker unit 16 (step 207). afterwards,
It is determined whether or not the next bill has been input (step 20).
8) If the next bill is input, step 201
When the next bill is not input, the process returns to step 102. The initial data obtained in this way is transferred to the data storage unit 3, stored and managed.

【0040】次に、ステップ106のエンコード処理を
図6の詳細フローチャートを参照して説明する。
Next, the encoding process of step 106 will be described with reference to the detailed flowchart of FIG.

【0041】まず、エンコーダ30は、ホッパ部31か
ら1つの手形を取り出し、この手形の通過番号に対応す
る手形のデータをLAN1を介してイメージファイルサ
ーバIFSのデータ格納部3から獲得する(ステップ3
01)。そして、MICRリーダ32は、この手形のM
ICR文字を読み取る(ステップ302)。さらに、表
面イメージセンサ33は手形の表面イメージを取り込む
(ステップ303)。その後、読み取ったMICRデー
タとイメージファイルサーバIFSから獲得したMIC
Rデータとが一致するか否かを判断し(ステップ30
4)、一致しない場合は、さらにイメージ処理部37
が、取り込んだ表面イメージに対して所定の画像処理を
施した特徴データを生成する(ステップ305)。そし
て、照合部38は、この生成された特徴データとイメー
ジファイルサーバIFSから獲得された特徴データとを
比較照合し(ステップ306)、この比較照合結果をも
とに、特徴データが一致するか否かを判断する(ステッ
プ307)。
First, the encoder 30 takes out one bill from the hopper unit 31 and acquires the bill data corresponding to the pass number of this bill from the data storage unit 3 of the image file server IFS via the LAN 1 (step 3).
01). The MICR reader 32 uses the M
The ICR character is read (step 302). Further, the surface image sensor 33 captures the surface image of the handprint (step 303). After that, the read MICR data and the MIC acquired from the image file server IFS
It is determined whether or not the R data matches (step 30
4) If they do not match, further image processing unit 37
Generates the feature data by subjecting the captured surface image to predetermined image processing (step 305). Then, the collating unit 38 collates and collates the generated characteristic data with the characteristic data acquired from the image file server IFS (step 306), and based on the comparison and collation result, whether or not the characteristic data match. It is determined whether or not (step 307).

【0042】ステップ307によって特徴データが一致
した場合あるいはステップ304によってMICRデー
タが一致した場合、MICRエンコーダ34は、KNO
手形に印字していないMICR文字を印字し(ステップ
308)、この手形の裏面に処理済マークを印字する
(ステップ309)。そして、この処理済マークが印字
された手形をスタッカ部36の「処理済」ポケットに出
力する(ステップ310)。一方、ステップ307で特
徴データが一致しないと判断された場合、この手形をス
タッカ部36の「リジェクト」ポケットに出力する(ス
テップ311)。
If the characteristic data match in step 307 or the MICR data match in step 304, the MICR encoder 34 uses the KNO.
MICR characters not printed on the bill are printed (step 308), and a processed mark is printed on the back surface of the bill (step 309). Then, the bill on which the processed mark is printed is output to the "processed" pocket of the stacker unit 36 (step 310). On the other hand, if it is determined in step 307 that the feature data do not match, this bill is output to the "reject" pocket of the stacker unit 36 (step 311).

【0043】ステップ310あるいはステップ311
で、手形が、「処理済」ポケットあるいは「リジェク
ト」ポケットに出力された後、さらに次の手形があるか
否かを判断し(ステップ312)、次の手形が入力され
た場合は、ステップ301に移行して上述した処理を繰
り返し、次の手形が入力されない場合は、ジャーナルプ
リンタ39により所定の形式の処理結果を印刷出力し
て、ステップ106にリターンする。
Step 310 or Step 311
After the bill is output to the "processed" pocket or the "reject" pocket, it is determined whether or not there is another bill (step 312), and if the next bill is input, step 301 When the next bill is not input, the journal printer 39 prints out the processing result in a predetermined format and returns to step 106.

【0044】次に、ステップ205及びステップ305
において、イメージ処理部18及びイメージ処理部37
が生成する特徴データについて説明する。この特徴デー
タの生成には、例えば第1の方式と第2の方式との2つ
の方式があるので、まず第1の方式について説明する。
もちろん、イメージ処理部18が第1の方式を採用した
場合には、イメージ処理部37も第1の方式を採用し、
照合部38もこの第1の方式に従った照合処理を行うこ
とになり、第2の方式が採用された場合も同様である。
Next, step 205 and step 305
In the image processing section 18 and the image processing section 37,
The characteristic data generated by will be described. There are two methods for generating the characteristic data, for example, the first method and the second method. Therefore, the first method will be described first.
Of course, when the image processing unit 18 adopts the first method, the image processing unit 37 also adopts the first method,
The collating unit 38 also performs the collating process according to the first method, and the same applies when the second method is adopted.

【0045】まず、第1の方式について図7から図9を
参照して説明する。
First, the first method will be described with reference to FIGS. 7 to 9.

【0046】図7は、ステップ205,305における
特徴データの第1の生成処理手順を示す詳細フローチャ
ートであり、図8は、その生成過程を説明する図であ
る。
FIG. 7 is a detailed flowchart showing the first generation processing procedure of the characteristic data in steps 205 and 305, and FIG. 8 is a diagram for explaining the generation process.

【0047】まず、イメージ処理部18,37は、表面
イメージセンサ13,33によって取り込まれた表面イ
メージI10のうちの所定領域E11〜E13を切り出
したイメージI11〜I13を取得する(ステップ40
1)。なお、領域E1は、支払人の氏名と金額とが記載
された領域であり、領域E12は、振出人の氏名と住所
とが記載された領域であり、領域E13は、引受人の氏
名と住所とが記載された領域である。そして、それぞれ
のイメージI11〜I13に対する濃度分布のヒストグ
ラムH11〜H13を生成し(ステップ402)、この
ヒストグラムの分布から、それぞれ所定のしきい値を決
定し、各しきい値によって各イメージI11〜I13を
2値化する(ステップ403)。さらに、この2値化し
た2値化イメージI21〜I23のそれぞれの領域に対
する黒画素の比率を特徴値D1〜D3として設定する
(ステップ404)。そして、2値化イメージI21〜
I23と特徴値D1〜D3とをそれぞれを対とした特徴
データを生成し(ステップ405)、ステップ205あ
るいはステップ305にリターンする。
First, the image processing units 18 and 37 obtain images I11 to I13 obtained by cutting out predetermined regions E11 to E13 of the surface image I10 captured by the surface image sensors 13 and 33 (step 40).
1). The area E1 is an area in which the name and amount of the payer are described, the area E12 is an area in which the name and address of the sender are described, and the area E13 is the name and address of the underwriter. Is the area in which is written. Then, histograms H11 to H13 of the density distribution for the respective images I11 to I13 are generated (step 402), predetermined threshold values are determined from the distribution of the histograms, and the respective images I11 to I13 are determined by the respective threshold values. Is binarized (step 403). Further, the ratio of black pixels to the respective regions of the binarized binarized images I21 to I23 is set as the characteristic values D1 to D3 (step 404). Then, the binarized image I21 ...
I23 and feature values D1 to D3 are paired to generate feature data (step 405), and the process returns to step 205 or step 305.

【0048】この第1の方式で生成された特徴データに
対するステップ306における照合部38による照合処
理手順を図9の詳細フローチャートを参照して説明す
る。
The verification processing procedure by the verification unit 38 in step 306 for the characteristic data generated by the first method will be described with reference to the detailed flowchart of FIG.

【0049】まず、照合部38は、イメージ処理部1
8,37のそれぞれが生成した領域E11の特徴値の不
一致度を算出し(ステップ501)、この不一致度をも
とに特徴値が一致しているか否かを判断する(ステップ
502)。すなわち、黒画素の比率の不一致度が許容範
囲内であれば、一致すると判断し、許容範囲外であれ
ば、一致しないと判断する。一致していないと判断した
場合、入力された手形は「不一致」と設定して(ステッ
プ514)、ステップ306にリターンする。一致して
いると判断された場合、さらに同様にして領域E12の
特徴値の不一致度を算出し(ステップ503)、この不
一致度をもとに特徴値が一致しているか否かを判断し
(ステップ504)、一致していない場合は、ステップ
514に移行して「不一致」として設定される。ステッ
プ504で一致していると判断された場合は、さらに同
様にして領域E13の特徴値の不一致度を算出し(ステ
ップ505)、この不一致度をもとに特徴値が一致して
いるか否かを判断し(ステップ506)、一致していな
い場合は、ステップ514に移行して「不一致」として
設定される。
First, the collating unit 38 is the image processing unit 1.
The degree of non-coincidence of the characteristic values of the area E11 generated by each of Nos. 8 and 37 is calculated (step 501), and it is determined whether or not the characteristic values coincide with each other based on the degree of non-coincidence (step 502). That is, if the degree of non-coincidence of the ratio of black pixels is within the allowable range, it is determined that they match, and if it is outside the allowable range, it is determined that they do not match. If it is determined that they do not match, the input bill is set as “non-match” (step 514) and the process returns to step 306. If it is determined that they match, the degree of mismatch of the feature values of the area E12 is calculated in the same manner (step 503), and it is determined whether the feature values match based on this degree of mismatch ( (Step 504) If they do not match, the process moves to Step 514 and is set as "mismatch". If it is determined in step 504 that they match, the degree of mismatch of the feature values of the area E13 is calculated in the same manner (step 505), and whether the feature values match based on this degree of mismatch is determined. Is determined (step 506), and if they do not match, the process proceeds to step 514 and is set as “mismatch”.

【0050】一方、ステップ506で領域E13の特徴
値が一致していると判断された場合は、さらに2値化イ
メージの照合処理を行う。まず、イメージ処理部18,
37のそれぞれが生成した領域E11の2値化イメージ
I21の一致度を算出する(ステップ507)。この2
値化イメージの一致度の算出処理は、エンコーダ30の
イメージ処理部37が生成した領域E11の2値化イメ
ージ内の所定領域のイメージを取り出し、この取り出し
たイメージを、イメージリーダ10のイメージ処理部1
8が生成した領域E11の2値化イメージの全領域に対
して1画素づつ、ずらしながらマッチング計算を行い、
最も一致したときの値を一致度としている。その後、算
出された一致度が所定値以上であれば一致と判断する処
理を行い(ステップ508)、一致していないと判断さ
れた場合は、ステップ514に移行して「不一致」とし
て設定される。一方、一致していると判断された場合
は、さらにステップ507と同様にして、領域E12の
2値化イメージの一致度を算出し(ステップ509)、
この一致度をもとに領域E12の2値化イメージが一致
しているか否かを判断する(ステップ510)。一致し
ていないと判断された場合は、ステップ514に移行し
て「不一致」として設定される。一方、一致していると
判断された場合は、さらに同様にして、領域E13の2
値化イメージの一致度を算出し(ステップ511)、こ
の一致度をもとに領域E13の2値化イメージが一致し
ているか否かを判断する(ステップ512)。一致して
いないと判断された場合は、ステップ514に移行して
「不一致」と設定されて、ステップ306にリターン
し、一致していると判断された場合は、「一致」と設定
されて(ステップ513)、ステップ306にリターン
する。
On the other hand, if it is determined in step 506 that the feature values of the area E13 match each other, the binarized image collation processing is further performed. First, the image processing unit 18,
The degree of coincidence of the binarized image I21 of the area E11 generated by each of 37 is calculated (step 507). This 2
In the calculation processing of the degree of coincidence of the binarized image, an image of a predetermined area in the binarized image of the area E11 generated by the image processing unit 37 of the encoder 30 is extracted, and the extracted image is processed by the image processing unit of the image reader 10. 1
8, the matching calculation is performed while shifting by 1 pixel for every area of the binarized image of the area E11 generated,
The value at the time of the best match is the match degree. After that, if the calculated degree of coincidence is equal to or greater than a predetermined value, a process of determining a match is performed (step 508), and if it is determined that they do not match, the process proceeds to step 514 and is set as “mismatch”. . On the other hand, if it is determined that they match each other, the degree of coincidence of the binarized image of the area E12 is calculated in the same manner as in step 507 (step 509).
Based on this degree of coincidence, it is determined whether or not the binarized images of the area E12 coincide (step 510). If it is determined that they do not match, the process proceeds to step 514 and is set as “mismatch”. On the other hand, if it is determined that they match each other, the same process is performed for the area E13 2
The degree of coincidence of the binarized images is calculated (step 511), and it is determined based on the degree of coincidence whether or not the binarized images of the area E13 are coincident (step 512). If it is determined that they do not match, the process proceeds to step 514 and “mismatch” is set, and the process returns to step 306. If it is determined that they match, “match” is set ( Step 513) and the process returns to step 306.

【0051】このように、第1の方式では、特徴値を持
たせた特徴データを生成し、この生成した特徴データに
対するテンプレートマッチング(ここでは、残差逐次検
定法)を行うようにしている。
As described above, in the first method, the characteristic data having the characteristic value is generated, and the template matching (here, the residual sequential test method) is performed on the generated characteristic data.

【0052】次に、図10から図12を参照して第2の
方式について説明する。第2の方式では、特徴値を求め
ないで、濃度イメージそのものを生成し、照合処理で
は、相互相関によるテンプレートマッチングを行ってい
る。
Next, the second method will be described with reference to FIGS. In the second method, the density image itself is generated without obtaining the characteristic value, and in the matching process, template matching by cross-correlation is performed.

【0053】図10は、ステップ205,305におけ
る特徴データの第2の生成処理手順を示す詳細フローチ
ャートであり、図11は、その生成過程を説明する図で
ある。
FIG. 10 is a detailed flowchart showing the second generation processing procedure of the characteristic data in steps 205 and 305, and FIG. 11 is a diagram for explaining the generation process.

【0054】まず、イメージ処理部18,37は、表面
イメージセンサ13,33によって取り込まれた表面イ
メージI30のうちの所定領域E31〜E33を切り出
したイメージ(濃度イメージ)I31〜I33を取得す
る(ステップ601)。その後、取得した各濃度イメー
ジI31〜I33を特徴データとして生成し(ステップ
602)、ステップ205あるいはステップ305にリ
ターンする。
First, the image processing units 18 and 37 obtain images (density images) I31 to I33 obtained by cutting out predetermined regions E31 to E33 of the surface image I30 taken in by the surface image sensors 13 and 33 (steps). 601). Thereafter, the acquired density images I31 to I33 are generated as characteristic data (step 602), and the process returns to step 205 or step 305.

【0055】この第2の方式で生成された特徴データに
対するステップ306における照合部38による照合処
理手順を図12の詳細フローチャートを参照して説明す
る。
The verification processing procedure by the verification unit 38 in step 306 for the characteristic data generated by the second method will be described with reference to the detailed flowchart of FIG.

【0056】まず、照合部38は、イメージ処理部1
8,37のそれぞれが生成した領域E31の濃度イメー
ジの一致度を算出する(ステップ701)。例えば、エ
ンコーダ30のイメージ処理部18が生成した領域E3
1の濃度イメージI31内の所定領域の濃度イメージ
と、イメージリーダ10のイメージ処理部18が生成し
た領域E31の濃度イメージI31とを1画素づつずら
しながら相互相関係数を求め、この相互相関係数の最大
値のときに最も一致するものとし、この相互相関係数の
最大値を一致度として算出する。その後、この一致度が
所定値以上か否かによって、それぞれの濃度イメージI
31が一致するか否かを判断する(ステップ702)。
そして、一致していないと判断された場合は、ステップ
708に移行し、「不一致」として設定され、ステップ
306にリターンする。一方、一致していると判断され
た場合、さらにステップ701と同様にして、領域E3
2の濃度イメージI32の一致度を算出し(ステップ7
03)、この一致度をもとに領域E32の濃度イメージ
が一致しているか否かを判断する(ステップ704)。
一致していないと判断された場合は、「不一致」として
設定される(ステップ708)。一方、一致していると
判断された場合は、さらにステップ701と同様にし
て、領域E33の濃度イメージI33の一致度を算出し
(ステップ705)、この一致度をもとに領域E33の
濃度イメージが一致しているか否かを判断する(ステッ
プ706)。一致していないと判断された場合は、「不
一致」として設定され(ステップ708)、ステップ3
06にリターンし、一致していると判断された場合は、
「一致」として設定されて(ステップ707)、ステッ
プ306にリターンする。
First, the collating unit 38 is the image processing unit 1.
The degree of coincidence of the density images of the area E31 generated by each of No. 8 and 37 is calculated (step 701). For example, the area E3 generated by the image processing unit 18 of the encoder 30
The cross-correlation coefficient is obtained by shifting the density image of a predetermined area in the density image I31 of 1 and the density image I31 of the area E31 generated by the image processing unit 18 of the image reader 10 by one pixel. When the maximum value of 1 is the highest, the maximum value of the cross-correlation coefficient is calculated as the degree of matching. Then, depending on whether or not the degree of coincidence is a predetermined value or more, each density image I
It is determined whether 31 matches (step 702).
When it is determined that they do not match, the process proceeds to step 708, the setting is made as “mismatch”, and the process returns to step 306. On the other hand, if it is determined that they match, the area E3 is further processed in the same manner as in step 701.
The degree of coincidence of the second density image I32 is calculated (step 7
03), it is determined based on this degree of coincidence whether or not the density images of the area E32 match (step 704).
If it is determined that they do not match, it is set as "mismatch" (step 708). On the other hand, if it is determined that they coincide with each other, the degree of coincidence of the density image I33 of the area E33 is calculated similarly to step 701 (step 705), and the density image of the area E33 is calculated based on this degree of coincidence. It is determined whether or not match (step 706). If it is determined that they do not match, it is set as "mismatch" (step 708), and step 3
If it returns to 06 and it is judged that they match,
It is set as "match" (step 707), and the process returns to step 306.

【0057】このように、第2の方式では、濃度イメー
ジのままを特徴データとして生成し、この生成した特徴
データに対するテンプレートマッチング(ここでは、相
互相関係数による方法)を行うようにしている。
As described above, in the second method, the density image as it is is generated as the characteristic data, and the template matching (here, the method using the cross-correlation coefficient) is performed on the generated characteristic data.

【0058】なお上述した第1の方式及び第2の方式に
よって生成されたイメージをもとにしたテンプレートマ
ッチングに限定されず、他のテンプレートマッチングの
方式によりイメージのマッチングを行うようにしてもよ
く、さらには、構造マッチングによってマッチングの処
理を行うようにしてもよい。要は、イメージリーダ10
によって読み取られた手形のイメージとエンコーダ30
によって読み取られた手形のイメージとのマッチングの
処理が行えればよい。
The template matching based on the images generated by the above-mentioned first method and second method is not limited, and the image matching may be performed by another template matching method. Further, the matching process may be performed by structure matching. In short, the image reader 10
Image of handprint read by and encoder 30
It suffices to be able to perform matching processing with the image of the handprint read by.

【0059】このようにして上述した本発明の実施の形
態では、イメージリーダ10、データ確定部20、及び
エンコーダ30による各処理結果をイメージファイルサ
ーバIFSで管理しているので、イメージリーダ10、
データ確定部20、及びエンコーダ30による処理を分
散して行うことができる。また、イメージリーダ10及
びエンコーダ30による自動処理とデータ確定部20に
よる手入力処理とが分離されるため、効率的な手形の仕
訳処理を行うことができる。さらに、イメージリーダ1
0による処理時とエンコーダ30による処理時との手形
の照合は、イメージを用いて行っているので、為替手形
のように振出時にMICR文字が印字されていない手形
に対しても自動処理が可能となる。
As described above, in the above-described embodiment of the present invention, since the image file server IFS manages the processing results of the image reader 10, the data determination unit 20, and the encoder 30, the image reader 10,
The processing by the data determination unit 20 and the encoder 30 can be distributed and performed. Further, since the automatic processing by the image reader 10 and the encoder 30 and the manual input processing by the data confirming unit 20 are separated, it is possible to perform efficient billing journal processing. Furthermore, image reader 1
Since the bills are compared using the image during the processing by 0 and the processing by the encoder 30, it is possible to automatically process the bills in which MICR characters are not printed at the time of drawing such as a bill of exchange. Become.

【0060】[0060]

【発明の効果】以上詳細に説明したように、第1の発明
では、サーバ手段が手形証券に関するデータを逐次保持
して管理し、第1の処理手段、第2の処理手段、及び第
3の処理手段の各処理を画像データをもとに分散して行
うことができるので、効率的な分類処理を行うことがで
きるという利点を有するとともに、為替手形のようなM
ICR文字が印字されていない手形証券に対しても該画
像データの照合処理を行うようにしているので、分散処
理にもかかわらず、確実に一致する手形証券に対して必
要なMICR文字を印字することができるという利点を
有する。
As described in detail above, in the first invention, the server means sequentially holds and manages the data relating to the bill of commerce, and the first processing means, the second processing means, and the third processing means. Since each processing of the processing means can be distributed and performed based on the image data, there is an advantage that efficient classification processing can be performed, and at the same time, an M-like bill of exchange can be used.
Since the collation processing of the image data is performed even for the bill of affairs on which the ICR character is not printed, the necessary MICR character is printed on the bill of denomination that surely matches, despite the distributed processing. It has the advantage of being able to.

【0061】また第2の発明では、画像データに対する
特徴データを所定の画像処理を施して行うようにしてい
るので、効率的な手形証券の照合処理を行うことがで
き、全体的に効率的な分類処理を行うことができるとい
う利点を有する。
Further, in the second aspect of the invention, since the characteristic data for the image data is subjected to the predetermined image processing, it is possible to perform the collation processing of the bill of commerce efficiently, and the overall efficient processing is possible. It has an advantage that a classification process can be performed.

【0062】さらに、第3の発明では、約束手形のよう
に振出時に所定のMICR文字が印字されているものに
は、該MICR文字を読み取るようにしているので、効
率的な分類処理を行うことができるという利点を有す
る。また、このMICR文字を用いて手形証券の照合処
理も行うようにしているので、さらに確実な手形証券の
照合処理を行うことができるという利点を有する。
Further, according to the third aspect of the invention, since the MICR character is read in the case where a predetermined MICR character is printed at the time of drawing such as a promissory note, efficient classification processing is performed. It has the advantage that Further, the MICR character is also used to perform the collation process of the bill of commerce, so that there is an advantage that the collation process of the bill of commerce can be performed more reliably.

【0063】第4の発明では、第1の処理手段及び第2
の処理手段のそれぞれが、ホッパ及びスタッカを有する
ので、手形証券の処理を自動処理することができるとい
う利点を有する。また、第2の処理手段には、照合結果
が一致する手形証券を出力する第1のポケットと照合結
果が一致しない手形証券を出力する第2のポケットとを
有するので、第1のポケットから出力された手形証券の
みを分類処理対象の手形証券とすることにより、確実な
手形証券の分類処理を行うことができるという利点を有
する。
In the fourth invention, the first processing means and the second
Since each of the processing means of 1 has a hopper and a stacker, it has an advantage that bill processing can be automatically performed. Further, since the second processing means has a first pocket for outputting bills of bill with matching matching results and a second pocket for outputting bills of bill with unmatched matching results, the bills are output from the first pocket. There is an advantage that it is possible to perform a reliable classification process for bills of credit by making only the bills of note that have been classified into bills of interest for classification processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態である手形処理装置の構成
を示す図。
FIG. 1 is a diagram showing a configuration of a bill processing apparatus according to an embodiment of the present invention.

【図2】イメージファイルサーバIFSのデータ格納部
3に格納されるデータの構成を示す図。
FIG. 2 is a diagram showing a configuration of data stored in a data storage unit 3 of an image file server IFS.

【図3】データ格納部3に格納される手形データDとイ
メージリーダ10,データ確定部20,エンコーダ30
との間の関係について説明する図。
FIG. 3 is a bill data D stored in a data storage unit 3, an image reader 10, a data determination unit 20, and an encoder 30.
The figure explaining the relationship between and.

【図4】手形の分類に係る手形処理手順を示す全体フロ
ーチャート。
FIG. 4 is an overall flowchart showing a bill processing procedure related to bill classification.

【図5】ステップ102の初期データの取得処理手順を
示す詳細フローチャート。
FIG. 5 is a detailed flowchart showing an initial data acquisition processing procedure in step 102.

【図6】ステップ106のエンコード処理手順を示す詳
細フローチャート。
FIG. 6 is a detailed flowchart showing the encoding processing procedure of step 106.

【図7】ステップ205,305における特徴データの
第1の生成処理手順を示す詳細フローチャート。
FIG. 7 is a detailed flowchart showing a first generation processing procedure of characteristic data in steps 205 and 305.

【図8】ステップ205,305における特徴データの
第1の生成過程を説明する図。
FIG. 8 is a diagram illustrating a first generation process of characteristic data in steps 205 and 305.

【図9】第1の方式で生成された特徴データに対するス
テップ306における照合部38による照合処理手順を
示す詳細フローチャート。
FIG. 9 is a detailed flowchart showing the verification processing procedure by the verification unit in step 306 for the characteristic data generated by the first method.

【図10】ステップ205,305における特徴データ
の第2の生成処理手順を示す詳細フローチャート。
FIG. 10 is a detailed flowchart showing a second generation processing procedure of characteristic data in steps 205 and 305.

【図11】ステップ205,305における特徴データ
の第2の生成過程を説明する図。
FIG. 11 is a diagram illustrating a second generation process of characteristic data in steps 205 and 305.

【図12】第2の方式で生成された特徴データに対する
ステップ306における照合部38による照合処理手順
を示す詳細フローチャート。
FIG. 12 is a detailed flowchart showing the verification processing procedure by the verification unit in step 306 for the characteristic data generated by the second method.

【図13】振出時における約束手形の表面の一例を示す
図。
FIG. 13 is a diagram showing an example of the surface of a promissory note at the time of drawing out.

【図14】振出時における為替手形の表面の一例を示す
図。
FIG. 14 is a diagram showing an example of the surface of a bill of exchange at the time of drawing.

【符号の説明】[Explanation of symbols]

10…イメージリーダ 20…データ確定部 30…エ
ンコーダ 40…リーダソータ IFS…イメージファイルサーバ
1,2…LAN 4…保管庫 TG1〜TG3…現物の手形 3…データ
格納部 C10〜C40…制御部 11,31,41…ホッパ部 12,32,42…MICRリーダ 12,33…表面
イメージセンサ 14…裏面イメージセンサ 15,35…エンドースプ
リンタ 16,36…スタッカ部 17…文字認識部 18,3
7…イメージ処理部 19…一時記憶部 34…MICRエンコーダ 38…
照合部 39…ジャーナルプリンタ 43…ソータ/スタッカ部
21…入力処理部 21a…第1入力処理部 21b…第2入力処理部 2
2…確認処理部
10 ... Image reader 20 ... Data determination unit 30 ... Encoder 40 ... Reader sorter IFS ... Image file server 1, 2 ... LAN 4 ... Storage box TG1 to TG3 ... Physical bill 3 ... Data storage unit C10 to C40 ... Control unit 11, 31 , 41 ... Hopper unit 12, 32, 42 ... MICR reader 12, 33 ... Front image sensor 14 ... Back image sensor 15, 35 ... End printer 16, 36 ... Stacker unit 17 ... Character recognition unit 18, 3
7 ... Image processing unit 19 ... Temporary storage unit 34 ... MICR encoder 38 ...
Collating unit 39 ... Journal printer 43 ... Sorter / stacker unit 21 ... Input processing unit 21a ... First input processing unit 21b ... Second input processing unit 2
2 ... Confirmation processing unit

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 受け付けた手形証券に必要なMICR文
字を印字して該手形証券を支払期日等によって分類する
処理を行う帳票処理装置において、 バッチ処理の識別子をもとに送られてくる前記手形証券
に関するデータを受信して記憶するとともに、オンライ
ンによって該データの修正、追加を可能とするサーバ手
段と、 前記手形証券の裏面に一連の通過番号を印字する番号印
字手段、該手形証券の少なくとも表面の画像データを読
み取る第1の読取手段、該画像データをもとに該手形証
券上の文字を認識する文字認識手段、前記通過番号、画
像データ、及び文字認識結果を前記手形証券に関するデ
ータとして前記サーバ手段に送出する制御を行う制御手
段を有し、前記サーバ手段に接続された第1の処理手段
と、 前記第1の処理手段による処理が終了した手形証券に関
するデータを前記サーバ手段から取得し、該手形証券に
関するデータのうちの画像データを参照して、該手形証
券に関するデータの修正あるいは追加入力及び確認処理
を行い、該修正あるいは追加及び確認処理が行われた手
形証券に関するデータを前記サーバ手段に送出する、前
記サーバ手段に接続された第2の処理手段と、 前記第1の処理手段による処理が終了した手形証券の少
なくとも表面の画像データを読み取る第2の読取手段、
該第2の読取手段によって読み取った少なくとも表面の
画像データに対応し、前記第2の処理手段による処理が
終了した手形証券に関するデータを前記サーバ手段から
取得するデータ取得手段、該データ取得手段が取得した
画像データと前記第2の読取手段が読み取った画像デー
タとが一致するか否かを比較照合する照合手段、該照合
手段による照合結果が一致する手形証券に前記データ取
得手段が取得した手形証券に関するデータをMICR文
字で印字するMICR文字印字手段を有し、前記サーバ
手段に接続された第3の処理手段とを具備し、前記第3
の処理手段によって処理された手形証券を、該手形証券
に印字されたMICR文字の情報に基づいて分類する処
理を行うことを特徴とする帳票処理装置。
1. A form processing apparatus which prints MICR characters necessary for accepted bills of securities and classifies the bills of securities according to payment dates, etc., wherein said bills sent based on an identifier of batch processing. Server means for receiving and storing data relating to securities and enabling correction and addition of the data online, number printing means for printing a series of passage numbers on the back surface of the bill securities, at least the front surface of the bill securities A first reading means for reading image data of the bill, a character recognition means for recognizing a character on the bill of commerce based on the image data, the passage number, the image data, and a character recognition result as data relating to the bill of lading. A first processing means connected to the server means and having a control means for controlling transmission to the server means; The data relating to the bill of exchange that has been processed is acquired from the server means, the image data of the data relating to the bill of exchange is referred to, and the data relating to the bill of exchange is corrected or additionally input and confirmed, and the correction or Second processing means connected to the server means for sending to the server means data relating to the bill of securities for which addition and confirmation processing has been performed, and at least the surface of the bill of securities for which processing by the first processing means has been completed. Second reading means for reading the image data of
Data acquisition means for acquiring from the server means data corresponding to at least the surface image data read by the second reading means and relating to the bill of securities for which the processing by the second processing means has been completed, and the data acquisition means. Collation means for comparing and collating whether the image data read by the second reading means and the image data read by the second reading means match, and the bill of exchange securities acquired by the data obtaining means for the bill of securities whose matching result by the collating means matches. And a third processing means connected to the server means, the third processing means being connected to the server means.
A form processing apparatus, which performs a process of classifying bills processed by the processing means according to the information of MICR characters printed on the bills.
【請求項2】 前記第1の処理手段は、前記第1の読取
手段が読み取った画像データから該画像の特徴を示す特
徴データを生成する第1の生成手段を具備し、 該生成した特徴データを含めた手形証券に関するデータ
として前記サーバ手段に送出し、 前記第3の処理手段は、前記第2の読取手段が読み取っ
た画像データから該画像の特徴を示す特徴データを生成
する第2の生成手段を具備し、 前記照合手段は、前記第1の生成手段が生成した特徴デ
ータと前記第2の生成手段が生成した特徴データとを比
較照合することを特徴とする請求項1記載の帳票処理装
置。
2. The first processing means comprises first generation means for generating characteristic data indicating characteristics of the image from the image data read by the first reading means, and the generated characteristic data And a second generation means for generating characteristic data indicating the characteristic of the image from the image data read by the second reading means. 2. The form processing according to claim 1, further comprising means, wherein the collating means compares and collates the characteristic data generated by the first generating means with the characteristic data generated by the second generating means. apparatus.
【請求項3】 前記第1の処理手段及び前記第3の処理
手段のそれぞれは、手形証券上に印字されたMICR文
字を読み取るMICR文字読取手段を具備し、 前記第1の処理手段は、該第1の処理手段のMICR文
字読取手段によって読み取られたMICR文字が示すデ
ータを前記手形証券に関するデータとして前記サーバ手
段に送出し、 前記第3の処理手段のデータ取得手段は、前記サーバ手
段に送出されたMICR文字が示すデータを含む手形証
券に関するデータを取得し、 前記第3の処理手段の照合手段は、該第3の処理手段の
MICR文字読取手段によって読み取られたMICR文
字が示すデータと前記データ取得手段によって取得され
たMICR文字が示すデータとが一致するか否かを含め
て比較照合することを特徴とする請求項1乃至2記載の
帳票処理装置。
3. The first processing means and the third processing means each include MICR character reading means for reading MICR characters printed on a bill of lading, and the first processing means comprises: The data indicated by the MICR character read by the MICR character reading means of the first processing means is sent to the server means as data relating to the bill of lading, and the data acquisition means of the third processing means is sent to the server means. The data relating to the bill of lading including the data indicated by the MICR character is obtained, and the collating means of the third processing means and the data indicated by the MICR character read by the MICR character reading means of the third processing means and the data described above. 7. The comparison and collation including whether or not the data indicated by the MICR character acquired by the data acquisition unit matches. The form processing apparatus according to 1 or 2.
【請求項4】 前記第1の処理手段は、 複数の手形証券を1枚づつ繰り出す第1のホッパ手段
と、 処理が終了した手形証券を出力する第1のスタッカ手段
とを具備し、 前記第3の処理手段は、 前記第1のスタッカ手段から出力された複数の手形証券
を1枚づつ繰り出す第2のホッパ手段と、 前記照合手段による照合結果が一致する手形証券を出力
する第1のポケット及び前記照合手段による照合結果が
一致しない手形証券を出力する第2のポケットを有する
第2のスタッカ手段とを具備したことを特徴とする請求
項1乃至3記載の帳票処理装置。
4. The first processing means comprises a first hopper means for feeding out a plurality of bills of note one by one, and a first stacker means for outputting the bills of bills which have been processed. The processing means of No. 3 is a second hopper means for feeding out a plurality of bills of bills outputted from the first stacker means one by one, and a first pocket for outputting bills of bills whose matching results by the matching means match. 4. The form processing apparatus according to claim 1, further comprising: a second stacker unit having a second pocket that outputs bills of bills whose matching results by the matching unit do not match.
JP9267396A 1996-04-15 1996-04-15 Document processor Pending JPH09282387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9267396A JPH09282387A (en) 1996-04-15 1996-04-15 Document processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9267396A JPH09282387A (en) 1996-04-15 1996-04-15 Document processor

Publications (1)

Publication Number Publication Date
JPH09282387A true JPH09282387A (en) 1997-10-31

Family

ID=14061012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9267396A Pending JPH09282387A (en) 1996-04-15 1996-04-15 Document processor

Country Status (1)

Country Link
JP (1) JPH09282387A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005066880A1 (en) * 2003-12-31 2005-07-21 Bank Of America Corporation Method and system for exception processing of micr documents
JP2006227929A (en) * 2005-02-17 2006-08-31 Dainippon Printing Co Ltd Securities management method and securities management system
US7165723B2 (en) 2003-12-31 2007-01-23 Bank Of America Corporation System and method for the processing of MICR documents that produce read errors
US7657093B2 (en) 2004-10-26 2010-02-02 Seiko Epson Corporation Magnetic ink character recognition apparatus and magnetic ink character recognition method
JP2013196021A (en) * 2012-03-15 2013-09-30 Glory Ltd Paper sheet processing apparatus and paper sheet processing method
US10049350B2 (en) 2015-06-25 2018-08-14 Bank Of America Corporation Element level presentation of elements of a payment instrument for exceptions processing
US10115081B2 (en) 2015-06-25 2018-10-30 Bank Of America Corporation Monitoring module usage in a data processing system
US10229395B2 (en) 2015-06-25 2019-03-12 Bank Of America Corporation Predictive determination and resolution of a value of indicia located in a negotiable instrument electronic image
US10373128B2 (en) 2015-06-25 2019-08-06 Bank Of America Corporation Dynamic resource management associated with payment instrument exceptions processing

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005066880A1 (en) * 2003-12-31 2005-07-21 Bank Of America Corporation Method and system for exception processing of micr documents
US7165723B2 (en) 2003-12-31 2007-01-23 Bank Of America Corporation System and method for the processing of MICR documents that produce read errors
US8864029B2 (en) 2003-12-31 2014-10-21 Bank Of America Corporation Method and system for exception processing of MICR documents
US7657093B2 (en) 2004-10-26 2010-02-02 Seiko Epson Corporation Magnetic ink character recognition apparatus and magnetic ink character recognition method
US7869653B2 (en) 2004-10-26 2011-01-11 Seiko Epson Corporation Magnetic ink character recognition apparatus and magnetic ink character recognition method
JP2006227929A (en) * 2005-02-17 2006-08-31 Dainippon Printing Co Ltd Securities management method and securities management system
JP2013196021A (en) * 2012-03-15 2013-09-30 Glory Ltd Paper sheet processing apparatus and paper sheet processing method
US10049350B2 (en) 2015-06-25 2018-08-14 Bank Of America Corporation Element level presentation of elements of a payment instrument for exceptions processing
US10115081B2 (en) 2015-06-25 2018-10-30 Bank Of America Corporation Monitoring module usage in a data processing system
US10229395B2 (en) 2015-06-25 2019-03-12 Bank Of America Corporation Predictive determination and resolution of a value of indicia located in a negotiable instrument electronic image
US10373128B2 (en) 2015-06-25 2019-08-06 Bank Of America Corporation Dynamic resource management associated with payment instrument exceptions processing

Similar Documents

Publication Publication Date Title
US7252224B2 (en) Front counter and back counter workflow integration
EP0969407B1 (en) A method and apparatus for processing documents in an image-based document processing system
US8204293B2 (en) Document imaging and processing system
US4264808A (en) Method and apparatus for electronic image processing of documents for accounting purposes
US7904353B2 (en) Method and system for processing payments
US7903863B2 (en) Currency bill tracking system
US4404649A (en) Document processing system
US20050096992A1 (en) Image-enabled item processing for point of presentment application
US6059185A (en) Automated system and method for improved check processing
US20070127805A1 (en) Method for processing checks prior to electronic deposit
US9390574B2 (en) Document processing system
US8301567B2 (en) System and method for processing checks and check transactions with thresholds for adjustments to ACH transactions
CA2589947C (en) Machine character recognition verification
US20150046333A1 (en) System and Method for Duplicate Detection
US8660957B2 (en) Control features in a system and method for processing checks and check transactions
US7133536B2 (en) Method and system for watermark detection
JPH09282387A (en) Document processor
US20020076093A1 (en) Method of processing a check and an apparatus therefor
US20040078311A1 (en) System and method for automated binning and automatic data entry of centralized returns
JPH07271880A (en) System and method for centralized processing of securities
KR20050079919A (en) Slip management system for monetary facilities and the method thereby
JP2002049763A (en) Method and device for automatically collating note and check

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040928