JPH06501803A - Character recognition method that involves separating and extracting specific parts from extracted data - Google Patents
Character recognition method that involves separating and extracting specific parts from extracted dataInfo
- Publication number
- JPH06501803A JPH06501803A JP3517931A JP51793191A JPH06501803A JP H06501803 A JPH06501803 A JP H06501803A JP 3517931 A JP3517931 A JP 3517931A JP 51793191 A JP51793191 A JP 51793191A JP H06501803 A JPH06501803 A JP H06501803A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face value
- characters
- character
- examining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/1444—Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。 (57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】 抽出されたデータから特定の部分を分離して抽出することを含む文字認識方法 発明の背景 この発明は、一般的には文書上のデータを自動的に認識するための改良された手 段および方法に関し、より特定的には、小切手、送状および送金文書のような財 務文書上の金額情報を自動的に認識するための改良された手段および方法に関す る。[Detailed description of the invention] Character recognition method that involves separating and extracting specific parts from extracted data Background of the invention The invention generally relates to an improved method for automatically recognizing data on documents. With respect to the steps and methods, and more specifically, the transfer of goods such as checks, invoices and remittance documents. RELATING TO IMPROVED MEANS AND METHODS FOR AUTOMATICALLY RECOGNIZING Amount Information on Financial Documents Ru.
今日の金融サービス業は膨大な量の文書を効率的に処理するという大きな問題に 直面している。文書支払方式か衰えるだろうという予測は実現していない。実際 、文書支払方式は世界的に成長し、増大し続けると予期されている。Today's financial services industry faces a major challenge in efficiently processing vast amounts of documents. confronting. Predictions that the paper payment method would decline have not materialized. actual , document payment methods are expected to continue to grow and increase worldwide.
したかってそのような文書を処理するための改良された方法を考案する不可欠な 必要性かある。Therefore, it is essential to devise improved methods for processing such documents. There is a need.
文書処理に対する支援として画像化技術を使用することは、たとえば米国特許第 4,205,780号、第4,264.808号、第4,672,186号、お よび第4゜888.812号に開示されるように、文書処理を有意に改良する1 方法として認識されてきた。一般的に、画像化は文書を光学的に走査し、電子的 に処理されかつ後の検索および表示のために(磁気ディスクドライブおよび/ま たは光学メモリのような)大容量記憶媒体に格納される電子画像をつくり出すこ とを含む。文書画像化は文書の取扱いおよび移動を減する機会を提供するという ことは明らかである、なぜならこれらの電子画像は実際の文書に代わって使用さ れ得るからである。たとえば、文書画像は記憶装置から検索され、ワークステー ションに表示され、そこてはオペレータは文書を直接的に検視することなく、観 察された画像に基づいて金額データおよび他の情報を入力することができる。The use of imaging technology as an aid to document processing has been demonstrated, for example, in U.S. Pat. No. 4,205,780, No. 4,264.808, No. 4,672,186, No. 4,888,812, which significantly improves document processing. It has been recognized as a method. Imaging typically involves scanning documents optically and electronically. processed and for later retrieval and display (magnetic disk drive and/or creating an electronic image that is stored on a mass storage medium (such as optical memory) including. Document imaging offers an opportunity to reduce document handling and movement. It is clear that these electronic images cannot be used in place of actual documents. This is because it can happen. For example, a document image is retrieved from storage and where the operator can view the document without directly inspecting it. Amount data and other information can be entered based on the captured image.
文書処理システムにおいて画像化を利用することは存意な改良を提供し得るか、 文書からのデータをオペレータか検視しかつ入力する必要性は、達成できる文書 処理速度および効率を限定し続ける。Can the use of imaging in document processing systems offer significant improvements? The need for operators to inspect and enter data from documents can be accomplished by document Continue to limit processing speed and efficiency.
発明の概要および目的 この発明に従って、文書処理の速度および効率のさらなる増大は、文書上のデー タを自動的に位置決定し、抽出しかつ認識する改良された方法、より特定的には 、小切手、送状および送金文書のような財務文書処理システムにおける使用に必 要とされる高速で有利に動作し得る改良された方法を提供することによって可能 にされる。Summary and purpose of the invention In accordance with this invention, further increases in the speed and efficiency of document processing are achieved by improved methods for automatically locating, extracting and recognizing data, and more specifically Required for use in financial document processing systems such as checks, invoices, and remittance documents. by providing an improved method that can advantageously operate at the required high speeds. be made into
米国特許第4,449.239号、第4. 201. 978号、第4,468 .808号、第4,918.740号、第4,523,330号、第4,685 ,141号、第3゜832.682号および欧州特許第EP−0.111,93 0号は当該技術分野において公知である種々の自動データ認識手法を開示する。U.S. Pat. No. 4,449.239, 4. 201. No. 978, No. 4,468 .. No. 808, No. 4,918.740, No. 4,523,330, No. 4,685 , 141, 3°832.682 and European Patent No. EP-0.111,93 No. 0 discloses various automatic data recognition techniques known in the art.
目的、特徴、利点および使用のみならずこの発明の特定的性質は、添付の図面に 加えて以下の詳細な説明から明白になるであろう。The purpose, features, advantages and uses as well as specific nature of this invention are clearly illustrated in the accompanying drawings. Additionally, it will become apparent from the detailed description below.
図面の簡単な説明 図1は、米国において広く使用されている梨の典型的な小切手を例示する。Brief description of the drawing FIG. 1 illustrates a typical pear check widely used in the United States.
図2は、一般的にこの発明か組み入れられてもよい文書処理システムを例示する 。FIG. 2 generally illustrates a document processing system in which the present invention may be incorporated. .
図3は、この発明に従った自動額面金額(courtesy am。FIG. 3 shows an automatic courtesy in accordance with the present invention.
unt)読取機によって実行される種々の操作ステップを一般的に例示するフロ ーチャートである。unt) Flowchart generally illustrating the various operational steps performed by the reader. -This is a chart.
図4は、図3の「$位置決定」ステップ102を達成するための好ましい態様を 例示するフローチャートである。FIG. 4 illustrates a preferred embodiment for accomplishing the "$location" step 102 of FIG. It is an illustrative flowchart.
図5は、図2のイメージモジュール14によって提供される典型的なグレーレベ ル画像である。FIG. 5 shows a typical gray level provided by image module 14 of FIG. This is a le image.
図6は、図5に表わされるグレーレベル画像からのシードおよびマスク2値画像 の並列発生および記憶のための装置を例示するブロック図である。FIG. 6 is a seed and mask binary image from the gray level image represented in FIG. FIG. 2 is a block diagram illustrating an apparatus for parallel generation and storage of .
図7は、図4のステップl02Bによって確立される典型的な[$jシードサー チエリア$sAを例示する。FIG. 7 shows a typical [$j seed server established by step l02B of FIG. Cheeria $sA is exemplified.
図8は、図4のステップ102Bによって確立される典型的な「$Jマスクサー チエリア$MAを例示する。FIG. 8 illustrates a typical “$J mask service” established by step 102B of FIG. Cheeria $MA is exemplified.
図9は、図3の「額面金額抽出」ステップ104を達成するための好ましい態様 を例示するフローチャートである。FIG. 9 shows a preferred embodiment for accomplishing the "face amount extraction" step 104 of FIG. It is a flowchart which illustrates.
図1Oは、図9のステップ104Bによって確立される典型的な額面金額シード サーチエリアC,A、SAを例示する。FIG. 1O shows a typical par value seed established by step 104B of FIG. Search areas C, A, and SA are illustrated.
図11は、図9のステップ104Bによって確立される典型的な額面金額マスク サーチエリアC,A、MAを例示する。FIG. 11 shows a typical denomination mask established by step 104B of FIG. Search areas C, A, and MA are illustrated.
図12は、図3の「φ部分を分離かつ類別」ステップ110を達成するための好 ましい態様を例示するフローチャートである。FIG. 12 shows a preferred method for accomplishing the "separate and categorize φ parts" step 110 of FIG. 2 is a flowchart illustrating a preferred embodiment.
図13は、(図9のステップ104Jにおいて明瞭化の前の)異質な連結構成要 素群62および63を含む典型的な抽出された額面金額を例示する。FIG. 13 shows the heterogeneous connection configuration elements (prior to disambiguation in step 104J of FIG. 9). A typical extracted face value including prime groups 62 and 63 is illustrated.
図14−16は、図9のステップ104Jにおける明瞭化の後の典型的な抽出さ れた額面金額を例示する。14-16 show a typical extraction after disambiguation in step 104J of FIG. The following is an example of the face value.
図17−18は、いかに「ψ」文字か下線を引かれた2桁の数字からなる「φ」 フィールドから抽出されるかを例示する。Figures 17-18 show how the ``ψ'' character is made up of an underlined two-digit number. An example of what is extracted from the field is shown below.
図19−21は、いかにして「φ」文字が分数からなるUφ」フィールドから抽 出されるかを例示する。Figure 19-21 shows how the ``φ'' character is extracted from the ``Uφ'' field consisting of a fraction. Illustrate how it will be served.
詳細な説明 同様な数字および文字は全図面にわたって同様なエレメントを参照する。detailed description Like numbers and letters refer to like elements throughout the drawings.
この詳細な説明の目的のために、この発明は財務文書を処理するための文書処理 システムにおいて小切手上のドル金額(具体的に「額面金額)と称される)を自 動的に認識するのに適用されるように例示されるであろう。しかしなから、この 発明は財務上およびその他のデータ認識応用の別の型のみならず文書の別の型に もまた適用可能であるということか理解されるべきである。For purposes of this detailed description, the present invention describes a document processing method for processing financial documents. The system automatically determines the dollar amount (specifically referred to as the “face amount”) on a check. It will be illustrated as being applied to dynamic recognition. However, this The invention extends to other types of documents as well as other types of financial and other data recognition applications. It should be understood that also applicable.
最近に図1を参照すると、そこでは米国において広く使用される盟の小切手IO か例示される。小切手lOは「$」通貨記号10aおよび関連の金額10bを有 し、それは金融業界では「額面金額」と典型的には称される。この額面金額を認 識する読取機は典型的には額面金額読取機(CAR)と称される。額面金額10 bは機械印刷されるかまたは図1に示されるように手書きされてもよい。Referring to Figure 1 recently, there is an alliance check IO widely used in the United States. or exemplified. The check IO has a "$" currency symbol 10a and an associated amount 10b. However, it is typically referred to in the financial industry as the "face value." Accept this face value Recognizing readers are typically referred to as denomination readers (CARs). Face value 10 b may be machine printed or handwritten as shown in FIG.
図1に示される典型的な小切手lOは、小切手の左下に符号化された機械読取り 可能なデータIOcをもまた含み、それは小切手か振り出される銀行の識別、顧 客の預金口座番号、および小切手番号のような識別情報を提供するのに役立つ。The typical check lO shown in Figure 1 has a machine readable code encoded in the lower left corner of the check. It also contains possible data IOc, which includes the identity of the bank on which the check is drawn, the customer Helps provide identifying information such as the customer's savings account number and check number.
典型的にはこの符号化された機械読取り可能なデータ10cは磁性インクで与え られ、それは頭字語て「MICRJ (磁気インク文字認識)と呼ばれる。Typically this encoded machine readable data 10c is provided in magnetic ink. It is called by the acronym MICRJ (Magnetic Ink Character Recognition).
図2はこの発明か組み込まれてもよい文書処理システムを一般的に例示する。処 理されるべき文書は典型的には財務文書てあり、図1に例示される型の小切手を 含む。図2に示されるように、これらの財務文書10は文書プロセッサ12に与 えられ、従来の態様で、その機械は文書から符号化されたデータを読取り、文書 の画像を取込みかつ処理し、その文書をポケット(図示されていない)に区分け する。FIG. 2 generally illustrates a document processing system in which the present invention may be incorporated. place The documents to be processed are typically financial documents, such as checks of the type illustrated in Figure 1. include. As shown in FIG. 2, these financial documents 10 are provided to a document processor 12. The machine reads the encoded data from the document and, in a conventional manner, reads the encoded data from the document. image and process the document into pockets (not shown) do.
図2における文書プロセッサ12は文書の画像を取込み、取込まれた文書画像を 処理しかつ圧縮し、それから圧縮された文書画像をディスクドライブのような記 憶装置16に伝送するイメージングモジュール14を含む。ワークステーション 19はワークステーションオペレータによるデータの表示および入力のために、 検視された画像からの額面金額のような文書画像を記憶装置16から受け取る。The document processor 12 in FIG. 2 captures an image of a document and converts the captured document image into process and compress the compressed document image, then store the compressed document image on a disk drive, etc. It includes an imaging module 14 that transmits data to a storage device 16 . Work station 19 for display and input of data by the workstation operator; A document image, such as a denomination from an autopsy image, is received from storage 16.
演算処理装置(CPU)20はシステムの全体の制御と、(記憶装置16を経て )文書プロセッサ12およびワークステーション19によってそこへ伝送された 文書情報のためのデータベースの維持とをまた与える。A processing unit (CPU) 20 controls the entire system and (via a storage device 16) ) transmitted thereto by document processor 12 and workstation 19 Also provides database maintenance for document information.
図2の文書プロセッサ12はさらに、図1に例示されるように小切手上の額面金 額を自動的に認識するためのイメージングモジュール14に結合される額面金額 読取機18を含む。図1の文書処理システムにおいてそのような額面金額読取1 118を提供することの重要な利点は、金額かうまく読取られた小切手は、ワー クステーション18て画像を検視することによってそれらの額面金額を読取られ かつ入力される必要かないということである。The document processor 12 of FIG. 2 further includes the amount of face value on the check as illustrated in FIG. a denomination coupled to an imaging module 14 for automatically recognizing the denomination; It includes a reader 18. Such face value reading 1 in the document processing system of Figure 1 An important advantage of providing 118 is that the amount or a successfully read check is Their face value can be read by examining the images at And it does not need to be input.
額面金額読取機(CAR)18はこの発明に従って額面金額の自動認識を提供す るために、イメージモジュール14からそこへ与えられた文書画像を演算処理す るために適当なプログラミングに加えて、複数のマイクロプロセッサ、RAM、 ROMおよび別の関連の回路を典型的に含む。CARI8にそういったものを設 ける態様はここでの開示によって明白となるであろう。A face value reader (CAR) 18 provides automatic face value recognition in accordance with the present invention. In order to perform arithmetic processing on the document image provided from the image module 14, In addition to appropriate programming, multiple microprocessors, RAM, Typically includes ROM and other associated circuitry. I have set something like that in CARI8. The aspects to which the invention relates will be apparent from the disclosure herein.
図3は、小切手上の額面金額を認識する際に図2のCARI8によって実行され る種々の操作ステップを一般的に例示するフローチャートである。このフローチ ャートは例として与えられるのであって、発明の範囲を限定するものとして考え られるへきてはないということか理解されるへきである。たとえば、ここに示さ れるあるステップか省略されてもよく、別のステップか加えられてもよく、かつ /またはステップの配列か変更されてもよい。Figure 3 shows the steps performed by CARI8 in Figure 2 in recognizing the face amount on a check. 1 is a flowchart generally illustrating various operational steps involved. This flowch The charts are given as examples and should not be considered as limiting the scope of the invention. It's not a good idea to be criticized; it's a good thing to be understood. For example, shown here some steps may be omitted, others may be added, and /or the sequence of steps may be changed.
ステップ100によって示されるように、CAR18は図2のイメージングモジ ュール14から小切手のグレーレヘル画像を受け取る。CARは図1における’ $J10aを位置決定しくステップI O2) 、それから関連の額面金額10 bを抽出する(ステップ104)。抽出された額面金額か機械印刷されているか または手書きかという判断かそれからなされる(ステップ106)。もし機械印 刷であるならば、比較的単純な額面金額認識か実行され(ステップ+08)、結 果か出力される(ステップ118)。As indicated by step 100, the CAR 18 is connected to the imaging module of FIG. Receive the gray level image of the check from Rule 14. CAR is ' in Figure 1. Step I O2) to locate $J10a, then the related face value 10 b is extracted (step 104). Is the face value extracted or machine printed? Or, a determination is made as to whether it is handwritten (step 106). If machine stamp If it is a printing, a relatively simple face value recognition is performed (step +08) and The result is output (step 118).
もし抽出された額面金額か手書きであると判断されると(ステップ106)、よ り複雑な分析か要求される。そのような場合、「φ」部分10b−1(図1)は まず分離されかつ類別され(ステップ110)、「φ」文字かそれから類別に基 づいて抽出される(ステップ112)。結果として抽出された「φ」文字はそれ から認識される(ステップ114)。If it is determined that the extracted face value is handwritten (step 106), then Requires complex analysis. In such a case, "φ" portion 10b-1 (FIG. 1) First separated and classified (step 110), the "φ" character or Then, it is extracted (step 112). The "φ" character extracted as a result is that (step 114).
「φj文字かうまく認識された後(ステップ114)、ドル文字か認識される( ステップll6)。CAR18(図2)はそれから認識された額面金額または拒 絶信号を出力する(ステップ118)。図2のシステムにおいて、このCAR出 力はCPU20に送られる。もし図3のステップのいずれかの間に拒絶状態が検 出されると、拒絶出力が即座に与えられ残りのステップは停止される。図3に示 されるように、額面金額の「φ」部分の抽出゛および認識はドル部分より先に実 行される、なぜならそれは拒絶を生み出しかちであるからである。CARによっ て与えられた認識された額面金額出力は、認識プロセスの間に生み出された信頼 指示に基づく信頼値を伴ってもよいということか理解されるであろう。図3にお ける認識ステップ106.108.114および+16は、前述の特許において 開示されたような公知の認識技術を使用して提供され得るということもまた理解 されるであろう。``After the φj character is successfully recognized (step 114), the dollar character is recognized (step 114). Step ll6). CAR18 (Figure 2) then recognizes the face amount or rejection. A dead signal is output (step 118). In the system of Figure 2, this CAR output Power is sent to CPU 20. If a rejection condition is detected during any of the steps in Figure 3. Once issued, a reject output is immediately given and the remaining steps are halted. Shown in Figure 3 As shown in Figure 2, the extraction and recognition of the “φ” portion of the face value is performed before the dollar portion. is done, because it tends to produce rejection. By CAR The recognized face value output given by It will be appreciated that an indication-based confidence value may also be involved. In Figure 3 The recognition steps 106.108.114 and +16 are described in the aforementioned patents. It is also understood that the information may be provided using known recognition techniques such as those disclosed. will be done.
図3に例示されるステップの各々の説明か以下に述へられる。A description of each of the steps illustrated in FIG. 3 is provided below.
ステップ100(図3) このステップの間、図2におけるイメージングモジュール14は、CAR,18 に少なくとも「$」文字10aおよび関連の額面金額10bを含む小切手の部分 のグレースケール画像(図5に例示されるような)を提供する。図5に例示され るサイズは例としてのみであるということか理解されるへきである。Step 100 (Figure 3) During this step, the imaging module 14 in FIG. the portion of the check containing at least the "$" character 10a and the associated face amount 10b; (as illustrated in FIG. 5). Illustrated in Figure 5 It is understood that the sizes shown are examples only.
ステップ102(図3) このステップの間、「$」文字10a (図5)か位置決定される。明らかに、 アスタリスク「*」または別の適切な記号のような「$」以外の通貨文字も位置 決定文字として使用され得る。Step 102 (Figure 3) During this step, the "$" character 10a (FIG. 5) is located. clearly, Currency characters other than ``$'', such as an asterisk ``*'' or another suitable symbol, may also be placed. Can be used as a determining character.
ステップ104(図3) このステップの間、額面金額10b(図5)は先に位置決定された「$」文字1 0aを位置決定ガイドとして使用して抽出される。Step 104 (Figure 3) During this step, the denomination 10b (FIG. 5) is transferred to the previously located "$" character 1 0a as a positioning guide.
たちのかまたは手書きされたものかということに関する判断かなされる。もしそ れか機械印刷されたものであるならば、動作はステップ108に進む。もしそれ が手書きであるならば、動作はステップ110に進む。A judgment is made as to whether the text is handwritten or handwritten. If so If either is machine printed, operation continues to step 108. If that If the is handwritten, operation continues to step 110.
ステップ108(図3) もし額面金額か機械印刷されたものと判断されると、比較的単純な認識か認識さ れた機械印刷の型に基ついてなされる。Step 108 (Figure 3) If it is determined that the face value or machine-printed It is based on an old mechanical printing pattern.
ステップ110(図3) もし額面金額か手書きであると判断されるならば、より複雑な分析か要求され、 それは「φノ部分10b−1 (図5)の、ドル部分10b−2からの分離で始 まる。分離された[ψJ部分はそれから類別される。Step 110 (Figure 3) If it is determined to be face value or handwritten, a more complex analysis is required; It begins with the separation of the φ portion 10b-1 (Fig. 5) from the dollar portion 10b-2. circle. The separated [ψJ parts are then sorted.
ステップ112(図3) このステップの間、「ψ」文字は、ステップ110でなされた類別に基づいて抽 出される。Step 112 (Figure 3) During this step, the "ψ" character is extracted based on the classification made in step 110. Served.
ステップ114 このステップの間、抽出された「ψ]文字は認識される。Step 114 During this step, the extracted "ψ" characters are recognized.
ステップ116 (図3) このステップの間、額面金額の「$」文字10b−2(図5)が認識され、額面 金額の認識を完了する。Step 116 (Figure 3) During this step, the "$" character 10b-2 (Figure 5) of the face value is recognized and the face value Complete the recognition of amounts.
ステップ118(図3) このステップの間、CARl 8は(図2のCPU20に)認識された額面金額 または拒絶信号を出力する。拒絶信号は、もし拒絶状態が先のステップのいずれ かの間に検出されるならば、CARによって提供され、そのような場合、それ以 後のステップは停止される。認識された額面金額はまた信頼値を伴ってもよい。Step 118 (Figure 3) During this step, CARl 8 (to CPU 20 in Figure 2) recognizes the face value Or output a rejection signal. A reject signal is sent if a reject condition occurs in any of the previous steps. provided by the CAR and, in such case, further Later steps are stopped. The recognized face amount may also be accompanied by a confidence value.
図3に示された種々のステップはここで詳細に考察され図3においてステップ1 02を達成するための好ましい態様は、この発明に従って、図4におけるステッ プ102八からステップ102Hを参照して次に考察されるであろう。ステップ 102の目的は図5における小切手IO上の「$」文字を位置決定することであ るということか念頭におかれるであろう。The various steps shown in FIG. 3 are now discussed in detail and in FIG. A preferred embodiment for achieving 02 is according to the present invention by following the steps in FIG. Steps 1028 through 102H will be discussed next. step The purpose of 102 is to locate the “$” character on the check IO in FIG. This may be something to keep in mind.
ステップ102A(図4) このステップの間、しきい値処理は図2のイメージモジュール14によって与え られる(図5の)グレーレベル画像から、複数の2値画像を得るのに使用される 。これらの2値画像の導出は、グレーレベル画像は各ピクセルが複数のグレーレ ベル値の1つを存するピクセル(画素)のX−Yマトリックスとして電気的に典 型的に表わされるということに注目することによって理解されるであろう。たと えば、各ピクセルは15が黒てありOか白である2値番号Oないし15に対応す る4ヒツトで表わされる16のグレーレベル値を備え得る。得られた2値画像の 各々はこれらのグレーレベル値の異なった1つを、グレーレベル画像を2値画像 に変換する際、しきい値として使うことによって生み出される。たとえば、もし 8のしきい値か特定の2値画像を生み出すのに使われるならば、その2値画像は そのグレーレベル値か8またはそれよりも大きいピクセルを黒ビクセルとして有 し、2値画像の他のピクセルはすへて白である。Step 102A (Figure 4) During this step, thresholding is provided by image module 14 of FIG. is used to obtain multiple binary images from the gray-level image (in Figure 5) . The derivation of these binary images is that a gray level image consists of each pixel having multiple gray levels. electrically typical as an X-Y matrix of pixels that have one of the following values: It can be understood by noting that it is expressed in a typical manner. and For example, each pixel corresponds to a binary number O through 15, where 15 is black and O or white. There may be 16 gray level values represented by 4 hits. of the obtained binary image each converts a different one of these gray level values into a gray level image or a binary image. It is created by using it as a threshold when converting to . For example, if If a threshold of 8 is used to generate a particular binary image, then that binary image is Mark pixels whose gray level value is 8 or greater as black pixels. However, other pixels of the binary image are always white.
ここで考察されるこの発明の特定の実施例のために、3つの2値画像か、3つの 異なったしきい値高、中および低を使用してグレーレベル画像(図5)から得ら れる。高しきい値2値画像は「$」 シート画像と称され、中2値画像は額面金 額シート画像と称され、低しきい値2値画像はマスク画像と称されるであろう。For the particular embodiment of the invention considered here, three binary images or three Obtained from a gray level image (Figure 5) using different thresholds high, medium and low. It will be done. The high-threshold binary image is called a “$” sheet image, and the medium-threshold binary image is the face value It will be referred to as a forehead sheet image, and the low threshold binary image will be referred to as a mask image.
以下に説明されるように、「$」 シート画像は「$」文字10a (図5)を 位置決定するために使用され、額面金額2値画像は、額面金額lObを抽出する ために使用され、かつマスク画像は両方の目的のために使用される。As explained below, the "$" sheet image has the "$" character 10a (Figure 5) The denomination binary image is used to locate and extract the denomination lOb. and the mask image is used for both purposes.
図6に例示されるように、認識速度を増大するために、グレーレベル画像か図2 のイメージモジュール14から受け取られると、シードおよびマスク画像かコン バータ34.36および38各々によって同時に発生され得、結果としての2値 画像はそれぞれのランダムアクセスメモリ(RAM)44.46および48に検 索可能に格納される。To increase the recognition speed, as illustrated in FIG. The seed and mask images are received from the image module 14 of the computer. can be generated simultaneously by each of the converters 34, 36 and 38, resulting in a binary Images are stored in respective random access memories (RAMs) 44, 46 and 48. stored in a searchable manner.
ステップ102B(図4) このステップの間、「$」 シードおよびマスク画像上のサーチエリアは「$」 文字を位置決定する際に使用するために確立される。図7はシード画像のための 「$j シード画像サーチエリア$SAの例を示し、図8はマスク画像のための 「$Jマスクサーチエリア$MAの例を示す。図7および図8はシートおよびマ スク画像を得るための異なったしきい値を使用することによって生み出された効 果もまた例示する。この点ては、図8の「$」マスクサーチェリア$MAは(使 用された低しきい値のため)図7の「$」シートサーチエリア$SAよりも多い 異質な黒ピクセル(ノイズ)を含むということに注目されたい。Step 102B (Figure 4) During this step, the search area on the "$" seed and mask image is "$" Established for use in positioning characters. Figure 7 is for the seed image. “$j Seed image search area $SA example is shown in Figure 8 for the mask image. "$J Mask search area $MA example. Figures 7 and 8 show the sheet and mask search area $MA. The effect produced by using different thresholds to obtain The results are also illustrated. In this regard, the “$” mask search area $MA in Figure 8 is (due to the lower threshold value used) than the “$” sheet search area $SA in Figure 7. Note that it contains extraneous black pixels (noise).
考察される特定の実施例の目的のために、図7の所望された「$」 シードサー チエリア$SAは公知であると仮定されるであろう。たとえばその位置はCPU 20 (図2)において先に格納することもてき、または小切手10(図1)上 の機械読取り可能線10cを読取ることからも得られるであろう。代わりに、「 $ノ文字が位置決定されるまで全体画像のサーチをすることもてきる。For the purposes of the particular embodiment considered, the desired “$” seed server of FIG. It will be assumed that the chain area $SA is known. For example, the location is CPU 20 (Fig. 2) or on the check 10 (Fig. 1). It may also be obtained from reading the machine readable line 10c of . instead," It is also possible to search the entire image until the $ character is located.
ステップ102c、102Dおよび102E(図4)ステップ102Cの間、図 7における「$」シードサーチエリア$SAは「新しい」黒ピクセルのために走 査される。以下に説明されるように、「新しいJ黒ピクセルはシードサーチエリ ア$SAにおいてまた考慮されて(accounted for)いないもので ある。典型的には、垂直方向の列単位の走査か使用される、なぜならそれは金額 文字よりも前に遭遇される「$」文字を位置決定する際に、存利であるためであ る。もし、走査の間、新しい黒ピクセルか発見されなければ(ステップ102D )、図5の「$」シー)・サーチエリア$SAの最後の垂直方向列か走査された かとうかの判断かなされる(ステップ102E)。そのような場合、拒絶か発生 される。拒絶は、もし認識プロセスに割り当てられた最大時間か終了するとまた 発生し得るということか、また理解されるへきである。これはいずれか1つの小 切手のための認識プロセスか、小切手処理速度の要求と相反する、時間を超過す るということを防ぐためになされる。Steps 102c, 102D and 102E (FIG. 4) During step 102C, FIG. The "$" seed search area $SA in 7 is run for "new" black pixels. be inspected. As explained below, the new J black pixel is It is also not accounted for in A$SA. be. Typically, a vertical column-by-column scan is used, because it This is because it is an advantage in locating the "$" character that is encountered before the character. Ru. If no new black pixels are found during scanning (step 102D ), the last vertical column of the search area $SA was scanned. A decision is made (step 102E). In such cases, rejection or occurrence be done. Rejection will occur again if the maximum time allotted for the recognition process ends or It is important to understand that it can occur. This is one of the small The recognition process for stamps or time-consuming processes that conflict with check processing speed requirements. This is done to prevent this from happening.
もしステップ102Eの間に、垂直方向走査か完了されていないと判断されるな らば、動作はステップ102Cに戻り、「$jシードサーチエリア$SAの走査 方向において新しい黒ピクセルをサーチし続ける。If during step 102E it is determined that the vertical scan is not completed. If so, the operation returns to step 102C and “scan $j seed search area $SA”. Continue searching for new black pixels in the direction.
ステップ102F、102Gおよび102H(図4)もし新しい黒ビクセルがス テップ102Dの間に発見されるならば、動作はステップ102Fに進む。ステ ・ツブ102Fの間に、「$jシードサーチエリア$SA(図7)において発見 されたシード黒ピクセル(ステップ102D)は、「$」マスクサーチエリア$ MA(図8)を使用して成長させられ、ピクセルの連結群を発生し、それは以下 に記号CCと称されるであろう。CCか発生される態様が次に説明されるであろ う。Steps 102F, 102G and 102H (Figure 4) If new black pixels If found during step 102D, operation proceeds to step 102F. Ste ・During whelk 102F, “discovered in $j seed search area $SA (Figure 7) The seeded black pixels (step 102D) are added to the "$" mask search area $ MA (Figure 8) is used to generate a connected group of pixels, which is will be designated by the symbol CC. The manner in which CC is generated will be explained next. cormorant.
図7の「$」シードサーチエリア$SAがまず参照される。「$」文字10aは おおよそ完全であるように見えるてあろうか、10’aて示されるように種々の 切れ目を伴い、一方で隣接の額面金額10bの数字「8」はより大きく広い切れ 目10’bを有する。これは、「$」文字は普通額面金額文字よりも存意に高度 なコントラストを存し、より高品質の印刷!プロセスを使用してつくり出される ため予期されることである。(先に説明されたように、)比較的高いしきい値か 「$」 シート画像を得るために使用されるため、図7における「$」 ソード サーチエリア$SAは32sのようなほんの少しの、広く間隔をあけられた異質 の黒ピクセルを含むということにもまた注目されたい。The "$" seed search area $SA in FIG. 7 is first referred to. “$” character 10a is It appears to be approximately complete, with various parts as shown in 10'a. with a break, while the number ``8'' in the adjacent face value 10b is a larger and wider cut. It has eyes 10'b. This means that the "$" character is significantly more advanced than the normal face value character. High contrast and higher quality printing! produced using a process This is to be expected. A relatively high threshold (as explained earlier)? “$” The “$” sword in Figure 7 is used to obtain the sheet image. The search area $SA consists of only a few widely spaced heterogeneities such as 32s. Note also that it contains black pixels.
次に図8における「$」マスクサーチエリア$〜IAを参照すると、(前に説明 されたように)それはより低いしきい値を使用して得られる。より低いしきい値 処理のため、「$ノ文字10aは完全であるか、一方で隣接の額面金額10bの 「8」はまた幾らかの切れ目10”bを含むということか見られるであろう。ま た、図8の「$」マスクサーチエリア$MAにおいて32mのような、図7の「 $jシートサーチエリア$SAにおいてよりも有意に多い異質な黒ピクセルかあ る。加えて、「$」マスクサーチエリア$MAは額面金額枠33による黒ビクセ ルを含む。Next, referring to the "$" mask search area $~IA in FIG. ) is obtained using a lower threshold. lower threshold For processing, the $ character 10a is complete or the adjacent face value 10b is It will be seen that the "8" also includes some breaks 10"b. In addition, the “$” mask search area $MA in FIG. 8, such as 32m, in FIG. There are significantly more extraneous black pixels than in the $j sheet search area $SA. Ru. In addition, the “$” mask search area $MA is a black bixe with a face value frame of 33. Including files.
図4におけるステップ102Dおよび102Fは、「$」文字を位置決定しかつ 認識するのに(それぞれ図7および8の)「$」 シードおよびマスクサーチエ リア$SAおよび$MAの両方を利用する。より特定的には、新しい黒ビクセル か図7の「$」シートサーチエリア$SAにおいて発見されると(ステップl0 2D)、図8の「$」マスクサーチエリア$MAにおける対応する位置を存する ピクセルか位置決定される。たとえば、もし図7における34sか「$Jシート サーチエリア$SAにおいて発見された新しい黒ピクセルであるならば(ステッ プ102D)、図8の「$」マスクサーチエリア$MAにおける対応して位置決 定される黒ピクセル34mか位置決定される。これは図6のそれぞれ「$」 シ ードおよびマスクRAM44および48において格納されたシードおよびマスク 画像を使用して実現され得、それはたとえば、対応するシードおよびマスクピク セルか対応するアドレスを存するように構成されてもよい。Steps 102D and 102F in FIG. 4 locate the "$" character and ``$'' seed and mask search keys (in Figures 7 and 8, respectively) to recognize Use both rear $SA and $MA. More specifically, the new black vixel or is found in the “$” sheet search area $SA in FIG. 7 (step 10 2D), with the corresponding position in the “$” mask search area $MA in FIG. The pixel is located. For example, if 34s in Figure 7 is If it is a new black pixel discovered in the search area $SA (step 102D), the corresponding positioning in the “$” mask search area $MA in FIG. The defined black pixel 34m is located. This corresponds to each “$” symbol in Figure 6. Seeds and masks stored in code and mask RAMs 44 and 48 It can be realized using images, for example, corresponding seed and mask pictures. A cell may be configured to have a corresponding address.
ステップl02Fの実行において行なわれる次の動作は、「$」マスクサーチエ リア$MAにおける黒ピクセル34m(図8)を成長させ、34mに連結されだ すへての黒ピクセルからなるCCを発生することである。これはたとえば、図6 のマスクRAM48を使用して達成されてもよい。The next operation performed in the execution of step 102F is the “$” mask search Grow the black pixel 34m (Figure 8) in the rear $MA and connect it to 34m. The goal is to generate a CC consisting of all black pixels. For example, this is shown in Figure 6. This may be accomplished using the mask RAM 48 of .
黒ピクセル34m(図8)から始まって、黒ビクセル34m(図8)にすぐ隣接 するピクセル位置に対応するアドレスでの黒ピクセルがあるかどうかに関する判 断がなされる。Starting from black pixel 34m (Figure 8) and immediately adjacent to black pixel 34m (Figure 8) Determination as to whether there is a black pixel at the address corresponding to the pixel location A decision is made.
同様の判断か、新規に判断された黒ビクセルの各々についてなされ、CCを形成 するすべての連結黒ピクセルか識別されるまで再度繰返される。これらの識別さ れた黒ビクセルのアドレスは、黒ピクセル34rnから発生されたCCを構成す る。図6におけるマスクRAM46は、たとえばCCを形成する識別された黒ピ クセルのアドレスを格納するのに使用されてもよい。Similar judgments are made for each newly judged black vixel, forming the CC. The process is repeated again until all connected black pixels have been identified. These identification The address of the black pixel generated from black pixel 34rn constitutes the CC generated from black pixel 34rn. Ru. The mask RAM 46 in FIG. may be used to store the address of the cell.
さらに図7および図8を参照すると、もし図7の「$」シートサーチエリア$S Aにおいて発見された新しいビクセル(ステップ102D)か「$」文字10a の黒ビクセル34sであるならば、図8の「$」マスクサーチエリア$MAにお ける対応する黒ピクセル34mの成長によってつくり出された結果としてのCC (ステップl02F)はCC−1であり、それは「$」文字10aである。これ は図8の「$」マスクサーチエリア$MAにおける「$」文字のすへてのピクセ ルが連結されるためである。Further referring to FIGS. 7 and 8, if the "$" sheet search area $S in FIG. The new pixel found at A (step 102D) or the "$" character 10a If the black pixel is 34s, enter the "$" mask search area $MA in Figure 8. The resulting CC created by growing the corresponding black pixel 34m (Step 102F) is CC-1, which is the "$" character 10a. this is all the pixels of the “$” character in the “$” mask search area $MA in Figure 8. This is because the files are connected.
他方、もし「$j文字か存在せず、「$」シードサーチエリア$SA(図7)に おいて発見された新しい黒ピクセルか数字「8」のピクセル36sてあったと仮 定すると、図8の対応する黒ビクセル36mの成長はCC−2を発生し、それは 切れ目10’bのために「8」の上部の部分にすぎないと忠われるてあろう。On the other hand, if the "$j" character does not exist and the "$" seed search area $SA (Figure 7) It is assumed that there was a new black pixel or pixel with the number "8" 36s discovered in , the growth of the corresponding black vixel 36m in Fig. 8 generates CC-2, which is Because of the cut 10'b, it would be believed that it is only the upper part of the "8".
ステップl02FのCCの発生に従って、動作はステップ102Gに進み、そこ では発生されたCCのサイズ、幾何学的形状および位置か、「$」文字の適当な 候補かどうか、または拒絶されるへきかとうかという比較的早い判断をなすため に使用され、それによって比較的により時間を消費する認識プロセスを避ける。Following the occurrence of CC in step 102F, operation proceeds to step 102G, where Then, the size, geometry and position of the generated CC, or the appropriate value of the “$” character. To make a relatively quick judgment as to whether the candidate is a candidate or not, or whether the candidate is rejected. , thereby avoiding relatively more time-consuming recognition processes.
CCか「$」候補であると判断されるときのみ(ステップ102G)、動作はス テップ102Hに進み、そこでは従来の文字認識か、CCか「$」文字であるか どうかを判断するために実行される。たとえは前述の米国特許第4゜449.2 39号において説明された分類器手法は認識のために使用されてもよい。もしC Cかステップ102Gにおいて適当な「$」の候補であると判断されない場合、 またはもしCCかステップ102Hにおいて「$」であると認識されない場合、 動作はステップ102Cに戻り、図7の「$」 シードサーチエリア$SAにお いて新しい黒ピクセルを走査し続ける。しかしながらもし、CCがステップ10 2Hにおいて「$」文字と認識されるならば、「$」文字は位置決定される。そ のような場合、さらなる走査は行なわれず、動作は図3のステップ104に進み 、額面金額を抽出する。Only when it is determined that it is a CC or "$" candidate (step 102G), the operation is Proceed to step 102H, where it is determined whether it is traditional character recognition, CC or "$" character. It is executed to determine whether An example is the aforementioned U.S. Patent No. 4.449.2. The classifier approach described in No. 39 may be used for recognition. If C If C is not determined to be an appropriate candidate for "$" in step 102G, Or if the CC is not recognized as "$" in step 102H, The operation returns to step 102C, and the “$” seed search area $SA in FIG. and continues scanning new black pixels. However, if the CC If it is recognized as a "$" character in 2H, the "$" character is located. So If , no further scanning is performed and operation continues to step 104 of FIG. , extract the face value.
ステップl02Eと関連して先に述へたように、走査の終わりに達するときに、 もし「$」文字の認識がなされなければ、拒絶か発生する。もし追加的サーチエ リアが「$」文字のために走査されることか所望されるならば、走査の終わりに 拒絶を生み出す代わりに、動作は図4のステップ102Bまて戻り、新しいシー ドおよびマスクサーチエリアを確立する。追加的サーチエリアのこの走査は所望 されるたけの回数、または中断か発生するまで続けられてもよい。As mentioned above in connection with step 102E, when the end of the scan is reached, If the "$" character is not recognized, a rejection will occur. If additional search At the end of the scan, if it is desired that the rear be scanned for the "$" character, Instead of producing a rejection, the operation goes back to step 102B of FIG. 4 and creates a new sheet. Establish a code and mask search area. This scanning of additional search areas is desired. It may continue as many times as required or until an interruption occurs.
ステップ102Fの前述の説明から、ステップ102Cで参照された「新しい」 黒ピクセルは、ステップ102Fの間に「$Jマスクサーチエリアにおいての成 長の結果として先に発見されなかったしのである、なぜなら先に識別された黒ピ クセルを成長させる必要はないからである。そのような先に識別されたシートピ クセルか、「$」マスクサーチエリアにおいて成長されることを防ぐ種々の可能 な方法かある。説明されている実施例において、図4のステップ102Fにおけ るマスク成長の間「$」マスクサーチエリア$MAにおける対応するビクセルを 識別すると、(図6の「$」 シート画像RA〜144に格納された)「$ノノ ート画像からシートピクセルを削除することによってこの目的を達成することか 有利であるということかわかった。したかって、ステップl02Fにおける先の 成長の間識別された黒ビクセルは、ステップ102Cの走査の閲見られず、ゆえ に「$」文字を位置決定するのに必要な時間を減する。この節約は、シート画像 か、その導出に使用される高しきい値の結果としての比較的僅かな「ノイズ」黒 ピクセルを含むために節約された時間にさらに加えられるものである。そのよう な高しきい値の使用は可能である。From the previous description of step 102F, the "new" referenced in step 102C Black pixels are identified during step 102F by As a result of the length of time, it was not discovered earlier, because the black pin that was identified earlier This is because there is no need to grow Quseru. Such previously identified seat pins Various possibilities to prevent growth in the ``$'' mask search area There is a way. In the described embodiment, in step 102F of FIG. During mask growth, the corresponding pixel in the “$” mask search area $MA is Once identified, the “$nono” (stored in “$” sheet images RA~144 in FIG. 6) Is it possible to achieve this purpose by removing sheet pixels from the sheet image? I found it to be advantageous. Therefore, the previous step in step l02F Black vixels identified during growth are not seen in the scan of step 102C and are therefore reduces the time required to locate the "$" character. This savings is based on the sheet image or relatively little "noise" black as a result of the high threshold used in its derivation. This is in addition to the time saved for including pixels. Like that The use of high thresholds is possible.
CCを発生するための上に説明されたシード/マスク成長手法は小切手10(図 1)上の「$」文字10aを位置決定するのにさらに利点となることか理解され るであろう、なぜなら「$」文字は普通高品質および高いコントラストを備えて 印刷され、「$Jマスクサーチエリア$MA(図8)にお1する切れ目をつくる ようには、巴われないからである。このように、上に説明されたように(ステッ プ102Gおよび102H)、認識のために発生されたCCの各々を提出するこ とは、他の印または(先に考察された数字「8」のような)文字と比へて「$」 文字か認識される可能性をかなり高くする。The seed/mask growth technique described above for generating CC is shown in check 10 (Fig. 1) It is understood that there is an additional advantage in locating the "$" character 10a above. , because the "$" character usually has high quality and high contrast. Create a cut in the “$J mask search area $MA (Figure 8)”. That's because it doesn't get blurred out like that. In this way, as explained above (step 102G and 102H), submit each of the generated CCs for recognition. ``$'' compared to other marks or letters (such as the number ``8'' discussed earlier) Significantly increases the chance that characters will be recognized.
CCを発生するためのシート/マスク成長手法はこの発明の範囲内において多く の変形を受けるということかさらに理解されるへきである。たとえばCCを発生 するために使われる「連結性J (connectivity)の定義は、異な った環境下で特定の型の文字の認識に対処するのに種々の様式で変化され得る。Many sheet/mask growth techniques for generating CC are within the scope of this invention. It can be further understood that it undergoes the transformation of For example, generate CC The definition of connectivity used to can be varied in various ways to address the recognition of particular types of characters in different environments.
たとえば、「連結性」の定義は(垂直、水平および/または特定の対角線のよう な)1つまたは2つ以上の特定の方向に制限されるように変更され得る。連結性 の定義における別のあり得る変化は、特定の環境において「連結された」ピクセ ル間に発生する1つ(または2つ以上)のビクセル切れ目を許容し得る。For example, the definition of "connectivity" (such as vertical, horizontal and/or certain diagonals) etc.) may be modified to be restricted to one or more specific directions. connectivity Another possible variation in the definition of One (or more) pixel breaks occurring between the pixels may be allowed.
ステップ104の詳細な説明 図3におけるステップ104を達成するための好ましい態様は図9のステップ1 04Aから104Jを参照して次に考察されるであろう。ステップ104の目的 は図Iに示される額面金額10bを抽出することであるということが念頭におか れるであろう。Detailed description of step 104 A preferred embodiment for accomplishing step 104 in FIG. 3 is step 1 in FIG. 04A to 104J will be discussed next. Purpose of step 104 Keep in mind that is to extract the face value 10b shown in Figure I. It will be.
ステップl04A(図9) このステップの間、動作は額面金額10b(図5)を抽出することに切り替わり 、額面金額の位置はステップ102(図3および図4)における「$」文字10 aをうまく位置決定することに基づいて決定されてきた。ステップ104の説明 か進行するに従って、ステップ102において「$」を位置決定するために説明 された基本的なシード/マスク手法は額面金額抽出にも使用されるか、いくらか 異なった態様で使用されるということか明白になるであろう。Step l04A (Figure 9) During this step, the operation switches to extracting the face value 10b (Figure 5). , the face value is located at the "$" character 10 in step 102 (FIGS. 3 and 4). It has been determined based on successfully locating a. Description of step 104 As the process progresses, step 102 describes how to locate "$". The basic seed/mask method described can also be used for face value extraction or It will be clear that it can be used in different ways.
ステップ!04B (図9) このステップの間、シートおよびマスクサーチエリアは図3のステップ102に おいて「$」文字の位置を決定したことに基づいて額面金額の抽出のために確立 される。図IOは額面金額シートサーチェリアC,A、SAの例を示し、一方で 図11はいくらかのより大きい額面金額マスクサーチエリアC,A、MAの例を 示す。図11のC,A。Step! 04B (Figure 9) During this step, the sheet and mask search area is set to step 102 in FIG. Established for extracting the face value based on determining the position of the “$” character in be done. Figure IO shows an example of face value sheet searcheria C, A, SA, while Figure 11 shows an example of some larger face value mask search areas C, A, MA. show. C and A in Figure 11.
MAは額面金額枠33より下に突き出すかもしれない額面金額部分を含むのに十 分なサイズであるということに注目されたい。またこの点において、額面金額の 「7ノは図10の額面金額サーチエリアC,A、SAに全部は含まれないけれと も、「7」は図11のより大きい額面金額マスクサーチエリアC,A、MAにお けるシート/マスク成長の結果として全部抽出されるであろうということにも注 目されたい。The MA is sufficient to include the face value portion that may protrude below the face value frame 33. Please note that it is a reasonable size. In this respect, the face value ``No. 7 must not all be included in the face value search areas C, A, and SA in Figure 10.'' Also, "7" is placed in the larger face value mask search areas C, A, and MA in Figure 11. Note also that all will be extracted as a result of sheet/mask growth. I want to be noticed.
ここに説明される好ましい実施例において、「$」の位置決定のために使用され たのと同じ(図6のRAM48に格納された)マスク画像か金額抽出のために使 用されるか、(図6のRAM46に格納された)額面金額シート画像は「$」文 字を位置決定するために使用された(RAM44における)「$」 シード画像 の代わりに金額抽出のために使用される。これは、「$」 シード画像しきい値 か先に説明されたように、高度なコントラスト 「$」文字を利用するために高 く選択され、それはより大きいコントラスト変化の範囲を有する額面金額文字に とってふされしくないため、行なわれる。図1Oは額面金額シートサーチエリア C,A、SAのためのしきい値の可能な選択の例を示し、そこでは枠33(図5 )は低コントラストの異質なビクセル(ノイズ)と同様、現われない。この点で 、額面金額のすへての部分が図10の額面金額サーチエリアC,A、SAに含ま れる必要はないということか理解されるへきである。図11のC,A、MAにお けるシード/マスク成長の結果としての額面金額の適切な抽出を提供するために 、額面金額の十分な部分か図10のC,A、SAに含まれることのみか要求され る。In the preferred embodiment described herein, the The same mask image (stored in RAM 48 in Figure 6) as above or used for amount extraction. The face value sheet image (stored in RAM 46 in FIG. 6) is a “$” statement. “$” seed image (in RAM 44) used to position the character used for amount extraction instead of . This is the "$" seed image threshold As previously explained, the high-contrast “$” character is It is chosen that the face value character has a larger range of contrast changes It is done because it is extremely inappropriate. Figure 1O is the face value sheet search area An example of possible choices of thresholds for C, A, and SA is shown in which box 33 (Fig. 5 ) do not appear, as do low-contrast extraneous pixels (noise). In this regard , all parts of the face value are included in face value search areas C, A, and SA in Figure 10. It is understood that there is no need to do so. In C, A, and MA of Figure 11 to provide proper extraction of face value as a result of seed/mask growth , only a sufficient portion of the face value is required to be included in C, A, and SA in Figure 10. Ru.
ステップ104C,104D、104Eおよび104F(図9) これらのステップは通常の額面金額に関して、走査の終わりの後(ステップ10 2E)拒絶かないこと、動作は代わりにステップ106 (図3)に進むことを 除いて、図4のそれぞれのステップ102C,102D、102E、および10 2Fのために先に説明されたものと一般的に同してあってもよい。ステップ10 4C,104D、104Eおよびl04Fはゆえに詳細には考察されないであろ う。Steps 104C, 104D, 104E and 104F (Figure 9) These steps occur after the end of the scan (step 10) for normal denominations. 2E) No rejection, the operation proceeds to step 106 (Figure 3) instead. Steps 102C, 102D, 102E, and 10 of FIG. It may be generally the same as that described above for 2F. Step 10 4C, 104D, 104E and 104F will therefore not be considered in detail. cormorant.
額面金額シートサーチェリアC,A、 SA (図10)の走査の間にF新しい ノ黒ピクセルか発見されるたびに、額面金額マスクサーチエリアC,A、MA (図II)における成長は(先に規定されたように)CCをつくり出す。F new during scanning of face value sheet searcheria C, A, SA (Figure 10) Every time a black pixel is discovered, face value mask search areas C, A, MA Growth in (Figure II) creates a CC (as defined earlier).
ステップl04G(図9) 図4のステップ102Gと同様に、このステップはステップ104Fで発生され たCCか、CCのサイズ、幾何学的形状および位置に基ついて適当であるかとう かをテストする。額面金額抽出の目的のために、ステップ104Gにおけるこの テストは発生されたCCか額面金額の一部であるらしいかどうかを判断する。た とえば、発生されたCCか額面金額の部分であるらしいかどうかを判断するため の役に立つ根拠は、たとえば図11の線55のように額面金額マスクサーチエリ アC,A、〜fAの枠52(図11)まで延在するかどうかを判断することであ る。そのような発生されたCCか額面金額の一部であることはほとんどない。Step l04G (Figure 9) Similar to step 102G in FIG. 4, this step occurs in step 104F. whether the CC is appropriate based on the size, geometry, and location of the CC; or test. For the purpose of face value extraction, this step in step 104G The test determines whether the CC generated is likely to be part of the face value. Ta For example, to determine whether the CC generated is likely to be part of the face value. A useful basis for The purpose of this is to determine whether or not it extends to the frame 52 (Fig. 11) of Ru. Such generated CCs are rarely part of the face value.
ステップ104H(図9) もし発生されたCCかステップ104Gにおいて額面金額の一部ではないらしい と判断されるならば、動作はステップl04Hに進み、発生されたCCを廃棄し 、動作はステップ104Cに戻り、図10の額面金額シートサーチェリアC,A 、SAにおける新しい黒ビクセルを走査し続はステ・!ブ1041(図9) もし発生されたCCかステップ104Gにおいて額面金額の一部であるらしいと 判断されるならば、動作はステップ1041に進み、そこで発生されたCCを( たとえば図6におけるRAMメモリ46内に)後の使用のために格納する。動作 はそれからステップ104Cに戻り、図10の額面金額シートサーチエリアC, A、SAにおける新しい黒ピクセルを走査し続ける。Step 104H (Figure 9) If the CC is generated, it seems that it is not part of the face value in step 104G. If so, the operation proceeds to step l04H and discards the generated CC. , the operation returns to step 104C, and the face value sheet search areas C and A in FIG. , the new black pixels in SA are scanned and the continuation is Ste! 1041 (Figure 9) If the CC generated appears to be part of the face value in step 104G, If so, operation proceeds to step 1041 where the generated CC ( (eg, in RAM memory 46 in FIG. 6) for later use. motion then returns to step 104C and searches the face value sheet search area C, A. Continue scanning new black pixels in SA.
ステップ104rを離れる前に、発生されたCCか「$j文字を位置決定するの に使用される方法(図3および図4のステップ102)と額面金額抽出および認 識のために使用される方法との間の違いに注目することは役に立ってあろう。「 $」文字を位置決定するために、発生されたCCの各々は認識目的のためのもの と考えられるということか念頭におかれるであろう、なぜなら「$」文字は高品 質の印刷で提供され普通高度なコントラストを存し切れ目を有さないからである 。しかしなから、額面金額抽出のために発生されたCCは文字の断片的な部分に すぎないかもしれない、なぜなら額面金額文字は、特に手書きされるとき、幾つ かの切れ目を存するかもしれないからである。このように、額面金額文字は複数 の発生されたCCからなるかもしれない。したかって、額面金額を抽出かつ認識 する際に、(図4のステップ102Hにおいて)「$」文字を位置決定するとき になされるようには、発生されたCCを認識するという試みはなされない。代わ りに、額面金額の一部であるらしいと判断された各CCは、全体の額面金額エリ アか走査されるまでストアされ(ステップ104I)、れたCCか格納されてい ることになるであろう。これらの格納されたCCは抽出された額面金額を構成す る。図13は上に説明されるように抽出されたそのような格納された額面金額の 例である。このように、額面金額に関して、CCを発生するためのシート/マス ク成長手法は主に認識のための額面金額抽出および格納の特に有利な方法として 投薬型的にステップ104Jは(走査の終わりをテストする)ステップ104E を介して、額面金額、シードサーチエリアC,A、SA (図10)の走査か完 了され、額面金額の一部であるらしいすへての発生されたCCか格納された後に 到達される。ステップ104Jの目的は、この格納された抽出された額面金額( 図13)を62および63て例示されるような異質なCCを除去することによっ て明瞭にすることである。使用される1つの手法は、62のような異質なCCか もし額面金額領域の上と下との予め定められた量たけ間隔をあけられている場合 には、それらを削除することである。これはたとえば上部および下部境界線を有 する領域を規定するために全体金額フィールドを水平に投影することによって達 成されてもよい。これらの境界線の上または下の、図13における62のような CCはそれから削除される。もし投影が複数の領域を生み出すならば、適切な上 部および下部境界線は「$」文字を含む領域に対応するものである。Before leaving step 104r, the generated CC or (step 102 in Figures 3 and 4) and the method used for face value extraction and recognition. It may be helpful to note the differences between the methods used for " To locate the "$" character, each of the CCs generated is for recognition purposes. You may have it in mind that the character "$" is considered to be of high quality. This is because they are provided with high quality printing and usually have a high degree of contrast and do not have any breaks. . However, for some reason, the CC generated to extract the face value is a fragmentary part of the characters. It may not be too much, because the face value text, especially when written by hand, This is because there may be some kind of break. In this way, there are multiple face value characters. may consist of generated CCs. Therefore, extract and recognize the face value When locating the "$" character (in step 102H of FIG. 4) No attempt is made to recognize the generated CCs as is done. substitute Each CC determined to be likely to be part of the face value is added to the overall face value area. CC is stored until it is scanned (step 104I), and the CC is stored until it is scanned. It will probably happen. These stored CCs constitute the extracted face value. Ru. Figure 13 shows such stored par amounts extracted as explained above. This is an example. In this way, regarding the face value, the sheet/mass for generating CC The growth method is mainly used as a particularly advantageous method of extracting and storing face value for recognition. Dosage-wise step 104J (tests end of scan) step 104E The face value, seed search area C, A, SA (Fig. 10) can be scanned or completed through After the CC is generated and stored, it seems that it is part of the face value. be reached. The purpose of step 104J is to extract this stored extracted face amount ( 13) by removing extraneous CCs as exemplified by 62 and 63. It is important to make the information clear. One technique used is to use a heterogeneous CC such as 62 If the top and bottom of the face value area are separated by a predetermined amount The solution is to delete them. This may have a top and bottom border, for example. achieved by horizontally projecting the entire amount field to define the area may be made. above or below these boundaries, such as 62 in Figure 13. The CC is then deleted. If the projection yields multiple regions, use the appropriate The upper and lower borders correspond to the area containing the "$" character.
額面金額の右に位置する図3における63のような異質のCCの除去はより複雑 な問題を引き起こす、なぜならそれらは額面金額の一部であるかもしれないから である。これらのCCか異質かどうかを判断するための特に有利な方法は、最も 右のCCとCCの左の最も近い黒ビクセルとの間の水平間隔かCCの水平幅より 予め定められた量だけ大きいという条件に基づく。もしこの条件に合致するなら ば、CCは異質なものと考えられ、削除される。いかにこの条件が実現され得る かという例は図13に関して説明されるであろう。この例のために、額面金額領 域は左から右に番号付けられた列に分割され、各列は1ピクセルに等しい幅を有 すると考えられる。最初に、以下の列の位置決定は抽出された額面金額から判断 される、 C1=黒ピクセルを有する最も右の列。Removal of extraneous CCs such as 63 in Figure 3 located to the right of the face value is more complicated. pose a problem, because they may be part of the face value It is. A particularly advantageous way to determine whether these CCs are heterogeneous is to The horizontal distance between the right CC and the nearest black pixel to the left of the CC or the horizontal width of the CC Based on the condition that it is greater by a predetermined amount. If this condition is met For example, the CC is considered foreign and is deleted. How can this condition be realized? An example of this will be explained with respect to FIG. For the purpose of this example, we will use the face value area The area is divided into columns numbered from left to right, each column having a width equal to one pixel. It is thought that then. First, the positioning of the following columns is determined from the extracted face value be done, C1 = rightmost column with black pixels.
C2=CIの左の最小幅Wを備える0列の隣りのエリアの最も右の列。C2=rightmost column of area next to column 0 with minimum width W to the left of CI.
C3=黒ビクセルを存する、C2の左隣りの列。C3 = the column to the left of C2 containing black pixels.
もし以下の条件に合致するならば、 (C2−C3)>K (CI−C2) CIおよびC3の間に置かれだすへての黒ビクセル素子63は削除される。典型 的に、Wは3つの列の幅に対応する幅を有してもよく、Wは単一の文字の部分に よっては上の条件か満たされないように選択される。Kは典型的には1.5の値 を存してもよい。WおよびKのこれらの値は額面金額か異質なCCと間違えられ ないことを保証するように選択される。上のことは、条件か合致し続ける限り反 復的に繰返される。条件か合致し損ねたとき、テストは終了し動作は図3の次の ステップ106に進む。If the following conditions are met, (C2-C3)>K (CI-C2) The remaining black pixel element 63 placed between CI and C3 is deleted. typical Generally, W may have a width corresponding to the width of three columns, and W may have a width corresponding to the width of three columns, and W may be Therefore, the above conditions are selected so that they are not satisfied. K typically has a value of 1.5 may exist. These values of W and K may be mistaken for face value or extraneous CC. selected to ensure that no The above is true as long as the conditions continue to match. repeated repeatedly. When the condition fails to match, the test ends and the operation proceeds as shown in Figure 3. Proceed to step 106.
ステップ110の詳細な説明(図12)ステップ110はもしステップ104の 間に抽出された額面金額か手書きであると判断されたならば到達されるというこ とか図3から理解されるであろう。ステップ110の目的は「ψ」部分10b− 1(図1)を額面金額10bのトル部分job−2から分離することである。ス テップ110を、この発明に従って達成するための好ましい態様は、図12のス テップll0AからllOHを参照して次に考察されるであろう。額面金額の「 87部分および「φ」部分は以下に「$」フィールドおよび「φ」フィールドと それぞれ称されるであろう。Detailed explanation of step 110 (FIG. 12) Step 110 is performed if step 104 If it is determined that the face value extracted during This can be understood from Figure 3. The purpose of step 110 is to 1 (FIG. 1) from the torque portion job-2 of face value 10b. vinegar A preferred embodiment for accomplishing step 110 in accordance with the present invention is as shown in FIG. It will be discussed next with reference to steps llOA to llOH. of the face value The 87 part and the "φ" part are referred to as the "$" field and the "φ" field below. They will be called respectively.
ステップll0A(図12) ステップll0Aの間、抽出された額面金額はピリオドまたは小数点(「」)の 存在をサーチされる。そのようなピリオドまたは小数点は、もちろん額面金額の 「$」および「φ」フィールドの間の分離を示し、その検出はしたかってこれら のフィールドを分離するための根拠として使用される。Step ll0A (Figure 12) During step ll0A, the extracted face amount is Existence is searched. Such a period or decimal point is of course It shows the separation between the ``$'' and ``φ'' fields, and the detection of these used as a basis for separating fields.
ピリオドの存在を検出するための好ましい方法は図14に関して説明されるであ ろう。この目的のために、抽出された額面金額は、図6のRAMメモリ46に格 納された抽出された額面金額の画像の列単位の走査を使用する等により左から右 に調査される。A preferred method for detecting the presence of a period is described with respect to FIG. Dew. For this purpose, the extracted face value is stored in the RAM memory 46 of FIG. from left to right, such as by using column-wise scanning of the image of the extracted denominations deposited. will be investigated.
もし図13におけるPCのような潜在的なピリオド候補か発見されると、上部線 ULおよび下部線LL(図14)か(図14の数字「9」のような)PCのすぐ 左の額面金額部分のために決定される。線は上から下へと番号付けられる。潜在 的ピリオド候補PCは、もし以下の条件か満たされれば、実際のピリオド候補と 考えられる。If a potential period candidate like PC in Figure 13 is discovered, the upper line UL and the lower line LL (Figure 14) or right next to the PC (like the number "9" in Figure 14) Determined for the face value portion on the left. Lines are numbered from top to bottom. potential A target period candidate PC is considered an actual period candidate if the following conditions are met. Conceivable.
(1) 潜在的ピリオド候補PCの高さは1/2 (UL−LL)よりも大きく ない。(1) The height of potential period candidate PC is greater than 1/2 (UL-LL) do not have.
(2) 潜在的ピリオド候補PCは所定の量よりも少ない輻Wを存する。(2) Potential period candidate PC has less congestion W than a predetermined amount.
(3) 潜在的ピリオド候補PCの平均の線数はI/2(UL+LL)よりも少 ない。(3) The average number of lines of potential period candidate PCs is less than I/2 (UL + LL). do not have.
典型的には、3つまでのピリオド候補か上の測定に基づき識別されることか可能 である。動作はそれから[N12のステップll0Bに進む。Typically, up to three period candidates can be identified based on the measurements above. It is. Operation then proceeds to step llOB of [N12.
ステップl IOBの間、ステップll0Aにおいて決定された3つまでのピリ オド候補は、たとえば前述の特許において開示されたような公知の統計学的分類 技術を使用して調査される。もし1以上のピリオド候補か受け入れ可能であると わかったら、最も右の1つか「$」および「φ」フィールドを分離するものであ るとして選ばれ、動作は図12のステップ1lOGに進む。Step 1 During IOB, up to three pyri determined in step 110A Odo candidates are known statistical classifications such as those disclosed in the aforementioned patents. be investigated using technology. If one or more period candidates are acceptable Once you know, the rightmost one is the one that separates the "$" and "φ" fields. 12, and operation proceeds to step 11OG of FIG.
しかしなからもし1つのピリオドも識別されなければ、動作はステップll0C に進み別の根拠で「$」および「φ」フィールドを分離しようとする。However, if no period is identified, the operation proceeds to step ll0C. Proceed to step 3 and try to separate the "$" and "φ" fields on another basis.
ステップll0C(図12) ステップ110Cの間、図5に示されるように、額面金額の「ψ」フィールドの 添字(subscript ing)は額面金額の「$」および 「φ」フィー ルドの分離に関する根拠として調査される。この目的のために、抽出された額面 金額は再び左から右へと調査され、(たとえば図14における数字「5」のよう な)上付きに書かれた文字SCの開始を検出する。Step ll0C (Figure 12) During step 110C, as shown in FIG. The subscripting is the “$” and “φ” fee of the face value. will be investigated as a basis for the separation of For this purpose, the extracted face value The amounts are again examined from left to right (for example, the number “5” in Figure 14). ) Detect the start of the superscripted character SC.
潜在的ピリオド候補のサーチを説明するステップ110Bと同様に、上部線UL および下部線LL(図15)は(図15の数字「7」のように)候補の上付きに 書かれた文字SCのすぐ左の額面金額部分のために決定される。再び線は上から 下へと番号付けられる。候補の上付きに書かれた文字SCはもし以下の条件か満 たされると実際の上付きに書かれた文字と考えられる。Similar to step 110B, which describes the search for potential period candidates, the upper line UL and the lower line LL (Figure 15) is the superscript of the candidate (like the number "7" in Figure 15). Determined for the face value portion immediately to the left of the written letters SC. The line is from above again numbered downwards. The character SC written in the superscript of the candidate is if the following conditions are met. If it is, it is considered to be an actual superscript.
(1) 候補の上付きに書かれた額面金額文字の底の線番号は1/3 (2LL +UL)より大きくない。(1) The line number at the bottom of the face value letters written in the candidate superscript is 1/3 (2LL +UL).
(2) 候補の上付きに書かれた文字SCの高さは少なくともl/3 (LL− UL)である。(2) The height of the character SC written in the superscript of the candidate is at least l/3 (LL- UL).
(3) 候補の上付きに書かれた文字SCは(図15の数字「7」のような)す ぐ左の額面金額部分から少なくとも1白列だけ分離される。0列は黒ピクセルを 有さない列である。(3) The letters SC written in the candidate superscript (like the number “7” in Figure 15) are all separated from the face value portion to the left by at least one white column. Column 0 is a black pixel This is a column that does not have
(4) 候補の上付きに書かれた額面金額文字SCのすぐ右の額面金額部分SC ’ (図14の数字「0」)はSCの下部線番号プラスその高さの半分よりも大 きくない下部線番号を有する。(4) Face value portion SC immediately to the right of the face value letters SC written in the candidate superscript ’ (number “0” in Figure 14) is greater than the bottom line number of the SC plus half of its height. has a bottom line number that is not clear.
上記の条件を満たす第1の候補は、上付きに書かれた「φ」フィールドの開始で あると考えられる。The first candidate that satisfies the above conditions is the start of the "φ" field written in superscript. It is believed that there is.
動作はそれから図12のステップll0Dに進む。Operation then proceeds to step ll0D of FIG.
ステップll0D(図12) ステップll0Dはステップll0Cで実行された上付きに書かれた「ψ」フィ ールドのサーチの結果を受け取る。Step ll0D (Figure 12) Step ll0D is the “ψ” file written in the superscript executed in step ll0C. Receive the results of a field search.
もし上付きに書かれた文字が見つけられたら、「$」および「φ」フィールドの 分離のための根拠が決定され、動作はステップll0Gに進む。If the superscript character is found, the "$" and "φ" fields The basis for separation is determined and operation proceeds to step ll0G.
しかしながらもし上付きに書かれた「ψ」フィールドが見つけられなければ、動 作は図12のステップll0Eに進み、「$」および「φ」フィールドの分離の ための別の根拠を見つける。However, if the superscripted ``ψ'' field is not found, then the The process proceeds to step ll0E in Figure 12, where the separation of the "$" and "φ" fields is performed. Find another basis for.
ステップll0E(図12) ステップll0Eの間、図16および図17に示されるように、複合「φ」フィ ールドの存在は「$」および「ψ」フィールドの分離のための根拠として調査さ れる。図16は下線を存する2つの上付きに書かれた数字からなる複合「ψノフ ィールドの第1(7)盟を示すということか見られるであろう。図17は「ψ」 金額か分数として与えられる複合「ψ」フィールドの第2の堅を示す。Step ll0E (Figure 12) During step ll0E, the composite "φ" field is The existence of the field has been investigated as a basis for the separation of the “$” and “ψ” fields. It will be done. Figure 16 shows the compound “ψnov” consisting of two underlined numbers written in superscripts. It can be seen that this indicates the first (seventh) alliance of the field. Figure 17 is “ψ” Indicates the second hardness of a composite "ψ" field given as an amount or a fraction.
複合「φ」フィールドか存在するかとうかを判断するために、抽出された額面金 額は、先に説明されたステップ110Aおよびll0Cのように右から左へと再 度調査される。複合「φ」フィールドのサーチに際し、以下のことか決定される (図16および図17を参照)。The face value extracted to determine whether the composite "φ" field exists or not. The forehead is read from right to left as in steps 110A and 110C previously described. It will be investigated every time. When searching for a compound "φ" field, it is determined whether: (See Figures 16 and 17).
(1) 抽出された額面金額の最後に占められた列C1゜(2) 最後に占めら れた列C1の左の第1の0列C2゜(3) 0列C2の右に位置する額面金額部 分によって占められる第1の線Ll。(1) Last occupied column C1゜ of extracted face value (2) Last occupied column C1゜ First 0 column to the left of column C1 C2゜ (3) Face value section located to the right of 0 column C2 The first line Ll occupied by minutes.
図16および図17に示されるように、CI、C2およびLlの値はそれが複合 「φ」フィールドの適切な候補であるかどうかについてのテストのために抽出さ れた額面金額の特定の部分の枠を決める。テストは種々の可能な「φ」フィール ド型および、特に、図16および図17に示される複合「ψ」フィールド型を認 識するように特定的に設計される統計学的分類技術を使用して達成される。その ような統計学的分類技術か実現される態様は上記の特許から明白であろう。As shown in Figures 16 and 17, the values of CI, C2 and Ll are extracted for testing whether it is a good candidate for the 'φ' field. Determine the limits for a specific portion of the face value. Testing various possible "φ" fields field type and, in particular, the compound “ψ” field type shown in Figures 16 and 17. This is achieved using statistical classification techniques specifically designed to identify the The manner in which such statistical classification techniques may be implemented will be apparent from the above-mentioned patents.
もし、図16および図17に示されるように複合「φ」フィールドか認識される ならば、列C2は「$」および「φ」フィールドの間の分離列であると考えられ る。C2は最後に占められた列CIの左の第1の0列であるということか念頭に おかれるであろう。If the compound "φ" field is recognized as shown in Figures 16 and 17, Then, column C2 is considered to be a separating column between the “$” and “φ” fields. Ru. Keep in mind that C2 is the first 0 column to the left of the last occupied column CI. It will be placed.
ステップllOHにおける動作の結果はそれから図12のステップll0Fに送 られる。The result of the operation in step llOH is then sent to step ll0F in FIG. It will be done.
ステップll0F(図12) ステップll0Fはステップll0Eにおいて実行される複合「φ」フィールド のサーチの結果を受け取る。もし複合「ψ」フィールドか発見されたら、列C2 は「$」および「φ」フィールドの分離の根拠として役に立ち、動作は図12の ステップll0Gへ進む。Step ll0F (Figure 12) Step ll0F is a composite "φ" field executed in step ll0E Receive the results of your search. If a compound "ψ" field is found, column C2 serves as the basis for the separation of the “$” and “φ” fields, and the operation is as shown in Figure 12. Proceed to step ll0G.
しかしながら、もし複合「ψ」フィールドが見つけられなければ、拒絶か発生す る、なぜなら額面金額の「$」および「φ」フィールドを分離するための根拠が 見つけられずかつ分離のためのさらなる根拠かないからである。この点において 、分離を提供するためのさらなる根拠がまた与えられてもよいということが理解 されるへきである。However, if the composite ``ψ'' field is not found, rejection will occur. , because the basis for separating the “$” and “φ” fields of the face value is because it cannot be found and there is no further basis for separation. In this regard , it is understood that further grounds for providing separation may also be provided. It is a place to be treated.
図12の上の説明から、ピリオドを見つけるか(ステップ110Aおよびll0 B)、上付きに書かれた「ψ」フィールドを見つけるか(ステップll0cおよ び110D)、または複合「φ」フィールドを発見するか(ステップll0Eお よびll0F)のいずれかに基づいて、額面金額の「φ」および「$」フィール ドを分離するための根拠を発見した結果として動作はステップ110Gに進むと いうことが理解されるであろう。From the description above in Figure 12, find the period (steps 110A and ll0 B) Find the "ψ" field written in superscript (steps ll0c and and 110D) or find a composite “φ” field (steps ll0E and "φ" and "$" field of face value based on either As a result of finding a basis for separating the code, operation proceeds to step 110G. You will understand what I mean.
したかってステップll0Gは分離のために見つけられた特定の根拠(ピリオド 、上付きに書かれることまたは複合「φ」フィールド)を使用して「φ」フィー ルドを分離する。Therefore step ll0G is the specific basis (period) found for separation. , written in superscript or using a compound “φ” field) Separate the cables.
またステップll0Gの間、分離された「φ」フィールドは前述の特許において 開示されたような統計学的分類技術を使用して幾つかの型の1つとして類別され る。説明されている好ましい実施例のためにステップll0Gによって与えられ 得る類別は2つの0.2桁の数字、下線付き2桁の数字および分数である。別の 類別も与えられ得る。Also during step ll0G, the separated "φ" field is classified as one of several types using statistical classification techniques such as those disclosed. Ru. Given by step ll0G for the preferred embodiment described The categories obtained are two 0.2 digit numbers, an underlined two digit number, and a fraction. another A classification may also be given.
もし許容可能な類別かステップ110Gにおいて決定されるならば、動作は図1 2におけるステップ112に進み、さもなければ拒絶か発生する。If an acceptable classification is determined in step 110G, the operation proceeds as shown in FIG. 2, otherwise a rejection occurs.
ステップ112(図面の簡単な説明 この発明に従ってステップ112を達成するための好ましい態様か次に考察され るであろう。ステップ112の目的は「φ」フィールドのために決定された類別 に基づいて「φ)文字を抽出することであることが念頭におかれる。Step 112 (brief description of the drawing) A preferred embodiment for accomplishing step 112 in accordance with the present invention will now be discussed. There will be. The purpose of step 112 is to determine the classification determined for the "φ" field. It is kept in mind that the purpose is to extract the "φ) character based on .
説明されている好ましい実施例において与えられた種々の類別のためのステップ 112における動作は以下に説明この類別に関して、「ψJフィールドの値は0 であるということが即座に知られ、したがって動作はさらなる処理を伴わず図3 のステップ116に進む。典型的には、この類別は分離の根拠かピリオドまたは 上付きに書かれたrφ」フィールドの検出であるところでのみ使用される。Steps for the various categories given in the described preferred embodiment The operation at 112 is explained below. For this classification, the value of the ψJ field is 0. It is immediately known that Proceed to step 116. Typically, this classification is based on the basis of separation or period or It is only used where the detection of the superscript ``rφ'' field.
2桁の数字 この類別に関しては、[φノフィールドの数字は直接利用可能であり、ゆえに動 作はさらなる処理を伴わず認識のための図3におけるステップ114に進む。「 2つの0」類別と同じく、この類別は典型的には分離のための根拠がピリオドま たは上付きに書かれた「φ」フィールドの検出であるところでのみ使用される。2 digit number Regarding this classification, [φ nofield numbers are directly available and therefore dynamic. The process proceeds to step 114 in FIG. 3 for recognition without further processing. " Similar to the ``Two Zero'' category, this category typically uses a period or It is only used where the detection of the ``φ'' field written in superscript or superscript.
下線を引かれた2桁の数字 この類別に関しては、「φ」フィールドが下線を引かれた「36」からなる図1 8および図19に例示されるように「φ」文字のみが残るように動作は下線を除 去することに向けられる。この目的を達成するための好ましい具体例は以下に説 明される。two-digit number underlined For this classification, the ``φ'' field consists of an underlined ``36'' in Figure 1. 8 and 19, the operation removes the underline so that only the “φ” character remains. directed towards leaving. Preferred specific examples for achieving this objective are described below. It will be revealed.
まず下線の勾配か以下のように決定される。「φ」フィールドの各列に関して、 第1の黒ピクセルに対する白ピクセルの数か下部端縁からカウントされる。もし 2つの連続する列のこれらの個数の差か量に関して4より大きければ、不連続の 部分か存在する。「φ」フィールドにおける不連続のすへての部分および2つの 不連続の部分の間の最も大きい列範囲か決定される。この最も大きい列範囲にお いて、下線かまた予期される。2つの画像の座標点(xi、yl)および(x2 .y2)は以下のように規定される。First, the slope of the underline is determined as follows. For each column of the "φ" field, The number of white pixels relative to the first black pixel is counted from the bottom edge. if If the difference between these numbers in two consecutive columns is greater than 4 in terms of quantity, then the discontinuous Part exists. All parts of the discontinuity in the “φ” field and the two The largest column range between discrete sections is determined. This largest column range Underlined or underlined is also expected. The coordinate points (xi, yl) and (x2 .. y2) is defined as follows.
xl=列範囲の開始列。xl = start column of column range.
YI=列xlにおける下部端縁から第1の黒ビクセルまでの白ビクセルの数。YI=number of white pixels from the bottom edge to the first black pixel in column xl.
X2=列範囲の終わりの列。X2=end column of column range.
y2=列x2における下部端縁から第1の黒ピクセルまでの白ビクセルの数。y2=number of white pixels from the bottom edge to the first black pixel in column x2.
下線の勾配SLは以下の方程式によって定められる。The underlined slope SL is determined by the following equation.
SL= (y2−y 1)/ (x2−xi)発見された下線を削除するために 、勾配SLのn直線の集合および1の垂直間隔か形成される。直線の数nは下線 の勾配に依存し、以下のように確立される。SL=(y2-y1)/(x2-xi) to remove the found underline , a set of n straight lines of gradient SL and a vertical spacing of 1 are formed. The number of straight lines n is underlined is established as follows.
その他の時 n=32 さらに、開始点かこれらの直線の上に、これらの直線に沿って走査ステップ幅1 で右からおよび左からreJフィールドを走査するために確立される。Other times n=32 Furthermore, at the starting point or above these straight lines, a scanning step width of 1 is applied along these straight lines. is established to scan the reJ field from the right and from the left.
左からの走査の場合、 XI(i)==rφ」フィールドの第1の列(すべての直線に関して) yl (i) =y 開始+1−1(i番目の直線に関しては) この場合、y−開始は(xi yl)か第1の直線の走査点て発生するように確 立される。For scanning from the left, XI(i)==rφ” field first column (for all straight lines) yl (i) = y start + 1-1 (for the i-th straight line) In this case, the y-start is ensured to occur at (xi yl) or the first straight line scan point. be erected.
右からの走査の場合、 xr(i)=rφjフィールドの最後の列(すへての直線に関して) yr (i) =y 開始+1−1(i番目の直線に関して) この場合、y−開始は(x 2. y 2)か第1の直線の走査点で発生するよ うに確立される。For scanning from the right, xr(i) = last column of rφj field (with respect to all straight lines) yr (i) = y start + 1-1 (for the i-th straight line) In this case, the y-start occurs at (x2.y2) or the first straight line scan point. established.
「φ」フィールドはこれらの直線に沿って走査され、その目的は可能な限りにお いてその直線より下には完全な下線は生じるか役に立つ情報は生じないような直 線を決定するためである。この目的のために、走査点の個数は、「φ」フィール ドの第1の黒ビクセルを備える走査点に関する限りは、右からおよび左からの走 査においてずへての走査直線に関してカウントされる。それから、右からの走査 コースにおけるおよび左からの走査コースにおけるカウントされた走査点の最大 個数を備えた直線か決定される。直線のこの範囲から、一番低いものか選択され る。この最も低い直線以下の抽出された「φ」フィールドのすべての部分は削除 され、図19に示される結果を生み出す。上の手順は「ψ」文字か下線を遮断す るような状況をも取り扱う。The “φ” field is scanned along these straight lines and its purpose is to Below that straight line, either a complete underline or a straight line that no useful information occurs. This is to determine the line. For this purpose, the number of scanning points is As far as the scan point with the first black pixel of the card is concerned, the scans from the right and from the left are It is counted for every scan line in the scan. Then, scanning from the right Maximum of counted scanning points in the course and in the scanning course from the left A straight line with the number of pieces is determined. From this range of straight lines, the lowest one is selected. Ru. All parts of the extracted "φ" field below this lowest straight line are removed and produces the results shown in FIG. The above steps block the "ψ" character or the underscore. It also deals with situations where
下線の除去の後(図19)残った「φ」フィールド構成要素(図19のr36」 )は再び統計学的分類技術を使って確かめられ、2つの0または2桁の数字類別 のどちらに入るか決定される。もし類別か2桁の0ならば、動作はステップ11 6に進む、なぜなら「φ」フィールドの値はOであることか既知であるからであ る。もし類別が2桁の数字ならば、動作は2桁の数字を認識するためにステップ l14に進む。もしいずれの類別も発見されなければ、拒絶が発生する。After removing the underline (Figure 19), the remaining "φ" field component (r36 in Figure 19) ) is again ascertained using statistical classification techniques, with two zero or two-digit digit classifications. It is decided which one to enter. If the classification is 2 digits 0, the operation is step 11 Proceed to step 6, because the value of the ``φ'' field is known to be O. Ru. If the classification is a 2-digit number, the operation steps to recognize the 2-digit number. Proceed to l14. If neither category is found, a rejection occurs.
分数 この類別に関しては、動作は図20.21および22に示されるようにまず分母 を除去し、それから分数点を除去する、なぜなら「φ」フィールドは分子「80 」および分母r 100Jを有する分数からなるからである。この目的を達成す るための好ましい具体例は以下に説明される。fraction For this classification, the operation begins with the denominator as shown in Figures 20.21 and 22. and then the fraction point, because the "φ" field is the numerator "80 ” and a fraction with a denominator r of 100J. achieve this purpose Preferred embodiments for this purpose are described below.
第1に、フィールドは分数線か予期される列範囲まで調査される。これは、たと えば、最も大きい幅を有する連結構成要素群CCを決定することによって達成さ れてもよい。First, the field is examined to the fractional line or to the expected column range. This is For example, by determining the connected component group CC with the largest width. You may be
一旦分数線か発見されると、その勾配は座fl’!xLyl、x2、y2を発見 することおよび下線を引かれた複合「φ」フィールドに関して先に説明されたの と同じ態様で勾配を計算することによって決定される。Once a fraction line is discovered, its slope is fl'! Found xLyl, x2, y2 and the underlined compound "φ" field described above. is determined by calculating the slope in the same manner as .
可能な限り分子および分数線のみか位置する、分割直線かここで確立される。こ の分割直線は勾配および以下を備える座標rxl、yl十オフセット」で決定さ れる。A dividing line is established here, where only the numerator and fractional lines are located as far as possible. child The dividing straight line is determined by the slope and the coordinates rxl, yl + offset with the following: It will be done.
その他の時 オフセット=lO このように分割直線を確立して、この分割線の下の「φ」フィールド構成要素は 削除され、図19に示された分数の例に関しては、分母rloOJが削除される 結果となるであろう。このように、残りの「φJフィールド構成要素は、図21 に示される下線を引かれた「80」となるであろう。Other times Offset = lO Establishing a dividing line in this way, the “φ” field component under this dividing line is For the fraction example shown in Figure 19, the denominator rloOJ is deleted. will be the result. In this way, the remaining "φJ field components are shown in FIG. It will be the underlined "80" shown in .
したかって、図21に例示されるように、分数動作はここまでは下線を引かれた 2つの0または2桁の数字という結果になるはずであり、残りの「φ」フィール ド構成要素は統計学的分類技術を使って確かめられ、これらの残りの構成部分が 実際この下線を引かれた2つのOまたは下線を引かれた2桁の数字に対応するか どうかを決定する。もしそうならば、動作は、下線を引かれた複合「φ」フィー ルド類別に関して上に先に説明されたように#!続し、FφJ文字を抽出しく図 22)、もしそうてなければ、拒絶か発生する。Therefore, as illustrated in Figure 21, the fractional behavior has been underlined so far. It should result in two zeros or two digit numbers, leaving the remaining "φ" field components are ascertained using statistical classification techniques, and these remaining components are Does it actually correspond to the two underlined O's or the two underlined numbers? decide whether If so, the behavior is the underlined compound "φ" #! As explained above regarding the code classification #! Next, figure out how to extract the FφJ character. 22), if not, a rejection will occur.
この発明はここに特定の好ましい実施例について説明されてきたか、具体例、配 列および使用において多くの修正および変形かこの発明の範囲内で可能であると いうことか理解されるへきである。たとえば分類類別の壓および個数のみならず 使用されるシードおよびマスク画像ならびにサーチエリアの個数および梨も変化 してもよい。さらに、シードおよびマスク画像は2値(2レベル)画像に限定さ れる必要はない。額面金額抽出、「ψノフィールド分離および/または認識のた めに役に立つ追加的な情報を提供するために、たとえば、マスク画像それ自体が グレーレベル(多レベル)画像であってもよい。さらに処理ステップも追加的な 特徴を与えるために追加されてもよく、または説明されたステップも除去されま たは再配列されてもよい。This invention has been described herein with respect to specific preferred embodiments, specific examples, arrangements, etc. Many modifications and variations in sequence and use are possible within the scope of this invention. That's a good thing to be understood. For example, in addition to the size and number of classification categories, The seed and mask images used as well as the number of search areas and pears also change. You may. Additionally, seed and mask images are limited to binary (two-level) images. There is no need to be Face value extraction, “ψfield separation and/or recognition” For example, if the mask image itself is It may be a gray level (multi-level) image. Additionally, additional processing steps are required. Additional features may be added to give features, or steps described may also be removed. or rearranged.
加えて、この発明はここに説明されたちの以外に多種多様な適応に適合され得る 。したかって、以下の請求の範囲はそこに規定された範囲内でのすへての可能な 修正および変形を含むものであると考えられるべきである。Additionally, the invention may be adapted to a wide variety of adaptations other than those described herein. . Accordingly, the following claims are intended to cover all possible developments within the scope set forth therein. It is to be considered as including all modifications and variations.
FI口、1 10 ワークヌテージコン19 スナ、アrooctB3Eρ1ら ステー、7’102戸9 ストア(Obp゛ラ FIG、+3 FIG、+7 FIG 18 FIG 19 FIG 20 FIG、21 FIG、22国際調査報告 国際調査報告 フロントページの続き (81)指定国 EP(AT、BE、CH,DE。FI port, 1 10 Work Nutage Con 19 Suna, ArooctB3Eρ1 et al. Stay, 7’102 units 9 Store (Obpira FIG, +3 FIG, +7 FIG 18 FIG 19 FIG 20 FIG, 21 FIG, 22 International Search Report international search report Continuation of front page (81) Designated countries EP (AT, BE, CH, DE.
DK、 ES、 FR,GB、 GR,IT、 LU、 NL、 SE)、 A U、 CA、JP (72)発明者 クレンネル、ノルベルトドイツ連邦共和国、デー・7752 ライヒエナラ、ステディガセ、18・アーDK, ES, FR, GB, GR, IT, LU, NL, SE), A U, CA, JP (72) Inventor: Krenner, Norbert, Federal Republic of Germany, Day 7752 Reichenala, Steadygase, 18.A.
Claims (23)
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4030798.0 | 1990-09-28 | ||
DE4030798 | 1990-09-28 | ||
US60041890A | 1990-10-19 | 1990-10-19 | |
US600,418 | 1990-10-19 | ||
PCT/US1991/007121 WO1992006447A2 (en) | 1990-09-28 | 1991-09-26 | Character recognition methods including separating and extractingparticular portions from extracted data |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06501803A true JPH06501803A (en) | 1994-02-24 |
Family
ID=25897309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3517931A Pending JPH06501803A (en) | 1990-09-28 | 1991-09-26 | Character recognition method that involves separating and extracting specific parts from extracted data |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP0551392A1 (en) |
JP (1) | JPH06501803A (en) |
AU (1) | AU8853291A (en) |
CA (1) | CA2091998A1 (en) |
WO (1) | WO1992006447A2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5444793A (en) * | 1993-06-15 | 1995-08-22 | Ncr Corporation | Method for detecting machine printed monetary amounts in binary images |
US5600732A (en) * | 1994-12-08 | 1997-02-04 | Banctec, Inc. | Document image analysis method |
FR2801997A1 (en) * | 1999-12-02 | 2001-06-08 | Itesoft | ADAPTIVE TECHNOLOGY OF AUTOMATIC DOCUMENT ANALYSIS |
FR2825171B1 (en) * | 2001-05-25 | 2004-02-13 | Itesoft Sa | DOCUMENT READING METHOD AND DEVICE |
US7653871B2 (en) | 2003-03-27 | 2010-01-26 | General Electric Company | Mathematical decomposition of table-structured electronic documents |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4685141A (en) * | 1983-12-19 | 1987-08-04 | Ncr Canada Ltd - Ncr Canada Ltee | Method and system for finding image data associated with the monetary amount on financial documents |
JPS62298885A (en) * | 1986-06-18 | 1987-12-25 | Hitachi Ltd | Optical character read system |
WO1988002157A1 (en) * | 1986-09-19 | 1988-03-24 | Arthur Wheeler Holt | Character and pattern recognition machine and method |
-
1991
- 1991-09-26 EP EP91918519A patent/EP0551392A1/en not_active Withdrawn
- 1991-09-26 CA CA002091998A patent/CA2091998A1/en not_active Abandoned
- 1991-09-26 AU AU88532/91A patent/AU8853291A/en not_active Abandoned
- 1991-09-26 WO PCT/US1991/007121 patent/WO1992006447A2/en not_active Application Discontinuation
- 1991-09-26 JP JP3517931A patent/JPH06501803A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
AU8853291A (en) | 1992-04-28 |
WO1992006447A3 (en) | 1992-07-09 |
EP0551392A1 (en) | 1993-07-21 |
CA2091998A1 (en) | 1992-03-29 |
WO1992006447A2 (en) | 1992-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6151423A (en) | Character recognition with document orientation determination | |
US8462394B2 (en) | Document type classification for scanned bitmaps | |
CA1316606C (en) | Universal character segmentation scheme for multifont ocr images | |
US6970601B1 (en) | Form search apparatus and method | |
EP1358622B1 (en) | Identification , separation and compression of multiple forms with mutants | |
Aradhye | A generic method for determining up/down orientation of text in roman and non-roman scripts | |
JPH0587871B2 (en) | ||
EP0551403B1 (en) | Character recognition methods and apparatus for locating and extracting predetermined data from a document | |
CN111461131B (en) | Identification method, device, equipment and storage medium for ID card number information | |
US8200016B2 (en) | Method and apparatus for character string recognition | |
US5721790A (en) | Methods and apparatus for separating integer and fractional portions of a financial amount | |
JPH06501803A (en) | Character recognition method that involves separating and extracting specific parts from extracted data | |
US20040024716A1 (en) | Mail sorting processes and systems | |
Padma et al. | Script Identification from Trilingual Documents using Profile Based Features. | |
Reza et al. | Grouping of handwritten Bangla basic characters, numerals and vowel modifiers for multilayer classification | |
Lam et al. | Differentiating between oriental and European scripts by statistical features | |
Arlandis et al. | Identification of very similar filled-in forms with a reject option | |
Adams et al. | Feature extraction methods for form recognition applications. | |
Mahar et al. | Off-line signature verification of bank cheque having different background colors | |
Leedham et al. | Isolating individual handwritten characters | |
Lin et al. | Location of specific items in a document, without using character recognition techniques | |
Worm et al. | Robust image based document comparison using attributed relational graphs | |
Lim et al. | Structure analysis of low resolution fax cover pages | |
Abirami et al. | Text region extraction from quality degraded document images | |
JPH04373090A (en) | Character recognizing device |