KR100599913B1 - Device, method and program for identifying paper sheet - Google Patents

Device, method and program for identifying paper sheet Download PDF

Info

Publication number
KR100599913B1
KR100599913B1 KR1020057002926A KR20057002926A KR100599913B1 KR 100599913 B1 KR100599913 B1 KR 100599913B1 KR 1020057002926 A KR1020057002926 A KR 1020057002926A KR 20057002926 A KR20057002926 A KR 20057002926A KR 100599913 B1 KR100599913 B1 KR 100599913B1
Authority
KR
South Korea
Prior art keywords
image data
paper
comparison
data
librarian
Prior art date
Application number
KR1020057002926A
Other languages
Korean (ko)
Other versions
KR20050051649A (en
Inventor
마사노리 무까이
Original Assignee
후지쯔 가부시끼가이샤
후지츠 프론테크 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지쯔 가부시끼가이샤, 후지츠 프론테크 가부시키가이샤 filed Critical 후지쯔 가부시끼가이샤
Priority to KR1020057002926A priority Critical patent/KR100599913B1/en
Publication of KR20050051649A publication Critical patent/KR20050051649A/en
Application granted granted Critical
Publication of KR100599913B1 publication Critical patent/KR100599913B1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon
    • G07D7/202Testing patterns thereon using pattern matching
    • G07D7/206Matching template patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D2207/00Paper-money testing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Analysis (AREA)

Abstract

화상 처리부(18)는 광센서부(13)에 의해 얻어진 지편 화상 데이터에 대하여 사행 보정 및 농도 보정을 실시한다. 사서 비교부(18)는, 화상 처리부(17)에 의해 작성된 지편 화상 데이터와 기준 데이터부(19)에 저장되어 있는 각 금종의 기준 데이터로부터, 각 금종의 비교용 지편 화상 데이터를 작성한다. 그리고, 그 비교용 지폐 화상 데이터를 사서 데이터부(20)에 저장되어 있는 동일한 금종의 사서 데이터와 패턴 매칭해 가는 처리를 모든 금종에 대하여 행하고, 패턴 간 거리가 최소인 금종을 지편의 금종으로 간주한다. 그리고, 그 감별 결과를 기억부(21)에 저장한다.The image processing unit 18 performs meandering correction and density correction on the piece of paper image data obtained by the optical sensor unit 13. The librarian comparison unit 18 creates the comparison paper image data for each gold species from the paper image data created by the image processing unit 17 and the reference data of each gold species stored in the reference data unit 19. Then, the processing for pattern matching with the same kind of librarian data stored in the data section 20 for purchase of the comparison bill image data is performed for all kinds of gold species, and the gold species having the minimum distance between patterns is regarded as the paper type of the paper. do. The discrimination result is stored in the storage unit 21.

지편 감별 장치, ATM, 지폐의 입출금, 지폐 감별, 부분 지폐의 금종 감별, 지폐 처리 장치 Paper money discrimination device, ATM, withdrawal and withdrawal of bills, bill differentiation, kind discrimination of partial bills, bill processing device

Description

지편 감별 장치, 지편 감별 방법 및 프로그램{DEVICE, METHOD AND PROGRAM FOR IDENTIFYING PAPER SHEET}Paper discrimination device, paper discrimination method and program {DEVICE, METHOD AND PROGRAM FOR IDENTIFYING PAPER SHEET}

본 발명은 지엽류 처리 장치의 지편 감별 장치에 관한 것으로, 특히 지엽류의 절반 이상이 결락된 부분 지폐(지편)의 금종을 감별하는 지편 감별 장치, 지편 감별 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a paper sheet discriminating apparatus of a paper sheet processing apparatus, and more particularly, to a paper sheet discriminating apparatus and a paper sheet discriminating method for discriminating the gold species of a partial bill (paper sheet) in which at least half of paper sheets are missing.

ATM(Automatic Teller's Machine) 등과 같이, 지폐 등의 지엽류의 입출금이 투입되는 지엽류 장치에서는 장치 내에 지엽류를 보관하고 있고, 고객의 지시 입력에 따라 입출금 처리가 행해진다. 이러한 지엽류 처리 장치에서는, 입출금되는 지엽류(지폐 등)의 종류(금종 등)의 감별 처리를 행하고 있다.In a paper sheet device in which papers such as paper money are put and withdrawn, such as banknotes (ATM), paper sheets are stored in the device, and the deposit and withdrawal process is performed in accordance with a customer's instruction input. In this paper sheet processing apparatus, the differentiation process of the kind (paper seed | species etc.) of paper sheets (paper | money etc.) to be inputted and received is performed.

이 감별 처리는, 일반적으로는 이하와 같은 방법으로 행해지고 있다. 지엽류 전체를 복수의 미소 영역으로 분할하고, 이들 각 미소 영역의 농담이나 외형 등을 광학 센서, 두께 센서 등에 의해 측정하고, 그 측정치를 양자화 처리에 의해 계조치 등으로 변환하여 기억한다. 그리고, 이 계조치로 이루어지는 화상 데이터에 소정의 화상 처리(기울기 보정이나 농도 보정 처리)를 실시하고, 그에 따라 얻어진 화상 데이터를 사서 데이터(진권으로부터 작성한 화상 데이터)와 비교함으로써, 지엽류(지폐)의 종별(금종)을 판정하도록 하고 있다.This discrimination process is generally performed by the following method. The entire paper sheet is divided into a plurality of minute regions, and the shade and appearance of each of the minute regions are measured by an optical sensor, a thickness sensor, or the like, and the measured values are converted into gradation values or the like by quantization processing and stored. Then, a predetermined image processing (tilt correction or density correction processing) is performed on the image data composed of the gradation values, and the paper data (paper money) is obtained by comparing the obtained image data with the purchased data (image data created from true winding). It is supposed to determine the type (gold type) of the.

그런데, 종래의 지엽류 처리 장치는 외형 사이즈가 정상인 것만을 감별 대상으로 하고 있어, 외형이 이상한 지엽류는 감별 대상 외로 하여 감별하지 않고, 감별 이상으로 간주하여 리젝트하고 있다. 이는, 종래의 지엽류 처리 장치에서는 지엽류 전체의 화상 데이터를 사서 데이터와 패턴 매칭함으로써 지엽류의 종별을 감별하고 있기 때문이다. 이러한 종래의 지엽류 처리 장치에서는, 당연한 일이지만, 지엽류의 절반 이상이 결락된 부분 지폐(지편)에 대해서는, 사서 데이터와 비교할 수 있는 에리어가 너무 작아 금종을 특정할 수 없었다.By the way, the conventional paper sheet processing apparatus makes discrimination object only that the external shape is normal, and rejects the paper sheet having an unusual appearance as it does not discriminate as a discrimination object, and considers it as discrimination abnormality. This is because in the conventional paper sheet processing apparatus, the type of paper sheets is discriminated by buying image data of the entire sheet paper and pattern matching with the data. In such a conventional paper sheet processing apparatus, as a matter of course, for partial bills (paperboards) in which more than half of the paper sheets are missing, the area comparable to the librarian data is too small to specify the gold type.

그런데, 최근과 같이 지엽류 처리 장치의 무인 점포에서의 가동이나 24 시간 운용이 일반적으로 되어 오면서, 지엽류 처리 장치 내의 지폐 수납고 내의 지폐 잔고(재고량)를 항상 확정시키는 것이 강력하게 요망되어 오고 있다. 지엽류 처리 장치에서는, 투입구로부터 투입된 지폐 또는 지폐 수납고로부터 취출된 수단금용의 지폐는 장치 내에서 감별부까지 반송되는 도중에서 잘라지는 경우도 있다. 이러한 경우, 지엽류 처리 장치의 보유자에게는, 비록 잘라진 지편이라 하여도, 금종을 알고 리젝트되는 것과, 금종 불명인 채로 리젝트되는 것에는 큰 차이가 있어, 전자의 요망이 강하였다. 그러나, 종래의 지엽류 처리 장치의 감별부에서는, 잘라진 지엽류(지편)에 대해서는 그 종별(금종)을 특정하는 일 없이 리젝트하고 있었다.By the way, as operation | movement and 24 hours operation at the unmanned store of paper sheet processing apparatus have become common in recent years, it has been strongly requested | required to always determine the banknote balance (amount of stock) in the bill storage in a paper sheet processing apparatus. . In the paper sheet processing apparatus, the banknotes inserted from the input port or the banknotes for the means money taken out from the banknote storage may be cut off in the middle of being conveyed to the discriminating unit in the apparatus. In such a case, the holder of the paper sheet processing apparatus has a large difference between being rejected with known gold species and being rejected with unknown gold species, even if it is a cut piece. However, in the discriminating part of the conventional paper sheet processing apparatus, the cut paper sheets (paper fragments) were rejected without specifying the type (gold species).

본 발명의 목적은, 지엽류의 절반 이상이 결락된 부분 지폐(소위 지편)의 금종을 확실히 특정할 수 있는 지편 감별 장치 및 지편 감별 방법을 제공하는 것이다.It is an object of the present invention to provide a paper sheet discriminating device and a paper sheet discriminating method capable of reliably specifying a paper type of a partial bill (so-called paper sheet) in which at least half of paper sheets are missing.

본 발명의 지편 감별 장치는 기준 데이터 기억 수단, 사서 데이터 기억 수단, 센서 수단 및 사서 비교 수단을 구비한다.The finger discrimination apparatus of the present invention includes reference data storage means, librarian data storage means, sensor means, and librarian comparison means.

기준 데이터 기억 수단은 진권 지폐의 화상 데이터인 기준 데이터를 적어도 하나의 금종에 대하여 저장하고 있다. 사서 데이터 기억 수단은 진권 지폐 감별용의 사서 데이터를 상기 기준 데이터와 동일한 금종 수만큼 저장하고 있다. 센서 수단은 지엽류의 절편인 지편의 화상 데이터를 취득한다. 사서 비교 수단은 그 센서 수단에 의해 얻어진 지편 화상 데이터를 상기 기준 데이터 기억 수단에 저장되어 있는 각 금종의 기준 데이터와 합성하여 각 금종마다의 비교용 지폐 화상 데이터를 작성하고, 그 비교용 지폐 화상 데이터를 상기 사서 데이터 기억 수단에 저장되어 있는 동일 금종의 사서 데이터와 패턴 매칭함으로써, 상기 지편의 금종을 감별한다.The reference data storage means stores reference data, which is image data of a true bill, with respect to at least one gold type. The librarian data storage means stores librarian data for discrimination of true bills by the same number of gold species as the reference data. The sensor means acquires image data of a piece of paper, which is a piece of paper sheet. The librarian comparison means synthesizes the piece of paper image data obtained by the sensor means with the reference data of each gold species stored in the reference data storage means to create the comparison bill image data for each gold species, and the comparison bill image data Pattern is matched with the librarian data of the same gold species stored in the librarian data storage means to discriminate the gold species of the paper.

상기 기준 데이터는 진권 지폐의 화상 데이터이므로, 그 기준 데이터에 지편 화상 데이터를 첩부하고 합성하여 얻어지는 비교용 지폐 화상 데이터는, 그 지편 화상 데이터(50) 이외의 부분은 사서 데이터가 갖는 진권의 화상 데이터와 일치하게 된다. 따라서, 동일 금종의 비교용 지폐 화상 데이터와 사서 데이터를 패턴 매칭함으로써, 지편 화상 데이터, 즉 지편이 진권의 일부인지를 감별하는 것이 가능하게 되어, 패턴 매칭의 결과에 기초하여 지편의 금종을 추정(감별)할 수 있다.Since the reference data is image data of a true bill, the comparison bill image data obtained by affixing and combining a piece of paper image data with the reference data is the image data of the true book that the portion other than the piece of paper image data 50 has the librarian data. To match. Therefore, by pattern matching the comparison paper money image data and the librarian data of the same paper money, it is possible to discriminate whether the paper money image data, that is, the paper money is part of the true hand, and estimate the paper money of the paper money based on the result of pattern matching ( Can be discriminated).

도 1은 본 발명의 제1 실시예인 지편 감별 장치의 시스템 구성을 도시하는 블록도.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a block diagram showing the system configuration of a finger discriminating apparatus as a first embodiment of the present invention.

도 2는 제1 실시예의 지편 감별 장치의 처리 개요를 설명하는 도면.FIG. 2 is a view for explaining the outline of the processing of the paper discrimination apparatus of the first embodiment. FIG.

도 3은 제1 실시예의 지편 감별 장치의 지편 감별 처리 전체를 설명하는 플로우차트.Fig. 3 is a flowchart for explaining the entire paper discrimination process of the paper discrimination apparatus of the first embodiment.

도 4는 제1 실시예에서의 농도 보정 처리를 설명하는 플로우차트.4 is a flowchart for explaining concentration correction processing in the first embodiment.

도 5의 (a)는 사서 데이터의 전체 데이터 구조를 도시하는 도면이고, 도 5의 (b)는 사서 데이터의 화소의 데이터 구조를 도시하는 도면.FIG. 5A is a diagram showing an entire data structure of librarian data, and FIG. 5B is a diagram showing a data structure of pixels of librarian data.

도 6의 (a)는 비교용 지폐 화상 데이터의 전체 데이터 구조를 도시하는 도면이고, 도 6의 (b)는 비교용 지폐 화상 데이터의 화소의 데이터 구조를 도시하는 도면.FIG. 6A is a diagram showing an entire data structure of comparison bill image data, and FIG. 6B is a diagram showing a data structure of pixels of comparison bill image data.

도 7은 비교용 지폐 화상 데이터와 사서 데이터와의 패턴 매칭 수법의 모식도.7 is a schematic diagram of a pattern matching method between comparison bill image data and librarian data.

도 8은 전면 화상에서의 패턴 매칭 처리의 모식도.8 is a schematic diagram of pattern matching processing in a front image.

도 9는 전면 화상에서의 패턴 매칭 처리의 상세 플로우차트.9 is a detailed flowchart of pattern matching processing in the front image.

도 10은 횡라인 화상에서의 패턴 매칭 처리의 모식도.10 is a schematic diagram of a pattern matching process in a horizontal line image.

도 11은 횡라인 화상 데이터의 패턴 매칭 처리의 상세 플로우차트.Fig. 11 is a detailed flowchart of a pattern matching process of horizontal line image data.

도 12는 종라인 화상에서의 패턴 매칭 처리의 모식도.12 is a schematic diagram of a pattern matching process in a vertical line image.

도 13은 종라인 화상에서의 패턴 매칭 처리의 상세 플로우차트.Fig. 13 is a detailed flowchart of the pattern matching processing in the vertical line image.

도 14는 좌측 경사 라인 화상에서의 패턴 매칭 처리의 모식도.14 is a schematic diagram of a pattern matching process in a left oblique line image.

도 15는 우측 경사 라인 화상에서의 패턴 매칭 처리의 모식도.15 is a schematic diagram of a pattern matching process in a right oblique line image.

도 16은 좌측 경사 라인 화상에서의 패턴 매칭 처리의 상세 플로우차트.Fig. 16 is a detailed flowchart of pattern matching processing in the left inclined line image.

도 17은 우측 경사 라인 화상에서의 패턴 매칭 처리의 상세 플로우차트.Fig. 17 is a detailed flowchart of the pattern matching processing in the right inclined line image.

도 18은 본 발명의 제2 실시예인 지편 감별 장치의 시스템 구성을 도시하는 블록도.Fig. 18 is a block diagram showing the system configuration of the finger discriminating apparatus according to the second embodiment of the present invention.

도 19는 뉴로 연산부의 구성을 도시하는 도면.19 is a diagram illustrating a configuration of a neuro calculator.

도 20은 뉴로 연산부의 유닛의 구성을 설명하는 도면.20 is a diagram illustrating a configuration of a unit of a neuro calculator.

도 21은 뉴로 연산부에 입력되는 데이터를 설명하는 도면.21 is a diagram for explaining data input to a neuro calculating section.

도 22는 뉴로 연산부가 전면 화상 패턴 인식을 할 때의 입력 패턴을 설명하는 도면.Fig. 22 is a diagram for explaining an input pattern when the neuro calculator performs front image pattern recognition.

도 23은 뉴로 연산부가 종라인 화상 패턴 인식을 할 때의 입력 패턴을 설명하는 도면.Fig. 23 is a diagram for explaining an input pattern when a neuro calculator performs vertical line image pattern recognition.

도 24는 뉴로 연산부가 횡라인 화상 패턴 인식을 할 때의 입력 패턴을 설명하는 도면.Fig. 24 is a diagram for explaining an input pattern when a neuro calculator performs horizontal line image pattern recognition.

도 25는 뉴로 연산부가 좌측 경사 라인 화상 패턴 인식을 할 때의 입력 패턴을 설명하는 도면.Fig. 25 is a diagram for explaining an input pattern when the neuro calculating section recognizes the left inclined line image pattern.

도 26은 뉴로 연산부가 우측 경사 라인 화상 패턴 인식을 할 때의 입력 패턴을 설명하는 도면.Fig. 26 is a diagram for explaining an input pattern when the neuro calculating section recognizes the right inclined line image pattern.

도 27은 제2 실시예의 지편 감별 장치가 뉴로 연산에 의해 전면 화상 패턴 인식을 행하여 지편의 금종을 감별하는 처리를 설명하는 플로우차트.Fig. 27 is a flowchart for explaining processing by which a finger discriminating apparatus according to the second embodiment performs front image pattern recognition by a neuron operation to discriminate the kind of paper.

도 28은 제2 실시예의 지편 감별 장치가 뉴로 연산에 의해 횡라인 화상 패턴 인식을 행하여 지편의 금종을 감별하는 처리를 설명하는 플로우차트.Fig. 28 is a flowchart for explaining processing by which the finger discrimination apparatus of the second embodiment performs horizontal line image pattern recognition by a neuron operation to discriminate the types of paper.

도 29는 제2 실시예의 지편 감별 장치가 뉴로 연산에 의해 종라인 화상 패턴 인식을 행하여 지편의 금종을 감별하는 처리를 설명하는 플로우차트.Fig. 29 is a flowchart for explaining processing by which the finger discriminating apparatus of the second embodiment performs vertical line image pattern recognition by neuro operation to discriminate the paper species of the paper.

도 30은 제2 실시예의 지편 감별 장치가 뉴로 연산에 의해 경사 라인 화상 패턴 인식을 행하여 지편의 금종을 감별하는 처리를 설명하는 플로우차트.Fig. 30 is a flowchart for explaining processing by which the finger discriminating apparatus of the second embodiment recognizes the inclined line image pattern by the neuron operation to discriminate the paper species of the paper.

본 발명은 지엽류의 일부(지편)로부터 그 지엽류의 종별(금종)을 특정할 수 있는 것으로서, 1개의 유닛으로서 실현할 수 있고, 각종 지엽류 처리 장치에 조립하여 사용할 수도 있다.The present invention can specify the species (gold species) of the paper sheets from a part of the paper sheets (paper pieces), and can be realized as one unit, and can also be assembled to various paper sheet processing apparatuses.

(제1 실시예)(First embodiment)

도 1은 본 발명의 제1 실시예의 시스템 구성도이다.1 is a system configuration diagram of the first embodiment of the present invention.

도 1에 도시하는 제1 실시예의 지편 감별 장치(10)는 중앙 처리 장치(11), 지엽류 돌입 센서부(12), 광센서부(13), 증폭부(14), A/D 변환부(15), 화상 기억부(16), 화상 처리부(17), 사서 비교부(18), 기준 데이터부(19), 사서 데이터부(20) 및 기억부(21)로 구성되어 있다. 또, 이하의 설명에서는, 본 실시예가 지엽류의 일종인 지폐를 취급하는 경우에 대하여 설명한다.The paper discrimination apparatus 10 of the first embodiment shown in FIG. 1 includes a central processing unit 11, a paper sheet inrush sensor unit 12, an optical sensor unit 13, an amplifier unit 14, and an A / D converter unit. (15), an image storage unit 16, an image processing unit 17, a librarian comparison unit 18, a reference data unit 19, a librarian data unit 20, and a storage unit 21. In addition, in the following description, the case where a banknote which is a kind of paper sheet is handled in this Example is demonstrated.

지엽류 돌입 센서부(12)는 장치(10) 내에 지엽류(지폐)가 돌입해 온 것을 검지하는 센서로서, 이 돌입을 중앙 처리 장치(11)에 통지한다.The paper sheet inrush sensor unit 12 is a sensor that detects that a paper sheet (paper money) has entered into the apparatus 10 and notifies the central processing unit 11 of this inrush.

광센서부(13)는 라인 센서로서, 지엽류 돌입 센서부(11)에 의해 검지된 후, 장치(10) 내를 반송되어 오는 지엽류의 화상을 라인 단위로 취득한다. 중앙 처리 장치(11)는 지엽류 돌입 센서부(12)로부터 상기 통지를 수취하면, 광센서부(13)를 기동하여, 지엽류의 반송 속도에 따라 광센서부(13)의 샘플링 주파수와 샘플링 시간을 제어한다. 광센서부(13)는 중앙 처리 장치(11)로부터의 제어를 받아, 반송되는 지엽류의 아날로그 화상 신호를 취득하고, 이것을 증폭부(14)에 출력한다.The optical sensor unit 13 is a line sensor and, after being detected by the paper sheet inrush sensor unit 11, acquires an image of the paper sheets conveyed in the apparatus 10 in units of lines. When the central processing unit 11 receives the notification from the paper sheet inrush sensor unit 12, the central processing unit 11 starts the optical sensor unit 13, and the sampling frequency and sampling of the optical sensor unit 13 are sampled according to the conveyance speed of the paper sheets. Control the time. The optical sensor unit 13 receives control from the central processing unit 11, acquires an analog image signal of the conveyed paper sheet, and outputs it to the amplifying unit 14.

증폭부(14)는 광센서부(13)로부터 입력되는 아날로그 화상 신호를 증폭하고, 이것을 A/D 변환부(15)에 출력한다.The amplifier 14 amplifies the analog image signal input from the optical sensor unit 13 and outputs it to the A / D converter 15.

A/D 변환부(15)는 증폭부(14)로부터 입력되는 아날로그 화상 신호를 디지털 화상 신호로 변환·출력한다. 이 디지털 화상 신호는, 가장 어두운 점을 O으로 하며 가장 밝은 점을 최대치로 하는 계조치이다. 이 계조치는 개개의 화소마다 얻어진다.The A / D converter 15 converts and outputs an analog image signal input from the amplifier 14 into a digital image signal. This digital image signal is a gradation value in which the darkest point is O and the brightest point is the maximum. This gradation value is obtained for each pixel.

A/D 변환부(15)로부터 출력되는 디지털 화상 신호는 화상 기억부(16)에 순차적로 저장된다. 이에 의해, 화상 기억부(16)에는, 광센서부(13)에 의해 얻어진 지엽류(또는, 그 지편) 화상의 디지털 화상 신호가 저장된다. 이 디지탈 화상 신호는, 후술하는 바와 같이, 지엽류의 사이즈보다 크며, 지엽류의 배경의 화상도 포함하고 있다.The digital image signal output from the A / D conversion unit 15 is sequentially stored in the image storage unit 16. As a result, the digital image signal of the paper sheet (or the paper) image obtained by the optical sensor unit 13 is stored in the image storage unit 16. This digital image signal is larger than the size of the paper sheets, as will be described later, and also includes the paper background image.

화상 처리부(17)는 중앙 처리 장치(11)의 제어를 받아, 화상 기억부(18)에 저장되어 있는 화상 신호(화상 데이터)에 대하여 좌표 변환(기울기 보정 처리)를 실시하여 지엽류(또는, 그 지편)의 화상 데이터를 정규화한다. 그리고, 그 정규화한 화상 데이터에 대하여 농도 보정 처리를 실시한다. 화상 기억부(18)는 이상과 같은 좌표 변환 및 농도 보정 등을 실시함으로써 얻어진 지엽류 또는 그 지편의 화상 데이터를 사서 비교부(18)에 출력한다.Under the control of the central processing unit 11, the image processing unit 17 performs coordinate transformation (tilt correction processing) on an image signal (image data) stored in the image storage unit 18, thereby causing paper sheets (or, Normalizes the image data). Then, density correction processing is performed on the normalized image data. The image storage unit 18 buys paper sheets obtained by performing the above coordinate transformation, density correction, and the like, and outputs the image data of the paper sheets to the comparison unit 18.

사서 비교부(18)는 화상 처리부(17)로부터 입력되는 지엽류의 화상 데이터를 사서 데이터부(20)에 저장되어 있는 사서 데이터와 패턴 매칭하여, 장치(10) 내에 입력된 지엽류의 진위 감별을 행한다. 또한, 이는 본 발명에 관한 특징이지만, 사서 비교부(18)는, 화상 처리부(17)로부터 입력되는 화상 데이터가 지편 화상 데이터(지폐의 절편(지편)의 화상 데이터)이면, 그 지편 화상 데이터를 각 금종의 지폐의 기준 데이터에 중첩시킨(첩부한) 화상을 데이터 작성하고, 그 작성 화상 데이터(비교용 지폐 화상 데이터)를 사서 데이터와 패턴 매칭함으로써, 상기 지편 화상의 종별(금종)을 판정한다.The librarian comparison unit 18 pattern-matches the paper data input from the image processing unit 17 with the librarian data stored in the librarian data unit 20 to discriminate the authenticity of the paper sheets input into the apparatus 10. Is done. In addition, although this is a feature of the present invention, the librarian comparison unit 18, if the image data input from the image processing unit 17 is a piece of paper image data (image data of a piece of paper (paper piece)), The type (gold paper type) of the paper money image is determined by data generation of an image superimposed (attached) on the reference data of each paper money type, and purchase of the created image data (comparation paper money image data) and pattern matching with the data. .

기준 데이터부(19)는 본 장치(10)가 취급하는 지폐의 전 금종의 기준 데이터를 저장하고 있다. 이 기준 데이터는 지편의 금종을 특정(추정)하기 위해 사용되는 데이터로서, 진권을 광센서에 의해 판독함으로써 작성되는 화상 데이터이며, 상기 지편 화상 데이터와 마찬가지의 농도 보정이 실시된 것이다. 이 농도 보정은 기준 데이터에 상기 지편 화상 데이터를 첩부한 경우에 얼룩이 발생하지 않도록 하기 위해 행해진다.The reference data unit 19 stores reference data of all kinds of banknotes handled by the apparatus 10. This reference data is data used for identifying (estimating) the kind of paper money, and is image data created by reading the true winding by the optical sensor, and density correction similar to the paper money image data is performed. This density correction is performed in order to prevent spots from occurring when the above-mentioned piece paper image data is affixed to reference data.

사서 비교부(18)는 지폐의 각 금종의 기준 데이터에 지편의 화상 데이터를 첩합시키는 합성 처리에 의해 그 각 금종마다의 비교용 지폐 화상 데이터를 작성하고, 이들 각 금종의 비교용 지폐 화상 데이터를 동일 금종의 사서 데이터와 비교함으로써, 지편의 금종을 특정(감별)한다.The librarian comparison unit 18 creates the comparison bill image data for each of the gold types by a synthesis process of bonding the image data of the paper money to the reference data of each gold type of the bill, and compares the bill image data for comparison of these gold types. By comparing with the librarian data of the same kind, the kind of paper is identified (differentiated).

사서 데이터부(20)는 사서 비교부(18)가 지엽류(지폐)의 진위 감별 및 지편의 금종 감별에 사용하는 사서 데이터를 저장하고 있다. 이 사서 데이터도 상기 기준 데이터와 마찬가지로 장치(10)에서 취급되는 지폐의 전 금종에 대하여 준비되어 있다. 이 사서 데이터는, 진권을 광센서(예를 들면, 광센서부(13))에서 판독함으로써, 작성된다. 이 경우, 일반적으로, 진권마다 각 화소의 계조치(농도)에 편차가 생기기 때문에, 미리 소정 매수의 진권을 광센서에서 판독하고, 각 화소의 계조 평균치 및 계조치의 표준 편차를 구하여, 그 값을 화소와 관련시킨 데이터를 사서 데이터로서 기억한다.The librarian data unit 20 stores the librarian data used by the librarian comparison unit 18 to discriminate the authenticity of paper sheets (paper money) and the type of paper species. This librarian data is also prepared for all types of banknotes handled by the apparatus 10 in the same manner as the reference data. This librarian data is created by reading the true winding with an optical sensor (for example, the optical sensor unit 13). In this case, in general, since a deviation occurs in the gradation value (density) of each pixel for each true winding, a predetermined number of true windings are read in advance by an optical sensor, and the standard deviation of the gradation average value and gradation value of each pixel is obtained, and the value thereof. The data associated with the pixel is purchased and stored as data.

진위 감별에서는, 예를 들면, 대응하는 화소끼리의 계조치의 차분을 계산하여, 그 값이 표준 편차 이내에 들어 있으면, 양쪽의 화소가 일치한다고 판정하고, 일치하는 화소가 전체의 몇% 이상인지를 기준으로 하여 지폐의 진위를 감별한다.In authenticity discrimination, for example, the difference between the gradation values of the corresponding pixels is calculated, and if the value is within the standard deviation, it is determined that both pixels match, and the percentage of the matching pixels is greater than or equal to that. The authenticity of banknotes is discriminated against as a guide.

또한, 지편의 금종 감별에서는, 사서 데이터와 상기 비교용 지폐 화상 데이터와의 패턴 매칭에서, 예를 들면 양 화상 데이터 간의 거리(예를 들면, 유클리드 거리)를 산출하여, 그 거리를 기초로 지편의 금종을 감별한다.In addition, in the paper type discrimination of the paper money, in the pattern matching between the librarian data and the comparison bill image data, for example, a distance (for example, Euclidean distance) between both image data is calculated and the paper money is determined based on the distance. Discuss gold grades.

기억부(21)는 사서 비교부(18)에 의해 식별(감별)된 지편의 금종 결과나 지폐의 진위 판정 결과 등을 저장한다.The storage unit 21 stores the result of the paper kind of paper money identified by the librarian comparison unit 18, the authenticity determination result of the banknote, and the like.

도 2는 상기 지편 감별 장치(10)에 의한 지편 감별 처리의 개요를 설명하는 도면이다.FIG. 2: is a figure explaining the outline | summary of the paper-sheet discrimination process by the said paper-sheet discrimination apparatus 10. As shown in FIG.

도 2의 (a)에 도시하는 생화상 데이터(31)는 사행하여 반송된 지편을 광센서부(13)에 의해 검출함으로써 얻어진 화상 데이터로서, 생화상 데이터(31)의 중앙부에 지편 화상 데이터(41)가 존재하고 있다. 도 2의 (a)에서, 지편 화상 데이터(41)와 외곽과 접속하고 있는 파선 부분은, 잘라져 분실된 다른 쪽 지편의 외곽을 나타내고 있다.The bio image data 31 shown in FIG. 2A is image data obtained by detecting the paper conveyed meandering by the optical sensor unit 13, and the image data ( 41) exists. In FIG. 2A, the broken line portion connected to the piece of paper image data 41 and the outline shows the outline of the other piece of paper that is cut off and lost.

화상 처리부(17)는 상기 지편 화상 데이터(41)에 대하여 좌표 변환 처리를 실시하고, 지편 화상 데이터(41)를 사행 보정하여 정규화한다(생화상 데이터(31)의 좌상 모서리의 상변에 지편 화상 데이터(41)의 상변이 겹치게 함). 그리고, 그 정규화된 지편 화상 데이터(41)에 대하여, 지편의 외연부의 흰 부분(지편 화상 데이터(41)에서의 지편의 외연의 흰 부분에 해당하는 부분의 화상 데이터)이 기준치가 되도록 농도 보정을 실시하고, 최종적으로 도 2의 (b)에 도시하는 바와 같은 지편 화상 데이터(42)를 작성한다.The image processing unit 17 performs coordinate transformation processing on the finger image data 41, meanders and normalizes the finger image data 41 (the paper image data on the upper edge of the upper left corner of the raw image data 31). The top side of (41) overlaps). Then, the density correction is performed so that the white portion (the image data of the portion corresponding to the white portion of the outer edge of the sheet in the sheet image data 41) of the edge of the sheet becomes the reference value with respect to the normalized sheet paper image data 41. Finally, the piece of paper image data 42 as shown in FIG.2 (b) is created.

사서 비교부(18)는, 도 2의 (c)에 도시하는 바와 같이, 상기 지편 화상 데이터(42)를 기준 데이터부(19)에 저장되어 있는 A 금종, B 금종, … 등의 각 금종의 기준 데이터(50)(50A(A 금종 기준 데이터), 50B(B 금종 기준 데이터), …, 50N(N 금종 기준 데이터))에 코너를 기준으로 하여 중첩시켜(첩부하여), 각 금종의 비교용 지폐 화상 데이터(60)를 작성한다. 이들 각 금종의 비교용 지폐 화상 데이터(60)는 사서 데이터부(20)에 저장되어 있는 각 금종의 사서 데이터(70)(70A(A 금종의 사서 데이터), 70B(B 금종의 사서 데이터), …, 70N(N 금종의 사서 데이터))와 패턴 매칭하기 위한 화상 데이터이다.As shown in FIG. 2C, the librarian comparison unit 18 stores the above-described piece image data 42 in the reference data unit 19, A gold species, B gold species,... The reference data 50 (50A (A gold grade reference data), 50B (B gold grade reference data), ..., 50N (N gold grade reference data)) of each gold grade, etc. are superimposed (attached) on the basis of a corner, The banknote image data 60 for comparison of each gold species is created. The bill paper image data 60 for comparison of each of the gold species is librarian data 70 (70A (librarian data of A gold species), 70B (librarian data of B gold species) of each gold species stored in the librarian data unit 20, ... is image data for pattern matching with 70N (N type of librarian data).

그런데, 이 코너 기준에서의 기준 데이터(50) 상으로의 지편 화상 데이터(42)의 첩부는 지편 화상 데이터(42)의 형상(지편의 형상)에 의해 결정된다. 도 2의 (c)에 도시하는 바와 같은 대략 삼각형의 지편 화상 데이터(42)의 경우는, 그 각의 부분이 원래 지폐의 2 모서리 중 어느 하나에 해당한다고 추측되므로, 기준 데이터(50)(도 2의 (c)에 도시하는 기준 데이터(60)는 금종 B의 기준 데이터(50)임)의 우상 모서리 및 좌하 모서리의 각 모서리에, 각각, 지편 화상 데이터(42)를 첩부함으로써 2 종류의 비교용 지폐 화상 데이터(60)를 작성한다.By the way, the pasting of the piece of paper image data 42 onto the reference data 50 at this corner reference is determined by the shape of the piece of paper image data 42 (shape of the piece of paper). In the case of the substantially triangular piece of paper image data 42 as shown in Fig. 2 (c), since the angle portion is assumed to correspond to any one of the two corners of the original banknote, the reference data 50 (Fig. The reference data 60 shown in 2 (c) is the reference data 50 of the golden type B), and the two pieces of comparison are made by attaching the piece of paper image data 42 to each corner of the upper right corner and the lower left corner, respectively. Bill paper image data 60 is created.

지편의 형상이 도 2의 (c)에 도시하는 형상 이외이면, 그 형상에 따라 적절히 지편 화상 데이터(42)를 기준 데이터(50)의 적절한 위치에 첩부하여 비교용 지폐 화상 데이터(60)를 작성하면 된다. 또, 이 비교용 지폐 화상 데이터(60)의 작성에 이용하는 기준 데이터(50)는, 상술한 바와 같이, 지편 화상 데이터(42)와 마찬가지의 농도 보정이 실시된 것이다. 본 실시예에서는 사서 데이터부(20)에 저장되는 사서 데이터(70)에 대해서도 지편 화상 데이터(42)와 마찬가지의 농도 보정을 실시하기 때문에, 기준 데이터(50)와 사서 데이터(70)의 화상 데이터는 일치한다고 생각해도 된다. 즉, 비교용 지폐 화상 데이터(60)에서는, 지편 화상 데이터(42) 이외의 부분(기준 데이터(50)의 부분)은 사서 데이터(70)와 동일하다.If the shape of the paper piece is other than the shape shown in Fig. 2 (c), the paper money image data 42 for comparison is created by affixing the paper piece image data 42 to an appropriate position of the reference data 50 according to the shape. Just do it. In addition, the reference data 50 used for the preparation of the comparison bill image data 60 is subjected to the same density correction as that of the paper image data 42 as described above. In this embodiment, since the same density correction is performed on the librarian data 70 stored in the librarian data unit 20, similar to the paper-sized image data 42, the image data of the reference data 50 and the librarian data 70 May be considered to match. That is, in comparison banknote image data 60, parts other than the paper-stack image data 42 (part of the reference data 50) are the same as the librarian data 70. FIG.

이 때문에, 비교용 지폐 화상 데이터(60)와 사서 데이터(70)와의 패턴 매칭은, 실질적으로 지편 화상 데이터(42)와 사서 데이터(70)의 그 지편 화상 데이터(42)에 대응하는 부분과의 패턴 매칭이다. 이 경우, 지편 화상 데이터(42)가 기준 데이터(50) 상의 본래의 장소(원래 지폐의 본래의 위치)에 첩부된 비교용 지폐 화상 데이터(60)이면, 그 비교용 지폐 화상 데이터(60)는 기준 데이터(50)와 거의 일치하게 된다. 따라서, 동일 금종의 비교용 지폐 화상 데이터(60)와 사서 데이터(70)끼리를 패턴 매칭하여, 거리가 최소인 기준 데이터(50)를 검출함으로써, 그 기준 데이터(50)의 금종이 감별 대상의 지편의 금종이라고 추정할 수 있다. 이 경 우, 거리에 임계치를 설정하고, 패턴 매칭의 결과 얻어진 최소 거리가 그 임계치 이하인 경우에만, 상기와 같이 하여, 지편의 금종을 특정하도록 하여도 된다.For this reason, the pattern matching of the banknote image data 60 for comparison and the librarian data 70 is substantially the same with the part corresponding to the piece of paper image data 42 of the piece of paper image data 42 and the librarian data 70. Pattern matching. In this case, if the paper money image data 42 is the comparison banknote image data 60 affixed to the original place (original position of an original banknote) on the reference data 50, the comparison banknote image data 60 will It is almost coincident with the reference data 50. Therefore, by comparing the banknote image data 60 and the librarian data 70 for comparison with the same gold species and detecting the reference data 50 with the minimum distance, the gold species of the reference data 50 are subject to differentiation. It can be assumed that it is a kind of paper. In this case, a threshold value may be set for the distance, and the gold type of the paper may be specified as described above only when the minimum distance obtained as a result of the pattern matching is equal to or less than the threshold value.

이와 같이, 본 실시예에서는 그 비교용 지폐 화상 데이터(60)를 각 금종의 사서 데이터(70)와 순차적으로 패턴 매칭해 감으로써, 가장 거리(유사도)가 높은 금종을 특정하고, 그 특정된 금종이 지편의 금종이라고 감별(추정)한다.As described above, in the present embodiment, pattern comparison of the banknote image data 60 for comparison is performed with the librarian data 70 of each type of gold, thereby specifying the type of gold having the highest distance (similarity), and the specified type of gold. I discern it as a golden bell of this paper.

도 3은 지편 감별 장치(10)에 의한 지편의 금종 추정 처리를 설명하는 플로우차트이다.3 is a flowchart for explaining a paper kind estimation process of the paper sheet by the paper sheet discriminating device 10.

우선, 지편 화상 데이터(41)를 농도 보정하고(단계 S11), 다음으로 그 지편 화상 데이터(41)를 사행 보정한다(단계 S12). 계속해서, 최초에 선택한 금종의 기준 데이터(50) 상에 지편 화상 데이터(41)를 코너 기준으로 첩부한다(단계 S13). 이 코너 첩부에서, 최초에 어느 코너에 첩부할지는 미리 결정해 둔다. 또한, 최초에 선택하는 기준 데이터(50)의 금종에 대해서도 미리 결정해 둔다.First, the piece of paper image data 41 is density-corrected (step S11), and then the piece of paper image data 41 is meandering-corrected (step S12). Subsequently, the piece of paper image data 41 is affixed on the corner reference on the reference data 50 of the first selected paper type (step S13). In this corner affixation, it is decided beforehand which corner to affix. In addition, the gold type of the reference data 50 initially selected is also determined beforehand.

그리고, 우선, 상기 비교용 지폐 화상 데이터(60)와 사서 데이터(70)(최초에는 미리 정해진 금종의 사서 데이터(70))를 전면 화상에서 패턴 매칭하고(단계 S14), 계속해서 양 데이터를 횡라인 화상에서 패턴 매칭한다(단계 S15). 또한 계속해서, 양 데이터를 종라인 화상에서 패턴 매칭하고(단계 S16), 마지막으로 양 데이터를 경사 라인 화상에서 패턴 매칭한다(단계 S17). 이들 4 종류의 패턴 매칭의 결과는 메모리(도시 생략)에 기억하여 둔다.Then, first, the comparison bill image data 60 and the librarian data 70 (firstly, the librarian data 70 of a predetermined gold type) are pattern-matched in the front image (step S14), and then the both data are laterally lateral. Pattern matching is performed on the line image (step S15). Subsequently, both data are pattern matched in the vertical line image (step S16), and finally, both data are pattern matched in the oblique line image (step S17). The results of these four types of pattern matching are stored in a memory (not shown).

이상과 같이 하여, 어느 하나의 코너에 지편 화상 데이터(42)를 첩부한 비교용 지폐 화상 데이터(60)에 대하여 4 종류의 패턴 매칭을 행한 후, 이 4 종류의 패 턴 매칭을 어느 하나의 금종에서의 모든 비교용 지폐 화상 데이터(60)에 대하여 행하였는지를 판별하여(단계 S18), 아직이라면 상기 지편 화상 데이터(42)를 첩부할 기준 데이터(50)(현재, 선택 중인 금종의 기준 데이터(50))의 다음 코너를 선택하고(단계 S19), 단계 S13으로 돌아간다. 단계 S13 이후에서는, 상기 기준 데이터(50)의 금회에 선택된 코너에 지편 화상 데이터(42)를 첩부한 비교용 지폐 화상 데이터(60)에 대하여, 상기 패턴 매칭 처리를 행한다.As described above, after performing four types of pattern matching on the comparison banknote image data 60 in which the piece of paper image data 42 is affixed to any corner, the four kinds of pattern matching are performed by any one gold type. Is determined for all comparison banknote image data 60 in step S18, and if not yet, the reference data 50 to which the paper image data 42 is to be pasted (the reference data 50 of the gold species currently being selected) Is selected next (step S19), and the process returns to step S13. After step S13, the said pattern matching process is performed with respect to the banknote image data 60 for comparison which stuck the piece of paper image data 42 to the corner selected at this time of the said reference data 50. FIG.

이와 같이 하여, 어느 하나의 금종에 대하여, 그 사서 데이터(70)와 비교용 지폐 화상 데이터(60)와의 패턴 매칭을 모든 비교용 지폐 화상 데이터(60)(기준 데이터(50)의 개개의 코너에 지편 화상 데이터(42)를 첩부한 개개의 화상 데이터(60))에 대하여 행한다. 그리고, 모든 비교용 지폐 화상 데이터와의 패턴 매칭이 종료하면, 전 금종의 사서 데이터(70)와의 패턴 매칭이 종료하였는지를 판별하여(단계 S20), 아직이라면 다음에 패턴 매칭할 금종의 사서 데이터(70)를 선택하고(단계 S21), 단계 S13으로 돌아간다. 단계 S13에서는, 새롭게 선택된 금종의 기준 데이터(50)를 이용하여, 그 금종의 비교용 지폐 화상 데이터(60)를 작성한다.In this way, the pattern matching between the librarian data 70 and the comparison banknote image data 60 is performed on any one of the gold species at each corner of all the comparison banknote image data 60 (reference data 50). The individual piece of image data 60 to which the piece of paper image data 42 is affixed is performed. When the pattern matching with all comparison bill image data ends, it is determined whether the pattern matching with all the librarian data 70 has ended (step S20), and if not, the librarian data 70 of the gold species to be pattern matched next. ) Is selected (step S21), and the process returns to step S13. In step S13, the banknote image data 60 for comparison of the gold paper is created using the reference data 50 of the gold paper newly selected.

이와 같이 하여, 모든 금종에 대하여, 비교용 지폐 화상 데이터(60)(지편 화상 데이터(42)를 첩부할 코너 수와 동일한 수의 비교용 지폐 화상 데이터(60))와 사서 데이터(70)와의 패턴 매칭을 행한다. 그리고, 그 패턴 매칭이 종료하면, 가장 유사도가 높은 금종을 지편의 금종이라고 추정하고, 이 추정 결과를 기억부(21)에 저장한다(단계 S22). 단계 S22에서, 지편의 금종에 더하여, 그 지편의 지폐 상에서의 위치 정보(코너 위치)도 저장하도록 하여도 된다. 이 지편의 위치 정보의 취득은, 단계 S19에서 선택한 최신의 코너 정보를 메모리(도시 생략) 등에 기억해 둠으로써 가능하다.In this way, the pattern of the comparison bill image data 60 (the number of the comparison bill image data 60 equal to the number of corners to which the piece image data 42 is affixed) and the librarian data 70 with respect to all the gold grades. Matching is performed. When the pattern matching is completed, the gold species having the highest similarity is estimated to be the paper species of the paper, and the estimation result is stored in the storage unit 21 (step S22). In step S22, in addition to the paper type of the sheet, the position information (corner position) on the banknote of the sheet may also be stored. The position information of this finger can be obtained by storing the latest corner information selected in step S19 in a memory (not shown) or the like.

그런데, 상기 패턴 매칭의 수법으로서는, 패턴 간 최소 거리를 이용하는 방법 등의 공지의 수법을 이용할 수가 있다.By the way, as the method of pattern matching, well-known methods, such as the method of using the minimum distance between patterns, can be used.

또, 도 3의 지편의 금종 식별 처리에서는,In addition, in the paper type identification process of the piece of FIG. 3,

(1) 전 화면 화상에서의 패턴 매칭(1) Pattern matching in full screen image

(2) 횡라인 화상에서의 패턴 매칭(2) Pattern Matching in Transverse Line Images

(3) 종라인 화상에서의 패턴 매칭(3) Pattern matching in vertical line image

(4) 경사 라인 화상에서의 패턴 매칭(4) Pattern Matching on Inclined Line Images

의 4 종류의 패턴 매칭을 행하고, 이들 패턴 매칭으로 얻어진 최량의 유사도(또는, 최소 거리)를 금종 식별용의 지표로 하고 있지만, 상기 (1)∼(4) 중 어느 하나만, 또는 (1)∼(4) 중에서 1∼3 종류의 패턴 매칭의 조합을 선택하도록 하여, 지편의 금종을 식별하도록 하여도 된다.Although four types of pattern matching are performed and the best similarity (or minimum distance) obtained by these pattern matching is used as an index for identifying the species, only one of the above (1) to (4) or (1) to A combination of one to three types of pattern matching may be selected from (4) to identify the paper species of the paper.

도 4는 도 3의 단계 S11에서의 농도 보정 처리의 상세를 설명하는 플로우차트이다.FIG. 4 is a flowchart for explaining details of the concentration correction process in step S11 of FIG. 3.

우선, 지편 화상 데이터(41)에서의 지편의 흰 가장자리부의 면적 S를 계산하고(단계 S31), 다음으로, 그 흰 가장자리부의 투과광 가산치 A를 계산한다(단계 S32).First, the area S of the white edge portion of the paper sheet in the piece of paper image data 41 is calculated (step S31), and then the transmitted light addition value A of the white edge portion is calculated (step S32).

계속해서, 흰 가장자리부의 단위 면적당의 투과광 가산치 B(=A/S)를 계산하고(단계 S33), 다음으로, B를 80H(H는 16진수의 값을 나타내는 기호)로 하기 위한 계수 C(=80H/B)를 계산한다(단계 S34). 그리고, 지편 화상 데이터(41)의 전 화소에 C를 곱하여, 지편 화상 데이터(41)를 농도 보정한다(단계 S35).Subsequently, the transmitted light addition value B (= A / S) per unit area of the white edge portion is calculated (step S33), and then the coefficient C (for H to be 80H (H is a symbol representing a hexadecimal value)). = 80 H / B) (step S34). Then, all pixels of the piece of paper image data 41 are multiplied by C to density-correct the piece of paper image data 41 (step S35).

도 5는 사서 데이터(70)의 데이터 구조를 나타내는 도면이다.5 shows a data structure of librarian data 70.

도 5의 (a)에 도시하는 바와 같이, 사서 데이터(70)는 세로 L열, 가로 N행으로, L×N개의 화소(71)로 구성되어 있다. 도 5의 (b)에 도시하는 바와 같이, 화소(71)는 16 비트 구성으로 되어 있고, 상위 8 비트에 계조 평균치(농도 평균치)가, 하위 8 비트에 표준 편차 σ가 저장되어 있다. 이 표준 편차 σ는 사서 데이터(70)를 작성하기 위한 샘플 데이터로부터 얻어진 화소(71)의 계조치의 표준 편차이다.As shown in Fig. 5A, the librarian data 70 is composed of L × N pixels 71 in vertical L columns and horizontal N rows. As shown in Fig. 5B, the pixel 71 has a 16-bit configuration, and the gray level average value (concentration average value) is stored in the upper 8 bits, and the standard deviation sigma is stored in the lower 8 bits. This standard deviation σ is the standard deviation of the gradation value of the pixel 71 obtained from the sample data for producing the librarian data 70.

도 6은 비교용 지폐 화상 데이터(60)의 데이터 구조를 도시하는 도면이다.6 is a diagram showing a data structure of the comparison bill image data 60.

도 6의 (a)에 도시하는 바와 같이, 비교용 지폐 화상 데이터(60)도 사서 데이터(70)와 마찬가지로 세로 L열, 가로 N행으로, L×N개의 화소(61)로 구성되어 있다. 도 6의 (b)에 도시하는 바와 같이, 화소(61)는 8 비트 구성이고, 이 8 비트에 계조치(농도치)가 저장되어 있다.As shown in FIG. 6A, the bill image data 60 for comparison is also composed of L × N pixels 61 in vertical L columns and horizontal N rows similarly to the librarian data 70. As shown in Fig. 6B, the pixel 61 has an 8-bit configuration, and the gradation value (concentration value) is stored in this 8-bit.

본 실시예에서는, 도 7에 모식적으로 도시하는 바와 같이, 비교용 지폐 화상 데이터(60)와 사서 데이터(70)와의 패턴 매칭에서, 동일 위치의 화소끼리에 대하여, 하기의 수학식 1에 의해 이들 간의 유클리드 거리 dij를 계산한다.In this embodiment, as shown schematically in FIG. 7, in the pattern matching between the comparison bill image data 60 and the librarian data 70, the pixels of the same positions are expressed by the following equation (1). The Euclidean distance d ij between them is calculated.

Figure 112005009063580-pct00001
Figure 112005009063580-pct00001

여기서,here,

Pij : 비교용 지폐 화상 데이터(60)의 화소의 계조치P ij : Gray level value of the pixel of the comparison bill image data 60

P'ij : 사서 데이터(70)의 화소의 계조치P ' ij : Gray level value of pixel of librarian data 70

이다.to be.

다음으로, 도 3의 단계 S14의 전면 패턴 매칭 처리를 설명한다.Next, the front surface pattern matching process of step S14 of FIG. 3 will be described.

도 8은 상기 전면 화상 패턴 매칭의 수법의 모식적 개념도이다.8 is a schematic conceptual diagram of the method of the front image pattern matching.

도 8에서, 우측 방향의 화살표로 나타내고 있는 바와 같이, 제1행째부터 제N행째까지 행 순서로 상기의 수학식 1에 의해 유클리드 거리 dij를 구하고, 하기의 수학식 2로 표현되는 전 화소의 유클리드 거리 Dall을 구한다.In Fig. 8, as indicated by the arrow in the right direction, the Euclidean distance d ij is obtained by the above equation (1) from the first row to the Nth row, and all pixels represented by the following equation (2) are obtained. Find the Euclidean distance D all .

Figure 112005009063580-pct00002
Figure 112005009063580-pct00002

도 9는 도 3의 단계 S14의 전면 화상 패턴 매칭 처리를 상세하게 설명하는 플로우차트이다. 도 9에서, i와 j는 각각 화소의 열 번호, 행 번호를 나타내는 변수이다. 또한, DEA는 전면 화상 패턴 매칭에서의 유클리드 거리를 구하기 위한 변수이다.FIG. 9 is a flowchart for explaining in detail the front image pattern matching process of step S14 of FIG. In Fig. 9, i and j are variables representing column numbers and row numbers of pixels, respectively. Also, D EA is a variable for obtaining Euclidean distance in front image pattern matching.

우선, 변수 i, j에 1을 대입한다. 또한, 변수 DEA에 0을 대입한다(단계 S41).First, 1 is assigned to the variables i and j. Further, 0 is substituted into the variable D EA (step S41).

다음으로, 수학식 1에 의해 유클리드 거리 dij를 계산하고(단계 S42), 이 유클리드 거리 dij를 변수 DEA에 가산한다(단계 S43). 계속해서, i가 L과 동일한지를 판별하여(단계 S44), 동일하지 않으면 i의 값을 1 인크리먼트하고(단계 S45), 단계 S42로 돌아간다.Next, Euclidean distance d ij is calculated by Equation 1 (step S42), and this Euclidean distance d ij is added to the variable D EA (step S43). Subsequently, it is determined whether i is equal to L (step S44). If it is not the same, the value of i is incremented by one (step S45), and the process returns to step S42.

이상과 같이 하여, 단계 S44에서 i가 L과 동일하다고 판별될 때까지, 단계 S42∼단계 S45의 처리를 반복하여, i행에서의 전 화소의 유클리드 거리의 총합을 구한다.As described above, the processing in steps S42 to S45 is repeated until i is determined to be equal to L in step S44, and the total sum of Euclidean distances of all pixels in row i is obtained.

그리고, 단계 S44에서 i=L이라고 판별하면, 다음으로 j=N인지를 판별한다(단계 S46). 그리고, j=N이 아니면 j의 값을 1 인크리먼트하고(단계 S47), 단계 S42로 돌아간다. 이와 같이 하여, j가 N과 동일하게 될 때까지, 단계 S42∼단계 S47의 처리를 반복하여, 화상에서의 전 화소의 유클리드 거리의 총합을 구한다. 이 총합은 DEA에 저장된다. 그리고, 단계 S46에서 j가 N과 동일하다고 판별하면, 처리를 종료한다.If i = L is determined in step S44, it is then determined whether j = N (step S46). If j is not N, the value of j is incremented by one (step S47), and the flow returns to step S42. In this way, the process of steps S42 to S47 is repeated until j becomes equal to N, and the total sum of Euclidean distances of all the pixels in the image is obtained. This total is stored in D EA . If it is determined in step S46 that j is equal to N, the process ends.

도 10은 도 3의 단계 S15에서의 횡라인 화상에서의 패턴 매칭 처리를 모식적으로 도시한 개념도이다.FIG. 10 is a conceptual diagram schematically showing a pattern matching process in the horizontal line image in step S15 of FIG. 3.

도 10에 도시하는 바와 같이, 이 패턴 매칭 처리에서는, 비교용 지폐 화상 데이터(60)의 임의의 행 x를 선택하고, 이 행의 전 화소를 주사하여, 그 주사 라인(81)에서의 전 화소의 사서 데이터(70)의 화소와의 유클리드 거리 dij의 총합을 구한다. 단, 행 x는 지편 화상 데이터(42)의 화소가 포함되는 행일 필요가 있으며, 바람직하게는 지편 화상 데이터(42)의 화소 수가 최대인 행 x인 것이 바람직하다.As shown in FIG. 10, in this pattern matching process, an arbitrary row x of the comparison bill image data 60 is selected, all the pixels in this row are scanned, and all the pixels in the scanning line 81 are scanned. The sum of the Euclidean distances d ij with the pixels of the librarian data 70 is obtained. However, the row x needs to be a row in which the pixels of the piece of paper image data 42 are included. Preferably, the row x is a row x having the maximum number of pixels of the piece of paper image data 42.

도 11은 도 3의 단계 S15에서의 횡라인 화상에서의 패턴 매칭 처리의 상세를 설명하는 플로우차트이다. 또, 도 11에서, 변수 i, j는 각각 화소의 열 번호, 행 번호가 설정되는 변수이다. 또한, DEY는 선택된 행 y에서의 전 화소의 유클리드 거리의 총합을 구하기 위한 변수이다.FIG. 11 is a flowchart for explaining details of the pattern matching processing in the horizontal line image in step S15 of FIG. 3. In Fig. 11, the variables i and j are variables in which the column number and the row number of the pixel are set, respectively. Also, D EY is a variable for obtaining the sum of Euclidean distances of all pixels in the selected row y.

우선, i를 1로 초기 설정하고, j에 선택된 행 번호 y를 설정한다. 또한, DEY를 0으로 초기 설정한다(단계 S51). 그리고, 상기 수학식 1에 의해, 유클리드 거리 dij를 계산하고(단계 S52), 이 유클리드 거리 dij를 변수 DEY에 가산한다(단계 S53).First, i is initially set to 1, and the selected row number y is set to j. Further, D EY is initially set to 0 (step S51). Then, the Euclidean distance d ij is calculated by Equation 1 (step S52), and the Euclidean distance d ij is added to the variable D EY (step S53).

다음으로, i가 L과 동일한지를 판별하여(단계 S54), 동일하지 않으면 i의 값을 1 인크리먼트하고(단계 S55), 단계 S52로 돌아간다.Next, it is determined whether i is equal to L (step S54), otherwise, the value of i is incremented by one (step S55), and the process returns to step S52.

이와 같이 하여, i의 값이 L과 동일하게 될 때까지, 단계 S52∼단계 S54의 처리를 반복하여, 선택된 행 y에서의 전 화소의 유클리드 거리의 총합을 구한다. 이 총합은 변수 DEY에 저장된다. 그리고, 단계 S54에서 i가 L과 동일하다고 판별하면, 처리를 종료한다.In this way, the process of steps S52 to S54 is repeated until the value of i becomes equal to L, and the total sum of Euclidean distances of all the pixels in the selected row y is obtained. This total is stored in the variable D EY . If it is determined in step S54 that i is equal to L, the process ends.

도 12는 도 3의 단계 S16에서의 종라인 화상에서의 패턴 매칭 처리의 개념을 모식적으로 도시한 도면이다.FIG. 12 is a diagram schematically illustrating the concept of pattern matching processing in the vertical line image in step S16 of FIG. 3.

이 종라인 화상에서의 패턴 매칭 처리에서는, 비교용 지폐 화상 데이터(60)에서의 임의의 열 x를 선택하고, 그 열 x의 전 화소를 주사하여, 그 주사 라인(91) 에서의 전 화소의 유클리드 거리의 총합을 산출한다. 단, 이 경우, 선택하는 열 x는 지편 화상 데이터(42)의 화소를 포함하는 열로서, 바람직하게는 그 화소 수가 최대인 열 x를 선택하는 것이 바람직하다.In the pattern matching processing in this vertical line image, an arbitrary column x in the comparison bill image data 60 is selected, all pixels in the column x are scanned, and all the pixels in the scanning line 91 are scanned. Calculate the sum of Euclidean distances. In this case, however, the column x to be selected is a column including the pixels of the piece of paper image data 42. Preferably, the column x having the maximum number of pixels is selected.

도 13은 도 3의 단계 S16에서의 종라인 화상에서의 패턴 매칭 처리의 상세를 설명하는 플로우차트이다. 도 13에서, i, j는 각각 화상의 열 번호, 행 번호가 설정되는 변수이다.FIG. 13 is a flowchart for explaining the details of the pattern matching processing in the vertical line image in step S16 of FIG. In Fig. 13, i and j are variables in which the column number and the row number of the image are set, respectively.

우선, 변수 i에 선택된 열 번호 x를 설정하고, 변수 j를 1로 초기 설정한다. 또한, 그 선택된 열 x에서의 전 화소의 유클리드 거리의 총합을 구하기 위한 변수 DET를 0으로 초기 설정한다(단계 S61).First, the selected column number x is set to the variable i, and the variable j is initially set to 1. Further, the variable D ET for initializing the sum of Euclidean distances of all the pixels in the selected column x is initially set to 0 (step S61).

다음으로, 상기 수학식 1에 의해 유클리드 거리 dij를 산출하고(단계 S62), 이 유클리드 거리 dij를 변수 DET에 가산한다(단계 S63). 그리고, j가 N과 동일한지를 판별하여(단계 S64), 동일하지 않으면 j의 값을 1 인크리먼트하고(단계 S65), 단계 S62로 돌아간다.Next, Euclidean distance d ij is calculated by Equation 1 (step S62), and this Euclidean distance d ij is added to the variable D ET (step S63). If j is equal to N (step S64), if not equal, the value of j is incremented by one (step S65), and the process returns to step S62.

이와 같이 하여, j의 값이 N과 동일하게 될 때까지, 단계 S62∼단계 S65의 처리를 반복하여, 선택한 열 x에서의 전 화소의 유클리드 거리의 총합을 구한다. 이 총합은 변수 DET에 저장된다. 그리고, 단계 S64에서 j가 N과 동일하다고 판별하면, 처리를 종료한다.In this way, the process of steps S62 to S65 is repeated until the value of j becomes equal to N, and the total sum of Euclidean distances of all the pixels in the selected column x is obtained. This sum is stored in the variable D ET . If it is determined in step S64 that j is equal to N, the process ends.

도 14 및 도 15는 도 3의 단계 S17에서의 경사 라인 화상에서의 패턴 매칭 처리의 개념을 모식적으로 도시한 도면이다.14 and 15 are diagrams schematically showing the concept of pattern matching processing in the oblique line image in step S17 of FIG.

도 14는, 임의의 번호 x의 열을 선택하고, 그 선택한 열로부터 소정의 각도(예를 들면, 45도)로 좌측 경사 방향으로 화소를 주사하고, 그 주사한 경사 라인의 전 화소에서의 유클리드 거리의 총합을 구하는 좌측 경사 라인 화상에 의한 패턴 매칭 처리를 도시하고 있다. 도 14에서는 비교용 지폐 화상 데이터(60)의 번호 x1의 열을 선택한 경우와 번호 x2를 선택한 경우의 각각에서의 주사 라인(101, 102)을 도시하고 있다. 이 수법에서는, 바람직하게는, 주사 라인 상에서 지편 화상 데이터(42)의 화소 수가 최대가 되도록 열 번호를 선택하는 것이 바람직하다.Fig. 14 selects a column of an arbitrary number x, scans the pixel in the left oblique direction at a predetermined angle (for example, 45 degrees) from the selected column, and Euclid in all the pixels of the scanned oblique line. The pattern matching process by the left inclination line image which calculates the sum total of distance is shown. In FIG. 14, the scanning lines 101 and 102 in the case where the column of the number x1 of the comparison banknote image data 60 is selected, and the case where the number x2 is selected are shown, respectively. In this technique, it is preferable to select the column number so that the number of pixels of the finger image data 42 on the scanning line is maximum.

한편, 도 15는 주사 방향을 우측 경사 방향으로 한 경우에서의 경사 라인 화상에서의 패턴 매칭 처리의 모식적 개념도이다.15 is a schematic conceptual diagram of the pattern matching processing in the inclined line image in the case where the scanning direction is in the right oblique direction.

도 15는 최초에 주사하는 화소의 열 번호를 x3으로 한 경우와 x4로 한 경우의 각각에서의 주사 라인(111, 112)을 도시하고 있다. 이 우측 경사 방향의 경사 라인 화상의 패턴 매칭에서도, 지편 화상 데이터(42)의 화소 수를 가장 많이 주사하는 라인이 주사 라인이 되도록, 최초에 주사할 화소의 열을 선택하는 것이 바람직하다.FIG. 15 shows the scanning lines 111 and 112 in the case where the column number of the pixel to be scanned initially is set to x3 and x4, respectively. Also in the pattern matching of the oblique line image in the right oblique direction, it is preferable to first select a column of pixels to be scanned so that the line which scans the largest number of pixels of the piece of paper image data 42 becomes the scanning line.

도 16은 도 14에 도시하는 좌측 경사 방향의 기울기 화상 라인에서의 패턴 매칭 처리를 상세하게 설명하는 도면이다. 도 16에서 변수 i, j는 각각 화소의 열 번호, 행 번호가 설정되는 변수이다. 또한, DENR은 좌측 경사 방향의 주사 라인에서의 전 화소의 유클리드 거리의 총합을 구하기 위해 사용되는 변수이다.FIG. 16 is a view for explaining the pattern matching processing in the inclination image line in the left oblique direction shown in FIG. 14 in detail. In Fig. 16, the variables i and j are variables in which the column number and the row number of the pixel are set, respectively. In addition, D ENR is a variable used to calculate the sum of Euclidean distances of all pixels in the scan line in the left oblique direction.

우선, 변수 i에 최초에 주사하는 화소의 열 번호를 설정하고, 변수 j에는 최 초에 주사하는 화소의 행 번호로서 1을 설정한다. 또한, 변수 DENR을 0으로 초기 설정한다(단계 S71).First, the column number of the pixel to be initially scanned is set to the variable i, and 1 is set to the variable j as the row number of the pixel to be initially scanned. Further, the variable D ENR is initially set to 0 (step S71).

다음으로, 상기 수학식 1을 연산하여 유클리드 거리 dij를 구하고(단계 S72), 이 유클리드 거리 dij를 변수 DENR에 가산한다(단계 S73). 그리고, i=1 또는 j=N인지를 판별하여(단계 S74), i, j 중 어느 것도 그 등식을 만족하지 않으면, i의 값을 1 디크리먼트하고(단계 S75), j의 값을 1 인크리먼트하여(단계 S75), 단계 S72로 돌아간다.Next, the above equation (1) is calculated to obtain the Euclidean distance d ij (step S72), and the Euclidean distance d ij is added to the variable D ENR (step S73). Then, it is determined whether i = 1 or j = N (step S74). If neither i or j satisfies the equation, the value of i is incremented by one (step S75), and the value of j is 1. It increments (step S75) and returns to step S72.

이와 같이 하여, 단계 S74에서 i=1 또는 j=N이 성립한다고 판단될 때까지, 단계 S72∼단계 S76의 처리를 반복하여, 1행째의 열 x의 화소로부터 주사가 개시되는 우측 경사 방향의 라인 화상에서의 전 화소의 유클리드 거리의 총합을 구하고, 이 총합을 변수 DENR에 저장한다. 그리고, 단계 S74에서 i=1 또는 j=N이라고 판단하면, 처리를 종료한다.In this way, the process in steps S72 to S76 is repeated until it is determined that i = 1 or j = N is satisfied in step S74, and the line in the right oblique direction in which scanning is started from the pixels in the first row x The sum of Euclidean distances of all the pixels in the image is obtained, and the sum is stored in the variable D ENR . If it is determined in step S74 that i = 1 or j = N, the process ends.

도 17은 도 15에 도시하는 좌측 경사 방향의 라인 화상에서의 패턴 매칭 처리를 상세하게 설명하는 플로우차트이다.FIG. 17 is a flowchart for explaining in detail the pattern matching processing in the line image in the left oblique direction shown in FIG. 15.

우선, 변수 i, j에 각각 최초의 주사 화소의 행 번호(=x), 열 번호(=1)를 설정한다. 또한, 좌측 경사 방향의 주사 라인 화상에서의 전 화소의 유클리드 거리의 총합을 구하기 위한 변수 DENL를 O으로 초기 설정한다(단계 S81).First, the row numbers (= x) and column numbers (= 1) of the first scanning pixel are set in the variables i and j, respectively. Further, the variable D ENL is initially set to O to obtain the sum of the Euclidean distances of all the pixels in the scan line image in the left oblique direction (step S81).

다음으로, 상기 수학식 1을 이용하여 유클리드 거리 dij를 산출하고(단계 S82), 이 유클리드 거리 dij를 변수 DENL에 가산한다(단계 S83). 그리고, i=L 또는 j=N인지를 판단하여(단계 S84), 양 등식 중 어느 것도 성립하지 않으면, i를 1 인크리먼트하고(단계 S85), j를 1 디크리먼트하여(단계 S86), 단계 S82로 돌아간다.Next, Euclidean distance d ij is calculated using Equation 1 above (step S82), and this Euclidean distance d ij is added to the variable D ENL (step S83). If it is determined whether i = L or j = N (step S84), and neither of the equations holds, i is incremented by one (step S85) and j is incremented by one (step S86). Return to step S82.

이와 같이 하여, 단계 S84에서 i=L 또는 j=N 중 어느 하나가 성립한다고 판단할 때까지, 단계 S82∼단계 S86의 처리를 반복하여, 선택한 좌측 경사 방향의 라인 화상에서의 전 화소의 유클리드 거리의 총합을 구하고, 그 값을 변수 DENL에 저장한다. 그리고, 단계 S84에서, i=L 또는 j=N 중 어느 하나가 성립한다고 판단하면, 처리를 종료한다.In this manner, the process of steps S82 to S86 is repeated until it is determined that either i = L or j = N is satisfied in step S84, and the Euclidean distance of all pixels in the selected left oblique line image Find the sum of and store the value in the variable D ENL . If it is determined in step S84 that either i = L or j = N holds, the process ends.

또, 제1 실시예에서는, 비교용 지폐 화상 데이터(60)의 일부의 데이터로서 세로 1 라인, 가로 1 라인 또는 경사 1 라인의 데이터에 대하여 패턴 매칭하도록 하고 있지만, 1 라인이 아니라 복수 라인이어도 된다. 또한, 본 발명의 패턴 매칭에서 사용하는 비교용 지폐 화상 데이터(60)의 부분 데이터는 라인에 한정되는 것이 아니라, 비교용 지폐 화상 데이터(6O)의 지편 화상 데이터(42)를 포함하는 부분 데이터이면, 라인 이외의 형상이어도 된다.Further, in the first embodiment, pattern matching is performed for data of one vertical line, one horizontal line, or one inclined line as data of a part of the comparison bill image data 60, but a plurality of lines may be used instead of one line. . In addition, the partial data of the comparison banknote image data 60 used by the pattern matching of this invention is not limited to a line, If it is partial data containing the piece paper image data 42 of the comparison banknote image data 60 It may be a shape other than a line.

(제2 실시예)(2nd Example)

도 18은 본 발명의 제2 실시예인 지편 감별 장치(200)의 시스템 구성을 도시하는 블록도이다. 도 18에서, 도 1에 도시하는 제1 실시예의 지편 감별 장치(10)의 구성 요소와 동일한 구성 요소에는 동일한 부호를 부기하고 있으며, 이들 구성 요소의 설명은 생략한다.FIG. 18 is a block diagram showing the system configuration of the finger discriminating apparatus 200 according to the second embodiment of the present invention. 18, the same code | symbol is attached | subjected to the component same as the component of the finger discrimination apparatus 10 of 1st Example shown in FIG. 1, and description of these components is abbreviate | omitted.

지편 감별 장치(200)와 지편 감별 장치(10)의 구성상의 상위는, 사서 비교부(18), 기준 데이터부(19) 및 사서 데이터부(20)에 의한 지편 감별 기능을, 화상 처리부(17A), 기준 데이터부(19) 및 뉴로 연산부(201)에서 대체하도록 되어 있는 것이다. 또한, 중앙 처리부(11A)는 뉴로 연산부(201)의 출력을 해석하여, 지편의 금종을 감별함과 함께, 화상 처리부(17A)를 제어한다.The difference in the structure of the piece discrimination apparatus 200 and the piece discrimination apparatus 10 uses the image processing part 17A for the piece discrimination function by the librarian comparison part 18, the reference data part 19, and the librarian data part 20. ), The reference data unit 19 and the neuro calculating unit 201 are replaced. The central processing unit 11A analyzes the output of the neuro calculating unit 201, discriminates the paper type of the paper, and controls the image processing unit 17A.

화상 처리부(17A)는, 상술한 바와 같이, 지편 화상 데이터(42)에 대하여 정규화·농도 보정을 실시한 후, 사서 비교부(18)와 마찬가지로, 그 지편 화상 데이터(42)와 기준 데이터부(19)에 저장되어 있는 각 금종의 기준 데이터(50)로부터, 각 금종별의 비교용 지폐 화상 데이터(60)를 작성한다. 그리고, 이 비교용 지폐 화상 데이터(60)에 축소 처리를 실시하고, 이에 의해 얻어진 축소 화상의 전 화소 또는 일부의 화소를 뉴로 연산부(201)에 출력한다.As described above, the image processing unit 17A performs normalization and concentration correction on the piece of paper image data 42, and then, similarly to the librarian comparison unit 18, the piece of paper image data 42 and the reference data unit 19. From the reference data 50 of each gold type stored in the above), the banknote image data 60 for comparison for each gold type is created. Then, the comparison banknote image data 60 is subjected to a reduction process, and all pixels or a part of pixels of the reduced image obtained thereby are output to the neuro calculator 201.

뉴로 연산부(201)는 뉴럴 네트워크로서, 화상 처리부(17A)에서 작성된 상기 축소 화상을 입력 패턴으로서 입력받고, 지편의 금종과 그 방향(원래의 지폐 상에서의 위치)을 출력 패턴으로서 출력한다.The neuro calculating unit 201 is a neural network, which receives the reduced image created by the image processing unit 17A as an input pattern, and outputs the paper type and its direction (position on the original banknote) of the paper sheet as an output pattern.

또, 본 제2 실시예에서는 뉴로 연산부(201)가 축소 화상에 의해 뉴로 연산을 하도록 하고 있지만, 반드시 축소 화상일 필요는 없다. 입력 패턴으로서 축소 화상을 이용할지의 여부는 뉴로 연산부(201)의 규모나 그 연산 처리 시간 등에 따라 적절히 결정하면 된다.In addition, in the second embodiment, the neuro arithmetic unit 201 performs the neuro arithmetic operation by the reduced image, but it is not necessarily the reduced image. Whether or not to use the reduced image as the input pattern may be appropriately determined depending on the scale of the neuro calculating unit 201, the calculation processing time thereof, and the like.

도 19는 뉴로 연산부(201)의 구성을 도시하는 도면이다.19 is a diagram illustrating the configuration of the neuro calculator 201.

뉴로 연산부(201)는 입력층(211), 중간층(212) 및 출력층(213)으로 구성된 피드 포워드 결합형의 뉴럴 네트워크로서, 오차 역전파 학습을 학습 알고리즘으로 한다.The neuro calculator 201 is a feedforward-coupled neural network composed of an input layer 211, an intermediate layer 212, and an output layer 213, and uses error back-propagation learning as a learning algorithm.

입력층(211)에는 입력 패턴으로서 입력 신호 I1, I2, …, Ip가 화상 처리부(17A)로부터 입력된다. 이들 입력 신호 Ii는 상기 축소 화상의 화소의 계조치(농도)이다. 입력층(211)은 S1, S2, …, Sp의 p개의 유닛(뉴런)으로 이루어지고, 유닛 Si(i=1, 2, …, p)에는 입력 신호 Ii가 입력된다.The input layer 211 has input signals I 1 , I 2 ,... As input patterns. , I p is input from the image processing unit 17A. These input signals I i are gradation values (density) of pixels of the reduced image. Input layer 211 is S 1 , S 2 ,. , P p units (neurons), and the input signal I i is input to the unit S i (i = 1, 2, ..., p).

중간층(212)은 A1, A2, …, Am의 m개의 유닛으로 이루어진다. 각 유닛 Aj(J=1, 2, …, m)는 입력층(211)의 모든 유닛 Si(i=1, 2, …, n)와 결합되어 있다.The intermediate layer 212 is made of A 1 , A 2 ,. , A m m units. Each unit A j (J = 1, 2, ..., m) is combined with all units S i (i = 1, 2, ..., n) of the input layer 211.

출력층(213)은 R1, R2, …, Rq의 q개의 유닛으로 이루어지고, 각 유닛 Rk(k=1, 2, …, q)는 중간층(212)의 모든 유닛 Aj와 결합되어 있다. 유닛 Rk는 출력 신호 Ok를 출력한다. 이 출력 신호 Ok는 0 또는 1의 2치 신호로서, q개의 유닛 Rk 중에서 어느 하나의 유닛만이 1의 출력 신호를 출력하고, 다른 유닛은 O을 출력한다.The output layer 213 is R 1 , R 2 ,... , Q q units of R q , and each unit R k (k = 1, 2, ..., q) is combined with all units A j of the intermediate layer 212. The unit R k outputs an output signal O k . This output signal O k is a binary signal of 0 or 1, and only one unit among q units R k outputs an output signal of 1, and the other unit outputs O.

q개의 각 유닛 Rk는 각각 어느 특정의 금종과 지편의 위치(방향)에 대응하고 있으며, 입력층(211)에 입력되는 입력 패턴 I(I1, I2, …, Ip)에 따른 출력 신호 Ok를 출력한다.Each of the q units R k corresponds to a specific gold grade and the position (direction) of the finger, respectively, and outputs according to the input patterns I (I 1 , I 2 ,..., I p ) input to the input layer 211. Output the signal O k .

도 20은 중간층(212)의 유닛 Aj 및 출력층(213)의 유닛 Rk의 양쪽의 모델예를 도시하는 도면이다.20 is a diagram illustrating a model example of both the unit A j of the intermediate layer 212 and the unit R k of the output layer 213.

도 20에 도시하는 유닛(220)(유닛 j)은 전단의 층의 각 유닛 i로부터의 출력이 입력 xi로서 주어지는 준선형 소자 모델로서, 임계치 θj를 갖고 있다. 여기서, 유닛(220)(유닛 j)의 내부 상태 uj는,The unit 220 (unit j) shown in FIG. 20 is a quasi-linear element model in which the output from each unit i of the front layer is given as an input x i , and has a threshold value θ j . Here, the internal state u j of the unit 220 (unit j) is

Figure 112005009063580-pct00003
Figure 112005009063580-pct00003

Wij : 유닛 i와 유닛 j 간의 결합의 가중W ij : weight of the coupling between unit i and unit j

으로서 계산된다.Calculated as

유닛(220)의 출력은 이 값 uj를 변수로 하는 함수 f(uj)이며, 예를 들어 시그모이드 함수로 하면,The output of the unit 220 is a function f (u j ) which takes this value u j as a variable, for example, a sigmoid function,

Figure 112005009063580-pct00004
Figure 112005009063580-pct00004

로 된다.It becomes

여기서, T는 온도라고 불리는 파라미터이다.Here, T is a parameter called temperature.

도 21은 화상 처리부(17A)로부터 뉴로 연산부(201)에 출력되는 입력 패턴을 설명하는 도면이다.21 is a diagram illustrating an input pattern output from the image processing unit 17A to the neuro calculating unit 201.

도 21의 우측에 도시하는 화상 데이터는 화상 처리부(17A)가 작성하는 비교 용 지폐 화상 데이터(301)로서, 그 사이즈는 76 라인×160 화소로 되어 있다. 화상 처리부(17A)는 이 비교용 지폐 화상 데이터(301)를 축소하여, 도 21의 좌측에 도시하는 바와 같이, 10 라인×22 화소의 축소 화상 데이터(302)를 작성한다.The image data shown on the right side of FIG. 21 is a comparison bill image data 301 created by the image processing unit 17A, and the size thereof is 76 lines x 160 pixels. The image processing unit 17A reduces the comparison bill image data 301 and creates reduced image data 302 of 10 lines x 22 pixels as shown on the left side in FIG.

뉴로 연산부(201)에는, 이 축소 화상 데이터(302)의 1 화소가 1 입력 신호로서 입력되게 된다. 뉴로 연산부(201)는, (1) 전면 화상 패턴 인식, (2) 횡라인 화상 패턴 인식, (3) 종라인 화상 패턴 인식 및 (4) 경사 라인 화상 패턴 인식의 4 종류의 패턴 인식 처리를 뉴로 연산에 의해 행한다. 화상 처리부(17A)는 상기 (1)∼(4)의 각 패턴 인식에 필요한 입력 신호(입력 패턴)를 뉴로 연산부(201)에 출력한다.In the neuro calculator 201, one pixel of the reduced image data 302 is input as one input signal. The neuro calculating unit 201 carries out four types of pattern recognition processing: (1) front image pattern recognition, (2) horizontal line image pattern recognition, (3) vertical line image pattern recognition, and (4) inclined line image pattern recognition. It is performed by operation. The image processing unit 17A outputs an input signal (input pattern) required for pattern recognition in each of the above (1) to (4) to the neuro calculating unit 201.

제2 실시예에서는, 상기 (1)∼(4)의 패턴 인식(패턴 매칭)에 따라, 뉴로 연산부(201)의 뉴럴 네트워크(201)의 구성은 이하와 같이 변화한다.In the second embodiment, the configuration of the neural network 201 of the neuro calculator 201 changes as follows in accordance with the pattern recognition (pattern matching) described above (1) to (4).

(1) 전면 화상 패턴 인식(1) Front image pattern recognition

입력 신호 : I1∼I220 Input signal: I 1 ~ I 220

입력층(211)의 유닛 수 : 220  Number of units in the input layer 211: 220

중간층(212)의 유닛 수 : 10   Number of units in the middle layer 212: 10

출력층(213)의 유닛 수 : 64   Number of units in the output layer 213: 64

출력 신호 : 01∼064 Output signal: 0 1-0 64

(2) 횡라인 화상 패턴 인식(2) horizontal line image pattern recognition

입력 신호 : I1∼I22 Input signal: I 1 to I 22

입력층(211)의 유닛 수 : 22  Number of units in the input layer 211: 22

중간층(212)의 유닛 수 : 2  Number of units in the middle layer 212: 2

출력층(213)의 유닛 수 : 64   Number of units in the output layer 213: 64

출력 신호 : 01∼064 Output signal: 0 1-0 64

(3) 종라인 화상 패턴 인식 (3) vertical line image pattern recognition

입력 신호 : I1∼I10 Input signal: I 1 ~ I 10

입력층(211)의 유닛 수 : 10   Number of units in the input layer 211: 10

중간층(212)의 유닛 수 : 3   Number of units in the middle layer 212: 3

출력층(213)의 유닛 수 : 64  Number of units in the output layer 213: 64

출력 신호 : 01∼064 Output signal: 0 1-0 64

(4) (우측 경사 방향 또는 좌측 경사 방향) 경사 라인 화상 패턴 인식(4) (Right Slope Direction or Left Slope Direction) Slant Line Image Pattern Recognition

입력 신호 : (I1∼I2), (I1∼I3), …, 또는 (I1∼I10) Input signal: (I 1 to I 2 ), (I 1 to I 3 ),. Or (I 1 to I 10 )

입력층(211)의 유닛 수 : 2∼10  Number of units in the input layer 211: 2-10

중간층(212)의 유닛 수 : 2   Number of units in the middle layer 212: 2

출력층(213)의 유닛 수 : 64  Number of units in the output layer 213: 64

출력 신호 : 01∼064 Output signal: 0 1-0 64

상술한 바와 같이, 입력층(211)의 유닛 수는 화상 처리부(17A)로부터의 입력 신호 Ii의 수(화소 수)와 동일하다. 또한, 본 실시예에서는 화소의 계조치(농도)는 8 비트이므로, 각 입력 신호 I1치의 범위는 16진 표현으로, OOH∼FFH로 된다.As described above, the number of units of the input layer 211 is equal to the number (pixel number) of the input signal I i from the image processing unit 17A. In addition, in this embodiment, the gradation value (density) of the pixel is 8 bits, so the range of each input signal I 1 value is in hexadecimal representation and becomes OOH to FFH.

또한, 본 실시예에서는 지편의 금종을 16 종류, 지편의 위치(원래의 지폐 상의 위치)를 4 방향(코너 기준으로, 지폐의 좌상 모서리, 우상 모서리, 좌하 모서리, 우하 모서리)으로 전제하고 있으므로, 지편의 금종과 위치(방향)의 조합으로 46 종류의 인식이 가능하다. 이들 46 종류의 인식은, 각각, 출력층(213)의 각 출력 신호 Ok(k=1∼64)와 대응하고 있으며, 인식된 지편의 금종, 지편의 방향(위치)에 대응하는 출력 신호 Ok가 1로 된다.In the present embodiment, since 16 types of paper types of paper sheets and positions of paper sheets (positions on original banknotes) are assumed in four directions (the upper left corner, the upper right corner, the lower left corner, the lower left corner, and the lower corner of the banknote, based on the corner), 46 kinds of recognition are possible by the combination of the paper type and the position (direction) of the paper. These 46 kinds of recognition, respectively, and corresponds with each of the output signal O k (k = 1~64) of the output layer (213), the output signal corresponding to the direction (position) of the denomination, of the recognized jipyeon jipyeon O k Becomes 1.

도 22 내지 도 26은 상기 (1)∼(4)의 각 패턴 인식에서의 입력 신호를 설명하는 도면이다.22 to 26 are diagrams for explaining input signals in pattern recognition of (1) to (4).

전면 화상 패턴 인식의 경우에는, 도 22에 도시하는 바와 같이, 축소 화상 데이터(302)의 전 화소의 계조치(농도)가 입력 신호 I1∼I220으로서 뉴럴 네트워크(201)에 입력된다. 또한, 횡라인 화상 인식의 경우에는, 도 23에 도시하는 바와 같이, 축소 화상 데이터(302)에서의 임의의 열(사선 부분)에서의 전 화소의 계조치(농도)가 입력 신호 I1∼I22로서 뉴럴 네트워크(201)에 입력된다. 또한, 종라인 화상 패턴 인식의 경우에는, 도 24에 도시하는 바와 같이, 축소 화상 데이터(302)에서의 임의의 행(사선 부분)에서의 전 화소의 계조치(농도)가 입력 신호 I1∼I10으로서 뉴럴 네트워크(201)에 입력된다.If the front image pattern recognition, as shown in Figure 22, around the reduced gradation (concentration) of the pixel of the image data 302 is input to the input signal I 1 ~I 220 as a neural network (201). In the case of horizontal line image recognition, as illustrated in FIG. 23, the gray level value (density) of all pixels in an arbitrary column (diagonal portion) in the reduced image data 302 is determined by the input signals I 1 to I. 22 as neural network 201. In addition, in the case of vertical line image pattern recognition, as shown in FIG. 24, the gradation value (density) of all pixels in an arbitrary row (diagonal portion) in the reduced image data 302 is determined by the input signals I 1 to 1 . It is input to neural network 201 as I 10 .

경사 라인 화상 패턴 인식에서는 좌측 경사 라인 화상 패턴 인식의 경우, 도 25에 도시하는 바와 같이, 축소 화상 데이터(302)의 제1행에서의 임의의 열(그물 부분)의 화소로부터 시작되는, 2개∼10개까지의 화소를 갖는 좌측 경사 라인의 각 화소의 계조치(농도)가, 입력 신호 I1∼I2, …, 입력 신호 I1∼I10으로서 뉴럴 네트워크(201)에 입력된다. 또한, 우측 경사 라인 화상 패턴 인식의 경우, 도 26에 도시하는 바와 같이, 축소 화상 데이터(302)의 제1행에서의 임의의 열의 화소(그물 부분)로부터 시작되는 2화소∼10화소까지의 화소를 갖는 각 화소의 계조치(농도)가 입력 신호 I1∼I2로부터 입력 신호 I1∼I10으로서 뉴럴 네트워크(201)에 입력된다.In the inclination line image pattern recognition, in the case of the left inclination line image pattern recognition, as shown in FIG. 25, two, starting from the pixel of the arbitrary column (net part) in the 1st row of the reduced image data 302, the tone of the left oblique lines of the respective pixels including the pixel to one to 10 (concentration) of the input signal I 1 ~I 2, ... Input to the neural network 201 as input signals I 1 to I 10 . In addition, in the case of right inclination line image pattern recognition, as shown in FIG. 26, the pixel from 2 pixels to 10 pixels starting from the pixel (net part) of arbitrary column in the 1st row of the reduced image data 302 is shown. the gradation of each pixel with (concentration) as an input signal I 1 is an input signal I 1 ~I 10 from ~I 2 is input to the neural network (201).

도 27은 전면 화상에 의한 패턴 인식으로 지편의 금종을 감별하는 지편 감별 장치(200)의 동작을 설명하는 플로우차트이다. 또, 도 27에서, 도 3의 플로우차트의 단계와 동일한 처리를 하는 단계에는 동일한 단계 번호를 부여하고 있다.FIG. 27 is a flowchart for explaining the operation of the paper sheet discriminating apparatus 200 for discriminating the paper type of the paper sheet by pattern recognition by the front image. In addition, in FIG. 27, the same process number is attached | subjected to the process of performing the same process as the process of the flowchart of FIG.

화상 처리부(17A)는 화상 기억부(18)로부터 판독한 지편 화상 데이터에 대하여 농도 보정 처리를 실시하고(단계 S11), 또한 그 지편 화상 데이터(42)를 사행 보정하여 정규화한다(단계 S12). 화상 처리부(17A)는, 계속해서, 최초에 선택한 금종의 사서 데이터(70) 상의 최초에 선택한 코너에 지편 화상 데이터(42)를 첩부하여, 비교용 지폐 화상 데이터(301)를 작성한다(단계 S13). 이 최초에 선택하는 금종 및 코너(위치)는, 미리 결정하여 둔다.The image processing unit 17A performs a density correction process on the piece of paper image data read from the image storage unit 18 (step S11), and further meanders and normalizes the piece of paper image data 42 (step S12). The image processing unit 17A then attaches the paper-stack image data 42 to the first selected corner on the first selected librarian data 70 and creates the comparison bill image data 301 (step S13). ). The gold type and the corner (position) to be selected first are determined in advance.

다음으로, 화상 처리부(17A)는 상기 비교용 지폐 화상 데이터(301)의 축소 화상 데이터(302)를 작성하고(단계 S104), 그 전면 화상 데이터(전 화소)를 뉴로 연산부(201)에 출력한다(단계 S105).Next, the image processing unit 17A creates the reduced image data 302 of the comparison banknote image data 301 (step S104), and outputs the front image data (all pixels) to the neuro calculating unit 201. (Step S105).

뉴로 연산부(201)는 그 전면 화상 데이터를 입력 패턴으로서 입력받고, 뉴로 연산을 행하여, 그 입력 패턴에 대응하는 출력 패턴을 출력한다(단계 S106).The neuro calculating section 201 receives the front image data as an input pattern, performs a neuro calculation, and outputs an output pattern corresponding to the input pattern (step S106).

중앙 처리부(11A)는 그 뉴로 연산부(201)의 출력 패턴을 입력받고, 뉴로 연산부(201)에 의해 금종이 추정되었는지를 판별한다(단계 S107). 그리고, 금종이 추정되어 있지 않으면, 현재 선택 중인 금종의 기준 데이터(50)에 대하여 전 코너에서의 지편 화상 데이터(42)의 첩부가 종료되었는지를 판별하고(단계 S108), 아직 전 코너에서의 첩부가 종료되어 있지 않으면, 단계 S13으로 돌아간다.The central processing unit 11A receives the output pattern of the neuro calculating unit 201, and determines whether the golden seed is estimated by the neuro calculating unit 201 (step S107). Then, if the paper type is not estimated, it is determined whether the pasting of the paper-stack image data 42 in all the corners has ended with respect to the reference data 50 of the gold type currently selected (step S108), and still the pasting in all the corners. If is not finished, the flow returns to step S13.

한편, 단계 S107에서 중앙 처리부(11)는 금종이 추정되었다고 판별하면, 그 금종을 기억부(21)에 저장하고(단계 S111), 처리를 종료한다.On the other hand, when the central processing unit 11 determines that the golden bell is estimated in step S107, the central bell 11 stores the golden bell in the storage unit 21 (step S111), and the processing ends.

이와 같이 하여, 기준 데이터(50) 상의 각 코너에 지편 화상 데이터(42)를 순차적으로 첩부하면서 비교용 지폐 화상 데이터(301)를 작성하고, 그 축소 화상 데이터(302)에 대하여 뉴로 연산부(201)에 의해 금종의 추정이 행해진다. 그리고, 단계 S108에서, 현재 선택하고 있는 금종의 기준 데이터(50) 상의 전 코너에 지편 화상 데이터(42)를 첩부한 경우의 비교용 지폐 화상 데이터(301)의 뉴로 연산부(201)에 의한 금종 추정이 종료하였다고 판별하면, 다음으로, 전 금종의 비교용 지폐 화상 데이터(301)의 축소 화상 데이터(302)에 대하여 뉴로 연산부(201)에 의한 금종 추정이 종료하였는지를 판별한다(단계 S109). 그리고, 전 금종의 비교용 지폐 화상 데이터(301)의 축소 화상 데이터(302)에 대하여 금종 추정이 종료하여 있지 않다고 판별하면, 다음 금종을 선택하고(단계 S11O), 단계 S13으로 돌아간다.In this way, the bill image data 301 for comparison is created while affixing the paper-stack image data 42 to each corner on the reference data 50 sequentially, and the neuro calculating part 201 is carried out with respect to the reduced image data 302. Estimation of the gold species is performed by this. Then, in step S108, the paper type estimation by the neuro calculator 201 of the comparison bill image data 301 when the paper money image data 42 is affixed to all corners on the reference data 50 of the gold type currently selected. When it is determined that this has been completed, it is next determined whether the money type estimation by the neuro calculating unit 201 is finished on the reduced image data 302 of the comparison paper money image data 301 of all the paper types (step S109). Then, if it is determined that the paper type estimation is not finished with respect to the reduced image data 302 of the comparison paper money image data 301 of all the paper types, the next paper type is selected (step S110), and the process returns to step S13.

이와 같이 하여, 각 금종에 대하여 전 코너의 비교용 지폐 화상 데이터(60) 를 작성하고, 이들 축소 화상 데이터(302)의 개개에 대하여, 뉴로 연산부(201)에 의한 전면 화상 패턴 인식에 의한 금종 추정을 행하여, 지편의 금종과 방향을 감별하고, 그 감별 결과를 기억부(21)에 저장한다. 또한, 전 금종의 전 코너의 비교용 지폐 화상 데이터(60)에 대하여 뉴로 연산부(201)에 의한 금종이 추정되지 않은 경우에는, 단계 S109에서 전 금종에 대하여 뉴로 연산부(201)에 의한 금종 추정이 종료하였다고 판별하고, 처리를 종료한다.In this way, the banknote image data 60 for comparison of all the corner | corners is produced about each gold type, and each piece of these reduced image data 302 is estimated with the kind of money by the front image pattern recognition by the neuro calculating part 201. Then, the paper type and direction of the paper are discriminated, and the result of the discrimination is stored in the storage unit 21. In addition, when the kind of money by the neuro calculating part 201 is not estimated with respect to the banknote image data 60 for comparison of all the corners of all kinds of money, in step S109, the kind of money estimation by the neuro calculating part 201 is performed with respect to all the kinds of money. It is determined that it has finished and the process ends.

도 28은 횡라인 화상에 의한 패턴 인식으로 지편의 금종을 감별하는 지편 감별 장치(200)의 동작을 설명하는 플로우차트이다. 도 28에서, 도 27과 동일한 처리를 하는 단계에는 동일한 단계 번호를 부여하고 있으며, 이들 단계에 대한 설명은 생략한다.FIG. 28 is a flowchart for explaining the operation of the paper sheet discriminating apparatus 200 for discriminating the paper type of the paper sheet by pattern recognition by the horizontal line image. In FIG. 28, the same process numbers as those in FIG. 27 are assigned the same step numbers, and descriptions of these steps are omitted.

횡라인 화상에 의한 뉴로 연산에 의한 패턴 인식에서는, 화상 처리부(17A)는 축소 화상 데이터(302)를 작성하면(단계 S104), 그 축소 화상 데이터(302)의 임의의 횡라인(지편 화상 데이터(42)를 포함하는 라인)의 화상 데이터를 뉴로 연산부(201)에 출력한다(단계 S125).In the pattern recognition by the neuron operation based on the horizontal line image, when the image processing unit 17A creates the reduced image data 302 (step S104), an arbitrary horizontal line of the reduced image data 302 (fragment image data ( The image data of the line (42)) is output to the neuro calculator 201 (step S125).

뉴로 연산부(201)는 그 횡라인 화상 데이터를 입력 패턴으로서 입력받고, 그 입력 패턴에 대응하는 출력 패턴을 중앙 처리부(11)에 출력한다(단계 S126). 중앙 처리부(11)는 그 출력 패턴을 해석함으로써 지편의 금종과 방향을 감별한다. 상기 이외의 처리는 도 27의 전면 화상에서의 패턴 인식과 마찬가지이다.The neuro calculating unit 201 receives the horizontal line image data as an input pattern, and outputs an output pattern corresponding to the input pattern to the central processing unit 11 (step S126). The central processing unit 11 discriminates the kind and direction of the paper pieces by analyzing the output pattern. Processing other than the above is similar to pattern recognition in the front image of FIG.

도 29는 종라인 화상에 의한 패턴 인식으로 지편의 금종을 감별하는 지편 감별 장치(200)의 동작을 설명하는 플로우차트이다. 도 29에서, 도 28의 단계와 동 일한 처리를 하는 단계에는 동일한 단계 번호를 부여하고 있으며, 이들 단계에 대한 설명은 생략한다.FIG. 29 is a flowchart for explaining the operation of the paper sheet discriminating apparatus 200 for discriminating the paper type of the paper sheet by pattern recognition by the vertical line image. In FIG. 29, the same process numbers are given to the same processing steps as those of FIG. 28, and descriptions of these steps are omitted.

화상 처리부(17A)는 축소 화상 데이터(302)를 작성하면(단계 S104), 그 축소 화상 데이터(302)의 임의의 종라인(축소 화상 데이터(302)를 포함하는 라인)의 화상 데이터를 뉴로 연산부(201)에 출력한다(단계 S135). 뉴로 연산부(201)는 이 종라인 화상 데이터를 입력 패턴으로서 입력받고, 그 입력 패턴에 대응하는 출력 패턴을 중앙 처리부(11)에 출력한다(단계 S136). 중앙 처리부(11)는 그 출력 패턴을 해석하여 지편의 금종과 방향이 추정되었는지를 판단하고, 그것들이 추정되어 있으면, 그 추정된 지폐의 금종과 방향을 기억부(21)에 저장한다.When the image processing unit 17A creates the reduced image data 302 (step S104), the neuro calculator calculates the image data of any vertical line (the line including the reduced image data 302) of the reduced image data 302. Output to step 201 (step S135). The neuro calculating section 201 receives this vertical line image data as an input pattern, and outputs an output pattern corresponding to the input pattern to the central processing section 11 (step S136). The central processing unit 11 analyzes the output pattern to determine whether the paper type and direction of the paper pieces are estimated. If they are estimated, the central processing unit 11 stores the gold type and direction of the estimated banknote in the storage unit 21.

도 30은 경사 라인 화상(좌측 경사 라인 화상 또는 우측 경사 라인 화상)의 패턴 인식에 의해 지편의 금종을 감별하는 지편 감별 장치(200)의 동작을 설명하는 플로우차트이다. 도 30에서, 도 27의 단계와 동일한 처리를 하는 단계에는 동일한 단계 번호를 부여하고 있으며, 이들 단계의 설명은 생략한다.FIG. 30 is a flowchart for explaining the operation of the paper sheet discriminating apparatus 200 for discriminating the paper type of paper sheets by pattern recognition of the inclined line image (left inclined line image or right inclined line image). In FIG. 30, the same process number is attached | subjected to the process of performing the same process as the process of FIG. 27, and description of these steps is abbreviate | omitted.

화상 처리부(17A)는 축소 화상 데이터(302)를 작성하면(단계 S104), 그 축소 화상 데이터(302)의 임의의 경사 라인(지편 화상 데이터(42)를 포함하는 라인)의 화상 데이터를 뉴로 연산부(201)에 출력한다(단계 S145). 뉴로 연산부(201)는 그 경사 라인 화상 데이터를 입력 패턴으로서 입력받고, 그에 대응하는 출력 패턴을 중앙 처리부(11)에 출력한다(단계 S146). 중앙 처리부(11)는 그 출력 패턴을 해석하여 지편의 금종과 방향을 감별한다.When the image processing unit 17A creates the reduced image data 302 (step S104), the neuro calculator calculates the image data of any inclined line (the line including the deflection image data 42) of the reduced image data 302. Output to step 201 (step S145). The neuro calculator 201 receives the inclined line image data as an input pattern, and outputs the corresponding output pattern to the central processing unit 11 (step S146). The central processing unit 11 analyzes the output pattern to discriminate the paper type and direction of the paper.

또, 상기 제2 실시예에서는 축소 화상 데이터(302)의 일부의 데이터를 입력 패턴으로 할 때, 세로 1 라인, 가로 1 라인 또는 경사 1 라인의 화상 데이터를 입력 패턴으로 하여 사용하도록 하고 있지만, 본 발명은 이들에 한정되는 것이 아니고, 예를 들면, 종방향, 횡방향 또는 경사 방향의 복수의 라인을 입력 패턴으로 하여도 된다. 또한, 입력 패턴으로서 이용하는 축소 화상 데이터(302)의 부분 데이터는 라인 형상일 필요는 없고, 지편 화상 데이터(42)를 포함하는 데이터이면, 어떠한 형상이어도 된다.In the second embodiment, when data of a part of the reduced image data 302 is used as an input pattern, image data of one vertical line, one horizontal line, or one inclined line is used as the input pattern. The invention is not limited to these, and for example, a plurality of lines in the longitudinal direction, the transverse direction, or the inclined direction may be used as the input pattern. The partial data of the reduced image data 302 used as the input pattern does not have to be a line shape, and may be any shape as long as the data includes the piece image data 42.

또한, 제1 실시예의 사서 비교부(18)에 의한 금종 추정과 제2 실시예의 뉴로 연산부(201)에 의한 금종 추정의 양쪽 모두를 행하여, 금종 추정의 정확도를 높인 시스템을 구축하도록 하여도 된다.In addition, both the estimation of the kind of money by the librarian comparison unit 18 of the first embodiment and the estimation of the kind of money by the neuro calculation unit 201 of the second embodiment may be carried out to build a system in which the accuracy of the money type estimation is increased.

상술한 바와 같이, 본 발명에 의하면, 지편의 화상 데이터를 각 금종의 기준 데이터(진권의 화상 데이터)에 첩부하여 금종마다의 비교용 지폐 화상 데이터를 작성하고, 이 비교용 지폐 화상 데이터를 대응하는 금종의 사서 데이터와 패턴 매칭함으로써, 지편의 금종을 식별할 수가 있다.As described above, according to the present invention, the image data of a piece of paper is affixed to the reference data of each gold type (the image data of the true winding), and the banknote image data for comparison is created for each gold type, and the corresponding banknote image data is corresponded. By pattern matching with the librarian data of the denomination, it is possible to identify the denomination of the paper.

또한, 본 발명은 기존 장치의 하드웨어를 변경할 필요는 없고, 소프트웨어의 변경만으로 대처할 수 있기 때문에, 도입 코스트가 낮다. 또한, 최근, 증가하고 있는 무인 점포에서의 가동이나 24 시간 운용에 사용되는 지폐 처리 장치에 실장하도록 한 경우, 지폐가 장치 내부에서 파손되는 것 같은 사태가 발생하여도 지편으로부터 지폐 잔고를 항상 확정할 수 있게 되기 때문에, 그 이용 가치는 지극히 크다.In addition, since the present invention does not need to change the hardware of the existing apparatus, and can be coped with only the change of software, the introduction cost is low. In addition, in recent years, when it is mounted in the banknote processing apparatus used for the operation and the 24-hour operation which is increasing in unmanned stores, even if the situation which a banknote breaks inside the apparatus arises, the balance of a banknote can always be determined from a paper. As it becomes possible, the use value is extremely large.

본 발명은 지폐의 입출금이 행해지는 ATM이나 CD(Cash Dispenser), 자동 판매기, 역의 표 판매기 등, 향후, 인력 절감화에 수반하여 급증할 것인 지폐의 입출금을 취급하는 무인 기계 전반에 적용할 수 있으므로 이용 수요는 크다.The present invention can be applied to an overall unmanned machine that handles deposits and withdrawals of bills that will increase in the future with the reduction of manpower, such as ATMs, cash dispensers (Cash Dispenser), vending machines, station ticket machines, etc. As it can, use demand is big.

Claims (20)

진권 지폐의 화상 데이터인 기준 데이터를 적어도 하나의 금종에 대하여 저장하고 있는 기준 데이터 기억 수단과,Reference data storage means for storing reference data which is image data of a true bill, for at least one gold type; 진권 지폐 감별용의 사서 데이터를 상기 기준 데이터와 동일한 금종 수만큼 저장하고 있는 사서 데이터 기억 수단과,Librarian data storage means for storing librarian data for discrimination of true bills by the same number of gold species as the reference data; 지엽류의 절편인 지편의 화상 데이터를 취득하는 센서 수단과,Sensor means for acquiring image data of a paper sheet, which is an intercept of paper sheets; 상기 센서 수단에 의해 얻어진 지편 화상 데이터를, 상기 기준 데이터 기억 수단에 저장되어 있는 각 금종의 기준 데이터와 합성하여 각 금종마다의 비교용 지폐 화상 데이터를 작성하고, 상기 비교용 지폐 화상 데이터를 상기 사서 데이터 기억 수단에 저장되어 있는 동일 금종의 사서 데이터와 패턴 매칭함으로써, 상기 지편의 금종을 감별하는 사서 비교 수단The paper money image data obtained by the sensor means is synthesized with the reference data of each gold species stored in the reference data storage means to create comparison paper image data for each gold species, and to purchase the comparison paper money image data. Librarian comparison means for discriminating the gold species of the paper by pattern matching with the same kind of librarian data stored in the data storage means 을 포함하는 것을 특징으로 하는 지편 감별 장치.Finger paper discrimination apparatus comprising a. 제1항에 있어서,The method of claim 1, 상기 사서 비교 수단은 상기 비교용 지폐 화상 데이터와 상기 사서 데이터를 전 화상에 대하여 패턴 매칭하는 것을 특징으로 하는 지편 감별 장치.And said librarian comparison means performs pattern matching on said comparison banknote image data and said librarian data with respect to all images. 제1항에 있어서,The method of claim 1, 상기 사서 비교 수단은 상기 비교용 지폐 화상 데이터와 상기 사서 데이터의 일부에 대하여 패턴 매칭을 하는 것을 특징으로 하는 지편 감별 장치.The librarian comparison means performs pattern matching on the comparison bill image data and a part of the librarian data. 제3항에 있어서,The method of claim 3, 상기 사서 비교 수단은 상기 비교용 지폐 화상 데이터와 상기 사서 데이터와의 패턴 매칭을 횡라인에 대하여 행하는 것을 특징으로 하는 지편 감별 장치.The librarian comparison means performs pattern matching between the comparison bill image data and the librarian data with respect to a horizontal line. 제3항에 있어서,The method of claim 3, 상기 사서 비교 수단은 상기 비교용 지폐 화상 데이터와 상기 사서 데이터와의 패턴 매칭을 종라인에 대하여 행하는 것을 특징으로 하는 지편 감별 장치.The librarian comparison means performs pattern matching between the comparison bill image data and the librarian data with respect to a vertical line. 제3항에 있어서,The method of claim 3, 상기 사서 비교 수단은 상기 비교용 지폐 화상 데이터와 상기 사서 데이터와의 패턴 매칭을 경사 라인에 대하여 행하는 것을 특징으로 하는 지편 감별 장치. The librarian comparison means performs pattern matching between the comparison banknote image data and the librarian data with respect to an inclined line. 제1항에 있어서,The method of claim 1, 상기 사서 비교 수단은 상기 비교용 지폐 화상 데이터와 상기 사서 데이터에 대하여, 전 화상의 패턴 매칭, 횡라인의 패턴 매칭, 종라인의 패턴 매칭 및 경사 라인의 패턴 매칭을 순차적으로 실시하고, 이들 패턴 매칭의 결과로부터 상기 지편의 금종을 감별하는 것을 특징으로 하는 지편 감별 장치.The librarian comparing means sequentially performs pattern matching of all images, pattern matching of lateral lines, pattern matching of vertical lines, and pattern matching of inclined lines with respect to the comparison bill image data and the librarian data. The discriminating apparatus of the finger piece, characterized in that it discriminates the gold species of the paper piece from the result. 제1항에 있어서,The method of claim 1, 상기 사서 비교 수단은 상기 기준 데이터의 코너에 상기 지편 화상 데이터를 첩부함으로써 적어도 하나의 비교용 지폐 화상 데이터를 작성하는 것을 특징으로 하는 지편 감별 장치. And said librarian comparing means creates at least one bill paper image data for comparison by affixing said sheet of paper image data at a corner of said reference data. 제1항에 있어서,The method of claim 1, 상기 사서 비교 수단은, 상기 비교용 지폐 화상 데이터를 작성할 때, 상기 지편 화상 데이터를 상기 기준 데이터에 첩부하는 위치를, 상기 비교용 지폐 화상 데이터의 형상에 따라 결정하는 것을 특징으로 하는 지편 감별 장치.The said librarian comparison means determines the position which affixes the said paper money image data to the said reference data at the time of creating the said banknote image data for comparison, according to the shape of the said paper money image data for comparison. 제1항에 있어서,The method of claim 1, 상기 사서 비교 수단은, 지편의 금종에 더하여, 지편의 지폐 상에서의 위치도 감별하는 것을 특징으로 하는 지편 감별 장치.Said librarian comparison means distinguishes the position on the banknote of a paper sheet in addition to the paper type of paper sheet. 진권 지폐의 화상 데이터인 기준 데이터를 적어도 하나의 금종에 대하여 저장하고 있는 기준 데이터 기억 수단과,Reference data storage means for storing reference data which is image data of a true bill, for at least one gold type; 지엽류의 절편인 지편의 화상 데이터를 취득하는 센서 수단과,Sensor means for acquiring image data of a paper sheet, which is an intercept of paper sheets; 상기 센서 수단에 의해 얻어진 지편 화상 데이터를 상기 기준 데이터 기억 수단에 저장되어 있는 각 금종의 기준 데이터와 합성하여 각 금종마다의 비교용 지폐 화상 데이터를 작성하는 화상 처리 수단과,Image processing means for synthesizing the piece of paper image data obtained by the sensor means with the reference data of each gold species stored in the reference data storage means to create comparison bill image data for each gold species; 상기 비교용 지폐 화상 데이터를 입력 패턴으로서 입력받고, 그 입력 패턴에 대하여 뉴로 연산을 실시하여, 상기 지편의 금종을 나타내는 출력 패턴을 출력하는 뉴로 연산 수단Neuro arithmetic means which receives the said banknote image data for comparison as an input pattern, performs a neuro calculation with respect to the input pattern, and outputs the output pattern which shows the gold type of the said paper. 을 포함하는 것을 특징으로 하는 지편 감별 장치.Finger paper discrimination apparatus comprising a. 제11항에 있어서,The method of claim 11, 상기 입력 패턴은 상기 비교용 지폐 화상 데이터의 일부인 것을 특징으로 하는 지편 감별 장치.And the input pattern is a part of the comparison bill image data. 제12항에 있어서,The method of claim 12, 상기 입력 패턴은 상기 비교용 지폐 화상 데이터의 종라인의 화상 데이터인 것을 특징으로 하는 지편 감별 장치.And said input pattern is image data of a vertical line of said comparison bill image data. 제12항에 있어서,The method of claim 12, 상기 입력 패턴은 상기 비교용 지폐 화상 데이터의 횡라인의 화상 데이터인 것을 특징으로 하는 지편 감별 장치. And said input pattern is image data of a horizontal line of said banknote image data for comparison. 제12항에 있어서,The method of claim 12, 상기 입력 패턴은 상기 비교용 지폐 화상 데이터의 경사 라인의 화상 데이터인 것을 특징으로 하는 지편 감별 장치.And said input pattern is image data of an inclined line of said comparison bill image data. 제11항에 있어서,The method of claim 11, 상기 뉴로 연산 수단은, 상기 지편의 금종에 더하여, 상기 지편의 지폐 상에서의 위치에 관한 정보도 출력 패턴으로서 출력하는 것을 특징으로 하는 지편 감별 장치.And said neuro calculating means outputs, as an output pattern, information relating to the position of the paper money on the banknote in addition to the paper type of the paper money. 삭제delete 삭제delete 삭제delete 삭제delete
KR1020057002926A 2005-02-21 2002-08-30 Device, method and program for identifying paper sheet KR100599913B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020057002926A KR100599913B1 (en) 2005-02-21 2002-08-30 Device, method and program for identifying paper sheet

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020057002926A KR100599913B1 (en) 2005-02-21 2002-08-30 Device, method and program for identifying paper sheet

Publications (2)

Publication Number Publication Date
KR20050051649A KR20050051649A (en) 2005-06-01
KR100599913B1 true KR100599913B1 (en) 2006-07-19

Family

ID=38666785

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057002926A KR100599913B1 (en) 2005-02-21 2002-08-30 Device, method and program for identifying paper sheet

Country Status (1)

Country Link
KR (1) KR100599913B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2055656B1 (en) * 2006-08-24 2010-11-24 Wintec Co. Ltd. Paper sheet conveyance method and paper sheet conveyance device

Also Published As

Publication number Publication date
KR20050051649A (en) 2005-06-01

Similar Documents

Publication Publication Date Title
US7097022B2 (en) Device, method and program for paper discrimination
US6883707B2 (en) Bill serial number reading device and bill serial number reading method
US5729623A (en) Pattern recognition apparatus and method of optimizing mask for pattern recognition according to genetic algorithm
JP5213649B2 (en) Paper sheet processing apparatus and paper sheet processing program
EP1752934B1 (en) Sheet identifying apparatus and sheet identifying method
US8611665B2 (en) Method of recognizing a media item
JP4932177B2 (en) Coin classification device and coin classification method
JPH11175797A (en) Paper sheet discriminating device
CN101354808A (en) Automatic teller machine and tracking method of paper currency
JPH08507394A (en) Article classification method and device
KR20070093210A (en) Recognizing the denomination of a note using wavelet transform
JP4427132B2 (en) Paper sheet identification method using competitive neural network
JP3753779B2 (en) Banknote sorter
KR100599913B1 (en) Device, method and program for identifying paper sheet
JP2001331839A (en) Method and device for discriminating paper money
JP2002092683A (en) Device for discriminating between true and false medium
CA2036274A1 (en) Document processor including method and apparatus for identifying and correcting errors
JPH08221632A (en) Genuineness judging method for printed pattern
KR101232684B1 (en) Method for detecting counterfeits of banknotes using Bayesian approach
JP3351639B2 (en) Neuro-discriminating / fault separation device for paper sheets by random mask method
JP2599320B2 (en) Paper sheet recognition device
JP3248965B2 (en) Binary threshold value determination device
JP3064739B2 (en) Image processing device
JPH10171993A (en) Authenticity discriminating device for medium
JP3423136B2 (en) Paper sheet identification method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130621

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140626

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150618

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160616

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170616

Year of fee payment: 12