WO2023153747A1 - Yolo 알고리즘 기반의 은행권 식별 시스템 및 그 방법 - Google Patents

Yolo 알고리즘 기반의 은행권 식별 시스템 및 그 방법 Download PDF

Info

Publication number
WO2023153747A1
WO2023153747A1 PCT/KR2023/001684 KR2023001684W WO2023153747A1 WO 2023153747 A1 WO2023153747 A1 WO 2023153747A1 KR 2023001684 W KR2023001684 W KR 2023001684W WO 2023153747 A1 WO2023153747 A1 WO 2023153747A1
Authority
WO
WIPO (PCT)
Prior art keywords
banknote
image
identification information
learning
reliability
Prior art date
Application number
PCT/KR2023/001684
Other languages
English (en)
French (fr)
Inventor
표영빈
이영수
이가영
Original Assignee
대한민국(관리부서:행정안전부 국립과학수사연구원장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(관리부서:행정안전부 국립과학수사연구원장) filed Critical 대한민국(관리부서:행정안전부 국립과학수사연구원장)
Publication of WO2023153747A1 publication Critical patent/WO2023153747A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D11/00Devices accepting coins; Devices accepting, dispensing, sorting or counting valuable papers
    • G07D11/50Sorting or counting valuable papers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency

Definitions

  • the present invention relates to a banknote identification system and method based on the YOLO algorithm, and more specifically, banknotes that identify banknotes by banknote type by inputting an image obtained by photographing banknotes through a smartphone to a learning model in which learning has been completed.
  • An identification system and method thereof is a banknote identification system and method based on the YOLO algorithm, and more specifically, banknotes that identify banknotes by banknote type by inputting an image obtained by photographing banknotes through a smartphone to a learning model in which learning has been completed.
  • counterfeit bills have been identified through a method of looking at the bill in light or finding a hidden hologram according to an inclined angle.
  • the remote appraisal system using a smartphone had to install a special lens capable of photographing with general light and ultraviolet rays, and there was a hassle of photographing in a state where the bill was accurately positioned according to the smartphone screen standard.
  • the present invention it is to provide a banknote identification system and method for identifying the banknote by banknote type by inputting an image obtained by photographing the banknote through a smartphone to a learning model in which learning has been completed.
  • the banknote identification system includes an input unit for receiving information on the banknote image and the banknote taken in a state in which illumination, shooting angle, and distance to the object are set differently, respectively;
  • a pre-processing unit that classifies and stores the input banknote image and information on the banknote by denomination, extracts a banknote region from the stored banknote image, and then amplifies data for the extracted region, and converts the amplified data into learning data.
  • a learning unit that learns the learning model by using a learning unit, and receiving an identification target image obtained by photographing a banknote to be identified, inputting the identification target image to the learned learning model to obtain the identification information, and the obtained identification information and a control unit for deriving a banknote judgment result by using.
  • the pre-processing unit extracts an area corresponding to the banknote from the banknote image, and the area may be formed as a rectangle having at least one point in contact with the banknote and having sides parallel to the x-axis and the y-axis.
  • the pre-processing unit may amplify the banknote image by performing at least one method among removing an outer region, rotating, horizontally moving, and scaling the extracted region.
  • the learning unit inputs the amplified banknote image to a YOLO (You Only Look Once) algorithm-based learning model, the learning model learns the amplified banknote image, extracts a region corresponding to the banknote, and extracts the extracted Banknote identification information for the area can be output.
  • YOLO You Only Look Once
  • the banknote identification information may include at least one of a coordinate value of the area, a type of banknote, a share of the banknote, and reliability of a detection result.
  • the control unit may set the basic threshold, compare reliability of a detection result included in the banknote identification information with the basic threshold, and output a banknote identification result included in the banknote image.
  • the control unit may output the type of banknote included in the banknote identification information as a final result when the reliability of the detection result is greater than the basic threshold value.
  • the control unit determines whether the share of the banknote included in the banknote identification information is greater than or equal to a threshold, and if the share of the banknote is greater than or equal to the threshold, the control unit determines whether the share of the banknote is greater than or equal to the threshold, using the basic threshold. threshold can be calculated.
  • variable threshold value may be calculated using the following equation.
  • Threshold Default Threshold + ((1- (larger of share and 0.7)) x 10) ⁇ 4 x 0.006
  • the control unit may compare the calculated variable threshold with reliability of the detection result, and if the variable threshold is greater than the reliability as a result of the comparison, the type of banknote included in the banknote identification information may be output as a final result.
  • a banknote identification method using a banknote identification system includes the steps of receiving information on a banknote image and the banknote captured in a state in which illumination, shooting angle, and distance to the object are set differently, respectively; Classifying and storing the input banknote image and the information on the banknote by denomination, extracting a banknote region from the stored banknote image, and then amplifying data for the extracted region, converting the amplified data into learning data. and learning the learning model, and receiving an identification target image photographed of a banknote to be identified, inputting the identification target image to the learning model to obtain the identification information, and using the obtained identification information and deriving a banknote judgment result.
  • banknotes can be identified by type of banknote using a banknote image photographed using a camera installed in a smartphone, and a small amount of A learning model can also be trained with data.
  • FIG. 1 is a configuration diagram for explaining a banknote identification system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a banknote identification method using a banknote identification system according to an embodiment of the present invention.
  • FIG. 3 is an exemplary diagram for explaining step S220 shown in FIG. 2 .
  • FIG. 4 is an exemplary view for explaining step S220 shown in FIG. 2 .
  • FIG. 5 is an exemplary diagram for explaining step S280 shown in FIG. 2 .
  • FIG. 1 a banknote identification system according to an embodiment of the present invention will be described in more detail with reference to FIG. 1 .
  • FIG. 1 is a configuration diagram for explaining a banknote identification system according to an embodiment of the present invention.
  • the banknote identification system 100 includes an input unit 110, a pre-processing unit 120, a learning unit 130, and a control unit 140.
  • the input unit 110 receives an image of a banknote photographed using a camera installed in a smartphone, and also, the input unit 110 receives information about the photographed banknote.
  • the pre-processing unit 120 classifies and stores the input banknote image and banknote information by denomination. Then, the pre-processing unit 120 extracts a banknote region from the stored banknote image, modulates the extracted region, and amplifies the banknote image.
  • the learning unit 130 learns the previously built learning model using learning data generated using the amplified banknote image.
  • the learning unit 130 builds a learning model based on a You Only Look Once (YOLO) algorithm, and trains the learning model using a banknote image as input data.
  • YOLO You Only Look Once
  • the learning model extracts a region from the banknote image and outputs banknote identification information for the extracted region.
  • control unit 140 receives an identification target image obtained by photographing a banknote image to be identified.
  • the control unit 140 acquires banknote identification information from the learning model by inputting the input identification target image to the learning model for which learning has been completed. Then, the control unit 140 derives a determination result for the banknote using the obtained banknote identification information, and delivers the derived determination result to the user's smartphone.
  • FIGS. 2 to 5 the banknote identification method using the banknote identification system 100 will be described in more detail using FIGS. 2 to 5 .
  • FIG. 2 is a flowchart illustrating a banknote identification method using a banknote identification system according to an embodiment of the present invention.
  • the banknote identification method using the banknote identification system is divided into a step of learning a learning model and a step of identifying a banknote using the learned model.
  • the banknote identification system 100 receives a banknote image and information on the banknote (S210).
  • the input unit 110 receives a banknote image captured using a camera installed in a smartphone.
  • the banknote image is an image for which identification of the banknote has been completed, and is an image captured in a state in which illumination, a photographing angle, and a distance to an object are set differently.
  • the input unit 110 receives information about the banknote included in the banknote image.
  • the information on the banknote includes the type of the banknote, characteristics for identifying the banknote, and the like.
  • the pre-processing unit 120 extracts a banknote region from the input banknote image, transforms the extracted region, and amplifies the input banknote image (S220).
  • FIG. 3 is an exemplary diagram for explaining step S220 shown in FIG. 2 .
  • the pre-processing unit 120 extracts a region corresponding to a banknote from a banknote image.
  • the area corresponding to the bank note has at least one point in contact with the bank note, and is formed as a rectangle having sides parallel to the x-axis and the y-axis.
  • the pre-processing unit 120 amplifies the input banknote image by performing a pre-processing process on the extracted region.
  • the pre-processing unit 120 amplifies the banknote image by performing at least one method among removing the outer region, rotating, horizontally moving, and scaling the extracted region.
  • the outer area of the banknote area is removed, but the amount corresponding to 0% to 10% of all pixels included in the banknote image is removed.
  • the rotation method rotates the banknote image using an orientation angle selected from among 90°, 180°, and 270°.
  • FIG. 4 is an exemplary view for explaining step S220 shown in FIG. 2 .
  • the pre-processing unit 120 rotates the input banknote image by 90° to generate a new banknote image from the original banknote image.
  • the banknote area is moved along the x-axis or y-axis, but only about 10% of all pixels included in the banknote image are moved left, right, up, down.
  • magnification is adjusted by enlarging or reducing the magnification of the banknote area from 80% to 120%.
  • a banknote image is amplified by generating a new banknote image from the original banknote image by using at least one of the above four methods.
  • step S220 the learning unit 130 learns the built learning model using the amplified banknote image (S230).
  • the learning unit 130 builds a learning model of a You Once Look Once (YOLO) algorithm based on the CSPDarknet53 backbone.
  • YOLO You Once Look Once
  • the learning unit 130 inputs the learning data formed by randomly extracting the banknote image to the learning model. Then, the learning model detects the banknote area using the input learning data, and outputs banknote identification information for the detected area.
  • the banknote identification information includes at least one of the coordinate value of the area, the type of banknote, the share of the banknote, and the reliability of the detection result.
  • the banknote identification system 100 When the learning of the learning model is completed through steps S210 and S230, the banknote identification system 100 according to an embodiment of the present invention identifies the banknote using the learned learning model.
  • the banknote identification system 100 receives an identification target image photographed of a banknote to be identified (S240).
  • the input unit 110 receives an identification target image from the user's smartphone.
  • control unit 140 acquires banknote identification information by inputting the input identification target image to the learning model on which learning has been completed (S250).
  • control unit 140 inputs the identification target image to the learning model. Then, the learning model detects the banknote area included in the identification target image, and outputs identification information about the detected banknote area.
  • the identification information includes at least one of the coordinate value of the area, the type of banknote, the share of the banknote, and the reliability of the detection result.
  • the detected banknote area may be one or plural. Then, the control unit 140 extracts the reliability of each banknote area, compares each other, and extracts only the banknote area with the highest reliability.
  • control unit 140 compares the reliability included in the obtained identification information with a basic threshold value (S260).
  • the controller 140 sets a basic threshold value.
  • the basic threshold is an arbitrarily designated value, and is determined after testing whether the error of the identification result is the least when the threshold is to a certain extent using learning data for which the correct answer is known. For example, when the reliability of 50% of the detected results from 100 pieces of training data is set as the threshold, if all 100 pieces of identification result are true, the default threshold is set to 50%.
  • control unit 140 compares the reliability included in the acquired identification information with a basic threshold value.
  • control unit 140 outputs the type of banknote included in the banknote identification information as a final result (S270).
  • the controller 140 identifies the banknote included in the banknote area as a ten thousand bill.
  • FIG. 5 is an exemplary diagram for explaining step S280 shown in FIG. 2 .
  • control unit 140 sets a threshold for the share of banknotes. Then, if the share of the acquired banknote is greater than or equal to the threshold value, the controller 140 calculates a variable threshold value to identify the banknote.
  • control unit 140 sets a threshold and compares the set threshold with the occupancy rate of the bank note area with the set threshold.
  • the controller 140 calculates a variable threshold value using the basic threshold value.
  • variable threshold value is calculated through Equation 1 below.
  • control unit 140 compares the calculated variable threshold with the reliability of the detection result. And, as a result of the comparison, if the variable threshold is greater than the reliability, the controller 140 outputs the type of banknote included in the banknote identification information as a final result.
  • control unit 140 outputs the corresponding banknote as counterfeit bill or non-recognition.
  • the banknote identification system can identify a banknote by type using a banknote image photographed using a camera installed in a smartphone, and amplifies data by performing a preprocessing process on the region extracted from the banknote image.
  • the learning model can be trained with a small amount of data.
  • banknotes can be identified by type of banknote by using a banknote image captured using a camera installed in a smartphone, and learning is performed even with a small amount of data by performing a preprocessing process on the region extracted from the banknote image to amplify the data. model can be trained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 YOLO 알고리즘 기반의 은행권 식별 시스템 및 그 방법에 관한 것이다. 본 발명에 따르면, 은행권 식별 시스템은 조도, 촬영각도 및 객체와의 거리를 각각 상이하게 설정한 상태에서 촬영된 은행권 영상과 상기 은행권에 대한 정보를 입력받는 입력부, 상기 입력된 은행권 영상 및 상기 은행권에 대한 정보를 권종별로 분류하여 저장하고, 저장된 은행권 영상으로부터 은행권에 대한 영역을 추출한 다음, 추출된 영역에 대한 데이터를 증폭시키는 전처리부, 상기 증폭된 데이터를 학습데이터로 하여 학습모델을 학습시키는 학습부, 그리고 식별하고자 하는 은행권을 촬영한 식별 대상 영상을 입력받고, 상기 식별 대상 영상을 학습이 완료된 학습모델에 입력하여 상기 식별정보를 획득하고, 상기 획득한 식별 정보를 이용하여 은행권 판단 결과를 도출하는 제어부를 포함한다.

Description

YOLO 알고리즘 기반의 은행권 식별 시스템 및 그 방법
본 발명은 YOLO 알고리즘 기반의 은행권 식별 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게 설명하면 스마트폰을 통해 지폐를 촬영하여 획득한 영상을 학습이 완료된 학습모델에 입력하여 상기 지폐를 권종별로 식별하는 은행권 식별 시스템 및 그 방법에 관한 것이다.
신용카드 사용이 대중화 보편화되면서 많은 사람들이 현금 대신 카드 사용을 선호하고 있지만 아직도 우리 실생활에서는 현금사용처도 많은 실정이다.
종래에는 현금을 식별하기 위하여 지폐를 불빛에 비추어보거나 기울인 각도에 따라 숨어있는 홀로그램을 찾아내는 방법을 통해 위변조지폐를 판별하였다.
그러나, 요즘 위변조지폐는 육안으로 구별하기 힘들 정도로 정교해지고 있다. 최근에는 스마트폰과 스마트폰에 부착되는 렌즈를 이용하여 위폐여부를 간편하게 확인할 수 있는 시스템이 개발되었다.
종래에는 위폐 실물 감정을 위해 감정의뢰에서 감정서 회보까지 약 한 달 정도 소요되었지만, 스마트폰을 이용한 원격 감정 시스템을 이용하면 의뢰부터 감정서 회보까지 1일 이내로 대폭 줄일 수 있다. 또한 수사관이 현장에서도 확인할 수 있는 장점이 있었다.
그러나, 스마트폰을 이용한 원격 감정 시스템은 일반광과 자외선으로 촬영할 수 있는 특수 렌즈를 설치되어야 하고, 스마트폰 화면의 규격에 따라 지폐를 정확하게 위치시킨 상태에서 촬영해야 되는 번거로움이 존재하였다.
이와 같이 본 발명에 따르면, 스마트폰을 통해 지폐를 촬영하여 획득한 영상을 학습이 완료된 학습모델에 입력하여 상기 지폐를 권종별로 식별하는 은행권 식별 시스템 및 그 방법을 제공하기 위한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면 은행권 식별 시스템은 조도, 촬영각도 및 객체와의 거리를 각각 상이하게 설정한 상태에서 촬영된 은행권 영상과 상기 은행권에 대한 정보를 입력받는 입력부, 상기 입력된 은행권 영상 및 상기 은행권에 대한 정보를 권종별로 분류하여 저장하고, 저장된 은행권 영상으로부터 은행권에 대한 영역을 추출한 다음, 추출된 영역에 대한 데이터를 증폭시키는 전처리부, 상기 증폭된 데이터를 학습데이터로 하여 학습모델을 학습시키는 학습부, 그리고 식별하고자 하는 은행권을 촬영한 식별 대상 영상을 입력받고, 상기 식별 대상 영상을 학습이 완료된 학습모델에 입력하여 상기 식별정보를 획득하고, 상기 획득한 식별 정보를 이용하여 은행권 판단 결과를 도출하는 제어부를 포함한다.
상기 전처리부는, 상기 은행권 영상으로부터 은행권에 해당하는 영역을 추출하되, 상기 영역은, 은행권과 맞닿은 지점이 1개소 이상이며, x축과 y축이 평행한 변으로 이루어진 직사각형으로 형성될 수 있다.
상기 전처리부는, 상기 추출된 영역에 대해 외곽 영역 제거, 회전, 수평이동 및 배율 조절 중에서 적어도 하나의 방법을 수행하여 은행권 영상을 증폭시킬 수 있다.
상기 학습부는, 상기 증폭된 은행권 영상을 YOLO(You Only Look Once) 알고리즘 기반의 학습모델에 입력하고, 상기 학습모델은, 상기 증폭된 은행권 영상을 학습하여 은행권에 해당하는 영역을 추출하고, 추출된 영역에 대한 은행권 식별 정보를 출력할 수 있다.
상기 은행권 식별 정보는, 상기 영역의 좌표값, 은행권의 종류, 은행권의 점유율, 검출 결과의 신뢰도 중에서 적어도 하나를 포함할 수 있다.
상기 제어부는, 상기 기본 문턱치를 설정하고, 상기 은행권 식별 정보에 포함된 검출 결과의 신뢰도와 상기 기본 문턱치를 비교하여 은행권 영상 내에 포함된 은행권 식별 결과를 출력할 수 있다.
상기 제어부는, 상기 검출 결과의 신뢰도가 상기 기본 문턱치 보다 크면, 상기 은행권 식별 정보에 포함된 은행권의 종류를 최종 결과로 출력할 수 있다.
상기 제어부는, 상기 검출 결과의 신뢰도가 상기 기본 문턱치 보다 작으면, 상기 은행권 식별 정보에 포함된 은행권의 점유율이 임계치 이상인지 여부를 판단하고, 상기 은행권 점유율이 임계치 이상이면 상기 기본 문턱치를 이용하여 가변 문턱치를 산출할 수 있다.
상기 가변 문턱치는, 하기의 수학식을 이용하여 산출될 수 있다.
가변 문턱치 = 기본 문턱치 + ((1- (점유율과 0.7중 큰 수치)) x 10)^4 x 0.006
상기 제어부는, 상기 산출된 가변 문턱치와 상기 검출 결과의 신뢰도를 비교하고, 비교한 결과 상기 가변 문턱치가 신뢰도보다 크면, 상기 은행권 식별 정보에 포함된 은행권의 종류를 최종 결과로 출력할 수 있다.
또한, 본 발명의 실시예에 따르면 은행권 식별 시스템을 이용한 은행권 식별 방법은 조도, 촬영각도 및 객체와의 거리를 각각 상이하게 설정한 상태에서 촬영된 은행권 영상과 상기 은행권에 대한 정보를 입력받는 단계, 상기 입력된 은행권 영상 및 상기 은행권에 대한 정보를 권종별로 분류하여 저장하고, 저장된 은행권 영상으로부터 은행권에 대한 영역을 추출한 다음, 추출된 영역에 대한 데이터를 증폭시키는 단계, 상기 증폭된 데이터를 학습데이터로 하여 학습모델을 학습시키는 단계, 그리고 식별하고자 하는 은행권을 촬영한 식별 대상 영상을 입력받고, 상기 식별 대상 영상을 학습이 완료된 학습모델에 입력하여 상기 식별정보를 획득하고, 상기 획득한 식별 정보를 이용하여 은행권 판단 결과를 도출하는 단계를 포함한다.
이와 같이 본 발명에 따르면, 스마트폰에 설치된 카메라를 이용하여 촬영된 은행권 영상을 이용하여 은행권으로 권종별로 식별할 수 있고, 은행권 영상으로부터 추출된 영역에 전처리 과정을 수행하여 데이터를 증폭시킴으로써, 소량의 데이터로도 학습모델을 학습시킨 수 있다.
도 1은 본 발명의 실시예에 따른 은행권 식별 시스템을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 은행권 식별 시스템을 이용한 은행권 식별 방법을 설명하기 위한 순서도이다.
도 3은 도 2에 도시된 S220단계를 설명하기 위한 예시도이다.
도 4는 도 2에 도시된 S220단계를 설명하기 위한 예시도이다.
도 5는 도 2에 도시된 S280단계를 설명하기 위한 예시도이다.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 은행권 식별 시스템에 대하여 더욱 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 은행권 식별 시스템을 설명하기 위한 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 은행권 식별 시스템(100)은 입력부(110), 전처리부(120), 학습부(130) 및 제어부(140)를 포함한다.
먼저, 입력부(110)는 스마트폰에 설치된 카메라를 이용하여 촬영된 은행권 영상을 입력받는다, 또한, 입력부(110)는 촬영된 은행권에 대한 정보를 입력받는다.
전처리부(120)는 입력된 은행권 영상 및 은행권에 대한 정보를 권종별로 분류하여 저장한다. 그리고, 전처리부(120)는 저장된 은행권 영상으로부터 은행권에 대한 영역을 추출하고, 추출된 영역을 변조하여 은행권 영상을 증폭시킨다.
그 다음, 학습부(130)는 증폭된 은행권 영상을 이용하여 생성된 학습데이터를 이용하여 기 구축된 학습모델을 학습시킨다. 부연하자면, 학습부(130)는 YOLO(You Only Look Once) 알고리즘 기반의 학습모델을 구축하고, 은행권 영상을 입력데이터로 하여 학습모델을 학습시킨다.
그러면, 학습모델은 은행권 영상으로부터 영역을 추출하고, 추출된 영역에 대한 은행권 식별 정보를 출력한다.
마지막으로 제어부(140)는 식별하고자 하는 은행권 영상을 촬영한 식별 대상 영상을 입력받는다. 제어부(140)는 입력된 식별 대상 영상을 학습이 완료된 학습모델에 입력하여 학습모델로부터 은행권 식별 정보를 획득한다. 그 다음, 제어부(140)는 획득한 은행권 식별 정보를 이용하여 은행권에 대한 판단 결과를 도출하고, 도출된 판단 결과를 사용자의 스마트폰에 전달한다.
이하에서는 도 2 내지 도 5를 이용하여 은행권 식별 시스템(100)을 이용한 은행권 식별 방법에 대해 더욱 상세하게 설명한다.
도 2는 본 발명의 실시예에 따른 은행권 식별 시스템을 이용한 은행권 식별 방법을 설명하기 위한 순서도이다.
도2에 도시된 바와 같이, 본 발명의 실시예에 따른 은행권 식별 시스템 이용한 은행권 식별 방법은 학습 모델을 학습시키는 단계와, 학습이 완료된 학습 모델을 이용하여 은행권을 식별하는 단계로 나뉘어진다.
학습 모델을 학습시키는 단계에 있어서, 먼저 은행권 식별 시스템(100)은 은행권 영상 및 은행권에 대한 정보를 입력받는다(S210).
부연하자면, 입력부(110)는 스마트폰에 설치된 카메라를 이용하여 촬영한 은행권 영상을 입력받는다. 은행권 영상은 은행권에 대한 식별인 완료된 영상이며, 조도, 촬영각도 및 객체와의 거리를 각각 상이하게 설정한 상태에서 촬영된 영상이다. 그리고, 입력부(110)는 은행권 영상에 포함된 은행권에 대한 정보를 입력받는다. 여기서, 은행권에 대한 정보는 은행권에 대한 종류, 은행권을 식별할 수 있는 특징 등을 포함한다.
그 다음, 전처리부(120)는 입력된 은행권 영상으로부터 은행권에 대한 영역을 추출하고, 추출한 영역을 변형하여 입력된 은행권 영상을 증폭시킨다(S220).
도 3은 도 2에 도시된 S220단계를 설명하기 위한 예시도이다.
도 3에 도시된 바와 같이, 전처리부(120)는 은행권 영상으로부터 은행권에 해당하는 영역을 추출한다. 여기서 은행권에 해당하는 영역은 은행권과 맞닿은 지점이 1개소 이상이며, x축과 y축이 평행한 변으로 이루어진 직사각형으로 형성된다.
전처리부(120)는 추출된 영역에 대해 전처리 과정을 수행하여 입력된 은행권 영상을 증폭시킨다. 부연하자면, 전처리부(120)는 추출된 영역에 대해 외곽 영역 제거, 회전, 수평이동 및 배율 조절 중에서 적어도 하나의 방법을 수행하여 은행권 영상을 증폭시킨다.
먼저, 외곽 영역 제거 방법은 은행권 영역의 외곽을 제거하되 은행권 영상에 포함된 전체 픽셀 대비 0%에서 10%에 해당하는 만큼 제거한다.
그리고 회전 방법은 90°, 180°, 270°중에서 선택된 방향각을 이용하여 은행권 영상을 회전시킨다.
도 4는 도 2에 도시된 S220단계를 설명하기 위한 예시도이다.
도 4에 도시된 바와 같이, 전처리부(120)는 입력된 은행권 영상을 90° 회전시켜 원본의 은행권 영상으로부터 새로운 은행권 영상을 생성한다.
수평 이동 방법은 은행권 영역을 x축 또는 y축으로 이동시키되, 은행권 영상에 포함된 전체 픽셀 대비 10%정도만 좌우상하로 이동시킨다.
마지막으로 배율 조절 방법은 은행권 영역의 배율을 80%에서 120%로 확대 또는 축소하여 배율을 조절한다.
상기와 같은 4가지 방법 중에서 적어도 하나의 방법을 이용하여 원본의 은행권 영상으로부터 새로운 은행권 영상을 생성하여 은행권 영상을 증폭시킨다.
S220단계가 완료되면, 학습부(130)는 증폭된 은행권 영상을 이용하여 구축된 학습모델을 학습시킨다(S230).
먼저, 학습부(130)는 CSPDarknet53 backbone 기반의 YOLO(You Once Look Once) 알고리즘의 학습모델을 구축한다. 학습모델은 스마트폰 단말기에서 원활한 작업 수행을 하도록 convolutional 레이어와 yolo 레이어를 적게 구성하여 요구되는 연산량을 줄여 속도를 향상시키는 것이 바람직하다.
그 다음, 학습부(130)는 은행권 영상으로부터 무작위로 추출되어 형성된 학습데이터를 학습모델에 입력한다. 그러면, 학습모델은 입력된 학습데이터를 이용하여 은행권 영역을 검출하고, 검출된 영역에 대한 은행권 식별 정보를 출력한다. 여기서, 은행권 식별 정보는 영역의 좌표값, 은행권의 종류, 은행권의 점유율, 검출 결과의 신뢰도 중에서 적어도 하나를 포함한다.
S210 단계 및 S230단계를 통해 학습 모델에 대한 학습이 완료되면, 본 발명의 실시예에 따른 은행권 식별 시스템(100)은 학습된 학습 모델을 이용하여 은행권을 식별한다.
은행권 식별 시스템(100)은 식별하고자 하는 은행권을 촬영한 식별 대상 영상을 입력받는다(S240).
입력부(110)는 사용자의 스마트폰으로부터 식별 대상 영상을 입력받는다.
그 다음, 제어부(140)는 입력된 식별 대상 영상을 학습이 완료된 학습모델에 입력하여 은행권 식별 정보를 획득한다(S250).
부연하자면, 제어부(140)는 식별 대상 영상을 학습모델에 입력한다. 그러면, 학습모델은 식별 대상 영상에 포함된 은행권 영역을 검출하고, 검출된 은행권 영역에 대한 식별 정보를 출력한다. 여기서 식별 정보는 영역의 좌표값, 은행권의 종류, 은행권의 점유율, 검출 결과의 신뢰도 중에서 적어도 하나를 포함한다.
한편, 검출되는 은행권 영역은 한 개일 수도 있고 복 수개일 수도 있다. 그러면, 제어부(140)는 은행권 영역마다 각각의 신뢰도를 추출하고, 상호 비교하여 신뢰도가 가장 높은 은행권 영역만을 추출한다.
그 다음, 제어부(140)는 획득한 식별 정보에 포함된 신뢰도와 기본 문턱치를 비교한다(S260).
먼저, 제어부(140)는 기본 문턱치를 설정한다. 여기서 기본 문턱치는 임의로 지정된 값으로, 정답을 알고 있는 학습데이터를 이용해 어느 정도 문턱치일 때 식별 결과의 오류가 가장 적은지 테스트 후 결정된다. 예를 들어, 100장의 학습데이터에서 검출된 결과가 50%의 신뢰도를 문턱치로 설정했을 때 100장 모두 식별 결과가 참인 경우 기본 문턱치는 50%로 지정된다.
그 다음, 제어부(140)는 획득한 식별 정보에 포함된 신뢰도와 기본 문턱치를 비교한다.
비교한 결과 검출 결과의 신뢰도가 기본 문턱치 보다 크면, 제어부(140)는 은행권 식별 정보에 포함된 은행권의 종류를 최종 결과로 출력한다(S270).
예를 들어, 기본 문턱치가 70%이고, 신뢰도가 80%이며, 식별 정보에 포함된 은행권의 종류가 만원권이면, 제어부(140)는 은행권 영역에 포함된 은행권을 만원권으로 식별한다.
검출 결과의 신뢰도가 상기 기본 문턱치 보다 작으면, 상기 은행권 식별 정보에 포함된 은행권의 점유율이 임계치 이상인지 여부를 판단한다(S280).
도 5는 도 2에 도시된 S280단계를 설명하기 위한 예시도이다.
도 5에 도시된 바와 같이, 스마트폰으로 은행권을 촬영했을 때 근접 촬영 시 은행권이 극히 일부 영역만 나타나기 때문에 전반적인 신뢰도 값이 낮게 분포된다.
따라서, 제어부(140)는 은행권 점유율에 대한 임계치를 설정한다. 그리고, 획득한 은행권의 점유율이 임계치 이상이면, 제어부(140)는 가변 문턱치를 산출하여 은행권을 식별한다.
먼저 제어부(140)는 임계치를 설정하고, 설정된 임계치와 은행권 영역에 대한 점유율과 설정된 임계치를 비교한다.
그리고, 은행권 영역의 점율이 임계치 이상이면, 제어부(140)는 기본 문턱치를 이용하여 가변 문턱치를 산출한다.
가변 문턱치는 하기의 수학식 1을 통해 산출된다.
Figure PCTKR2023001684-appb-img-000001
그 다음, 제어부(140)는 산출된 가변 문턱치와 검출결과의 신뢰도를 비교한다. 그리고 비교한 결과 가변 문턱치가 신뢰도보다 크면, 제어부(140)는 은행권 식별 정보에 포함된 은행권의 종류를 최종 결과로 출력한다.
한편, 비교한 결과 가변 문턱치가 신뢰도보다 작으면, 제어부(140)는 해당되는 은행권에 대해 위변조 지폐 또는 인식불가로 출력한다.
이와 같이 본 발명에 따른 은행권 식별 시스템은 스마트폰에 설치된 카메라를 이용하여 촬영된 은행권 영상을 이용하여 은행권으로 권종별로 식별할 수 있고, 은행권 영상으로부터 추출된 영역에 전처리 과정을 수행하여 데이터를 증폭시킴으로써, 소량의 데이터로도 학습모델을 학습시킬 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
본 발명에 따르면 스마트폰에 설치된 카메라를 이용하여 촬영된 은행권 영상을 이용하여 은행권으로 권종별로 식별할 수 있고, 은행권 영상으로부터 추출된 영역에 전처리 과정을 수행하여 데이터를 증폭시킴으로써 소량의 데이터로도 학습모델을 학습시킨 수 있다.

Claims (20)

  1. 조도, 촬영각도 및 객체와의 거리를 각각 상이하게 설정한 상태에서 촬영된 은행권 영상과 상기 은행권에 대한 정보를 입력받는 입력부,
    상기 입력된 은행권 영상 및 상기 은행권에 대한 정보를 권종별로 분류하여 저장하고, 저장된 은행권 영상으로부터 은행권에 대한 영역을 추출한 다음, 추출된 영역에 대한 데이터를 증폭시키는 전처리부,
    상기 증폭된 데이터를 학습데이터로 하여 학습모델을 학습시키는 학습부, 그리고
    식별하고자 하는 은행권을 촬영한 식별 대상 영상을 입력받고, 상기 식별 대상 영상을 학습이 완료된 학습모델에 입력하여 상기 식별정보를 획득하고, 상기 획득한 식별 정보를 이용하여 은행권 판단 결과를 도출하는 제어부를 포함하는 은행권 식별 시스템.
  2. 제1항에 있어서,
    상기 전처리부는,
    상기 은행권 영상으로부터 은행권에 해당하는 영역을 추출하되,
    상기 영역은,
    은행권과 맞닿은 지점이 1개소 이상이며, x축과 y축이 평행한 변으로 이루어진 직사각형으로 형성되는 은행권 식별 시스템.
  3. 제2항에 있어서,
    상기 전처리부는,
    상기 추출된 영역에 대해 외곽 영역 제거, 회전, 수평이동 및 배율 조절 중에서 적어도 하나의 방법을 수행하여 은행권 영상을 증폭시키는 은행권 식별 시스템.
  4. 제3항에 있어서,
    상기 학습부는,
    상기 증폭된 은행권 영상을 YOLO(You Only Look Once) 알고리즘 기반의 학습모델에 입력하고,
    상기 학습모델은,
    상기 증폭된 은행권 영상을 학습하여 은행권에 해당하는 영역을 추출하고, 추출된 영역에 대한 은행권 식별 정보를 출력하는 은행권 식별 시스템.
  5. 제4항에 있어서,
    상기 은행권 식별 정보는,
    상기 영역의 좌표값, 은행권의 종류, 은행권의 점유율, 검출 결과의 신뢰도 중에서 적어도 하나를 포함하는 은행권 식별 시스템.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 기본 문턱치를 설정하고, 상기 은행권 식별 정보에 포함된 검출 결과의 신뢰도와 상기 기본 문턱치를 비교하여 은행권 영상 내에 포함된 은행권 식별 결과를 출력하는 은행권 식별 시스템.
  7. 제6항에 있어서,
    상기 제어부는,
    상기 검출 결과의 신뢰도가 상기 기본 문턱치 보다 크면, 상기 은행권 식별 정보에 포함된 은행권의 종류를 최종 결과로 출력하는 은행권 식별 시스템.
  8. 제6항에 있어서,
    상기 제어부는,
    상기 검출 결과의 신뢰도가 상기 기본 문턱치 보다 작으면, 상기 은행권 식별 정보에 포함된 은행권의 점유율이 임계치 이상인지 여부를 판단하고,
    상기 은행권 점유율이 임계치 이상이면 상기 기본 문턱치를 이용하여 가변 문턱치를 산출하는 은행권 식별 시스템.
  9. 제8항에 있어서,
    상기 가변 문턱치는,
    하기의 수학식을 이용하여 산출되는 은행권 식별 시스템:
    가변 문턱치 = 기본 문턱치 + ((1- (점유율과 0.7중 큰 수치)) x 10)^4 * 0.006
  10. 제9항에 있어서,
    상기 제어부는,
    상기 산출된 가변 문턱치와 상기 검출 결과의 신뢰도를 비교하고, 비교한 결과 상기 가변 문턱치가 신뢰도보다 크면, 상기 은행권 식별 정보에 포함된 은행권의 종류를 최종 결과로 출력하는 은행권 식별 시스템.
  11. 은행권 식별 시스템을 이용한 은행권 식별 방법에 있어서,
    조도, 촬영각도 및 객체와의 거리를 각각 상이하게 설정한 상태에서 촬영된 은행권 영상과 상기 은행권에 대한 정보를 입력받는 단계,
    상기 입력된 은행권 영상 및 상기 은행권에 대한 정보를 권종별로 분류하여 저장하고, 저장된 은행권 영상으로부터 은행권에 대한 영역을 추출한 다음, 추출된 영역에 대한 데이터를 증폭시키는 단계,
    상기 증폭된 데이터를 학습데이터로 하여 학습모델을 학습시키는 단계, 그리고
    식별하고자 하는 은행권을 촬영한 식별 대상 영상을 입력받고, 상기 식별 대상 영상을 학습이 완료된 학습모델에 입력하여 상기 식별정보를 획득하고, 상기 획득한 식별 정보를 이용하여 은행권 판단 결과를 도출하는 단계를 포함하는 은행권 식별 방법.
  12. 제11항에 있어서,
    상기 데이터를 증폭시키는 단계는,
    상기 은행권 영상으로부터 은행권에 해당하는 영역을 추출하되,
    상기 영역은,
    은행권과 맞닿은 지점이 1개소 이상이며, x축과 y축이 평행한 변으로 이루어진 직사각형으로 형성되는 은행권 식별 방법.
  13. 제12항에 있어서,
    상기 데이터를 증폭시키는 단계는,
    상기 추출된 영역에 대해 외곽 영역 제거, 회전, 수평이동 및 배율 조절 중에서 적어도 하나의 방법을 수행하여 은행권 영상을 증폭시키는 은행권 식별 방법.
  14. 제13항에 있어서,
    상기 학습모델을 학습시키는 단계는,
    상기 증폭된 은행권 영상을 YOLO(You Only Look Once) 알고리즘 기반의 학습모델에 입력하고,
    상기 학습모델은,
    상기 증폭된 은행권 영상을 학습하여 은행권에 해당하는 영역을 추출하고, 추출된 영역에 대한 은행권 식별 정보를 출력하는 은행권 식별 방법.
  15. 제14항에 있어서,
    상기 은행권 식별 정보는,
    상기 영역의 좌표값, 은행권의 종류, 은행권의 점유율, 검출 결과의 신뢰도 중에서 적어도 하나를 포함하는 은행권 식별 방법.
  16. 제15항에 있어서,
    상기 은행권 판단 결과를 도출하는 단계는,
    상기 기본 문턱치를 설정하고, 상기 은행권 식별 정보에 포함된 검출 결과의 신뢰도와 상기 기본 문턱치를 비교하여 은행권 영상 내에 포함된 은행권 식별 결과를 출력하는 은행권 식별 방법.
  17. 제16항에 있어서,
    상기 은행권 판단 결과를 도출하는 단계는,
    상기 검출 결과의 신뢰도가 상기 기본 문턱치 보다 크면, 상기 은행권 식별 정보에 포함된 은행권의 종류를 최종 결과로 출력하는 은행권 식별 방법.
  18. 제16항에 있어서,
    상기 은행권 판단 결과를 도출하는 단계는,
    상기 검출 결과의 신뢰도가 상기 기본 문턱치 보다 작으면, 상기 은행권 식별 정보에 포함된 은행권의 점유율이 임계치 이상인지 여부를 판단하고,
    상기 은행권 점유율이 임계치 이상이면 상기 기본 문턱치를 이용하여 가변 문턱치를 산출하는 은행권 식별 방법.
  19. 제18항에 있어서,
    상기 가변 문턱치는,
    하기의 수학식을 이용하여 산출되는 은행권 식별 방법:
    가변 문턱치 = 기본 문턱치 + ((1- (점유율과 0.7중 큰 수치)) x 10)^4 * 0.006
  20. 제19항에 있어서,
    상기 은행권 판단 결과를 도출하는 단계는,
    상기 산출된 가변 문턱치와 상기 검출 결과의 신뢰도를 비교하고, 비교한 결과 상기 가변 문턱치가 신뢰도보다 크면, 상기 은행권 식별 정보에 포함된 은행권의 종류를 최종 결과로 출력하는 은행권 식별 방법.
PCT/KR2023/001684 2022-02-08 2023-02-07 Yolo 알고리즘 기반의 은행권 식별 시스템 및 그 방법 WO2023153747A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220016459A KR20230119999A (ko) 2022-02-08 2022-02-08 Yolo 알고리즘 기반의 은행권 식별 시스템 및 그 방법
KR10-2022-0016459 2022-02-08

Publications (1)

Publication Number Publication Date
WO2023153747A1 true WO2023153747A1 (ko) 2023-08-17

Family

ID=87564719

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/001684 WO2023153747A1 (ko) 2022-02-08 2023-02-07 Yolo 알고리즘 기반의 은행권 식별 시스템 및 그 방법

Country Status (2)

Country Link
KR (1) KR20230119999A (ko)
WO (1) WO2023153747A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070011866A (ko) * 2005-07-21 2007-01-25 주식회사 씨텍 지폐 권종 인식 방법 및 장치
KR20130014920A (ko) * 2011-08-01 2013-02-12 삼성전자주식회사 휴대 단말기를 이용하는 위폐 감별법
KR102058157B1 (ko) * 2013-12-27 2019-12-23 한국조폐공사 모바일 단말을 이용한 보안매체 판독방법
KR20210073361A (ko) * 2019-12-10 2021-06-18 주식회사 에이텍에이피 지폐 감별 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101707218B1 (ko) 2015-03-06 2017-02-15 (주)아이엔에이치 스마트폰 연동형 위조지폐감별장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070011866A (ko) * 2005-07-21 2007-01-25 주식회사 씨텍 지폐 권종 인식 방법 및 장치
KR20130014920A (ko) * 2011-08-01 2013-02-12 삼성전자주식회사 휴대 단말기를 이용하는 위폐 감별법
KR102058157B1 (ko) * 2013-12-27 2019-12-23 한국조폐공사 모바일 단말을 이용한 보안매체 판독방법
KR20210073361A (ko) * 2019-12-10 2021-06-18 주식회사 에이텍에이피 지폐 감별 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PACHÓN CÉSAR G., BALLESTEROS DORA M., RENZA DIEGO: "Fake Banknote Recognition Using Deep Learning", APPLIED SCIENCES, vol. 11, no. 3, 30 January 2021 (2021-01-30), pages 1281, XP093083842, DOI: 10.3390/app11031281 *

Also Published As

Publication number Publication date
KR20230119999A (ko) 2023-08-16

Similar Documents

Publication Publication Date Title
WO2013048159A1 (ko) 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
WO2013129825A1 (ko) 얼굴 인식 환경 통지 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
WO2017069385A1 (ko) 모바일 디바이스를 이용한 신분증 인식 장치
CN101763681B (zh) 纸币鉴别装置、纸币鉴别方法
WO2018012928A1 (ko) 얼굴 인식을 이용한 사용자 인증 방법 및 그 장치
WO2016163755A1 (ko) 품질 측정 기반의 얼굴 인식 방법 및 장치
WO2011136407A1 (ko) 스테레오 카메라를 이용한 영상인식장치 및 방법
CN107610322A (zh) 纸币版本的识别方法、装置、电子设备以及存储介质
US20040213448A1 (en) Apparatus for recognizing counterfeit currency and method thereof
CN112215043A (zh) 一种人脸活体检测方法
WO2017111340A1 (ko) 불법 복제된 온라인 만화 식별 시스템 및 방법
WO2020138607A1 (ko) 챗봇을 이용한 질의 응답 방법 및 장치
WO2020017829A1 (ko) 노이즈 패턴을 이용한 차량 번호판 이미지 생성 방법 및 그 장치
WO2020032506A1 (ko) 시각 감지 시스템 및 이를 이용한 시각 감지 방법
WO2018143486A1 (ko) 딥러닝 분석을 위한 모듈화시스템을 이용한 컨텐츠 제공 방법
WO2023153747A1 (ko) Yolo 알고리즘 기반의 은행권 식별 시스템 및 그 방법
WO2021172700A1 (ko) 이미지로부터 추출한 텍스트의 블록화 시스템 및 그 방법
WO2017222228A1 (ko) 영상 컨텐츠의 화면전환 인식 방법 및 이를 운용하는 서버
WO2023158068A1 (ko) 객체검출률 향상을 위한 학습시스템 및 그 방법
WO2021071258A1 (ko) 인공지능 기반의 휴대용 보안영상 학습장치 및 방법
WO2022019601A1 (ko) 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법
WO2019088673A2 (ko) 이미지 분류장치 및 방법
CN116152932A (zh) 活体检测方法以及相关设备
WO2019208869A1 (ko) 학습을 이용한 얼굴 특징점 검출 방법 및 장치
Akoum et al. Image Forgery Analyse and Detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23753097

Country of ref document: EP

Kind code of ref document: A1