KR102561878B1 - Ai blue ocr reading system and method based on machine learning - Google Patents

Ai blue ocr reading system and method based on machine learning Download PDF

Info

Publication number
KR102561878B1
KR102561878B1 KR1020230024875A KR20230024875A KR102561878B1 KR 102561878 B1 KR102561878 B1 KR 102561878B1 KR 1020230024875 A KR1020230024875 A KR 1020230024875A KR 20230024875 A KR20230024875 A KR 20230024875A KR 102561878 B1 KR102561878 B1 KR 102561878B1
Authority
KR
South Korea
Prior art keywords
document
learning
ocr
main control
blue
Prior art date
Application number
KR1020230024875A
Other languages
Korean (ko)
Inventor
황종휘
양두원
Original Assignee
주식회사 벨텍소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 벨텍소프트 filed Critical 주식회사 벨텍소프트
Priority to KR1020230024875A priority Critical patent/KR102561878B1/en
Application granted granted Critical
Publication of KR102561878B1 publication Critical patent/KR102561878B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition

Abstract

본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템은 다양한 양식의 문서를 입력 받아 머신러닝 기반으로 학습된 학습모델을 이용하여 문서의 문자와 각 양식의 칸의 형태를 분석하고 입력된 이미지 문서를 복수의 페이지씩 한 번에 판독하는 OCR 장치; 및 복수의 상기 OCR 장치들로부터 학습모델을 전달받아 병합하여 문서 인식률이 향상된 학습모델을 생성하고, 해당 학습모델을 상기 OCR 장치에 배포하는 OCR 서버;를 포함하여 복수 페이지의 이미지 문서를 한번에 판독할 수 있어 신속하게 문서를 판독할 수 있는 효과가 있다.The machine learning-based AI blue OCR reading system according to the present invention receives various types of documents, analyzes the text of the document and the shape of each form of the box using a learning model learned based on machine learning, and converts the input image document an OCR device that reads a plurality of pages at once; and an OCR server that receives and merges learning models from the plurality of OCR devices to generate a learning model with improved document recognition rate and distributes the learning model to the OCR device; to read multiple pages of image documents at once. It has the effect of being able to read documents quickly.

Description

머신러닝 기반의 AI 블루 OCR 판독 시스템 및 판독 방법{AI BLUE OCR READING SYSTEM AND METHOD BASED ON MACHINE LEARNING}AI BLUE OCR READING SYSTEM AND METHOD BASED ON MACHINE LEARNING}

본 발명은 머신러닝 기반의 AI 블루 OCR 판독 시스템에 관한 것으로써, 더욱 상세하게는 다양한 문서 데이터를 입력하여 데이터 베이스화하고 학습하여 이후 입력되는 이미지 문서에 대한 인식률이 향상된 머신러닝 기반의 AI 블루 OCR 판독 시스템에 관한 것이다.The present invention relates to a machine learning-based AI blue OCR reading system, and more particularly, to a machine learning-based AI blue OCR reading system in which various document data are input, converted into a database, and the recognition rate for image documents that are subsequently input is improved. It's about the system.

종래 광학식 문자 판독 장치(optical character reader)는 특정 문서를 인식하기 위해 해당되는 문서를 선택한 후 문서 판독이 수행된다.A conventional optical character reader selects a corresponding document to recognize a specific document and then reads the document.

예를 들어, 종래 광학식 문자 판독 장치는 사업자 등록증, 세금 계산서 등을 인식하기 위해서는 사용자가 인식될 서식(양식)을 선택해야만 해당 서식의 문서가 입력되는 것으로 판독을 수행한다.For example, in order to recognize a business registration certificate or a tax invoice, a conventional optical character reading device performs reading as a document of the corresponding form is input only when a user selects a form (form) to be recognized.

즉, 종래 광학식 문자 판독 장치는 특정 문서를 판독할 때 입력 전에 어떤 문서가 입력되는지 사용자가 선택해야 하는 번거로운 문제점이 있다.That is, the conventional optical character reading device has a cumbersome problem in that a user must select which document to input before reading a specific document.

또한, 종래 광학식 문자 판독 장치는 이미지 하나만을 판독하여 인식하기 때문에 대용량의 이미지 문서를 판독하여 인식하는 것이 용이하지 않아, 대용량의 이미지 문서를 판독하여 인식하는데 상당한 시간이 소요되는 문제점이 있다.In addition, since the conventional optical character reading device reads and recognizes only one image, it is not easy to read and recognize a large-capacity image document, and it takes a considerable amount of time to read and recognize a large-capacity image document.

대한민국 등록특허공보 제10-2013329호(2019.08.16)Republic of Korea Patent Registration No. 10-2013329 (2019.08.16)

본 발명은 상술한 문제점을 해결하기 위해, 다양한 문서 데이터를 입력하여 데이터 베이스화하고 머신러닝(Machine Learning)을 적용하여 AI 모델을 학습시켜서 데이터 인식의 정확도를 향상시킴으로써 업무에 필요한 데이터를 완벽하게 추출할 수 있는 머신러닝 기반의 AI 블루 OCR 판독 시스템을 제공하는데 목적이 있다.In order to solve the above problems, the present invention is able to perfectly extract the data necessary for work by inputting various document data, converting it into a database, and applying machine learning to train an AI model to improve the accuracy of data recognition. The purpose is to provide a machine learning-based AI blue OCR reading system that can

또한, 본 발명은 상술한 문제점을 해결하기 위해 공공기관에서 사용되는 복수의 페이지로 이루어진 대용량의 이미지 문서를 입력 받아 원본대비 1/2 또는 1/3만큼 축소해서 판독하여 인식할 수 있는 머신러닝 기반의 AI 블루 OCR 판독 시스템을 제공하는데 목적이 있다.In addition, the present invention is based on machine learning that can read and recognize large-capacity image documents consisting of a plurality of pages used in public institutions in order to solve the above problems by reducing them by 1/2 or 1/3 compared to the original. The purpose is to provide an AI blue OCR reading system of

특히, 본 발명은 입력되는 이미지 안에 있는 글자를 인식하고 인식된 글자를 다시 보정한 후, 해당 이미지 내 글자를 학습시킴으로써 글자 인식률을 높일 수 있도록 한 머신러닝 기반의 AI 블루 OCR 판독 시스템을 제공하는데 목적이 있다.In particular, the purpose of the present invention is to provide a machine learning-based AI blue OCR reading system that can increase the character recognition rate by recognizing characters in an input image, correcting the recognized characters again, and then learning the characters in the image. there is

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템은 다양한 양식의 문서를 입력 받아 머신러닝 기반으로 학습된 학습모델을 이용하여 문서의 문자와 각 양식의 칸의 형태를 분석하고 입력된 이미지 문서를 복수의 페이지씩 한 번에 판독하는 OCR 장치; 및 복수의 상기 OCR 장치들로부터 학습모델을 전달받아 병합하여 문서 인식률이 향상된 학습모델을 생성하고, 해당 학습모델을 상기 OCR 장치에 배포하는 OCR 서버;를 포함하는 것을 특징으로 한다.In order to achieve the above object, the machine learning-based AI blue OCR reading system according to the present invention receives various forms of documents and uses a learning model learned based on machine learning to form the text of the document and the form of each form. an OCR device that analyzes and reads the input image document by a plurality of pages at once; and an OCR server that receives and merges the learning models from the plurality of OCR devices to generate a learning model with an improved document recognition rate, and distributes the learning model to the OCR device.

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 OCR 장치는 복수 페이지의 이미지 문서가 입력되는 문서 입력부; 상기 문서 입력부를 통해 입력되는 각종 문서를 수신받아 저장하고 각종 동작을 제어하는 주제어부; 상기 주제어부가 추가 학습이 필요한 대상을 선정하면 선정한 문서의 글자 이미지를 가져와 학습을 수행하는 학습부; 한 화면에 상기 문서를 업로드하고 문서 인식 목록, 원본 문서, 추출 데이터를 동시에 확인하면서 작업이 가능하도록 표시하는 표시부; 인식 및 추출된 글자 이미지를 확인한 후 잘못 인식된 글자에 대한 글자를 보정하는 글자 보정부; 상기 OCR 서버와 통신을 통해 데이터의 송수신을 가능하게 하는 통신부; 및 상기 문서 입력부를 통해 입력되는 문서를 저장관리하는 데이터 베이스부;를 포함하는 것을 특징으로 한다.In order to achieve the above object, the OCR device of the machine learning-based AI blue OCR reading system according to the present invention includes a document input unit into which a plurality of page image documents are input; a main controller for receiving and storing various documents input through the document input unit and controlling various operations; a learning unit that, when the subject control unit selects an object requiring additional learning, brings a character image of the selected document and performs learning; a display unit that uploads the document on one screen and simultaneously checks a document recognition list, an original document, and extracted data while displaying the work to be possible; a character correction unit that checks the recognized and extracted character images and then corrects the incorrectly recognized characters; a communication unit enabling transmission and reception of data through communication with the OCR server; and a database unit for storing and managing documents input through the document input unit.

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 주제어부는 상기 문서 입력부를 통해 입력된 이미지 문서를 소정 비율로 축소하여 복수의 페이지씩 한 번에 판독하는 것을 특징으로 한다.In order to achieve the above object, the main control unit of the machine learning-based AI blue OCR reading system according to the present invention reduces the image document input through the document input unit at a predetermined ratio and reads a plurality of pages at once. to be

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 주제어부는 상기 문서의 타이틀만 인식할 수 있을 정도의 축소 비율로 문서를 축소하여 해당 문서의 유형을 분류하는 것을 특징으로 한다.In order to achieve the above object, the main control unit of the machine learning-based AI Blue OCR reading system according to the present invention reduces the document at a reduction ratio sufficient to recognize only the title of the document and classifies the document type. to be characterized

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 주제어부는 상기 문서의 각 글자 영역 중, 가장 큰 영역에서 인식된 문자열을 해당 페이지의 문서명으로 저장하는 것을 특징으로 한다.In order to achieve the above object, the main control unit of the machine learning-based AI blue OCR reading system according to the present invention stores the character string recognized in the largest area among each character area of the document as the document name of the page. do.

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 주제어부는 상기 문서 내의 표에서 행과 열이 교차함에 따라 형성되는 교차점의 좌표정보로 칸의 가로와 세로의 길이 산출하거나, 또는 칸의 넓이를 산출하여 특정 양식을 인식함으로써 문서의 유형을 분류하는 것을 특징으로 한다.In order to achieve the above object, the main control unit of the machine learning-based AI Blue OCR reading system according to the present invention is the coordinate information of the intersection formed by the intersection of rows and columns in the table in the document, and the horizontal and vertical lengths of the cells. It is characterized in that the document type is classified by recognizing a specific format by calculating or calculating the width of a column.

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 주제어부는 특정 단어가 사전에 없는 단어이거나, 문맥에 맞지 않은 부분에 대해 추가 학습이 필요한 대상으로 선정하는 것을 특징으로 한다.In order to achieve the above object, the main control unit of the machine learning-based AI blue OCR reading system according to the present invention is characterized in that a specific word is a word that does not exist in the dictionary or a part that does not fit the context is selected as a subject requiring additional learning. to be

다른 실시 예로써, 상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 방법은 (a) 머신러닝 기반의 AI 블루 OCR 장치가 문서 입력부를 통해 이미지 문서를 입력받는 단계; (b) 상기 OCR 장치의 주제어부가 업로드된 파일을 데이터 베이스부에 저장하는 단계; (c) 상기 주제어부가 학습된 학습모델을 실행시키는 단계; (d) 상기 주제어부가 상기 이미지 문서를 판독하기 위해 복수의 페이지씩 로드 하는 단계; (e) 상기 주제어부가 상기 이미지 문서 내 글자 영역을 박스처리하여 해당 글자 영역을 분석하는 단계; (f) 상기 주제어부가 상기 학습모델을 실행시켜 이미지 파일 내, 글자 영역을 분석하는 과정에서 추가 학습이 필요한지 판단하는 단계; 및 (h) 상기 주제어부가 상기 (f)단계에서 추가 학습이 불필요한 경우, 상기 주제어부가 상기 (e) 단계에서 글자 영역 분석이 완료된 문서를 판독하는 단계;를 포함하는 것을 특징으로 한다.As another embodiment, in order to achieve the above object, a machine learning-based AI blue OCR reading method according to the present invention includes (a) a machine learning-based AI blue OCR device receiving an image document through a document input unit; (b) storing the uploaded file by the main control unit of the OCR device in a database unit; (c) executing the learned learning model by the main controller; (d) loading, by the main controller, a plurality of pages to read the image document; (e) analyzing, by the main controller, the text area in the image document by boxing the text area; (f) executing the learning model by the main control unit to determine whether additional learning is required in the process of analyzing a character area in an image file; and (h) if the main control unit does not require additional learning in the step (f), reading the document for which the character area analysis has been completed in the step (e) by the main control unit.

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 방법은 (g) 상기 (f)단계에서 추가 학습이 필요한 경우, 상기 주제어부의 제어로 학습부가 추가 학습이 필요한 파일을 전달받아 추가 학습을 진행하는 단계;를 더 포함하는 것을 특징으로 한다.In order to achieve the above object, the machine learning-based AI blue OCR reading method according to the present invention (g) when additional learning is required in the step (f), the learning unit controls the main control unit to select a file requiring additional learning. It is characterized in that it further comprises; the step of receiving the transmission and proceeding with additional learning.

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 방법의 (h)단계는 (h-1) 상기 주제어부가 상기 학습부에 의해 학습된 학습데이터가 있는지 확인하는 단계; (h-2) 상기 (h-1)단계에서 상기 학습데이터가 있는 경우, 상기 주제어부가 해당 학습 데이터를 문서 판독에 반영하는 단계; (h-3) 상기 (h-1)단계에서 추가된 학습 데이터 없는 경우 상기 주제어부가 글자 영역에 대한 분석이 완료된 이미지 문서에서 문자를 인식하는 단계; (h-4) 상기 주제어부가 문서의 제목을 인식하는 단계; (h-5) 상기 주제어부가 상기 (h-4)단계에서 인식한 문서의 제목으로 문서 유형을 판별하는 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, step (h) of the machine learning-based AI blue OCR reading method according to the present invention includes (h-1) checking whether the main control unit has learning data learned by the learning unit; (h-2) if there is the learning data in step (h-1), the main control unit reflects the corresponding learning data to document reading; (h-3) if there is no learning data added in the step (h-1), recognizing a character in the image document for which the analysis of the character area has been completed by the main control unit; (h-4) recognizing the title of the document by the main control unit; (h-5) determining, by the main control unit, the document type based on the title of the document recognized in step (h-4).

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 방법의 (d)단계에서, 상기 주제어부가 상기 이미지 문서를 판독하기 위해 복수의 페이지씩 로드할 때 해당 이미지 문서를 소정 비율로 축소하는 것을 특징으로 한다.In order to achieve the above object, in step (d) of the machine learning-based AI blue OCR reading method according to the present invention, when the main control unit loads a plurality of pages to read the image document, the corresponding image document is selected at a predetermined level. It is characterized by a reduction in proportion.

상술한 목적을 달성하기 위해, 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 방법에서 주제어부가 상기 (h-5)단계에서 문서에 있는 복수의 특정 칸들의 가로와 세로의 길이, 넓이, 그리고 배열된 위치를 파악하여 문서의 양식을 인식하고 분류할 수 있는 것을 특징으로 한다.In order to achieve the above object, in the machine learning-based AI blue OCR reading method according to the present invention, the main control unit determines the horizontal and vertical length, width, and arrangement of a plurality of specific cells in the document in step (h-5). It is characterized in that it is possible to recognize and classify the form of the document by identifying the location of the document.

본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템은 소정의 축소 비율로 이미지 문서를 축소함으로써 복수 페이지의 이미지 문서를 한번에 판독할 수 있어 신속하게 문서를 판독할 수 있는 효과가 있다.The machine learning-based AI blue OCR reading system according to the present invention can read multiple pages of image documents at once by reducing image documents at a predetermined reduction ratio, thereby enabling rapid reading of documents.

본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템은 사용자가 직접 추출한 데이터를 Machine Learning을 적용하여 AI 모델을 학습시켜서 데이터 인식 정확도를 향상시킬 수 있는 효과가 있다.The machine learning-based AI blue OCR reading system according to the present invention has the effect of improving data recognition accuracy by learning an AI model by applying machine learning to data directly extracted by a user.

도 1은 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 구성도이다.
도 2는 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 OCR 장치의 블록도 이다.
도 3은 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 글자 보정을 설명하기 위한 도면이다.
도 4는 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 표시부에 표시되는 각종 표와 그래프의 예를 도시한 도면이다.
도 5는 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 방법의 플로우차트이다.
도 6은 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 방법에서 파일을 업로드 하는 단계를 설명하기 위한 도면이다.
도 7은 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템에 의해 글자 영역 분석을 설명하기 위한도면이다.
도 8은 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 방법 중, 문서를 판독하는 단계의 플로우차트이다.
1 is a block diagram of a machine learning-based AI blue OCR reading system according to the present invention.
2 is a block diagram of an OCR device of a machine learning-based AI blue OCR reading system according to the present invention.
3 is a diagram for explaining character correction of the AI blue OCR reading system based on machine learning according to the present invention.
4 is a diagram showing examples of various tables and graphs displayed on the display unit of the machine learning-based AI blue OCR reading system according to the present invention.
5 is a flowchart of a machine learning-based AI blue OCR reading method according to the present invention.
6 is a diagram for explaining the step of uploading a file in the machine learning-based AI blue OCR reading method according to the present invention.
7 is a diagram for explaining character area analysis by the AI blue OCR reading system based on machine learning according to the present invention.
8 is a flowchart of a document reading step in a machine learning-based AI blue OCR reading method according to the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. The terms or words used in this specification and claims should not be construed as being limited to ordinary or dictionary meanings, and the inventors may appropriately define the concept of terms in order to explain their invention in the best way. Based on the principle that there is, it should be interpreted as meaning and concept consistent with the technical spirit of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가 장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, since the embodiments described in this specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention and do not represent all of the technical ideas of the present invention, they can be substituted at the time of this application It should be understood that there may be many equivalents and variations.

이하, 첨부된 도면을 참조하여 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템에 대해 좀더 구체적으로 설명한다.Hereinafter, a machine learning-based AI blue OCR reading system according to the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 구성도이다.1 is a block diagram of a machine learning-based AI blue OCR reading system according to the present invention.

도 1에 도시된 바와 같이 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템은 OCR 장치(100)와 복수의 OCR 장치들과 연결된 OCR 서버(200)를 포함한다.As shown in FIG. 1, the machine learning-based AI blue OCR reading system according to the present invention includes an OCR device 100 and an OCR server 200 connected to a plurality of OCR devices.

상기 OCR 장치(100)는 도 2에 도시된 바와 같이 문서 입력부(110), 주제어부(120), 학습부(130), 표시부(140), 글자 보정부(150), 통신부(160), 데이터 베이스부(170)를 포함한다.As shown in FIG. 2, the OCR device 100 includes a document input unit 110, a main control unit 120, a learning unit 130, a display unit 140, a character correction unit 150, a communication unit 160, data A base portion 170 is included.

상기 OCR 서버(200)는 복수의 상기 OCR 장치(100)과 연결되어 OCR 장치(100)들에서 학습을 통해 생성되는 학습모델을 전달받아, 복수의 학습모델을 종합적으로 병합하여 인식률이 높은 학습모델을 생성한다.The OCR server 200 is connected to the plurality of OCR devices 100, receives learning models generated through learning from the OCR devices 100, and comprehensively merges the plurality of learning models to form a learning model with a high recognition rate. generate

상기 OCR 서버(200)는 상술한 바와 같이 인식률이 높은 학습모듈을 생성하여 기존 OCR 장치(100) 뿐만 아니라 신규로 설치되는 OCR 장치(100)에 배포함으로 해당 OCR 장치(100)의 성능을 향상시킨다.As described above, the OCR server 200 generates a learning module with a high recognition rate and distributes it to the newly installed OCR device 100 as well as the existing OCR device 100 to improve the performance of the corresponding OCR device 100. .

상기 문서 입력부(110)는 스캔방식으로 복수의 페이지로 이루어진 이미지 문서, 또는 PDF 문서를 머신러닝 기반의 AI 블루 OCR 판독 시스템에 입력하는 수단이다.The document input unit 110 is a means for inputting an image document or a PDF document consisting of a plurality of pages into a machine learning-based AI blue OCR reading system in a scanning manner.

상기 이미지 문서는 상기 입력부(100)를 통해서도 입력될 수 있지만, 한글, 워드, 또는 PDF 등으로 작성되어 변환된 이미지 문서일 수 있다.The image document may be input through the input unit 100, but may be an image document created and converted in Korean, Word, or PDF.

또한, 상기 문서 입력부(110)는 USB 포트를 통해 이미 이미지화된 문서를 USB 메모리로부터 입력받을 수도 있다.In addition, the document input unit 110 may receive an already imaged document from a USB memory through a USB port.

특히, 상기 이미지 문서는 공공기관의 신고증명서, 확인 증명서, 수집.운반증, 사업자등록증 , 부동산 등기부, 가족관계증명서, 인감증명서 등을 인식하거나, 금융기관, 보험사, 또는 카드사의 금융정보 유예사유, 부동산 감정 평가서, 주민등록증, 운전면허증, 외국인 등록증, 각종 자격증 등을 인식하거나, 제조사, 유통사 등의 설비기술자료/도면, 검수입고증, 입출고명세서, 검사일지, 장비수리일지, 주문서, 거래명세서 등 각종 양식에 컨텐츠가 포함된 문서일 수 있다.In particular, the image document recognizes a public institution's report certificate, confirmation certificate, collection/transport certificate, business registration certificate, real estate register, family relation certificate, seal certificate, etc. Real estate appraisal report, resident registration card, driver's license, alien registration card, recognition of various qualifications, equipment technical data/drawings from manufacturers and distributors, inspection receipts, receipt and release statements, inspection logs, equipment repair logs, orders, transaction statements, etc. It can be a document with content included in the form.

상기 주제어부(120)는 상기 문서 입력부(100)를 통해 입력되는 각종 문서를 수신받아 인식하고 데이터 베이스부(160)에 저장한다.The main controller 120 receives, recognizes, and stores various documents input through the document input unit 100 in the database unit 160 .

상기 주제어부(120)는 상기 문서 입력부(110)를 통해 입력되는 각종 문서를 상기 데이터 베이스부(160)에 저장하면서 동시에 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 장치를 관리하는 상기 OCR 서버(100)에 저장할 수도 있다.The main control unit 120 stores various documents input through the document input unit 110 in the database unit 160 and at the same time manages the machine learning-based AI blue OCR device according to the present invention. The OCR server ( 100) can also be stored.

즉, 상기 주제어부(120)는 상기 통신부(160)를 통해 상기 OCR 서버(100)와 통신하면서 해당 OCR 서버(100)에 저장될 수 있도록 상기 문서 입력부(110)를 통해 입력되는 각종 문서를 전달한다.That is, the main controller 120 communicates with the OCR server 100 through the communication unit 160 and transmits various documents input through the document input unit 110 so that they can be stored in the corresponding OCR server 100. do.

상기 주제어부(120)는 상기 학습부(130)에 의해 이미 학습된 학습모델인 EasyOCR 프로그램을 통해 상기 데이터 베이스부(170)에서 로드되거나, 문서 입력부(110)를 통해 입력되는 파일에 문자를 인식하고 추출한다.The main control unit 120 recognizes characters in a file loaded from the database unit 170 through the EasyOCR program, which is a learning model already learned by the learning unit 130, or input through the document input unit 110. and extract

상기 주제어부(120)는 인식된 글자 이미지와 해당 글자를 찾아 박싱처리하여 각각의 글자 이미지와 해당 글자를 상기 데이터 베이스(180)에 저장한다.The main controller 120 searches for recognized character images and corresponding characters, performs boxing processing, and stores each character image and corresponding characters in the database 180 .

이때, 상기 글자 보정부(150)는 도 3a에 도시된 바와 같이 인식 및 추출된 이미지와 글자를 확인한 후 잘못 인식된 글자에 대한 글자를 보정하여 저장한다.At this time, as shown in FIG. 3A, the character correction unit 150 confirms the recognized and extracted image and characters, corrects and stores the characters for the erroneously recognized characters.

특히, 상기 주제어부(120)는 이미지 내에서 각종 양식의 표(Tabel)를 자동으로 인식하고 추출하는데, 이미지 내의 표에서 행과 열의 교차함에 따라 형성되는 교차점에 대한 좌표정보로 표를 인식하여 추출할 수 있다.In particular, the main controller 120 automatically recognizes and extracts tables of various formats within an image, and recognizes and extracts tables with coordinate information about intersections formed by the intersection of rows and columns in a table within an image. can do.

특히, 상기 주제어부(120)는 상기 교차점의 좌표정보로 칸의 가로와 세로의 길이 산출하거나, 또는 칸의 넓이를 산출하여 특정 양식을 인식함으로써 이미지 문서를 분류할 수도 있다.In particular, the main control unit 120 may classify image documents by calculating the length and width of a cell using the coordinate information of the intersection point or recognizing a specific format by calculating the width of a cell.

또한, 상기 주제어부(120)는 복수의 특정 칸들의 상기 가로와 세로의 길이, 넓이, 그리고 배열된 위치를 고려하여 특정 문서의 양식을 인식하고 분류할 수 있다. In addition, the main control unit 120 may recognize and classify the form of a specific document in consideration of the horizontal and vertical lengths, widths, and arrangement positions of the plurality of specific cells.

상기 주제어부(120)는 직사각형 모양의 이미지 문서를 동일한 너비의 n×m으로 격자를 형성하고, 두 대각선의 교차점을 중심으로 정하여 교차점의 좌표정보를 획득하는 것이 바람직하다.Preferably, the main control unit 120 forms a lattice of rectangular image documents with n×m of the same width and determines the intersection point of two diagonal lines as a center to obtain coordinate information of the intersection point.

이후, 상기 주제어부(120)는 도 3b에 도시된 바와 같이 인식 및 추출된 글자 중, 추가 학습이 필요한 대상을 선정한다.Then, as shown in FIG. 3B, the main control unit 120 selects a subject requiring additional learning from among the recognized and extracted letters.

이때, 상기 주제어부(120)는 특정 단어가 DB화된 국어사전, 또는 영어 사전에 없는 단어이거나, 문맥상 말이 되지 않은 부분에 대해 추가 학습이 필요한 대상으로 선정하는 것이 바람직하다. At this time, it is preferable that the subject word unit 120 selects a specific word as a subject requiring additional learning for a word that does not exist in a DBized Korean dictionary or an English dictionary, or that does not make sense in context.

상기 학습부(130)는 상기 주제어부(120)가 추가 학습이 필요한 대상을 선정하면, 학습 대상 데이터의 글자 이미지와 글자 정보를 상기 데이터 베이스부(170)에서 가져온다.When the main control unit 120 selects an object requiring additional learning, the learning unit 130 brings the character image and character information of the learning target data from the database unit 170 .

이때, 상기 학습부(130)는 신규 학습대상 및 기존 학습건 모두를 가져와 학습을 수행하는 것이 바람직하다.At this time, it is preferable that the learning unit 130 performs learning by bringing both new learning subjects and existing learning subjects.

또한, 이때 상기 학습부(130)는 상기 주제어부(120)가 선정한 추가 학습이 필요한 대상의 데이터 크기가 학습에 필요한 최소 크기를 만족하지 못 할 정도로 너무 작은 경우 학습을 위한 글자 이미지를 임의로 자체 생성하여 학습에 이용하는 것이 바람직하다.In addition, at this time, the learning unit 130 arbitrarily self-generates a character image for learning when the data size of an object that requires additional learning selected by the main control unit 120 is too small to satisfy the minimum size required for learning. It is desirable to use it for learning.

상기 학습부(130)는 빠른 학습을 위해 학습 데이터셋을 생성하고, 해당 학습 데이터셋으로 글자인식 학습을 수행하되, 학습시, easyocr에서 제공하는 사전학습 모델을 사용한다.The learning unit 130 creates a learning dataset for quick learning, and performs letter recognition learning with the learning dataset, but uses a pre-learning model provided by easyocr during learning.

상기 학습부(130)는 학습된 학습모델을 신규 문서 인식 및 추출에 사용될 수 있도록 상기 데이터 베이스(180)의 학습모델 폴더에 저장한다.The learning unit 130 stores the learned learning model in the learning model folder of the database 180 so that it can be used for recognizing and extracting new documents.

상기 학습부(130)는 이미지 변환과 OCR 등 핵심 학습 로직(Logic)이 파이썬(PYTHON)으로 구현되어 사용자의 요구에 따라 다른 모듈로 쉽게 변경이 가능하고 업그레이드도 용이하다.In the learning unit 130, core learning logic such as image conversion and OCR is implemented in Python, so that it can be easily changed to other modules according to the user's needs and can be easily upgraded.

상기 학습부(130)는 최초 기본 모델로 OCR 인식 후, 인식한 문자와 사람이 확인한 문자 결과를 비교하여 데이터를 작성한다.The learning unit 130 creates data by comparing the recognized text and the result of the text confirmed by a human after OCR recognition with the first basic model.

상기 표시부(140)는 도 4에 도시된 바와 같이 다양한 데이터(Data) 처리 개수와 그래프(Graph)를 제공하여 시각화 한다.As shown in FIG. 4, the display unit 140 provides and visualizes the number of processed data and a graph.

또한, 상기 표시부(140)는 한 화면에 파일을 업로드하고 문서 인식 목록, 원본 문서, 추출 데이터를 동시에 확인하면서 작업이 가능하도록 기능이 구현되어 있다.In addition, the display unit 140 has a function implemented to upload a file on one screen and work while simultaneously checking a document recognition list, an original document, and extracted data.

한편, 상기 통신부(160)는 본 발명에 따른 다른 머신러닝 기반의 AI 블루 OCR 장치와 상기 학습부(130)에 의해 학습된 학습모델을 공유할 수 있도록 상기 학습부(130)에 의해 학습된 학습모델을 상기 OCR 서버(200)에 전달한다.On the other hand, the communication unit 160 learns the learning learned by the learning unit 130 to share the learning model learned by the learning unit 130 with other machine learning-based AI blue OCR devices according to the present invention. The model is transmitted to the OCR server 200.

상기 데이터 베이스부(170)는 복수의 머신러닝 기반의 AI 블루 OCR 장치들로부터 전달되는 학습모델을 전달받아 최신 버전으로 업데이트 될 수 있다.The database unit 170 may be updated to the latest version by receiving a learning model transmitted from a plurality of machine learning-based AI blue OCR devices.

즉, 본 발명에 따른 다른 머신러닝 기반의 AI 블루 OCR 장치는 학습 대상인 이미지에 대해 학습된 최신의 학습모델로 다시 인식하고 해당 결과로 상기 데이터 베이스부(170)를 업데이트 하면서 동시에 상기 OCR 서버(200)를 업데이트한다.That is, another machine learning-based AI blue OCR device according to the present invention re-recognizes the learning target image as the latest learning model and updates the database unit 170 with the result, while simultaneously updating the OCR server 200. ) to update.

상술한 바와 같은 구성을 갖는 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 장치에 의하 판독 방법에 대해 도 5를 참조하여 좀더 구체적으로 설명한다.A reading method by the machine learning-based AI blue OCR reading device according to the present invention having the above configuration will be described in more detail with reference to FIG. 5 .

먼저, 도 5에 도시된 바와 같이 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 장치(100)는 사용자의 조작에 따라 문서 입력부(110)를 통해 이미지 문서 또는 PDF 문서를 입력 받아 업로드 하는 단계를 수행한다(S100).First, as shown in FIG. 5, the machine learning-based AI blue OCR device 100 according to the present invention performs the step of receiving and uploading an image document or PDF document through the document input unit 110 according to the user's manipulation. Do (S100).

즉, 도 6a에 도시된 바와 같이 OCR 장치(100)는 신규로 파일을 업로드 한 후, TB_OCR_DOC_MST, TB_OCR_FILE 테이블에 업로드 상태로 등록하고, 등록된 정보 중 특정 키 값을 파라미터로 하여 aiblue_ocr.py 비동기식 호출할 수 있다.That is, as shown in FIG. 6A, the OCR device 100 uploads a new file, registers it in the TB_OCR_DOC_MST and TB_OCR_FILE tables as an upload state, and calls aiblue_ocr.py asynchronously with a specific key value among the registered information as a parameter. can do.

상기 OCR 장치(100)는 화면상에서 현재 업로드 중인 상태로 TB_OCR_DOC_MST를 재조회할 수 있다.The OCR device 100 may re-query TB_OCR_DOC_MST in a state currently being uploaded on the screen.

상기 OCR 장치(100)는 상기 키 값으로 업로드한 파일의 위치 또는 종류 등의 정보를 조회할 수 있는데, PDF 파일인 경우 키 값으로 각 페이지별로 이미지 파일 생성, 페이지수를 체크할 수 있다.The OCR device 100 can search information such as the location or type of the uploaded file with the key value. In the case of a PDF file, it can create an image file for each page with a key value and check the number of pages.

상기 OCR 장치(100)의 주제어부(120)는 업로드된 파일을 데이터 베이스부(170)에 저장하는 단계를 수행한다(S200).The main control unit 120 of the OCR device 100 performs a step of storing the uploaded file in the database unit 170 (S200).

상기 S200단계에서 상기 주제어부(120)는 업로드된 파일을 상기 데이터 베이스부(170)에 저장하면서 상기 OCR 서버(200)에도 전달하여 저장되도록 한다.In the step S200, the main control unit 120 stores the uploaded file in the database unit 170 and transmits the uploaded file to the OCR server 200 to be stored.

상기 주제어부(120)는 이미 학습된 학습모델을 실행시키는 단계를 수행한다(S300).The main control unit 120 performs a step of executing the already learned learning model (S300).

상기 주제어부(120)는 상기 학습모델을 실행시킨 후, 상기 S100단계에서 업로드된 PDF 이미지 파일 판독을 위해 로드 하는 단계를 수행한다(S400).After executing the learning model, the main control unit 120 performs a loading step for reading the PDF image file uploaded in step S100 (S400).

상기 S400단계에서 복수의 페이지로 이루어진 PDF 이미지 파일에 대해 적어도 2장 이상의 페이지를 소정 비율로 축소하여 한번에 복수의 페이지를 판독할 수 있도록 하는 것이 바람직하다. In the step S400, it is preferable to reduce at least two or more pages of a PDF image file composed of a plurality of pages at a predetermined ratio so that the plurality of pages can be read at once.

상기 주제어부(120)는 도 7a에 도시된 바와 같이 상기 이미지 문서 내 글자 영역을 박스처리하여 상기 이미지 파일 내 글자 영역을 분석하는 단계를 수행한다(S500).As shown in FIG. 7A , the main controller 120 performs a step of analyzing the text area in the image file by box-processing the text area in the image document (S500).

상기 S400 단계에서 상기 주제어부(120)는 도 7b에 도시된 바와 같이 글자 영역 박스의 좌하단 모서리의 x좌표, 글자 영역 박스의 좌하단 모서리의 y좌표, 글자영역 박스의 가로 길이, 글자 영역 박스의 세로 길이, 인식된 글자, 인식된 글자의 정확도 처리를 통해 이미지 내 글자 영역을 분석한다.In the step S400, the main controller 120 determines the x coordinate of the lower left corner of the text area box, the y coordinate of the lower left corner of the text area box, the horizontal length of the text area box, and the text area box as shown in FIG. 7B. The character area in the image is analyzed through the vertical length of the image, the recognized character, and the accuracy of the recognized character.

즉, 상기 주제어부(120)는 박스의 가로 길이로 단어 또는 문장의 길이를 파악하고, 가로 길이와 세로 길이로 글자를 크기를 파악하며, 글자 영역 박스의 좌하단 모서리의 x좌표, 글자 영역 박스의 좌하단 모서리의 y좌표를 기준으로 글자의 위치를 파악할 수 있다.That is, the main control unit 120 determines the length of a word or sentence by the horizontal length of the box, determines the size of a character by the horizontal length and vertical length, and determines the x-coordinate of the lower left corner of the text area box and the text area box. The position of the character can be determined based on the y-coordinate of the lower left corner of the .

이때, 상기 주제어부(120)는 이미지 페이지의 대각선이 만나는 중심을 기준으로 가로방향과 세로방향에 등간격의 격자를 형성시켜, 글자 영역 박스의 좌하단 모서리의 x좌표와, 글자 영역 박스의 좌하단 모서리의 y좌표를 파악할 수 있다. At this time, the main controller 120 forms a lattice at equal intervals in the horizontal and vertical directions based on the center where the diagonal lines of the image page meet, and measures the x-coordinate of the lower left corner of the text area box and the left left corner of the text area box. You can determine the y-coordinate of the bottom edge.

상기 주제어부(120)는 상술한 바와 같은 방식으로 문서 양식에 있는 칸들의 개수와 위치, 그리고 너비 등을 파악하여 문서를 분류할 수도 있다.The main control unit 120 may classify documents by grasping the number, position, and width of columns in the document form in the manner described above.

상기 주제어부(120)는 각 글자 영역에 해당하는 이미지 파일을 생성하여 그 경로를 TEXT_IMAGE_PATH에 저장한다.The main controller 120 creates an image file corresponding to each character area and stores the path in TEXT_IMAGE_PATH.

또한, 상기 주제어부(120)는 도 7a 도시된 바와 같이 서로 다른 컬러로 구분하여 페이지 별로 저장한다.In addition, the main controller 120 classifies the data into different colors and stores them for each page, as shown in FIG. 7A.

이때, 상기 주제어부(120)는 각 글자 영역 중, 가장 큰 영역에서 인식된 문자열을 해당 페이지의 문서명으로 저장하는 것이 바람직하다.At this time, it is preferable that the main control unit 120 stores the character string recognized in the largest area of each character area as the document name of the corresponding page.

즉, 상기 주제어부(120)는 복수의 페이지로 이루어진 PDF 이미지 파일에 대해 페지별로 가장 큰 영역에서 인식된 문자열을 문서명으로 저장한다.That is, the main control unit 120 stores a character string recognized in the largest area for each page as a document name for a PDF image file composed of a plurality of pages.

상기 S500단계에서 상기 주제어부(120)는 학습모델을 실행시켜 이미지 파일 내 글자 영역을 분석하는 과정에서 추가 학습이 필요한지 판단하는 단계를 수행한다(S600).In the step S500, the main controller 120 executes the learning model and determines whether additional learning is necessary in the process of analyzing the character area in the image file (S600).

상기 S600 단계에서 상기 주제어부(120)는 특정 단어가 사전에 없는 단어이거나, 특수문자, 숫자, 괄호 등이 문장에 포함된 구조로 문맥상 말이 되지 않은 부분에 대해 추가 학습이 필요한 대상으로 판단하는 것이 바람직하다.In step S600, the main control unit 120 determines that a specific word is a word that does not exist in the dictionary, or that a structure in which special characters, numbers, parentheses, etc. are included in a sentence requires additional learning for the part that does not make sense in context it is desirable

상기 S600 단계에서 추가 학습이 필요한 경우, 상기 학습부(130)가 주제어부(120)로부터 추가 학습이 필요한 파일을 전달받아 추가 학습을 진행하는 단계를 수행한다(S700).If additional learning is required in step S600, the learning unit 130 receives a file requiring additional learning from the main control unit 120 and performs additional learning (S700).

상기 S700 단계에서 상기 학습부(130)는 상호명에 포함될 수 있는 신조어 또는 문장 구조 등을 관리자 단말기를 통해 입력 받을 수 있고, 인터넷 통신으로 연결된 포털 사이트 등으로부터 수집하여 학습하여 학습모델을 업데이트할 수 있다.In the step S700, the learning unit 130 may receive new words or sentence structures that may be included in a business name through an administrator terminal, collect and learn from a portal site connected through Internet communication, and update a learning model. .

상술한 바와 같이 추가 학습을 통해 본 발명에 따른 머신러닝 기반의 AI 블루 OCR 판독 시스템의 OCR 장치(100)는 새로운 문장 구조와 신조어 등을 학습함으로써 이미지 문서에 대한 판독 정확도를 향상시킬 수 있다.As described above, through additional learning, the OCR device 100 of the machine learning-based AI blue OCR reading system according to the present invention can improve reading accuracy for image documents by learning new sentence structures and new words.

반면, 상기 S600 단계에서 추가 학습이 불필요한 경우, 상기 주제어부(120)는 상기 S500 단계에서 글자 영역 분석이 완료된 문서를 판독하는 단계를 수행한다(S800).On the other hand, if additional learning is unnecessary in step S600, the main control unit 120 performs a step of reading the document for which character area analysis has been completed in step S500 (S800).

상기 S800 단계에서 상기 주제어부(120)는 상기 S700 단계에서 추가 학습이 있었던 경우 학습 데이터를 반영하여 문서 판독을 진행하는 것이 바람직하다.In the step S800, the main control unit 120 preferably proceeds with reading the document by reflecting the learning data when there is additional learning in the step S700.

상기 S800 단계에 대해 도 8을 참조하여 더욱 구체적으로 설명하면, 상기 주제어부(120)는 학습부(130)가 학습한 학습데이터가 있는지 확인하는 단계를 수행한다(S810).[0080] [0051] Referring to the step S800 in more detail with reference to FIG. 8, the main control unit 120 performs a step of checking whether there is learning data learned by the learning unit 130 (S810).

상기 S810 단계에서 추가된 학습 데이터 있는 경우 상기 주제어부(120)는 학습 데이터를 문서 판독에 반영하는 단계를 수행한다(S820).If there is learning data added in step S810, the main controller 120 performs a step of reflecting the learning data to document reading (S820).

상기 S810 단계에서 추가된 학습 데이터 없는 경우 상기 주제어부(120)는 바로 글자 영역에 대한 분석이 완료된 이미지 문서에서 문자를 인식하는 단계를 수행한다(S830).If there is no training data added in the step S810, the main control unit 120 immediately performs a step of recognizing a character in an image document for which analysis of the character area has been completed (S830).

이후, 상기 주제어부(120)는 문서의 제목을 인식하는 단계를 수행한다(S840).Then, the main control unit 120 performs a step of recognizing the title of the document (S840).

이때, 상기 주제어부(120)는 이미지 원본 파일을 축소해서 타이틀 부분을 제외하고 다른 글씨를 뭉개 타이틀만 인식하는 것이 바람직하다.At this time, it is preferable that the main control unit 120 reduces the original image file, excludes the title part, and recognizes only the title by crushing other characters.

또한, 상기 주제어부(120)는 타이틀만 인식할 수 있을 정도의 축소 비율을 찾아서 타이틀만 인식한다.In addition, the main control unit 120 finds a reduction ratio sufficient to recognize only the title and recognizes only the title.

상기 주제어부(120)는 상기 S840 단계에서 인식한 문서의 제목에 근거하여 문서 유형을 판별하는 단계를 수행한다(S850).The main controller 120 determines the document type based on the title of the document recognized in step S840 (S850).

상기 표시부(140)는 상기 주제어부(120)의 제어에 따라 문서의 판독 결과를 표시하고 동시에 상기 주제어부(120)는 문서의 판독 결과를 데이터 베이스부(170)에 저장하는 단계를 수행한다(S900).The display unit 140 displays the document reading result under the control of the main control unit 120, and at the same time, the main control unit 120 performs a step of storing the document reading result in the database unit 170 ( S900).

이상에서는 본 발명에 대한 기술사상을 첨부 도면과 함께 서술하였지만 이는 본 발명의 바람직한 실시 예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구나 본 발명의 기술적 사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다.In the above, the technical idea of the present invention has been described together with the accompanying drawings, but this is an illustrative example of a preferred embodiment of the present invention, but does not limit the present invention. In addition, it is obvious that various modifications and imitations can be made by anyone having ordinary knowledge in the technical field to which the present invention belongs without departing from the scope of the technical idea of the present invention.

100 : OCR 장치
110 : 문서 입력부
120 : 주제어부
130 : 학습부
140 : 표시부
150 : 글자 보정부
160 : 통신부
170 : 데이터 베이스부
200 : OCR 서버
100: OCR device
110: document input unit
120: main fisherman
130: learning unit
140: display unit
150: character correction unit
160: communication department
170: database unit
200: OCR server

Claims (12)

다양한 양식의 문서를 입력 받아 머신러닝 기반으로 학습된 학습모델을 이용하여 문서의 문자와 각 양식의 칸의 형태를 분석하고 입력된 이미지 문서를 복수의 페이지씩 한 번에 판독하는 OCR 장치; 및
복수의 상기 OCR 장치들로부터 학습모델을 전달받아 병합하여 문서 인식률이 향상된 학습모델을 생성하고, 해당 학습모델을 상기 OCR 장치에 배포하는 OCR 서버;를 포함하되,
상기 OCR 장치는
복수 페이지의 이미지 문서가 입력되는 문서 입력부;
상기 문서 입력부를 통해 입력되는 각종 문서를 수신받아 저장하고 각종 동작을 제어하는 주제어부;
상기 주제어부가 추가 학습이 필요한 대상을 선정하면 선정한 문서의 글자 이미지를 가져와 학습을 수행하는 학습부;
한 화면에 상기 문서를 업로드하고 문서 인식 목록, 원본 문서, 추출 데이터를 동시에 확인하면서 작업이 가능하도록 표시하는 표시부;
인식 및 추출된 글자 이미지를 확인한 후 잘못 인식된 글자에 대한 글자를 보정하는 글자 보정부;
상기 OCR 서버와 통신을 통해 데이터의 송수신을 가능하게 하는 통신부; 및
상기 문서 입력부를 통해 입력되는 문서를 저장관리하는 데이터 베이스부;를 포함하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 시스템.
An OCR device that receives documents of various formats, analyzes the shape of the text of the document and the form of each form using a learning model learned based on machine learning, and reads the input image document by a plurality of pages at once; and
An OCR server for generating a learning model with an improved document recognition rate by receiving and merging learning models from a plurality of OCR devices, and distributing the learning model to the OCR device;
The OCR device
a document input unit into which image documents of multiple pages are input;
a main controller for receiving and storing various documents input through the document input unit and controlling various operations;
a learning unit that, when the subject control unit selects an object requiring additional learning, brings a character image of the selected document and performs learning;
a display unit that uploads the document on one screen and simultaneously checks the document recognition list, the original document, and the extracted data and displays them so that work is possible;
a character correction unit that checks the recognized and extracted character images and then corrects the incorrectly recognized characters;
a communication unit enabling transmission and reception of data through communication with the OCR server; and
A machine learning-based AI blue OCR reading system comprising a; database unit for storing and managing documents input through the document input unit.
삭제delete 제 1항에 있어서,
상기 주제어부는
상기 문서 입력부를 통해 입력된 이미지 문서를 소정 비율로 축소하여 복수의 페이지씩 한 번에 판독하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 시스템.
According to claim 1,
The main control part
A machine learning-based AI blue OCR reading system, characterized in that the image document input through the document input unit is reduced at a predetermined ratio and read a plurality of pages at a time.
제 1항에 있어서,
상기 주제어부는
상기 문서의 타이틀만 인식할 수 있을 정도의 축소 비율로 문서를 축소하여 해당 문서의 유형을 분류하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 시스템.
According to claim 1,
The main control part
A machine learning-based AI blue OCR reading system, characterized in that for classifying the type of the document by reducing the document at a reduction ratio sufficient to recognize only the title of the document.
제 1항에 있어서,
상기 주제어부는
상기 문서의 각 글자 영역 중, 가장 큰 영역에서 인식된 문자열을 해당 페이지의 문서명으로 저장하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 시스템.
According to claim 1,
The main control part
A machine learning-based AI blue OCR reading system, characterized in that for storing the character string recognized in the largest area of each character area of the document as the document name of the page.
제 1항에 있어서,
상기 주제어부는
상기 문서 내의 표에서 행과 열이 교차함에 따라 형성되는 교차점의 좌표정보로 칸의 가로와 세로의 길이 산출하거나, 또는 칸의 넓이를 산출하여 특정 양식을 인식함으로써 문서의 유형을 분류하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 시스템.
According to claim 1,
The main control part
Characterized in that the type of document is classified by recognizing a specific format by calculating the length and width of a cell or calculating the width of a cell with coordinate information of an intersection point formed as rows and columns intersect in a table in the document. A machine learning-based AI blue OCR reading system.
제 1항에 있어서,
상기 주제어부는
특정 단어가 사전에 없는 단어이거나, 문맥에 맞지 않은 부분에 대해 추가 학습이 필요한 대상으로 선정하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 시스템.
According to claim 1,
The main control part
A machine learning-based AI blue OCR reading system that selects specific words that do not exist in the dictionary or that do not fit the context as subjects requiring additional learning.
(a) 머신러닝 기반의 AI 블루 OCR 장치가 문서 입력부를 통해 이미지 문서를 입력받는 단계;
(b) 상기 OCR 장치의 주제어부가 업로드된 파일을 데이터 베이스부에 저장하는 단계;
(c) 상기 주제어부가 학습된 학습모델을 실행시키는 단계;
(d) 상기 주제어부가 상기 이미지 문서를 판독하기 위해 복수의 페이지씩 로드 하는 단계;
(e) 상기 주제어부가 상기 이미지 문서 내 글자 영역을 박스처리하여 해당 글자 영역을 분석하는 단계;
(f) 상기 주제어부가 상기 학습모델을 실행시켜 이미지 파일 내 글자 영역을 분석하는 과정에서 추가 학습이 필요한지 판단하는 단계;
(g) 상기 (f)단계에서 추가 학습이 필요한 경우, 상기 주제어부의 제어로 학습부가 추가 학습이 필요한 파일을 전달받아 추가 학습을 진행하는 단계; 및
(h) 상기 주제어부가 상기 (f)단계에서 추가 학습이 불필요한 경우, 상기 주제어부가 상기 (e) 단계에서 글자 영역 분석이 완료된 문서를 판독하는 단계;를 포함하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 방법.
(a) the machine learning-based AI blue OCR device receiving an image document through a document input unit;
(b) storing the uploaded file by the main control unit of the OCR device in a database unit;
(c) executing the learned learning model by the main controller;
(d) loading, by the main controller, a plurality of pages to read the image document;
(e) analyzing, by the main controller, the text area in the image document by boxing the text area;
(f) determining whether additional learning is necessary in the process of analyzing a character area in an image file by executing the learning model by the main controller;
(g) if additional learning is required in step (f), the learning unit receives the file requiring additional learning under the control of the main control unit and proceeds with additional learning; and
(h) if the main control unit does not require additional learning in the step (f), the main control unit reading the document for which the character area analysis has been completed in the step (e); Blue OCR reading method.
삭제delete 제 8항에 있어서,
상기 (h)단계는
(h-1) 상기 주제어부가 상기 학습부에 의해 학습된 학습데이터가 있는지 확인하는 단계;
(h-2) 상기 (h-1)단계에서 상기 학습데이터가 있는 경우, 상기 주제어부가 해당 학습 데이터를 문서 판독에 반영하는 단계;
(h-3) 상기 (h-1)단계에서 추가된 학습 데이터 없는 경우 상기 주제어부가 글자 영역에 대한 분석이 완료된 이미지 문서에서 문자를 인식하는 단계;
(h-4) 상기 주제어부가 문서의 제목을 인식하는 단계;
(h-5) 상기 주제어부가 상기 (h-4)단계에서 인식한 문서의 제목으로 문서 유형을 판별하는 단계;를 포함하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 방법.
According to claim 8,
The step (h) is
(h-1) checking whether the main control unit has learning data learned by the learning unit;
(h-2) if there is the learning data in step (h-1), the main control unit reflects the corresponding learning data to document reading;
(h-3) if there is no training data added in the step (h-1), recognizing a character in the image document for which the analysis of the character area has been completed by the main control unit;
(h-4) recognizing the title of the document by the main control unit;
(h-5) determining, by the main control unit, the document type based on the title of the document recognized in step (h-4);
제 8항에 있어서,
상기 (d)단계에서,
상기 주제어부가 상기 이미지 문서를 판독하기 위해 복수의 페이지씩 로드할 때 해당 이미지 문서를 소정 비율로 축소하는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 방법.
According to claim 8,
In step (d),
The AI blue OCR reading method based on machine learning, characterized in that when the main controller loads the image document by a plurality of pages to read the image document, the corresponding image document is reduced by a predetermined ratio.
제 10항에 있어서,
상기 주제어부가 상기 (h-5)단계에서 문서에 있는 복수의 특정 칸들의 가로와 세로의 길이, 넓이, 그리고 배열된 위치를 파악하여 문서의 양식을 인식하고 분류할 수 있는 것을 특징으로 하는 머신러닝 기반의 AI 블루 OCR 판독 방법.
According to claim 10,
Machine learning, characterized in that the main control unit can recognize and classify the form of the document by identifying the length, width, and arranged position of a plurality of specific columns in the document in the step (h-5) based AI blue OCR reading method.
KR1020230024875A 2023-02-24 2023-02-24 Ai blue ocr reading system and method based on machine learning KR102561878B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230024875A KR102561878B1 (en) 2023-02-24 2023-02-24 Ai blue ocr reading system and method based on machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230024875A KR102561878B1 (en) 2023-02-24 2023-02-24 Ai blue ocr reading system and method based on machine learning

Publications (1)

Publication Number Publication Date
KR102561878B1 true KR102561878B1 (en) 2023-08-01

Family

ID=87561354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230024875A KR102561878B1 (en) 2023-02-24 2023-02-24 Ai blue ocr reading system and method based on machine learning

Country Status (1)

Country Link
KR (1) KR102561878B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102013329B1 (en) 2012-08-23 2019-08-22 삼성전자 주식회사 Method and apparatus for processing data using optical character reader
KR102124568B1 (en) * 2019-11-06 2020-06-18 주식회사 라스컴 System for payment solution service based on object recognition in image with machine learning using artificial intelligent
KR20220043274A (en) * 2020-09-29 2022-04-05 이용재 Optical character recognition device and the control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102013329B1 (en) 2012-08-23 2019-08-22 삼성전자 주식회사 Method and apparatus for processing data using optical character reader
KR102124568B1 (en) * 2019-11-06 2020-06-18 주식회사 라스컴 System for payment solution service based on object recognition in image with machine learning using artificial intelligent
KR20220043274A (en) * 2020-09-29 2022-04-05 이용재 Optical character recognition device and the control method thereof

Similar Documents

Publication Publication Date Title
US10824801B2 (en) Interactively predicting fields in a form
US10572725B1 (en) Form image field extraction
US20200065601A1 (en) Method and system for transforming handwritten text to digital ink
CN110751143A (en) Electronic invoice information extraction method and electronic equipment
WO1997005561A1 (en) Medium processor and medium processing method
US6320983B1 (en) Method and apparatus for character recognition, and computer-readable recording medium with a program making a computer execute the method recorded therein
CN112508011A (en) OCR (optical character recognition) method and device based on neural network
TW200416583A (en) Definition data generation method of account book voucher and processing device of account book voucher
CN111931771B (en) Bill content identification method, device, medium and electronic equipment
CN113011144A (en) Form information acquisition method and device and server
US10803233B2 (en) Method and system of extracting structured data from a document
WO2021143058A1 (en) Image-based information comparison method, apparatus, electronic device, and computer-readable storage medium
CN109388935A (en) Document verification method and device, electronic equipment and readable storage medium storing program for executing
US20060194187A1 (en) Material processing apparatus, material processing method, and program product
KR102561878B1 (en) Ai blue ocr reading system and method based on machine learning
US6943923B2 (en) Adaptive technology for automatic document analysis
CN107292255A (en) The Handwritten Digit Recognition method of feature based matrix similarity analysis
JP3710068B2 (en) Health insurance card automatic recognition method and apparatus, and geriatric medical insurance card automatic recognition method and apparatus
JPH08320914A (en) Table recognition method and device
JP5134383B2 (en) OCR device, trail management device and trail management system
JP3435374B2 (en) Character reading device and character recognition method
JP2007280413A (en) Automatic input device of financial statement
TWI807467B (en) Key-item detection model building method, business-oriented key-value identification system and method
CN115640952B (en) Method and system for importing and uploading data
US11763585B2 (en) Multi-layer neural network and convolutional neural network for context sensitive optical character recognition

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant