KR102604122B1 - Apparatus and method for classifying images - Google Patents

Apparatus and method for classifying images Download PDF

Info

Publication number
KR102604122B1
KR102604122B1 KR1020210101124A KR20210101124A KR102604122B1 KR 102604122 B1 KR102604122 B1 KR 102604122B1 KR 1020210101124 A KR1020210101124 A KR 1020210101124A KR 20210101124 A KR20210101124 A KR 20210101124A KR 102604122 B1 KR102604122 B1 KR 102604122B1
Authority
KR
South Korea
Prior art keywords
image
coordinates
image classification
text
extracted
Prior art date
Application number
KR1020210101124A
Other languages
Korean (ko)
Other versions
KR20230019523A (en
Inventor
최인영
김동민
이서준
이화영
장동진
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020210101124A priority Critical patent/KR102604122B1/en
Priority to PCT/KR2022/011188 priority patent/WO2023013989A1/en
Publication of KR20230019523A publication Critical patent/KR20230019523A/en
Application granted granted Critical
Publication of KR102604122B1 publication Critical patent/KR102604122B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Abstract

본 개시는 이미지 분류 장치 및 방법에 관한 것으로서, 특히 의료 영상 이미지 내의 키워드 및 좌표를 이용하여 표준 유형에 따라 이미지를 분류하고 텍스트를 추출함으로써, 이미지로부터 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공할 수 있다. 또한, 딥 러닝 알고리즘을 이용하여 의료 영상 이미지를 분류하고 항목화하여 저장함으로써 빅데이터로 활용 가능한 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공할 수 있다.The present disclosure relates to an image classification device and method. In particular, an image classification device capable of generating standardized data from images by classifying images according to standard types and extracting text using keywords and coordinates in medical image images. A method can be provided. In addition, it is possible to provide an image classification device and method that can generate standardized data that can be used as big data by classifying, itemizing, and storing medical image images using a deep learning algorithm.

Description

이미지 분류 장치 및 방법{APPARATUS AND METHOD FOR CLASSIFYING IMAGES}Image classification apparatus and method {APPARATUS AND METHOD FOR CLASSIFYING IMAGES}

본 실시예들은 이미지 분류 장치 및 방법을 제공한다.These embodiments provide an image classification apparatus and method.

전 세계적으로 호흡기 질환은 코로나 바이러스 감염증 19(COVID-19) 출현 이전부터 주요 사망 원인 중 하나입니다. 세계 보건 기구(WHO)의 보고서에 따르면, 폐 관련 중증 질환의 5대 주요 원인은 만성 폐쇄성 폐 질환 (COPD), 천식, 급성하기도 감염, 결핵 (TB) 및 폐암으로 분류되며, 매년 400만 명이 만성 호흡기 질환으로 조기 사망하는 것으로 분석됩니다. 더구나, 최근 COVID-19 유행으로 인해 폐 질환의 발생을 예측하기 위해 많은 연구가 진행되고 있습니다. Globally, respiratory diseases have been one of the leading causes of death even before the emergence of coronavirus disease 19 (COVID-19). According to a report by the World Health Organization (WHO), the five leading causes of serious lung-related diseases are chronic obstructive pulmonary disease (COPD), asthma, acute lower respiratory tract infections, tuberculosis (TB), and lung cancer, with 4 million people suffering from chronic lung disease every year. It is analyzed that premature death occurs due to respiratory disease. Moreover, due to the recent COVID-19 epidemic, many studies are being conducted to predict the occurrence of lung diseases.

최근에는 인공지능 분야의 발전으로 인해 빅데이터의 중요성이 커지고 있습니다. 또한 의료서비스의 트렌드가 치료 중심에서 예방 중심 및 건강관리 중심으로 바뀌고 의료 데이터를 활용한 인공지능(Artificial intelligence, AI) 기술이 발전하고 있습니다. 이렇게 의료분야에서도 인공지능을 이용한 첨단의료기술이 빠르게 발전함에 따라 인공지능의 제작과 학습에 필요한 학습 데이터는 그 어느 때보다 중요한 자산에 해당됩니다. 특히, COVID-19 유행으로 인해 폐 질환의 발생을 예측하기 위해 검사에서 얻은 의료 데이터가 질환 분석에 많이 사용되고 이로 인해 검사와 관련된 표준화된 빅데이터를 필요로 합니다. Recently, the importance of big data is increasing due to developments in the field of artificial intelligence. In addition, the trend in medical services is changing from treatment-centered to prevention-centered and health care-centered, and artificial intelligence (AI) technology using medical data is developing. As cutting-edge medical technology using artificial intelligence develops rapidly in the medical field, the learning data required for the production and learning of artificial intelligence is a more important asset than ever. In particular, due to the COVID-19 epidemic, medical data obtained from tests are widely used in disease analysis to predict the occurrence of lung diseases, which requires standardized big data related to tests.

다만, 의료 데이터는 영상검사결과, 진료기록지, 수술기록지, 간호 기록지 및 혈액 검사 등 많은 데이터를 포함하고 있으나 대부분의 이미지화된 데이터는 영상에서 바로 추출할 수 없고 데이터를 정규화하기 힘들다는 문제점을 가지고 있습니다. 즉, 데이터가 EMR (전자 의료 기록)에 저장되어 있더라도 표준화되지 않은 형식 또는 적절한 통계 분석을 수행 할 수 없는 형식으로 저장되어 있다면 응용 연구를 위한 빅데이터로 활용하기 어렵다는 문제점이 있습니다. However, medical data includes a lot of data such as imaging test results, medical records, surgical records, nursing records, and blood tests, but most imaged data cannot be extracted directly from images and has the problem of making it difficult to normalize the data. . In other words, even if data is stored in an EMR (electronic medical record), it is difficult to utilize it as big data for applied research if it is stored in a non-standardized format or a format that cannot perform appropriate statistical analysis.

이런 상황에서 학습을 위해 양질의 의료 데이터 수천 내지 수만 건을 일일이 수작업으로 분류 또는 항목화하는 작업은 시간과 비용 소모가 매우 많이 필요합니다. 따라서, 환자들로부터 획득한 검사 데이터를 질환 분석에 대한 연구 및 질환 예측을 위한 빅데이터로 활용하기 위해서는 의료 영상 데이터에서 텍스트를 추출하는 기술을 필요로 하고 있습니다. 구체적으로, 의료 영상 데이터를 분류하고 항목화하는 의료 영상 처리 기술을 필요로 하고 있습니다. In this situation, manually classifying or itemizing thousands or tens of thousands of pieces of high-quality medical data for learning is very time-consuming and costly. Therefore, in order to use test data obtained from patients as big data for research on disease analysis and disease prediction, technology to extract text from medical image data is required. Specifically, there is a need for medical image processing technology to classify and itemize medical image data.

이러한 배경에서, 본 실시예들은 의료 이미지를 분류하고 항목화하여 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공하는데 있다. Against this background, the present embodiments provide an image classification device and method that can generate standardized data by classifying and itemizing medical images.

전술한 목적을 달성하기 위하여, 일 측면에서, 본 실시예는, 이미지 분류 장치에 있어서, 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류부, 분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환부 및 타겟 파일로부터 추출된 열과 행을 기준으로 텍스트를 입력하여 최종 타겟 파일을 생성하고, 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장부를 포함하는 이미지 분류 장치를 제공한다.In order to achieve the above-described object, in one aspect, in the image classification device, a reference keyword and reference coordinates are set according to a standard type of a medical image image, and a reference keyword and reference coordinates are input based on the reference keyword and reference coordinates. Based on the image classification unit that classifies the type of image, the text conversion unit that extracts detailed images and coordinates from the classified images and converts the extracted detailed images into text using a deep learning algorithm, and the columns and rows extracted from the target file An image classification device is provided that includes a database storage unit that inputs text to create a final target file and stores the final target file in a database.

다른 측면에서, 본 실시예는 이미지 분류 방법에 있어서, 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류 단계, 분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환 단계 및 타겟 파일로부터 추출된 열과 행을 기준으로 텍스트를 입력하여 최종 타겟 파일을 생성하고, 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장 단계를 포함하는 것을 특징으로 하는 이미지 분류 방법을 제공한다. In another aspect, in the image classification method, this embodiment is an image classification step of setting reference keywords and reference coordinates according to the standard type of medical image image and classifying the type of input image based on the reference keyword and reference coordinates. , extract detailed images and coordinates from the classified images, convert the extracted detailed images into text using a deep learning algorithm, and enter text based on the columns and rows extracted from the target file to create the final target file. An image classification method is provided, which includes a database storage step of generating and storing the final target file in a database.

본 실시예들에 의하면, 의료 이미지를 분류하고 항목화하여 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공할 수 있다. According to the present embodiments, an image classification device and method capable of generating standardized data by classifying and itemizing medical images can be provided.

도 1은 본 개시의 일 실시예에 따른 이미지 분류 장치의 구성을 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 최종 타겟 파일을 생성하는 동작을 설명하기 위한 흐름도이다.
도 3은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 최종 타겟 파일을 생성하는 전체 동작을 설명하기 위한 흐름도이다.
도 4는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 사용되는 의료 영상 이미지의 표준 유형의 예시를 도시한 도면이다.
도 5는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 이미지의 유형을 분류하는 동작을 설명하기 위한 예시를 도시한 도면이다.
도 6은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 입력된 이미지를 전처리하는 동작을 설명하기 위한 예시를 도시한 도면이다.
도 7은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 변환된 텍스트를 입력하는 동작을 설명하기 위한 예시를 도시한 도면이다.
도 8은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 데이터베이스의 구조를 설명하기 위한 예시를 도시한 도면이다.
도 9는 본 개시의 다른 실시예에 따른 이미지 분류 방법의 흐름도이다.
1 is a diagram illustrating the configuration of an image classification device according to an embodiment of the present disclosure.
FIG. 2 is a flowchart illustrating an operation of generating a final target file in an image classification device according to an embodiment of the present disclosure.
Figure 3 is a flowchart for explaining the overall operation of generating a final target file in an image classification device according to an embodiment of the present disclosure.
FIG. 4 is a diagram illustrating an example of a standard type of medical image used in an image classification device according to an embodiment of the present disclosure.
FIG. 5 is a diagram illustrating an example to explain an operation of classifying the type of an image in an image classification device according to an embodiment of the present disclosure.
FIG. 6 is a diagram illustrating an example to explain the operation of preprocessing an input image in an image classification device according to an embodiment of the present disclosure.
FIG. 7 is a diagram illustrating an example to explain an operation of inputting converted text in an image classification device according to an embodiment of the present disclosure.
FIG. 8 is a diagram illustrating an example for explaining the structure of a database in an image classification device according to an embodiment of the present disclosure.
Figure 9 is a flowchart of an image classification method according to another embodiment of the present disclosure.

본 개시는 이미지 분류 장치 및 방법에 관한 것이다. This disclosure relates to an image classification device and method.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.Hereinafter, some embodiments of the present disclosure will be described in detail with reference to illustrative drawings. In adding reference numerals to components in each drawing, the same components may have the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present embodiments, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When “comprises,” “has,” “consists of,” etc. mentioned in the specification are used, other parts may be added unless “only” is used. When a component is expressed in the singular, it can also include the plural, unless specifically stated otherwise.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. Additionally, in describing the components of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, order, or number of the components are not limited by the term.

구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of components, when two or more components are described as being “connected,” “coupled,” or “connected,” the two or more components are directly “connected,” “coupled,” or “connected.” ", but it should be understood that two or more components and other components may be further "interposed" and "connected," "combined," or "connected." Here, other components may be included in one or more of two or more components that are “connected,” “coupled,” or “connected” to each other.

구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of temporal flow relationships related to components, operation methods, production methods, etc., for example, temporal precedence relationships such as “after”, “after”, “after”, “before”, etc. Or, when a sequential relationship is described, non-continuous cases may be included unless “immediately” or “directly” is used.

한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when a numerical value or corresponding information (e.g., level, etc.) for a component is mentioned, even if there is no separate explicit description, the numerical value or corresponding information is related to various factors (e.g., process factors, internal or external shocks, It can be interpreted as including the error range that may occur due to noise, etc.).

본 명세서에서의 광학 문자 인식 모듈(Optical character reader, OCR)은 필기체 또는 인쇄된 문서를 입력으로 받아 컴퓨터가 이해할 수 있는 데이터로 변환하는데 사용되는 것으로, OCR의 응용 분야로 차량 번호판, 영수증, 여권, 수표 등의 인식 등과 같은 다양한 분야에 적용하고 있는 기술이다. 즉, 광학 준자 인식 모듈을 이용하면 이미지, PDF 파일 또는 기타 유형의 파일 (텍스트가 포함 된 경우)을 기계 인코딩 형식의 텍스트로 편리하게 변환 할 수 있다. 예를 들어, Tesseract OCR은 오픈 소스 기반 광학 문자 인식 엔진일 수 있다.The optical character recognition module (Optical character reader, OCR) in this specification is used to receive handwritten or printed documents as input and convert them into data that a computer can understand. Application areas of OCR include vehicle license plates, receipts, passports, etc. This technology is applied to various fields such as recognition of checks, etc. In other words, the optical quasi-character recognition module allows you to conveniently convert images, PDF files or other types of files (if they contain text) into text in machine encoded format. For example, Tesseract OCR can be an open source based optical character recognition engine.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the attached drawings.

도 1은 본 개시의 일 실시예에 따른 이미지 분류 장치의 구성을 도시한 도면이다.1 is a diagram illustrating the configuration of an image classification device according to an embodiment of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치(100)는, 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류부(110), 분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환부(120) 및 타겟 파일로부터 추출된 열과 행을 기준으로 텍스트를 입력하여 최종 타겟 파일을 생성하고, 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장부(130)를 포함하는 이미지 분류 장치(100)를 제공한다. Referring to FIG. 1, the image classification device 100 according to an embodiment of the present disclosure sets reference keywords and reference coordinates according to the standard type of medical image image, and selects the image input based on the reference keyword and reference coordinates. An image classification unit 110 that classifies the type, a text conversion unit 120 that extracts detailed images and coordinates from the classified images and converts the extracted detailed images into text using a deep learning algorithm, and extracts from the target file. An image classification device 100 is provided that includes a database storage unit 130 that inputs text based on the selected columns and rows to generate a final target file and stores the final target file in a database.

일 실시예에 따라 이미지 분류부(110)는 의료 영상 이미지의 표준 유형에 따라 입력된 이미지의 유형을 분류할 수 있다. 일 예로, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형에 따라 각각의 기준 키워드 및 기준 좌표를 설정하고, 설정된 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류할 수 있다. 이는, 여러 가지 유형으로 구분되는 의료 영상 이미지가 유형에 따라 다른 위치의 데이터(텍스트 및 이미지)를 포함하기 때문에 텍스트 변환 전에 이미지를 유형 별로 분류하면 효율이 극대화되는 효과를 제공할 수 있다.According to one embodiment, the image classification unit 110 may classify the type of input image according to the standard type of medical image. As an example, the image classification unit 110 may set each reference keyword and reference coordinate according to the standard type of medical image, and classify the type of input image based on the set reference keyword and reference coordinate. This is because medical imaging images, which are classified into various types, include data (text and images) in different locations depending on the type, so classifying the images by type before text conversion can provide the effect of maximizing efficiency.

예를 들어, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형 별로 서로 겹치지 않는 고유한 단어를 각각의 기준 키워드로 설정하고, 설정된 기준 키워드의 위치를 드래그하여 좌표를 추출하여 기준 좌표로 설정할 수 있다. 구체적인 예를 들면, 이미지 분류부(110)는 영상 이미지의 표준 유형 별로 서로 겹치지 않는 기준 키워드를 설정하면, 마우스 핸들러(mouse handler)로 기준 키워드의 시작점과 끝점의 좌표를 추출하여 기준 좌표로 설정할 수 있다. For example, the image classification unit 110 can set unique words that do not overlap each other for each standard type of medical imaging image as each reference keyword, and drag the position of the set reference keyword to extract the coordinates and set them as the reference coordinates. there is. For a specific example, when setting reference keywords that do not overlap each other for each standard type of video image, the image classification unit 110 can extract the coordinates of the start and end points of the reference keyword using a mouse handler and set them as reference coordinates. there is.

다른 예를 들어, 이미지 분류부(110)는 입력된 이미지에 포함된 단어 및 단어의 좌표가 표준 유형 별로 설정된 기준 키워드 및 기준 좌표와 일치하면, 입력된 이미지를 기준 키워드로 설정된 표준 유형으로 분류할 수 있다. 이에 따라, 이미지 분류부(110)는 키워드 및 좌표가 일치하면, 입력된 이미지를 동일한 표준 유형으로 분류할 수 있다. For another example, if the word and the coordinates of the word included in the input image match the reference keyword and reference coordinate set for each standard type, the image classification unit 110 may classify the input image into the standard type set as the reference keyword. You can. Accordingly, the image classification unit 110 can classify the input image into the same standard type if the keyword and coordinates match.

일 실시예에 따라 텍스트 변환부(120)는 표준 유형 별로 분류된 입력 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다. 일 예로, 텍스트 변환부(120)는 입력된 이미지가 표준 유형 중 특정 유형으로 분류되면, 분류된 이미지에 포함된 모든 데이터가 추출될 때까지 세부 이미지와 좌표를 추출하여 텍스트로 변환하는 과정을 반복할 수 있다. According to one embodiment, the text conversion unit 120 may extract detailed images and coordinates from input images classified by standard type, and convert the extracted detailed images into text using a deep learning algorithm. For example, when the input image is classified as a specific type among standard types, the text conversion unit 120 repeats the process of extracting detailed images and coordinates and converting them into text until all data included in the classified image is extracted. can do.

다른 일 예로, 텍스트 변환부(120)는 분류된 이미지로부터 세부 이미지와 좌표를 추출하는 정확도를 높이기 위하여 입력된 이미지를 전처리 할 수 있다. 예를 들어, 텍스트 변환부(120)는 입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 입력된 이미지를 전처리할 수 있다. 이는 그레이 스케일 방법과 리스케일 방법을 통합한 방법일 수 있다. 구체적인 예를 들면, 텍스트 변환부(120)는 입력된 원본 이미지의 크기를 두 배로 조정한 다음에 회색조 이미지로 조정한 후, 일반적으로 특수 문자가 포함되지 않고 알파벳 문자만 포함되는 입력 이미지의 특성을 고려한 화이트리스트를 필드 별로 적용할 수 있다. 다만, 이미지의 크기가 조정되는 비율이 두 배로 한정되는 것은 아니다.As another example, the text conversion unit 120 may preprocess the input image to increase the accuracy of extracting detailed images and coordinates from the classified images. For example, the text converter 120 may enlarge the size of the input image by an arbitrary magnification, adjust it to a grayscale image, and then apply a whitelist to each field to preprocess the input image. This may be a method that integrates the gray scale method and the rescale method. For a specific example, the text conversion unit 120 doubles the size of the input original image and then adjusts it to a grayscale image, and then changes the characteristics of the input image, which generally includes only alphabet characters and no special characters, to The considered whitelist can be applied to each field. However, the rate at which the image is resized is not limited to doubling.

또 다른 일 예로, 텍스트 변환부(120)는 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 표준화된 데이터 형식의 텍스트로 변환할 수 있다. 예를 들어, 딥 러닝 알고리즘은 LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)일 수 있다. 구체적인 예를 들면, LSTM은 신경망 네트워크에서 현재 입력 값과 과거의 입력 값을 동시에 고려하여 판단하도록 하는 RNN(Recurrent Neural Networks)의 향상된 알고리즘일 수 있다. 또한, LSTM은 출력 단에서 구한 오차를 신경망을 거슬러 가면서 각 계수를 업데이트하여 오차를 보정하는 역전파(back propagation) 과정이 포함되어 RNN의 인식과정보다 인식률을 향상시킬 수 있다. 다른 예를 들어, 텍스트 변환부(120)는 클래스 라벨만 순서대로 있고 각 클래스의 위치는 모르는 unsegmented 시퀀스 데이터를 학습 시키는 알고리즘인 CTC(Connectionist Temporal Classification)을 이용하여 이미지를 표준화된 데이터 형식의 텍스트로 변환할 수 있다. 다만, 본 개시의 딥 러닝 알고리즘은 이에 제한되지 않고 현재 또는 장래에 사용될 수 있는 다양한 알고리즘으로 구성될 수 있다. As another example, the text conversion unit 120 may convert the extracted detailed image into text in a standardized data format using a deep learning algorithm. For example, the deep learning algorithm may be an optical character recognition module (OCR) that utilizes Long Short-Term Memory (LSTM). For a specific example, LSTM may be an improved algorithm of RNN (Recurrent Neural Networks) that allows a neural network network to make decisions by simultaneously considering current input values and past input values. In addition, LSTM includes a back propagation process that corrects the error by updating each coefficient by passing the error obtained at the output stage back through the neural network, which can improve the recognition rate compared to the recognition process of RNN. For another example, the text conversion unit 120 converts an image into text in a standardized data format using CTC (Connectionist Temporal Classification), an algorithm that learns unsegmented sequence data in which only class labels are in order and the location of each class is unknown. It can be converted. However, the deep learning algorithm of the present disclosure is not limited to this and may consist of various algorithms that can be used now or in the future.

일 실시예에 따라, 데이터베이스 저장부(130)는 타겟 파일로부터 추출된 열과 행을 기준으로 변환된 텍스트를 입력하여 최종 타겟 파일을 생성할 수 있다. 그리고 데이터베이스 저장부(130)는 생성된 최종 타겟 파일을 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 텍스트를 입력할 타겟 파일로부터 열과 행을 추출하여 변수를 포함하는 열과 사례 변호를 포함하는 행으로 구성된 최종 타겟 파일을 생성할 수 있다. 그리고, 데이터베이스 저장부(130)는 이미지로부터 변환된 모든 텍스트가 입력될 때까지 추출된 열과 행을 기준으로 입력하는 과정을 반복하여 최종 타겟 파일을 생성할 수 있다. 이에 따라, 데이터베이스 저장부(130)는 호환성이 높은 CSV (Common-Separated Value) 또는 Excel 형식의 형태로 최종 타겟 파일을 생성하여 데이터베이스에 저장할 수 있다. According to one embodiment, the database storage unit 130 may generate a final target file by inputting text converted based on columns and rows extracted from the target file. And the database storage unit 130 may store the generated final target file in the database. For example, the database storage unit 130 may extract columns and rows from a target file into which text is to be input and generate a final target file consisting of columns containing variables and rows containing case descriptions. Additionally, the database storage unit 130 may generate the final target file by repeating the input process based on the extracted columns and rows until all text converted from the image is input. Accordingly, the database storage unit 130 can generate a final target file in highly compatible CSV (Common-Separated Value) or Excel format and store it in the database.

일 예로, 데이터베이스 저장부(130)는 입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 테스트 결과가 포함된 테이블, 환자 정보가 포함된 테이블 및 기타 테스트 관련 테이블로 구성될 수 있다. As an example, the database storage unit 130 may classify items to be extracted from the input image into an Entity Relationship Model structure and store them in the database. For example, the database storage unit 130 may be composed of a table containing test results, a table containing patient information, and other test-related tables.

일 실시예에 따라 이미지 분류 장치는 알고리즘의 정확성을 평가할 수 있는 검증 도구를 더 포함할 수 있다. 여기서, 검증 도구는 유효성 검증 도구(Validator)가 사용될 수 있다. 예를 들어, 알고리즘은 정확도가 항상 일정하지는 않으며 다양한 전처리 및 화이트리스트의 적용에 큰 영향을 받기 때문에 검증이 필요할 수 있다. 여기서, 알고리즘은 Tesseract OCR을 일 예로 설명하나 이에 한정되지는 않는다. According to one embodiment, the image classification device may further include a verification tool that can evaluate the accuracy of the algorithm. Here, the verification tool may be a validation tool (Validator). For example, algorithms may require validation because their accuracy is not always consistent and is greatly affected by the application of various preprocessing and whitelists. Here, the algorithm explains Tesseract OCR as an example, but is not limited thereto.

도 2는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 최종 타겟 파일을 생성하는 동작을 설명하기 위한 흐름도이다. FIG. 2 is a flowchart illustrating an operation of generating a final target file in an image classification device according to an embodiment of the present disclosure.

도 2를 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)는 표준 유형 별 기준 키워드 및 기준 좌표를 설정할 수 있다(S210). 일 예로, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정할 수 있다. 여기서, 의료 영상 이미지는 폐 기능 검사(Pulmonary Function Tests, PFT) 결과가 기록된 원본 PFT 이미지 파일로 다양한 유형의 PFT 이미지 시트에 포함된 PFT 결과 이미지일 수 있다. 다만, 폐 기능 검사 이미지는 의료 영상 이미지의 일 예를 설명한 것으로 이에 한정되지는 않는다. 예를 들어, 이미지 분류부(110)는 의료 영상 이미지의 유형에 따라 포함된 데이터(텍스트 및 이미지)의 위치가 다르므로 유형의 표준을 설정하고, 설정된 표준 유형 별로 기준 키워드 및 기준 좌표를 설정할 수 있다. 다른 예를 들면, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형을 unknown type의 유형을 포함하여 8개의 유형으로 설정할 수 있다. 구체적으로 의료 영상 이미지가 PFT 결과 이미지인 경우, 각각의 PFT 결과 이미지는 글자 수, 크기, 두께, 색상 및 글자 사이의 여백이 다를 수 있다. 또한, PFT 결과 이미지에 포함된 문자는 문자 수가 많을수록 크기가 커지고 문자가 두꺼워지며, 문자와 배경의 색상 차이가 클수록 정확도가 높아질 수 있다. 또한, 문자 사이의 여백이 정확도에 영향을 미칠 수 있다. 따라서, 이미지 분류부(110)는 텍스트 변환을 위해 알고리즘 처리 전에 PFT 결과 이미지를 표준 유형 별로 분류하여 효율성을 극대화할 수 있다. Referring to FIG. 2, the image classification unit 110 of the image classification device according to an embodiment of the present disclosure may set reference keywords and reference coordinates for each standard type (S210). As an example, the image classification unit 110 may set reference keywords and reference coordinates according to the standard type of medical image. Here, the medical imaging image is an original PFT image file in which the results of pulmonary function tests (PFT) are recorded, and may be a PFT result image included in various types of PFT image sheets. However, the lung function test image is an example of a medical imaging image and is not limited thereto. For example, the image classification unit 110 sets a standard for the type because the location of the data (text and image) included is different depending on the type of medical image image, and sets reference keywords and reference coordinates for each set standard type. there is. For another example, the image classifier 110 may set the standard types of medical imaging images to eight types, including an unknown type. Specifically, when the medical imaging image is a PFT result image, each PFT result image may have different number of characters, size, thickness, color, and space between letters. In addition, the larger the number of characters, the thicker the characters included in the PFT result image, and the greater the color difference between the characters and the background, the higher the accuracy. Additionally, the space between characters can affect accuracy. Accordingly, the image classification unit 110 can maximize efficiency by classifying the PFT result image by standard type before algorithmic processing for text conversion.

다만, 표준 유형의 개수는 의료 영상 이미지의 종류에 따라 설정되며, 이에 한정되지는 않는다. However, the number of standard types is set according to the type of medical image, and is not limited to this.

다른 일 예로, 이미지 분류부(110)는 표준 유형 별로 서로 겹치지 않는 고유한 단어를 기준 키워드로 설정하고, 기준 키워드의 위치를 드래그하여 추출한 좌표를 기준 좌표로 설정할 수 있다. 예를 들어, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형 별로 이미지에 포함된 텍스트 중에서 다른 표준 유형의 이미지에서 설정된 키워드와 겹치지 않는 고유한 단어를 기준 키워드를 설정할 수 있다. 이에 따라 이미지 분류부(110)는 각각의 표준 유형을 대표하는 고유한 단어를 각각의 기준 키워드로 설정할 수 있다. 다른 예를 들어, 이미지 분류부(110)는 표준 유형 별로 설정된 기준 키워드의 위치를 마우스 핸들러(mouse handler)로 드래그하여 기준 키워드의 좌표를 추출하여 기준 좌표로 설정할 수 있다. As another example, the image classification unit 110 may set unique words that do not overlap each other for each standard type as reference keywords, and set coordinates extracted by dragging the position of the reference keyword as reference coordinates. For example, the image classifier 110 may set the standard keyword as a unique word that does not overlap with keywords set in images of other standard types among text included in the image for each standard type of medical image image. Accordingly, the image classification unit 110 may set a unique word representing each standard type as each standard keyword. For another example, the image classification unit 110 may extract the coordinates of the reference keyword by dragging the location of the reference keyword set for each standard type with a mouse handler and set it as the reference coordinate.

일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)는 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류할 수 있다(S220). 예를 들어, 이미지 분류부(110)는 입력된 임의의 이미지에 포함된 단어 및 단어의 좌표가 표준 유형 별로 설정된 기준 키워드 및 기준 좌표와 일치하는지 여부를 판단할 수 있다. 그리고 이미지 분류부(110)는 판단 결과, 입력된 이미지에 포함된 단어 및 단어의 좌표와 일치하는 기준 키워드 및 기준 좌표로 설정된 표준 유형으로 입력된 이미지를 분류할 수 있다. 따라서, 이미지 분류부(110)는 입력되는 PFT 이미지 시트에 포함된 PFT 결과 이미지를 표준 유형 별로 분류할 수 있다.The image classification unit 110 of the image classification device according to one embodiment may classify the type of the input image based on the reference keyword and reference coordinates (S220). For example, the image classification unit 110 may determine whether a word and its coordinates included in any input image match the reference keyword and reference coordinates set for each standard type. And, as a result of the determination, the image classification unit 110 may classify the input image into a standard type set with a reference keyword and reference coordinates that match the words included in the input image and the coordinates of the word. Accordingly, the image classification unit 110 may classify the PFT result images included in the input PFT image sheet by standard type.

일 실시예에 따른 이미지 분류 장치의 텍스트 변환부(120)는 표준 유형 별로 분류된 각각의 이미지로부터 세부 이미지와 좌표를 추출할 수 있다(S230). 일 예로, 텍스트 변환부(120)는 PFT 결과 이미지에서 세부 이미지와 좌표를 추출하기 위해 전처리를 수행할 수 있다. 예를 들어, 텍스트 변환부(120)는 입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 입력된 이미지를 전처리할 수 있다. 구체적인 예를 들면, 텍스트 변환부(120)는 리스케일 방법과 그레이 스케일 방법을 통합한 방법을 통해 입력된 이미지의 크기를 두 배로 조정한 다음 회색조 이미지로 조정할 수 있다. 그리고, 텍스트 변환부(120)는 특수 문자가 포함되지 않고 알파벳 문자만을 포함하는 PFT 결과 이미지의 특성을 고려하여 화이트리스트(Whitelist)를 필드 별로 적용할 수 있다. The text conversion unit 120 of the image classification device according to one embodiment may extract detailed images and coordinates from each image classified by standard type (S230). As an example, the text conversion unit 120 may perform preprocessing to extract detailed images and coordinates from the PFT result image. For example, the text converter 120 may enlarge the size of the input image by an arbitrary magnification, adjust it to a grayscale image, and then apply a whitelist to each field to preprocess the input image. For a specific example, the text converter 120 can double the size of the input image through a method that combines the rescale method and the gray scale method and then adjust it to a grayscale image. Additionally, the text conversion unit 120 may apply a whitelist to each field, taking into account the characteristics of the PFT result image, which does not include special characters and includes only alphabet characters.

다른 일 예로, 텍스트 변환부(230)는 전처리된 PFT 결과 이미지에서 세부 이미지와 좌표를 추출할 수 있다. 예를 들어, 텍스트 변환부(230)는 전처리된 PFT 결과 이미지에서 특정 영역에 해당되는 세부 이미지를 추출하고, 세부 이미지의 위치를 특정할 수 있는 양 끝단의 좌표를 추출할 수 있다. As another example, the text conversion unit 230 may extract detailed images and coordinates from the preprocessed PFT result image. For example, the text converter 230 may extract a detailed image corresponding to a specific area from the preprocessed PFT result image and extract coordinates of both ends that can specify the location of the detailed image.

일 실시예에 따른 이미지 분류 장치의 텍스트 변환부(120)는 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다(S240). 일 예로, 텍스트 변환부(120)는 추출된 세부 이미지를 LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR) 기반 딥러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다. 여기서, 광학 문자 인식 모듈은 Tesseract OCR라이브러리 기반일 수 있다. 예를 들어, 텍스트 변환부(120)는 정확도를 극대화하기 위해 딥러닝 알고리즘과 OpenCV를 활용하여 추출된 세부 이미지에 포함된 텍스트를 검출하여 변환할 수 있다. The text conversion unit 120 of the image classification device according to one embodiment may convert the extracted detailed image into text using a deep learning algorithm (S240). As an example, the text converter 120 may convert the extracted detailed image into text using a deep learning algorithm based on an optical character recognition module (Optical character reader, OCR) utilizing LSTM (Long Short-Term Memory). . Here, the optical character recognition module may be based on the Tesseract OCR library. For example, the text conversion unit 120 may detect and convert text included in the extracted detailed image using a deep learning algorithm and OpenCV to maximize accuracy.

다른 일 예로, 텍스트 변환부(120)는 분류된 이미지에 포함된 모든 데이터가 추출될 때까지 세부 이미지와 좌표를 추출하여 텍스트로 변환하는 과정을 반복할 수 있다. 예를 들어, 텍스트 변환부(120)는 표준 유형에 따라 분류된 PFT 결과 이미지에 포함된 모든 데이터가 추출될 때까지 PFT 결과 이미지의 영역을 이동해가면서 세부 이미지와 좌표를 추출할 수 있다. 그리고 텍스트 변환부(120)는 PFT 결과 이미지로부터 추출된 각각의 세부 이미지를 딥러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다.As another example, the text conversion unit 120 may repeat the process of extracting detailed images and coordinates and converting them into text until all data included in the classified image is extracted. For example, the text converter 120 may extract detailed images and coordinates by moving the area of the PFT result image until all data included in the PFT result image classified according to the standard type is extracted. And the text conversion unit 120 can convert each detailed image extracted from the PFT result image into text using a deep learning algorithm.

일 실시예에 따른 이미지 분류 장치의 데이터베이스 저장부(130)는 타겟 파일의 열 및 행을 추출할 수 있다(S250). 일 예로, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 변환된 텍스트를 입력할 타겟 파일의 열 및 행을 추출할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일로부터 변수 또는 사례 번호에 기초하여 변환된 텍스트를 입력할 열 및 행을 추출할 수 있다. 또한, 데이터베이스 저장부(130)는 PFT 결과 이미지에 포함된 모든 데이터가 입력될 때까지 타겟 파일의 열 및 행을 추출하는 과정을 반복할 수 있다.The database storage unit 130 of the image classification device according to one embodiment may extract the columns and rows of the target file (S250). As an example, the database storage unit 130 may extract the columns and rows of the target file into which the converted text is to be input from the PFT result image. For example, the database storage unit 130 may extract columns and rows into which converted text is input based on variables or case numbers from an Excel format target file. Additionally, the database storage unit 130 may repeat the process of extracting columns and rows of the target file until all data included in the PFT result image is input.

일 실시예에 따른 이미지 분류 장치의 데이터베이스 저장부(130)는 추출된 열 및 행을 기준으로 텍스트를 입력하여 최종 타겟 파일을 생성할 수 있다(S260). 일 예로, 데이터베이스 저장부(130)는 변수를 포함하는 열과 사례 변호를 포함하는 행으로 구성된 최종 타겟 파일을 생성하여 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 변환된 텍스트를 호환성이 높은 CSV (Common-Separated Value) 또는 Excel 형식의 타겟 파일에 입력하여 생성한 최종 타겟 파일을 데이터베이스에 저장할 수 있다. The database storage unit 130 of the image classification device according to one embodiment may generate a final target file by inputting text based on the extracted columns and rows (S260). As an example, the database storage unit 130 may create a final target file consisting of columns containing variables and rows containing case defenses and store the final target file in the database. For example, the database storage unit 130 may input the text converted from the PFT result image into a highly compatible CSV (Common-Separated Value) or Excel format target file and store the final target file generated in the database.

다른 일 예로, 데이터베이스 저장부(130)는 입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 추출되어야 할 항목을 PFT 결과 정보가 포함된 테이블, 환자 정보가 포함된 테이블 및 기타 PFT 결과 정보 관련 테이블로 구성된 개체 관계 모델 구조로 분류하여 데이터베이스에 저장할 수 있다. 여기서, 기타 PFT 결과 정보 관련 테이블은 폐활량 측정(spirometry), 폐확산 능력(diffusing capacity), 폐용적(ling volume) 및 기도저항(airway resistance) 중 적어도 하나 이상에 관련된 테이블일 수 있다.As another example, the database storage unit 130 may classify items to be extracted from the input image into an Entity Relationship Model structure and store them in the database. For example, the database storage unit 130 classifies items to be extracted from the PFT result image into an entity relationship model structure consisting of a table containing PFT result information, a table containing patient information, and other PFT result information related tables. It can be saved in the database. Here, other PFT result information related tables may be tables related to at least one of spirometry, lung diffusing capacity, lung volume, and airway resistance.

도 3은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 최종 타겟 파일을 생성하는 전체 동작을 설명하기 위한 흐름도이다. Figure 3 is a flowchart for explaining the overall operation of generating a final target file in an image classification device according to an embodiment of the present disclosure.

도 3을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)는 의료 검사 결과의 원본 이미지 파일을 읽어올 수 있다(S301). 예를 들어, 이미지 분류부(110)는 OpenCV(Open Source Computer Vision) 라이브러리를 통해 PFT 검사 결과의 원본 이미지 캡처 파일을 읽어올 수 있다.Referring to FIG. 3, the image classification unit 110 of the image classification device according to an embodiment of the present disclosure may read the original image file of the medical test result (S301). For example, the image classification unit 110 can read the original image capture file of the PFT test result through the OpenCV (Open Source Computer Vision) library.

일 실시예에 따라 이미지 분류부(110)는 이미지의 유형을 분류할 수 있다(S302). 예를 들어, 이미지 분류부(110)는 Tesseract OCR 라이브러리를 통해 PFT 결과 이미지를 표준 유형으로 분류할 수 있다. According to one embodiment, the image classification unit 110 may classify the type of image (S302). For example, the image classification unit 110 may classify the PFT result image into a standard type through the Tesseract OCR library.

일 실시예에 따라 이미지 분류부(110)는 분류된 이미지의 유형에 해당하는 기존의 폴더가 존재하는지 판단할 수 있다(S303). 예를 들어, 이미지 분류부(110)는 PFT 결과 이미지가 해당되는 유형을 저장할 수 있는 기존의 폴더가 존재하는지 판단할 수 있다. According to one embodiment, the image classification unit 110 may determine whether an existing folder corresponding to the type of the classified image exists (S303). For example, the image classification unit 110 may determine whether an existing folder exists in which the PFT result image can store the corresponding type.

일 실시예에 따라 이미지 분류부(110)는 기존의 폴더가 존재하지 않으면, 새로운 유형의 폴더를 생성할 수 있다(S304). 예를 들어, 이미지 분류부(110)는 PFT 결과 이미지가 해당되는 유형을 저장할 수 있는 새로운 유형의 폴더를 생성할 수 있다.According to one embodiment, the image classification unit 110 may create a new type of folder if an existing folder does not exist (S304). For example, the image classification unit 110 may create a new type of folder in which the PFT result image of the corresponding type can be stored.

일 실시예에 따라 이미지 분류부(110)는 분류된 유형의 폴더가 존재하면, 해당 폴더에 이미지를 저장할 수 있다(S305). 예를 들어, 이미지 분류부(110)는 기존의 위치에서 PFT 결과 이미지를 해당되는 유형의 폴더로 이동시켜 저장할 수 있다. 여기서, 폴더는 기존의 폴더일 수도 있고, 새로 생성된 유형의 폴더일 수 있다. 또한, 이미지 분류부(110)는 PFT 결과 이미지를 해당 유형의 폴더로 이동시키는 동시에 실시간으로 데이터베이스를 생성하기 위해 메모리 포인터를 설정할 수 있다.According to one embodiment, if a folder of a classified type exists, the image classification unit 110 may store the image in the corresponding folder (S305). For example, the image classification unit 110 can move the PFT result image from its existing location to a folder of the corresponding type and store it. Here, the folder may be an existing folder or a newly created type of folder. Additionally, the image classification unit 110 can move the PFT result image to a folder of the corresponding type and set a memory pointer to create a database in real time.

일 실시예에 따라 텍스트 변환부(120)는 유형이 분류된 이미지를 전처리할 수 있다(S306). 예를 들어, 텍스트 변환부(120)는 PFT 결과 이미지를 크기 조정 및 회색조 조정을 통해 전처리하여 읽기 정확도를 극대화할 수 있다. According to one embodiment, the text conversion unit 120 may preprocess images classified by type (S306). For example, the text converter 120 can maximize reading accuracy by preprocessing the PFT result image by adjusting its size and grayscale.

일 실시예에 따라 텍스트 변환부(120)는 PFT 결과 이미지에 화이트리스트(Whitelist)를 적용할 수 있다(S307). 예를 들어, 텍스트 변환부(120)는 PFT 결과 이미지에서 원하는 종류의 문자 만을 포함하는 이미지를 생성하기 위하여 화이트리스트를 필드 별로 적용할 수 있다. According to one embodiment, the text converter 120 may apply a whitelist to the PFT result image (S307). For example, the text converter 120 may apply a whitelist to each field to generate an image containing only desired types of characters in the PFT result image.

일 실시예에 따라 텍스트 변환부(120)는 PFT 결과 이미지로부터 텍스트를 추출할 수 있다(S308). 예를 들어, 텍스트 변환부(120)는 딥러닝 알고리즘을 이용하여 PFT 결과 이미지로부터 모든 텍스트를 추출하여 변환할 수 있다. 여기서, 딥러닝 알고리즘은 LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)인 Tesseract OCR 일 수 있다.According to one embodiment, the text converter 120 may extract text from the PFT result image (S308). For example, the text converter 120 can extract and convert all text from the PFT result image using a deep learning algorithm. Here, the deep learning algorithm may be Tesseract OCR, an optical character recognition module (OCR) that utilizes Long Short-Term Memory (LSTM).

일 실시예에 따라 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일을 읽어올 수 있다(S311). 그리고 데이터베이스 저장부(130)는 기존에 Excel 형식의 타겟 파일이 존재하는지 판단할 수 있다(S312). 데이터베이스 저장부(130)는 기존에 Excel 형식의 타겟 파일이 존재하지 않으면, 새로운 Excel 형식의 타겟 파일을 생성할 수 있다(S313).According to one embodiment, the database storage unit 130 may read a target file in Excel format (S311). And the database storage unit 130 can determine whether a target file in Excel format already exists (S312). The database storage unit 130 may create a new Excel format target file if there is no existing Excel format target file (S313).

일 실시예에 따라 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일에 변환된 텍스트를 입력하여 저장할 수 있다(S309). 일 예로, 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일의 열과 행에 따라 PFT 결과 이미지의 모든 텍스트가 입력될 때까지 반복 입력하여 저장할 수 있다.According to one embodiment, the database storage unit 130 may input and store the converted text in an Excel format target file (S309). As an example, the database storage unit 130 may repeatedly input and store the text of the PFT result image according to the columns and rows of the target file in Excel format until all text is entered.

일 실시예에 따라 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일과 함께 CSV(Common-Separated Value) 형식의 파일을 저장할 수 있다(S310). 일 예로, 데이터베이스 저장부(130)는 PFT 결과 이미지의 모든 텍스트를 쉼표로 필드를 구분하여 텍스트를 저장하는 CSV 형식의 파일로 별도 저장할 수 있다.According to one embodiment, the database storage unit 130 may store a CSV (Common-Separated Value) format file along with an Excel format target file (S310). As an example, the database storage unit 130 may separately save all text in the PFT result image as a CSV format file that stores the text by separating fields with commas.

도 4는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 사용되는 의료 영상 이미지의 표준 유형의 예시를 도시한 도면이다.FIG. 4 is a diagram illustrating an example of a standard type of medical image used in an image classification device according to an embodiment of the present disclosure.

도 4를 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)에서 의료 영상 이미지를 분류하기 위해 설정되는 표준 유형을 설명할 수 있다. 일 예로, 이미지 분류부(110)는 의료 영상 이미지로부터 텍스트를 추출하기 전에 설정된 표준 유형에 기초하여 이미지의 유형을 분류할 수 있다. 예를 들어, 이미지 분류부(110)는 PFT 결과 이미지의 표준 유형을 unknown type의 유형을 포함하여 8개의 유형으로 설정할 수 있다. 이 때, unknown type의 유형은 텍스트가 포함되지 않은 모든 유형(ex. 그래프 만)을 포함할 수 있다. 따라서, 이미지 분류부(110)는 설정된 표준 유형에 따라 입력된 PFT 결과 이미지를 8개의 유형으로 분류할 수 있다. 다만, 표준 유형은 의료 영상 이미지의 종류에 따라 설정되며, 표준 유형의 type 또는 개수는 이에 한정되지는 않는다.Referring to FIG. 4, the standard type set to classify medical images in the image classification unit 110 of the image classification device according to an embodiment of the present disclosure can be described. As an example, the image classification unit 110 may classify the type of image based on a set standard type before extracting text from a medical image. For example, the image classification unit 110 may set the standard type of the PFT result image to eight types, including an unknown type. At this time, the unknown type can include all types that do not contain text (ex. only graphs). Accordingly, the image classification unit 110 can classify the input PFT result image into eight types according to the set standard type. However, the standard type is set according to the type of medical image, and the type or number of standard types is not limited to this.

다른 예를 들어, 이미지 분류부(110)는 PFT 결과 이미지의 표준 유형은 글자 수, 크기, 두께, 색상 및 글자 사이의 여백에 기초하여 설정할 수 있다. 예를 들면, 설정된 의료 영상 이미지의 표준 유형은 추출된 텍스트 데이터가 서로 다른 개수로 구성될 수 있다. 이는 PFT 결과 이미지 내에 포함되는 검사 항목 내 지표, 자극제 유무가 다르기 때문일 수 있다. 구체적으로, 표준 유형의 type 1은 116개, type2는 164개, type3는 21개, type4는 130개, type5는 37 개, type6은 73 개, 그리고 type7은 130 개의 데이터를 포함할 수 있다. 다른 예를 들면, 표준 유형 중 type1과 type2 형식이 유사할 수 있다. type1과 type2 유형은 일반적으로 PFT 결과 이미지에 포함된 문자가 다른 유형보다 두껍고 크기가 크며 문자 사이에 여백이 존재하는 특징을 포함할 수 있다. 또한, 표준 유형 중 type3, type4 및 type7의 형식이 유사할 수 있다. type3, type4 및 type7 유형은 PFT 결과 이미지에 포함된 문자가 얇고 작으며, 문자 사이의 여백이 좁은 특징을 포함할 수 있다. 또한, 표준 유형 중 type5와 type6의 형식이 유사할 수 있다. type5와 type6 유형은 일반적으로 PFT 결과 이미지에 포함된 문자가 다른 유형보다 크기가 작으나 두께가 두껍고 그 사이의 여백이 있는 특징을 포함할 수 있다. For another example, the image classification unit 110 may set the standard type of the PFT result image based on the number of characters, size, thickness, color, and space between characters. For example, a set standard type of medical image may consist of different numbers of extracted text data. This may be because the indicators and presence or absence of stimulants in the test items included in the PFT result image are different. Specifically, the standard types can include 116 types of type 1, 164 types of type 2, 21 types of type 3, 130 types of type 4, 37 types of type 5, 73 types of type 6, and 130 types of data. For another example, among standard types, type1 and type2 formats may be similar. Type1 and type2 generally include features such that the characters included in the PFT result image are thicker and larger than other types, and there is a space between characters. Additionally, among the standard types, the formats of type3, type4, and type7 may be similar. Type3, type4, and type7 may include features in which the characters included in the PFT result image are thin and small, and the margins between characters are narrow. Additionally, among the standard types, the formats of type5 and type6 may be similar. In types 5 and 6, the characters included in the PFT result image are generally smaller than other types, but may include features such as thick characters and a space between them.

도 5는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 이미지의 유형을 분류하는 동작을 설명하기 위한 예시를 도시한 도면이다.FIG. 5 is a diagram illustrating an example to explain an operation of classifying the type of an image in an image classification device according to an embodiment of the present disclosure.

도 5를 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)에서 기준 키워드 및 기준 좌표에 기초하여 이미지의 유형을 분류하는 동작을 설명할 수 있다. 일 예로, 이미지 분류부(110)는 표준 유형 별로 서로 겹치지 않는 고유한 단어를 기준 키워드(510)로 설정할 수 있다. 그리고 이미지 분류부(110)는 기준 키워드(510)의 위치를 마우스 핸들러(Mouse Handler)로 드래그하여 기준 좌표를 설정할 수 있다. 예를 들어, 이미지 분류부(110)는 마우스 핸들러(Mouse Handler)를 X축(520)과 Y축(530)으로 드래그하여 기준 키워드(510)의 시작점(X, Y)과 끝점(X', Y')의 좌표를 추출하여 기준 좌표로 설정할 수 있다. 여기서, 마우스 핸들러(Mouse Handler)는 마우스 이벤트 핸들러를 약칭한 것으로, 마우스와 관련된 각종 이벤트(Event) 또는 사건이 발생했을 때 특정 함수를 호출하여 정해진 좌표 측정 기능을 수행하도록 프로그래밍된 모듈을 의미할 수 있다. Referring to FIG. 5 , the operation of classifying the type of image based on a reference keyword and reference coordinates in the image classification unit 110 of the image classification device according to an embodiment of the present disclosure can be described. As an example, the image classification unit 110 may set unique words that do not overlap each other for each standard type as the standard keyword 510. And the image classification unit 110 can set reference coordinates by dragging the location of the reference keyword 510 with a mouse handler. For example, the image classification unit 110 drags the mouse handler to the Y') coordinates can be extracted and set as reference coordinates. Here, Mouse Handler is an abbreviation for mouse event handler, and can refer to a module programmed to perform a specified coordinate measurement function by calling a specific function when various events or incidents related to the mouse occur. there is.

다른 일 예로, 이미지 분류부(110)는 임의의 이미지가 입력되면 표준 유형 별로 설정된 기준 키워드 및 기준 좌표에 기초하여 유형을 분류할 수 있다. 예를 들어, 이미지 분류부(110)는 임의의 PFT 결과 이미지가 입력되면 마우스 핸들러를 이용하여 이미지에 포함된 단어 및 단어의 좌표를 추출할 수 있다. 그리고, 이미지 분류부(110)는 추출된 단어 및 단어의 좌표가 기준 키워드 및 기준 좌표와 일치하면, 입력된 PFT 결과 이미지를 기준 키워드의 표준 유형으로 분류할 수 있다. As another example, when an arbitrary image is input, the image classification unit 110 may classify the type based on reference keywords and reference coordinates set for each standard type. For example, when a random PFT result image is input, the image classification unit 110 can extract words and their coordinates included in the image using a mouse handler. And, if the extracted word and its coordinates match the reference keyword and the reference coordinate, the image classification unit 110 may classify the input PFT result image into the standard type of the reference keyword.

도 6은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 입력된 이미지를 전처리하는 동작을 설명하기 위한 예시를 도시한 도면이다. FIG. 6 is a diagram illustrating an example to explain the operation of preprocessing an input image in an image classification device according to an embodiment of the present disclosure.

도 6을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 텍스트 변환부(120)에서 입력된 이미지를 전처리하는 동작을 설명할 수 있다. 일 예로, 텍스트 변환부(120)는 입력된 이미지를 전처리하여 딥러닝 알고리즘의 읽기 정확도를 증가시킬 수 있다. 예를 들어, 텍스트 변환부(120)는 리스케일 방법을 통해 입력된 이미지(610)의 크기를 임의의 배율로 확대하여 확대 이미지(620)로 변환할 수 있다. 여기서, 임의의 배율은 2배일 수 있으나 이에 한정되지 않는다. 그리고, 텍스트 변환부(120)는 그레이스케일 방법을 통해 다중 채널 이미지에 해당되는 확대 이미지(620)를 단일 채널 이미지인 회색조 이미지(630)로 조정할 수 있다. 그리고 텍스트 변환부(120)는 회색조 이미지(630)에 화이트리스트(Whitelist)를 필드 별로 적용하여 최종 입력 이미지(640)를 생성할 수 있다. 또한, 텍스트 변환부(120)는 회색조 이미지(630)에 PFT 결과 이미지의 특성을 고려한 화이트리스트(Whitelist)를 필드 별로 적용하여 최종 입력 이미지(640)를 생성할 수 있다. 여기서, 최종 입력 이미지(640)는 PFT 결과 이미지의 특성에 따라 선별된 특정 종류(ex, 숫자, 알파벳, 특수 기호)의 문자만을 포함하는 이미지일 수 있다. 또한, 텍스트 변환부(120)는 노이즈 제거, 임계 값, 확장, 침식, 개방, 캐니 및 왜곡 보정 등과 같은 전처리 방법을 추가로 수행할 수 있다. Referring to FIG. 6, the operation of preprocessing an image input by the text conversion unit 120 of the image classification device according to an embodiment of the present disclosure can be described. As an example, the text converter 120 may increase the reading accuracy of the deep learning algorithm by preprocessing the input image. For example, the text converter 120 may convert the input image 610 into an enlarged image 620 by enlarging the size of the input image 610 at an arbitrary magnification using a rescale method. Here, the arbitrary magnification may be 2 times, but is not limited thereto. Additionally, the text converter 120 can adjust the enlarged image 620, which is a multi-channel image, to a grayscale image 630, which is a single-channel image, through the grayscale method. Additionally, the text converter 120 may generate the final input image 640 by applying a whitelist to the grayscale image 630 for each field. Additionally, the text converter 120 may generate the final input image 640 by applying a whitelist considering the characteristics of the PFT result image to each field to the grayscale image 630. Here, the final input image 640 may be an image containing only characters of a specific type (eg, numbers, alphabets, special symbols) selected according to the characteristics of the PFT result image. Additionally, the text converter 120 may additionally perform preprocessing methods such as noise removal, thresholding, expansion, erosion, opening, Canny, and distortion correction.

도 7은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 변환된 텍스트를 입력하는 동작을 설명하기 위한 예시를 도시한 도면이다.FIG. 7 is a diagram illustrating an example to explain an operation of inputting converted text in an image classification device according to an embodiment of the present disclosure.

도 7을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 데이터베이스 저장부(130)에서 이미지로부터 추출된 텍스트를 타겟 파일에 입력하는 동작을 설명할 수 있다. 일 예로, 텍스트 변환부(120)는 원본 PFT 결과 이미지(710)에서 좌표를 추출할 수 있다. 예를 들어, 텍스트 변환부(120)는 원본 PFT 결과 이미지(710)에서 데이터가 포함되어 있는 특정 영역의 세부 이미지와 좌표를 추출할 수 있다. 또한, 텍스트 변환부(120)는 딥러닝 알고리즘을 이용하여 해당 좌표 내의 이미지를 텍스트로 변환할 수 있다.Referring to FIG. 7, an operation of inputting text extracted from an image into a target file in the database storage unit 130 of the image classification device according to an embodiment of the present disclosure can be described. As an example, the text conversion unit 120 may extract coordinates from the original PFT result image 710. For example, the text conversion unit 120 may extract a detailed image and coordinates of a specific area containing data from the original PFT result image 710. Additionally, the text conversion unit 120 can convert the image within the corresponding coordinates into text using a deep learning algorithm.

일 예로, 데이터베이스 저장부(130)는 타겟 파일(720)에서 텍스트를 입력할 열과 행을 추출할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 표준화된 형식의 타겟 파일(720)에서 텍스트를 입력할 열과 행을 추출할 수 있다. 여기서, 타겟 파일(720)은 호환성이 높은 CSV (Common-Separated Value) 또는 Excel 형식의 형태의 파일일 수 있다.As an example, the database storage unit 130 may extract columns and rows in which to input text from the target file 720. For example, the database storage unit 130 may extract columns and rows into which text is to be input from the target file 720 in a standardized format. Here, the target file 720 may be a highly compatible CSV (Common-Separated Value) or Excel format file.

일 예로, 데이터베이스 저장부(130)는 타겟 파일(720)에 변환된 텍스트를 입력하여 최종 타겟 파일(730)을 생성할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 타겟 파일로부터 추출된 열과 행을 기준으로 변환된 텍스트를 입력하여 최종 타겟 파일(730)을 생성할 수 있다. 또한, 데이터베이스 저장부(130)는 원본 PFT 결과 이미지(710)의 모든 텍스트가 추출되어 입력될 때까지 반복하여 최종 타겟 파일(730)을 생성할 수 있다. As an example, the database storage unit 130 may generate the final target file 730 by inputting the converted text into the target file 720. For example, the database storage unit 130 may generate the final target file 730 by inputting text converted based on the columns and rows extracted from the target file. Additionally, the database storage unit 130 may repeatedly generate the final target file 730 until all text in the original PFT result image 710 is extracted and input.

일 예로, 데이터베이스 저장부(130)는 최종 타겟 파일(730)을 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 PFT 결과 이미지(710)로부터 자동으로 분류하여 추출한 텍스트를 표준화된 데이터 형식의 최종 타겟 파일(730)로 생성하여 데이터베이스에 저장할 수 있다. 또한, 데이터베이스 저장부(130)는 PFT 결과 이미지(710)에 포함되는 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 저장할 수 있다. 이에 따라, PFT 결과 이미지(710)는 향후 임상 결과 데이터와 과거 축적된 데이터와 호환이 가능하며, 향후 연구 및 질환 예측을 위한 빅데이터로 활용될 수 있다.As an example, the database storage unit 130 may store the final target file 730 in the database. For example, the database storage unit 130 may generate text automatically classified and extracted from the PFT result image 710 as a final target file 730 in a standardized data format and store it in the database. Additionally, the database storage unit 130 may classify and store items included in the PFT result image 710 in an Entity Relationship Model structure. Accordingly, the PFT result image 710 is compatible with future clinical result data and past accumulated data, and can be used as big data for future research and disease prediction.

도 8은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 데이터베이스의 구조를 설명하기 위한 예시를 도시한 도면이다.FIG. 8 is a diagram illustrating an example for explaining the structure of a database in an image classification device according to an embodiment of the present disclosure.

도 8을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 데이터베이스 저장부(130)에서 저장되는 개체 관계 모델(Entity Relationship Model) 구조를 설명할 수 있다. 일 예로, 데이터베이스 저장부(130)는 개체 관계 모델(Entity Relationship Model) 구조에 기초하여 환자 정보를 중심으로 환자 정보와 관련된 PFT 결과 정보들과의 관계 정보를 생성하고 항목을 분류할 수 있다. 예를 들어, PFT 결과 정보는 PFT 결과 이미지 정보, 폐활량 측정 정보, 폐확산 능력 정보, 폐용적 정보 및 기도 저항 정보일 수 있다. 그리고, 개체 관계 모델 구조는 개념적 모델 또는 시멘틱 데이터 모델의 타입으로, 각 개체들간의 공통점 및 차이점 요소들을 분석하고, 분석 결과에 근거하여 각 개체들 간의 관계 정보를 생성하는 기법일 수 있다. Referring to FIG. 8, the structure of an entity relationship model stored in the database storage unit 130 of the image classification device according to an embodiment of the present disclosure can be described. As an example, the database storage unit 130 may generate relationship information between patient information and related PFT result information centered on patient information and classify items based on an Entity Relationship Model structure. For example, the PFT result information may include PFT result image information, spirometry information, lung diffusion capacity information, lung volume information, and airway resistance information. Additionally, the entity relationship model structure is a type of conceptual model or semantic data model, and may be a technique for analyzing commonalities and differences between each entity and generating relationship information between each entity based on the analysis results.

다른 일 예로, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 추출되어야 할 항목을 복수의 테이블로 구성된 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 데이터베이스에 저장할 수 있다. 예를 들어, 복수의 테이블은 PFT 결과 정보가 포함된 테이블, 환자 정보가 포함된 테이블 및 기타 PFT 결과 정보 관련 테이블로 구성될 수 있다.As another example, the database storage unit 130 may classify items to be extracted from the PFT result image into an Entity Relationship Model structure consisting of a plurality of tables and store them in the database. For example, the plurality of tables may be composed of a table containing PFT result information, a table containing patient information, and other tables related to PFT result information.

또한, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 생성된 관계 정보를 데이터베이스에 저장하여 빅데이터로 활용할 수 있다.Additionally, the database storage unit 130 can classify the PFT result image into an Entity Relationship Model structure and store the generated relationship information in the database to utilize it as big data.

이하에서는 도 1 내지 도8을 참조하여 설명한 이미지 분류 장치가 수행할 수 있는 이미지 분류 방법에 대해서 설명한다.Hereinafter, an image classification method that can be performed by the image classification device described with reference to FIGS. 1 to 8 will be described.

도 9는 본 개시의 다른 실시예에 따른 이미지 분류 방법의 흐름도이다9 is a flowchart of an image classification method according to another embodiment of the present disclosure.

도 9를 참조하면, 본 개시의 이미지 분류 방법은 입력된 이미지의 유형을 분류하는 이미지 분류 단계를 포함할 수 있다(S910). 일 실시예에 따라 이미지 분류 장치는 의료 영상 이미지의 표준 유형에 따라 입력된 이미지의 유형을 분류할 수 있다. 일 예로, 이미지 분류 장치는 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 설정된 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류할 수 있다. 이는, 여러 가지 유형으로 구분되는 의료 영상 이미지가 유형에 따라 다른 위치의 데이터(텍스트 및 이미지)를 포함하기 때문에 텍스트 변환 전에 이미지를 유형 별로 분류하면 효율이 극대화되는 효과를 제공할 수 있다.Referring to FIG. 9, the image classification method of the present disclosure may include an image classification step of classifying the type of the input image (S910). According to one embodiment, an image classification device may classify the type of input image according to a standard type of medical image. As an example, the image classification device may set reference keywords and reference coordinates according to the standard type of medical image, and classify the type of input image based on the set reference keywords and reference coordinates. This is because medical imaging images, which are classified into various types, include data (text and images) in different locations depending on the type, so classifying the images by type before text conversion can provide the effect of maximizing efficiency.

예를 들어, 이미지 분류 장치는 의료 영상 이미지의 표준 유형 별로 서로 겹치지 않는 고유한 단어를 각각의 기준 키워드로 설정하고, 설정된 기준 키워드의 위치를 드래그하여 좌표를 추출하여 기준 좌표로 설정할 수 있다. 구체적인 예를 들면, 이미지 분류 장치는 영상 이미지의 표준 유형 별로 서로 겹치지 않는 기준 키워드로 설정하면, 마우스 핸들러(mouse handler)로 기준 키워드의 시작점과 끝점의 좌표를 추출하여 기준 좌표로 설정할 수 있다. For example, the image classification device can set unique words that do not overlap each other for each standard type of medical image image as each reference keyword, extract the coordinates by dragging the position of the set reference keyword, and set it as the reference coordinate. For a specific example, if the image classification device sets standard keywords that do not overlap each other for each standard type of video image, the coordinates of the start and end points of the standard keyword can be extracted using a mouse handler and set as the reference coordinates.

다른 예를 들어, 이미지 분류 장치는 입력된 이미지에 포함된 단어 및 단어의 좌표가 표준 유형 별로 설정된 기준 키워드 및 기준 좌표와 일치하면, 입력된 이미지를 기준 키워드로 설정된 표준 유형으로 분류할 수 있다. 이에 따라, 이미지 분류 장치는 키워드 및 좌표가 일치하는 한 입력된 이미지는 동일한 표준 유형으로 분류할 수 있다. For another example, if the word and the coordinates of the word included in the input image match the reference keyword and reference coordinate set for each standard type, the image classification device may classify the input image into the standard type set as the standard keyword. Accordingly, the image classification device can classify input images into the same standard type as long as the keywords and coordinates match.

본 개시의 이미지 분류 방법은 텍스트로 변환하는 텍스트 변환 단계를 포함할 수 있다(S920). 일 실시예에 따라 이미지 분류 장치는 분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다. 일 예로, 이미지 분류 장치는 입력된 이미지가 표준 유형 중 특정 유형으로 분류되면, 분류된 이미지에 포함된 모든 데이터가 추출될 때까지 세부 이미지와 좌표를 추출하여 텍스트로 변환하는 과정을 반복할 수 있다. The image classification method of the present disclosure may include a text conversion step of converting the image into text (S920). According to one embodiment, an image classification device may extract detailed images and coordinates from classified images and convert the extracted detailed images into text using a deep learning algorithm. For example, if an input image is classified as a specific type among standard types, the image classification device may repeat the process of extracting detailed images and coordinates and converting them to text until all data included in the classified image is extracted. .

다른 일 예로, 이미지 분류 장치는 분류된 이미지로부터 세부 이미지와 좌표를 추출하는 정확도를 높이기 위하여 입력된 이미지를 전처리 할 수 있다. 예를 들어, 이미지 분류 장치는 입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 입력된 이미지를 전처리할 수 있다. 이는 그레이 스케일 방법과 리스케일 방법을 통합한 방법일 수 있다. 구체적인 예를 들면, 이미지 분류 장치는 입력된 원본 이미지의 크기를 두 배로 조정한 다음에 회색조 이미지로 조정한 후, 일반적으로 특수 문자가 포함되지 않고 알파벳 문자만 포함되는 입력 이미지의 특성을 고려하여 화이트리스트를 필드 별로 적용할 수 있다. 다만, 이미지의 크기가 조정되는 비율이 두 배로 한정되는 것은 아니다.As another example, an image classification device may preprocess input images to increase the accuracy of extracting detailed images and coordinates from classified images. For example, an image classification device can preprocess the input image by enlarging the size of the input image at an arbitrary magnification, adjusting it to a grayscale image, and then applying a whitelist to each field. This may be a method that integrates the gray scale method and the rescale method. For example, the image classification device doubles the size of the original input image, adjusts it to a grayscale image, and then white-scales it, taking into account the characteristics of the input image, which generally contains only alphabetic characters and no special characters. The list can be applied to each field. However, the rate at which the image is resized is not limited to doubling.

또 다른 일 예로, 이미지 분류 장치는 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 표준화된 데이터 형식의 텍스트로 변환할 수 있다. 예를 들어, 딥 러닝 알고리즘은 LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)일 수 있다. 구체적인 예를 들면, LSTM은 신경망 네트워크에서 현재 입력 값과 과거의 입력 값을 동시에 고려하여 판단하도록 하는 RNN(Recurrent Neural Networks)의 향상된 알고리즘일 수 있다. 또한, LSTM은 출력 단에서 구한 오차를 신경망을 거슬러 가면서 각 계수를 업데이트하여 오차를 보정하는 역전파(back propagation) 과정이 포함되어 RNN의 인식과정보다 인식률을 향상시킬 수 있다. 다른 예를 들어, 이미지 분류 장치는 클래스 라벨만 순서대로 있고 각 클래스의 위치는 모르는 unsegmented 시퀀스 데이터를 학습 시키는 알고리즘인 CTC(Connectionist Temporal Classification)을 이용하여 이미지를 표준화된 데이터 형식의 텍스트로 변환할 수 있다. 다만, 본 개시의 딥 러닝 알고리즘은 이에 제한되지 않고 현재 또는 장래에 사용될 수 있는 다양한 알고리즘으로 구성될 수 있다. As another example, an image classification device can convert extracted detailed images into text in a standardized data format using a deep learning algorithm. For example, the deep learning algorithm may be an optical character recognition module (OCR) that utilizes Long Short-Term Memory (LSTM). For a specific example, LSTM may be an improved algorithm of RNN (Recurrent Neural Networks) that allows a neural network network to make decisions by simultaneously considering current input values and past input values. In addition, LSTM includes a back propagation process that corrects the error by updating each coefficient by passing the error obtained at the output stage back through the neural network, which can improve the recognition rate compared to the recognition process of RNN. For another example, an image classification device can convert images into text in a standardized data format using CTC (Connectionist Temporal Classification), an algorithm that learns unsegmented sequence data in which only class labels are in order and the location of each class is unknown. there is. However, the deep learning algorithm of the present disclosure is not limited to this and may consist of various algorithms that can be used now or in the future.

본 개시의 이미지 분류 방법은 최종 타겟 파일을 생성하여 데이터베이스에 저장하는 데이터베이스 저장 단계를 포함할 수 있다(S930). 일 실시예에 따라 이미지 분류 장치는 타겟 파일로부터 추출된 열과 행을 기준으로 변환된 텍스트를 입력하여 최종 타겟 파일을 생성할 수 있다. 그리고 이미지 분류 장치는 생성된 최종 타겟 파일을 데이터베이스에 저장할 수 있다. 예를 들어, 이미지 분류 장치는 텍스트를 입력할 타겟 파일로부터 열과 행을 추출하여 변수를 포함하는 열과 사례 변호를 포함하는 행으로 구성된 최종 타겟 파일을 생성할 수 있다. 그리고, 이미지 분류 장치는 이미지로부터 변환된 모든 텍스트가 입력될 때까지 추출된 열과 행을 기준으로 입력하는 과정을 반복하여 최종 타겟 파일을 생성할 수 있다. 이에 따라, 이미지 분류 장치는 호환성이 높은 CSV (Common-Separated Value) 또는 Excel 형식의 형태로 최종 타겟 파일을 생성하여 데이터베이스에 저장할 수 있다. The image classification method of the present disclosure may include a database storage step of generating a final target file and storing it in the database (S930). According to one embodiment, the image classification device may generate a final target file by inputting text converted based on columns and rows extracted from the target file. And the image classification device can store the generated final target file in the database. For example, an image classification device can extract columns and rows from a target file into which to input text and generate a final target file consisting of columns containing variables and rows containing case descriptions. Additionally, the image classification device can generate the final target file by repeating the input process based on the extracted columns and rows until all text converted from the image is input. Accordingly, the image classification device can generate a final target file in highly compatible CSV (Common-Separated Value) or Excel format and save it in the database.

일 예로, 이미지 분류 장치는 입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 데이터베이스에 저장할 수 있다. 예를 들어, 이미지 분류 장치는 테스트 결과가 포함된 테이블, 환자 정보가 포함된 테이블 및 기타 테스트 관련 테이블로 구성될 수 있다.As an example, an image classification device may classify items to be extracted from an input image into an Entity Relationship Model structure and store them in a database. For example, an image classification device may consist of a table containing test results, a table containing patient information, and other test-related tables.

이상에서 설명한 바와 같이 본 개시에 의하면, 이미지 분류 장치 및 방법을 제공할 수 있다. 특히 의료 영상 이미지 내의 키워드 및 좌표를 이용하여 표준 유형에 따라 이미지를 분류하고 텍스트를 추출함으로써, 이미지로부터 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공할 수 있다. 또한, 딥 러닝 알고리즘을 이용하여 의료 영상 이미지를 분류하고 항목화하여 저장함으로써 빅데이터로 활용 가능한 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공할 수 있다. As described above, according to the present disclosure, an image classification device and method can be provided. In particular, it is possible to provide an image classification device and method that can generate standardized data from images by classifying images according to standard types and extracting text using keywords and coordinates in medical image images. In addition, it is possible to provide an image classification device and method that can generate standardized data that can be used as big data by classifying, itemizing, and storing medical image images using a deep learning algorithm.

이상에서는 본 개시의 실시예에 따른 이미지 분류 방법이 도9 에서와 같은 절차로 수행되는 것으로 설명되었으나, 이는 설명의 편의를 위한 것일 뿐, 본 개시의 본질적인 개념을 벗어나지 않는 범위 내에서, 구현 방식에 따라 각 단계의 수행 절차가 바뀌거나 둘 이상의 단계가 통합되거나 하나의 단계가 둘 이상의 단계로 분리되어 수행될 수도 있다. In the above, the image classification method according to the embodiment of the present disclosure has been described as being performed through the same procedure as in FIG. 9, but this is only for convenience of explanation, and within the scope of the essential concept of the present disclosure, the method of implementation Accordingly, the performance procedure of each step may be changed, two or more steps may be integrated, or one step may be performed separately into two or more steps.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as “include,” “comprise,” or “have” as used above mean that the corresponding component may be included, unless specifically stated to the contrary, and thus do not exclude other components. Rather, it should be interpreted as being able to include other components. All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which this disclosure pertains. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the context meaning of the related technology, and should not be interpreted in an idealized or overly formal sense unless explicitly defined in the present disclosure.

이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 개시에 개시된 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present disclosure, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. Accordingly, the embodiments disclosed in the present disclosure are not intended to limit the technical idea of the present disclosure but are for illustrative purposes, and the scope of the technical idea of the present disclosure is not limited by these embodiments. The scope of protection of this disclosure should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this disclosure.

Claims (16)

의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 상기 기준 키워드 및 상기 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류부;
분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 상기 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환부; 및
타겟 파일로부터 추출된 열과 행을 기준으로 상기 텍스트를 입력하여 최종 타겟 파일을 생성하고, 상기 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장부를 포함하되,
상기 이미지 분류부는,
상기 표준 유형 별로 서로 겹치지 않는 고유한 단어를 상기 기준 키워드로 설정하고, 상기 키워드의 위치를 드래그하여 추출한 좌표를 상기 기준 좌표로 설정하고, 입력된 이미지에 포함된 단어 및 상기 단어의 좌표가 상기 기준 키워드 및 기준 좌표와 일치하면, 상기 입력된 이미지를 상기 기준 키워드로 설정된 상기 표준 유형으로 분류하는 것을 특징으로 하는 이미지 분류 장치.
an image classification unit that sets reference keywords and reference coordinates according to the standard type of medical image image, and classifies the type of input image based on the reference keyword and the reference coordinates;
a text conversion unit that extracts detailed images and coordinates from the classified images and converts the extracted detailed images into text using a deep learning algorithm; and
A database storage unit that generates a final target file by inputting the text based on the columns and rows extracted from the target file and stores the final target file in a database,
The image classification unit,
A unique word that does not overlap with each other for each standard type is set as the reference keyword, coordinates extracted by dragging the position of the keyword are set as the reference coordinates, and a word included in the input image and the coordinates of the word are set as the reference keyword. If the keyword and the reference coordinate match, the image classification device classifies the input image into the standard type set by the reference keyword.
삭제delete 삭제delete 제 1 항에 있어서,
상기 텍스트 변환부는,
입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 상기 입력된 이미지를 전처리하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The text conversion unit,
An image classification device characterized by enlarging the size of the input image at a random magnification, adjusting it to a grayscale image, and then applying a whitelist to each field to preprocess the input image.
제 1 항에 있어서,
상기 딥 러닝 알고리즘은,
LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)인 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The deep learning algorithm is,
An image classification device characterized by an optical character recognition module (Optical character reader, OCR) utilizing LSTM (Long Short-Term Memory).
제 1 항에 있어서,
상기 텍스트 변환부는,
분류된 이미지에 포함된 모든 데이터가 추출될 때까지 상기 세부 이미지와 상기 좌표를 추출하여 상기 텍스트로 변환하는 과정을 반복하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The text conversion unit,
An image classification device that repeats the process of extracting the detailed image and the coordinates and converting them to the text until all data included in the classified image is extracted.
제 1 항에 있어서,
상기 데이터베이스 저장부는,
변수를 포함하는 상기 열과 사례 변호를 포함하는 상기 행으로 구성된 상기 최종 타겟 파일을 생성하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The database storage unit,
and generating the final target file consisting of the columns containing variables and the rows containing case descriptions.
제 1 항에 있어서,
상기 데이터베이스 저장부는,
입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 상기 데이터베이스에 저장하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The database storage unit,
An image classification device that classifies items to be extracted from input images into an Entity Relationship Model structure and stores them in the database.
의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 상기 기준 키워드 및 상기 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류 단계;
분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 상기 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환 단계; 및
타겟 파일로부터 추출된 열과 행을 기준으로 상기 텍스트를 입력하여 최종 타겟 파일을 생성하고, 상기 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장 단계를 포함하되,
상기 이미지 분류 단계는,
상기 표준 유형 별로 서로 겹치지 않는 고유한 단어를 상기 기준 키워드로 설정하고, 상기 기준 키워드의 위치를 드래그하여 추출한 좌표를 상기 기준 좌표로 설정하고, 입력된 이미지에 포함된 단어 및 상기 단어의 좌표가 상기 기준 키워드 및 상기 기준 좌표와 일치하면, 상기 입력된 이미지를 상기 기준 키워드로 설정된 상기 표준 유형으로 분류하는 것을 특징으로 하는 이미지 분류 방법.
An image classification step of setting reference keywords and reference coordinates according to the standard type of medical image image and classifying the type of input image based on the reference keyword and reference coordinates;
A text conversion step of extracting detailed images and coordinates from the classified images and converting the extracted detailed images into text using a deep learning algorithm; and
A database storage step of generating a final target file by inputting the text based on the columns and rows extracted from the target file, and storing the final target file in a database,
The image classification step is,
A unique word that does not overlap each other for each standard type is set as the reference keyword, the coordinates extracted by dragging the position of the reference keyword are set as the reference coordinates, and the word included in the input image and the coordinates of the word are set as the reference keyword. An image classification method characterized in that, if the reference keyword and the reference coordinate match, the input image is classified into the standard type set by the reference keyword.
삭제delete 삭제delete 제 9 항에 있어서,
상기 텍스트 변환 단계는,
입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 상기 입력된 이미지를 전처리하는 것을 특징으로 하는 이미지 분류 방법.
According to clause 9,
The text conversion step is,
An image classification method characterized by enlarging the size of the input image by an arbitrary magnification, adjusting it to a grayscale image, and then applying a whitelist to each field to preprocess the input image.
제 9 항에 있어서,
상기 딥 러닝 알고리즘은,
LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)인 것을 특징으로 하는 이미지 분류 방법.
According to clause 9,
The deep learning algorithm is,
An image classification method characterized by an optical character recognition module (Optical character reader, OCR) utilizing LSTM (Long Short-Term Memory).
제 9 항에 있어서,
상기 텍스트 변환 단계는,
분류된 이미지에 포함된 모든 데이터가 추출될 때까지 상기 세부 이미지와 상기 좌표를 추출하여 상기 텍스트로 변환하는 과정을 반복하는 것을 특징으로 하는 이미지 분류 방법.
According to clause 9,
The text conversion step is,
An image classification method characterized by repeating the process of extracting the detailed image and the coordinates and converting them to the text until all data included in the classified image is extracted.
제 9 항에 있어서,
상기 데이터베이스 저장 단계는,
변수를 포함하는 상기 열과 사례 번호를 포함하는 상기 행으로 구성된 상기 최종 타겟 파일을 생성하는 것을 특징으로 하는 이미지 분류 방법.
According to clause 9,
The database storage step is,
An image classification method, characterized in that generating the final target file consisting of the columns containing variables and the rows containing case numbers.
제 9 항에 있어서,
상기 데이터베이스 저장 단계는,
입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 상기 데이터베이스에 저장하는 것을 특징으로 하는 이미지 분류 방법.
According to clause 9,
The database storage step is,
An image classification method characterized by classifying items to be extracted from an input image into an Entity Relationship Model structure and storing them in the database.
KR1020210101124A 2021-08-02 2021-08-02 Apparatus and method for classifying images KR102604122B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210101124A KR102604122B1 (en) 2021-08-02 2021-08-02 Apparatus and method for classifying images
PCT/KR2022/011188 WO2023013989A1 (en) 2021-08-02 2022-07-29 Image classification device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210101124A KR102604122B1 (en) 2021-08-02 2021-08-02 Apparatus and method for classifying images

Publications (2)

Publication Number Publication Date
KR20230019523A KR20230019523A (en) 2023-02-09
KR102604122B1 true KR102604122B1 (en) 2023-11-20

Family

ID=85154612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210101124A KR102604122B1 (en) 2021-08-02 2021-08-02 Apparatus and method for classifying images

Country Status (2)

Country Link
KR (1) KR102604122B1 (en)
WO (1) WO2023013989A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006106922A (en) * 2004-10-01 2006-04-20 Resource One Co Ltd Medical information management system
KR101769918B1 (en) * 2017-05-17 2017-08-21 주식회사 마인드그룹 Recognition device based deep learning for extracting text from images
US20210012133A1 (en) * 2019-03-21 2021-01-14 Abiomed, Inc. Intelligent Image Segmentation Prior to Optical Character Recognition (OCR)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373884B1 (en) * 2019-12-30 2022-03-15 동국대학교 산학협력단 Image data processing method for searching images by text

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006106922A (en) * 2004-10-01 2006-04-20 Resource One Co Ltd Medical information management system
KR101769918B1 (en) * 2017-05-17 2017-08-21 주식회사 마인드그룹 Recognition device based deep learning for extracting text from images
US20210012133A1 (en) * 2019-03-21 2021-01-14 Abiomed, Inc. Intelligent Image Segmentation Prior to Optical Character Recognition (OCR)

Also Published As

Publication number Publication date
WO2023013989A1 (en) 2023-02-09
KR20230019523A (en) 2023-02-09

Similar Documents

Publication Publication Date Title
Mathew et al. Docvqa: A dataset for vqa on document images
Altwaijry et al. Arabic handwriting recognition system using convolutional neural network
CN110135411A (en) Business card identification method and device
JP4311552B2 (en) Automatic document separation
US11810070B2 (en) Classifying digital documents in multi-document transactions based on embedded dates
CN109902223B (en) Bad content filtering method based on multi-mode information characteristics
CN201191870Y (en) Mobile phone having OCR recognition function
CN110335653A (en) Non-standard case history analytic method based on openEHR case history format
CN114912887B (en) Clinical data input method and device based on electronic medical record
Zhang et al. Surgical instruction generation with transformers
CN113762100B (en) Method, device, computing equipment and storage medium for extracting and standardizing names in medical notes
Toledo et al. Handwritten word image categorization with convolutional neural networks and spatial pyramid pooling
KR102604122B1 (en) Apparatus and method for classifying images
Lopresti et al. Issues in ground-truthing graphic documents
Kobayashi et al. Basic research on a handwritten note image recognition system that combines two OCRs
CN116469505A (en) Data processing method, device, computer equipment and readable storage medium
Suganthi et al. An offline English optical character recognition and NER using LSTM and adaptive neuro-fuzzy inference system
KR102452814B1 (en) Methods for analyzing and extracting issues in documents
Neme et al. Authorship attribution as a case of anomaly detection: A neural network model
TW200409046A (en) Optical character recognition device, document searching system, and document searching program
Sajeevan et al. Detection of personality traits through handwriting analysis using machine learning approach
Lafia et al. Digitizing and parsing semi-structured historical administrative documents from the GI Bill mortgage guarantee program
Butala et al. Natural language parser for physician’s handwritten prescription
Bagwe et al. Optical character recognition using deep learning techniques for printed and handwritten documents
KR102297721B1 (en) System for evaluation a validity of plagiarism, the system application to output method a probavbility of plagiarism using a search plagiarism-area

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant