KR20230019523A - Apparatus and method for classifying images - Google Patents

Apparatus and method for classifying images Download PDF

Info

Publication number
KR20230019523A
KR20230019523A KR1020210101124A KR20210101124A KR20230019523A KR 20230019523 A KR20230019523 A KR 20230019523A KR 1020210101124 A KR1020210101124 A KR 1020210101124A KR 20210101124 A KR20210101124 A KR 20210101124A KR 20230019523 A KR20230019523 A KR 20230019523A
Authority
KR
South Korea
Prior art keywords
image
coordinates
image classification
text
extracted
Prior art date
Application number
KR1020210101124A
Other languages
Korean (ko)
Other versions
KR102604122B1 (en
Inventor
최인영
김동민
이서준
이화영
장동진
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020210101124A priority Critical patent/KR102604122B1/en
Priority to PCT/KR2022/011188 priority patent/WO2023013989A1/en
Publication of KR20230019523A publication Critical patent/KR20230019523A/en
Application granted granted Critical
Publication of KR102604122B1 publication Critical patent/KR102604122B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

The present disclosure relates to a device and method for classifying an image. Specifically, by classifying the image and extracting a text according to a standard type using a keyword and coordinate in a medical-image image, the present invention enables in providing the device and method for classifying the image that can generate the standardized data from the image. In addition, by classifying, itemizing, and storing the medical-image image using a deep learning algorithm, the present invention enables to provide the device and method for classifying the image that can generate the standardized data that can be used as big data. The device comprises: an image classification part; a text conversion part; and a database storage part.

Description

이미지 분류 장치 및 방법{APPARATUS AND METHOD FOR CLASSIFYING IMAGES}Image classification apparatus and method {APPARATUS AND METHOD FOR CLASSIFYING IMAGES}

본 실시예들은 이미지 분류 장치 및 방법을 제공한다.The present embodiments provide an image classification apparatus and method.

전 세계적으로 호흡기 질환은 코로나 바이러스 감염증 19(COVID-19) 출현 이전부터 주요 사망 원인 중 하나입니다. 세계 보건 기구(WHO)의 보고서에 따르면, 폐 관련 중증 질환의 5대 주요 원인은 만성 폐쇄성 폐 질환 (COPD), 천식, 급성하기도 감염, 결핵 (TB) 및 폐암으로 분류되며, 매년 400만 명이 만성 호흡기 질환으로 조기 사망하는 것으로 분석됩니다. 더구나, 최근 COVID-19 유행으로 인해 폐 질환의 발생을 예측하기 위해 많은 연구가 진행되고 있습니다. Globally, respiratory illness is one of the leading causes of death even before the advent of coronavirus disease 19 (COVID-19). According to a report by the World Health Organization (WHO), the five leading causes of severe lung-related diseases are chronic obstructive pulmonary disease (COPD), asthma, acute lower respiratory tract infections, tuberculosis (TB) and lung cancer, which affect 4 million people annually. It is analyzed that premature death due to respiratory disease is analyzed. Moreover, many studies are being conducted to predict the occurrence of lung diseases due to the recent COVID-19 epidemic.

최근에는 인공지능 분야의 발전으로 인해 빅데이터의 중요성이 커지고 있습니다. 또한 의료서비스의 트렌드가 치료 중심에서 예방 중심 및 건강관리 중심으로 바뀌고 의료 데이터를 활용한 인공지능(Artificial intelligence, AI) 기술이 발전하고 있습니다. 이렇게 의료분야에서도 인공지능을 이용한 첨단의료기술이 빠르게 발전함에 따라 인공지능의 제작과 학습에 필요한 학습 데이터는 그 어느 때보다 중요한 자산에 해당됩니다. 특히, COVID-19 유행으로 인해 폐 질환의 발생을 예측하기 위해 검사에서 얻은 의료 데이터가 질환 분석에 많이 사용되고 이로 인해 검사와 관련된 표준화된 빅데이터를 필요로 합니다. Recently, the importance of big data is growing due to the development of artificial intelligence. In addition, the trend of medical service is changing from treatment-oriented to prevention-oriented and health management-oriented, and artificial intelligence (AI) technology using medical data is developing. As cutting-edge medical technology using artificial intelligence develops rapidly in the medical field, learning data required for production and learning of artificial intelligence is more important than ever. In particular, due to the COVID-19 epidemic, medical data obtained from tests to predict the occurrence of lung diseases is widely used in disease analysis, which requires standardized big data related to tests.

다만, 의료 데이터는 영상검사결과, 진료기록지, 수술기록지, 간호 기록지 및 혈액 검사 등 많은 데이터를 포함하고 있으나 대부분의 이미지화된 데이터는 영상에서 바로 추출할 수 없고 데이터를 정규화하기 힘들다는 문제점을 가지고 있습니다. 즉, 데이터가 EMR (전자 의료 기록)에 저장되어 있더라도 표준화되지 않은 형식 또는 적절한 통계 분석을 수행 할 수 없는 형식으로 저장되어 있다면 응용 연구를 위한 빅데이터로 활용하기 어렵다는 문제점이 있습니다. However, medical data includes a lot of data such as image test results, medical records, surgical records, nursing records, and blood tests, but most imaged data cannot be directly extracted from images and it is difficult to normalize the data. . In other words, even if the data is stored in EMR (electronic medical record), it is difficult to utilize it as big data for applied research if it is stored in a non-standardized format or in a format in which appropriate statistical analysis cannot be performed.

이런 상황에서 학습을 위해 양질의 의료 데이터 수천 내지 수만 건을 일일이 수작업으로 분류 또는 항목화하는 작업은 시간과 비용 소모가 매우 많이 필요합니다. 따라서, 환자들로부터 획득한 검사 데이터를 질환 분석에 대한 연구 및 질환 예측을 위한 빅데이터로 활용하기 위해서는 의료 영상 데이터에서 텍스트를 추출하는 기술을 필요로 하고 있습니다. 구체적으로, 의료 영상 데이터를 분류하고 항목화하는 의료 영상 처리 기술을 필요로 하고 있습니다. In this situation, manually classifying or itemizing thousands or tens of thousands of high-quality medical data for learning is very time-consuming and costly. Therefore, in order to utilize test data obtained from patients as big data for disease analysis research and disease prediction, a technology for extracting text from medical image data is required. Specifically, medical image processing technology that classifies and itemizes medical image data is required.

이러한 배경에서, 본 실시예들은 의료 이미지를 분류하고 항목화하여 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공하는데 있다. Against this background, the present embodiments provide an image classification apparatus and method capable of generating standardized data by classifying and itemizing medical images.

전술한 목적을 달성하기 위하여, 일 측면에서, 본 실시예는, 이미지 분류 장치에 있어서, 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류부, 분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환부 및 타겟 파일로부터 추출된 열과 행을 기준으로 텍스트를 입력하여 최종 타겟 파일을 생성하고, 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장부를 포함하는 이미지 분류 장치를 제공한다.In order to achieve the above object, in one aspect, in the image classification apparatus, a reference keyword and reference coordinates are set according to a standard type of a medical imaging image, and input based on the reference keyword and reference coordinates is inputted. An image classification unit that classifies the type of image, a text conversion unit that extracts detailed images and coordinates from the classified images and converts the extracted detailed images into text using a deep learning algorithm, and a column and row extracted from the target file. An image classification device including a database storage unit for generating a final target file by inputting text and storing the final target file in a database is provided.

다른 측면에서, 본 실시예는 이미지 분류 방법에 있어서, 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류 단계, 분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환 단계 및 타겟 파일로부터 추출된 열과 행을 기준으로 텍스트를 입력하여 최종 타겟 파일을 생성하고, 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장 단계를 포함하는 것을 특징으로 하는 이미지 분류 방법을 제공한다. In another aspect, in the image classification method according to the present embodiment, the image classification step of setting a reference keyword and reference coordinates according to a standard type of a medical imaging image, and classifying the type of an input image based on the reference keyword and reference coordinates. , A text conversion step of extracting detailed images and coordinates from classified images and converting the extracted detailed images into text using a deep learning algorithm, and inputting text based on columns and rows extracted from the target file to obtain the final target file. It provides an image classification method comprising a database storage step of generating and storing a final target file in a database.

본 실시예들에 의하면, 의료 이미지를 분류하고 항목화하여 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공할 수 있다. According to the present embodiments, it is possible to provide an image classification apparatus and method capable of generating standardized data by classifying and itemizing medical images.

도 1은 본 개시의 일 실시예에 따른 이미지 분류 장치의 구성을 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 최종 타겟 파일을 생성하는 동작을 설명하기 위한 흐름도이다.
도 3은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 최종 타겟 파일을 생성하는 전체 동작을 설명하기 위한 흐름도이다.
도 4는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 사용되는 의료 영상 이미지의 표준 유형의 예시를 도시한 도면이다.
도 5는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 이미지의 유형을 분류하는 동작을 설명하기 위한 예시를 도시한 도면이다.
도 6은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 입력된 이미지를 전처리하는 동작을 설명하기 위한 예시를 도시한 도면이다.
도 7은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 변환된 텍스트를 입력하는 동작을 설명하기 위한 예시를 도시한 도면이다.
도 8은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 데이터베이스의 구조를 설명하기 위한 예시를 도시한 도면이다.
도 9는 본 개시의 다른 실시예에 따른 이미지 분류 방법의 흐름도이다.
1 is a diagram showing the configuration of an image classification apparatus according to an embodiment of the present disclosure.
2 is a flowchart illustrating an operation of generating a final target file in an image classification apparatus according to an embodiment of the present disclosure.
3 is a flowchart illustrating an entire operation of generating a final target file in an image classification apparatus according to an embodiment of the present disclosure.
4 is a diagram illustrating examples of standard types of medical imaging images used in an image classification apparatus according to an embodiment of the present disclosure.
5 is a diagram illustrating an example for explaining an operation of classifying an image type in an image classification apparatus according to an embodiment of the present disclosure.
6 is a diagram illustrating an example for explaining an operation of pre-processing an input image in an image classification apparatus according to an embodiment of the present disclosure.
7 is a diagram illustrating an example for explaining an operation of inputting converted text in the image classification apparatus according to an embodiment of the present disclosure.
8 is a diagram illustrating an example for explaining the structure of a database in an image classification apparatus according to an embodiment of the present disclosure.
9 is a flowchart of an image classification method according to another embodiment of the present disclosure.

본 개시는 이미지 분류 장치 및 방법에 관한 것이다. The present disclosure relates to an image classification apparatus and method.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.DETAILED DESCRIPTION Some embodiments of the present disclosure are described in detail below with reference to exemplary drawings. In adding reference numerals to components of each drawing, the same components may have the same numerals as much as possible even if they are displayed on different drawings. In addition, in describing the present embodiments, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When "comprises", "has", "consists of", etc. mentioned in this specification is used, other parts may be added unless "only" is used. In the case where a component is expressed in the singular, it may include the case of including the plural unless otherwise explicitly stated.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. Also, terms such as first, second, A, B, (a), and (b) may be used in describing the components of the present disclosure. These terms are only used to distinguish the component from other components, and the nature, sequence, order, or number of the corresponding component is not limited by the term.

구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of components, when it is described that two or more components are "connected", "coupled" or "connected", the two or more components are directly "connected", "coupled" or "connected". ", but it will be understood that two or more components and other components may be further "interposed" and "connected", "coupled" or "connected". Here, other components may be included in one or more of two or more components that are “connected”, “coupled” or “connected” to each other.

구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of the temporal flow relationship related to components, operation methods, production methods, etc., for example, "after", "continued to", "after", "before", etc. Alternatively, when a flow sequence relationship is described, it may also include non-continuous cases unless “immediately” or “directly” is used.

한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when a numerical value or corresponding information (eg, level, etc.) for a component is mentioned, even if there is no separate explicit description, the numerical value or its corresponding information is not indicated by various factors (eg, process factors, internal or external shocks, noise, etc.) may be interpreted as including an error range that may occur.

본 명세서에서의 광학 문자 인식 모듈(Optical character reader, OCR)은 필기체 또는 인쇄된 문서를 입력으로 받아 컴퓨터가 이해할 수 있는 데이터로 변환하는데 사용되는 것으로, OCR의 응용 분야로 차량 번호판, 영수증, 여권, 수표 등의 인식 등과 같은 다양한 분야에 적용하고 있는 기술이다. 즉, 광학 준자 인식 모듈을 이용하면 이미지, PDF 파일 또는 기타 유형의 파일 (텍스트가 포함 된 경우)을 기계 인코딩 형식의 텍스트로 편리하게 변환 할 수 있다. 예를 들어, Tesseract OCR은 오픈 소스 기반 광학 문자 인식 엔진일 수 있다.The optical character reader (OCR) in this specification is used to receive handwritten or printed documents as input and convert them into data that a computer can understand. The application fields of OCR include vehicle license plates, receipts, passports, It is a technology applied to various fields such as recognition of checks, etc. In other words, with the optical quasi-java recognition module, you can conveniently convert images, PDF files, or other types of files (if they contain text) into text in machine-encoded format. For example, Tesseract OCR can be an open source based optical character recognition engine.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 이미지 분류 장치의 구성을 도시한 도면이다.1 is a diagram showing the configuration of an image classification apparatus according to an embodiment of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치(100)는, 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류부(110), 분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환부(120) 및 타겟 파일로부터 추출된 열과 행을 기준으로 텍스트를 입력하여 최종 타겟 파일을 생성하고, 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장부(130)를 포함하는 이미지 분류 장치(100)를 제공한다. Referring to FIG. 1 , the image classification apparatus 100 according to an embodiment of the present disclosure sets standard keywords and standard coordinates according to standard types of medical imaging images, and sets an input image based on the standard keywords and standard coordinates. An image classification unit 110 that classifies the type of , a text conversion unit 120 that extracts detailed images and coordinates from the classified images, and converts the extracted detailed images into text using a deep learning algorithm, and extracts from a target file Provided is an image classification apparatus 100 including a database storage unit 130 that generates a final target file by inputting text based on columns and rows and stores the final target file in a database.

일 실시예에 따라 이미지 분류부(110)는 의료 영상 이미지의 표준 유형에 따라 입력된 이미지의 유형을 분류할 수 있다. 일 예로, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형에 따라 각각의 기준 키워드 및 기준 좌표를 설정하고, 설정된 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류할 수 있다. 이는, 여러 가지 유형으로 구분되는 의료 영상 이미지가 유형에 따라 다른 위치의 데이터(텍스트 및 이미지)를 포함하기 때문에 텍스트 변환 전에 이미지를 유형 별로 분류하면 효율이 극대화되는 효과를 제공할 수 있다.According to an embodiment, the image classification unit 110 may classify the type of the input image according to the standard type of the medical imaging image. For example, the image classification unit 110 may set each reference keyword and reference coordinates according to the standard type of the medical imaging image, and classify the type of the input image based on the set reference keyword and reference coordinates. Since medical imaging images classified into various types include data (text and image) at different positions depending on the type, classification of images by type before text conversion can provide an effect of maximizing efficiency.

예를 들어, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형 별로 서로 겹치지 않는 고유한 단어를 각각의 기준 키워드로 설정하고, 설정된 기준 키워드의 위치를 드래그하여 좌표를 추출하여 기준 좌표로 설정할 수 있다. 구체적인 예를 들면, 이미지 분류부(110)는 영상 이미지의 표준 유형 별로 서로 겹치지 않는 기준 키워드를 설정하면, 마우스 핸들러(mouse handler)로 기준 키워드의 시작점과 끝점의 좌표를 추출하여 기준 좌표로 설정할 수 있다. For example, the image classification unit 110 may set a unique word that does not overlap with each other for each standard type of medical imaging image as each standard keyword, extract coordinates by dragging the location of the set standard keyword, and set them as standard coordinates. there is. For example, if the image classification unit 110 sets non-overlapping standard keywords for each standard type of video image, the coordinates of the start and end points of the standard keyword can be extracted using a mouse handler and set as standard coordinates. there is.

다른 예를 들어, 이미지 분류부(110)는 입력된 이미지에 포함된 단어 및 단어의 좌표가 표준 유형 별로 설정된 기준 키워드 및 기준 좌표와 일치하면, 입력된 이미지를 기준 키워드로 설정된 표준 유형으로 분류할 수 있다. 이에 따라, 이미지 분류부(110)는 키워드 및 좌표가 일치하면, 입력된 이미지를 동일한 표준 유형으로 분류할 수 있다. For another example, the image classification unit 110 classifies the input image into the standard type set as the standard keyword when words included in the input image and the coordinates of the word match standard keywords and standard coordinates set for each standard type. can Accordingly, the image classification unit 110 may classify the input image into the same standard type when the keyword and the coordinates match.

일 실시예에 따라 텍스트 변환부(120)는 표준 유형 별로 분류된 입력 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다. 일 예로, 텍스트 변환부(120)는 입력된 이미지가 표준 유형 중 특정 유형으로 분류되면, 분류된 이미지에 포함된 모든 데이터가 추출될 때까지 세부 이미지와 좌표를 추출하여 텍스트로 변환하는 과정을 반복할 수 있다. According to an embodiment, the text conversion unit 120 may extract detailed images and coordinates from input images classified according to standard types, and convert the extracted detailed images into text using a deep learning algorithm. For example, when an input image is classified as a specific type among standard types, the text conversion unit 120 repeats a process of extracting detailed images and coordinates and converting them into text until all data included in the classified images are extracted. can do.

다른 일 예로, 텍스트 변환부(120)는 분류된 이미지로부터 세부 이미지와 좌표를 추출하는 정확도를 높이기 위하여 입력된 이미지를 전처리 할 수 있다. 예를 들어, 텍스트 변환부(120)는 입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 입력된 이미지를 전처리할 수 있다. 이는 그레이 스케일 방법과 리스케일 방법을 통합한 방법일 수 있다. 구체적인 예를 들면, 텍스트 변환부(120)는 입력된 원본 이미지의 크기를 두 배로 조정한 다음에 회색조 이미지로 조정한 후, 일반적으로 특수 문자가 포함되지 않고 알파벳 문자만 포함되는 입력 이미지의 특성을 고려한 화이트리스트를 필드 별로 적용할 수 있다. 다만, 이미지의 크기가 조정되는 비율이 두 배로 한정되는 것은 아니다.As another example, the text conversion unit 120 may pre-process the input image to increase the accuracy of extracting detailed images and coordinates from the classified images. For example, the text conversion unit 120 may preprocess the input image by enlarging the size of the input image at an arbitrary magnification and adjusting the size to a grayscale image, and then applying a whitelist for each field. This may be a method combining the gray scale method and the rescale method. For example, the text conversion unit 120 doubles the size of the input original image, adjusts it to a grayscale image, and then generally converts the characteristics of an input image that does not include special characters but only alphabetic characters. The considered whitelist can be applied for each field. However, the ratio at which the size of the image is adjusted is not limited to doubling.

또 다른 일 예로, 텍스트 변환부(120)는 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 표준화된 데이터 형식의 텍스트로 변환할 수 있다. 예를 들어, 딥 러닝 알고리즘은 LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)일 수 있다. 구체적인 예를 들면, LSTM은 신경망 네트워크에서 현재 입력 값과 과거의 입력 값을 동시에 고려하여 판단하도록 하는 RNN(Recurrent Neural Networks)의 향상된 알고리즘일 수 있다. 또한, LSTM은 출력 단에서 구한 오차를 신경망을 거슬러 가면서 각 계수를 업데이트하여 오차를 보정하는 역전파(back propagation) 과정이 포함되어 RNN의 인식과정보다 인식률을 향상시킬 수 있다. 다른 예를 들어, 텍스트 변환부(120)는 클래스 라벨만 순서대로 있고 각 클래스의 위치는 모르는 unsegmented 시퀀스 데이터를 학습 시키는 알고리즘인 CTC(Connectionist Temporal Classification)을 이용하여 이미지를 표준화된 데이터 형식의 텍스트로 변환할 수 있다. 다만, 본 개시의 딥 러닝 알고리즘은 이에 제한되지 않고 현재 또는 장래에 사용될 수 있는 다양한 알고리즘으로 구성될 수 있다. As another example, the text conversion unit 120 may convert the extracted detailed image into text in a standardized data format using a deep learning algorithm. For example, the deep learning algorithm may be an optical character reader (OCR) that utilizes long short-term memory (LSTM). As a specific example, LSTM may be an improved algorithm of recurrent neural networks (RNNs) that allows a neural network to simultaneously consider and determine a current input value and a past input value. In addition, LSTM includes a back propagation process of correcting the error by updating each coefficient while going back through the neural network with the error obtained at the output stage, so the recognition rate can be improved compared to the recognition process of RNN. For another example, the text conversion unit 120 transforms an image into text in a standardized data format using CTC (Connectionist Temporal Classification), an algorithm that learns unsegmented sequence data in which only class labels are in order and the position of each class is not known. can be converted However, the deep learning algorithm of the present disclosure is not limited thereto and may be composed of various algorithms that can be used now or in the future.

일 실시예에 따라, 데이터베이스 저장부(130)는 타겟 파일로부터 추출된 열과 행을 기준으로 변환된 텍스트를 입력하여 최종 타겟 파일을 생성할 수 있다. 그리고 데이터베이스 저장부(130)는 생성된 최종 타겟 파일을 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 텍스트를 입력할 타겟 파일로부터 열과 행을 추출하여 변수를 포함하는 열과 사례 변호를 포함하는 행으로 구성된 최종 타겟 파일을 생성할 수 있다. 그리고, 데이터베이스 저장부(130)는 이미지로부터 변환된 모든 텍스트가 입력될 때까지 추출된 열과 행을 기준으로 입력하는 과정을 반복하여 최종 타겟 파일을 생성할 수 있다. 이에 따라, 데이터베이스 저장부(130)는 호환성이 높은 CSV (Common-Separated Value) 또는 Excel 형식의 형태로 최종 타겟 파일을 생성하여 데이터베이스에 저장할 수 있다. According to an embodiment, the database storage unit 130 may generate a final target file by inputting converted text based on columns and rows extracted from the target file. Also, the database storage unit 130 may store the generated final target file in the database. For example, the database storage unit 130 may extract columns and rows from a target file to which text is to be input, and generate a final target file composed of columns including variables and rows including case codes. Then, the database storage unit 130 may create a final target file by repeating the input process based on the extracted columns and rows until all texts converted from images are input. Accordingly, the database storage unit 130 may generate a final target file in a highly compatible CSV (Common-Separated Value) or Excel format and store it in the database.

일 예로, 데이터베이스 저장부(130)는 입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 테스트 결과가 포함된 테이블, 환자 정보가 포함된 테이블 및 기타 테스트 관련 테이블로 구성될 수 있다. For example, the database storage unit 130 may classify items to be extracted from an input image into an Entity Relationship Model structure and store the items in the database. For example, the database storage unit 130 may include a table including test results, a table including patient information, and other test-related tables.

일 실시예에 따라 이미지 분류 장치는 알고리즘의 정확성을 평가할 수 있는 검증 도구를 더 포함할 수 있다. 여기서, 검증 도구는 유효성 검증 도구(Validator)가 사용될 수 있다. 예를 들어, 알고리즘은 정확도가 항상 일정하지는 않으며 다양한 전처리 및 화이트리스트의 적용에 큰 영향을 받기 때문에 검증이 필요할 수 있다. 여기서, 알고리즘은 Tesseract OCR을 일 예로 설명하나 이에 한정되지는 않는다. According to an embodiment, the image classification apparatus may further include a verification tool capable of evaluating the accuracy of the algorithm. Here, a validator may be used as the verification tool. For example, algorithms may require verification because their accuracy is not always constant and is highly dependent on the application of various pre-processing and whitelisting. Here, the algorithm describes Tesseract OCR as an example, but is not limited thereto.

도 2는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 최종 타겟 파일을 생성하는 동작을 설명하기 위한 흐름도이다. 2 is a flowchart illustrating an operation of generating a final target file in an image classification apparatus according to an embodiment of the present disclosure.

도 2를 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)는 표준 유형 별 기준 키워드 및 기준 좌표를 설정할 수 있다(S210). 일 예로, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정할 수 있다. 여기서, 의료 영상 이미지는 폐 기능 검사(Pulmonary Function Tests, PFT) 결과가 기록된 원본 PFT 이미지 파일로 다양한 유형의 PFT 이미지 시트에 포함된 PFT 결과 이미지일 수 있다. 다만, 폐 기능 검사 이미지는 의료 영상 이미지의 일 예를 설명한 것으로 이에 한정되지는 않는다. 예를 들어, 이미지 분류부(110)는 의료 영상 이미지의 유형에 따라 포함된 데이터(텍스트 및 이미지)의 위치가 다르므로 유형의 표준을 설정하고, 설정된 표준 유형 별로 기준 키워드 및 기준 좌표를 설정할 수 있다. 다른 예를 들면, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형을 unknown type의 유형을 포함하여 8개의 유형으로 설정할 수 있다. 구체적으로 의료 영상 이미지가 PFT 결과 이미지인 경우, 각각의 PFT 결과 이미지는 글자 수, 크기, 두께, 색상 및 글자 사이의 여백이 다를 수 있다. 또한, PFT 결과 이미지에 포함된 문자는 문자 수가 많을수록 크기가 커지고 문자가 두꺼워지며, 문자와 배경의 색상 차이가 클수록 정확도가 높아질 수 있다. 또한, 문자 사이의 여백이 정확도에 영향을 미칠 수 있다. 따라서, 이미지 분류부(110)는 텍스트 변환을 위해 알고리즘 처리 전에 PFT 결과 이미지를 표준 유형 별로 분류하여 효율성을 극대화할 수 있다. Referring to FIG. 2 , the image classification unit 110 of the image classification apparatus according to an embodiment of the present disclosure may set standard keywords and standard coordinates for each standard type (S210). For example, the image classification unit 110 may set standard keywords and standard coordinates according to standard types of medical imaging images. Here, the medical imaging image is an original PFT image file in which Pulmonary Function Tests (PFT) results are recorded, and may be PFT result images included in various types of PFT image sheets. However, the pulmonary function test image describes an example of a medical imaging image, but is not limited thereto. For example, the image classification unit 110 may set a type standard and set standard keywords and reference coordinates for each standard type since the location of included data (text and image) is different depending on the type of the medical image image. there is. For another example, the image classification unit 110 may set standard types of medical imaging images to 8 types including unknown types. Specifically, when the medical imaging image is a PFT result image, each PFT result image may have different numbers of characters, size, thickness, color, and space between characters. In addition, the characters included in the PFT result image increase in size and become thicker as the number of characters increases, and accuracy may increase as the color difference between the characters and the background increases. Also, white space between characters can affect accuracy. Therefore, the image classification unit 110 can maximize efficiency by classifying the resulting PFT images according to standard types before algorithm processing for text conversion.

다만, 표준 유형의 개수는 의료 영상 이미지의 종류에 따라 설정되며, 이에 한정되지는 않는다. However, the number of standard types is set according to the type of medical imaging image, but is not limited thereto.

다른 일 예로, 이미지 분류부(110)는 표준 유형 별로 서로 겹치지 않는 고유한 단어를 기준 키워드로 설정하고, 기준 키워드의 위치를 드래그하여 추출한 좌표를 기준 좌표로 설정할 수 있다. 예를 들어, 이미지 분류부(110)는 의료 영상 이미지의 표준 유형 별로 이미지에 포함된 텍스트 중에서 다른 표준 유형의 이미지에서 설정된 키워드와 겹치지 않는 고유한 단어를 기준 키워드를 설정할 수 있다. 이에 따라 이미지 분류부(110)는 각각의 표준 유형을 대표하는 고유한 단어를 각각의 기준 키워드로 설정할 수 있다. 다른 예를 들어, 이미지 분류부(110)는 표준 유형 별로 설정된 기준 키워드의 위치를 마우스 핸들러(mouse handler)로 드래그하여 기준 키워드의 좌표를 추출하여 기준 좌표로 설정할 수 있다. As another example, the image classification unit 110 may set a unique word that does not overlap with each other for each standard type as a standard keyword, and set coordinates extracted by dragging the position of the standard keyword as the standard coordinates. For example, the image classifier 110 may set a unique word that does not overlap with a keyword set in other standard types of images among text included in the image for each standard type of medical imaging image as a standard keyword. Accordingly, the image classification unit 110 may set a unique word representing each standard type as each standard keyword. For another example, the image classification unit 110 may extract coordinates of the standard keyword by dragging the position of the standard keyword set for each standard type with a mouse handler, and set the coordinates as the standard coordinates.

일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)는 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류할 수 있다(S220). 예를 들어, 이미지 분류부(110)는 입력된 임의의 이미지에 포함된 단어 및 단어의 좌표가 표준 유형 별로 설정된 기준 키워드 및 기준 좌표와 일치하는지 여부를 판단할 수 있다. 그리고 이미지 분류부(110)는 판단 결과, 입력된 이미지에 포함된 단어 및 단어의 좌표와 일치하는 기준 키워드 및 기준 좌표로 설정된 표준 유형으로 입력된 이미지를 분류할 수 있다. 따라서, 이미지 분류부(110)는 입력되는 PFT 이미지 시트에 포함된 PFT 결과 이미지를 표준 유형 별로 분류할 수 있다.The image classification unit 110 of the image classification apparatus according to an embodiment may classify the type of the input image based on the reference keyword and reference coordinates (S220). For example, the image classification unit 110 may determine whether a word included in an input image and the coordinates of the word coincide with a reference keyword and reference coordinates set for each standard type. Further, the image classification unit 110 may classify the input image into a standard type set as a word included in the input image and a reference keyword matching the coordinates of the word and reference coordinates as a result of the determination. Accordingly, the image classification unit 110 may classify the PFT result images included in the input PFT image sheet according to standard types.

일 실시예에 따른 이미지 분류 장치의 텍스트 변환부(120)는 표준 유형 별로 분류된 각각의 이미지로부터 세부 이미지와 좌표를 추출할 수 있다(S230). 일 예로, 텍스트 변환부(120)는 PFT 결과 이미지에서 세부 이미지와 좌표를 추출하기 위해 전처리를 수행할 수 있다. 예를 들어, 텍스트 변환부(120)는 입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 입력된 이미지를 전처리할 수 있다. 구체적인 예를 들면, 텍스트 변환부(120)는 리스케일 방법과 그레이 스케일 방법을 통합한 방법을 통해 입력된 이미지의 크기를 두 배로 조정한 다음 회색조 이미지로 조정할 수 있다. 그리고, 텍스트 변환부(120)는 특수 문자가 포함되지 않고 알파벳 문자만을 포함하는 PFT 결과 이미지의 특성을 고려하여 화이트리스트(Whitelist)를 필드 별로 적용할 수 있다. The text conversion unit 120 of the image classification apparatus according to an embodiment may extract detailed images and coordinates from each image classified by standard type (S230). For example, the text conversion unit 120 may perform preprocessing to extract detailed images and coordinates from the resulting PFT image. For example, the text conversion unit 120 may preprocess the input image by enlarging the size of the input image at an arbitrary magnification and adjusting the size to a grayscale image, and then applying a whitelist for each field. As a specific example, the text conversion unit 120 doubles the size of the input image through a method combining the rescale method and the gray scale method, and then adjusts the size of the input image to a grayscale image. In addition, the text conversion unit 120 may apply a whitelist for each field in consideration of the characteristics of the PFT result image including only alphabetic characters without including special characters.

다른 일 예로, 텍스트 변환부(230)는 전처리된 PFT 결과 이미지에서 세부 이미지와 좌표를 추출할 수 있다. 예를 들어, 텍스트 변환부(230)는 전처리된 PFT 결과 이미지에서 특정 영역에 해당되는 세부 이미지를 추출하고, 세부 이미지의 위치를 특정할 수 있는 양 끝단의 좌표를 추출할 수 있다. As another example, the text conversion unit 230 may extract detailed images and coordinates from the preprocessed PFT result image. For example, the text conversion unit 230 may extract a detailed image corresponding to a specific region from the preprocessed PFT result image, and extract coordinates of both ends capable of specifying the location of the detailed image.

일 실시예에 따른 이미지 분류 장치의 텍스트 변환부(120)는 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다(S240). 일 예로, 텍스트 변환부(120)는 추출된 세부 이미지를 LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR) 기반 딥러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다. 여기서, 광학 문자 인식 모듈은 Tesseract OCR라이브러리 기반일 수 있다. 예를 들어, 텍스트 변환부(120)는 정확도를 극대화하기 위해 딥러닝 알고리즘과 OpenCV를 활용하여 추출된 세부 이미지에 포함된 텍스트를 검출하여 변환할 수 있다. The text conversion unit 120 of the image classification apparatus according to an embodiment may convert the extracted detailed image into text using a deep learning algorithm (S240). For example, the text conversion unit 120 may convert the extracted detailed image into text using a deep learning algorithm based on an optical character reader (OCR) using long short-term memory (LSTM). . Here, the optical character recognition module may be based on the Tesseract OCR library. For example, the text conversion unit 120 may detect and convert text included in the extracted detailed image by using a deep learning algorithm and OpenCV to maximize accuracy.

다른 일 예로, 텍스트 변환부(120)는 분류된 이미지에 포함된 모든 데이터가 추출될 때까지 세부 이미지와 좌표를 추출하여 텍스트로 변환하는 과정을 반복할 수 있다. 예를 들어, 텍스트 변환부(120)는 표준 유형에 따라 분류된 PFT 결과 이미지에 포함된 모든 데이터가 추출될 때까지 PFT 결과 이미지의 영역을 이동해가면서 세부 이미지와 좌표를 추출할 수 있다. 그리고 텍스트 변환부(120)는 PFT 결과 이미지로부터 추출된 각각의 세부 이미지를 딥러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다.As another example, the text conversion unit 120 may repeat a process of extracting detailed images and coordinates and converting them into text until all data included in the classified images are extracted. For example, the text conversion unit 120 may extract detailed images and coordinates while moving an area of the PFT result image until all data included in the PFT result image classified according to the standard type is extracted. Further, the text conversion unit 120 may convert each detailed image extracted from the PFT result image into text using a deep learning algorithm.

일 실시예에 따른 이미지 분류 장치의 데이터베이스 저장부(130)는 타겟 파일의 열 및 행을 추출할 수 있다(S250). 일 예로, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 변환된 텍스트를 입력할 타겟 파일의 열 및 행을 추출할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일로부터 변수 또는 사례 번호에 기초하여 변환된 텍스트를 입력할 열 및 행을 추출할 수 있다. 또한, 데이터베이스 저장부(130)는 PFT 결과 이미지에 포함된 모든 데이터가 입력될 때까지 타겟 파일의 열 및 행을 추출하는 과정을 반복할 수 있다.The database storage unit 130 of the image classification apparatus according to an embodiment may extract columns and rows of the target file (S250). For example, the database storage unit 130 may extract columns and rows of a target file to input converted text from the PFT result image. For example, the database storage unit 130 may extract columns and rows to input converted text based on variables or case numbers from an Excel format target file. In addition, the database storage unit 130 may repeat the process of extracting columns and rows of the target file until all data included in the PFT result image are input.

일 실시예에 따른 이미지 분류 장치의 데이터베이스 저장부(130)는 추출된 열 및 행을 기준으로 텍스트를 입력하여 최종 타겟 파일을 생성할 수 있다(S260). 일 예로, 데이터베이스 저장부(130)는 변수를 포함하는 열과 사례 변호를 포함하는 행으로 구성된 최종 타겟 파일을 생성하여 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 변환된 텍스트를 호환성이 높은 CSV (Common-Separated Value) 또는 Excel 형식의 타겟 파일에 입력하여 생성한 최종 타겟 파일을 데이터베이스에 저장할 수 있다. The database storage unit 130 of the image classification apparatus according to an embodiment may generate a final target file by inputting text based on the extracted columns and rows (S260). For example, the database storage unit 130 may generate and store a final target file composed of columns including variables and rows including case numbers in the database. For example, the database storage unit 130 may store a final target file generated by inputting text converted from a PFT result image into a target file in a highly compatible CSV (Common-Separated Value) or Excel format, in the database.

다른 일 예로, 데이터베이스 저장부(130)는 입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 추출되어야 할 항목을 PFT 결과 정보가 포함된 테이블, 환자 정보가 포함된 테이블 및 기타 PFT 결과 정보 관련 테이블로 구성된 개체 관계 모델 구조로 분류하여 데이터베이스에 저장할 수 있다. 여기서, 기타 PFT 결과 정보 관련 테이블은 폐활량 측정(spirometry), 폐확산 능력(diffusing capacity), 폐용적(ling volume) 및 기도저항(airway resistance) 중 적어도 하나 이상에 관련된 테이블일 수 있다.As another example, the database storage unit 130 may classify items to be extracted from an input image into an Entity Relationship Model structure and store the items in the database. For example, the database storage unit 130 classifies items to be extracted from the PFT result image into an object relation model structure composed of a table including PFT result information, a table including patient information, and other tables related to PFT result information, can be stored in a database. Here, the table related to other PFT result information may be a table related to at least one of spirometry, lung diffusing capacity, ling volume, and airway resistance.

도 3은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 최종 타겟 파일을 생성하는 전체 동작을 설명하기 위한 흐름도이다. 3 is a flowchart illustrating an entire operation of generating a final target file in an image classification apparatus according to an embodiment of the present disclosure.

도 3을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)는 의료 검사 결과의 원본 이미지 파일을 읽어올 수 있다(S301). 예를 들어, 이미지 분류부(110)는 OpenCV(Open Source Computer Vision) 라이브러리를 통해 PFT 검사 결과의 원본 이미지 캡처 파일을 읽어올 수 있다.Referring to FIG. 3 , the image classification unit 110 of the image classification apparatus according to an embodiment of the present disclosure may read an original image file of a medical examination result (S301). For example, the image classification unit 110 may read an original image capture file of a PFT examination result through an Open Source Computer Vision (OpenCV) library.

일 실시예에 따라 이미지 분류부(110)는 이미지의 유형을 분류할 수 있다(S302). 예를 들어, 이미지 분류부(110)는 Tesseract OCR 라이브러리를 통해 PFT 결과 이미지를 표준 유형으로 분류할 수 있다. According to an embodiment, the image classification unit 110 may classify the type of image (S302). For example, the image classification unit 110 may classify the resulting PFT image into a standard type through the Tesseract OCR library.

일 실시예에 따라 이미지 분류부(110)는 분류된 이미지의 유형에 해당하는 기존의 폴더가 존재하는지 판단할 수 있다(S303). 예를 들어, 이미지 분류부(110)는 PFT 결과 이미지가 해당되는 유형을 저장할 수 있는 기존의 폴더가 존재하는지 판단할 수 있다. According to an embodiment, the image classification unit 110 may determine whether an existing folder corresponding to the type of the classified image exists (S303). For example, the image classification unit 110 may determine whether an existing folder in which a type corresponding to a PFT result image is stored exists.

일 실시예에 따라 이미지 분류부(110)는 기존의 폴더가 존재하지 않으면, 새로운 유형의 폴더를 생성할 수 있다(S304). 예를 들어, 이미지 분류부(110)는 PFT 결과 이미지가 해당되는 유형을 저장할 수 있는 새로운 유형의 폴더를 생성할 수 있다.According to an embodiment, the image classification unit 110 may create a new type of folder if no existing folder exists (S304). For example, the image classification unit 110 may create a new type of folder in which a type corresponding to a PFT result image may be stored.

일 실시예에 따라 이미지 분류부(110)는 분류된 유형의 폴더가 존재하면, 해당 폴더에 이미지를 저장할 수 있다(S305). 예를 들어, 이미지 분류부(110)는 기존의 위치에서 PFT 결과 이미지를 해당되는 유형의 폴더로 이동시켜 저장할 수 있다. 여기서, 폴더는 기존의 폴더일 수도 있고, 새로 생성된 유형의 폴더일 수 있다. 또한, 이미지 분류부(110)는 PFT 결과 이미지를 해당 유형의 폴더로 이동시키는 동시에 실시간으로 데이터베이스를 생성하기 위해 메모리 포인터를 설정할 수 있다.According to an embodiment, if a folder of a classified type exists, the image classification unit 110 may store an image in the corresponding folder (S305). For example, the image classification unit 110 may move and store the PFT result image from the existing location to a folder of a corresponding type. Here, the folder may be an existing folder or a newly created type of folder. In addition, the image classification unit 110 may set a memory pointer to create a database in real time while moving the PFT result image to a corresponding type of folder.

일 실시예에 따라 텍스트 변환부(120)는 유형이 분류된 이미지를 전처리할 수 있다(S306). 예를 들어, 텍스트 변환부(120)는 PFT 결과 이미지를 크기 조정 및 회색조 조정을 통해 전처리하여 읽기 정확도를 극대화할 수 있다. According to an embodiment, the text conversion unit 120 may pre-process the type-classified image (S306). For example, the text conversion unit 120 may maximize reading accuracy by pre-processing the resulting PFT image through scaling and grayscale adjustment.

일 실시예에 따라 텍스트 변환부(120)는 PFT 결과 이미지에 화이트리스트(Whitelist)를 적용할 수 있다(S307). 예를 들어, 텍스트 변환부(120)는 PFT 결과 이미지에서 원하는 종류의 문자 만을 포함하는 이미지를 생성하기 위하여 화이트리스트를 필드 별로 적용할 수 있다. According to an embodiment, the text conversion unit 120 may apply a whitelist to the resulting PFT image (S307). For example, the text conversion unit 120 may apply a whitelist for each field in order to generate an image including only desired types of characters in the PFT result image.

일 실시예에 따라 텍스트 변환부(120)는 PFT 결과 이미지로부터 텍스트를 추출할 수 있다(S308). 예를 들어, 텍스트 변환부(120)는 딥러닝 알고리즘을 이용하여 PFT 결과 이미지로부터 모든 텍스트를 추출하여 변환할 수 있다. 여기서, 딥러닝 알고리즘은 LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)인 Tesseract OCR 일 수 있다.According to an embodiment, the text conversion unit 120 may extract text from the resulting PFT image (S308). For example, the text conversion unit 120 may extract and convert all texts from the PFT result image using a deep learning algorithm. Here, the deep learning algorithm may be Tesseract OCR, which is an optical character reader (OCR) using long short-term memory (LSTM).

일 실시예에 따라 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일을 읽어올 수 있다(S311). 그리고 데이터베이스 저장부(130)는 기존에 Excel 형식의 타겟 파일이 존재하는지 판단할 수 있다(S312). 데이터베이스 저장부(130)는 기존에 Excel 형식의 타겟 파일이 존재하지 않으면, 새로운 Excel 형식의 타겟 파일을 생성할 수 있다(S313).According to an embodiment, the database storage unit 130 may read a target file in Excel format (S311). In addition, the database storage unit 130 may determine whether a target file in Excel format already exists (S312). The database storage unit 130 may create a new target file in Excel format if there is no existing target file in Excel format (S313).

일 실시예에 따라 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일에 변환된 텍스트를 입력하여 저장할 수 있다(S309). 일 예로, 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일의 열과 행에 따라 PFT 결과 이미지의 모든 텍스트가 입력될 때까지 반복 입력하여 저장할 수 있다.According to an embodiment, the database storage unit 130 may input and store the converted text in an Excel format target file (S309). For example, the database storage unit 130 may repeatedly input and store text in the PFT result image according to columns and rows of the target file in Excel format until all texts are input.

일 실시예에 따라 데이터베이스 저장부(130)는 Excel 형식의 타겟 파일과 함께 CSV(Common-Separated Value) 형식의 파일을 저장할 수 있다(S310). 일 예로, 데이터베이스 저장부(130)는 PFT 결과 이미지의 모든 텍스트를 쉼표로 필드를 구분하여 텍스트를 저장하는 CSV 형식의 파일로 별도 저장할 수 있다.According to an embodiment, the database storage unit 130 may store a CSV (Common-Separated Value) format file together with an Excel format target file (S310). For example, the database storage unit 130 may separately store all texts of the PFT result image as a CSV format file that stores text by separating fields with commas.

도 4는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 사용되는 의료 영상 이미지의 표준 유형의 예시를 도시한 도면이다.4 is a diagram illustrating examples of standard types of medical imaging images used in an image classification apparatus according to an embodiment of the present disclosure.

도 4를 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)에서 의료 영상 이미지를 분류하기 위해 설정되는 표준 유형을 설명할 수 있다. 일 예로, 이미지 분류부(110)는 의료 영상 이미지로부터 텍스트를 추출하기 전에 설정된 표준 유형에 기초하여 이미지의 유형을 분류할 수 있다. 예를 들어, 이미지 분류부(110)는 PFT 결과 이미지의 표준 유형을 unknown type의 유형을 포함하여 8개의 유형으로 설정할 수 있다. 이 때, unknown type의 유형은 텍스트가 포함되지 않은 모든 유형(ex. 그래프 만)을 포함할 수 있다. 따라서, 이미지 분류부(110)는 설정된 표준 유형에 따라 입력된 PFT 결과 이미지를 8개의 유형으로 분류할 수 있다. 다만, 표준 유형은 의료 영상 이미지의 종류에 따라 설정되며, 표준 유형의 type 또는 개수는 이에 한정되지는 않는다.Referring to FIG. 4 , standard types set to classify medical imaging images in the image classification unit 110 of the image classification apparatus according to an embodiment of the present disclosure will be described. For example, the image classification unit 110 may classify the image type based on a standard type set before text is extracted from the medical imaging image. For example, the image classification unit 110 may set standard types of PFT result images to 8 types including unknown types. At this time, the unknown type can include all types (ex. only graphs) that do not include text. Accordingly, the image classification unit 110 may classify the input PFT result image into 8 types according to the set standard type. However, the standard type is set according to the type of medical imaging image, and the type or number of standard types is not limited thereto.

다른 예를 들어, 이미지 분류부(110)는 PFT 결과 이미지의 표준 유형은 글자 수, 크기, 두께, 색상 및 글자 사이의 여백에 기초하여 설정할 수 있다. 예를 들면, 설정된 의료 영상 이미지의 표준 유형은 추출된 텍스트 데이터가 서로 다른 개수로 구성될 수 있다. 이는 PFT 결과 이미지 내에 포함되는 검사 항목 내 지표, 자극제 유무가 다르기 때문일 수 있다. 구체적으로, 표준 유형의 type 1은 116개, type2는 164개, type3는 21개, type4는 130개, type5는 37 개, type6은 73 개, 그리고 type7은 130 개의 데이터를 포함할 수 있다. 다른 예를 들면, 표준 유형 중 type1과 type2 형식이 유사할 수 있다. type1과 type2 유형은 일반적으로 PFT 결과 이미지에 포함된 문자가 다른 유형보다 두껍고 크기가 크며 문자 사이에 여백이 존재하는 특징을 포함할 수 있다. 또한, 표준 유형 중 type3, type4 및 type7의 형식이 유사할 수 있다. type3, type4 및 type7 유형은 PFT 결과 이미지에 포함된 문자가 얇고 작으며, 문자 사이의 여백이 좁은 특징을 포함할 수 있다. 또한, 표준 유형 중 type5와 type6의 형식이 유사할 수 있다. type5와 type6 유형은 일반적으로 PFT 결과 이미지에 포함된 문자가 다른 유형보다 크기가 작으나 두께가 두껍고 그 사이의 여백이 있는 특징을 포함할 수 있다. For another example, the image classification unit 110 may set the standard type of the PFT result image based on the number of characters, size, thickness, color, and space between characters. For example, the set standard types of medical imaging images may consist of different numbers of extracted text data. This may be because the presence or absence of indicators and stimulants in the test items included in the PFT result image is different. Specifically, 116 data of type 1, 164 data of type 2, 21 data of type 3, 130 data of type 4, 37 data of type 5, 73 data of type 6, and 130 data of type 7 are standard types. For another example, types of type1 and type2 among standard types may be similar. In general, the type1 and type2 types may include characters included in the PFT result image that are thicker and larger than other types, and that blanks exist between characters. Also, among the standard types, types of type3, type4, and type7 may be similar. The type3, type4, and type7 types may include the characteristics that the characters included in the PFT result image are thin and small, and the margins between characters are narrow. Also, among the standard types, the formats of type5 and type6 may be similar. In general, the type5 and type6 types may include the characteristics that the characters included in the PFT result image are smaller than other types but thicker and there is a blank space between them.

도 5는 본 개시의 일 실시예에 따른 이미지 분류 장치에서 이미지의 유형을 분류하는 동작을 설명하기 위한 예시를 도시한 도면이다.5 is a diagram illustrating an example for explaining an operation of classifying an image type in an image classification apparatus according to an embodiment of the present disclosure.

도 5를 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 이미지 분류부(110)에서 기준 키워드 및 기준 좌표에 기초하여 이미지의 유형을 분류하는 동작을 설명할 수 있다. 일 예로, 이미지 분류부(110)는 표준 유형 별로 서로 겹치지 않는 고유한 단어를 기준 키워드(510)로 설정할 수 있다. 그리고 이미지 분류부(110)는 기준 키워드(510)의 위치를 마우스 핸들러(Mouse Handler)로 드래그하여 기준 좌표를 설정할 수 있다. 예를 들어, 이미지 분류부(110)는 마우스 핸들러(Mouse Handler)를 X축(520)과 Y축(530)으로 드래그하여 기준 키워드(510)의 시작점(X, Y)과 끝점(X', Y')의 좌표를 추출하여 기준 좌표로 설정할 수 있다. 여기서, 마우스 핸들러(Mouse Handler)는 마우스 이벤트 핸들러를 약칭한 것으로, 마우스와 관련된 각종 이벤트(Event) 또는 사건이 발생했을 때 특정 함수를 호출하여 정해진 좌표 측정 기능을 수행하도록 프로그래밍된 모듈을 의미할 수 있다. Referring to FIG. 5 , an operation of classifying an image type based on a reference keyword and reference coordinates in the image classification unit 110 of the image classification apparatus according to an embodiment of the present disclosure will be described. For example, the image classification unit 110 may set a unique word that does not overlap with each other for each standard type as the standard keyword 510 . The image classification unit 110 may set reference coordinates by dragging the location of the reference keyword 510 to a mouse handler. For example, the image classification unit 110 drags a mouse handler along the X-axis 520 and the Y-axis 530 to determine the start point (X, Y) and end point (X', The coordinates of Y') can be extracted and set as reference coordinates. Here, the mouse handler (Mouse Handler) is an abbreviation of mouse event handler, and may refer to a module programmed to perform a predetermined coordinate measurement function by calling a specific function when various events or events related to the mouse occur. there is.

다른 일 예로, 이미지 분류부(110)는 임의의 이미지가 입력되면 표준 유형 별로 설정된 기준 키워드 및 기준 좌표에 기초하여 유형을 분류할 수 있다. 예를 들어, 이미지 분류부(110)는 임의의 PFT 결과 이미지가 입력되면 마우스 핸들러를 이용하여 이미지에 포함된 단어 및 단어의 좌표를 추출할 수 있다. 그리고, 이미지 분류부(110)는 추출된 단어 및 단어의 좌표가 기준 키워드 및 기준 좌표와 일치하면, 입력된 PFT 결과 이미지를 기준 키워드의 표준 유형으로 분류할 수 있다. As another example, the image classification unit 110 may classify a type based on standard keywords and standard coordinates set for each standard type when an arbitrary image is input. For example, the image classification unit 110 may extract a word included in the image and the coordinates of the word using a mouse handler when an arbitrary PFT result image is input. Then, the image classification unit 110 may classify the input PFT result image into the standard type of the standard keyword when the extracted word and the coordinates of the word coincide with the standard keyword and the standard coordinates.

도 6은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 입력된 이미지를 전처리하는 동작을 설명하기 위한 예시를 도시한 도면이다. 6 is a diagram illustrating an example for explaining an operation of pre-processing an input image in an image classification apparatus according to an embodiment of the present disclosure.

도 6을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 텍스트 변환부(120)에서 입력된 이미지를 전처리하는 동작을 설명할 수 있다. 일 예로, 텍스트 변환부(120)는 입력된 이미지를 전처리하여 딥러닝 알고리즘의 읽기 정확도를 증가시킬 수 있다. 예를 들어, 텍스트 변환부(120)는 리스케일 방법을 통해 입력된 이미지(610)의 크기를 임의의 배율로 확대하여 확대 이미지(620)로 변환할 수 있다. 여기서, 임의의 배율은 2배일 수 있으나 이에 한정되지 않는다. 그리고, 텍스트 변환부(120)는 그레이스케일 방법을 통해 다중 채널 이미지에 해당되는 확대 이미지(620)를 단일 채널 이미지인 회색조 이미지(630)로 조정할 수 있다. 그리고 텍스트 변환부(120)는 회색조 이미지(630)에 화이트리스트(Whitelist)를 필드 별로 적용하여 최종 입력 이미지(640)를 생성할 수 있다. 또한, 텍스트 변환부(120)는 회색조 이미지(630)에 PFT 결과 이미지의 특성을 고려한 화이트리스트(Whitelist)를 필드 별로 적용하여 최종 입력 이미지(640)를 생성할 수 있다. 여기서, 최종 입력 이미지(640)는 PFT 결과 이미지의 특성에 따라 선별된 특정 종류(ex, 숫자, 알파벳, 특수 기호)의 문자만을 포함하는 이미지일 수 있다. 또한, 텍스트 변환부(120)는 노이즈 제거, 임계 값, 확장, 침식, 개방, 캐니 및 왜곡 보정 등과 같은 전처리 방법을 추가로 수행할 수 있다. Referring to FIG. 6 , an operation of preprocessing an input image in the text conversion unit 120 of the image classification apparatus according to an embodiment of the present disclosure will be described. For example, the text conversion unit 120 may increase the reading accuracy of the deep learning algorithm by pre-processing the input image. For example, the text conversion unit 120 may enlarge the size of the image 610 input through a rescaling method at an arbitrary magnification and convert the image 620 into an enlarged image 620 . Here, an arbitrary magnification may be 2 times, but is not limited thereto. Also, the text conversion unit 120 may adjust the enlarged image 620 corresponding to a multi-channel image into a grayscale image 630 that is a single-channel image through a grayscale method. The text conversion unit 120 may generate the final input image 640 by applying a whitelist to the grayscale image 630 for each field. In addition, the text conversion unit 120 may generate the final input image 640 by applying a whitelist considering characteristics of the PFT result image for each field to the grayscale image 630 . Here, the final input image 640 may be an image including only characters of a specific type (ex, numbers, alphabets, special symbols) selected according to the characteristics of the PFT result image. In addition, the text conversion unit 120 may additionally perform preprocessing methods such as noise removal, threshold value, expansion, erosion, opening, canny and distortion correction.

도 7은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 변환된 텍스트를 입력하는 동작을 설명하기 위한 예시를 도시한 도면이다.7 is a diagram illustrating an example for explaining an operation of inputting converted text in the image classification apparatus according to an embodiment of the present disclosure.

도 7을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 데이터베이스 저장부(130)에서 이미지로부터 추출된 텍스트를 타겟 파일에 입력하는 동작을 설명할 수 있다. 일 예로, 텍스트 변환부(120)는 원본 PFT 결과 이미지(710)에서 좌표를 추출할 수 있다. 예를 들어, 텍스트 변환부(120)는 원본 PFT 결과 이미지(710)에서 데이터가 포함되어 있는 특정 영역의 세부 이미지와 좌표를 추출할 수 있다. 또한, 텍스트 변환부(120)는 딥러닝 알고리즘을 이용하여 해당 좌표 내의 이미지를 텍스트로 변환할 수 있다.Referring to FIG. 7 , an operation of inputting text extracted from an image into a target file in the database storage unit 130 of the image classification apparatus according to an embodiment of the present disclosure will be described. For example, the text conversion unit 120 may extract coordinates from the original PFT result image 710 . For example, the text conversion unit 120 may extract a detailed image and coordinates of a specific area including data from the original PFT result image 710 . In addition, the text conversion unit 120 may convert an image within corresponding coordinates into text using a deep learning algorithm.

일 예로, 데이터베이스 저장부(130)는 타겟 파일(720)에서 텍스트를 입력할 열과 행을 추출할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 표준화된 형식의 타겟 파일(720)에서 텍스트를 입력할 열과 행을 추출할 수 있다. 여기서, 타겟 파일(720)은 호환성이 높은 CSV (Common-Separated Value) 또는 Excel 형식의 형태의 파일일 수 있다.For example, the database storage unit 130 may extract columns and rows to input text from the target file 720 . For example, the database storage unit 130 may extract columns and rows to input text from the target file 720 in a standardized format. Here, the target file 720 may be a CSV (Common-Separated Value) or Excel format file with high compatibility.

일 예로, 데이터베이스 저장부(130)는 타겟 파일(720)에 변환된 텍스트를 입력하여 최종 타겟 파일(730)을 생성할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 타겟 파일로부터 추출된 열과 행을 기준으로 변환된 텍스트를 입력하여 최종 타겟 파일(730)을 생성할 수 있다. 또한, 데이터베이스 저장부(130)는 원본 PFT 결과 이미지(710)의 모든 텍스트가 추출되어 입력될 때까지 반복하여 최종 타겟 파일(730)을 생성할 수 있다. For example, the database storage unit 130 may generate a final target file 730 by inputting converted text into the target file 720 . For example, the database storage unit 130 may generate the final target file 730 by inputting converted text based on columns and rows extracted from the target file. In addition, the database storage unit 130 may generate the final target file 730 repeatedly until all texts of the original PFT result image 710 are extracted and input.

일 예로, 데이터베이스 저장부(130)는 최종 타겟 파일(730)을 데이터베이스에 저장할 수 있다. 예를 들어, 데이터베이스 저장부(130)는 PFT 결과 이미지(710)로부터 자동으로 분류하여 추출한 텍스트를 표준화된 데이터 형식의 최종 타겟 파일(730)로 생성하여 데이터베이스에 저장할 수 있다. 또한, 데이터베이스 저장부(130)는 PFT 결과 이미지(710)에 포함되는 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 저장할 수 있다. 이에 따라, PFT 결과 이미지(710)는 향후 임상 결과 데이터와 과거 축적된 데이터와 호환이 가능하며, 향후 연구 및 질환 예측을 위한 빅데이터로 활용될 수 있다.For example, the database storage unit 130 may store the final target file 730 in a database. For example, the database storage unit 130 may generate text automatically classified and extracted from the PFT result image 710 as a final target file 730 in a standardized data format and stored in the database. In addition, the database storage unit 130 may classify and store items included in the PFT result image 710 in an Entity Relationship Model structure. Accordingly, the PFT result image 710 is compatible with future clinical result data and past accumulated data, and can be used as big data for future research and disease prediction.

도 8은 본 개시의 일 실시예에 따른 이미지 분류 장치에서 데이터베이스의 구조를 설명하기 위한 예시를 도시한 도면이다.8 is a diagram illustrating an example for explaining the structure of a database in an image classification apparatus according to an embodiment of the present disclosure.

도 8을 참조하면, 본 개시의 일 실시예에 따른 이미지 분류 장치의 데이터베이스 저장부(130)에서 저장되는 개체 관계 모델(Entity Relationship Model) 구조를 설명할 수 있다. 일 예로, 데이터베이스 저장부(130)는 개체 관계 모델(Entity Relationship Model) 구조에 기초하여 환자 정보를 중심으로 환자 정보와 관련된 PFT 결과 정보들과의 관계 정보를 생성하고 항목을 분류할 수 있다. 예를 들어, PFT 결과 정보는 PFT 결과 이미지 정보, 폐활량 측정 정보, 폐확산 능력 정보, 폐용적 정보 및 기도 저항 정보일 수 있다. 그리고, 개체 관계 모델 구조는 개념적 모델 또는 시멘틱 데이터 모델의 타입으로, 각 개체들간의 공통점 및 차이점 요소들을 분석하고, 분석 결과에 근거하여 각 개체들 간의 관계 정보를 생성하는 기법일 수 있다. Referring to FIG. 8 , the structure of an entity relationship model stored in the database storage unit 130 of the image classification apparatus according to an embodiment of the present disclosure can be described. For example, the database storage unit 130 may create relationship information with PFT result information related to patient information based on patient information based on an entity relationship model structure and classify items. For example, the PFT result information may include PFT result image information, spirometry information, lung diffusion capacity information, lung volume information, and airway resistance information. Also, the entity relation model structure is a type of conceptual model or semantic data model, and may be a technique of analyzing commonalities and differences between entities and generating relational information between entities based on the analysis result.

다른 일 예로, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 추출되어야 할 항목을 복수의 테이블로 구성된 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 데이터베이스에 저장할 수 있다. 예를 들어, 복수의 테이블은 PFT 결과 정보가 포함된 테이블, 환자 정보가 포함된 테이블 및 기타 PFT 결과 정보 관련 테이블로 구성될 수 있다.As another example, the database storage unit 130 may classify items to be extracted from the PFT result image into an Entity Relationship Model structure composed of a plurality of tables and store them in the database. For example, the plurality of tables may include a table including PFT result information, a table including patient information, and tables related to other PFT result information.

또한, 데이터베이스 저장부(130)는 PFT 결과 이미지로부터 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 생성된 관계 정보를 데이터베이스에 저장하여 빅데이터로 활용할 수 있다.In addition, the database storage unit 130 may store relationship information generated by classifying the PFT result image into an Entity Relationship Model structure in a database and utilize it as big data.

이하에서는 도 1 내지 도8을 참조하여 설명한 이미지 분류 장치가 수행할 수 있는 이미지 분류 방법에 대해서 설명한다.Hereinafter, an image classification method that can be performed by the image classification apparatus described with reference to FIGS. 1 to 8 will be described.

도 9는 본 개시의 다른 실시예에 따른 이미지 분류 방법의 흐름도이다9 is a flowchart of an image classification method according to another embodiment of the present disclosure;

도 9를 참조하면, 본 개시의 이미지 분류 방법은 입력된 이미지의 유형을 분류하는 이미지 분류 단계를 포함할 수 있다(S910). 일 실시예에 따라 이미지 분류 장치는 의료 영상 이미지의 표준 유형에 따라 입력된 이미지의 유형을 분류할 수 있다. 일 예로, 이미지 분류 장치는 의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 설정된 기준 키워드 및 기준 좌표에 기초하여 입력된 이미지의 유형을 분류할 수 있다. 이는, 여러 가지 유형으로 구분되는 의료 영상 이미지가 유형에 따라 다른 위치의 데이터(텍스트 및 이미지)를 포함하기 때문에 텍스트 변환 전에 이미지를 유형 별로 분류하면 효율이 극대화되는 효과를 제공할 수 있다.Referring to FIG. 9 , the image classification method of the present disclosure may include an image classification step of classifying the type of an input image (S910). According to an embodiment, the image classification apparatus may classify the type of the input image according to the standard type of the medical imaging image. For example, the image classification apparatus may set reference keywords and reference coordinates according to standard types of medical imaging images, and classify the type of an input image based on the set reference keywords and reference coordinates. Since medical imaging images classified into various types include data (text and image) at different positions depending on the type, classification of images by type before text conversion can provide an effect of maximizing efficiency.

예를 들어, 이미지 분류 장치는 의료 영상 이미지의 표준 유형 별로 서로 겹치지 않는 고유한 단어를 각각의 기준 키워드로 설정하고, 설정된 기준 키워드의 위치를 드래그하여 좌표를 추출하여 기준 좌표로 설정할 수 있다. 구체적인 예를 들면, 이미지 분류 장치는 영상 이미지의 표준 유형 별로 서로 겹치지 않는 기준 키워드로 설정하면, 마우스 핸들러(mouse handler)로 기준 키워드의 시작점과 끝점의 좌표를 추출하여 기준 좌표로 설정할 수 있다. For example, the image classification apparatus may set a unique word that does not overlap with each other for each standard type of medical imaging image as each standard keyword, extract coordinates by dragging the location of the set standard keyword, and set them as standard coordinates. For example, if the image classification apparatus sets non-overlapping standard keywords for each standard type of video image, the coordinates of the start and end points of the standard keyword can be extracted and set as standard coordinates using a mouse handler.

다른 예를 들어, 이미지 분류 장치는 입력된 이미지에 포함된 단어 및 단어의 좌표가 표준 유형 별로 설정된 기준 키워드 및 기준 좌표와 일치하면, 입력된 이미지를 기준 키워드로 설정된 표준 유형으로 분류할 수 있다. 이에 따라, 이미지 분류 장치는 키워드 및 좌표가 일치하는 한 입력된 이미지는 동일한 표준 유형으로 분류할 수 있다. For another example, the image classification apparatus may classify the input image into the standard type set as the standard keyword when words included in the input image and coordinates of the word match standard keywords and standard coordinates set for each standard type. Accordingly, the image classification device may classify input images into the same standard type as long as keywords and coordinates match.

본 개시의 이미지 분류 방법은 텍스트로 변환하는 텍스트 변환 단계를 포함할 수 있다(S920). 일 실시예에 따라 이미지 분류 장치는 분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환할 수 있다. 일 예로, 이미지 분류 장치는 입력된 이미지가 표준 유형 중 특정 유형으로 분류되면, 분류된 이미지에 포함된 모든 데이터가 추출될 때까지 세부 이미지와 좌표를 추출하여 텍스트로 변환하는 과정을 반복할 수 있다. The image classification method of the present disclosure may include a text conversion step of converting into text (S920). According to an embodiment, the image classification apparatus may extract detailed images and coordinates from the classified images, and convert the extracted detailed images into text using a deep learning algorithm. For example, when an input image is classified as a specific type among standard types, the image classification device may repeat a process of extracting detailed images and coordinates and converting them into text until all data included in the classified images are extracted. .

다른 일 예로, 이미지 분류 장치는 분류된 이미지로부터 세부 이미지와 좌표를 추출하는 정확도를 높이기 위하여 입력된 이미지를 전처리 할 수 있다. 예를 들어, 이미지 분류 장치는 입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 입력된 이미지를 전처리할 수 있다. 이는 그레이 스케일 방법과 리스케일 방법을 통합한 방법일 수 있다. 구체적인 예를 들면, 이미지 분류 장치는 입력된 원본 이미지의 크기를 두 배로 조정한 다음에 회색조 이미지로 조정한 후, 일반적으로 특수 문자가 포함되지 않고 알파벳 문자만 포함되는 입력 이미지의 특성을 고려하여 화이트리스트를 필드 별로 적용할 수 있다. 다만, 이미지의 크기가 조정되는 비율이 두 배로 한정되는 것은 아니다.As another example, the image classification device may pre-process input images to increase accuracy of extracting detailed images and coordinates from the classified images. For example, the image classification apparatus may pre-process the input image by enlarging the size of the input image at an arbitrary magnification, adjusting the size to a grayscale image, and then applying a whitelist for each field. This may be a method combining the gray scale method and the rescale method. As a specific example, the image classification device doubles the size of the original input image, adjusts it to a grayscale image, and generally considers the characteristics of the input image, which does not contain special characters but only alphabetic characters, to make it white. Lists can be applied field by field. However, the ratio at which the size of the image is adjusted is not limited to doubling.

또 다른 일 예로, 이미지 분류 장치는 추출된 세부 이미지를 딥 러닝 알고리즘을 이용하여 표준화된 데이터 형식의 텍스트로 변환할 수 있다. 예를 들어, 딥 러닝 알고리즘은 LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)일 수 있다. 구체적인 예를 들면, LSTM은 신경망 네트워크에서 현재 입력 값과 과거의 입력 값을 동시에 고려하여 판단하도록 하는 RNN(Recurrent Neural Networks)의 향상된 알고리즘일 수 있다. 또한, LSTM은 출력 단에서 구한 오차를 신경망을 거슬러 가면서 각 계수를 업데이트하여 오차를 보정하는 역전파(back propagation) 과정이 포함되어 RNN의 인식과정보다 인식률을 향상시킬 수 있다. 다른 예를 들어, 이미지 분류 장치는 클래스 라벨만 순서대로 있고 각 클래스의 위치는 모르는 unsegmented 시퀀스 데이터를 학습 시키는 알고리즘인 CTC(Connectionist Temporal Classification)을 이용하여 이미지를 표준화된 데이터 형식의 텍스트로 변환할 수 있다. 다만, 본 개시의 딥 러닝 알고리즘은 이에 제한되지 않고 현재 또는 장래에 사용될 수 있는 다양한 알고리즘으로 구성될 수 있다. As another example, the image classification device may convert the extracted detailed image into text in a standardized data format using a deep learning algorithm. For example, the deep learning algorithm may be an optical character reader (OCR) that utilizes long short-term memory (LSTM). As a specific example, LSTM may be an improved algorithm of recurrent neural networks (RNNs) that allows a neural network to simultaneously consider and determine a current input value and a past input value. In addition, LSTM includes a back propagation process of correcting the error by updating each coefficient while going back through the neural network with the error obtained at the output stage, so the recognition rate can be improved compared to the recognition process of RNN. As another example, an image classification device can convert an image into text in a standardized data format using CTC (Connectionist Temporal Classification), an algorithm that learns unsegmented sequence data in which only class labels are in order and the position of each class is unknown. there is. However, the deep learning algorithm of the present disclosure is not limited thereto and may be composed of various algorithms that can be used now or in the future.

본 개시의 이미지 분류 방법은 최종 타겟 파일을 생성하여 데이터베이스에 저장하는 데이터베이스 저장 단계를 포함할 수 있다(S930). 일 실시예에 따라 이미지 분류 장치는 타겟 파일로부터 추출된 열과 행을 기준으로 변환된 텍스트를 입력하여 최종 타겟 파일을 생성할 수 있다. 그리고 이미지 분류 장치는 생성된 최종 타겟 파일을 데이터베이스에 저장할 수 있다. 예를 들어, 이미지 분류 장치는 텍스트를 입력할 타겟 파일로부터 열과 행을 추출하여 변수를 포함하는 열과 사례 변호를 포함하는 행으로 구성된 최종 타겟 파일을 생성할 수 있다. 그리고, 이미지 분류 장치는 이미지로부터 변환된 모든 텍스트가 입력될 때까지 추출된 열과 행을 기준으로 입력하는 과정을 반복하여 최종 타겟 파일을 생성할 수 있다. 이에 따라, 이미지 분류 장치는 호환성이 높은 CSV (Common-Separated Value) 또는 Excel 형식의 형태로 최종 타겟 파일을 생성하여 데이터베이스에 저장할 수 있다. The image classification method of the present disclosure may include a database storage step of generating and storing a final target file in a database (S930). According to an embodiment, the image classification apparatus may generate a final target file by inputting converted text based on columns and rows extracted from the target file. Also, the image classification device may store the generated final target file in a database. For example, the image classification apparatus may extract columns and rows from a target file to input text to generate a final target file composed of columns including variables and rows including case numbers. Then, the image classification device may create a final target file by repeating the input process based on the extracted columns and rows until all texts converted from images are input. Accordingly, the image classification device may generate a final target file in a highly compatible CSV (Common-Separated Value) or Excel format and store it in a database.

일 예로, 이미지 분류 장치는 입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 데이터베이스에 저장할 수 있다. 예를 들어, 이미지 분류 장치는 테스트 결과가 포함된 테이블, 환자 정보가 포함된 테이블 및 기타 테스트 관련 테이블로 구성될 수 있다.For example, the image classification device may classify an item to be extracted from an input image into an entity relationship model structure and store it in a database. For example, the image classification device may include a table including test results, a table including patient information, and other test-related tables.

이상에서 설명한 바와 같이 본 개시에 의하면, 이미지 분류 장치 및 방법을 제공할 수 있다. 특히 의료 영상 이미지 내의 키워드 및 좌표를 이용하여 표준 유형에 따라 이미지를 분류하고 텍스트를 추출함으로써, 이미지로부터 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공할 수 있다. 또한, 딥 러닝 알고리즘을 이용하여 의료 영상 이미지를 분류하고 항목화하여 저장함으로써 빅데이터로 활용 가능한 표준화된 데이터를 생성할 수 있는 이미지 분류 장치 및 방법을 제공할 수 있다. As described above, according to the present disclosure, an image classification apparatus and method can be provided. In particular, it is possible to provide an image classification apparatus and method capable of generating standardized data from images by classifying images according to standard types using keywords and coordinates in medical imaging images and extracting text. In addition, it is possible to provide an image classification apparatus and method capable of generating standardized data that can be used as big data by classifying, itemizing, and storing medical imaging images using a deep learning algorithm.

이상에서는 본 개시의 실시예에 따른 이미지 분류 방법이 도9 에서와 같은 절차로 수행되는 것으로 설명되었으나, 이는 설명의 편의를 위한 것일 뿐, 본 개시의 본질적인 개념을 벗어나지 않는 범위 내에서, 구현 방식에 따라 각 단계의 수행 절차가 바뀌거나 둘 이상의 단계가 통합되거나 하나의 단계가 둘 이상의 단계로 분리되어 수행될 수도 있다. In the above, the image classification method according to an embodiment of the present disclosure has been described as being performed in the same procedure as in FIG. Accordingly, the procedure for performing each step may be changed, two or more steps may be integrated, or one step may be separated into two or more steps.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as "include", "comprise" or "have" described above mean that the corresponding component may be inherent unless otherwise stated, excluding other components. It should be construed as being able to further include other components. All terms, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this disclosure belongs, unless defined otherwise. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the meaning in the context of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in the present disclosure.

이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 개시에 개시된 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present disclosure, and various modifications and variations may be made to those skilled in the art without departing from the essential characteristics of the present disclosure. Therefore, the embodiments disclosed in this disclosure are not intended to limit the technical spirit of the present disclosure, but to explain, and the scope of the technical spirit of the present disclosure is not limited by these embodiments. The protection scope of the present disclosure should be construed by the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present disclosure.

Claims (16)

의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 상기 기준 키워드 및 상기 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류부;
분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 상기 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환부; 및
타겟 파일로부터 추출된 열과 행을 기준으로 상기 텍스트를 입력하여 최종 타겟 파일을 생성하고, 상기 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장부를 포함하는 것을 특징으로 하는 이미지 분류 장치.
an image classification unit configured to set reference keywords and reference coordinates according to standard types of medical imaging images, and to classify input image types based on the reference keywords and reference coordinates;
a text conversion unit that extracts detailed images and coordinates from the classified images and converts the extracted detailed images into text using a deep learning algorithm; and
and a database storage unit for generating a final target file by inputting the text based on columns and rows extracted from the target file, and storing the final target file in a database.
제 1 항에 있어서,
상기 이미지 분류부는,
상기 표준 유형 별로 서로 겹치지 않는 고유한 단어를 상기 기준 키워드로 설정하고, 상기 키워드의 위치를 드래그하여 추출한 좌표를 상기 기준 좌표로 설정하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The image classification unit,
The image classification apparatus characterized in that for each standard type, a unique word that does not overlap with each other is set as the reference keyword, and coordinates extracted by dragging a location of the keyword are set as the reference coordinates.
제 2 항에 있어서,
상기 이미지 분류부는,
입력된 이미지에 포함된 단어 및 상기 단어의 좌표가 상기 기준 키워드 및 기준 좌표와 일치하면, 상기 입력된 이미지를 상기 기준 키워드로 설정된 상기 표준 유형으로 분류하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 2,
The image classification unit,
If a word included in the input image and the coordinates of the word match the reference keyword and reference coordinates, the input image is classified into the standard type set as the reference keyword.
제 1 항에 있어서,
상기 텍스트 변환부는,
입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 상기 입력된 이미지를 전처리하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The text conversion unit,
An image classification apparatus characterized by preprocessing the input image by enlarging the size of the input image at an arbitrary magnification and adjusting the size to a grayscale image, and then applying a whitelist for each field.
제 1 항에 있어서,
상기 딥 러닝 알고리즘은,
LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)인 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The deep learning algorithm,
An image classification device characterized in that it is an optical character reader (OCR) that utilizes LSTM (Long Short-Term Memory).
제 1 항에 있어서,
상기 텍스트 변환부는,
분류된 이미지에 포함된 모든 데이터가 추출될 때까지 상기 세부 이미지와 상기 좌표를 추출하여 상기 텍스트로 변환하는 과정을 반복하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The text conversion unit,
The image classification apparatus, characterized in that repeating the process of extracting the detailed image and the coordinates and converting them into the text until all data included in the classified image are extracted.
제 1 항에 있어서,
상기 데이터베이스 저장부는,
변수를 포함하는 상기 열과 사례 변호를 포함하는 상기 행으로 구성된 상기 최종 타겟 파일을 생성하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The database storage unit,
and generating the final target file composed of the columns including variables and the rows including case numbers.
제 1 항에 있어서,
상기 데이터베이스 저장부는,
입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 상기 데이터베이스에 저장하는 것을 특징으로 하는 이미지 분류 장치.
According to claim 1,
The database storage unit,
An image classification apparatus characterized in that an item to be extracted from an input image is classified into an entity relationship model structure and stored in the database.
의료 영상 이미지의 표준 유형에 따라 기준 키워드 및 기준 좌표를 설정하고, 상기 기준 키워드 및 상기 기준 좌표에 기초하여 입력된 이미지의 유형을 분류하는 이미지 분류 단계;
분류된 이미지로부터 세부 이미지와 좌표를 추출하고, 추출된 상기 세부 이미지를 딥 러닝 알고리즘을 이용하여 텍스트로 변환하는 텍스트 변환 단계; 및
타겟 파일로부터 추출된 열과 행을 기준으로 상기 텍스트를 입력하여 최종 타겟 파일을 생성하고, 상기 최종 타겟 파일을 데이터베이스에 저장하는 데이터베이스 저장 단계를 포함하는 것을 특징으로 하는 이미지 분류 방법.
an image classification step of setting reference keywords and reference coordinates according to standard types of medical imaging images, and classifying types of input images based on the reference keywords and reference coordinates;
a text conversion step of extracting detailed images and coordinates from the classified images and converting the extracted detailed images into text using a deep learning algorithm; and
and a database storage step of generating a final target file by inputting the text based on columns and rows extracted from the target file, and storing the final target file in a database.
제 9 항에 있어서,
상기 이미지 분류 단계는,
상기 표준 유형 별로 서로 겹치지 않는 고유한 단어를 상기 기준 키워드로 설정하고, 상기 기준 키워드의 위치를 드래그하여 추출한 좌표를 상기 기준 좌표로 설정하는 것을 특징으로 하는 이미지 분류 방법.
According to claim 9,
The image classification step,
An image classification method characterized in that for each standard type, a unique word that does not overlap with each other is set as the reference keyword, and coordinates extracted by dragging a location of the reference keyword are set as the reference coordinates.
제 10 항에 있어서,
상기 이미지 분류 단계는,
입력된 이미지에 포함된 단어 및 상기 단어의 좌표가 상기 기준 키워드 및 상기 기준 좌표와 일치하면, 상기 입력된 이미지를 상기 기준 키워드로 설정된 상기 표준 유형으로 분류하는 것을 특징으로 하는 이미지 분류 방법.
According to claim 10,
The image classification step,
and classifying the input image into the standard type set as the standard keyword when a word included in the input image and coordinates of the word match the reference keyword and the reference coordinates.
제 9 항에 있어서,
상기 텍스트 변환 단계는,
입력된 이미지의 크기를 임의의 배율로 확대하고 회색조 이미지로 조정한 후, 화이트리스트(Whitelist)를 필드 별로 적용하여 상기 입력된 이미지를 전처리하는 것을 특징으로 하는 이미지 분류 방법.
According to claim 9,
The text conversion step,
An image classification method characterized by preprocessing the input image by enlarging the size of the input image at an arbitrary magnification and adjusting the size to a grayscale image, and then applying a whitelist for each field.
제 9 항에 있어서,
상기 딥 러닝 알고리즘은,
LSTM(Long Short-Term Memory)을 활용하는 광학 문자 인식 모듈(Optical character reader, OCR)인 것을 특징으로 하는 이미지 분류 방법.
According to claim 9,
The deep learning algorithm,
An image classification method characterized in that it is an optical character reader (OCR) that utilizes LSTM (Long Short-Term Memory).
제 9 항에 있어서,
상기 텍스트 변환 단계는,
분류된 이미지에 포함된 모든 데이터가 추출될 때까지 상기 세부 이미지와 상기 좌표를 추출하여 상기 텍스트로 변환하는 과정을 반복하는 것을 특징으로 하는 이미지 분류 방법.
According to claim 9,
The text conversion step,
The image classification method characterized in that repeating the process of extracting the detailed image and the coordinates and converting them into the text until all data included in the classified image are extracted.
제 9 항에 있어서,
상기 데이터베이스 저장 단계는,
변수를 포함하는 상기 열과 사례 번호를 포함하는 상기 행으로 구성된 상기 최종 타겟 파일을 생성하는 것을 특징으로 하는 이미지 분류 방법.
According to claim 9,
The database storage step,
and generating the final target file composed of the columns including variables and the rows including case numbers.
제 9 항에 있어서,
상기 데이터베이스 저장 단계는,
입력된 이미지로부터 추출되어야 할 항목을 개체 관계 모델(Entity Relationship Model) 구조로 분류하여 상기 데이터베이스에 저장하는 것을 특징으로 하는 이미지 분류 방법.
According to claim 9,
The database storage step,
An image classification method characterized in that items to be extracted from an input image are classified into an Entity Relationship Model structure and stored in the database.
KR1020210101124A 2021-08-02 2021-08-02 Apparatus and method for classifying images KR102604122B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210101124A KR102604122B1 (en) 2021-08-02 2021-08-02 Apparatus and method for classifying images
PCT/KR2022/011188 WO2023013989A1 (en) 2021-08-02 2022-07-29 Image classification device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210101124A KR102604122B1 (en) 2021-08-02 2021-08-02 Apparatus and method for classifying images

Publications (2)

Publication Number Publication Date
KR20230019523A true KR20230019523A (en) 2023-02-09
KR102604122B1 KR102604122B1 (en) 2023-11-20

Family

ID=85154612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210101124A KR102604122B1 (en) 2021-08-02 2021-08-02 Apparatus and method for classifying images

Country Status (2)

Country Link
KR (1) KR102604122B1 (en)
WO (1) WO2023013989A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006106922A (en) * 2004-10-01 2006-04-20 Resource One Co Ltd Medical information management system
KR101769918B1 (en) * 2017-05-17 2017-08-21 주식회사 마인드그룹 Recognition device based deep learning for extracting text from images
US20210012133A1 (en) * 2019-03-21 2021-01-14 Abiomed, Inc. Intelligent Image Segmentation Prior to Optical Character Recognition (OCR)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373884B1 (en) * 2019-12-30 2022-03-15 동국대학교 산학협력단 Image data processing method for searching images by text

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006106922A (en) * 2004-10-01 2006-04-20 Resource One Co Ltd Medical information management system
KR101769918B1 (en) * 2017-05-17 2017-08-21 주식회사 마인드그룹 Recognition device based deep learning for extracting text from images
US20210012133A1 (en) * 2019-03-21 2021-01-14 Abiomed, Inc. Intelligent Image Segmentation Prior to Optical Character Recognition (OCR)

Also Published As

Publication number Publication date
KR102604122B1 (en) 2023-11-20
WO2023013989A1 (en) 2023-02-09

Similar Documents

Publication Publication Date Title
Mathew et al. Docvqa: A dataset for vqa on document images
CN108564035B (en) Method and system for identifying information recorded on document
CN110135411A (en) Business card identification method and device
EP1917627B1 (en) Classifying regions defined within a digital image
EP4026047A1 (en) Automated information extraction and enrichment in pathology report using natural language processing
US20210365836A1 (en) Methods and systems for pre-optimizing input data for an ocr engine or other computer-implemented analysis process
CN110619252A (en) Method, device and equipment for identifying form data in picture and storage medium
JP2015069256A (en) Character identification system
CN113762100A (en) Name extraction and standardization method and device in medical bill, computing equipment and storage medium
US10803309B2 (en) Identifying versions of a form
KR102604122B1 (en) Apparatus and method for classifying images
Kobayashi et al. Basic research on a handwritten note image recognition system that combines two OCRs
Deore Human behavior identification based on graphology using artificial neural network
JP5227120B2 (en) Character string recognition apparatus and method, and program
US20220398399A1 (en) Optical character recognition systems and methods for personal data extraction
KR102392644B1 (en) Apparatus and method for classifying documents based on similarity
CN113111869B (en) Method and system for extracting text picture and description thereof
Neme et al. Authorship attribution as a case of anomaly detection: A neural network model
Kumar et al. Line based robust script identification for indianlanguages
Palani et al. Detecting and extracting information of medicines from a medical prescription using deep learning and computer vision
Wei et al. Clinicallayoutlm: A pre-trained multi-modal model for understanding scanned document in electronic health records
Bagwe et al. Optical character recognition using deep learning techniques for printed and handwritten documents
CA3120127A1 (en) Methods and systems for pre-optimizing input data for an ocr engine or other computer-implemented analysis process
Kawanaka et al. Document image processing for hospital information systems
Warkhede et al. Handwritten recognition of rajasthani characters by classifier SVM

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant