KR102533962B1 - System and method for constructing eye-related database - Google Patents

System and method for constructing eye-related database Download PDF

Info

Publication number
KR102533962B1
KR102533962B1 KR1020210014527A KR20210014527A KR102533962B1 KR 102533962 B1 KR102533962 B1 KR 102533962B1 KR 1020210014527 A KR1020210014527 A KR 1020210014527A KR 20210014527 A KR20210014527 A KR 20210014527A KR 102533962 B1 KR102533962 B1 KR 102533962B1
Authority
KR
South Korea
Prior art keywords
report
data
fundus
recognition
subject
Prior art date
Application number
KR1020210014527A
Other languages
Korean (ko)
Other versions
KR20220111785A (en
Inventor
박상준
김주영
Original Assignee
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원 filed Critical 서울대학교병원
Priority to KR1020210014527A priority Critical patent/KR102533962B1/en
Publication of KR20220111785A publication Critical patent/KR20220111785A/en
Application granted granted Critical
Publication of KR102533962B1 publication Critical patent/KR102533962B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

실시예들은 안구를 촬영한 촬영기기로부터 이미지 형식의 피검체의 의료 보고서를 수신하는 데이터 획득부 - 상기 의료 보고서는 촬영 이미지, 보고서 항목 및 상기 보고서 항목에 대한 측정 결과를 포함함; 상기 의료 보고서에서 문자 또는 숫자를 추출할 복수의 인식 영역을 설정하고, 복수의 인식 영역 각각에 포함된 문자 또는 숫자를 인식하여 문자 데이터 또는 숫자 데이터로 추출하는 데이터 판독부; 추출된 문자 데이터 또는 숫자 데이터, 그리고 인식 영역에 연관된 보고서 항목으로 이루어진 피검체의 안저 데이터 세트를 생성하는 데이터베이스 관리부를 포함한 안저 관련 데이터베이스 구축 시스템 및 방법에 관련된다.Embodiments include: a data acquisition unit receiving a medical report of a subject in the form of an image from a photographing device that photographs an eyeball, wherein the medical report includes a photographed image, report items, and measurement results for the report items; a data reader configured to set a plurality of recognition areas from which letters or numbers are to be extracted from the medical report, recognize letters or numbers included in each of the plurality of recognition areas, and extract text data or number data; A fundus-related database construction system and method including a database management unit generating a fundus data set of a subject composed of extracted character data or numeric data and report items related to a recognition region.

Description

안구 관련 데이터베이스 구축 시스템 및 방법{SYSTEM AND METHOD FOR CONSTRUCTING EYE-RELATED DATABASE}Eye-related database construction system and method {SYSTEM AND METHOD FOR CONSTRUCTING EYE-RELATED DATABASE}

본 발명의 실시예들은 안구 관련 데이터베이스를 구축하는 시스템에 관한 것으로서, 보다 상세하게는 이미지 형식의 의료 보고서로부터 문자 또는 숫자를 추출하여 자동으로 안저 데이터 세트를 형성하는 안구 관련 데이터베이스 구축 시스템에 관련된다.Embodiments of the present invention relate to a system for building an eye-related database, and more particularly, to a system for building an eye-related database that extracts letters or numbers from a medical report in the form of an image to automatically form a fundus data set.

안저 이미지는 안과에서 망막에서 보여지는 두께를 측정한 이미지로서, 백내장, 녹내장, 고혈압과 당뇨병에 의한 망막 합병증 및 기타 망막 질환과 같은, 다양한 안구 관련 질환을 관찰하는데 사용된다. 때문에 안저 이미지가 포함된 보고서의 데이터베이스화는 안구 관련 연구에서 매우 중요하다. A fundus image is an image obtained by measuring the thickness seen in the retina in ophthalmology, and is used to observe various eye-related diseases, such as cataract, glaucoma, retinal complications caused by hypertension and diabetes, and other retinal diseases. Therefore, database creation of reports containing fundus images is very important in eye-related research.

도 1a 및 도 1b는, 종래의 뷰어 형식의 안저 이미지 및 측정 값을 포함한 보고서를 도시한 도면이다. 1A and 1B are diagrams illustrating reports including fundus images and measurement values in a conventional viewer format.

도 1a 및 도 1b를 참조하면, 일반적으로 자주 사용되는 Heidelberg 사, 또는 Zeiss 사의 안저 이미지 촬영기기는 측정 값, 측정 결과를 숫자 데이터 또는 텍스트 데이터로 제공하지 않고 PDF 파일 같은 뷰어 형식으로 지원하기 때문에, 측정 값, 측정 결과를 텍스트 데이터 또는 숫자 데이터로 변환하여 데이터베이스로 구축하기 위해서는 많은 인력과 시간이 필요하다. Referring to FIGS. 1A and 1B , the commonly used fundus image capture device of Heidelberg or Zeiss does not provide measurement values and measurement results as numeric data or text data, but supports them in a viewer format such as a PDF file, It takes a lot of manpower and time to convert measurement values and measurement results into text data or numeric data and build a database.

특허공개공보 제 10-2017-0051227호 (2015.10.02.)Patent Publication No. 10-2017-0051227 (2015.10.02.)

본 발명의 일 측면에 따르면, 이미지 형식의 의료 보고서로부터 문자 또는 숫자 데이터를 추출하여 자동으로 피검체의 안저 데이터 세트를 형성하는 안구 관련 데이터베이스 구축 시스템을 제공할 수 있다.According to one aspect of the present invention, it is possible to provide an eye-related database construction system that automatically forms an eye fundus data set of a subject by extracting character or numeric data from a medical report in the form of an image.

본 발명의 실시예들에서는, 일 측면에서, 피검체의 안구를 촬영한 촬영기기로부터 이미지 형식의 피검체의 의료 보고서를 수신하는 데이터 획득부 - 상기 의료 보고서는 촬영 이미지, 피검체의 의료 보고서의 보고서 항목 및 안구 관련 측정 결과를 포함함; 상기 의료 보고서에서 문자 또는 숫자를 추출할 복수의 인식 영역을 설정하고, 복수의 인식 영역 각각에 포함된 문자 또는 숫자를 인식하여 문자 데이터 또는 숫자 데이터로 추출하는 데이터 판독부; 및 추출된 문자 데이터 또는 숫자 데이터, 그리고 인식 영역에 연관된 보고서 항목으로 이루어진 피검체의 안저 데이터 세트를 생성하는 데이터베이스 관리부를 포함하는 안저 관련 데이터베이스 구축 시스템을 제공한다.In the embodiments of the present invention, in one aspect, a data acquisition unit receiving a medical report of the subject in the form of an image from a photographing device that has photographed the subject's eyeball - the medical report is a photographed image, a medical report of the subject Include report items and eye-related measurement results; a data reader configured to set a plurality of recognition areas from which letters or numbers are to be extracted from the medical report, recognize letters or numbers included in each of the plurality of recognition areas, and extract text data or number data; and a database management unit generating an ocular fundus data set of a subject composed of extracted text data or numeric data and report items associated with a recognition region.

일 실시예에서, 상기 의료 보고서는 촬영기기의 제조사 정보, 상기 촬영기기의 식별 정보, 및 보고서 유형 정보 중 하나 이상을 더 포함할 수도 있다. 또한, 상기 데이터 판독부는, 상기 촬영기기의 제조사, 기기 정보 및 보고서 유형 정보 중 하나 이상에 기초하여 수신한 의료 보고서에 대응하는 템플릿을 로드하고, 상기 템플릿을 통해 상기 보고서 항목별 인식 영역을 설정하도록 구성될 수도 있다. In one embodiment, the medical report may further include at least one of manufacturer information of the photographing device, identification information of the photographing device, and report type information. The data reading unit loads a template corresponding to the received medical report based on at least one of a manufacturer of the photographing device, device information, and report type information, and sets a recognition area for each report item through the template. may be configured.

일 실시예에서, 상기 데이터 판독부는, 미리 학습된 제1 인식 모델을 통해 상기 의료 보고서에서 상기 촬영기기의 제조사를 인식하고, 상기 제1 인식 모델은 입력 이미지에서 특징을 추출하여 입력 이미지의 제조사를 인식하도록 학습된 인공 신경망을 포함할 수도 있다.In one embodiment, the data reading unit recognizes the manufacturer of the photographing device in the medical report through a pre-learned first recognition model, and the first recognition model extracts features from an input image to determine the manufacturer of the input image. It may also include an artificial neural network that has been trained to recognize.

일 실시예에서, 상기 데이터 판독부는, 설정된 인식 영역별로 패치를 추출하고, 추출한 패치에 포함된 문자 또는 숫자를 인식하여 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터로 추출하도록 구성될 수도 있다.In one embodiment, the data reading unit may be configured to extract patches for each set recognition area, recognize letters or numbers included in the extracted patches, and extract text data or numeric data for a report item related to the recognition area. there is.

일 실시예에서, 상기 데이터 판독부는, 상기 추출한 패치에 포함된 문자 또는 숫자를 인식한 결과를 미리 학습된 제2 인식 모델에 적용하여, 상기 안저 데이터 세트를 생성하는데 사용될, 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터를 추출하도록 더 구성될 수도 있다. 상기 제2 인식 모델은 문자 또는 숫자를 포함한 입력 이미지에서 특징을 추출하여 해당 문자 또는 숫자를 인식하도록 학습된 인공 신경망을 포함한다. In one embodiment, the data reading unit applies a result of recognizing letters or numbers included in the extracted patch to a pre-learned second recognition model to generate a report related to the recognition area to be used to generate the fundus data set. It may be further configured to extract character data or numeric data for the item. The second recognition model includes an artificial neural network trained to recognize the corresponding letter or number by extracting features from an input image including the letter or number.

일 실시예에서, 상기 제2 인식 모델은 문자열 인식을 위한 제2-1 모델 및 숫자열 인식을 위한 제2-2 모델을 포함할 수도 있다. 또한, 상기 데이터 판독부는 문자를 포함한 입력 패치를 상기 제2-1 모델에 입력하고, 숫자를 포함한 입력 패치를 상기 제2-2 모델에 입력할 수도 있다.In one embodiment, the second recognition model may include a 2-1 model for character string recognition and a 2-2 model for number string recognition. Also, the data reading unit may input an input patch including characters to the 2-1 model and input an input patch including numbers to the 2-2 model.

일 실시예에서, 상기 데이터 판독부는, 상기 템플릿을 사용하여 상기 의료 보고서에서 이미지 표시 영역을 설정하고, 그리고 해당 영역으로 이루어진 패치를 촬영 이미지 패치로 추출하도록 더 구성될 수도 있다. 상기 촬영 이미지는 황반 부분을 중심으로 촬영된 제1 안저 이미지, 시신경 유두 부분을 중심으로 촬영된 제2 안저 이미지, OCT(OPTICAL COHERENCE TOMOGRAPHY) 이미지 또는 망막 층(Retinal Layer) 이미지를 포함하며, 상기 의료 보고서의 서식 중 일부 서식은 다른 일부 서식과 다른 위치에 촬영 이미지가 위치한다. In one embodiment, the data reading unit may be further configured to set an image display area in the medical report using the template, and extract a patch formed of the corresponding area as a captured image patch. The captured image includes a first fundus image taken centered on the macula, a second fundus image taken centered on the optic nerve head, an OPTICAL COHERENCE TOMOGRAPHY (OCT) image, or a retinal layer image, and the medical Some of the report forms have captured images located in different positions from other forms.

일 실시예에서, 상기 보고서 유형은, 황반 부분을 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함한 제1 유형의 보고서, 신경 유두 부분을 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함한 제2 유형의 보고서, 또는 OCT 이미지 또는 망막 층 이미지를 포함한 제3 유형의 보고서를 포함할 수도 있다.In one embodiment, the report type is a report of a first type including ETDRS measurement results obtained by imaging the macular area, and a second type report including ETDRS measurement results obtained by imaging the nerve head area. , or a third type of report including OCT images or retinal layer images.

일 실시예에서, 상기 안저 데이터 세트는, 피검체의 식별 정보, 및 측정 일자를 포함한 상기 의료 보고서의 속성 정보를 포함할 수도 있다. 또한, 상기 데이터베이스 관리부는 입력된 피검체의 식별 정보 및 측정 일자 중 적어도 하나에 기초하여 상기 입력된 피검체의 안저 데이터 세트를 검색하도록 더 구성될 수도 있다. In one embodiment, the fundus data set may include identification information of the subject and attribute information of the medical report including the measurement date. In addition, the database management unit may be further configured to search the ocular fundus data set of the subject based on at least one of input identification information and measurement date of the subject.

일 실시예에서, 상기 피검체의 새로운 의료 보고서를 수신하면, 상기 새로운 의료 보고서의 측정 결과를 업데이트하기 위해, 상기 데이터 판독부는 상기 새로운 의료 보고서의 수신에 반응하여 상기 피검체의 식별 정보의 항목에 연관된 인식 영역에서 상기 피검체의 식별 정보를 추출하여 상기 안저 데이터 세트를 검색하도록 더 구성될 수도 있다.In one embodiment, when receiving a new medical report of the subject, the data reading unit responds to receiving the new medical report to an item of identification information of the subject to update a measurement result of the new medical report. It may be further configured to retrieve the fundus data set by extracting identification information of the subject from an associated recognition region.

본 발명의 실시예들에서는, 다른 일 측면에서, 프로세서 및 메모리를 포함한 컴퓨팅 장치에 의해 수행되는 안저 관련 데이터베이스 구축 방법에 있어서, 안구를 촬영한 촬영기기로부터 이미지 형식의 피검체의 의료 보고서를 수신하는 단계 - 상기 의료 보고서는 촬영 이미지, 보고서 항목 및 상기 보고서 항목에 대한 측정 결과를 포함함; 상기 의료 보고서에서 문자 또는 숫자를 추출할 복수의 인식 영역을 설정하고, 복수의 인식 영역 각각에 포함된 문자 또는 숫자를 인식하여 문자 데이터 또는 숫자 데이터로 추출하는 단계; 및 추출된 문자 데이터 또는 숫자 데이터, 그리고 인식 영역에 연관된 보고서 항목으로 이루어진 피검체의 안저 데이터 세트를 생성하는 단계를 포함하는 안저 관련 데이터베이스 구축 방법을 제공한다.In embodiments of the present invention, in another aspect, in the fundus-related database construction method performed by a computing device including a processor and a memory, receiving a medical report of a subject in the form of an image from a photographing device that photographs an eyeball step - the medical report includes a photographed image, report items, and measurement results for the report items; setting a plurality of recognition areas to extract letters or numbers from the medical report, recognizing letters or numbers included in each of the plurality of recognition areas, and extracting the letters or numbers as text data or numeric data; and generating an ocular fundus data set of a subject composed of extracted text data or numeric data and report items associated with a recognition region.

프로세서 및 메모리를 포함한 컴퓨팅 장치에 의해 수행되는 안저 관련 데이터베이스 구축 방법은: 안구를 촬영한 촬영기기로부터 이미지 형식의 피검체의 의료 보고서를 수신하는 단계 - 상기 의료 보고서는 촬영 이미지, 보고서 항목 및 상기 보고서 항목에 대한 측정 결과를 포함함; 상기 의료 보고서에서 문자 또는 숫자를 추출할 복수의 인식 영역을 설정하고, 복수의 인식 영역 각각에 포함된 문자 또는 숫자를 인식하여 문자 데이터 또는 숫자 데이터로 추출하는 단계; 및 추출된 문자 데이터 또는 숫자 데이터, 그리고 인식 영역에 연관된 보고서 항목으로 이루어진 피검체의 안저 데이터 세트를 생성하는 단계를 포함할 수도 있다. A fundus-related database construction method performed by a computing device including a processor and memory includes: receiving a medical report of a subject in the form of an image from a photographing device that photographs an eyeball - the medical report includes a photographed image, report items, and the report contains measurement results for items; setting a plurality of recognition areas to extract letters or numbers from the medical report, recognizing letters or numbers included in each of the plurality of recognition areas, and extracting the letters or numbers as text data or numeric data; and generating an ocular fundus data set of the subject composed of the extracted text data or numeric data and report items related to the recognition region.

일 실시예에서, 상기 의료 보고서는 촬영기기의 제조사 정보, 상기 촬영기기의 식별 정보, 및 보고서 유형 정보 중 하나 이상을 더 포함할 수도 있다. 또한, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는, 상기 촬영기기의 제조사, 기기 정보 및 보고서 유형 정보 중 하나 이상에 기초하여 수신한 의료 보고서에 대응하는 템플릿을 로드하는 단계; 및 상기 템플릿을 통해 상기 보고서 항목별 인식 영역을 설정하는 단계를 포함할 수도 있다.In one embodiment, the medical report may further include at least one of manufacturer information of the photographing device, identification information of the photographing device, and report type information. The extracting of the text data or numeric data may include loading a template corresponding to the received medical report based on at least one of a manufacturer of the photographing device, device information, and report type information; and setting a recognition area for each report item through the template.

일 실시예에서, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는, 상기 템플릿을 로드하기 위해 미리 학습된 제1 인식 모델을 통해 상기 의료 보고서에서 상기 촬영기기의 제조사를 인식하는 단계를 더 포함할 수도 있다. 상기 제1 인식 모델은 입력 이미지에서 특징을 추출하여 입력 이미지의 제조사를 인식하도록 학습된 인공 신경망을 포함할 수도 있다.In one embodiment, the step of extracting the text data or numeric data may further include recognizing a manufacturer of the photographing device from the medical report through a first recognition model trained in advance to load the template. there is. The first recognition model may include an artificial neural network trained to recognize a manufacturer of the input image by extracting features from the input image.

일 실시예에서, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는, 설정된 인식 영역별로 패치를 추출하는 단계; 및 추출한 패치에 포함된 문자 또는 숫자를 인식하여 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터로 추출하는 단계를 포함할 수도 있다.In an embodiment, the extracting of the text data or numeric data may include extracting patches for each set recognition area; and recognizing letters or numbers included in the extracted patch and extracting them as text data or numeric data for a report item related to the recognition area.

일 실시예에서, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는, 상기 추출한 패치에 포함된 문자 또는 숫자를 인식한 결과를 미리 학습된 제2 인식 모델에 적용하여, 상기 안저 데이터 세트를 생성하는데 사용될, 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터를 추출하는 단계를 더 포함할 수도 있다. 상기 제2 인식 모델은 문자 또는 숫자를 포함한 입력 이미지에서 특징을 추출하여 해당 문자 또는 숫자를 인식하도록 학습된 인공 신경망을 포함한다. In one embodiment, the extracting of the character data or number data may include applying a result of recognizing the character or number included in the extracted patch to a pre-learned second recognition model to be used to generate the fundus data set. , extracting text data or numeric data for a report item related to the recognition area. The second recognition model includes an artificial neural network trained to recognize the corresponding letter or number by extracting features from an input image including the letter or number.

일 실시예에서, 상기 제2 인식 모델은 문자열 인식을 위한 제2-1 모델 및 숫자열 인식을 위한 제2-2 모델을 포함할 수도 있다. 또한, 상기 데이터 판독부는 문자를 포함한 입력 패치를 상기 제2-1 모델에 입력하고, 숫자를 포함한 입력 패치를 상기 제2-2 모델에 입력할 수도 있다.In one embodiment, the second recognition model may include a 2-1 model for character string recognition and a 2-2 model for number string recognition. Also, the data reading unit may input an input patch including characters to the 2-1 model and input an input patch including numbers to the 2-2 model.

일 실시예에서, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는, 상기 템플릿을 사용하여 상기 의료 보고서에서 이미지 표시 영역을 설정하는 단계; 및 해당 영역으로 이루어진 패치를 촬영 이미지 패치로 추출하는 단계를 더 포함할 수도 있다.In one embodiment, the extracting of the text data or numeric data may include setting an image display area in the medical report using the template; and extracting a patch comprising the corresponding region as a captured image patch.

일 실시예에서, 상기 방법은: 사용자 요청을 입력 받아 사용자 요청에 매칭한 피검체의 안저 데이터 세트를 검색하는 단계를 더 포함할 수도 있다. 상기 안저 데이터 세트는, 피검체의 식별 정보 및 측정 일자를 포함한 상기 의료 보고서의 속성 정보를 포함하며, 상기 사용자 요청은 검색될 피검체의 식별 정보 및 측정 일자 중 적어도 하나를 포함할 수도 있다.In one embodiment, the method may further include: receiving a user request and searching for an ocular fundus data set matching the user request. The fundus data set includes attribute information of the medical report including identification information of the subject and measurement date, and the user request may include at least one of identification information and measurement date of the subject to be searched.

일 실시예에서, 상기 방법은: 상기 피검체의 새로운 의료 보고서를 수신하는 단계; 및 상기 새로운 의료 보고서의 측정 결과를 업데이트하기 위해, 상기 새로운 의료 보고서의 수신에 반응하여 상기 피검체의 식별 정보의 항목에 연관된 인식 영역에서 상기 피검체의 식별 정보를 추출하여 상기 안저 데이터 세트를 검색하는 단계를 더 포함할 수도 있다.In one embodiment, the method further comprises: receiving a new medical report of the subject; and in order to update a measurement result of the new medical report, in response to receiving the new medical report, the subject's identification information is extracted from a recognition area associated with the subject's identification information item to retrieve the fundus data set. It may further include steps to do.

본 발명의 일 실시예에 따른 구축 시스템은 이미지 형식의 의료 보고서에서 텍스트, 및 안저 이미지를 자동적으로 인식하여 추출함으로써 피검체의 안저 데이터 세트를 형성할 수 있다. The construction system according to an embodiment of the present invention may form a fundus data set of a subject by automatically recognizing and extracting text and fundus images from a medical report in the form of an image.

이러한 피검체의 안저 데이터 세트는 의료 파일 형식으로 데이터베이스에 저장될 수 있으며, 보다 손쉬운 병변 예측 및 경과 관찰을 가능하게 한다. Such a subject's fundus data set can be stored in a database in the form of a medical file, enabling easier lesion prediction and follow-up.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1a 및 도 1b는, 종래의 뷰어 형식의 안저 이미지 및 측정 값을 포함한 보고서를 도시한 도면이다.
도 2는, 본 발명의 일 실시예에 따른, 안저 관련 데이터베이스 구축 시스템의 개념도이다.
도 3a 내지 도 3c는, 본 발명의 일 실시예에 따른, 템플릿에 따른 의료 보고서별 인식 영역을 도시한 도면이다.
도 4a 및 도 4b는, 본 발명의 일 실시예에 따른, 숫자 데이터를 추출한 결과를 도시한 도면이다.
도 5는, 본 발명의 일 실시예에 따른, 안저 관련 데이터베이스를 이루는 피검체별 인저 데이터 세트를 도시한 도면이다.
도 6은, 본 발명의 일 실시예예 따른, 안저 관련 데이터베이스 구축 방법의 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS To describe the technical solutions of the embodiments of the present invention or the prior art more clearly, drawings required in the description of the embodiments are briefly introduced below. It should be understood that the drawings below are for the purpose of explaining the embodiments of the present specification and not for limiting purposes. In addition, for clarity of explanation, some elements applied with various modifications, such as exaggeration and omission, may be shown in the drawings below.
1A and 1B are diagrams illustrating reports including fundus images and measurement values in a conventional viewer format.
2 is a conceptual diagram of a fundus-related database construction system according to an embodiment of the present invention.
3A to 3C are diagrams illustrating recognition areas for each medical report according to a template, according to an embodiment of the present invention.
4A and 4B are diagrams illustrating results of extracting numeric data according to an embodiment of the present invention.
5 is a diagram illustrating an fundus data set for each subject constituting an fundus-related database according to an embodiment of the present invention.
6 is a flowchart of a fundus-related database construction method according to an embodiment of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is only for referring to specific embodiments and is not intended to limit the present invention. As used herein, the singular forms also include the plural forms unless the phrases clearly indicate the opposite. The meaning of "comprising" as used herein specifies particular characteristics, regions, integers, steps, operations, elements and/or components, and the presence or absence of other characteristics, regions, integers, steps, operations, elements and/or components. Additions are not excluded.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined differently, all terms including technical terms and scientific terms used herein have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention belongs. Terms defined in commonly used dictionaries are additionally interpreted as having meanings consistent with related technical literature and currently disclosed content, and are not interpreted in ideal or very formal meanings unless defined.

이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, with reference to the drawings, look at the embodiments of the present invention in detail.

도 2는, 본 발명의 일 실시예에 따른, 안저 관련 데이터베이스 구축 시스템의 개념도이다. 2 is a conceptual diagram of a fundus-related database construction system according to an embodiment of the present invention.

도 2를 참조하면, 안저 관련 데이터베이스를 구축하는 시스템1은 데이터 획득부(100); 데이터 판독부(300); 및 데이터베이스 관리부(500)를 포함한다. Referring to FIG. 2 , system 1 for constructing a fundus-related database includes a data acquisition unit 100; data reading unit 300; and a database management unit 500 .

실시예들에 따른 상기 시스템(1)은 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 시스템은 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", “모듈(module)”“장치”, 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The system 1 according to embodiments may have aspects that are entirely hardware, entirely software, or partly hardware and partly software. For example, the system may collectively refer to hardware equipped with data processing capability and operating software for driving the hardware. In this specification, terms such as "unit", "module", "device", or "system" are intended to refer to a combination of hardware and software driven by the hardware. For example, the hardware may be a data processing device including a Central Processing Unit (CPU), a Graphic Processing Unit (GPU), or another processor. Also, software may refer to a running process, an object, an executable file, a thread of execution, a program, and the like.

데이터 획득부(100)는 피검체의 안구 상태에 대한 내용을 포함하는 의료 보고서를 입력 받는 구성요소이다. 상기 의료 보고서는 피검체의 안구를 촬영한 촬영 이미지, 측정 결과를 포함한 보고서로서, 이미지 형식의 데이터이다. 안저 관련 측정 결과는 측정 값 및/또는 문자로 표현되는 정보로서, 각각의 보고서 항목에 연관된다. 의료 보고서는 보고서 항목이 의미하는 문자가 기록될 수도 있다. 문자로 표현되는 측정 결과는, 예를 들어 정상, 정상 외, 경계선 등을 포함할 수도 있다. The data acquisition unit 100 is a component that receives a medical report containing information about the eye condition of the subject. The medical report is a report including a photographed image of a subject's eyeball and measurement results, and is data in the form of an image. The fundus-related measurement result is information expressed as a measurement value and/or text, and is associated with each report item. In the medical report, letters meaning report items may be recorded. The measurement result expressed as a character may include, for example, normal, out of normal, border line, and the like.

도 1a 및 도 1b에 도시된 바와 같이, 상기 의료 보고서에 포함되는 촬영 이미지는 황반(Macular) 중심의 안저 이미지, 시신경 유두 중심의 안저 이미지, OCT 이미지 또는 망막 층 이미지 등을 포함할 수도 있다. As shown in FIGS. 1A and 1B , the photographed image included in the medical report may include a macular-centered fundus image, an optic disc-centered fundus image, an OCT image, or a retinal layer image.

상기 의료 보고서는 피검체의 안구에 관련된 실질적 정보인 안저 상태를 측정한 다양한 측정 결과를 포함한다. 상기 측정 결과는 숫자 및/또는 문자로 표현된다. The medical report includes various measurement results of measuring the fundus state, which is substantial information related to the subject's eyeball. The measurement results are expressed in numbers and/or letters.

일 실시예에서, 상기 의료 보고서는 ETDRS 측정 값, 망막 두께, 부피 중 하나 이상을 포함한 측정 값을 가질 수도 있다. 또한, 상기 의료 보고서는 동일 측정 항목에 대해서 좌안(OS) 및 우안(OD)에 대한 측정 값을 각각 포함할 수도 있다.In one embodiment, the medical report may have measurement values including one or more of ETDRS measurement values, retinal thickness, and volume. Also, the medical report may include measurement values for the left eye (OS) and the right eye (OD) for the same measurement item.

예를 들어, OCT 이미지를 촬영한 의료 보고서는, Average RNFL thickenss Eye, OCT temporal RNFL thickness Eye, OCT superotemporal RNFL thickness Eye, OCT superior RNFL thickness Eye, OCT superonasal RNFL thickness Eye, OCT nasal RNFL thickness Eye, OCT inferonasal RNFL thickness Eye, OCT inferior RNFL thickness Eye, OCT inferotemporal RNFL thickness Eye 및 OCT RNFL classification 중 하나 이상을 포함할 수도 있다. For example, a medical report with OCT images taken, Average RNFL thickenss Eye, OCT temporal RNFL thickness Eye, OCT superotemporal RNFL thickness Eye, OCT superior RNFL thickness Eye, OCT superonasal RNFL thickness Eye, OCT nasal RNFL thickness Eye, OCT inferonasal It may include one or more of RNFL thickness Eye, OCT inferior RNFL thickness Eye, OCT inferotemporal RNFL thickness Eye, and OCT RNFL classification.

상기 의료 보고서는 피검체의 안구에 관련된 실질적 정보 이외의 다른 정보를 포함한다. 일 실시예에서, 상기 다른 정보는 보고서를 형식적 측면에서 서술하는 속성 정보를 포함한다. 상기 속성 정보는, 예를 들어 촬영기기의 제조사 정보, 기기 정보, 피검체의 식별 정보, 보고서 유형, 측정 일자 등을 포함할 수도 있으나, 이에 제한되진 않는다. The medical report includes information other than substantive information related to the eye of the subject. In one embodiment, the other information includes attribute information describing the report in a formal aspect. The attribute information may include, for example, manufacturer information of the photographing device, device information, subject identification information, report type, measurement date, etc., but is not limited thereto.

촬영기기의 제조사 정보는 제조사의 로고 및/또는 제조사의 명칭을 표기한 텍스트를 포함할 수도 있다. 상기 제조사 로고의 이미지가 의료 보고서 이미지에 포함될 수도 있다. Manufacturer information of the photographing device may include a manufacturer's logo and/or text indicating the manufacturer's name. An image of the manufacturer's logo may be included in the medical report image.

촬영기기 정보는, 예를 들어, 기기(또는 제품) 명칭, 기기 번호 등을 포함할 수도 있다. 제조사 정보는 해당 촬영기기를 제조한 업체의 정보이다. 일 실시예에서, 제조사 정보는 Heidelberg 사 및 Zeiss 사 중 적어도 하나를 포함할 수도 있다. The photographing device information may include, for example, a device (or product) name, device number, and the like. The manufacturer information is information of a manufacturer of the corresponding photographing device. In one embodiment, manufacturer information may include at least one of Heidelberg and Zeiss.

보고서 유형은 의료 보고서를 이루는 규약(protocol)이다. 예를 들어, 보고서 유형에 따라서 의료 보고서는 RNFL 보고서, Macular 보고서, Thickness Map single Exam 보고서 등으로 분류될 수도 있다.A report type is a protocol that constitutes a medical report. For example, according to the report type, medical reports may be classified as RNFL reports, Macular reports, and Thickness Map single Exam reports.

또한, 보고서 유형은 촬영 부분에 기초하여 더 분류될 수도 있다. 예를 들어, 황반 부분을 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함한 제1 유형의 보고서, 신경 유두 부분을 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함한 제2 유형의 보고서, 또는 OCT 이미지 또는 망막 층 이미지를 포함한 제3 유형의 보고서로 분류될 수도 있다. 제1 유형의 보고서는 황반 중심의 안저 이미지를 포함할 수도 있다. 제2 유형의 보고서는 신경 유두 부분 중심의 안저 이미지를 포함할 수도 있다. Also, the report type may be further classified based on the shooting part. For example, a report of the first type including the ETDRS measurement result obtained by imaging the macular portion, a report of the second type including the ETDRS measurement result obtained by imaging the nerve head portion, or an OCT image or retina It may also be classified as a third type of report including layer images. A first type of report may include a fundus image centered on the macula. A report of the second type may include a fundus image centered on a portion of the nerve head.

상기 피검체의 식별 정보는 피검체의 성명, 피검체의 코드(예컨대, ID), 생년 월일, 성별 등을 포함할 수도 있다. The identification information of the subject may include a name of the subject, a code (eg, ID) of the subject, date of birth, gender, and the like.

일 실시예에서, 데이터 획득부(100)는 안구를 촬영하여 뷰어 형식의 의료 보고서를 생성하는 촬영기기(미도시)로부터 의료 보고서를 입력 받을 수도 있다. 상기 데이터 획득부(100)는 인터페이스부110 및/또는 데이터 통신부130를 통해 의료 보고서의 뷰어 데이터(즉, 이미지 데이터)를 획득한다. In one embodiment, the data acquisition unit 100 may receive a medical report from a photographing device (not shown) that photographs an eyeball and generates a medical report in a viewer format. The data acquisition unit 100 acquires viewer data (ie, image data) of the medical report through the interface unit 110 and/or the data communication unit 130.

인터페이스부110는 다양한 인터페이스 규격을 갖는 촬영기기와 아날로그 신호 및 디지털 데이터를 송수신할 수도 있다. 이러한 인터페이스부110는 예를 들어, 직렬 인터페이스, 병렬 인터페이스, 전송 제어 프로토콜/인터넷 프로토콜(TCP/IP) 인터페이스, 의료용 디지털 이미지 및 통신 표준(DICOM) 인터페이스 중 하나 이상의 방식으로 피검체의 의료 보고서 데이터를 획득한다. The interface unit 110 may transmit/receive analog signals and digital data with imaging devices having various interface standards. The interface unit 110 transmits medical report data of the subject using one or more of, for example, a serial interface, a parallel interface, a transmission control protocol/internet protocol (TCP/IP) interface, and a medical digital image and communication standard (DICOM) interface. Acquire

데이터 통신부130는 통신 가능한 외부 장치와 데이터를 주고 받는 구성요소이다. 데이터 통신부130는 유선 및/또는 무선 네트워크 모듈을 포함할 수도 있다. 상기 유선 네트워크 모듈은 유선 랜(LAN), 이더넷, USB, 전력선 통신(PLC) 등을 포함할 수 있으며, 상기 무선 네트워크 모듈은 무선 랜(LAN), 적외선 통신(IrDA), 코드분할 다중접속(CDMA), 시분할 다중접속(TDMA), 주파수분할 다중접속(FDMA), 유비쿼터스 센서 네트워크(USN), RFID, NFC, 지그비, 블루투스, LTE, 와이브로(WiBro), 고속 하향 패킷 접속(HSDPA), 광대역 코드분할 다중접속(WCDMA), 초광대역 통신(UWB) 등을 포함할 수 있다. 데이터 통신부130는 통신 가능한 촬영기기로부터 전기적 통신을 통해 의료 보고서 데이터를 획득하거나, 또는 촬영기기가 아닌 외부 장치(예컨대, 서버, 사용자 단말, 컴퓨터 등)가 미리 저장하는 의료 보고서 데이터를 전기적 통신을 통해 획득할 수도 있다. The data communication unit 130 is a component that exchanges data with an external device capable of communication. The data communication unit 130 may include a wired and/or wireless network module. The wired network module may include a wired LAN, Ethernet, USB, power line communication (PLC), and the like, and the wireless network module may include a wireless LAN, infrared communication (IrDA), and code division multiple access (CDMA). ), Time Division Multiple Access (TDMA), Frequency Division Multiple Access (FDMA), Ubiquitous Sensor Network (USN), RFID, NFC, ZigBee, Bluetooth, LTE, WiBro, High Speed Downlink Packet Access (HSDPA), Broadband Code Division It may include multiple access (WCDMA), ultra-wideband communication (UWB), and the like. The data communication unit 130 obtains medical report data from a communicable photographing device through electrical communication, or obtains medical report data pre-stored by an external device (eg, server, user terminal, computer, etc.) other than the photographing device through electronic communication. may also be obtained.

데이터 회득부100에 의해 획득된 의료 보고서는 데이터 판독부(300)에 공급된다. The medical report obtained by the data acquisition unit 100 is supplied to the data reading unit 300 .

데이터 판독부(300)는 의료 보고서의 이미지에 포함된 문자를 인식하여 텍스트 데이터로 출력할 수도 있다. 또한, 데이터 판독부(300)는 의료 보고서의 이미지에 포함된 숫자를 인식하여 숫자 데이터로 출력할 수도 있다. 데이터 판독부(300)는 이미지 내 포함된 문자 또는 숫자를 OCR(Optical Character Recognition) 알고리즘을 통해 인식하여 문자 데이터(즉, 텍스트 데이터) 및 숫자 데이터를 획득할 수도 있다. The data reading unit 300 may recognize characters included in the image of the medical report and output them as text data. Also, the data reading unit 300 may recognize numbers included in the image of the medical report and output them as numeric data. The data reading unit 300 may acquire character data (ie, text data) and numeric data by recognizing characters or numbers included in the image through an Optical Character Recognition (OCR) algorithm.

또한, 데이터 판독부(300)는 의료 보고서에서 문자(또는 숫자)를 인식할 영역(이하, “인식 영역”)을 설정할 수도 있다. 일부 실시예에서, 상기 인식 영역의 설정 동작은 텍스트 데이터(또는 숫자 데이터)의 추출 동작 이전에 수행된다. Also, the data reading unit 300 may set an area (hereinafter referred to as “recognition area”) to recognize characters (or numbers) in the medical report. In some embodiments, the operation of setting the recognition area is performed before the operation of extracting text data (or numeric data).

일 실시예에서, 데이터 판독부(300)는 미리 저장된 템플릿을 사용하여 인식 영역을 설정할 수도 있다. In one embodiment, the data reading unit 300 may set a recognition area using a pre-stored template.

템플릿은 획득 가능한 의료 보고서의 이미지에서 문자가 추출될 인식 영역의 위치 및/또는 형태를 구조화한 것이다. 템플릿을 통해 의료 보고서 내 문자 또는 표시된 이미지에 연관되는 보고서 항목이 구조화된다. 예를 들어, 템플릿 상에서 의료 보고서의 이미지 내 특정 위치에 기록된 문자(예컨대, 측정 값)는 특정 보고서 항목(예컨대, 해당 측정 항목)에 연관된다. The template is a structure in which the location and/or shape of a recognition area in which characters are to be extracted from an image of an obtainable medical report is structured. Report items related to text or displayed images in a medical report are structured through templates. For example, a character (eg, a measurement value) recorded at a specific position in an image of a medical report on a template is related to a specific report item (eg, the corresponding measurement item).

의료 보고서에서 제조사, 촬영기기, 보고서의 유형, 피검체의 식별 정보, 또는 측정 값 등이 기록되는 영역은 의료 보고서의 서식에 따라 미리 지정된다. 상기 의료 보고서의 서식은 촬영기기의 제조사(또는 기기 정보), 촬영기기, 보고서의 유형에 의존한다. 예를 들어, 동일한 보고서의 유형이여도 촬영기기의 제조사가 Heidelberg 사 또는 Zeiss 사인지에 따라 측정 값 등이 기록된 위치가 상이할 수도 있다. In the medical report, an area in which the manufacturer, photographing device, report type, subject identification information, or measurement value is recorded is pre-specified according to the medical report format. The format of the medical report depends on the manufacturer of the imaging device (or device information), the imaging device, and the type of report. For example, even if it is the same type of report, the recorded location of the measurement value, etc. may be different depending on the manufacturer of the photographing device, Heidelberg company, or Zeiss sign.

상기 시스템1은 다양한 의료 보고서의 서식에 따른 다양한 템플릿을 미리 저장한다. 상기 시스템1은 (예컨대, 데이터 판독부(300)에 의해) 촬영기기의 제조사, 기기 정보, 및/또는 보고서 유형 정보를 의료 보고서의 이미지로부터 획득하며, 이러한 촬영기기의 제조사, 기기 정보, 및/또는 보고서 유형에 기초하여 상기 의료 보고서에 해당하는 템플릿을 로드(load)한다.The system 1 stores various templates according to various forms of medical reports in advance. The system 1 acquires the manufacturer of the imaging device, device information, and/or report type information from the image of the medical report (e.g., by the data reader 300), and obtains the manufacturer, device information, and/or report type information of the imaging device. Alternatively, a template corresponding to the medical report is loaded based on the report type.

일 실시예에서, 데이터 판독부(300)는 미리 학습된 제1 인식 모델을 통해 의료 보고서에서 촬영기기의 제조사 정보를 획득할 수도 있다. In one embodiment, the data reading unit 300 may obtain manufacturer information of the photographing device from the medical report through the pre-learned first recognition model.

상기 제1 인식 모델은 입력 이미지에서 특징을 추출하여 입력 이미지가 어느 제조사인지, 어느 기기인지, 또는 어느 보고서 유형에 속하는지를 결정함으로써, 제조사, 기기정보, 보고서 유형을 인식하도록 학습된 인공 신경망을 포함하는 기계 학습 모델이다. 상기 제1 인식 모델은 예를 들어, CNN 기반 인공 신경망의 구조를 가질 수도 있으나, 이에 제한되진 않는다.The first recognition model includes an artificial neural network trained to recognize a manufacturer, device information, and report type by extracting features from an input image and determining which manufacturer, device, or report type the input image belongs to. It is a machine learning model that The first recognition model may have, for example, a structure of a CNN-based artificial neural network, but is not limited thereto.

상기 제1 인식 모델은 복수의 훈련 데이터로 이루어진 훈련 데이터 세트를 사용하여 학습된다. 이 세트 내 각각의 훈련 데이터는 촬영기기의 제조사를 의미하는 형태 이미지 및 레이블 데이터를 포함할 수도 있다. 예를 들어, 각각의 훈련 데이터는 Heidelberg 사 또는 Zeiss 사의 로고 이미지를 포함할 수도 있다. The first recognition model is learned using a training data set consisting of a plurality of training data. Each training data in this set may include a shape image indicating a manufacturer of the photographing device and label data. For example, each training data may include a logo image of Heidelberg or Zeiss.

데이터 판독부(300)는 상기 제1 인식 모델을 통해 의료 보고서의 이미지 내 제조사 로고로부터 제조사를 인식하고, 인식된 제조사에 연관된 의료 보고서에 해당하는 템플릿을 로드하는데 사용된다.The data reading unit 300 is used to recognize a manufacturer from the manufacturer logo in the image of the medical report through the first recognition model and to load a template corresponding to the medical report related to the recognized manufacturer.

일부 실시예에서, 데이터 판독부(300)는 제조사 정보를 획득하기 위해, 의료 보고서의 이미지에서 특정 인식 영역으로 이루어진 패치를 생성할 수도 있다. 데이터 판독부(300)는 인식 영역을 크롭핑(cropping) 처리하여 인식 영역의 패치를 생성할 수도 있다.In some embodiments, the data reading unit 300 may generate a patch consisting of a specific recognition area in the image of the medical report to obtain manufacturer information. The data reading unit 300 may crop the recognition area to generate a patch of the recognition area.

그러면, 데이터 판독부(300)는 의료 보고서의 전체 영역 대신에 상기 생성된 패치를 입력 이미지로 상기 제1 인식 모델에 적용할 수도 있다. 상기 패치는 제조사 로고가 통계적으로 빈번하게 표시되는 위치의 인식 영역으로 이루어진다. 예를 들어, 데이터 판독부(300)는 의료 보고서의 전체 이미지에서 좌/우측 상/하단 부분을 패치로 추출하고 추출된 패치를 입력하여 의료 보고서의 이미지를 생성한 촬영기기의 제조사를 인식할 수도 있다. Then, the data reading unit 300 may apply the generated patch as an input image to the first recognition model instead of the entire area of the medical report. The patch consists of a recognition area at a location where a manufacturer's logo is statistically frequently displayed. For example, the data reading unit 300 may extract left/right upper/lower parts from the entire image of the medical report as patches and input the extracted patches to recognize the manufacturer of the imaging device that generated the image of the medical report. there is.

또한, 데이터 판독부(300)는 의료 보고서의 특정 인식 영역에 기록된 기기 식별자(예컨대, 기기 명칭) 및/또는 보고서 유형의 텍스트를 추출하여 기기 식별자 및/또는 보고서 유형 정보를 획득할 수도 있다. 상기 특정 인식 영역은 기기 식별자, 보고서 유형이 통계적으로 빈번하게 표시되는 위치의 인식 영역이다. In addition, the data reading unit 300 may obtain the device identifier and/or report type information by extracting a device identifier (eg, device name) and/or report type text recorded in a specific recognition area of the medical report. The specific recognition area is a recognition area of a location where a device identifier and a report type are statistically frequently displayed.

예를 들어, 데이터 판독부(300)는 의료 보고서의 좌/우측 상/하단과 같은 전체 영역 중 가장 자리의 일부 또는 전부를 OCR 알고리즘을 통해 인식하여 텍스트를 추출함으로써 기기 식별자 및/또는 보고서 유형 정보를 획득한다. 획득된 기기 식별자 및/또는 보고서 유형은 의료 보고서에 해당하는 템플릿을 로드하는데 사용된다. For example, the data reading unit 300 recognizes some or all of the edges of the entire area, such as the left/right top/bottom of the medical report, through an OCR algorithm, and extracts text to obtain device identifier and/or report type information. Acquire The obtained device identifier and/or report type is used to load a template corresponding to the medical report.

그러면, 데이터 판독부(300)는 이미지 인식을 통해 획득된 제조사 정보, 그리고 텍스트 추출을 통해 획득된 기기 식별자 및/또는 보고서 유형 정보 중 하나 이상에 기초하여 획득된 의료 보고서에 해당하는 템플릿을 로드한다. Then, the data reading unit 300 loads a template corresponding to the obtained medical report based on at least one of manufacturer information obtained through image recognition and device identifier and/or report type information obtained through text extraction. .

데이터 판독부(300)는 이와 같이 로드된 템플릿을 사용하여 의료 보고서의 이미지 상에서 인식 영역을 설정한다. 설정된 인식 영역 내 기록된 문자 또는 숫자 이미지로부터 문자 또는 숫자 데이터가 추출된다. The data reader 300 sets a recognition area on the image of the medical report using the template loaded in this way. Character or number data is extracted from the character or number image recorded in the set recognition area.

도 3a 내지 도 3c는, 본 발명의 일 실시예에 따른, 템플릿에 따른 의료 보고서별 인식 영역을 도시한 도면이다. 3A to 3C are diagrams illustrating recognition areas for each medical report according to a template, according to an embodiment of the present invention.

데이터 획득부300는 의료 보고서 이미지에서 특정 부분(예컨대, 상단)을 포함한 패치를 제1 이미지 인식 모델에 입력하여 Heidelberg 사의 로고를 인식하고, 제조사 정보를 획득한다. 또한, 데이터 획득부300는 의료 보고서 이미지에서 특정 부분(예컨대, 상단)을 OCR 처리하여 보고서 유형, 촬영기기의 명칭을 획득할 수도 있다. 데이터 획득부300는 획득된 제조사 정보, 보고서 유형, 촬영기기의 명칭에 기초하여 템플릿을 로드하고, 도 3a 내지 도 3c에 도시된 바와 같이 인식 영역을 설정할 수도 있다. The data acquisition unit 300 recognizes Heidelberg's logo by inputting a patch including a specific part (eg, top) of the medical report image to the first image recognition model, and acquires manufacturer information. In addition, the data acquisition unit 300 may acquire the report type and the name of the photographing device by performing OCR processing on a specific part (eg, upper portion) of the medical report image. The data acquisition unit 300 may load a template based on the acquired manufacturer information, report type, and name of the photographing device, and may set a recognition area as shown in FIGS. 3A to 3C .

도 3a 내지 도 3c의 템플릿으로 구조화된 보고서 항목은 아래의 표 1과 같은 속성 정보의 항목을 포함한다. Report items structured as templates of FIGS. 3A to 3C include property information items as shown in Table 1 below.

Figure 112021013287929-pat00001
Figure 112021013287929-pat00001

도 3a의 템플릿은 아래의 표 2와 같은 측정 결과의 항목을 포함한다.The template of FIG. 3A includes measurement result items as shown in Table 2 below.

Figure 112021013287929-pat00002
Figure 112021013287929-pat00002

또는, 데이터 판독부(300)는 동일한 제조사 정보를 획득하더라도, 도 3a와 상이한 템플릿을 로드할 수도 있다. 보고서 유형 및 촬영기기 중 적어도 하나가 상이한 경우, 도 3b에 도시된 바와 같이 도 3a와 상이한 템플릿을 로드할 수도 있다.Alternatively, the data reading unit 300 may load a template different from that of FIG. 3A even though the same manufacturer information is acquired. When at least one of the report type and the photographing device is different, a template different from that of FIG. 3A may be loaded as shown in FIG. 3B.

도 3b의 템플릿을 사용하면, 템플릿 위치, 즉 인식 영역과 항목이 서로 아래와 같이 연관된다. Using the template of Fig. 3b, the template position, namely the recognition area, and the item are related to each other as follows.

Figure 112021013287929-pat00003
Figure 112021013287929-pat00003

이와 같이 템플릿을 사용하면, 의료 보고서 상의 위치, 즉 인식 영역과 항목이 연관된다. 그 결과 인식 영역에서 데이터를 추출하면 추출 데이터에 연관된 항목을 알 수 있다. 그리고 도 3a 및 도 3b에 도시된 바와 같이 로드하는 템플릿에 따라서 측정 값은 상이한 측정 항목에 연관된다. This use of a template associates an item with a location on the medical report, i.e., a recognition area. As a result, when data is extracted from the recognition area, items related to the extracted data can be known. And, as shown in FIGS. 3A and 3B , measurement values are related to different measurement items according to a loaded template.

또한, 데이터 판독부(300)는 템플릿을 사용하여 의료 보고서에 포함된 촬영 이미지 패치를 추출할 수도 있다. 의료 보고서의 서식에 따라 이미지의 위치는 고정된다. 다수의 의료 보고서의 서식 중 일부 서식은 다른 일부 서식과 다른 위치에 촬영 이미지가 위치하도록 구성될 수도 있다. 예컨대, 황반 부분을 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함한 제1 유형의 보고서, 신경 유두 부분을 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함한 제2 유형의 보고서, 또는 OCT 이미지 또는 망막 층 이미지를 포함한 제3 유형의 보고서는 서로 다른 위치에 촬영 이미지가 위치할 수도 있다.Also, the data reading unit 300 may extract a captured image patch included in the medical report by using a template. The position of the image is fixed according to the format of the medical report. Some forms of multiple medical report forms may be configured such that a photographed image is positioned at a location different from other forms. For example, a report of the first type including the ETDRS measurement results obtained by imaging the macular area, a report of the second type including the results of the ETDRS measurement obtained by imaging the nerve head area, or an OCT image or retinal layer image In the third type of report including , the photographed images may be located in different locations.

데이터 판독부(300)는 도 3a 내지 도 3 c에 도시된 바와 같이 템플릿에 구조화된 이미지 표시 영역을 이미지 인식 영역을 설정하여 해당 영역으로 이루어진 패치를 추출할 수도 있다.As shown in FIGS. 3A to 3C , the data reading unit 300 may set the image display area structured in the template as an image recognition area and extract a patch made of the corresponding area.

이를 통해, 상기 시스템1은 안저 관련 데이터베이스를 구축하는데 의료 보고서의 전체 이미지를 사용하지 않고, 안저 질환에 대한 병변 예측, 경과 관찰을 하는데 사용되는 부분만을 사용하여 효율적으로 저장공간을 활용할 수 있다. Through this, the system 1 does not use the entire image of the medical report to construct the fundus-related database, but uses only the portion used for prediction of the lesion and follow-up observation of the fundus disease, so that storage space can be efficiently utilized.

이와 같이 데이터 판독부(300)는 템플릿을 사용하여 설정된 인식 영역에서 OCR 알고리즘을 통해 보고서 항목를 나타낸 문자, 측정치와 같은 항목 정보를 나타낸 문자 또는 숫자를 인식하여 보고서 항목 데이터, 해당 항목에 대한 숫자 데이터 또는 텍스트 데이터를 획득한다. 획득된 숫자 또는 텍스트 데이터에 연관된 항목이 상기 템플릿을 통해 결정된다. In this way, the data reader 300 recognizes report item data, numeric data for the item, or numbers representing item information such as letters representing report items and measurement values through an OCR algorithm in a recognition area set using a template. Get text data. Items related to the obtained numeric or text data are determined through the template.

또한, 데이터 판독부(300)는 단순 OCR 처리 이외의 판독 동작을 더 수행함으로써, 인식 결과(즉, 단순 OCR 처리 결과)를 곧바로 숫자 또는 텍스트 데이터로 추출하는 경우와 비교하여 보다 정확하게 숫자 또는 문자를 인식할 수 있다. In addition, the data reading unit 300 further performs a reading operation other than simple OCR processing, so that numbers or characters can be more accurately read compared to the case of directly extracting a recognition result (ie, simple OCR processing result) as numeric or text data. Recognizable.

일 실시예에서, 데이터 판독부(300)는 미리 학습된 제2 인식 모델을 통해 보고서 항목 데이터 및/또는 해당 항목의 숫자 데이터나 문자 데이터를 획득한다. 상기 제2 인식 모델에 인식 영역 내 문자 또는 숫자를 인식한 결과(즉, OCR 처리한 데이터)가 입력된다. 즉, 제2 인식 모델을 통해 일차적으로 OCR 알고리즘을 통해 인식된 데이터가 재-인식된다. In one embodiment, the data reading unit 300 obtains report item data and/or numeric data or text data of a corresponding item through a pre-learned second recognition model. A result of recognizing characters or numbers in the recognition area (ie, OCR-processed data) is input to the second recognition model. That is, data primarily recognized through the OCR algorithm through the second recognition model is re-recognized.

상기 제2 인식 모델은 문자 또는 숫자를 포함한 입력 이미지에서 특징을 추출하여 해당 문자 또는 숫자를 인식하도록 학습된 인공 신경망을 포함하는 기계 학습 모델이다. 상기 제2 인식 모델은, 예를 들어, CNN 기반 인공 신경망의 구조를 가질 수도 있으나, 이에 제한되진 않는다. The second recognition model is a machine learning model including an artificial neural network trained to extract features from an input image including letters or numbers and recognize corresponding letters or numbers. The second recognition model may have, for example, a structure of a CNN-based artificial neural network, but is not limited thereto.

데이터 판독부(300)는 템플릿을 사용하여 설정된 인식 영역을 크로핑 처리하여 인식 영역의 패치를 생성하고, 인식 영역의 패치를 상기 인식 모델에 입력하여, 인식 영역에 표시된 문자 또는 숫자를 문자 데이터 또는 숫자 데이터로 추출한다. The data reading unit 300 crops the recognition area set using the template to generate a recognition area patch, inputs the recognition area patch to the recognition model, and converts characters or numbers displayed in the recognition area into character data or text data. Extract as numeric data.

일 실시예에서, 제2 인식 모델은 문자열 인식을 위한 제2-1 모델 및 숫자열 인식을 위한 제2-2 모델을 포함할 수도 있다. 데이터 판독부(300)는 OCR 처리를 통해 패치 내 언어 유형이 문자 또는 숫자인지 결정할 수도 있다. 데이터 판독부(300)는 입력 패치가 문자를 포함할 경우, 입력 패치를 제2-1 모델에 입력한다. 반면 데이터 판독부(300)는 입력 패치가 숫자를 포함할 경우, 입력 패치를 제2-2 모델에 입력한다. 제2-1 모델 및 제2-2 모델은 해당 텍스트 유형을 인식하는데 특화된다. 그 결과, 상기 제2 인식 모델을 사용한 상기 시스템1은 단일 문자에 대해서도 높은 인식율을 가지고, 낮은 해상도에서 (예컨대, 실제 7을 1로 오인식하거나, 2를 7로 오인식하는 등) 숫자 또는 문자를 오인식하지 않으며, (예컨대, 99를 gg로 오인식하거나, 97를 ar로 오인식하는 등) 숫자를 문자열 데이터로 오인식하지 않는다. In one embodiment, the second recognition model may include a 2-1 model for character string recognition and a 2-2 model for number string recognition. The data reading unit 300 may determine whether the language type in the patch is a character or a number through OCR processing. When the input patch includes characters, the data reading unit 300 inputs the input patch to the 2-1 model. On the other hand, when the input patch includes a number, the data reading unit 300 inputs the input patch to the 2-2 model. The 2-1 model and the 2-2 model are specialized in recognizing the corresponding text type. As a result, System 1 using the second recognition model has a high recognition rate even for a single character, and misrecognizes a number or character at a low resolution (eg, misrecognizing a real 7 as a 1 or misrecognizing a 2 as a 7). It does not misrecognize numbers as character string data (for example, misrecognizing 99 as gg or misrecognizing 97 as ar).

상기 제2 인식 모델은 훈련 데이터 세트를 사용하여 학습된다. 상기 훈련 데이터 세트는 숫자별, 문자별로 서브 세트화될 수도 있다. 예를 들어, 훈련 데이터 세트는 숫자별 그리고 문자별로 250개의 서브 세트로 분류될 수도 있다. 세트 내 훈련 데이터는 해당 문자 또는 숫자의 훈련 이미지 데이터 및 레이블 데이터를 포함한다. The second recognition model is learned using a training data set. The training data set may be subsetted by number or letter. For example, the training data set may be sorted into 250 subsets by number and by letter. The training data in the set includes training image data and label data of the corresponding letter or number.

도 4a 및 도 4b는, 본 발명의 일 실시예에 따른, 숫자 데이터를 추출한 결과를 도시한 도면이다. 4A and 4B are diagrams illustrating results of extracting numeric data according to an embodiment of the present invention.

도 4a는 도 3a의 의료 보고서로부터 데이터를 추출한 결과이고, 도 4b는 도 3b의 의료 보고서로부터 데이터를 추출한 결과이다. 4A is a result of extracting data from the medical report of FIG. 3A, and FIG. 4B is a result of extracting data from the medical report of FIG. 3B.

도 4a를 참조하면, 데이터 판독부(300)는 인식 영역의 패치를 제2 인식 모델에 입력하여 각 인식 영역에 기록된 측정 값을 의미하는 숫자 데이터를 획득한다. Referring to FIG. 4A , the data readout unit 300 obtains numeric data representing measurement values recorded in each recognition area by inputting patches of recognition areas to the second recognition model.

또한, 도 4b를 참조하면, 데이터 판독부(300)는 인식 영역의 패치를 제2 인식 모델에 입력하여 각 인식 영역에 기록된 각각의 숫자 또는 문자 데이터를 획득한다. 데이터 판독부(300)는 템플릿의 구조에 기초하여 추출된 숫자 또는 문자를 해당 항목에 연관시킬 수 있다. Also, referring to FIG. 4B , the data reading unit 300 obtains each number or character data recorded in each recognition area by inputting the patch of the recognition area to the second recognition model. The data reading unit 300 may associate numbers or letters extracted based on the structure of the template with corresponding items.

데이터베이스 관리부(500)는 인식된 숫자 또는 문자 데이터, 그리고 이에 연관된 보고서 항목으로 이루어진 피검체의 안저 데이터 세트를 형성한다. The database management unit 500 forms an ocular fundus data set of the subject consisting of recognized numeric or text data and report items related thereto.

인식된 숫자 또는 문자 데이터는 상기 속성 정보 및 상기 측정 결과를 의미하며, 각각 보고서 항목에 연관된다. 따라서, 안저 데이터 세트는 피검체의 식별 정보 및 측정 일자를 포함한다. Recognized numeric or character data means the attribute information and the measurement result, and are respectively associated with report items. Accordingly, the fundus data set includes the identification information of the subject and the measurement date.

도 5는, 본 발명의 일 실시예에 따른, 안저 관련 데이터베이스를 이루는 피검체별 인저 데이터 세트를 도시한 도면이다. 5 is a diagram illustrating an fundus data set for each subject constituting an fundus-related database according to an embodiment of the present invention.

도 5를 참조하면, 상기 데이터베이스 관리부(500)는 이러한 피검체별 안저 데이터 세트를 형성하여 데이터베이스를 구축할 수 있다. 일 실시예에서, 상기 시스템(1)은 데이터베이스를 구축할 데이터베이스 저장소(미도시)를 더 포함할 수도 있다. Referring to FIG. 5 , the database manager 500 may build a database by forming fundus data sets for each subject. In one embodiment, the system 1 may further include a database storage (not shown) to build a database.

상기 데이터베이스 관리부(500)는 다수의 피검체에 대한 안저 데이터 세트를 각각 형성한다.The database management unit 500 forms ocular fundus data sets for a plurality of subjects.

일 실시예에서, 데이터베이스 관리부(500)는 다수의 피검체 각각의 안저 데이터 세트로 이루어진 의료 파일을 형성할 수도 있다. 상기 의료 파일은 csv 형식의 파일일 수도 있다. In one embodiment, the database management unit 500 may form a medical file consisting of fundus data sets of each of a plurality of subjects. The medical file may be a csv format file.

또한 상기 데이터베이스 관리부(500)는 구축된 데이터베이스에서 피검체의 안저 데이터 세트를 검색할 수도 있다. 일 실시예예서, 상기 데이터베이스 관리부는 입력된 피검체의 식별 정보 및 측정 일자 중 적어도 하나에 기초하여 상기 입력된 피검체의 안저 데이터 세트를 검색할 수도 있다. In addition, the database management unit 500 may search the fundus data set of the subject from the constructed database. In one embodiment, the database manager may search the ocular fundus data set of the subject based on at least one of input identification information and measurement date of the subject.

또한, 상기 데이터베이스 관리부(500)는 피검체의 새로운 의료 보고서를 수신할 경우, 새로운 의료 보고서에서 데이터를 추출하여 해당 피검체의 안저 데이터 세트를 업데이트할 수도 있다. In addition, when receiving a new medical report of a subject, the database management unit 500 may extract data from the new medical report and update the fundus data set of the subject.

일 실시예에서, 상기 안저 데이터 세트의 검색은 새로운 의료 보고서의 수신에 반응하여 수행될 수도 있다. 데이터 판독부(300)는 새로운 의료 보고서에서 검색을 위해 사용될 데이터(예컨대, 피검체의 식별 정보)를 인식하여 추출한다. 데이터 판독부(300)는 템플릿에서 피검체의 식별 정보의 항목에 연관된 인식 영역에서 추출된 데이터를 검색을 위해 사용한다. 그러면, 새로운 의료 보고서가 입력될 ‹š마다 자동적으로 해당 피검체의 안저 데이터 세트가 업데이트된다. In one embodiment, the retrieval of the fundus data set may be performed in response to receipt of a new medical report. The data reading unit 300 recognizes and extracts data (eg, identification information of a subject) to be used for search in a new medical report. The data reading unit 300 uses data extracted from a recognition area associated with an item of identification information of a subject in a template for a search. Then, whenever a new medical report is input, the fundus data set of the subject is automatically updated.

상기 시스템(1)이 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 예를 들어, 상기 시스템(1)은 네트워크 인터페이스, 데이터 엔트리를 위한 입력 장치, 데이터를 저장하는 메모리, 및 디스플레이, 인쇄 또는 다른 데이터 표시를 위한 출력 장치를 포함하는, 본 명세서에 서술된 동작에 필요한 다른 하드웨어 요소를 포함할 수도 있다.It will be apparent to those skilled in the art that the system 1 may include other components not described herein. For example, the system 1 may include a network interface, an input device for data entry, a memory for storing data, and an output device for display, printing, or other presentation of data necessary for the operations described herein. It may also contain other hardware elements.

본 발명의 다른 일 측면에 따른 안저 관련 데이터베이스 구축 방법은 프로세서를 포함한 컴퓨팅 장치에 의해 수행될 수도 있다. 예를 들어, 상기 안저 관련 데이터베이스 구축 방법은 안구 관련 데이터베이스 구축 시스템의 적어도 일부 구성요소에 의해 수행될 수도 있다. A fundus-related database construction method according to another aspect of the present invention may be performed by a computing device including a processor. For example, the fundus-related database construction method may be performed by at least some components of an eyeball-related database construction system.

도 6은, 본 발명의 일 실시예예 따른, 안저 관련 데이터베이스 구축 방법의 흐름도이다. 6 is a flowchart of a fundus-related database construction method according to an embodiment of the present invention.

도 6을 참조하면, 상기 안저 관련 데이터베이스 구축 방법은 안구를 촬영한 촬영기기로부터 이미지 형식의 피검체의 의료 보고서를 수신하는 단계(S610)를 포함한다. 상기 의료 보고서는 촬영 이미지, 보고서 항목 및 상기 보고서 항목에 대한 측정 결과를 포함한다. Referring to FIG. 6 , the fundus-related database construction method includes receiving a medical report of the subject in the form of an image from a photographing device that has photographed the eyeball (S610). The medical report includes a photographed image, report items, and measurement results for the report items.

상기 단계(S610)의 동작은 데이터 획득부(100)의 동작과 유사하므로, 자세한 설명은 생략한다. Since the operation of step S610 is similar to that of the data acquisition unit 100, a detailed description thereof will be omitted.

상기 안저 관련 데이터베이스 구축 방법은: 단계(S610) 이후 상기 의료 보고서에서 문자 또는 숫자를 추출할 복수의 인식 영역을 설정하고, 복수의 인식 영역 각각에 포함된 문자 또는 숫자를 인식하여 문자 데이터 또는 숫자 데이터로 추출하는 단계(S630)를 포함한다. The fundus-related database construction method comprises setting a plurality of recognition areas from which letters or numbers are to be extracted from the medical report after step S610, and recognizing the letters or numbers included in each of the plurality of recognition areas to character data or numeric data. and extracting to (S630).

상기 단계(S630)는 데이터 판독부(300)의 동작 단계 중 적어도 일부를 포함한다.The step S630 includes at least a part of the operation steps of the data reading unit 300.

일 실시예에서, 상기 단계(S630)는 상기 촬영기기의 제조사, 기기 정보 및 보고서 유형 정보 중 하나 이상에 기초하여 수신한 의료 보고서에 대응하는 템플릿을 로드하는 단계; 및 상기 템플릿을 통해 상기 보고서 항목별 인식 영역을 설정하는 단계를 포함할 수도 있다. In one embodiment, the step (S630) may include loading a template corresponding to the received medical report based on at least one of a manufacturer of the photographing device, device information, and report type information; and setting a recognition area for each report item through the template.

또한, 상기 단계(S630)는 상기 템플릿을 로드하기 위해 미리 학습된 제1 인식 모델을 통해 상기 의료 보고서에서 상기 촬영기기의 제조사를 인식하는 단계를 더 포함할 수도 있다. 상기 제1 인식 모델은 입력 이미지에서 특징을 추출하여 입력 이미지의 제조사를 인식하도록 학습된 인공 신경망을 포함한다. In addition, the step (S630) may further include recognizing the manufacturer of the imaging device in the medical report through a pre-learned first recognition model to load the template. The first recognition model includes an artificial neural network trained to recognize a manufacturer of the input image by extracting features from the input image.

일 실시예에서, 상기 단계(S630)는 설정된 인식 영역별로 패치를 추출하는 단계; 및 추출한 패치에 포함된 문자 또는 숫자를 인식하여 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터로 추출하는 단계를 포함할 수도 있다. 패치를 추출하기 위한 인식 영역은 템플릿을 통해 미리 설정된다. In an embodiment, the step (S630) may include extracting patches for each set recognition area; and recognizing letters or numbers included in the extracted patch and extracting them as text data or numeric data for a report item related to the recognition area. A recognition area for extracting a patch is preset through a template.

또한, 상기 단계(S630)는 상기 추출한 패치에 포함된 문자 또는 숫자를 인식한 결과를 미리 학습된 제2 인식 모델에 적용하여, 상기 안저 데이터 세트를 생성하는데 사용될, 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터를 추출하는 단계를 더 포함할 수도 있다. 상기 제2 인식 모델은 문자 또는 숫자를 포함한 입력 이미지에서 특징을 추출하여 해당 문자 또는 숫자를 인식하도록 학습된 인공 신경망을 포함한다. In addition, in the step (S630), a result of recognizing letters or numbers included in the extracted patch is applied to a pre-learned second recognition model to generate a report item related to the recognition region to be used to generate the fundus data set. The method may further include extracting text data or numeric data. The second recognition model includes an artificial neural network trained to recognize the corresponding letter or number by extracting features from an input image including the letter or number.

상기 단계(S630)에 포함 가능한 데이터 판독부(300)의 동작 단계는 위에서 상세하게 설명하였는 바, 자세한 설명은 생략한다. Since the operation steps of the data reading unit 300 that can be included in the step S630 have been described in detail above, a detailed description thereof will be omitted.

단계(S630) 이후, 상기 안저 관련 데이터베이스 구축 방법은: 추출된 문자 데이터 또는 숫자 데이터, 그리고 인식 영역에 연관된 보고서 항목으로 이루어진 피검체의 안저 데이터 세트를 생성하는 단계(S650)를 포함한다. After step S630, the fundus-related database construction method includes: generating a fundus data set of the subject including the extracted text data or numeric data and report items related to the recognition region (S650).

또한, 상기 안저 관련 데이터베이스 구축 방법은: 사용자 요청을 입력 받아 사용자 요청에 매칭한 피검체의 안저 데이터 세트를 검색하는 단계(S670)를 더 포함할 수도 있다. 상기 사용자 요청은 피검체의 식별 정보 및/또는 측정 일자를 포함할 수도 있다. 검색된 안저 데이터 세트는 사용자에게 제공될 수도 있다. In addition, the fundus-related database construction method may further include receiving a user request and searching for a fundus data set of a subject matching the user request ( S670 ). The user request may include identification information and/or measurement date of the subject. The searched fundus data set may be provided to the user.

또한, 상기 안저 관련 데이터베이스 구축 방법은: 새로운 의료 보고서가 수신되는 경우, 피검체의 안저 데이터 세트를 업데이트하는 단계(S690)를 더 포함할 수도 있다. 안저 데이터 세트의 검색은 업데이트를 위해 수행될 수도 있다. In addition, the fundus-related database construction method may further include: updating the fundus data set of the subject when a new medical report is received (S690). A search of the fundus data set may be performed for update.

상기 단계(S650 내지 S690)는 데이터베이스 관리부(500)의 동작 단계 중 적어도 일부를 포함한다.The steps S650 to S690 include at least some of the operation steps of the database management unit 500.

일 실시예에서, 단계(S670)는 상기 의료 보고서의 수신에 반응하여 수행될 수도 있다. 새로운 의료 보고서가 수신될 때마다 해당 피검체의 안저 데이터 세트가 자동으로 검색되어 새로운 의료 보고서의 내용이 업데이트될 수도 있다. In one embodiment, step S670 may be performed in response to receiving the medical report. Whenever a new medical report is received, a fundus data set of a corresponding subject may be automatically searched and contents of the new medical report may be updated.

상기 실시예에서, 새로운 의료 보고서가 수신되면(S610), 새로운 의료 보고서에 대해 문자 또는 숫자 데이터가 추출된다(S630). 단계(S630)에서 피검체의 식별 정보가 인식된다. In the above embodiment, when a new medical report is received (S610), character or numeric data for the new medical report is extracted (S630). In step S630, identification information of the subject is recognized.

피검체의 식별 정보에 기초한 검색 결과 새로운 의료 보고서의 피검체에 대한 안저 데이터 세트가 존재하지 않는 경우, 단계(S650)가 수행된다.As a result of the search based on the subject identification information, when there is no ocular fundus data set for the subject in the new medical report, step S650 is performed.

반면, 피검체의 식별 정보에 기초한 검색 결과 새로운 의료 보고서의 피검체에 대한 안저 데이터 세트가 이미 저장된 경우, 새로운 의료 보고서에 기초하여 새로운 안저 데이터 세트를 생성하고(S650), 이미 저장된 안저 데이터 세트와 새로운 안저 데이터 세트를 결합하여 이미 저장된 안저 데이터 세트를 업데이트할 수도 있다(S690). On the other hand, as a search result based on the identification information of the subject, when the fundus data set for the subject of the new medical report is already stored, a new fundus data set is generated based on the new medical report (S650), and the fundus data set and the previously stored fundus data set An already stored fundus data set may be updated by combining a new fundus data set (S690).

상기 단계(S650 내지 S690)에 포함 가능한 데이터베이스 관리부(500)의 동작 단계는 위에서 상세하게 설명하였는 바, 자세한 설명은 생략한다.The operation steps of the database management unit 500 that can be included in the steps S650 to S690 have been described in detail above, and detailed descriptions thereof will be omitted.

이상에서 설명한 실시예들에 따른 안저 관련 데이터베이스 구축 시스템 및 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. Operations by the fundus-related database construction system and method according to the embodiments described above may be at least partially implemented as a computer program and recorded on a computer-readable recording medium. For example, implemented together with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor to perform any or all steps, operations, or processes described.

상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be any device that may be integrated into or may be a computing device such as a desktop computer, laptop computer, notebook, smart phone, or the like. A computer is a device that has one or more alternative and special purpose processors, memory, storage, and networking components (whether wireless or wired). The computer may run, for example, an operating system compatible with Microsoft's Windows, Apple's OS X or iOS, a Linux distribution, or an operating system such as Google's Android OS.

상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of recording and identification devices in which data readable by a computer is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage and identification devices, and the like. In addition, computer-readable recording media may be distributed in computer systems connected through a network, and computer-readable codes may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing this embodiment can be easily understood by those skilled in the art to which this embodiment belongs.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.The present invention reviewed above has been described with reference to the embodiments shown in the drawings, but this is only exemplary, and those skilled in the art will understand that various modifications and variations of the embodiments are possible therefrom. However, such modifications should be considered within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

Claims (20)

피검체의 안구를 촬영한 촬영기기로부터 이미지 형식의 피검체의 의료 보고서를 수신하는 데이터 획득부 - 상기 의료 보고서는 촬영 이미지, 피검체의 의료 보고서의 보고서 항목 및 안구 관련 측정 결과를 포함함;
상기 의료 보고서에서 문자 또는 숫자를 추출할 복수의 인식 영역을 설정하고, 복수의 인식 영역 각각에 포함된 문자 또는 숫자를 인식하여 문자 데이터 또는 숫자 데이터로 추출하는 데이터 판독부; 및
추출된 문자 데이터 또는 숫자 데이터, 그리고 인식 영역에 연관된 보고서 항목으로 이루어진 피검체의 안저 데이터 세트를 생성하는 데이터베이스 관리부를 포함하고,
상기 의료 보고서는, 상기 촬영기기의 제조사 정보, 상기 촬영기기의 식별 정보 및 보고서 유형 정보 중 적어도 하나를 더 포함하고,
상기 보고서 유형은, 황반을 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함하는 제1 유형의 보고서, 신경 유두를 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함하는 제2 유형의 보고서 및 OCT 이미지 또는 망막 층 이미지를 포함한 제3 유형의 보고서 중 적어도 하나를 포함하고,
상기 데이터 판독부는, 기 학습된 제1 인식 모델을 통해 인식되어 분류된 촬영기기의 제조사, 기기 정보 및 보고서 유형 정보 중 적어도 하나에 기초하여 상기 의료 보고서에 대응하는 템플릿을 로드하고, 상기 템플릿을 통해 상기 보고서 항목별 인식 영역을 설정하도록 구성되는 것을 특징으로 하는, 안저 관련 데이터베이스 구축 시스템.
a data acquiring unit receiving a medical report of the subject in the form of an image from a photographing device that has photographed the subject's eyeball - the medical report includes a photographed image, report items of the subject's medical report, and eyeball-related measurement results;
a data reader configured to set a plurality of recognition areas from which letters or numbers are to be extracted from the medical report, recognize letters or numbers included in each of the plurality of recognition areas, and extract text data or number data; and
A database management unit generating a fundus data set of the subject consisting of extracted character data or numeric data and report items related to the recognition area;
The medical report further includes at least one of manufacturer information of the photographing device, identification information of the photographing device, and report type information;
The report type includes a first type report including ETDRS measurement results obtained by imaging the macula, a second type report including ETDRS measurement results obtained by imaging centered on the nerve head, and an OCT image or retina at least one of a third type of report including a layer image;
The data reading unit loads a template corresponding to the medical report based on at least one of a manufacturer, device information, and report type information of a photographing device recognized and classified through a pre-learned first recognition model, and through the template Characterized in that it is configured to set the recognition area for each report item, fundus-related database construction system.
삭제delete 제1항에 있어서, 상기 데이터 판독부는,
미리 학습된 제1 인식 모델을 통해 상기 의료 보고서에서 상기 촬영기기의 제조사를 인식하고,
상기 제1 인식 모델은 입력 이미지에서 특징을 추출하여 입력 이미지의 제조사를 인식하도록 학습된 인공 신경망을 포함하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 시스템.
The method of claim 1, wherein the data reading unit,
recognizing the manufacturer of the photographing device in the medical report through a pre-learned first recognition model;
The first recognition model comprises an artificial neural network trained to recognize a manufacturer of the input image by extracting features from the input image.
제1항에 있어서, 상기 데이터 판독부는,
설정된 인식 영역별로 패치를 추출하고,
추출한 패치에 포함된 문자 또는 숫자를 인식하여 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터로 추출하도록 구성된 것을 특징으로 하는 안저 관련 데이터베이스 구축 시스템.
The method of claim 1, wherein the data reading unit,
Extract patches for each set recognition area,
An ocular fundus-related database construction system, characterized in that it is configured to recognize letters or numbers included in the extracted patch and extract them as text data or numeric data for a report item related to the recognition area.
제4항에 있어서, 상기 데이터 판독부는,
상기 추출한 패치에 포함된 문자 또는 숫자를 인식한 결과를 미리 학습된 제2 인식 모델에 적용하여, 상기 안저 데이터 세트를 생성하는데 사용될, 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터를 추출하도록 더 구성되며,
상기 제2 인식 모델은 문자 또는 숫자를 포함한 입력 이미지에서 특징을 추출하여 해당 문자 또는 숫자를 인식하도록 학습된 인공 신경망을 포함하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 시스템.
The method of claim 4, wherein the data reading unit,
By applying a result of recognizing letters or numbers included in the extracted patch to a pre-learned second recognition model, text data or numeric data for a report item associated with the recognition area to be used to generate the fundus data set is extracted. It is further configured to
The second recognition model comprises an artificial neural network trained to extract features from an input image including letters or numbers and recognize the corresponding letters or numbers.
제5항에 있어서, 상기 제2 인식 모델은 문자열 인식을 위한 제2-1 모델 및 숫자열 인식을 위한 제2-2 모델을 포함하고,
상기 데이터 판독부는 문자를 포함한 입력 패치를 상기 제2-1 모델에 입력하고, 숫자를 포함한 입력 패치를 상기 제2-2 모델에 입력하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 시스템.
The method of claim 5, wherein the second recognition model includes a 2-1 model for character string recognition and a 2-2 model for number string recognition,
wherein the data reading unit inputs input patches including characters to the 2-1 model, and inputs input patches including numbers to the 2-2 model.
제1항에 있어서, 상기 데이터 판독부는,
상기 템플릿을 사용하여 상기 의료 보고서에서 이미지 표시 영역을 설정하고, 그리고
해당 영역으로 이루어진 패치를 촬영 이미지 패치로 추출하도록 더 구성되며,
상기 촬영 이미지는 황반 부분을 중심으로 촬영된 제1 안저 이미지, 시신경 유두 부분을 중심으로 촬영된 제2 안저 이미지, OCT(OPTICAL COHERENCE TOMOGRAPHY) 이미지 또는 망막 층(Retinal Layer) 이미지를 포함하며,
상기 의료 보고서의 서식 중 일부 서식은 다른 일부 서식과 다른 위치에 촬영 이미지가 위치하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 시스템.
The method of claim 1, wherein the data reading unit,
setting an image display area in the medical report using the template; and
It is further configured to extract a patch consisting of the corresponding area as a photographed image patch,
The photographic image includes a first fundus image photographed centering on the macula, a second fundus image photographed centering on the optic nerve head, an OPTICAL COHERENCE TOMOGRAPHY (OCT) image, or a retinal layer image,
Fundus-related database construction system, characterized in that some of the forms of the medical report are located in a location different from other forms.
삭제delete 제1항에 있어서,
상기 안저 데이터 세트는, 피검체의 식별 정보, 및 측정 일자를 포함한 상기 의료 보고서의 속성 정보를 포함하며,
상기 데이터베이스 관리부는 입력된 피검체의 식별 정보 및 측정 일자 중 적어도 하나에 기초하여 상기 입력된 피검체의 안저 데이터 세트를 검색하도록 더 구성되는 것을 특징으로 하는 안저 관련 데이터베이스 구축 시스템.
According to claim 1,
The fundus data set includes identification information of the subject and attribute information of the medical report including a measurement date,
The database management unit is further configured to search the fundus data set of the subject based on at least one of the input identification information and the measurement date of the subject.
제9항에 있어서,
상기 피검체의 새로운 의료 보고서를 수신하면, 상기 새로운 의료 보고서의 측정 결과를 업데이트하기 위해, 상기 데이터 판독부는 상기 새로운 의료 보고서의 수신에 반응하여 상기 피검체의 식별 정보의 항목에 연관된 인식 영역에서 상기 피검체의 식별 정보를 추출하여 상기 안저 데이터 세트를 검색하도록 더 구성되는 것을 특징으로 하는 안저 관련 데이터베이스 구축 시스템.
According to claim 9,
When a new medical report of the subject is received, the data reading unit responds to the reception of the new medical report to update the measurement result of the new medical report in a recognition area associated with an item of identification information of the subject. The fundus-related database construction system, characterized in that it is further configured to search the fundus data set by extracting the identification information of the subject.
프로세서 및 메모리를 포함한 컴퓨팅 장치에 의해 수행되는 안저 관련 데이터베이스 구축 방법에 있어서,
안구를 촬영한 촬영기기로부터 이미지 형식의 피검체의 의료 보고서를 수신하는 단계 - 상기 의료 보고서는 촬영 이미지, 보고서 항목 및 상기 보고서 항목에 대한 측정 결과를 포함함;
상기 의료 보고서에서 문자 또는 숫자를 추출할 복수의 인식 영역을 설정하고, 복수의 인식 영역 각각에 포함된 문자 또는 숫자를 인식하여 문자 데이터 또는 숫자 데이터로 추출하는 단계; 및
추출된 문자 데이터 또는 숫자 데이터, 그리고 인식 영역에 연관된 보고서 항목으로 이루어진 피검체의 안저 데이터 세트를 생성하는 단계를 포함하고,
상기 의료 보고서는, 상기 촬영기기의 제조사 정보, 상기 촬영기기의 식별 정보 및 보고서 유형 정보 중 적어도 하나를 더 포함하고,
상기 보고서 유형은, 황반을 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함하는 제1 유형의 보고서, 신경 유두를 중심으로 촬영하여 획득된 ETDRS 측정 결과를 포함하는 제2 유형의 보고서 및 OCT 이미지 또는 망막 층 이미지를 포함한 제3 유형의 보고서 중 적어도 하나를 포함하고,
상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는,
기 학습된 제1 인식 모델을 통해 인식되어 분류된 촬영기기의 제조사, 기기 정보 및 보고서 유형 정보 중 적어도 하나에 기초하여 상기 의료 보고서에 대응하는 템플릿을 로드하는 단계; 및 상기 템플릿을 통해 상기 보고서 항목별 인식 영역을 설정하는 단계를 포함하는 것을 특징으로 하는, 안저 관련 데이터베이스 구축 방법.
A fundus-related database construction method performed by a computing device including a processor and a memory,
Receiving a medical report of the subject in the form of an image from a photographing device that has photographed the eyeball - the medical report includes a photographed image, report items, and measurement results for the report items;
setting a plurality of recognition areas to extract letters or numbers from the medical report, recognizing letters or numbers included in each of the plurality of recognition areas, and extracting the letters or numbers as text data or numeric data; and
generating an ocular fundus data set of the subject consisting of the extracted character data or numeric data and report items associated with the recognition area;
The medical report further includes at least one of manufacturer information of the photographing device, identification information of the photographing device, and report type information;
The report type includes a first type report including ETDRS measurement results obtained by imaging the macula, a second type report including ETDRS measurement results obtained by imaging centered on the nerve head, and an OCT image or retina at least one of a third type of report including a layer image;
The step of extracting the text data or numeric data,
loading a template corresponding to the medical report based on at least one of a manufacturer, device information, and report type information of a photographing device recognized and classified through a pre-learned first recognition model; and setting a recognition area for each report item through the template.
삭제delete 제11항에 있어서, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는,
상기 템플릿을 로드하기 위해 미리 학습된 제1 인식 모델을 통해 상기 의료 보고서에서 상기 촬영기기의 제조사를 인식하는 단계를 더 포함하고,
상기 제1 인식 모델은 입력 이미지에서 특징을 추출하여 입력 이미지의 제조사를 인식하도록 학습된 인공 신경망을 포함하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 방법.
12. The method of claim 11, wherein the step of extracting text data or numeric data comprises:
Recognizing a manufacturer of the photographing device in the medical report through a first recognition model trained in advance to load the template;
The first recognition model comprises an artificial neural network trained to recognize a manufacturer of the input image by extracting features from the input image.
제11항에 있어서, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는,
설정된 인식 영역별로 패치를 추출하는 단계; 및
추출한 패치에 포함된 문자 또는 숫자를 인식하여 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터로 추출하는 단계를 포함하는 특징으로 하는 안저 관련 데이터베이스 구축 방법.
12. The method of claim 11, wherein the step of extracting text data or numeric data comprises:
extracting patches for each set recognition area; and
A fundus-related database construction method comprising recognizing letters or numbers included in the extracted patch and extracting them as text data or numeric data for a report item related to the recognition area.
제14항에 있어서, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는,
상기 추출한 패치에 포함된 문자 또는 숫자를 인식한 결과를 미리 학습된 제2 인식 모델에 적용하여, 상기 안저 데이터 세트를 생성하는데 사용될, 상기 인식 영역에 연관된 보고서 항목에 대한 문자 데이터 또는 숫자 데이터를 추출하는 단계를 더 포함하고,
상기 제2 인식 모델은 문자 또는 숫자를 포함한 입력 이미지에서 특징을 추출하여 해당 문자 또는 숫자를 인식하도록 학습된 인공 신경망을 포함하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 방법.
15. The method of claim 14, wherein the extracting into text data or numeric data comprises:
By applying a result of recognizing letters or numbers included in the extracted patch to a pre-learned second recognition model, text data or numeric data for a report item associated with the recognition area to be used to generate the fundus data set is extracted. Including more steps to do,
The second recognition model comprises an artificial neural network trained to extract features from an input image including letters or numbers and recognize the corresponding letters or numbers.
제15항에 있어서, 상기 제2 인식 모델은 문자열 인식을 위한 제2-1 모델 및 숫자열 인식을 위한 제2-2 모델을 포함하고,
상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는 문자를 포함한 입력 패치를 상기 제2-1 모델에 입력하는 단계; 및 숫자를 포함한 입력 패치를 상기 제2-2 모델에 입력하는 단계를 포함하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 방법.
The method of claim 15, wherein the second recognition model includes a 2-1 model for character string recognition and a 2-2 model for number string recognition,
The extracting of the character data or numeric data may include inputting an input patch including characters to the 2-1 model; and inputting an input patch including numbers into the 2-2 model.
제11항에 있어서, 상기 문자 데이터 또는 숫자 데이터로 추출하는 단계는,
상기 템플릿을 사용하여 상기 의료 보고서에서 이미지 표시 영역을 설정하는 단계; 및
해당 영역으로 이루어진 패치를 촬영 이미지 패치로 추출하는 단계를 더 포함하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 방법.
12. The method of claim 11, wherein the step of extracting text data or numeric data comprises:
setting an image display area in the medical report using the template; and
A fundus-related database construction method, further comprising extracting a patch consisting of the corresponding region as a photographed image patch.
제11항에 있어서,
사용자 요청을 입력 받아 사용자 요청에 매칭한 피검체의 안저 데이터 세트를 검색하는 단계를 더 포함하고,
상기 안저 데이터 세트는, 피검체의 식별 정보 및 측정 일자를 포함한 상기 의료 보고서의 속성 정보를 포함하며,
상기 사용자 요청은 검색될 피검체의 식별 정보 및 측정 일자 중 적어도 하나를 포함하는 것을 특징으로 하는 안저 관련 데이터베이스 구축 방법.
According to claim 11,
Further comprising receiving a user request and searching for a fundus data set of a subject matching the user request,
The fundus data set includes attribute information of the medical report including identification information and measurement date of the subject,
The user request comprises at least one of identification information and a measurement date of a subject to be searched.
제18항에 있어서,
상기 피검체의 새로운 의료 보고서를 수신하는 단계; 및
상기 새로운 의료 보고서의 측정 결과를 업데이트하기 위해, 상기 새로운 의료 보고서의 수신에 반응하여 상기 피검체의 식별 정보의 항목에 연관된 인식 영역에서 상기 피검체의 식별 정보를 추출하여 상기 안저 데이터 세트를 검색하는 단계를 더 포함하는 안저 관련 데이터베이스 구축 방법.
According to claim 18,
receiving a new medical report of the subject; and
Searching the fundus data set by extracting identification information of the subject from a recognition area associated with an item of identification information of the subject in response to receiving the new medical report, in order to update a measurement result of the new medical report. A fundus-related database construction method further comprising steps.
제11항 및 제13항 내지 제19항 중 어느 하나의 항에 따른 안저 관련 데이터베이스 구축 방법을 수행하기 위한, 프로그램을 기록한 컴퓨터 판독가능 기록매체. A computer-readable recording medium recording a program for performing the fundus-related database construction method according to any one of claims 11 and 13 to 19.
KR1020210014527A 2021-02-02 2021-02-02 System and method for constructing eye-related database KR102533962B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210014527A KR102533962B1 (en) 2021-02-02 2021-02-02 System and method for constructing eye-related database

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210014527A KR102533962B1 (en) 2021-02-02 2021-02-02 System and method for constructing eye-related database

Publications (2)

Publication Number Publication Date
KR20220111785A KR20220111785A (en) 2022-08-10
KR102533962B1 true KR102533962B1 (en) 2023-05-22

Family

ID=82846934

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210014527A KR102533962B1 (en) 2021-02-02 2021-02-02 System and method for constructing eye-related database

Country Status (1)

Country Link
KR (1) KR102533962B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140024788A (en) * 2010-09-20 2014-03-03 보드 오브 리전츠, 더 유니버시티 오브 텍사스 시스템 Advanced multimedia structured reporting
KR20140078911A (en) * 2012-12-18 2014-06-26 인충교 Apparatus and method for reading result of medical test
US9684842B2 (en) 2015-10-29 2017-06-20 The Nielsen Company (Us), Llc Methods and apparatus to extract text from imaged documents
KR102240804B1 (en) * 2019-04-24 2021-04-19 가톨릭대학교 산학협력단 Method for providing osteoporosis diagnosis and treatment service based on bigdata and artificial intelligence

Also Published As

Publication number Publication date
KR20220111785A (en) 2022-08-10

Similar Documents

Publication Publication Date Title
US20200242416A1 (en) Systems and methods for machine learning enhanced by human measurements
EP3769267B1 (en) Method and system for interfacing with a user to facilitate an image search for an object-of-interest
US20240054687A1 (en) Encoding and decoding a stylized custom graphic
US20190191988A1 (en) Screening method for automated detection of vision-degenerative diseases from color fundus images
US9449221B2 (en) System and method for determining the characteristics of human personality and providing real-time recommendations
US8996510B2 (en) Identifying digital content using bioresponse data
US20190228211A1 (en) Au feature recognition method and device, and storage medium
CN108073910B (en) Method and device for generating human face features
CN107787498B (en) User authentication method and electronic device supporting same
CN109658999B (en) Chronic disease inspection report generation method, device, equipment and storage medium
US11908157B2 (en) Image processing device, image processing method, and recording medium in which program is stored
CN110298245B (en) Interest collection method, interest collection device, computer equipment and storage medium
CN109117857B (en) Biological attribute identification method, device and equipment
US20160300034A1 (en) System and method for predicting health condition of a patient
Cunha et al. Helpmepills: A mobile pill recognition tool for elderly persons
CN113240655B (en) Method, storage medium and device for automatically detecting type of fundus image
KR102172192B1 (en) Facial Wrinkle Recognition Method, System, and Stroke Detection Method through Facial Wrinkle Recognition
CN113011450A (en) Training method, training device, recognition method and recognition system for glaucoma recognition
KR102533962B1 (en) System and method for constructing eye-related database
JP2019010004A (en) Information processing system and program
KR102414759B1 (en) Computing apparatus and method for authentication of pattern code including facial feature information
CN112084846A (en) Barrier-free sign language communication system
US20230297646A1 (en) System and methods for classifying magnetic resonance imaging (mri) image characteristics
CN111753656B (en) Feature extraction method, device, equipment and computer readable storage medium
Levenkova et al. Lesion detection in ultra-wide field retinal images for diabetic retinopathy diagnosis

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant