KR20210140836A - Method and apparatuses to predict orbital and periorbital lesions - Google Patents

Method and apparatuses to predict orbital and periorbital lesions Download PDF

Info

Publication number
KR20210140836A
KR20210140836A KR1020200057078A KR20200057078A KR20210140836A KR 20210140836 A KR20210140836 A KR 20210140836A KR 1020200057078 A KR1020200057078 A KR 1020200057078A KR 20200057078 A KR20200057078 A KR 20200057078A KR 20210140836 A KR20210140836 A KR 20210140836A
Authority
KR
South Korea
Prior art keywords
orbital
medical image
deep learning
learning model
lesion
Prior art date
Application number
KR1020200057078A
Other languages
Korean (ko)
Other versions
KR102412047B1 (en
Inventor
정연웅
이용오
양석우
나태윤
백지선
조원경
김성은
장동진
Original Assignee
가톨릭대학교 산학협력단
한국과학기술연구원 유럽연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단, 한국과학기술연구원 유럽연구소 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020200057078A priority Critical patent/KR102412047B1/en
Priority to PCT/KR2021/005285 priority patent/WO2021230534A1/en
Publication of KR20210140836A publication Critical patent/KR20210140836A/en
Application granted granted Critical
Publication of KR102412047B1 publication Critical patent/KR102412047B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/505Clinical applications involving diagnosis of bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

Disclosed are an apparatus for predicting orbital and periorbital lesions, which predicts the location and type of lesions in a patient's orbit quickly and accurately, and a prediction method thereof. According to the present invention, the apparatus receives a target medical image of a patient's skull and inputting the target medical image to a first deep learning model to generate a classification result for the patient's orbital structure; inputs the classification result to a second deep learning model to generate an estimation result on whether a lesion has occurred in the orbital structure; inputs the classification result into a third deep learning model according to the estimation result to generate a prediction result for the location and type of the lesion occurring in the orbital structure and output the estimation result and the prediction result; and trains the first deep learning model, the second deep learning model, and the third on the basis of at least one of a sample medical image, biopsy information corresponding to the sample medical image, and a synthetic medical image generated on the basis of the sample medical image and the biopsy information.

Description

안와 및 안와주변 병변 예측 장치 및 그 예측 방법{METHOD AND APPARATUSES TO PREDICT ORBITAL AND PERIORBITAL LESIONS}Apparatus for predicting orbital and peripheral lesions and a method for predicting the same

본 발명은 안와 및 안와주변 병변 예측 장치 및 그 예측 방법을 제공한다.The present invention provides an apparatus for predicting orbital and peripheral lesions and a method for predicting the same.

안와는 안구를 둘러싼 주변부를 지칭하며 안와에는 다양한 구조물이 존재한다. 환자의 안와에 발생하는 병변은 발생률이 높지는 않지만, 만약 발생할 경우에는 환자에게 매우 치명적일 수 있다. 예를 들어, 환자의 안와에 발생한 병변 중 악성 (malignant) 종양은 사망률이 매우 높다(e.g. 안와림프종의 경우 26.4%, 눈물샘암의 경우 38.5%). 또한 양성(benign) 종양인 경우에도 종양이 시신경을 압박하여 환자가 실명하거나(비가역적 손상 실명률 90%) 또는 종양이 외안근을 침범하여 복시 등을 유발할 가능성이 높다.The orbit refers to the periphery surrounding the eyeball, and various structures exist in the orbit. Although the incidence of lesions in the orbit of a patient is not high, if it does occur, it can be very fatal to the patient. For example, malignant tumors among lesions occurring in a patient's orbit have a very high mortality rate (e.g. 26.4% for orbital lymphoma, 38.5% for lacrimal gland cancer). In addition, even in the case of benign tumors, there is a high possibility that the tumor may compress the optic nerve and cause blindness (irreversible damage, blindness rate of 90%), or the tumor may invade the extraocular muscle and cause diplopia.

환자의 안와에 발생한 병변은 확진이 빠르게 된다면 병변에 따른 적절한 치료(양성 종양의 경우 경과 관찰, 수술, 약물 치료/악성 종양의 경우 항암제, 수술, 방사선 치료)가 가능하나, 치료 기간이 6개월에서 1년 이상 지연되는 경우가 자주 발생한다. 안와에 발생한 병변, 특히 염증성 안와 및 안와주변 병변(가성 종양)의 경우 조직 검사가 필수적인데, 안와의 앞쪽에 발생할 경우에는 접근성이 좋아 조직 검사가 가능하나, 구후부(retrobulbar space) 혹은 안와 첨부(orbital apex)에 발생할 경우에는 조직 검사 접근성이 떨어지고 또한 안와는 좁은 공간에 안구를 포함한 주요 구조물들이 밀집해 있어 조직 검사 자체가 위험하기 때문이다. 이런 이유로 조직 검사가 불가능한 위치에 발생한 안와의 병변에 대해서는 감별 진단(유사한 특징의 질병을 비교 검토하여 병명을 판정하는 진단법)을 실시하지만 초기 확진이 어려워 치료 기간이 길어질 가능성이 높다.For lesions occurring in the patient's orbit, if the diagnosis is made quickly, appropriate treatment according to the lesion (procedure monitoring, surgery, drug treatment/chemotherapy, surgery, and radiation treatment for malignant tumors) is possible, but the treatment period is from 6 months to 6 months. Delays of more than a year often occur. In the case of lesions occurring in the orbit, especially inflammatory orbital and periorbital lesions (pseudotumors), biopsy is essential. In the case of anterior orbital lesions, biopsy is possible due to good accessibility. In the case of orbital apex), the accessibility of biopsy is poor, and the orbit itself is dangerous because major structures including the eye are concentrated in a narrow space. For this reason, differential diagnosis (a diagnostic method that compares and reviews diseases with similar characteristics to determine the name of the disease) is performed for orbital lesions that have occurred in locations where biopsy is not possible, but the initial diagnosis is difficult and the treatment period is highly likely to be prolonged.

실시예들은, 환자의 안와에 발생한 병변의 위치 및 종류를 빠르고 정확하게 예측할 수 있는 안와 및 안와주변 병변 예측 장치 및 그 예측 방법을 제공한다.Embodiments provide an orbital and peripheral lesion prediction apparatus and a prediction method capable of rapidly and accurately predicting the location and type of a lesion occurring in the orbit of a patient.

또한, 실시예들은, 조직 검사가 불가능한 위치에 발생한 병변의 위치 및 종류를 예측할 수 있는 안와 및 안와주변 병변 예측 장치 및 그 예측 방법을 제공한다.In addition, embodiments provide an orbital and peripheral lesion prediction apparatus and a prediction method capable of predicting the location and type of a lesion occurring in a location where a biopsy is impossible.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical task to be achieved by the present embodiment is not limited to the technical task as described above, and other technical tasks may exist.

본 명세서는 환자의 두개골을 촬영한 타깃 의료 영상을 입력받아, 타깃 의료 영상을 제1 딥 러닝 모델에 입력하여 환자의 안와 구조물에 대한 분류 결과를 생성하고, 분류 결과를 제2 딥 러닝 모델에 입력하여 안와 구조물에 병변이 발생했는지 여부에 대한 추정 결과를 생성하고, 추정 결과에 따라 분류 결과를 제3 딥 러닝 모델에 입력하여 안와 구조물에 발생한 병변의 위치 및 종류에 대한 예측 결과를 생성하고, 추정 결과 및 예측 결과를 출력하고, 샘플 의료 영상, 샘플 의료 영상에 대응하는 조직 검사 정보 및 샘플 의료 영상 및 조직 검사 정보를 기초로 생성된 합성 의료 영상 중 하나 이상을 기초로 하여 제1 딥 러닝 모델, 제2 딥 러닝 모델 및 제3 딥 러닝 모델을 학습하는 안와 및 안와주변 병변 예측 장치 및 예측 방법을 개시한다.The present specification receives a target medical image of a patient's skull, inputs the target medical image to a first deep learning model, generates a classification result for the patient's orbital structure, and inputs the classification result to a second deep learning model to generate an estimation result on whether or not a lesion has occurred in the orbital structure, and input the classification result into the third deep learning model according to the estimation result to generate a prediction result for the location and type of the lesion occurring in the orbital structure, and estimate A first deep learning model for outputting results and prediction results, based on at least one of a sample medical image, biopsy information corresponding to the sample medical image, and a synthetic medical image generated based on the sample medical image and biopsy information; Disclosed are an orbital and periorbital lesion prediction apparatus and prediction method for learning a second deep learning model and a third deep learning model.

일 실시예는 환자의 두개골을 촬영한 타깃 의료 영상을 입력받는 입력부; 타깃 의료 영상을 제1 딥 러닝 모델에 입력하여 환자의 안와 구조물에 대한 분류 결과를 생성하는 구조물 분류부; 분류 결과를 제2 딥 러닝 모델에 입력하여 안와 구조물에 병변이 발생했는지 여부에 대한 추정 결과를 생성하는 추정부; 추정 결과에 따라, 분류 결과를 제3 딥 러닝 모델에 입력하여 안와 구조물에 발생한 병변의 위치 및 종류에 대한 예측 결과를 생성하는 병변 예측부; 추정 결과 및 예측 결과를 출력하는 출력부; 및 샘플 의료 영상, 샘플 의료 영상에 대응하는 조직 검사 정보 및 샘플 의료 영상 및 조직 검사 정보를 기초로 생성된 합성 의료 영상 중 하나 이상을 기초로 하여 제1 딥 러닝 모델, 제2 딥 러닝 모델 및 제3 딥 러닝 모델을 학습하는 모델 학습부를 포함하는 안와 및 안와주변 병변 예측 장치를 제공한다.An embodiment includes an input unit for receiving a target medical image of a patient's skull; a structure classification unit that inputs a target medical image to the first deep learning model and generates a classification result for the orbital structure of the patient; an estimator that inputs the classification result into the second deep learning model and generates an estimation result as to whether a lesion has occurred in the orbital structure; a lesion prediction unit that inputs a classification result to the third deep learning model according to the estimation result and generates a prediction result for the location and type of the lesion occurring in the orbital structure; an output unit for outputting an estimation result and a prediction result; and a first deep learning model, a second deep learning model, and a second deep learning model based on at least one of a sample medical image, biopsy information corresponding to the sample medical image, and a synthetic medical image generated based on the sample medical image and the biopsy information. 3 It provides an orbital and peripheral lesion prediction device including a model learning unit for learning a deep learning model.

다른 실시예는, 환자의 두개골을 촬영한 타깃 의료 영상을 입력받는 입력 단계; 타깃 의료 영상을 제1 딥 러닝 모델에 입력하여 환자의 안와 구조물에 대한 분류 결과를 생성하는 구조물 분류 단계; 분류 결과를 제2 딥 러닝 모델에 입력하여 안와 구조물에 병변이 발생했는지 여부에 대한 추정 결과를 생성하는 추정 단계; 추정 결과에 따라, 분류 결과를 제3 딥 러닝 모델에 입력하여 안와 구조물에 발생한 병변의 위치 및 종류에 대한 예측 결과를 생성하는 병변 예측 단계; 및 추정 결과 및 예측 결과를 출력하는 출력 단계를 포함하고, 제1 딥 러닝 모델, 제2 딥 러닝 모델 및 제3 딥 러닝 모델은 샘플 의료 영상, 샘플 의료 영상에 대응하는 조직 검사 정보 및 샘플 의료 영상 및 조직 검사 정보를 기초로 생성된 합성 의료 영상 중 하나 이상을 기초로 하여 학습되는 안와 및 안와주변 병변 예측 방법을 제공한다.Another embodiment may include an input step of receiving a target medical image obtained by photographing a patient's skull; a structure classification step of generating a classification result for a patient's orbital structure by inputting a target medical image into a first deep learning model; an estimation step of generating an estimation result as to whether a lesion has occurred in the orbital structure by inputting the classification result into the second deep learning model; a lesion prediction step of generating a prediction result for a location and type of a lesion occurring in an orbital structure by inputting a classification result into a third deep learning model according to the estimation result; and an output step of outputting an estimation result and a prediction result, wherein the first deep learning model, the second deep learning model, and the third deep learning model are a sample medical image, biopsy information corresponding to the sample medical image, and a sample medical image. and an orbital and peripheral lesion prediction method that is learned based on at least one of a synthetic medical image generated based on biopsy information.

실시예들에 따른 안와 및 안와주변 병변 예측 장치 및 예측 방법에 의하면, 환자의 안와 주변에 발생한 병변의 위치 및 종류를 빠르고 정확하게 예측할 수 있다.According to the apparatus and method for predicting orbital and peripheral lesions according to embodiments, the location and type of lesions occurring around the orbit of a patient can be quickly and accurately predicted.

또한, 실시예들에 따른 안와 및 안와주변 병변 예측 장치 및 예측 방법에 의하면, 조직 검사가 불가능한 위치에 발생한 병변의 위치 및 종류를 예측할 수 있다.Further, according to the apparatus and method for predicting orbital and orbital lesions according to embodiments, it is possible to predict the location and type of a lesion occurring in a location where a biopsy is impossible.

도 1은 안와 및 안와주변 병변 예측 장치의 일 예를 나타낸 블럭도이다.
도 2는 타깃 의료 영상의 일 예를 나타낸 도면이다.
도 3은 타깃 의료 영상에서 안와 구조물에 대한 분류 결과의 일 예를 나타낸 도면이다.
도 4는 안와 및 안와주변 병변 예측 장치의 다른 예를 나타낸 블럭도이다.
도 5는 전처리 데이터를 생성하는 일 예를 나타낸 도면이다.
도 6은 안와 및 안와주변 병변 예측 장치의 다른 예를 나타낸 블럭도이다.
도 7은 합성 의료 영상 생성 여부를 결정하는 동작의 일 예를 나타낸 흐름도이다.
도 8은 합성 의료 영상을 생성하는 일 예를 나타낸 도면이다.
도 9는 안와 및 안와주변 병변 예측 방법의 일 예를 나타낸 흐름도이다.
1 is a block diagram illustrating an example of an orbital and peripheral lesion prediction apparatus.
2 is a diagram illustrating an example of a target medical image.
3 is a diagram illustrating an example of a classification result for an orbital structure in a target medical image.
4 is a block diagram illustrating another example of an orbital and peripheral lesion prediction apparatus.
5 is a diagram illustrating an example of generating preprocessing data.
6 is a block diagram illustrating another example of an orbital and peripheral lesion prediction apparatus.
7 is a flowchart illustrating an example of an operation of determining whether to generate a synthetic medical image.
8 is a diagram illustrating an example of generating a synthetic medical image.
9 is a flowchart illustrating an example of a method for predicting orbital and periorbital lesions.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는"직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" to another part, it includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a component, it means that other components may be further included, rather than excluding other components, unless otherwise stated, and one or more other features However, it is to be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded in advance.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.The terms "about", "substantially", etc. to the extent used throughout the specification are used in a sense at or close to the numerical value when the manufacturing and material tolerances inherent in the stated meaning are presented, and serve to enhance the understanding of the present invention. To help, precise or absolute figures are used to prevent unfair use by unscrupulous infringers of the stated disclosure. As used throughout the specification of the present invention, the term “step for (to)” or “step for” does not mean “step for”.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by the terminal, apparatus, or device may be performed instead of in a server connected to the terminal, apparatus, or device. Similarly, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal means mapping or matching the terminal's unique number or personal identification information, which is the identification data of the terminal. can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 안와 및 안와주변 병변 예측 장치의 일 예를 나타낸 블럭도이다.1 is a block diagram illustrating an example of an orbital and peripheral lesion prediction apparatus.

도 1을 참조하면, 안와 및 안와주변 병변 예측 장치(100)는 입력부(110), 구조물 분류부(120), 추정부(130), 병변 예측부(140), 출력부(150) 및 모델 학습부(160)를 포함할 수 있다.Referring to FIG. 1 , the orbital and peripheral lesion prediction apparatus 100 includes an input unit 110 , a structure classification unit 120 , an estimator 130 , a lesion prediction unit 140 , an output unit 150 , and model learning. It may include a unit 160 .

입력부(110)는 환자의 두개골을 촬영한 타깃 의료 영상을 입력받을 수 있다. 타깃 의료 영상은 X-ray 장치, 초음파 장치, CT, MRI 등의 영상 진단 기기를 이용하여 환자의 두개골을 전면(얼굴 방향), 측면(귀 방향) 또는 상부(정수리 방향)에서 촬영한 영상일 수 있다.The input unit 110 may receive a target medical image obtained by photographing the patient's skull. The target medical image may be an image taken from the front (face direction), side (ear direction), or upper part (parietal direction) of the patient's skull using an imaging device such as an X-ray device, ultrasound device, CT, or MRI. have.

이때, 타깃 의료 영상은 일 예로 CT 영상 또는 MRI 영상일 수 있다. CT 영상 또는 MRI 영상은 안와 구조물 및 안와 구조물에 발생한 다양한 종류의 병변을 나타낼 수 있다. CT 또는 MRI는 안와의 구조물에 비정상적인 요소가 안와 공간을 차지하고 있는 것을 인지할 수 있으며, X선이 반사/흡수되는 정도, 공명 신호 강도 등을 기초로 하여 안와의 구조물에 발생한 병변(e.g. 종양)을 인지할 수 있기 때문이다. 타깃 의료 영상의 구체적인 예는 이하 도 2에서 자세히 설명한다.In this case, the target medical image may be, for example, a CT image or an MRI image. CT images or MRI images may indicate orbital structures and various types of lesions occurring in orbital structures. CT or MRI can recognize that an abnormal element occupies the orbital space in the orbital structure, and can detect lesions (eg tumors) occurring in the orbital structure based on the degree of reflection/absorption of X-rays and the intensity of the resonance signal. because it can be perceived. A specific example of the target medical image will be described in detail below with reference to FIG. 2 .

구조물 분류부(120)는 입력부(110)에서 입력받은 타깃 의료 영상을 제1 딥 러닝 모델(MDL_1)에 입력하여 환자의 안와에 위치하는 구조물, 즉 안와 구조물에 대한 분류 결과를 생성할 수 있다.The structure classification unit 120 may input the target medical image received from the input unit 110 into the first deep learning model MDL_1 to generate a classification result for a structure located in the patient's orbit, that is, the orbital structure.

이때, 안와 구조물은 하나 이상일 수 있으며, 각 구조물은 안와벽(orbital walls), 안와벽의 구멍(fissures, canals), 안와골막(periorbita), 시신경(optic nerve), 외안근(extraocular muscle), 안와지방(orbital fat), 신경(nerve), 혈관(vasculature), 찐씨공통힘줄고리(annulus of Zinn), 안구내 조직(intraorbital tissue), 수정체(crystalline lens), 각막 정점(corneal apex), 안와 정점(orbit apex), 눈물샘(lacrimal gland) 또는 유리체(vitreous)인 안와병변과 비강 및 부비동(nasal and paranasal sinus)의 안와주변 병변일 수 있다. 구조물 분류부(120)는 안와 구조물 중에서 병변을 탐색하고자 하는 특정한 안와 구조물에 대한 분류 결과를 생성할 수 있다.In this case, there may be more than one orbital structure, and each structure includes orbital walls, fissures, canals, periorbita, optic nerve, extraocular muscle, and orbital fat. (orbital fat), nerve, vasculature, annulus of Zinn, intraorbital tissue, crystalline lens, corneal apex, orbit apex), lacrimal gland or vitreous orbital lesions, and orbital lesions of the nasal and paranasal sinuses. The structure classification unit 120 may generate a classification result for a specific orbital structure for which a lesion is to be searched among orbital structures.

이때, 제1 딥 러닝 모델(MDL_1)은 타깃 의료 영상을 입력받아 안와 구조물에 대한 검출(detection) 및 분할(segmentation)을 수행하는 객체 검출 & 분할(Object Detection & Segmentation) 모델일 수 있다.In this case, the first deep learning model MDL_1 may be an object detection & segmentation model that receives a target medical image and performs detection and segmentation on an orbital structure.

안와 구조물에 대한 분류 결과는 타깃 의료 영상에서 안와 구조물에 대응하는 영역이 어디인지에 대한 정보를 지시할 수 있다. 예를 들어 안와에 위치하는 구조물에 대한 분류 결과는 타깃 의료 영상에서 어느 부분이 시신경에 해당하고, 어느 부분이 외안근에 해당하는 구조물인지 등의 정보를 타깃 의료 영상 중 특정 영역을 마스킹하는 방식 등을 통해 지시할 수 있다.The classification result of the orbital structure may indicate information on where the region corresponding to the orbital structure is in the target medical image. For example, as a result of classification of structures located in the orbit, information such as which part corresponds to the optic nerve in the target medical image and which part corresponds to the extraocular muscle in the target medical image is used for masking a specific region in the target medical image. can be directed through.

추정부(130)는 구조물 분류부(120)에서 생성된 분류 결과를 제2 딥 러닝 모델(MDL_2)에 입력하여 환자의 안와에 위치하는 구조물에 병변이 발생했는지 여부에 대한 추정 결과를 생성할 수 있다.The estimation unit 130 may input the classification result generated by the structure classification unit 120 into the second deep learning model (MDL_2) to generate an estimation result as to whether a lesion has occurred in a structure located in the orbit of the patient. have.

이때, 안와에 위치하는 구조물에 발생한 병변은 골절, 염증성 질환 또는 종양(악성/양성)등일 수 있다.In this case, the lesion occurring in the structure located in the orbit may be a fracture, an inflammatory disease, or a tumor (malignant/benign).

제2 딥 러닝 모델(MDL_2)은 안와에 위치하는 구조물의 크기/모양을 기반으로 병변을 탐지하는 객체 검출(Object Detection) 모델일 수 있다.The second deep learning model MDL_2 may be an object detection model that detects a lesion based on the size/shape of a structure located in the orbit.

추정부(130)에서 생성하는 추정 결과는 안와 구조물이 정상, 즉 병변이 미발생하였는지 또는 비정상, 즉 병변이 발생하였는지 여부에 대해 추정한 결과를 지시할 수 있다. 예를 들어 추정부(130)는 안와에 위치하는 특정 구조물(e.g. 외안근)에 특정한 병변(e.g. 악성 종양)이 발생하였는지 여부에 대해 추정한 결과를 확률값(e.g. 80%/90%)으로 지시할 수 있다.The estimation result generated by the estimator 130 may indicate a result of estimating whether the orbital structure is normal, that is, a lesion has not occurred or is abnormal, that is, a lesion has occurred. For example, the estimator 130 may indicate a result of estimating whether a specific lesion (eg malignant tumor) has occurred in a specific structure (eg extraocular muscle) located in the orbit as a probability value (eg 80%/90%). have.

병변 예측부(140)는 추정부(130)에서 생성한 추정 결과에 따라, 구조물 분류부(120)에서 생성한 안와 구조물에 대한 분류 결과를 제3 딥 러닝 모델(MDL_3)에 입력하여, 안와 구조물에 발생한 병변의 위치 및 종류에 대한 예측 결과를 생성할 수 있다. 일 예로 병변의 종류에 대한 예측 결과는 갑상선 안질환의 유무, 골절/염증/종양인지 여부, 종양의 경우 악성인지 양성인지 여부, 악성 종양일 경우 종양의 타입을 예측한 결과일 수 있다.The lesion prediction unit 140 inputs the classification result for the orbit structure generated by the structure classification unit 120 to the third deep learning model MDL_3 according to the estimation result generated by the estimation unit 130 to the orbit structure. It is possible to generate prediction results for the location and type of lesions that have occurred in For example, the prediction result for the type of lesion may be a result of predicting the presence or absence of thyroid eye disease, whether it is a fracture/inflammation/tumor, whether the tumor is malignant or benign, and the type of tumor in the case of a malignant tumor.

제3 딥 러닝 모델(MDL_3)은 안와 구조물이 촬영된 영상을 입력받아 병변에 해당하는 부분을 분할하고 병변의 종류를 분류하는 모델일 수 있다.The third deep learning model MDL_3 may be a model that receives an image of an orbital structure, divides a portion corresponding to a lesion, and classifies a type of lesion.

일 예로, 만약 추정 결과가 안와 구조물에 병변이 미발생하였다는 것을 지시하는 경우에는 병변의 위치 및 종류를 예측할 필요가 없으므로, 병변 예측부(140)는 안와 구조물에 발생한 병변의 위치 및 종류를 예측하지 않는다.For example, if the estimation result indicates that no lesion has occurred in the orbital structure, there is no need to predict the location and type of the lesion, so the lesion predicting unit 140 predicts the location and type of the lesion occurring in the orbital structure. I never do that.

반면, 추정 결과가 안와 구조물에 병변이 발생하였다는 것을 지시하는 경우에는 병변 예측부(140)는 안와에 위치하는 구조물에 발생한 병변의 위치 및 종류를 제3 딥 러닝 모델(MDL_3)을 이용하여 예측한다.On the other hand, when the estimation result indicates that a lesion has occurred in the orbital structure, the lesion prediction unit 140 predicts the location and type of the lesion occurring in the structure located in the orbit using the third deep learning model (MDL_3). do.

예를 들어, 예측 결과는 안와에 위치하는 특정 구조물(e.g. 외안근)에 특정한 종류(타입)의 종양(악성)이 있을 확률값(e.g. 80%/90%)일 수 있다.For example, the prediction result may be a probability value (e.g. 80%/90%) of a specific type (type) of a tumor (malignant) in a specific structure (e.g. extraocular muscle) located in the orbit.

출력부(150)는 추정부(130)에서 생성한 추정 결과 및 병변 예측부(140)에서 생성한 예측 결과 중 하나 이상을 출력할 수 있다. 출력부(150)는 의료진과 환자에게 추정 결과 및 예측 결과를 이해하기 쉽도록 텍스트, 이미지 등으로 시각화하여 제공할 수 있다.The output unit 150 may output one or more of the estimation result generated by the estimator 130 and the prediction result generated by the lesion prediction unit 140 . The output unit 150 may visualize the estimated result and the predicted result in text, images, etc. and provide them to medical staff and patients.

예를 들어 출력부(150)는 추정 결과 안와 구조물이 정상(즉, 병변이 미발생)일 경우 정상임을 나타내는 정보를 출력할 수 있다. 다른 예로 출력부(150)는 추정 결과 안와 구조물이 비정상(즉, 병변이 발생)일 경우 비정상임을 나타내는 정보 및 구조물에 발생한 병변의 위치 및 종류를 출력할 수 있다.For example, the output unit 150 may output information indicating that the orbital structure is normal (ie, no lesion has occurred) as a result of the estimation. As another example, when the orbital structure is abnormal (ie, a lesion occurs) as a result of the estimation, the output unit 150 may output information indicating that the orbital structure is abnormal and the location and type of the lesion generated in the structure.

한편, 출력부(150)는 정보를 표시할 수 있는 디스플레이 장치(e.g. 스마트폰, 태블릿, 모니터, TV, LED)로 추정 결과 및 예측 결과를 출력할 수 있다.모델 학습부(160)는 샘플 의료 영상, 샘플 의료 영상에 대응하는 조직 검사 정보 및 샘플 의료 영상과 조직 검사 정보를 기초로 생성된 합성 의료 영상 중 하나 이상을 기초로 하여, 전술한 제1 딥 러닝 모델(MDL_1), 제2 딥 러닝 모델(MDL_2) 및 제3 딥 러닝 모델(MDL_3)에 대한 학습을 수행할 수 있다.Meanwhile, the output unit 150 may output the estimation result and the prediction result to a display device (eg, a smartphone, tablet, monitor, TV, LED) capable of displaying information. Based on at least one of an image, biopsy information corresponding to the sample medical image, and a synthetic medical image generated based on the sample medical image and the biopsy information, the first deep learning model (MDL_1), the second deep learning Learning on the model MDL_2 and the third deep learning model MDL_3 may be performed.

이때, 샘플 의료 영상, 조직 검사 정보는 안와 및 안와주변 병변 예측 장치(100)의 외부에 위치하는 저장 장치(10)에 저장될 수 있다. 저장 장치(10)는 일 예로 안와 및 안와주변 병변 예측 장치(100)의 외부에 위치할 수 있으며, 데이터베이스를 구축한 PC, 서버, 의료 정보 시스템 등일 수 있다.In this case, the sample medical image and biopsy information may be stored in the storage device 10 located outside the orbital and orbital lesion prediction apparatus 100 . The storage device 10 may be located outside the orbital and orbital lesion prediction apparatus 100, for example, and may be a PC, a server, a medical information system, etc. in which a database is built.

한편, 저장 장치(10)는 전술한 샘플 의료 영상, 조직 검사 정보뿐 아니라 전술한 제1 딥 러닝 모델(MDL_1), 제2 딥 러닝 모델(MDL_2), 제3 딥 러닝 모델(MDL_3)을 추가로 저장할 수도 있다. 이 경우 안와 및 안와주변 병변 예측 장치(100)는 저장 장치(10)에 저장된 제1 딥 러닝 모델(MDL_1), 제2 딥 러닝 모델(MDL_2), 제3 딥 러닝 모델(MDL_3)을 로드할 수 있고, 학습이 수행되어 업데이트된 제1 딥 러닝 모델(MDL_1), 제2 딥 러닝 모델(MDL_2), 제3 딥 러닝 모델(MDL_3)을 다시 저장 장치(10)에 라이트(write)할 수 있다.Meanwhile, the storage device 10 additionally stores the aforementioned first deep learning model (MDL_1), second deep learning model (MDL_2), and third deep learning model (MDL_3) as well as the aforementioned sample medical image and biopsy information. You can also save it. In this case, the orbital and peripheral lesion prediction apparatus 100 may load the first deep learning model (MDL_1), the second deep learning model (MDL_2), and the third deep learning model (MDL_3) stored in the storage device 10 . and the first deep learning model (MDL_1), the second deep learning model (MDL_2), and the third deep learning model (MDL_3), which have been trained and updated, may be written back to the storage device 10 .

샘플 의료 영상은 타깃 의료 영상과 마찬가지로 다양한 환자의 두개골을 전면, 측면, 상부에서 기 촬영한 CT 영상 또는 MRI 영상일 수 있다.Like the target medical image, the sample medical image may be a CT image or an MRI image of various patients' skulls from the front, side, and upper sides.

샘플 의료 영상에 대응하는 조직 검사 정보는 대응하는 샘플 의료 영상이 촬영된 안와 구조물에 대한 조직 검사(즉, 구조물을 구성하는 세포를 현미경을 통해 확인하는 검사)를 수행한 결과를 지시할 수 있다. 일 예로 조직 검사 정보는 안와 구조물(e.g. 외안근)에 종양이 발생하였는지 여부, 종양이 악성인지 양성인지 여부, 종양의 타입에 대한 정보를 지시할 수 있다.The biopsy information corresponding to the sample medical image may indicate a result of performing a biopsy on the orbital structure in which the corresponding sample medical image is captured (ie, an examination for checking cells constituting the structure through a microscope). For example, the biopsy information may indicate whether a tumor has occurred in the orbital structure (e.g. extraocular muscle), whether the tumor is malignant or benign, and information on the type of tumor.

샘플 의료 영상과 이에 대응하는 조직 검사 정보는 연관성이 존재하고, 안와에 위치한 구조물에 발생한 병변, 특히 종양은 위치에 관계없이 조직 소견에 따른 형태학적 유사성이 존재한다. 합성 의료 영상은 샘플 의료 영상을 기초로 생성되며, 특정한 조건일 때 생성될 수 있다. 이하 도 7 내지 도 8에서 합성 의료 영상을 생성하는 조건 및 그 방법에 대해 구체적으로 설명한다.There is a correlation between the sample medical image and the biopsy information corresponding thereto, and the lesion, especially the tumor, generated in the structure located in the orbit has morphological similarity according to the histologic findings regardless of the location. The synthetic medical image is generated based on the sample medical image, and may be generated under a specific condition. Hereinafter, conditions and methods for generating a synthetic medical image will be described in detail with reference to FIGS. 7 to 8 .

도 2는 타깃 의료 영상의 일 예를 나타낸 도면이다.2 is a diagram illustrating an example of a target medical image.

도 1에서 전술한 바와 같이, 타깃 의료 영상은 CT 영상 또는 MRI 영상일 수 있다.1 , the target medical image may be a CT image or an MRI image.

도 2의 a는 내분비 안와 병증(endocrine orbitopathy)인 그레이브스 병이 있는 환자의 두개골을 촬영한 CT 영상이다. 그리고 도 2의 b는 좌안에 구후 해면 혈관종(retrobulbar cavernous hemangioma)이 있는 환자의 두개골을 촬영한 CT 영상이다. 그리고 도 2의 c는 우안의 안와 정점(orbital apex)에 시신경초 수막종(optic sheath meningioma)이 있는 환자의 두개골을 촬영한 MRI 영상이다. 그리고 도 2의 d는 좌안의 안와 정점에 비호지킨 림프종(non-Hodgkin lymphoma, NHL)이 있는 환자의 두개골을 촬영한 CT 영상이다.2A is a CT image of a skull of a patient with Graves' disease, an endocrine orbitopathy. And FIG. 2B is a CT image of the skull of a patient with retrobulbar cavernous hemangioma in the left eye. And FIG. 2c is an MRI image of the skull of a patient with an optic sheath meningioma in the orbital apex of the right eye. And FIG. 2d is a CT image of the skull of a patient with non-Hodgkin lymphoma (NHL) at the apex of the orbit of the left eye.

도 3은 타깃 의료 영상에서 안와 구조물에 대한 분류 결과의 일 예를 나타낸 도면이다.3 is a diagram illustrating an example of a classification result for an orbital structure in a target medical image.

도 3을 참조하면, 구조물 분류부(120)는 타깃 의료 영상 a, b로부터 안와에 위치하는 각막 정점(corneal apex), 수정체(crystalline lens), 유리체(vitreous), 외안근(extraocular muscle), 시신경(optic nerve), 안와 정점(orbit apex) 등의 안와 구조물을 분류하고, 각 안와 구조물을 마스킹할 수 있다.Referring to FIG. 3 , the structure classification unit 120 includes a corneal apex, a crystalline lens, a vitreous, an extraocular muscle, and an optic nerve located in the orbit from the target medical images a and b. It is possible to classify orbital structures such as optic nerve) and orbit apex, and to mask each orbital structure.

도 4는 안와 및 안와주변 병변 예측 장치의 다른 예를 나타낸 블럭도이다.4 is a block diagram illustrating another example of an orbital and peripheral lesion prediction apparatus.

도 4를 참조하면, 안와 및 안와주변 병변 예측 장치(100)는 도 1에서 전술한 입력부(110), 구조물 분류부(120), 추정부(130), 병변 예측부(140), 출력부(150) 및 모델 학습부(160) 이외에 전처리부(170)를 추가로 포함할 수 있다.Referring to FIG. 4 , the orbital and orbital lesion prediction apparatus 100 includes the input unit 110 , the structure classification unit 120 , the estimator 130 , the lesion prediction unit 140 , and the output unit ( 150) and the model learning unit 160 may further include a preprocessing unit 170.

전처리부(170)는 샘플 의료 영상 및 조직 검사 정보를 기초로 도 1에서 전술한 제1 딥 러닝 모델(MDL_1), 제2 딥 러닝 모델(MDL_2) 및 제3 딥 러닝 모델(MDL_3)을 학습하기 위하여 사용되는 전처리 데이터를 생성할 수 있다.The preprocessor 170 is configured to learn the first deep learning model (MDL_1), the second deep learning model (MDL_2), and the third deep learning model (MDL_3) described above in FIG. 1 based on the sample medical image and the biopsy information. It is possible to generate preprocessing data used for

도 5는 전처리 데이터를 생성하는 일 예를 나타낸 도면이다.5 is a diagram illustrating an example of generating preprocessing data.

도 5를 참조하면, 전처리부(170)는 샘플 의료 영상에 안와에 위치하는 구조물에 대한 마스킹 정보를 추가할 수 있다. 이때, 마스킹 정보는 자동화된 도구에 의해 추가되거나 또는 의료진이 직접 수작업으로 추가할 수 있다.Referring to FIG. 5 , the preprocessor 170 may add masking information on a structure located in the orbit to the sample medical image. In this case, the masking information may be added by an automated tool or may be manually added by a medical staff.

그리고 전처리부(170)는 조직 검사 정보를 설정된 매핑 테이블을 기초로 인코딩할 수 있다.And the preprocessor 170 may encode the tissue examination information based on the set mapping table.

전처리부(170)는 샘플 의료 영상에 전술한 마스킹 정보를 추가한 마스킹 데이터 또는 조직 검사 정보를 인코딩한 인코딩 데이터를 포함하는 전처리 데이터를 생성할 수 있다.The preprocessor 170 may generate preprocessing data including masking data obtained by adding the above-described masking information to a sample medical image or encoded data obtained by encoding biopsy information.

한편, 전처리부(170)는 전술한 전처리 데이터를 생성하는 과정에서 환자의 개인 정보를 삭제하는 작업을 추가로 수행할 수 있다. 환자의 개인 정보를 삭제하는 과정은 자동화된 도구에 의해 수행될 수 있고, 의료진이 직접 수작업으로 수행할 수도 있다.Meanwhile, the pre-processing unit 170 may additionally perform an operation of deleting personal information of a patient in the process of generating the aforementioned pre-processing data. The process of deleting a patient's personal information may be performed by an automated tool or may be performed manually by a medical staff.

도 6은 안와 및 안와주변 병변 예측 장치의 다른 예를 나타낸 블럭도이다.6 is a block diagram illustrating another example of an orbital and peripheral lesion prediction apparatus.

도 6을 참조하면, 안와 및 안와주변 병변 예측 장치(100)는 도 1 및 도 4에서 전술한 입력부(110), 구조물 분류부(120), 추정부(130), 병변 예측부(140), 출력부(150) 및 모델 학습부(160), 전처리부(170) 이외에 합성 의료 영상 생성부(180)를 추가로 포함할 수 있다.Referring to FIG. 6 , the orbital and peripheral lesion prediction apparatus 100 includes the input unit 110 , the structure classification unit 120 , the estimator 130 , the lesion prediction unit 140 described above in FIGS. 1 and 4 , In addition to the output unit 150 , the model learning unit 160 , and the preprocessing unit 170 , the synthetic medical image generation unit 180 may be additionally included.

합성 의료 영상 생성부(180)는 전처리부(170)에서 생성된 전처리 데이터를 기초로 하여 제1 딥 러닝 모델(MDL_1), 제2 딥 러닝 모델(MDL_2), 제3 딥 러닝 모델(MDL_3)을 학습하기 위한 합성 의료 영상을 생성할 수 있다.The synthetic medical image generator 180 generates a first deep learning model (MDL_1), a second deep learning model (MDL_2), and a third deep learning model (MDL_3) based on the preprocessing data generated by the preprocessor 170 . It is possible to create a synthetic medical image for learning.

이처럼 합성 의료 영상 생성부(180)에서 합성 의료 영상을 생성하는 이유는 딥 러닝 모델을 학습하는 과정에서 정상인 샘플 의료 영상, 즉 촬영된 안와 구조물에 병변이 미발생한 샘플 의료 영상의 개수와 비정상인 샘플 의료 영상, 즉 촬영된 안와 구조물에 병변이 발생한 샘플 의료 영상의 개수의 불균형으로 인해 딥 러닝 모델의 정확도가 낮아지는 문제를 방지하기 위함이다.The reason why the synthetic medical image generating unit 180 generates the synthetic medical image is the number of normal sample medical images, that is, the number of sample medical images in which no lesion has occurred in the captured orbital structure, and the number of abnormal samples in the process of learning the deep learning model. This is to prevent a problem in which the accuracy of the deep learning model is lowered due to an imbalance in the number of medical images, that is, sample medical images in which lesions occur in the captured orbital structures.

특히, 전술한 샘플 의료 영상 중에서는 비정상인 샘플 의료 영상의 수가 정상인 샘플 의료 영상의 수보다 현저히 적을 가능성이 높기 때문에, 샘플 의료 영상을 기초로 학습된 딥 러닝 모델은 비정상인 경우에 대한 예측 정확도가 낮을 가능성이 높다. 따라서, 합성 의료 영상 생성부(180)는 비정상인 샘플 의료 영상의 수가 정상인 샘플 의료 영상의 수보다 현저히 적을 경우 비정상인 합성 의료 영상, 즉 병변이 있는 구조물의 이미지를 포함하는 합성 의료 영상을 생성하여 딥 러닝 모델이 비정상인 경우에 대한 예측 정확도를 높일 수 있다. 또한, 합성 의료 영상 정보는 환자의 개인 정보를 포함하지 않기 때문에 개인정보보호법 상 개인정보 보호를 위한 조치를 취할 필요가 없다는 장점이 있다.In particular, among the above-described sample medical images, since the number of abnormal sample medical images is highly likely to be significantly smaller than the number of normal sample medical images, the deep learning model trained based on the sample medical image has lower prediction accuracy for abnormal cases. likely to be low. Therefore, the synthetic medical image generating unit 180 generates an abnormal synthetic medical image, that is, a synthetic medical image including an image of a structure with a lesion, when the number of abnormal sample medical images is significantly less than the number of normal sample medical images. It is possible to increase the prediction accuracy for the case where the deep learning model is abnormal. In addition, since synthetic medical image information does not include the patient's personal information, there is no need to take measures to protect personal information under the Personal Information Protection Act.

도 7은 합성 의료 영상 생성 여부를 결정하는 동작의 일 예를 나타낸 흐름도이다.7 is a flowchart illustrating an example of an operation of determining whether to generate a synthetic medical image.

도 7을 참조하면, 합성 의료 영상 생성부(180)는 정상인 샘플 의료 영상의 개수, 즉 병변이 미발생한 안와 구조물이 촬영된 샘플 의료 영상의 개수 A를 계산할 수 있다(S710).Referring to FIG. 7 , the synthetic medical image generator 180 may calculate the number of normal sample medical images, that is, the number A of sample medical images in which the orbital structure in which the lesion does not occur is captured ( S710 ).

그리고 합성 의료 영상 생성부(180)는 비정상인 샘플 의료 영상의 개수, 즉 병변이 미발생한 안와 구조물이 촬영된 샘플 의료 영상의 개수 B를 계산할 수 있다(S720). 한편, 도 7에서는 S720 단계가 S710 단계보다 이후에 실행되는 경우를 예로 들어 설명하였으나, S720 단계는 S710 단계보다 이전에 실행될 수도 있고 동시에 실행될 수도 있다.In addition, the synthetic medical image generator 180 may calculate the number of abnormal sample medical images, that is, the number B of sample medical images in which the orbital structure in which the lesion does not occur is captured ( S720 ). Meanwhile, in FIG. 7 , the case where step S720 is executed after step S710 has been described as an example, but step S720 may be executed before or simultaneously with step S710.

합성 의료 영상 생성부(180)는 정상인 샘플 의료 영상의 개수 대비 비정상인 샘플 의료 영상의 개수의 비율, 즉 (B/A)가 설정된 임계 비율(THR) 이하인지 판단한다(S730). 이때, 임계 비율(THR)의 값은 일 예로 학습된 제1 딥 러닝 모델(MDL_1), 제2 딥 러닝 모델(MDL_2) 및 제3 딥 러닝 모델(MDL_3)의 정확도를 기초로 하여 결정될 수 있다. 일 예로 임계 비율(THR)의 값은 1/50, 1/20일 수 있다.The synthetic medical image generator 180 determines whether the ratio of the number of abnormal sample medical images to the number of normal sample medical images, that is, (B/A) is less than or equal to a set threshold ratio THR ( S730 ). In this case, the value of the threshold ratio (THR) may be determined based on the accuracy of the learned first deep learning model (MDL_1), the second deep learning model (MDL_2), and the third deep learning model (MDL_3) as an example. For example, the value of the threshold ratio THR may be 1/50 or 1/20.

만약 (B/A)가 설정된 임계 비율(THR) 이하이면(S730-Y), 이는 정상인 샘플 의료 영상 대비 비정상인 샘플 의료 영상의 개수가 현저히 적다는 것을 의미한다. 따라서, 합성 의료 영상 생성부(180)는 샘플 의료 영상을 기초로 합성 의료 영상을 생성할 수 있다(S740).If (B/A) is equal to or less than the set threshold ratio (THR) (S730-Y), this means that the number of abnormal sample medical images is significantly smaller than that of normal sample medical images. Accordingly, the synthetic medical image generator 180 may generate a synthetic medical image based on the sample medical image ( S740 ).

반면, (B/A)가 설정된 임계 비율(THR)을 초과하면(S730-N), 이는 정상인 샘플 의료 영상 대비 비정상인 샘플 의료 영상의 개수가 충분하다는 것을 의미한다. 따라서, 합성 의료 영상 생성부(180)는 합성 의료 영상을 미생성할 수 있다(S750).On the other hand, when (B/A) exceeds the set threshold ratio THR ( S730-N ), this means that the number of abnormal sample medical images is sufficient compared to normal sample medical images. Accordingly, the synthetic medical image generator 180 may not generate a synthetic medical image (S750).

도 8은 합성 의료 영상을 생성하는 일 예를 나타낸 도면이다.8 is a diagram illustrating an example of generating a synthetic medical image.

합성 의료 영상 생성부(180)는 전처리 데이터에 포함된 비정상인 샘플 의료 영상으로부터 병변이 발생한 영역을 크롭핑(cropping)하여 학습 데이터를 생성할 수 있다. 전처리 데이터에 포함된 샘플 의료 영상이 비정상인지 여부는 샘플 의료 영상에 대응하는 조직 검사 정보를 통해 확인할 수 있다.The synthetic medical image generator 180 may generate training data by cropping a region in which a lesion occurs from an abnormal sample medical image included in the preprocessing data. Whether the sample medical image included in the preprocessing data is abnormal may be confirmed through biopsy information corresponding to the sample medical image.

이때, 크롭핑되는 영역은 전술한 제1 딥 러닝 모델(MDL_1)에 의해 선택될 수 있다.In this case, the cropped region may be selected by the aforementioned first deep learning model MDL_1.

합성 의료 영상 생성부(180)는 크롭핑된 학습 데이터를 제4 딥 러닝 모델에 입력하여 크롭핑된 영역에 대응되는 합성 데이터를 생성할 수 있다. 이때, 제4 딥 러닝 모델은 일 예로 GAN(Generative Adversarial Network) 모델일 수 있다.The synthetic medical image generator 180 may generate synthetic data corresponding to the cropped region by inputting the cropped training data to the fourth deep learning model. In this case, the fourth deep learning model may be, for example, a Generative Adversarial Network (GAN) model.

합성 의료 영상 생성부(180)는 전술한 합성 데이터를 정상인 샘플 의료 영상에 삽입하여 합성 의료 영상을 생성할 수 있다. 이때, 합성 데이터가 삽입되는 정상인 샘플 의료 영상은 랜덤하게 선택될 수 있다.The synthetic medical image generator 180 may generate a synthetic medical image by inserting the above-described synthetic data into a normal sample medical image. In this case, a normal sample medical image into which the synthetic data is inserted may be randomly selected.

도 9는 안와 및 안와주변 병변 예측 방법의 일 예를 나타낸 흐름도이다.9 is a flowchart illustrating an example of a method for predicting orbital and periorbital lesions.

안와 및 안와주변 병변 예측 방법(900)은 입력 단계(S910), 구조물 분류 단계(S920), 추정 단계(S930), 병변 예측 단계(S940) 및 출력 단계(S950)를 포함할 수 있다.The orbital and peripheral lesion prediction method 900 may include an input step S910 , a structure classification step S920 , an estimation step S930 , a lesion prediction step S940 , and an output step S950 .

입력 단계(S910)는 환자의 두개골을 촬영한 타깃 의료 영상을 입력받을 수 있다. 이때, 타깃 의료 영상은 CT 영상 또는 MRI 영상일 수 있다.In the input step ( S910 ), a target medical image obtained by photographing a patient's skull may be input. In this case, the target medical image may be a CT image or an MRI image.

구조물 분류 단계(S920)는 입력 단계(S910)에서 입력받은 타깃 의료 영상을 제1 딥 러닝 모델에 입력하여 안와 구조물에 대한 분류 결과를 생성할 수 있다. 이때, 일 예로 안와 구조물은 시신경(optic nerve), 외안근(extraocular muscle), 수정체(crystalline lens), 각막 정점(corneal apex), 안와 정점(orbit apex), 눈물샘(lacrimal gland) 또는 유리체(vitreous)일 수 있다.The structure classification step S920 may generate a classification result for the orbital structure by inputting the target medical image received in the input step S910 into the first deep learning model. In this case, for example, the orbital structure is an optic nerve, an extraocular muscle, a crystalline lens, a corneal apex, an orbit apex, a lacrimal gland, or a vitreous. can

추정 단계(S930)는 구조물 분류 단계(S920)에서 생성된 분류 결과를 제2 딥 러닝 모델에 입력하여 안와 구조물에 병변이 발생했는지 여부에 대한 추정 결과를 생성할 수 있다. 이때, 병변은 골절, 염증성 질환 또는 종양일 수 있다.In the estimation step (S930), the classification result generated in the structure classification step (S920) may be input to the second deep learning model to generate an estimation result as to whether a lesion has occurred in the orbital structure. In this case, the lesion may be a fracture, an inflammatory disease, or a tumor.

병변 예측 단계(S940)는 추정 단계(S930)에서 생성된 추정 결과에 따라, 구조물 분류 단계(S920)에서 생성된 분류 결과를 제3 딥 러닝 모델에 입력하여 안와 구조물에 발생한 병변의 위치 및 종류에 대한 예측 결과를 생성할 수 있다.In the lesion prediction step (S940), according to the estimation result generated in the estimation step (S930), the classification result generated in the structure classification step (S920) is input to the third deep learning model to determine the location and type of the lesion generated in the orbital structure. prediction results can be generated.

그리고 출력 단계(S950)는 전술한 추정 결과 및 예측 결과를 출력할 수 있다.In addition, the output step S950 may output the above-described estimation result and prediction result.

한편, 전술한 제1 딥 러닝 모델, 제2 딥 러닝 모델 및 제3 딥 러닝 모델은 샘플 의료 영상, 샘플 의료 영상에 대응하는 조직 검사 정보 및 샘플 의료 영상 및 조직 검사 정보를 기초로 생성된 합성 의료 영상 중 하나 이상을 기초로 학습될 수 있다.Meanwhile, the first deep learning model, the second deep learning model, and the third deep learning model described above are synthetic medical images generated based on a sample medical image, biopsy information corresponding to the sample medical image, and sample medical image and biopsy information. It may be learned based on one or more of the images.

전술한 제1 딥 러닝 모델, 제2 딥 러닝 모델, 제3 딥 러닝 모델을 학습하기 위한 전처리 데이터는 전술한 샘플 의료 영상 및 조직 검사 정보를 전처리하여 생성될 수 있다. 일 예로 전처리 데이터는 샘플 의료 영상에 안와에 위치한 구조물에 대한 마스킹 정보를 추가한 마스킹 데이터를 포함할 수 있다. 다른 예로 전처리 데이터는 조직 검사 정보가 설정된 매핑 테이블을 기초로 인코딩된 인코딩 데이터를 포함할 수 있다.The preprocessing data for learning the first deep learning model, the second deep learning model, and the third deep learning model may be generated by preprocessing the above-described sample medical image and biopsy information. For example, the preprocessing data may include masking data obtained by adding masking information on a structure located in the orbit to the sample medical image. As another example, the preprocessing data may include encoded data encoded based on a mapping table in which tissue examination information is set.

전술한 합성 의료 영상은 전술한 전처리 데이터를 기초로 생성될 수 있다. 일 예로 합성 의료 영상은 전술한 샘플 의료 영상 중 병변이 미발생한 샘플 의료 영상의 개수 대비 병변이 발생한 샘플 의료 영상의 개수가 설정된 임계 비율 이하일 때, 전처리 데이터를 제4 딥 러닝 모델에 입력하여 생성될 수 있다. The aforementioned synthetic medical image may be generated based on the aforementioned pre-processing data. For example, the synthetic medical image may be generated by inputting preprocessing data into the fourth deep learning model when the number of sample medical images in which lesions are generated compared to the number of sample medical images in which lesions are not generated among the aforementioned sample medical images is less than or equal to a set threshold ratio. can

한편 전술한 안와 및 안와주변 병변 예측 방법(900)은 도 1, 도 4 또는 도 6을 통해 설명한 안와 및 안와주변 병변 예측 장치(100)에 의해 실행될 수 있다.Meanwhile, the above-described orbital and perorbital lesion predicting method 900 may be executed by the orbital and perorbital lesion predicting apparatus 100 described with reference to FIGS. 1, 4 or 6 .

본 발명의 실시예들에서 설명하는 안와 및 안와주변 병변 예측 장치(100) 및 안와 및 안와주변 병변 예측 방법(900)은 인공 지능, 특히 딥 러닝(deep learning)을 적용하여 의료진의 빠른 의사 결정을 지원할 수 있다. 다양한 영상 진단 기기들로부터 획득한 의료 영상에 인공 지능을 적용함으로써, 의료진에게 정확도가 높은 분석 결과를 제공하여 환자의 안와 주변에 발생한 병변의 위치 및 종류를 빠르고 정확하게 예측하는 데 도움을 줄 수 있을 것으로 예상되고 있다. 또한, 타깃 의료 영상만으로 안와에 발생한 병변의 위치 및 종료를 예측함으로써, 조직 검사가 불가능한 위치에 발생한 병변의 위치 및 종류를 예측할 수 있다.The orbital and peripheral lesion prediction apparatus 100 and the orbital and peripheral lesion prediction method 900 described in the embodiments of the present invention apply artificial intelligence, particularly deep learning, to enable rapid decision-making of medical staff. can support By applying artificial intelligence to medical images obtained from various imaging devices, it will be possible to provide high-accuracy analysis results to medical staff, helping to quickly and accurately predict the location and type of lesions around the patient's orbit. It is expected. In addition, by predicting the location and termination of the lesion generated in the orbit only with the target medical image, the location and type of the lesion occurring at a location where a biopsy is impossible can be predicted.

전술한 제1 딥 러닝 모델(MDL_1), 제2 딥 러닝 모델(MDL_2), 제3 딥 러닝 모델(MDL_3), 제4 딥 러닝 모델(MDL_4)과 같은 딥 러닝 모델(deep learning model)은 인공 신경망을 다층 레이어로 쌓은 형태의 모델일 수 있다. 즉, 딥 러닝 모델은 다층의 네트워크로 이루어진 심층 신경망(deep neural network)에서 다량의 데이터를 학습시킴으로서 입력값에 대한 특성(feature)을 자동으로 학습하고, 이를 통해 목적 함수, 즉 예측 정확도의 에러를 최소화하도록 네트워크를 학습시켜 나아가는 형태의 모델이다.A deep learning model such as the above-described first deep learning model (MDL_1), second deep learning model (MDL_2), third deep learning model (MDL_3), and fourth deep learning model (MDL_4) is an artificial neural network may be a model in which the . That is, the deep learning model automatically learns features of the input value by learning a large amount of data from a deep neural network consisting of a multi-layered network, and through this, the error in the objective function, that is, the prediction accuracy, is eliminated. It is a type of model that trains the network to minimize it.

딥 러닝 모델은 CNN(Convolutional Neural Network), DHN(Deep Hierachical Network), CDBN(Convolutional Deep Belief Network), DDN(Deconvolutional Deep Network), RNN(Recurrent Neural Network), GAN(Generative Adversarial Network) 등일 수 있으며, 본 발명은 이에 제한되지 않고 현재 또는 장래에 사용될 수 있는 다양한 딥 러닝 모델을 이용할 수 있다.The deep learning model may be a Convolutional Neural Network (CNN), Deep Hierachical Network (DHN), Convolutional Deep Belief Network (CDBN), Deconvolutional Deep Network (DDN), Recurrent Neural Network (RNN), Generative Adversarial Network (GAN), etc. The present invention is not limited thereto, and various deep learning models that can be used now or in the future can be used.

딥 러닝 모델은 딥 러닝 프레임워크를 통해 구현될 수 있다. 딥 러닝 프레임워크는 딥 러닝 모델을 개발할 때 공통적으로 사용되는 기능들을 라이브러리 형태로 제공하고, 시스템 소프트웨어나 하드웨어 플랫폼을 잘 사용할 수 있도록 지원하는 역할을 한다. 본 실시예에서 딥 러닝 모델은 현재 공개되었거나 장래 공개될 어떠한 딥 러닝 프레임워크를 이용하여 구현될 수 있다.Deep learning models can be implemented through deep learning frameworks. The deep learning framework provides functions commonly used when developing a deep learning model in the form of a library and plays a role in supporting the good use of system software or hardware platforms. In this embodiment, the deep learning model may be implemented using any deep learning framework that is currently published or will be published in the future.

전술한 안와 및 안와주변 병변 예측 장치(100)는, 프로세서, 메모리, 사용자 입력장치, 프레젠테이션 장치 중 적어도 일부를 포함하는 컴퓨팅 장치에 의해 구현될 수 있다. 메모리는, 프로세서에 의해 실행되면 특정 태스크를 수행할 있도록 코딩되어 있는 컴퓨터-판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션(instructions), 및/또는 데이터 등을 저장하는 매체이다. 프로세서는 메모리에 저장되어 있는 컴퓨터-판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션, 및/또는 데이터 등을 판독하여 실행할 수 있다. 사용자 입력장치는 사용자로 하여금 프로세서에게 특정 태스크를 실행하도록 하는 명령을 입력하거나 특정 태스크의 실행에 필요한 데이터를 입력하도록 하는 수단일 수 있다. 사용자 입력장치는 물리적인 또는 가상적인 키보드나 키패드, 키버튼, 마우스, 조이스틱, 트랙볼, 터치-민감형 입력수단, 또는 마이크로폰 등을 포함할 수 있다. 프레젠테이션 장치는 디스플레이, 프린터, 스피커, 또는 진동장치 등을 포함할 수 있다.The orbital and peripheral orbital lesion prediction apparatus 100 may be implemented by a computing device including at least some of a processor, a memory, a user input device, and a presentation device. A memory is a medium that stores computer-readable software, applications, program modules, routines, instructions, and/or data, etc. coded to perform specific tasks when executed by a processor. The processor may read and execute computer-readable software, applications, program modules, routines, instructions, and/or data stored in the memory and/or the like. The user input device may be a means for allowing the user to input a command to the processor to execute a specific task or to input data required for the execution of the specific task. The user input device may include a physical or virtual keyboard or keypad, key button, mouse, joystick, trackball, touch-sensitive input means, or a microphone. The presentation device may include a display, a printer, a speaker, or a vibrator.

컴퓨팅 장치는 스마트폰, 태블릿, 랩탑, 데스크탑, 서버, 클라이언트 등의 다양한 장치를 포함할 수 있다. 컴퓨팅 장치는 하나의 단일한 스탠드-얼론 장치일 수도 있고, 통신망을 통해 서로 협력하는 다수의 컴퓨팅 장치들로 이루어진 분산형 환경에서 동작하는 다수의 컴퓨팅 장치를 포함할 수 있다.Computing devices may include various devices such as smartphones, tablets, laptops, desktops, servers, clients, and the like. The computing device may be a single stand-alone device, or may include a plurality of computing devices operating in a distributed environment comprising a plurality of computing devices cooperating with each other through a communication network.

또한 전술한 안와 및 안와주변 병변 예측 방법은, 프로세서를 구비하고, 또한 프로세서에 의해 실행되면 딥 러닝 모델을 활용한 영상 진단 방법을 수행할 수 있도록 코딩된 컴퓨터 판독가능 소프트웨어, 애플리케이션, 프로그램 모듈, 루틴, 인스트럭션, 및/또는 데이터 구조 등을 저장한 메모리를 구비하는 컴퓨팅 장치에 의해 실행될 수 있다.In addition, the above-described orbital and peripheral lesion prediction method includes a processor, and when executed by the processor, computer-readable software, applications, program modules, routines coded to perform an imaging method using a deep learning model , instructions, and/or data structures may be executed by a computing device having a memory.

상술한 본 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described embodiments may be implemented through various means. For example, the present embodiments may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 실시예들에 따른 딥 러닝 모델을 활용한 영상 진단 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러 또는 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the image diagnosis method using the deep learning model according to the present embodiments includes one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), It may be implemented by Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers or microprocessors, and the like.

예를 들어 실시예들에 따른 안와 및 안와주변 병변 예측 방법은 심층 신경망의 뉴런(neuron)과 시냅스(synapse)가 반도체 소자들로 구현된 인공지능 반도체 장치를 이용하여 구현될 수 있다. 이때 반도체 소자는 현재 사용하는 반도체 소자들, 예를 들어 SRAM이나 DRAM, NAND 등일 수도 있고, 차세대 반도체 소자들, RRAM이나 STT MRAM, PRAM 등일 수도 있고, 이들의 조합일 수도 있다.For example, the orbital and orbital lesion prediction method according to the embodiments may be implemented using an artificial intelligence semiconductor device in which neurons and synapses of a deep neural network are implemented with semiconductor elements. In this case, the semiconductor device may be currently used semiconductor devices, for example, SRAM, DRAM, NAND, or the like, or may be next-generation semiconductor devices, RRAM, STT MRAM, PRAM, or the like, or a combination thereof.

실시예들에 따른 안와 및 안와주변 병변 예측 방법을 인공지능 반도체 장치를 이용하여 구현할 때, 딥 러닝 모델을 소프트웨어로 학습한 결과(가중치)를 어레이로 배치된 시냅스 모방소자에 전사하거나 인공지능 반도체 장치에서 학습을 진행할 수도 있다.When the orbital and peripheral lesion prediction method according to the embodiments is implemented using an artificial intelligence semiconductor device, the result (weight) of learning the deep learning model with software is transferred to a synaptic mimic device arranged in an array, or an artificial intelligence semiconductor device You can also proceed with learning.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 실시예들에 따른 안와 및 안와주변 병변 예측 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 장치, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the orbital and periorbital lesion prediction method according to the present embodiments may be implemented in the form of an apparatus, procedure, or function that performs the functions or operations described above. The software code may be stored in the memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various known means.

또한, 위에서 설명한 "시스템", "프로세서", "컨트롤러", "컴포넌트", "모듈", "인터페이스", "모델", 또는 "유닛" 등의 용어는 일반적으로 컴퓨터 관련 엔티티 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어 또는 실행 중인 소프트웨어를 의미할 수 있다. 예를 들어, 전술한 구성요소는 프로세서에 의해서 구동되는 프로세스, 프로세서, 컨트롤러, 제어 프로세서, 개체, 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만 이에 국한되지 않는다. 예를 들어, 컨트롤러 또는 프로세서에서 실행 중인 애플리케이션과 컨트롤러 또는 프로세서가 모두 구성 요소가 될 수 있다. 하나 이상의 구성 요소가 프로세스 및/또는 실행 스레드 내에 있을 수 있으며, 구성 요소들은 하나의 장치(예: 시스템, 컴퓨팅 디바이스 등)에 위치하거나 둘 이상의 장치에 분산되어 위치할 수 있다.Also, as described above, terms such as "system", "processor", "controller", "component", "module", "interface", "model", or "unit" generally refer to computer-related entities hardware, hardware and software. may mean a combination of, software, or running software. For example, the aforementioned component may be, but is not limited to being, a process run by a processor, a processor, a controller, a controlling processor, an object, a thread of execution, a program, and/or a computer. For example, both an application running on a controller or processor and a controller or processor can be a component. One or more components may reside within a process and/or thread of execution, and the components may be located on one device (eg, a system, computing device, etc.) or distributed across two or more devices.

한편, 또 다른 실시예는 전술한 안와 및 안와주변 병변 예측 방법을 수행하는, 컴퓨터 기록매체에 저장되는 컴퓨터 프로그램을 제공한다. 또한 또 다른 실시예는 전술한 안와 및 안와주변 병변 예측 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다. On the other hand, another embodiment provides a computer program stored in a computer recording medium for performing the above-described method for predicting orbital and peripheral lesions. In addition, another embodiment provides a computer-readable recording medium in which a program for realizing the above-described orbital and peripheral lesion prediction method is recorded.

기록매체에 기록된 프로그램은 컴퓨터에서 읽히어 설치되고 실행됨으로써 전술한 단계들을 실행할 수 있다.The program recorded on the recording medium can be read by a computer, installed, and executed to execute the above-described steps.

이와 같이, 컴퓨터가 기록매체에 기록된 프로그램을 읽어 들여 프로그램으로 구현된 기능들을 실행시키기 위하여, 전술한 프로그램은 컴퓨터의 프로세서(CPU)가 컴퓨터의 장치 인터페이스(Interface)를 통해 읽힐 수 있는 C, C++, JAVA, python, R, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다.In this way, in order for the computer to read the program recorded on the recording medium and execute the functions implemented as the program, the above-described program is C, C++ that the computer's processor (CPU) can read through the computer's device interface (Interface). , JAVA, python, R, may include code coded in a computer language such as machine language.

이러한 코드는 전술한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Function Code)를 포함할 수 있고, 전술한 기능들을 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수도 있다.Such code may include a function code related to a function defining the above-mentioned functions, etc., and may include an execution procedure related control code necessary for the processor of the computer to execute the above-mentioned functions according to a predetermined procedure.

또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다.In addition, this code may further include additional information necessary for the processor of the computer to execute the above functions or code related to memory reference for which location (address address) in the internal or external memory of the computer should be referenced. .

또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 컴퓨터의 프로세서가 컴퓨터의 통신 모듈을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야만 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수도 있다.In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the functions described above, the code can be executed by the processor of the computer using the communication module of the computer. It may further include a communication-related code for how to communicate with other computers or servers, and what information or media to transmit and receive during communication.

이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함할 수 있다.The computer-readable recording medium in which the program as described above is recorded is, for example, ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage device, etc., and also carrier wave (eg, , transmission over the Internet) may be implemented in the form of.

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner.

그리고, 본 발명을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 시스템 환경 등을 고려하여, 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.And, in consideration of the system environment of a computer that reads a recording medium and executes a program by reading a recording medium, a functional program and related codes and code segments for implementing the present invention, programmers in the technical field to which the present invention belongs may be easily inferred or changed by

도 10를 통해 설명된 안와 및 안와주변 병변 예측 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.The orbital and peripheral orbital lesion prediction method described with reference to FIG. 10 may also be implemented in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include any computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 안와 및 안와주변 병변 예측 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있다)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 안와 및 안와주변 병변 예측 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The orbital and peripheral lesion prediction method described above may be executed by an application basically installed in the terminal (which may include a program included in a platform or operating system basically mounted in the terminal), and the user may use an application store server, It may be executed by an application (ie, a program) installed directly on the master terminal through an application providing server such as an application or a web server related to the corresponding service. In this sense, the above-described orbital and orbital lesion prediction method is implemented as an application (ie, program) installed by default in the terminal or directly installed by the user, and may be recorded in a computer-readable recording medium such as a terminal. .

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (21)

환자의 두개골을 촬영한 타깃 의료 영상을 입력받는 입력부;
상기 타깃 의료 영상을 제1 딥 러닝 모델에 입력하여 상기 환자의 안와 구조물에 대한 분류 결과를 생성하는 구조물 분류부;
상기 분류 결과를 제2 딥 러닝 모델에 입력하여 상기 안와 구조물에 병변이 발생했는지 여부에 대한 추정 결과를 생성하는 추정부;
상기 추정 결과에 따라, 상기 분류 결과를 제3 딥 러닝 모델에 입력하여 상기 안와 구조물에 발생한 병변의 위치 및 종류에 대한 예측 결과를 생성하는 병변 예측부;
상기 추정 결과 및 예측 결과를 출력하는 출력부; 및
샘플 의료 영상, 상기 샘플 의료 영상에 대응하는 조직 검사 정보 및 상기 샘플 의료 영상 및 조직 검사 정보를 기초로 생성된 합성 의료 영상 중 하나 이상을 기초로 하여 상기 제1 딥 러닝 모델, 제2 딥 러닝 모델 및 제3 딥 러닝 모델을 학습하는 모델 학습부를 포함하는 안와 및 안와주변 병변 예측 장치.
an input unit for receiving a target medical image obtained by photographing a patient's skull;
a structure classification unit that inputs the target medical image to a first deep learning model and generates a classification result for the orbital structure of the patient;
an estimator for inputting the classification result into a second deep learning model to generate an estimation result as to whether a lesion has occurred in the orbital structure;
a lesion predictor configured to input the classification result into a third deep learning model according to the estimation result and generate a prediction result for a location and type of a lesion occurring in the orbital structure;
an output unit for outputting the estimation result and the prediction result; and
The first deep learning model and the second deep learning model based on at least one of a sample medical image, biopsy information corresponding to the sample medical image, and a synthetic medical image generated based on the sample medical image and the biopsy information And orbital and peripheral lesion prediction device comprising a model learning unit for learning the third deep learning model.
제1항에 있어서,
상기 타깃 의료 영상은 CT 영상 또는 MRI 영상인 안와 및 안와주변 병변 예측 장치.
According to claim 1,
The target medical image is a CT image or an MRI image, and an orbital and peripheral lesion prediction device.
제1항에 있어서,
상기 안와 구조물은 안와벽(orbital walls), 안와벽의 구멍(fissures, canals), 안와골막(periorbita), 시신경(optic nerve), 외안근(extraocular muscle), 안와지방(orbital fat), 신경(nerve), 혈관(vasculature), 찐씨공통힘줄고리(annulus of Zinn), 안구내 조직(intraorbital tissue), 수정체(crystalline lens), 각막 정점(corneal apex), 안와 정점(orbit apex), 눈물샘(lacrimal gland), 유리체(vitreous) 또는 비강 및 부비동(nasal and paranasal sinus)인 안와 및 안와주변 병변 예측 장치.
According to claim 1,
The orbital structures include orbital walls, fissures, canals, orbital periorbita, optic nerve, extraocular muscle, orbital fat, nerve. , vasculature, annulus of Zinn, intraorbital tissue, crystalline lens, corneal apex, orbit apex, lacrimal gland, A device for predicting orbital and periorbital lesions that are vitreous or nasal and paranasal sinus.
제1항에 있어서,
상기 안와 구조물에 발생한 병변은 골절, 염증 또는 종양인 안와 및 안와주변 병변 예측 장치.
According to claim 1,
The lesion occurring in the orbital structure is an orbital and peripheral lesion prediction device that is a fracture, inflammation, or tumor.
제1항에 있어서,
상기 샘플 의료 영상 및 상기 조직 검사 정보를 기초로 상기 제1 딥 러닝 모델, 제2 딥 러닝 모델 및 제3 딥 러닝 모델을 학습하기 위한 전처리 데이터를 생성하는 전처리부를 추가로 포함하는 안와 및 안와주변 병변 예측 장치.
According to claim 1,
Orbital and peripheral lesions further comprising a preprocessor for generating preprocessing data for learning the first deep learning model, the second deep learning model, and the third deep learning model based on the sample medical image and the biopsy information prediction device.
제5항에 있어서,
상기 전처리부는,
상기 샘플 의료 영상에 안와 주변의 구조물에 대한 마스킹 정보를 추가한 마스킹 데이터를 상기 전처리 데이터에 추가하는 안와 및 안와주변 병변 예측 장치.
6. The method of claim 5,
The preprocessor is
An orbital and periorbital lesion prediction apparatus for adding masking data obtained by adding masking information on structures around the orbit to the sample medical image to the pre-processing data.
제5항에 있어서,
상기 전처리부는,
상기 조직 검사 정보를 설정된 매핑 테이블을 기초로 인코딩한 인코딩 데이터를 상기 전처리 데이터에 추가하는 안와 및 안와주변 병변 예측 장치.
6. The method of claim 5,
The preprocessor is
An orbital and peripheral lesion prediction apparatus for adding encoding data encoded based on the mapping table setting the biopsy information to the pre-processing data.
제5항에 있어서,
상기 전처리 데이터를 기초로 상기 합성 의료 영상을 생성하는 합성 의료 영상 생성부를 추가로 포함하는 안와 및 안와주변 병변 예측 장치.
6. The method of claim 5,
The orbital and peripheral lesion prediction apparatus further comprising a synthetic medical image generator generating the synthetic medical image based on the pre-processing data.
제8항에 있어서,
상기 합성 의료 영상 생성부는,
상기 샘플 의료 영상 중 병변이 미발생한 안와 구조물이 촬영된 샘플 의료 영상의 개수 대비 병변이 발생한 안와 구조물이 촬영된 샘플 의료 영상의 개수의 비율이 설정된 임계 비율 이하일 때, 상기 합성 의료 영상을 생성하는 안와 및 안와주변 병변 예측 장치.
9. The method of claim 8,
The synthetic medical image generation unit,
orbit generating the synthetic medical image when a ratio of the number of sample medical images in which lesioned orbital structures are photographed to the number of sample medical images in which lesioned orbital structures are photographed in the sample medical images is less than or equal to a set threshold ratio and a device for predicting periorbital lesions.
제9항에 있어서,
상기 합성 의료 영상 생성부는,
상기 전처리 데이터를 제4 딥 러닝 모델에 입력하여 상기 합성 의료 영상을 생성하는 안와 및 안와주변 병변 예측 장치.
10. The method of claim 9,
The synthetic medical image generation unit,
An orbital and peripheral lesion prediction apparatus for generating the synthetic medical image by inputting the pre-processing data into a fourth deep learning model.
환자의 두개골을 촬영한 타깃 의료 영상을 입력받는 입력 단계;
상기 타깃 의료 영상을 제1 딥 러닝 모델에 입력하여 상기 환자의 안와 구조물에 대한 분류 결과를 생성하는 구조물 분류 단계;
상기 분류 결과를 제2 딥 러닝 모델에 입력하여 상기 안와 구조물에 병변이 발생했는지 여부에 대한 추정 결과를 생성하는 추정 단계;
상기 추정 결과에 따라, 상기 분류 결과를 제3 딥 러닝 모델에 입력하여 상기 안와 구조물에 발생한 병변의 위치 및 종류에 대한 예측 결과를 생성하는 병변 예측 단계; 및
상기 추정 결과 및 예측 결과를 출력하는 출력 단계를 포함하고,
상기 제1 딥 러닝 모델, 제2 딥 러닝 모델 및 제3 딥 러닝 모델은 샘플 의료 영상, 상기 샘플 의료 영상에 대응하는 조직 검사 정보 및 상기 샘플 의료 영상 및 조직 검사 정보를 기초로 생성된 합성 의료 영상 중 하나 이상을 기초로 하여 학습되는 안와 및 안와주변 병변 예측 방법.
an input step of receiving a target medical image of a patient's skull;
a structure classification step of generating a classification result for the orbital structure of the patient by inputting the target medical image into a first deep learning model;
an estimation step of inputting the classification result into a second deep learning model to generate an estimation result as to whether a lesion has occurred in the orbital structure;
a lesion prediction step of inputting the classification result into a third deep learning model according to the estimation result to generate a prediction result for the location and type of the lesion occurring in the orbital structure; and
An output step of outputting the estimation result and the prediction result,
The first deep learning model, the second deep learning model, and the third deep learning model may include a sample medical image, biopsy information corresponding to the sample medical image, and a synthetic medical image generated based on the sample medical image and biopsy information. An orbital and periorbital lesion prediction method that is learned based on one or more of.
제11항에 있어서,
상기 타깃 의료 영상은 CT 영상 또는 MRI 영상인 안와 및 안와주변 병변 예측 방법.
12. The method of claim 11,
The target medical image is a CT image or an MRI image, and the orbital and peripheral lesion prediction method.
제11항에 있어서,
상기 안와 구조물은 안와벽(orbital walls), 안와벽의 구멍(fissures, canals), 안와골막(periorbita), 시신경(optic nerve), 외안근(extraocular muscle), 안와지방(orbital fat), 신경(nerve), 혈관(vasculature), 찐씨공통힘줄고리(annulus of Zinn), 안구내 조직(intraorbital tissue), 수정체(crystalline lens), 각막 정점(corneal apex), 안와 정점(orbit apex), 눈물샘(lacrimal gland), 유리체(vitreous) 또는 비강 및 부비동(nasal and paranasal sinus)인 안와 및 안와주변 병변 예측 방법.
12. The method of claim 11,
The orbital structures include orbital walls, fissures, canals, orbital periorbita, optic nerve, extraocular muscle, orbital fat, nerve. , vasculature, annulus of Zinn, intraorbital tissue, crystalline lens, corneal apex, orbit apex, lacrimal gland, A method for predicting orbital and periorbital lesions that are vitreous or nasal and paranasal sinus.
제11항에 있어서,
상기 안와 구조물에 발생한 병변은 골절, 염증 또는 종양인 안와 및 안와주변 병변 예측 방법.
12. The method of claim 11,
The lesion occurring in the orbital structure is a fracture, inflammation, or tumor in the orbit and surrounding orbital lesion prediction method.
제11항에 있어서,
상기 제1 딥 러닝 모델, 제2 딥 러닝 모델 및 제3 딥 러닝 모델을 학습하기 위한 전처리 데이터는 상기 샘플 의료 영상 및 상기 조직 검사 정보를 기초로 생성되는 안와 및 안와주변 병변 예측 방법.
12. The method of claim 11,
Pre-processing data for learning the first deep learning model, the second deep learning model, and the third deep learning model is an orbital and peripheral lesion prediction method that is generated based on the sample medical image and the biopsy information.
제15항에 있어서,
상기 전처리 데이터는,
상기 샘플 의료 영상에 안와 주변의 구조물에 대한 마스킹 정보가 추가된 마스킹 데이터를 포함하는 안와 및 안와주변 병변 예측 방법.
16. The method of claim 15,
The preprocessed data is
The orbital and orbital lesion prediction method including masking data in which masking information on structures around the orbit is added to the sample medical image.
제15항에 있어서,
상기 전처리 데이터는,
상기 조직 검사 정보를 설정된 매핑 테이블을 기초로 인코딩하여 생성된 인코딩 데이터를 포함하는 안와 및 안와주변 병변 예측 방법.
16. The method of claim 15,
The preprocessed data is
An orbital and peripheral lesion prediction method comprising encoding data generated by encoding the biopsy information based on a set mapping table.
제15항에 있어서,
상기 합성 의료 영상은 상기 전처리 데이터를 기초로 생성되는 안와 및 안와주변 병변 예측 방법.
16. The method of claim 15,
The synthetic medical image is an orbital and periorbital lesion prediction method that is generated based on the pre-processing data.
제18항에 있어서,
상기 샘플 의료 영상 중 병변이 미발생한 안와 구조물이 촬영된 샘플 의료 영상의 개수 대비 병변이 발생한 안와 구조물이 촬영된 샘플 의료 영상의 개수의 비율이 설정된 임계 비율 이하일 때, 상기 합성 의료 영상이 생성되는 안와 및 안와주변 병변 예측 방법.
19. The method of claim 18,
When the ratio of the number of sample medical images in which lesion-occurring orbital structures are photographed to the number of sample medical images in which lesion-free orbital structures are photographed in the sample medical images is less than or equal to a set threshold ratio, the orbit in which the synthetic medical images are generated and a method for predicting periorbital lesions.
제19항에 있어서,
상기 합성 의료 영상은,
상기 전처리 데이터를 제4 딥 러닝 모델에 입력하여 생성되는 안와 및 안와주변 병변 예측 방법.
20. The method of claim 19,
The synthetic medical image is
An orbital and peripheral lesion prediction method generated by inputting the pre-processing data into a fourth deep learning model.
제11항 내지 제20항 중 어느 한 항의 안와 및 안와주변 병변 예측 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.

A computer-readable recording medium in which a program for implementing the method for predicting orbital and orbital lesions according to any one of claims 11 to 20 is recorded.

KR1020200057078A 2020-05-13 2020-05-13 Method and apparatuses to predict orbital and periorbital lesions KR102412047B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200057078A KR102412047B1 (en) 2020-05-13 2020-05-13 Method and apparatuses to predict orbital and periorbital lesions
PCT/KR2021/005285 WO2021230534A1 (en) 2020-05-13 2021-04-27 Orbital and periorbital lesion prediction apparatus and prediction method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200057078A KR102412047B1 (en) 2020-05-13 2020-05-13 Method and apparatuses to predict orbital and periorbital lesions

Publications (2)

Publication Number Publication Date
KR20210140836A true KR20210140836A (en) 2021-11-23
KR102412047B1 KR102412047B1 (en) 2022-06-23

Family

ID=78525186

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200057078A KR102412047B1 (en) 2020-05-13 2020-05-13 Method and apparatuses to predict orbital and periorbital lesions

Country Status (2)

Country Link
KR (1) KR102412047B1 (en)
WO (1) WO2021230534A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102615323B1 (en) * 2023-05-10 2023-12-19 서울대학교산학협력단 System for automatic segmentation for maxillary sinus and lesion, method for operation thereof and method for artificial intelligent training of automatic segmentation model

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114334167A (en) * 2021-12-31 2022-04-12 医渡云(北京)技术有限公司 Medical data mining method and device, storage medium and electronic equipment
CN114617533B (en) * 2022-05-13 2022-08-16 成都尚医信息科技有限公司 Nutrition condition determination system based on three-dimensional reconstruction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180045551A (en) * 2016-10-26 2018-05-04 고려대학교 산학협력단 System and system for diagnosis of oral lesion
KR20180061888A (en) * 2016-11-30 2018-06-08 한국과학기술연구원 Method for generating surgery plan for orbital wall reconstruction, surgery plan server performing the same, and storage medium storing the same
KR20190103937A (en) * 2018-02-28 2019-09-05 이화여자대학교 산학협력단 Method and apparatus for reading lesion from capsule endoscopic image using neural network
JP2019153086A (en) * 2018-03-02 2019-09-12 富士フイルム株式会社 Learning data creation assisting device, learning data creation assisting method, and learning data creation assisting program
KR20190132832A (en) * 2018-05-21 2019-11-29 고려대학교 산학협력단 Method and apparatus for predicting amyloid positive or negative based on deep learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180045551A (en) * 2016-10-26 2018-05-04 고려대학교 산학협력단 System and system for diagnosis of oral lesion
KR20180061888A (en) * 2016-11-30 2018-06-08 한국과학기술연구원 Method for generating surgery plan for orbital wall reconstruction, surgery plan server performing the same, and storage medium storing the same
KR20190103937A (en) * 2018-02-28 2019-09-05 이화여자대학교 산학협력단 Method and apparatus for reading lesion from capsule endoscopic image using neural network
JP2019153086A (en) * 2018-03-02 2019-09-12 富士フイルム株式会社 Learning data creation assisting device, learning data creation assisting method, and learning data creation assisting program
KR20190132832A (en) * 2018-05-21 2019-11-29 고려대학교 산학협력단 Method and apparatus for predicting amyloid positive or negative based on deep learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102615323B1 (en) * 2023-05-10 2023-12-19 서울대학교산학협력단 System for automatic segmentation for maxillary sinus and lesion, method for operation thereof and method for artificial intelligent training of automatic segmentation model

Also Published As

Publication number Publication date
WO2021230534A1 (en) 2021-11-18
KR102412047B1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
Tan et al. Breast cancer detection using convolutional neural networks for mammogram imaging system
US11961620B2 (en) Method and apparatus for determining health status
KR102412047B1 (en) Method and apparatuses to predict orbital and periorbital lesions
JP7039153B2 (en) Image enhancement using a hostile generation network
US10762398B2 (en) Modality-agnostic method for medical image representation
JP2021522886A (en) Radiation therapy planning modeling using a hostile generation network
US20190088359A1 (en) System and Method for Automated Analysis in Medical Imaging Applications
EP3661597A1 (en) 3d deep planning radiotherapy system and method
KR102132375B1 (en) Deep learning model based image diagnosis apparatus and method thereof
EP3850638B1 (en) Processing fundus camera images using machine learning models trained using other modalities
Topaloglu Deep learning based convolutional neural network structured new image classification approach for eye disease identification
US20230108319A1 (en) Explanation of machine-learned models using image translation
KR101948701B1 (en) Method for determining brain disorder of subject based on latent variables which describe brain structure thereof and apparatus using the same
US20210335457A1 (en) Mapping a patient to clinical trials for patient specific clinical decision support
US20210343049A1 (en) Composite Imagery Rendering in Diminished Reality Environment for Medical Diagnosis
CN116171476A (en) Landmark detection in medical images
JP7362754B2 (en) Image diagnosis support device, operation method of the image diagnosis support device, and operation program of the image diagnosis support device
EP3935605A1 (en) Deep reinforcement learning for computer assisted reading and analysis
US20230386022A1 (en) Dynamic multimodal segmentation selection and fusion
Manaf et al. Advancements in Medical Imaging and Diagnostics with Deep Learning Technologies
Alkojak et al. A novel radiological software prototype for automatically detecting the inner ear and classifying normal from malformed anatomy
Bilal et al. DeepSVDNet: A Deep Learning-Based Approach for Detecting and Classifying Vision-Threatening Diabetic Retinopathy in Retinal Fundus Images.
KR20240018186A (en) Method for estimating sinusitis by learning facial image based on machine learning and computing device using the same
KR20230034762A (en) Machine learning training method and apparatus using same
KR20220106582A (en) Method and apparatus for processing pathological tissue image

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)