KR20230097692A - Middle ear disease classification method using video pneumatic otoscopy and analysis apparatus - Google Patents

Middle ear disease classification method using video pneumatic otoscopy and analysis apparatus Download PDF

Info

Publication number
KR20230097692A
KR20230097692A KR1020210187432A KR20210187432A KR20230097692A KR 20230097692 A KR20230097692 A KR 20230097692A KR 1020210187432 A KR1020210187432 A KR 1020210187432A KR 20210187432 A KR20210187432 A KR 20210187432A KR 20230097692 A KR20230097692 A KR 20230097692A
Authority
KR
South Korea
Prior art keywords
image
deep learning
middle ear
learning model
air
Prior art date
Application number
KR1020210187432A
Other languages
Korean (ko)
Inventor
조양선
조백환
박채정
오성제
변하영
Original Assignee
사회복지법인 삼성생명공익재단
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단, 한양대학교 산학협력단 filed Critical 사회복지법인 삼성생명공익재단
Priority to KR1020210187432A priority Critical patent/KR20230097692A/en
Publication of KR20230097692A publication Critical patent/KR20230097692A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/227Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes
    • A61B1/2275Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes with controlled air pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • A61B5/121Audiometering evaluating hearing capacity
    • A61B5/125Audiometering evaluating hearing capacity objective methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Optics & Photonics (AREA)
  • Primary Health Care (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fuzzy Systems (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Otolaryngology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

공기이경검사의 영상을 이용하여 중이 상태를 평가하는 방법은 분석장치가 대상자의 공기이경검사 영상을 입력받는 단계, 상기 분석장치가 상기 영상을 사전에 학습된 딥러닝 모델에 입력하는 단계 및 상기 분석장치가 상기 딥러닝 모델이 출력하는 출력값을 기준으로 상기 대상자의 전도성 난청 여부를 평가하는 단계를 포함한다. 상기 영상은 최대 양압 영상 및 최대 음압 영상을 포함하고, 상기 분석장치는 상기 최대 양압 영상 및 상기 최대 음압 영상을 각각 상기 딥러닝 모델에 입력한다.A method of evaluating the middle ear condition using an air otoscopy image includes receiving an air otoscopy image of a subject by an analysis device, inputting the image to a deep learning model trained in advance by the analysis device, and analyzing the image. Evaluating, by a device, whether or not the subject has conductive hearing loss based on an output value output from the deep learning model. The image includes a maximum positive pressure image and a maximum negative pressure image, and the analysis device inputs the maximum positive pressure image and the maximum negative pressure image to the deep learning model, respectively.

Description

공기이경검사 영상을 이용하여 중이 상태를 평가하는 방법 및 분석장치{MIDDLE EAR DISEASE CLASSIFICATION METHOD USING VIDEO PNEUMATIC OTOSCOPY AND ANALYSIS APPARATUS}Middle ear evaluation method and analysis device using air otoscopy images

이하 설명하는 기술은 공기이경검사 영상을 이용하여 자동으로 중이 상태를 평가하는 기법에 관한 것이다.The technique described below relates to a technique for automatically evaluating the state of the middle ear using an air otoscopy image.

비디오 공기 이경(video pneumatic otoscope)은 난청 증상 등이 있는 이비인후과 환자 등을 대상으로 많이 이용되고 있다. 종래 검사 방법은 전문가인 의료진이 환자의 영상을 보고 현재 상태 및 증상을 검진하는 방법이었다. 한편, 의료 영상 분야에서도 최근 인공 지능 모델을 이용하여 영상을 분석하는 접근이 다양하게 시도되고 있다.A video pneumatic otoscope is widely used for otolaryngology patients with hearing loss and the like. A conventional examination method was a method in which a medical professional, who is an expert, looked at a patient's image and examined the current condition and symptoms. Meanwhile, in the field of medical imaging, various approaches for analyzing images using artificial intelligence models have recently been attempted.

한국공개특허 제10-2013-0110993호Korean Patent Publication No. 10-2013-0110993

이하 설명하는 기술은 비디오 공기 이경 검사로 산출되는 영상을 기계학습모델을 이용하여 대상자의 중이 상태 내지 난청 상태를 평가하는 기법을 제공하고자 한다.The technology to be described below is intended to provide a technique for evaluating the state of the middle ear or hearing loss of a subject using a machine learning model for an image produced by a video air otoscope test.

공기이경검사의 영상을 이용하여 중이 상태를 평가하는 방법은 분석장치가 대상자의 공기이경검사 영상을 입력받는 단계, 상기 분석장치가 상기 영상을 사전에 학습된 딥러닝 모델에 입력하는 단계 및 상기 분석장치가 상기 딥러닝 모델이 출력하는 출력값을 기준으로 상기 대상자의 전도성 난청 여부를 평가하는 단계를 포함한다.A method of evaluating the middle ear condition using an air otoscopy image includes receiving an air otoscopy image of a subject by an analysis device, inputting the image to a deep learning model trained in advance by the analysis device, and analyzing the image. Evaluating, by a device, whether or not the subject has conductive hearing loss based on an output value output from the deep learning model.

공기이경검사의 영상을 이용하여 중이 상태를 평가하는 분석장치는 대상자의 공기이경검사 영상을 입력받는 입력장치, 최대 양압 영상 및 최대 음압 영상을 입력받아 입력된 영상에 대한 중이 상태 정보를 산출하도록 학습된 딥러닝 모델을 저장하는 저장장치 및 상기 영상은 최대 양압 영상 및 최대 음압 영상을 포함하고, 상기 최대 양압 영상 및 상기 최대 음압 영상을 각각 상기 딥러닝 모델에 입력하여 산출되는 출력값을 기준으로 상기 대상자의 전도성 난청 여부를 평가하는 연산장치를 포함한다.The analysis device that evaluates the middle ear condition using the air otoscopy image learns to calculate the middle ear condition information for the input device by receiving the input device that receives the air otoscope image of the subject, the maximum positive pressure image and the maximum negative pressure image. A storage device for storing the deep learning model, and the image includes a maximum positive pressure image and a maximum negative pressure image, and the subject is based on an output value calculated by inputting the maximum positive pressure image and the maximum negative pressure image to the deep learning model, respectively. It includes an arithmetic device that evaluates whether or not there is conductive hearing loss.

이하 설명하는 기술은 이경검사장치로 손쉽게 얻을 수 있는 영상을 이용하여 대상자의 중이 상태에 대한 정확한 평가 결과를 산출한다. 이하 설명하는 기술은 손쉬운 검사 장비를 이용하는 1차 병원에서 진단 보조 수단으로 널리 활용될 수 있다.The technology to be described below calculates an accurate evaluation result for the middle ear state of a subject using an image that can be easily obtained with an otoscopy device. The technology described below can be widely used as a diagnostic aid in primary hospitals using easy-to-use testing equipment.

도 1은 중이 상태를 판별하는 이경검사장치에 대한 예이다.
도 2는 이경검사장치에서 획득한 영상을 이용하여 중이 상태를 평가하는 시스템에 대한 예이다.
도 3은 VPO 영상을 이용하여 중이 상태를 평가하는 모델에 대한 예이다.
도 4는 VPO 영상을 이용하여 중이 상태를 평가하는 모델에 대한 다른 예이다.
도 5는 VPO 영상을 이용하여 중이 상태를 평가하는 모델에 대한 또 다른 예이다.
도 6은 VPO 영상을 이용하여 중이 상태를 평가하는 모델에 대한 또 다른 예이다.
도 7은 중이 상태를 평가하는 모델들에 대한 성능 검증 결과이다.
도 8은 VPO 영상을 이용하여 중이 상태를 평가하는 분석장치에 대한 예이다.
1 is an example of an otoscopy device for determining a middle ear state.
2 is an example of a system for evaluating a middle ear condition using an image obtained from an otoscopy device.
3 is an example of a model for evaluating a middle ear condition using a VPO image.
4 is another example of a model for evaluating a middle ear condition using a VPO image.
5 is another example of a model for evaluating a middle ear condition using a VPO image.
6 is another example of a model for evaluating a middle ear condition using a VPO image.
7 is a performance verification result of models for evaluating middle ear conditions.
8 is an example of an analysis device for evaluating a middle ear condition using a VPO image.

이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technology to be described below can have various changes and various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and it should be understood to include all modifications, equivalents, or substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. may be used to describe various elements, but the elements are not limited by the above terms, and are merely used to distinguish one element from another. used only as For example, without departing from the scope of the technology described below, a first element may be referred to as a second element, and similarly, the second element may be referred to as a first element. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms used in this specification, singular expressions should be understood to include plural expressions unless clearly interpreted differently in context, and terms such as “comprising” refer to the described features, numbers, steps, operations, and components. , parts or combinations thereof, but it should be understood that it does not exclude the possibility of the presence or addition of one or more other features or numbers, step-action components, parts or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to a detailed description of the drawings, it is to be clarified that the classification of components in the present specification is merely a classification for each main function in charge of each component. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .

또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing a method or method of operation, each process constituting the method may occur in a different order from the specified order unless a specific order is clearly described in context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

이하 이경검사장치 내지 분석장치가 일정한 기계학습모델을 이용하여 중이 상태를 평가한다고 설명한다. 이경검사장치는 기본적으로 압력 상태에 따른 고막의 영상을 획득하는 장치이다. 이하 이경검사장치는 비디오 공기 이경검사(video pneumatic otoscopy, VPO)를 수행하는 장치를 의미한다. Hereinafter, it will be described that the otoscopy device or analysis device evaluates the middle ear state using a certain machine learning model. An otoscopy device is basically a device that acquires an image of an eardrum according to a pressure state. Hereinafter, an otoscopy device refers to a device that performs video pneumatic otoscopy (VPO).

VPO는 중이 삼출액뿐만 아니라 고막과 이소골의 동적 움직임을 측정할 수 있다. VPO는 중이 상태(소리 전달)를 평가하는 유용한 방법이다. VPO 영상은 이경검사장치을 통해 획득한 영상이라고 명명한다. VPO 영상은 고막 영역을 포함한다. The VPO can measure the dynamic movement of the tympanic membrane and ossicles as well as middle ear effusion. VPO is a useful method to assess middle ear status (sound transmission). The VPO image is referred to as an image obtained through an otoscope. The VPO image includes the tympanic region.

분석장치는 이경검사장치가 획득한 VPO 영상을 분석하여 중이 상태를 평가하는 장치이다. 분석장치는 이경검사장치에서 획득한 영상을 분석하는 별도의 장치일 수 있다. 경우에 따라서, 분석장치는 이경검사장치의 내부에 실장된 장치일 수도 있다. 따라서, 이하 분석장치가 다양한 압력 상태에 따른 VPO 영상을 분석하여 중이 상태를 평가한다고 가정한다. 분석장치는 데이터 처리가 가능한 다양한 장치로 구현될 수 있다. 예컨대, 분석장치는 PC, 네트워크상의 서버, 스마트 기기, 전용 프로그램이 임베딩된 칩셋 등으로 구현될 수 있다.The analysis device is a device that evaluates the state of the middle ear by analyzing the VPO image acquired by the otoscopy device. The analysis device may be a separate device that analyzes the image acquired by the otoscopy device. In some cases, the analysis device may be a device mounted inside the otoscope inspection device. Therefore, it is assumed that the analysis device evaluates the middle ear condition by analyzing VPO images according to various pressure states. The analysis device may be implemented with various devices capable of processing data. For example, the analysis device may be implemented as a PC, a server on a network, a smart device, a chipset in which a dedicated program is embedded, and the like.

기계 학습 모델은 결정 트리, 랜덤 포레스트(random forest), KNN(K-nearest neighbor), 나이브 베이즈(Naive Bayes), SVM(support vector machine), ANN(artificial neural network) 등이 있다. Machine learning models include decision trees, random forests, K-nearest neighbors (KNNs), Naive Bayes, support vector machines (SVMs), and artificial neural networks (ANNs).

ANN은 생물의 신경망을 모방한 통계학적 학습 알고리즘이다. 다양한 신경망 모델이 연구되고 있다. DNN(deep learning network)은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다. DNN은 다양한 유형의 모델이 연구되었다. 예컨대, CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), RBM(Restricted Boltzmann Machine), DBN(Deep Belief Network), GAN(Generative Adversarial Network), RL(Relation Networks) 등이 있다.ANN is a statistical learning algorithm that mimics biological neural networks. Various neural network models are being studied. A deep learning network (DNN) can model complex non-linear relationships like a general artificial neural network. Various types of DNN models have been studied. For example, there are a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), a Restricted Boltzmann Machine (RBM), a Deep Belief Network (DBN), a Generative Adversarial Network (GAN), and Relation Networks (RL).

도 1은 중이 상태를 판별하는 이경검사장치(100)에 대한 예이다. 도 1의 이경검사장치(100)는 서로 다른 압력이 가해지는 시점의 VPO 영상을 딥러닝 모델로 분석하여 중이 상태를 평가하는 정보를 생성한다.1 is an example of an otoscopy apparatus 100 for determining a middle ear state. The otoscopy apparatus 100 of FIG. 1 analyzes VPO images at the time when different pressures are applied with a deep learning model to generate information for evaluating the state of the middle ear.

이경검사장치(100)는 공기주입부(110), 영상측정부(120), 광조사부(130), 압력조정부(140), 제어부(150) 및 정보처리부(160)를 포함한다. 도 1은 이경검사장치(100)에 대하여 설명이 필요한 구성을 예시한 것으로, 이경검사장치(100)의 기타 기구적 구성은 일반적인 구성들을 포함할 수 있다. The otoscope device 100 includes an air injection unit 110, an image measuring unit 120, a light irradiation unit 130, a pressure adjusting unit 140, a control unit 150, and an information processing unit 160. 1 is an example of a configuration requiring explanation for the otoscopic examination device 100, and other mechanical configurations of the otoscopic examination device 100 may include general configurations.

공기주입부(110)는 이도의 내부에 삽입되는 공기차단부재와 연결되어 이도의 내부로 공기를 주입한다. 공기차단부재는 이도의 내부에 삽입될 수 있도록 이도의 직경과 상응하도록 형성된다. 공기주입부(110)는 공기차단부재과 연통하는 펌프 및펌프와 연통하는 공기주입관을 포함할 수 있다.The air injection unit 110 is connected to an air blocking member inserted into the ear canal to inject air into the ear canal. The air blocking member is formed to correspond to the diameter of the ear canal so that it can be inserted into the ear canal. The air injection unit 110 may include a pump communicating with the air blocking member and an air injection pipe communicating with the pump.

영상측정부(120)는 공기차단부재의 경로로 전달되는 이도 내부의 영상을 측정한다. 또는, 영상측정부(120)는 공기차단부재의 경로와는 별도로 이도 내부의 영상을 측정하도록 구성될 수도 있다. 영상측정부(120)는 일정 경로로 전달되는 영상을 캡쳐하는 영상 센서(CCD)를 포함한다.The image measuring unit 120 measures an image of the inside of the ear canal transmitted through the path of the air blocking member. Alternatively, the image measuring unit 120 may be configured to measure an image inside the ear canal separately from the path of the air blocking member. The image measuring unit 120 includes an image sensor (CCD) that captures an image transmitted through a certain path.

영상측정부(120)는 공기주입부(110)에서 제공되는 공기 주입 상태에 따른 고막의 영상을 획득할 수 있다. 예컨대, 영상측정부(120)는 최대 양압(positive pressure) 영상, 최대 음압(negative pressure) 영상 및 고막에 압력이 가해지지 않은 안정 상태(static)의 영상 중 적어도 하나의 영상을 획득할 수 있다.The image measurement unit 120 may acquire an image of the eardrum according to the air injection state provided by the air injection unit 110 . For example, the image measuring unit 120 may acquire at least one image of a maximum positive pressure image, a maximum negative pressure image, and a static image in which no pressure is applied to the eardrum.

압력조정부(140)는 공기주입부(110)와 연결되어 일정한 압력을 제공하도록 조정한다.The pressure adjusting unit 140 is connected to the air injection unit 110 and adjusts to provide a constant pressure.

광조사부(130)는 공기차단부재와 연결되어 이도 내에 광원을 조사함으로써 이도의 내부를 밝게 함으로써 영상측정부(120)가 식별 가능한 이미지 영상을 획득할 수 있도록 한다.The light irradiation unit 130 is connected to the air blocking member and illuminates the inside of the ear canal by irradiating a light source into the ear canal so that the image measurement unit 120 can acquire an identifiable image.

제어부(150)는 영상측정부(120), 압력조정부(140) 및 광조사부(130)를 제어한다. 제어부(150)는 영상측정부(120)의 동작 및 영상 획득 시점 등을 제어할 수 있다. 제어부(150)는 압력조정부(140)를 제어하여 공기주입부(110)가 일정한 압력의 공기를 제공하게 할 수 있다. 제어부(150)는 광조사부(130)의 동작 및 빛의 세기(조도) 등을 제어할 수 있다. 제어부(150)는 압력조정부(140), 광조사부(130) 및 영상측정부(120)를 제어하여 최대 양압, 최대 음압 및 안정 상태 각각의 상태에서 고막의 영상을 획득하도록 제어할 수 있다.The control unit 150 controls the image measuring unit 120, the pressure adjusting unit 140, and the light irradiation unit 130. The control unit 150 may control the operation of the image measuring unit 120 and the timing of image acquisition. The control unit 150 may control the pressure adjusting unit 140 so that the air injection unit 110 provides air at a constant pressure. The control unit 150 may control the operation of the light irradiation unit 130 and the intensity (illuminance) of light. The control unit 150 may control the pressure adjusting unit 140, the light irradiation unit 130, and the image measurement unit 120 to obtain images of the eardrum in each of the maximum positive pressure, maximum negative pressure, and stable state.

정보처리부(160)는 제어부(150)를 통해 전달되는 압력 상태 정보 및 각각의 압력 상태에 따른 영상을 분석할 수 있다. 정보처리부(160)는 영상을 분석하는 분석장치에 해당한다. 예컨대, 정보처리부(160)는 현재 압력 상태 및 고막의 움직임을 분석하여 중이 상태를 평가할 수 있다. 정보처리부(160)는 딥러닝 모델을 이용하여 다양한 압력 상태에서의 VPO 영상을 분석하여 중이 상태를 평가할 수 있다. The information processing unit 160 may analyze pressure state information transmitted through the control unit 150 and images according to each pressure state. The information processing unit 160 corresponds to an analysis device that analyzes images. For example, the information processing unit 160 may evaluate the middle ear state by analyzing the current pressure state and the movement of the eardrum. The information processing unit 160 may evaluate the state of the middle ear by analyzing VPO images in various pressure states using a deep learning model.

도 1은 정보처리부(160)가 이경검사장치(100) 내에 실장된 형태를 나타낸다. 즉, 정보처리부(160)가 딥러닝 모델 및 프로그램이 임베딩된 칩셋 형태를 갖는 경우이다. 이 경우 사용자(의료진)는 이경검사장치(100)를 통해 직접 평가 결과를 확인하거나, 이경검사장치(100)에 연결된 컴퓨터 장치를 통해 평가 결과를 확인할 수 있다.1 shows a form in which the information processing unit 160 is mounted in the otoscopic examination device 100 . That is, it is a case where the information processing unit 160 has a chipset form in which a deep learning model and a program are embedded. In this case, the user (medical staff) may check the evaluation result directly through the otoscope examination device 100 or check the evaluation result through a computer device connected to the otoscope examination device 100 .

도 2는 이경검사장치에서 획득한 영상을 이용하여 중이 상태를 평가하는 시스템(200)에 대한 예이다. 도 2에서 분석장치(전술한 정보처리부(160)에 해당)는 물리적으로 이경검사장치(210)와 다른 독립된 장치에 해당한다. 도 2에서 분석장치는 컴퓨터 단말(130) 및 서버(140)인 예를 도시하였다.2 is an example of a system 200 for evaluating a middle ear condition using an image acquired by an otoscope. In FIG. 2 , the analysis device (corresponding to the information processing unit 160 described above) corresponds to an independent device physically different from the otoscopic examination device 210 . 2 illustrates an example in which the analysis device is a computer terminal 130 and a server 140 .

이경검사장치(110)는 대상자에 대한 비디오 공기 이경검사(VPO)를 수행한다. 이경검사장치(110)는 압력 상태에 따른 VPO 영상을 획득한다. 이경검사장치(110)는 최대 양압, 최대 음압 및 정상 압력 상태에서의 VPO 영상을 생성할 수 있다. 한편, 압력 상태별 VPO 영상은 EMR(Electronic Medical Record, 120)에 저장될 수 있다.The otoscopy device 110 performs video air otoscopy (VPO) on a subject. The otoscopy device 110 acquires a VPO image according to the pressure state. The otoscopy apparatus 110 may generate VPO images under maximum positive pressure, maximum negative pressure, and normal pressure conditions. Meanwhile, VPO images for each pressure state may be stored in an Electronic Medical Record (EMR) 120.

도 2에서 사용자(A)는 컴퓨터 단말(130)을 이용하여 대상자의 압력 상태별 VPO 영상을 분석하여 중이 상태를 평가할 수 있다. 컴퓨터 단말(130)은 대상자의 압력 상태별 VPO 영상을 사전에 학습된 딥러닝 모델에 입력하여 분석 결과를 산출할 수 있다. 사용자 A는 대상자에 대한 분석 결과를 확인할 수 있다. In FIG. 2 , the user A may use the computer terminal 130 to evaluate the state of the middle ear by analyzing the VPO image for each pressure state of the subject. The computer terminal 130 may calculate an analysis result by inputting the VPO image for each pressure state of the subject to a pre-learned deep learning model. User A may check the analysis result for the subject.

서버(140)는 이경검사장치(110) 또는 EMR(120)로부터 대상자의 압력 상태별 VPO 영상을 수신할 수 있다. 서버(140)는 대상자의 압력 상태별 VPO 영상을 사전에 학습된 딥러닝 모델에 입력하여 분석 결과를 산출할 수 있다. 서버(140)는 분석 결과 사용자 A의 단말에 전송할 수 있다. 사용자 A는 분석 결과 확인할 수 있다. The server 140 may receive VPO images for each pressure state of the subject from the otoscope 110 or the EMR 120 . The server 140 may calculate an analysis result by inputting the VPO image for each pressure state of the subject to a pre-trained deep learning model. The server 140 may transmit the analysis result to the user A's terminal. User A can check the analysis result.

컴퓨터 단말(130) 및/또는 서버(140)는 대상자에 대한 분석 결과(난청 여부)를 EMR(120)에 저장할 수도 있다. The computer terminal 130 and/or the server 140 may store the analysis result (whether or not there is a hearing loss) of the target person in the EMR 120 .

전술한 딥러닝 모델은 VPO로 산출되는 영상을 이용하여 중이 상태를 평가한다. 딥러닝 모델은 중이 상태에 대한 확률값을 산출할 수 있다. 이때 중이 상태는 중이의 소리 전달에 관한 정보로 기도와 골도의 차이(air-bone gap) 여부에 대한 정보일 수 있다. 딥러닝 모델은 기도와 골도의 차이가 일정 임계값 이상인지 여부에 대한 정보를 산출할 수 있다. 즉, 딥러닝 모델은 전도성 난청(conductive hearing loss)인지 여부에 대한 확률을 산출할 수 있다. The above-described deep learning model evaluates the middle ear state using the image produced by the VPO. The deep learning model may calculate a probability value for a middle ear condition. In this case, the middle ear state is information about sound transmission in the middle ear, and may be information about whether or not there is an air-bone gap. The deep learning model may calculate information about whether the difference between the airway and bone conduction is greater than or equal to a predetermined threshold value. That is, the deep learning model may calculate a probability of whether the hearing loss is conductive.

이하 연구자가 딥러닝 모델을 구축한 과정에 대하여 설명한다. 연구자는 CNN 기반의 딥러닝 모델을 이용하였다. 연구자는 Inception-v3, ResNet-50 및 VGG-16를 이용하여 각각 모델을 구성하였다. 딥러닝 모델은 지도학습 기반의 모델로서 학습 데이터가 필요하다.The following describes the process by which the researcher built the deep learning model. The researcher used a CNN-based deep learning model. The researcher constructed each model using Inception-v3, ResNet-50 and VGG-16. Deep learning models are supervised learning-based models and require training data.

연구자가 이용한 학습 데이터에 대하여 설명한다.The learning data used by the researcher will be explained.

전도성 난청은 순음 청력 검사(pure-tone audiometry)에서 0.5kHz, 1kHz, 2kHz 및 4kHz에 대한 평균 기도와 골도의 차이가 0.5dB 이상인 것으로 정의하였다.Conductive hearing loss was defined as an average airway-to-bone difference of 0.5dB or more for 0.5kHz, 1kHz, 2kHz, and 4kHz in pure-tone audiometry.

연구자는 소속 병원에서 2007년부터 2019년까지 18세 이상의 환자를 대상으로 수행된 VPO 검사 및 순음 청력 검사 결과를 이용하였다.The researcher used the results of the VPO test and pure tone audiometry conducted at the affiliated hospital from 2007 to 2019 for patients aged 18 years or older.

학습 데이터는 전도성 난청 환자와 정상인에 대한 VPO 영상을 포함한다. The learning data includes VPO images of conductive hearing loss patients and normal people.

환자 데이터는 전도성 난청 환자의 VPO 영상을 포함한다. 전도성 난청 환자는 이경 검사 또는 절개 검사결과 중이 삼출(middle ear effusion), 추골고정(ossicular fixation), 이경화증(otosclerosis), 중이 종괴(middle ear mass), 선천성 진주종(congenital cholesteatoma), 유착성 중이염(adhesive otitis media)와 같이 질환이 진단된 환자이다. 환자 데이터는 청력 손실을 호소하지만 고막에는 손상이 없는 환자들의 데이터를 사용하였다. 따라서 환자 데이터에서 고막에 천공이 있는 영상을 배제하였다. 또한, 환자 데이터에서 VPO 영상 중 추골 영역이 확인되지 않거나 시각적으로 중이염 정보가 없는 영상은 배제하였다.The patient data includes VPO images of a patient with conductive hearing loss. In patients with conductive hearing loss, as a result of otoscope examination or incision examination, middle ear effusion, ossicular fixation, otosclerosis, middle ear mass, congenital cholesteatoma, and adhesive otitis media were found. A patient diagnosed with a disease such as adhesive otitis media. Patient data were used for patients who complained of hearing loss but had no damage to the eardrum. Therefore, images with eardrum perforation were excluded from the patient data. In addition, among the VPO images in the patient data, images in which the vertebrae were not identified or did not visually indicate otitis media were excluded.

정상인 데이터는 정상 청력을 갖고, 기도와 골도의 차이가 임계값 미만인 대상자의 VPO 영상을 포함한다.Normal person data includes VPO images of a subject with normal hearing and a difference between the airway and bone conduction less than a threshold value.

연구자는 최대 양압 영상 및 최대 음압 영상을 입력데이터로 사용하였다. 고막의 움직임 동작은 양압과 음압이 각각 주어질 때 고막이 본래의 위치로 돌아오는 지점으로 정의할 수 있다. 최대 양압 영상은 최대 양압이 주어져 고막이 가장 안쪽에 위치하는 상태의 영상이고, 최대 음압 영상은 최대 음압이 주어져 고막이 가장 측면(바깥쪽)에 위치하는 상태의 영상이다.The researcher used maximum positive pressure images and maximum negative pressure images as input data. The motion of the eardrum can be defined as a point at which the eardrum returns to its original position when positive and negative pressures are given. The maximum positive pressure image is an image of a state in which the eardrum is positioned at the innermost side given the maximum positive pressure, and the maximum negative pressure image is an image in a state in which the eardrum is positioned at the most lateral (outer) side given the maximum negative pressure.

연구자는 PythonTM 이미지 라이브러리를 사용하여 중요 프레임을 추출하였다. 연구자는 RGB 채널에서 200 pixels/inch의 크기로 영상을 조정하였고, 영상을 일정하게 정규화하였다. 또한, 학습 데이터의 양을 늘리기 위하여 영상 회전 등을 사용하여 학습 데이터를 60배 증강하였다.The researchers extracted important frames using the PythonTM image library. The researcher adjusted the image to a size of 200 pixels/inch in the RGB channel and normalized the image to a constant. In addition, in order to increase the amount of learning data, the learning data was augmented 60 times using image rotation.

연구자는 최대 양압 영상과 최대 음압 영상을 입력데이터로 받는 3가지 유형의 모델을 구축하여 모델을 학습하였다. The researcher built three types of models that receive maximum positive pressure images and maximum negative pressure images as input data and learned the models.

도 3은 VPO 영상을 이용하여 중이 상태를 평가하는 모델에 대한 예이다. 도 3은 최대 양압 영상(pos) 및 최대 음압 영상(neg)을 입력데이터로 이용한다. 도 3의 모델(Model 1)은 입력 영상의 특징을 추출하는 컨볼루션 블록(convolution block)과 추출한 특징을 입력받아 최종적인 분류 결과를 산출하는 전열결계층(fully connected layer, FC)을 포함한다. 도 3의 모델(Model 1)은 최대 양압 영상 및 최대 음압 영상에 대하여 각각 제1 컨볼루션 블록(conv. 1) 및 제2 컨볼루션 블록(conv. 2)을 포함한다. 각 컨볼루션 블록은 복수의 컨볼루션 계층들(convolution layers)을 포함한다. 도 3의 모델(Model 1)은 제1 컨볼루션 블록(conv. 1) 및 제2 컨볼루션 블록(conv. 2)에서 각각 산출하는 특징값을 결합(concatenate)하여 전열결계층(FC)에 입력한다. 전열결계층(FC)은 최종적으로 입력 영상에 대한 전도성 난청 여부에 대한 확률값을 산출한다. 분석장치는 이 확률값과 사전에 결정된 임계값을 비교하여 입력 영상이 전도성 난청이 있는 영상인지 평가할 수 있다. 예컨대, 분석장치는 모델 1의 출력값이 0에 가까우면 정상, 1에 가까우면 전도성 난청이라고 평가할 수 있다.3 is an example of a model for evaluating a middle ear condition using a VPO image. 3 uses a maximum positive pressure image (pos) and a maximum negative pressure image (neg) as input data. The model (Model 1) of FIG. 3 includes a convolution block that extracts features of an input image and a fully connected layer (FC) that receives the extracted features and calculates a final classification result. The model (Model 1) of FIG. 3 includes a first convolution block (conv. 1) and a second convolution block (conv. 2) for the maximum positive pressure image and the maximum negative pressure image, respectively. Each convolution block includes a plurality of convolution layers. The model (Model 1) of FIG. 3 concatenates the feature values calculated in the first convolution block (conv. 1) and the second convolution block (conv. 2), respectively, and inputs them to the heat transfer layer (FC). do. The thermal insulation layer (FC) finally calculates a probability value for whether or not the input image has conductive hearing loss. The analysis device may compare this probability value with a predetermined threshold value to evaluate whether the input image is an image with conductive hearing loss. For example, the analyzer may evaluate that if the output value of model 1 is close to 0, it is normal, and if it is close to 1, it is conductive hearing loss.

도 4는 VPO 영상을 이용하여 중이 상태를 평가하는 모델에 대한 다른 예이다. 도 4는 최대 양압 영상(pos) 및 최대 음압 영상(neg)을 입력데이터로 이용한다. 도 4의 모델(Model 2)은 입력 영상의 특징을 추출하는 컨볼루션 블록과 추출한 특징을 입력받아 최종적인 분류 결과를 산출하는 전열결계층을 포함한다. 도 4의 모델(Model 2)은 최대 양압 영상 및 최대 음압 영상에 대하여 각각 제1 컨볼루션 블록(conv. 1) 및 제2 컨볼루션 블록(conv. 2)을 포함한다. 각 컨볼루션 블록은 복수의 컨볼루션 계층들을 포함한다. 도 4의 모델(Model 2)은 제1 컨볼루션 블록(conv. 1) 및 제2 컨볼루션 블록(conv. 2)에서 각각 산출하는 특징값을 합산(sum)하거나 하나의 값에서 다른 값을 감산(subtract)한 후 전열결계층(FC)에 입력한다. 후술 하겠지만 모델 2에서 특징값을 합산한 모델은 Model 2-sum으로 표시하고, 특징값을 감산한 모델은 Model 2- susbsract으로 표시하여 구분한다. 전열결계층(FC)은 최종적으로 입력 영상에 대한 전도성 난청 여부에 대한 확률값을 산출한다. 분석장치는 이 확률값과 사전에 결정된 임계값을 비교하여 입력 영상이 전도성 난청이 있는 영상인지 평가할 수 있다. 예컨대, 분석장치는 모델 1의 출력값이 0에 가까우면 정상, 1에 가까우면 전도성 난청이라고 평가할 수 있다.4 is another example of a model for evaluating a middle ear condition using a VPO image. 4 uses a maximum positive pressure image (pos) and a maximum negative pressure image (neg) as input data. The model (Model 2) of FIG. 4 includes a convolution block that extracts features of an input image and a full sequence layer that receives the extracted features and calculates a final classification result. The model (Model 2) of FIG. 4 includes a first convolution block (conv. 1) and a second convolution block (conv. 2) for the maximum positive pressure image and the maximum negative pressure image, respectively. Each convolution block includes a plurality of convolution layers. The model (Model 2) of FIG. 4 sums the feature values calculated in the first convolution block (conv. 1) and the second convolution block (conv. 2), or subtracts another value from one value. (subtract) and then input to the electric thermal bonding layer (FC). As will be described later, the model in which the feature values are summed up in Model 2 is displayed as Model 2-sum, and the model in which the feature values are subtracted is displayed as Model 2-susbsract. The thermal insulation layer (FC) finally calculates a probability value for whether or not the input image has conductive hearing loss. The analysis device may compare this probability value with a predetermined threshold value to evaluate whether the input image is an image with conductive hearing loss. For example, the analyzer may evaluate that if the output value of model 1 is close to 0, it is normal, and if it is close to 1, it is conductive hearing loss.

도 5는 VPO 영상을 이용하여 중이 상태를 평가하는 모델에 대한 또 다른 예이다. 도 5는 최대 양압 영상(pos), 최대 음압 영상(neg) 및 잔차 영상(dif)을 입력데이터로 이용한다. 여기서 잔차 영상은 최대 음압 영상과 최대 음압 영상의 차이를 나타내는 영상이다. 5 is another example of a model for evaluating a middle ear condition using a VPO image. 5 uses a maximum positive pressure image (pos), a maximum negative pressure image (neg), and a residual image (dif) as input data. Here, the residual image is an image representing the difference between the maximum sound pressure image and the maximum sound pressure image.

도 5의 모델(Model 3 -sum)은 입력 영상의 특징을 추출하는 컨볼루션 블록과 추출한 특징을 입력받아 최종적인 분류 결과를 산출하는 전열결계층을 포함한다. 도 5의 모델(Model 3 -sum)은 최대 양압 영상, 최대 음압 영상 및 잔차 영상에 대하여 각각 제1 컨볼루션 블록(conv. 1), 제2 컨볼루션 블록(conv. 2) 및 제3 컨볼루션 블록(conv. 3)을 포함한다. 각 컨볼루션 블록은 복수의 컨볼루션 계층들을 포함한다. 도 5의 모델(Model 3 -sum)은 제1 컨볼루션 블록(conv. 1), 제2 컨볼루션 블록(conv. 2) 및 제3 컨볼루션 블록(conv. 3)에서 각각 산출하는 특징값을 합산(sum)한 후 전열결계층(FC)에 입력한다. 전열결계층(FC)은 최종적으로 입력 영상에 대한 전도성 난청 여부에 대한 확률값을 산출한다. 분석장치는 이 확률값과 사전에 결정된 임계값을 비교하여 입력 영상이 전도성 난청이 있는 영상인지 평가할 수 있다. 예컨대, 분석장치는 모델 1의 출력값이 0에 가까우면 정상, 1에 가까우면 전도성 난청이라고 평가할 수 있다.The model (Model 3-sum) of FIG. 5 includes a convolution block that extracts features of an input image and a full sequence layer that receives the extracted features and calculates a final classification result. The model (Model 3-sum) of FIG. 5 is a first convolution block (conv. 1), a second convolution block (conv. 2), and a third convolution block for the maximum positive pressure image, the maximum negative pressure image, and the residual image, respectively. Contains block (conv. 3). Each convolution block includes a plurality of convolution layers. The model (Model 3 -sum) of FIG. 5 shows feature values calculated in the first convolution block (conv. 1), the second convolution block (conv. 2), and the third convolution block (conv. 3), respectively. After summing, it is input to the electric thermal bonding layer (FC). The thermal insulation layer (FC) finally calculates a probability value for whether or not the input image has conductive hearing loss. The analysis device may compare this probability value with a predetermined threshold value to evaluate whether the input image is an image with conductive hearing loss. For example, the analyzer may evaluate that if the output value of model 1 is close to 0, it is normal, and if it is close to 1, it is conductive hearing loss.

도 6은 VPO 영상을 이용하여 중이 상태를 평가하는 모델에 대한 또 다른 예이다. 도 6은 최대 양압 영상(pos), 최대 음압 영상(neg) 및 잔차 영상(dif)을 입력데이터로 이용한다. 여기서 잔차 영상은 최대 음압 영상과 최대 음압 영상의 차이를 나타내는 영상이다. 6 is another example of a model for evaluating a middle ear condition using a VPO image. 6 uses a maximum positive pressure image (pos), a maximum negative pressure image (neg), and a residual image (dif) as input data. Here, the residual image is an image representing the difference between the maximum sound pressure image and the maximum sound pressure image.

도 6의 모델(Model 3 -concatenate)은 입력 영상의 특징을 추출하는 컨볼루션 블록과 추출한 특징을 입력받아 최종적인 분류 결과를 산출하는 전열결계층을 포함한다. 도 6의 모델(Model 3 -concatenate)은 최대 양압 영상, 최대 음압 영상 및 잔차 영상에 대하여 각각 제1 컨볼루션 블록(conv. 1), 제2 컨볼루션 블록(conv. 2) 및 제3 컨볼루션 블록(conv. 3)을 포함한다. 각 컨볼루션 블록은 복수의 컨볼루션 계층들을 포함한다. 도 5의 모델(Model 3 -sum)은 제1 컨볼루션 블록(conv. 1), 제2 컨볼루션 블록(conv. 2) 및 제3 컨볼루션 블록(conv. 3)에서 각각 산출하는 특징값을 결합(concatenate)한 후 전열결계층(FC)에 입력한다. 전열결계층(FC)은 최종적으로 입력 영상에 대한 전도성 난청 여부에 대한 확률값을 산출한다. 분석장치는 이 확률값과 사전에 결정된 임계값을 비교하여 입력 영상이 전도성 난청이 있는 영상인지 평가할 수 있다. 예컨대, 분석장치는 모델 1의 출력값이 0에 가까우면 정상, 1에 가까우면 전도성 난청이라고 평가할 수 있다.The model (Model 3-concatenate) of FIG. 6 includes a convolution block that extracts features of an input image and a full sequence layer that receives the extracted features and calculates a final classification result. The model (Model 3-concatenate) of FIG. 6 is a first convolution block (conv. 1), a second convolution block (conv. 2), and a third convolution block for the maximum positive pressure image, the maximum negative pressure image, and the residual image, respectively. Contains block (conv. 3). Each convolution block includes a plurality of convolution layers. The model (Model 3 -sum) of FIG. 5 shows feature values calculated in the first convolution block (conv. 1), the second convolution block (conv. 2), and the third convolution block (conv. 3), respectively. After concatenating, it is input to the electric heating layer (FC). The thermal insulation layer (FC) finally calculates a probability value for whether or not the input image has conductive hearing loss. The analysis device may compare this probability value with a predetermined threshold value to evaluate whether the input image is an image with conductive hearing loss. For example, the analyzer may evaluate that if the output value of model 1 is close to 0, it is normal, and if it is close to 1, it is conductive hearing loss.

이하 전술한 중이 상태를 평가하는 모델에 대한 성능을 검증한 결과를 설명한다. 성능 검증은 민감도(sensitivity) 및 특이도(specificity)에 대한 ROC(Receiver Operating Characteristic) 커브의 AUC를 기준으로 이용하였다. 연구자는 각 모델의 평가 결과와 이비인후과 경력 8년 이상인 전문 의료인이 임상적으로 평가한 결과를 비교하였다.Hereinafter, the results of verifying the performance of the above-described model for evaluating the middle ear condition will be described. For performance verification, the AUC of the ROC (Receiver Operating Characteristic) curve for sensitivity and specificity was used as a standard. The researcher compared the evaluation results of each model with the results clinically evaluated by a medical professional with more than 8 years of otolaryngology experience.

연구자는 133개의 대상자의 데이터를 대상으로 모델 성능을 검증하였다. 144개 데이터 중 전도성 난청 환자는 57개이고, 정상인은 76개였다. 각 대상자에 대하여 반복적으로 최대 양압과 최대 음압을 주면서 영상을 획득하였다. 즉, 동일 대상자에 대한 다수의 영상들이 존재하였다. 사용된 전체 최대 양압 영상과 최대 음압 영상의 개수는 1,130개였다.The researcher verified the performance of the model with the data of 133 subjects. Among the 144 data, there were 57 conductive hearing loss patients and 76 normal people. Images were obtained while repeatedly applying maximum positive pressure and maximum negative pressure to each subject. That is, there were multiple images of the same subject. The total number of maximum positive pressure images and maximum negative pressure images used was 1,130.

도 7은 중이 상태를 평가하는 모델들에 대한 성능 검증 결과이다. 도 7은 Inception-v3로 구현한 딥러닝 모델의 평가 결과이다. 도 7은 도 3의 모델 1 (Model 1 -concatenate), 도 4의 모델 2 중 특징값을 합산한 모델 (Model 2 - sum), 도 4의 모델 2 중 특징값을 차감한 모델 (Model 2 - subtract), 도 5의 모델 3 (Model 3 - sum) 및 도 6의 모델 3 (Model 3- concatenate)에 대한 결과를 도시한다. 도 7은 10 폴드(fold)에 대한 검증 결과이며 평균값을 기준으로 살펴보면, 특징값을 합산하거나 결합하여 사용한 모델보다 특징값을 차감한 모델이 상대적으로 조금 성능이 높았다. 7 is a performance verification result of models for evaluating middle ear conditions. 7 is an evaluation result of a deep learning model implemented with Inception-v3. 7 is a model obtained by subtracting feature values from model 1 (Model 1-concatenate) of FIG. 3, model 2 of FIG. 4 (Model 2-sum), and model 2 of FIG. subtract), the results for Model 3 (Model 3 - sum) in Fig. 5 and Model 3 (Model 3 - concatenate) in Fig. 6 are shown. 7 is a verification result for 10 folds, and looking at the average value, the performance of the model subtracting the feature value was relatively slightly higher than the model using the feature value summed or combined.

아래 표 1은 전술한 중이 상태 평가 모델과 이비인후과 전문의(otologost)의 평가 결과를 비교한 예이다. 표 1은 동일한 VPO 영상을 이용하여 평가한 결과이다. 전문의 1(otologist 1)이 특이도와 PPV(positive predictive value)가 비교적 높았지만 전체적으로 딥러닝 모델이 전문의의 평가 결과보다 높은 성능을 보였다.Table 1 below is an example of comparison between the above-described middle ear condition evaluation model and an otologost evaluation result. Table 1 shows the evaluation results using the same VPO image. Specialist 1 (otologist 1) had relatively high specificity and PPV (positive predictive value), but overall, the deep learning model showed higher performance than the otologist's evaluation results.

Figure pat00001
Figure pat00001

도 8은 VPO 영상을 이용하여 중이 상태를 평가하는 분석장치에 대한 예이다. 분석장치(300)는 전술한 분석장치(도 1의 160, 도 2의 230 및 240)에 해당한다. 분석장치(300)는 물리적으로 다양한 형태로 구현될 수 있다. 예컨대, 분석장치(300)는 PC와 같은 컴퓨터 장치, 네트워크의 서버, 데이터 처리 전용 칩셋 등의 형태를 가질 수 있다.8 is an example of an analysis device for evaluating a middle ear condition using a VPO image. The analyzer 300 corresponds to the aforementioned analyzer (160 in FIG. 1, 230 and 240 in FIG. 2). The analysis device 300 may be physically implemented in various forms. For example, the analysis device 300 may have a form of a computer device such as a PC, a network server, and a chipset dedicated to data processing.

분석장치(300)는 저장장치(310), 메모리(320), 연산장치(330), 인터페이스 장치(340), 통신장치(350) 및 출력장치(360)를 포함할 수 있다.The analysis device 300 may include a storage device 310, a memory 320, an arithmetic device 330, an interface device 340, a communication device 350, and an output device 360.

저장장치(310)는 이경검사장치에서 생성한 VPO 영상을 저장할 수 있다. 즉, 저장장치(310)는 특정 대상자에 대한 최대 양압 영상 및 최대 음압 영상을 저장할 수 있다. The storage device 310 may store the VPO image generated by the otoscopic examination device. That is, the storage device 310 may store a maximum positive pressure image and a maximum negative pressure image for a specific subject.

저장장치(310)는 VPO 영상을 이용하여 중이 상태를 평가하는 모델을 저장할 수 있다. 저장장치(310)는 도 3 내지 도 6에서 설명한 모델 중 적어도 하나를 저장할 수 있다. 따라서, 이하 분석장치(300)는 도 3 내지 도 6의 구조를 갖는 딥러닝 모델 중 어느 하나를 이용하여 입력 VPO 영상에 대한 평가를 진행한다고 가정한다. 또는, 경우에 따라서 분석장치(300)는 도 3 내지 도 6의 구조를 갖는 딥러닝 모델 중 복수의 모델을 각각 이용하여 입력 VPO 영상에 대한 전도성 난청 여부를 평가하고 복수의 평가 결과를 기준으로 최종 평가를 수행할 수도 있다(일종의 앙상블 모델).The storage device 310 may store a model for evaluating the state of the middle ear using the VPO image. The storage device 310 may store at least one of the models described in FIGS. 3 to 6 . Accordingly, it is assumed that the analysis device 300 evaluates the input VPO image using any one of the deep learning models having the structure of FIGS. 3 to 6 . Alternatively, in some cases, the analysis device 300 evaluates whether the input VPO image has conductive hearing loss by using a plurality of deep learning models having the structure of FIGS. 3 to 6, respectively, and makes a final decision based on the plurality of evaluation results Evaluation can also be performed (a kind of ensemble model).

저장장치(310)는 최종적인 분석 결과(특정 대상자에 대한 전도성 난청 여부)를 저장할 수 있다.The storage device 310 may store the final analysis result (whether or not a specific subject has conductive hearing loss).

메모리(320)는 분석장치(300)가 딥러닝 모델을 이용하여 VPO 영상을 분석하는 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.The memory 320 may store data and information generated in the course of the analysis device 300 analyzing the VPO image using the deep learning model.

인터페이스 장치(340)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(340)는 물리적으로 연결된 입력 장치, 외부 저장장치 또는 이경검사장치로부터 대상자의 VPO 영상(최대 양압 영상 및 최대 음압 영상)을 입력받을 수 있다. 인터페이스 장치(340)는 입력된 VPO 영상을 분석한 결과를 외부 객체에 전달할 수도 있다.The interface device 340 is a device that receives certain commands and data from the outside. The interface device 340 may receive VPO images (maximum positive pressure image and maximum negative pressure image) of the subject from a physically connected input device, an external storage device, or an otoscope. The interface device 340 may transmit a result of analyzing the input VPO image to an external object.

통신장치(350)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신장치(350)는 외부 객체로부터 대상자의 VPO 영상(최대 양압 영상 및 최대 음압 영상)을 수신할 수 있다. 또는 통신장치(350)는 입력된 VPO 영상을 분석한 결과를 사용자 단말과 같은 외부 객체에 송신할 수도 있다.The communication device 350 refers to a component that receives and transmits certain information through a wired or wireless network. The communication device 350 may receive VPO images (maximum positive pressure image and maximum negative pressure image) of the subject from an external object. Alternatively, the communication device 350 may transmit a result of analyzing the input VPO image to an external object such as a user terminal.

인터페이스 장치(340) 및 통신장치(350)는 사용자 또는 다른 물리적 객체로부터 일정한 데이터를 주고받는 구성이므로, 포괄적으로 입출력장치라고도 명명할 수 있다. 대상자의 VPO 영상을 입력받는 기능에 한정하면 인터페이스 장치(340) 및 통신장치(350)는 입력장치라고 할 수도 있다. Since the interface device 340 and the communication device 350 are configured to send and receive certain data from a user or other physical object, they can also be collectively referred to as input/output devices. The interface device 340 and the communication device 350 may also be referred to as input devices if the function of receiving the subject's VPO image is limited.

출력장치(360)는 일정한 정보를 출력하는 장치이다. 출력장치(360)는 데이터 처리 과정에 필요한 인터페이스, 분석 결과 등을 출력할 수 있다. The output device 360 is a device that outputs certain information. The output device 360 may output interfaces and analysis results necessary for data processing.

연산 장치(330)는 저장장치(310)에 저장된 딥러닝 모델 내지 프로그램 코드를 이용하여 대상자의 VPO 영상을 분석할 수 있다.The computing device 330 may analyze the subject's VPO image using the deep learning model or program code stored in the storage device 310 .

연산 장치(330)는 입력된 최대 양압 영상 및 최대 음압 영상을 딥러닝 모델에서 각각의 입력 계층(컨볼루션 블록)에 입력하고, 딥러닝 모델을 통해 확률값(분류 결과)을 산출한다.The calculation device 330 inputs the input maximum positive pressure image and maximum negative pressure image to each input layer (convolution block) in the deep learning model, and calculates a probability value (classification result) through the deep learning model.

연산 장치(330)는 최대 양압 영상 및 최대 음압 영상을 딥러닝 모델(도 3 또는 도 4)에 입력하여 확률값을 산출할 수 있다. 딥러닝 모델이 산출하는 값은 전도성 난청에 대한 확률값일 수 있다. 딥러닝 모델이 산출하는 값은 대상자의 기도와 골도의 차이의 값이 임계값 이상인지에 대한 확률값일 수 있다.The calculation device 330 may calculate a probability value by inputting the maximum positive pressure image and the maximum negative pressure image to the deep learning model (FIG. 3 or 4). A value calculated by the deep learning model may be a probability value for conductive hearing loss. A value calculated by the deep learning model may be a probability value of whether the difference between the airway and bone conduction of the subject is equal to or greater than a threshold value.

연산 장치(330)는 입력되는 최대 양압 영상 및 최대 음압 영상의 잔차 영상을 생성할 수 있다.The arithmetic unit 330 may generate a residual image of the input maximum positive pressure image and maximum negative pressure image.

또한, 연산 장치(330)는 최대 양압 영상, 최대 음압 영상 및 잔차 영상을 딥러닝 모델(도 5 또는 도 6)에 입력하여 확률값을 산출할 수 있다. 딥러닝 모델이 산출하는 값은 전도성 난청에 대한 확률값일 수 있다. 딥러닝 모델이 산출하는 값은 대상자의 기도와 골도의 차이의 값이 임계값 이상인지에 대한 확률값일 수 있다.In addition, the calculation device 330 may calculate a probability value by inputting the maximum positive pressure image, the maximum negative pressure image, and the residual image to the deep learning model (FIG. 5 or 6). A value calculated by the deep learning model may be a probability value for conductive hearing loss. A value calculated by the deep learning model may be a probability value of whether the difference between the airway and bone conduction of the subject is equal to or greater than a threshold value.

연산 장치(330)는 딥러닝 모델이 출력하는 확률값을 기준으로 최종적으로 전도성 난청 여부에 대한 정보를 생성한다. 연산 장치(330)는 산출된 확률값과 사전에 결정된 임계값을 비교하여 입력 영상이 전도성 난청이 있는 영상인지 평가할 수 있다. 예컨대, 연산 장치(330)는 모델의 출력값이 0에 가까우면 정상, 1에 가까우면 전도성 난청이라고 평가할 수 있다.The computing device 330 finally generates information on conductive hearing loss based on the probability value output by the deep learning model. The computing device 330 may compare the calculated probability value with a predetermined threshold value to evaluate whether the input image is an image with conductive hearing loss. For example, the calculation device 330 may evaluate that the output value of the model is normal when the output value is close to 0, and conductive hearing loss when the output value is close to 1.

연산 장치(330)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.The arithmetic device 330 may be a device such as a processor, an AP, or a chip in which a program is embedded that processes data and performs certain arithmetic operations.

또한, 상술한 바와 같은 중이 상태를 평가하는 딥러닝 모델 구축 방법, VPO 영상을 이용하여 중이 상태를 평가 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.In addition, the deep learning model construction method for evaluating the middle ear condition and the method for evaluating the middle ear condition using VPO images as described above may be implemented as a program (or application) including an executable algorithm that can be executed on a computer. The program may be stored and provided in a temporary or non-transitory computer readable medium.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is not a medium that stores data for a short moment, such as a register, cache, or memory, but a medium that stores data semi-permanently and can be read by a device. Specifically, the various applications or programs described above are CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM (read-only memory), PROM (programmable read only memory), EPROM (Erasable PROM, EPROM) Alternatively, it may be stored and provided in a non-transitory readable medium such as EEPROM (Electrically EPROM) or flash memory.

일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.Temporary readable media include static RAM (SRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM), and enhanced SDRAM (Enhanced SDRAM). SDRAM, ESDRAM), Synchronous DRAM (Synclink DRAM, SLDRAM) and Direct Rambus RAM (DRRAM).

본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.This embodiment and the drawings accompanying this specification clearly represent only a part of the technical idea included in the foregoing technology, and those skilled in the art can easily understand it within the scope of the technical idea included in the specification and drawings of the above technology. It will be obvious that all variations and specific examples that can be inferred are included in the scope of the above-described technology.

Claims (10)

분석장치가 대상자의 공기이경검사 영상을 입력받는 단계;
상기 분석장치가 상기 영상을 사전에 학습된 딥러닝 모델에 입력하는 단계; 및
상기 분석장치가 상기 딥러닝 모델이 출력하는 출력값을 기준으로 상기 대상자의 전도성 난청 여부를 평가하는 단계를 포함하되,
상기 영상은 최대 양압 영상 및 최대 음압 영상을 포함하고, 상기 분석장치는 상기 최대 양압 영상 및 상기 최대 음압 영상을 각각 상기 딥러닝 모델에 입력하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 방법.
receiving an air otoscopy image of a subject by an analysis device;
Step of the analysis device inputting the image to a pre-learned deep learning model; and
Evaluating, by the analysis device, whether or not the subject has conductive hearing loss based on an output value output from the deep learning model,
The image includes a maximum positive pressure image and a maximum negative pressure image, and the analysis device evaluates the middle ear state using an image of an air otoscopy inputting the maximum positive pressure image and the maximum negative pressure image to the deep learning model, respectively. .
제1항에 있어서,
상기 딥러닝 모델은 상기 최대 양압 영상 및 상기 최대 음압 영상 각각의 특징값을 결합(concatenation), 합산(sum) 또는 감산(subtraction)한 값을 전연결계층에 입력하여 상기 출력값을 산출하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 방법.
According to claim 1,
The deep learning model is an air otoscope that calculates the output value by inputting a value obtained by concatenating, summing, or subtracting characteristic values of each of the maximum positive pressure image and the maximum negative pressure image to a full connection layer. A method for evaluating the condition of the middle ear using images of.
제1항에 있어서,
상기 분석장치가 상기 최대 양압 영상과 상기 최대 음압 영상의 차이를 나타내는 잔차 영상을 생성하는 단계를 더 포함하고,
상기 분석장치는 상기 잔차 영상을 상기 딥러닝 모델에 더 입력하여 상기 출력값을 산출하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 방법.
According to claim 1,
The analysis device further comprises generating a residual image representing a difference between the maximum positive pressure image and the maximum negative pressure image,
The method of evaluating the state of the middle ear using an air otoscopy image in which the analysis device further inputs the residual image to the deep learning model to calculate the output value.
제3항에 있어서,
상기 딥러닝 모델은 상기 최대 양압 영상, 상기 최대 음압 영상 및 상기 잔차 영상 각각의 특징을 결합(concatenation) 또는 합산(sum)한 값을 전연결계층에 입력하여 상기 출력값을 산출하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 방법.
According to claim 3,
The deep learning model is an air otoscopy image that calculates the output value by inputting a value obtained by concatenating or summing features of each of the maximum positive pressure image, the maximum negative pressure image, and the residual image to a full connection layer. How to evaluate the middle ear condition using.
제1항에 있어서,
상기 딥러닝 모델은 상기 대상자의 기도와 골도의 차이(air-bone gap)의 값이 임계값 이상인지에 대한 확률값을 산출하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 방법.
According to claim 1,
The deep learning model is a method for evaluating the middle ear condition using an image of an air otoscope that calculates a probability value for whether the value of the air-bone gap of the subject is greater than or equal to a threshold value.
대상자의 공기이경검사 영상을 입력받는 입력장치;
최대 양압 영상 및 최대 음압 영상을 입력받아 입력된 영상에 대한 중이 상태 정보를 산출하도록 학습된 딥러닝 모델을 저장하는 저장장치; 및
상기 영상은 최대 양압 영상 및 최대 음압 영상을 포함하고, 상기 최대 양압 영상 및 상기 최대 음압 영상을 각각 상기 딥러닝 모델에 입력하여 산출되는 출력값을 기준으로 상기 대상자의 전도성 난청 여부를 평가하는 연산장치를 포함하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 분석장치.
an input device for receiving an air otoscopy image of a subject;
a storage device for receiving a maximum positive pressure image and a maximum negative pressure image and storing a deep learning model trained to calculate middle ear state information for the input image; and
The image includes a maximum positive pressure image and a maximum negative pressure image, and an arithmetic device for evaluating whether the subject has conductive hearing loss based on an output value calculated by inputting the maximum positive pressure image and the maximum negative pressure image to the deep learning model, respectively An analysis device for evaluating the state of the middle ear using an image of an air otoscopy comprising:
제6항에 있어서,
상기 딥러닝 모델은 상기 최대 양압 영상 및 상기 최대 음압 영상 각각의 특징값을 결합(concatenation), 합산(sum) 또는 감산(subtraction)한 값을 전연결계층에 입력하여 상기 출력값을 산출하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 분석장치.
According to claim 6,
The deep learning model is an air otoscope that calculates the output value by inputting a value obtained by concatenating, summing, or subtracting characteristic values of each of the maximum positive pressure image and the maximum negative pressure image to a full connection layer. An analysis device that evaluates the condition of the middle ear using images of
제6항에 있어서,
상기 연산장치는 상기 최대 양압 영상과 상기 최대 음압 영상의 차이를 나타내는 잔차 영상을 생성하고, 상기 잔차 영상을 상기 딥러닝 모델에 더 입력하여 상기 출력값을 산출하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 분석장치.
According to claim 6,
The operation device generates a residual image representing a difference between the maximum positive pressure image and the maximum negative pressure image, and further inputs the residual image to the deep learning model to calculate the output value by using an air otoscope image to determine the state of the middle ear. An analysis device that evaluates.
제8항에 있어서,
상기 딥러닝 모델은 상기 최대 양압 영상, 상기 최대 음압 영상 및 상기 잔차 영상 각각의 특징을 결합(concatenation) 또는 합산(sum)한 값을 전연결계층에 입력하여 상기 출력값을 산출하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 분석장치.
According to claim 8,
The deep learning model is an air otoscopy image that calculates the output value by inputting a value obtained by concatenating or summing features of each of the maximum positive pressure image, the maximum negative pressure image, and the residual image to a full connection layer. An analysis device that evaluates the middle ear condition by using.
제6항에 있어서,
상기 딥러닝 모델은 상기 대상자의 기도와 골도의 차이(air-bone gap)의 값이 임계값 이상인지에 대한 확률값을 산출하는 공기이경검사의 영상을 이용하여 중이 상태를 평가하는 분석장치.
According to claim 6,
The deep learning model is an analysis device for evaluating the middle ear state using an image of an air otoscope that calculates a probability value for whether the value of the air-bone gap of the subject is greater than or equal to a threshold value.
KR1020210187432A 2021-12-24 2021-12-24 Middle ear disease classification method using video pneumatic otoscopy and analysis apparatus KR20230097692A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210187432A KR20230097692A (en) 2021-12-24 2021-12-24 Middle ear disease classification method using video pneumatic otoscopy and analysis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210187432A KR20230097692A (en) 2021-12-24 2021-12-24 Middle ear disease classification method using video pneumatic otoscopy and analysis apparatus

Publications (1)

Publication Number Publication Date
KR20230097692A true KR20230097692A (en) 2023-07-03

Family

ID=87157535

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210187432A KR20230097692A (en) 2021-12-24 2021-12-24 Middle ear disease classification method using video pneumatic otoscopy and analysis apparatus

Country Status (1)

Country Link
KR (1) KR20230097692A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130110993A (en) 2012-03-30 2013-10-10 사회복지법인 삼성생명공익재단 An otoscopy apparatus and it using method for middle ear state

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130110993A (en) 2012-03-30 2013-10-10 사회복지법인 삼성생명공익재단 An otoscopy apparatus and it using method for middle ear state

Similar Documents

Publication Publication Date Title
US20220230750A1 (en) Diagnosis assistance system and control method thereof
US11580422B1 (en) Validating a machine learning model after deployment
US11862326B1 (en) Biometric characteristic application using audio/video analysis
KR102143940B1 (en) Device for vessel detection and retinal edema diagnosis using multi-functional neurlal network and method for detecting and diagnosing same
KR102097743B1 (en) Apparatus and Method for analyzing disease based on artificial intelligence
JP6707131B2 (en) Image processing device, learning device, image processing method, identification reference creating method, learning method and program
US20220130544A1 (en) Machine learning techniques to assist diagnosis of ear diseases
Habib et al. Artificial intelligence to detect tympanic membrane perforations
KR102274581B1 (en) Method for generating personalized hrtf
KR20210155655A (en) Method and apparatus for identifying object representing abnormal temperatures
Sies et al. Dark corner artefact and diagnostic performance of a market‐approved neural network for skin cancer classification
KR20230097692A (en) Middle ear disease classification method using video pneumatic otoscopy and analysis apparatus
CA2994129A1 (en) An identification apparatus for identifying classes using one-vs.-rest identifiers
KR102407457B1 (en) Hearing aid suitable system using artificial intelligence
KR102344084B1 (en) Method for providing information of lesions on the ear and device for providing information of lesions on the ear using the same
WO2021236307A1 (en) Apparatus and method for selecting positive airway pressure mask interface
KR102333947B1 (en) Method and apparatus for preventing infectious diseases using thermal tracking and thermal discrimination using multi-modal imaging
Kılıçarslan et al. Identification of multiclass tympanic membranes by using deep feature transfer learning and hyperparameter optimization
KR102564443B1 (en) Gastroscopy system with improved reliability of gastroscopy using deep learning
US20220156515A1 (en) Apparatus and method for generating training data
KR102525371B1 (en) Diagnostic methods and devices
US20240041310A1 (en) System for diagnosis of an otitis media via a portable device
JP7257682B2 (en) LEARNING DEVICE, LEARNING METHOD AND LEARNING DEVICE PROGRAM, AND INFORMATION OUTPUT DEVICE, INFORMATION OUTPUT METHOD AND INFORMATION OUTPUT PROGRAM
Fang et al. Algorithm‐Driven Tele‐otoscope for Remote Care for Patients With Otitis Media
WO2024034630A1 (en) Image processing device, model generation device, skin state measurement system, image processing method, model generation method, determining method, and teacher data creation method