WO2024014702A1 - Otitis media diagnosis method and device - Google Patents

Otitis media diagnosis method and device Download PDF

Info

Publication number
WO2024014702A1
WO2024014702A1 PCT/KR2023/007254 KR2023007254W WO2024014702A1 WO 2024014702 A1 WO2024014702 A1 WO 2024014702A1 KR 2023007254 W KR2023007254 W KR 2023007254W WO 2024014702 A1 WO2024014702 A1 WO 2024014702A1
Authority
WO
WIPO (PCT)
Prior art keywords
disease
otitis media
classifier
feature data
layers
Prior art date
Application number
PCT/KR2023/007254
Other languages
French (fr)
Korean (ko)
Inventor
권지훈
안중호
채지혜
박근우
최연주
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230002549A external-priority patent/KR20240009328A/en
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Publication of WO2024014702A1 publication Critical patent/WO2024014702A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/227Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Definitions

  • Acute otitis media is a disease that occurs so commonly that 80% of children before the age of 3 experience it, has frequent recurrences, and often requires a lot of antibiotics.
  • Otitis media with effusion is a disease that occurs when exudate accumulates within the eardrum due to sequelae of acute otitis media or poor function of the middle ear ventilation duct, and is known to be the most common cause of hearing loss in children. It is known that 80% of children suffer from otitis media with effusion at least once before the age of 10.
  • an endoscope To diagnose otitis media in hospitals, an endoscope is generally used to obtain images by approaching the eardrum through the external auditory canal. It is used in various hospitals, such as pediatrics or family medicine, and is often equipped in private hospitals, etc. Recently, endoscopes in the form of portable devices connected to personal communication devices (handsets or tablets) have been developed, increasing opportunities to obtain images of the eardrum.
  • middle ear diseases in order to accurately diagnose middle ear diseases, a method is needed to classify middle ear diseases into diseases that can co-exist and diseases that cannot co-exist.
  • a learned otitis media diagnosis model including a shared layer including at least one convolution operation and a plurality of classifier layers connected to the shared layer, and computer-executable instructions
  • Memory that stores (computer-executable instructions); a processor that accesses the memory and executes the instructions; a display electrically connected to the processor; and an image acquisition unit for receiving an otoendoscopic image of a patient, wherein the commands are configured to receive an otoendoscopic image of the patient and select a region of interest extracted from the received otoendoscopic image.
  • the processor may receive a video sequence of the patient's tympanic membrane and acquire a plurality of otoscope images corresponding to the number of frames determined by the user of the video sequence. .
  • the processor removes the patient's personally identifiable information from the otoscope image, extracts the region of interest having a predetermined shape from the otoscope image, and selects the extracted region of interest, 2. It can be placed in the center of the otoscope image in a dimensional form.
  • the processor obtains probabilities for primary diseases belonging to the primary class from the extracted feature data, based on the first classifier layer, and has the highest probability among the probabilities for the primary diseases.
  • the disease may be output to the user as the disease prediction result.
  • the processor obtains a probability regarding a secondary disease belonging to the secondary class from the extracted feature data based on each of the second classifier layers, and obtains a probability regarding the secondary disease for each of the second classifier layers.
  • the disease occurrence result based on can be output to the user as a single disease prediction result for each of the second classifier layers.
  • the processor sets the probability of a disease with the highest probability among diseases excluding the disease corresponding to the disease prediction result in the primary class as the target result, and sets the probability of the disease prediction result and the probability of the target result. Based on a case where the difference between the two is less than a threshold determined by the user, an output suggesting retry of otitis media diagnosis through an otoscope image different from the otoscope image may be provided to the user.
  • the processor selects second classifier layers related to the secondary class disease in which the disease occurred among the disease occurrence results related to the secondary disease, and determines that at least one of the probabilities related to the secondary disease for the selected layers is determined by the user. Based on the case being less than the threshold determined by , an output suggesting retry of otitis media diagnosis through an otoscope image different from the otoscope image may be provided to the user.
  • the processor may extract feature data based on skipping at least some of the connections between nodes of the shared layers of the learned otitis media diagnosis model.
  • the processor extracts first feature data based on skipping the selected first connection among the connections between the nodes of the shared layers, and the first connection and the first connection among the connections between the nodes of the shared layers. Extracting second feature data based on skipping other second connections, and repeating changes in connections skipped between the nodes, a plurality of feature data including the first feature data and the second feature data can be extracted.
  • the processor obtains probabilities for diseases belonging to the primary class for each of the plurality of feature data, based on the first classifier layer, and, for each of the plurality of feature data, the first classifier.
  • the probabilities for diseases obtained from the classifier layer are converted into disease binary results based on a predetermined threshold, and for each disease belonging to the primary class, the average of the plurality of disease binary results is calculated.
  • a first statistical result representing may be obtained, and the highest first statistical result among diseases belonging to the primary class may be output to the user as the disease prediction result.
  • the processor applies the plurality of feature data to each of the second classifier layers to obtain probabilities for diseases belonging to the secondary class for each of the plurality of feature data, and the second classifier For each of the layers, the probability corresponding to each of the plurality of feature data is converted into a single disease binary result based on a predetermined threshold, and for each of the second classifier layers, the probability corresponding to each of the plurality of feature data is converted into a single disease binary result.
  • FIG. 1 is a diagram illustrating an electronic device for diagnosing otitis media according to an embodiment.
  • Figure 2 is a flow chart illustrating a method for diagnosing otitis media according to an embodiment.
  • FIG. 3 is a diagram illustrating a disease belonging to a primary class and a disease belonging to a secondary class according to an embodiment.
  • Figure 4 is a diagram illustrating an otitis media diagnosis model for diagnosing otitis media from an otoscope image according to an embodiment.
  • Figure 5 is a diagram illustrating prediction results obtained from an otitis media diagnosis model according to an embodiment.
  • Figures 6A to 6C are diagrams showing prediction results obtained from classifier layers of an otitis media diagnosis model according to an embodiment.
  • FIG. 7 is a diagram illustrating a method of obtaining a prediction result from a plurality of feature data according to an embodiment.
  • Figure 8 is a diagram showing McNemar test results of an otitis media diagnosis model according to an embodiment.
  • Figure 9 is a diagram showing a confusion matrix of an otitis media diagnosis model according to an embodiment.
  • Figure 10 is a diagram showing ROC curves for the primary class and secondary class according to one embodiment.
  • first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component.
  • a first component may be named a second component, and similarly, the second component may also be named a first component.
  • a or B “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof.
  • FIG. 1 is a diagram illustrating an electronic device for diagnosing otitis media according to an embodiment.
  • the electronic device 100 may apply an otoendoscopic image of the patient 170 to the otitis media diagnosis model 130 and output a plurality of disease prediction results for otitis media diseases.
  • the electronic device 100 may include a processor 110, a memory 120, an image acquisition unit 140, and a display 150.
  • the processor 110 may receive an otoscope image of the patient 170 from the otoscope device 180.
  • the processor 110 may generate an input otoscope image based on a region of interest extracted from the received otoscope image.
  • the otoscope image may be an image of the tympanic membrane of the patient 170 captured by the endoscope camera 160 of the otoscope device 180.
  • the processor 110 may apply the input otoscope image to the otitis media diagnosis model 130 to obtain a plurality of disease prediction results for otitis media diseases.
  • Processor 110 may execute software and control at least one other component (e.g., hardware or software component) connected to processor 110.
  • the processor 110 may also perform various data processing or operations.
  • the processor 110 may store the otoscope image received from the otoscope device 180 by the image acquisition unit 140 in the memory 120 .
  • the processor 110 may output a plurality of disease prediction results for an otoscope image through the display 150 as result data using an otitis media diagnosis method described later.
  • Memory 120 may temporarily and/or permanently store various data and/or information required to perform otitis media diagnosis.
  • the memory 120 may store at least one of an otoscope image, computer-executable instructions, or an otitis media diagnosis model 130.
  • the otitis media diagnosis model 130 may be a learned machine learning model that outputs prediction results regarding otitis media disease from images or images. A description of the otitis media diagnostic model will be provided later in Figure 4.
  • the image acquisition unit 140 may receive an otoscope image of the patient 170 from the otoscope device 180.
  • the otoscope image is an image corresponding to at least one frame in a video sequence in which the eardrum of the patient 170 is photographed will mainly be described.
  • the electronic device 100 may receive a video sequence.
  • the electronic device 100 may acquire a plurality of otoscope images from the received video sequence, corresponding to the number of frames determined by the user.
  • the electronic device 100 may apply each of the plurality of acquired otoscope images to the otitis media diagnosis model 130.
  • the display 150 may visually provide a user (eg, a medical professional) with a plurality of disease prediction results for otitis media diseases of the patient 170.
  • the display 150 may visually output at least one of an otoscope image, an input otoscope image, a disease prediction result, a single disease prediction result, or a notification suggesting retry of otitis media diagnosis.
  • the display 150 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the display 150 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • Figure 2 is a flow chart illustrating a method for diagnosing otitis media according to an embodiment.
  • an electronic device receives information from an otoscope device (e.g., otoscope device 180 of FIG. 1) to a patient (e.g., patient 170 of FIG. 1). Ear endoscopy images can be received.
  • the otoscope device may include a CCD camera, a CMOS camera, etc. used in general endoscopes, but is not particularly limited thereto.
  • An otoscope image is a medical image of a patient collected by a capsule endoscope image, ultrasound, or any other medical imaging system known in the art of the present invention, and may be an image converted into a form similar to an otoscope image.
  • the electronic device may generate an input otoscope image based on the region of interest extracted from the received otoscope image.
  • a method of generating an input otoscope will be described later in Figure 4.
  • the electronic device may extract feature data based on the shared layer from the input otoscope image.
  • the feature data may include abstracted values extracted by applying the input otoscope image to the shared layer of the otitis media diagnosis model.
  • a shared layer may include multiple convolutional layers.
  • the convolutional layer may be used to extract a plurality of feature maps from input data (eg, an input otoscope image) using a plurality of convolutional filters.
  • a plurality of feature maps extracted from the shared layer may be feature data.
  • the electronic device may apply feature data to a plurality of classifier layers and output a plurality of disease prediction results.
  • the electronic device may output disease prediction results for diseases belonging to the primary class based on the first classifier layer from the extracted feature data.
  • the first classifier layer may include layers that output prediction results for diseases belonging to the primary class from feature data extracted from the shared layer. A detailed description of the first classifier layer is described later in FIG. 4.
  • Diseases belonging to the primary class may include at least one of otitis media with effusion (OME), chronic otitis media (COM), congenital cholesteatoma, or absence of disease. there is. A description of the diseases belonging to the primary class will be provided later in FIG. 3.
  • OME otitis media with effusion
  • COM chronic otitis media
  • congenital cholesteatoma congenital cholesteatoma
  • the disease prediction result may be a disease with the highest probability among diseases belonging to the primary class.
  • the electronic device may obtain probabilities regarding diseases belonging to the primary class from extracted feature data based on the first classifier layer.
  • the electronic device may obtain at least one of a probability for otitis media with effusion, a probability for chronic otitis media, or a probability for the absence of a disease based on the first classifier layer from the feature data.
  • the electronic device may output to the user the disease with the highest probability among the probabilities of primary diseases as a disease prediction result.
  • the electronic device may output to the user the disease with the highest probability among the probability of otitis media with effusion, the probability of chronic otitis media, or the probability of the absence of the disease as a disease prediction result.
  • the electronic device may output to the user a set of probabilities including at least one of the probability of otitis media with effusion, the probability of chronic otitis media, or the probability of the absence of the disease as a disease prediction result.
  • the disease prediction result is not limited to the probability of diseases belonging to the primary class, but may be a statistical result for each disease belonging to the primary class. A method of obtaining statistical results for diseases belonging to the primary class is described later in FIG. 7.
  • the electronic device may individually output a single disease prediction result for each disease of diseases belonging to the secondary class, based on the first classifier layer and the plurality of second classifier layers separated.
  • the second classifier layers may include layers that individually output prediction results for each disease belonging to the secondary class from feature data extracted from the shared layer.
  • Each of the plurality of second classifier layers may output a single disease prediction result for at least one disease among diseases belonging to the secondary class. A detailed description of the second classifier layers is described later in FIG. 4.
  • Diseases belonging to the secondary class may include at least one of the following: Attic Cholesteatoma, Myringitis, Otomycosis, Tympanosclerotic Plague, or Ventilating Tube. A description of diseases belonging to the secondary class will be provided later in FIG. 3.
  • the single disease prediction result may be the disease occurrence result for each of the diseases belonging to the secondary class.
  • a disease occurrence result may be a result indicating whether a disease has occurred.
  • the electronic device may obtain a probability regarding a secondary disease belonging to the secondary class from feature data based on each of the plurality of second classifier layers.
  • the electronic device may separately obtain the probability for epitympanic cholesteatoma, probability for tympanitis, probability for ear fungus, or probability for ventilator tract separately from a corresponding second one of the second classifier layers. .
  • the electronic device may determine the disease occurrence result for each of the diseases belonging to the secondary class.
  • the electronic device may output the disease occurrence results for each of the diseases belonging to the secondary class to the user based on the determined disease occurrence results. That is, the electronic device may output a disease occurrence result based on the probability of a secondary disease for each of the second classifier layers to the user as a single disease prediction result for each of the second classifier layers.
  • the single disease prediction result is not limited to the disease occurrence result based on the probability for each disease belonging to the secondary class, but may be a statistical result for each disease belonging to the secondary class. A method of obtaining statistical results for diseases belonging to the secondary class will be described later with reference to FIG. 7.
  • FIG. 3 is a diagram illustrating a disease belonging to a primary class and a disease belonging to a secondary class according to an embodiment.
  • the primary class 310 refers to diseases that are unlikely to exist and/or develop at the same time among otitis media-related diseases.
  • the primary class 310 includes diseases that cannot occur together during a certain time period. It can be included.
  • the possibility of simultaneous existence may be determined by at least one of the user's judgment or statistical results of past medical records.
  • the user's judgment may be an example of a specific disease being determined as a disease belonging to the primary class by a medical professional or medical personnel.
  • the statistical result may be a result indicating the possibility that certain diseases may exist simultaneously in multiple otoscope images or multiple medical records.
  • an otoscope image taken of a patient's eardrum may have a low possibility of simultaneously containing otitis media with effusion and chronic otitis media.
  • the secondary class 320 may include diseases related to otitis media that can occur together over a certain period of time.
  • diseases belonging to the secondary class 320 may be diseases that are likely to co-exist in the patient's eardrum.
  • an otoscope image taken of a patient's eardrum may have a high possibility of simultaneously containing epitympanic cholesteatoma and myringitis.
  • Figure 4 is a diagram illustrating an otitis media diagnosis model for diagnosing otitis media from an otoscope image according to an embodiment.
  • An electronic device may apply the otoscope image 410 to the learned otitis media diagnosis model 440. Specifically, the electronic device may remove the patient's personally identifiable information from the otoscope image 410. The electronic device may extract a region of interest 415 having a predetermined shape from the otoscope image 410. The electronic device may place the extracted region of interest 415 at the center of the two-dimensional otoscope image. The electronic device may generate the input otoscope image 430 by placing the region of interest 415 at the center of the otoscope image.
  • the electronic device may apply the input otoscope image 430 generated based on the region of interest 415 extracted from the otoscope image 410 to the learned otitis media diagnosis model 440.
  • the electronic device may obtain a plurality of disease prediction results by applying the input otoscope image 430 to the learned otitis media diagnosis model 440.
  • the electronic device may obtain a plurality of disease prediction results based on feeding forward the input otoscope image 430 to the learned otitis media diagnosis model 440.
  • the otitis media diagnosis model 440 may include a neural network.
  • a neural network includes layers, and each layer can include nodes.
  • a node may have a node value determined based on an activation function.
  • a node in an arbitrary layer may be connected to a node in another layer (e.g., another node) through a link (e.g., a connection edge) with a connection weight.
  • a node's node value can be propagated to other nodes through links.
  • node values may be forward propagated from the previous layer to the next layer.
  • the forward propagation operation may represent an operation that propagates node values based on input data in the direction from the input side of the shared layer 442 toward the classifier layer.
  • the node value of that node can be propagated (e.g., forward propagation) to the node of the next layer (e.g., next node) connected to the node through a connection line.
  • a node may receive a value weighted by a connection weight from a previous node (eg, multiple nodes) connected through a connection line.
  • the node value of a node may be determined based on applying an activation function to the sum of weighted values received from previous nodes (e.g., a weighted sum).
  • Parameters of the neural network may exemplarily include the connection weights described above.
  • the parameters of the neural network may be updated so that the objective function value, which will be described later, changes in the targeted direction (e.g., the direction in which loss is minimized).
  • the electronic device may extract feature data based on the shared layer 442 by applying the input otoscope image 430 to the learned otitis media diagnosis model 440.
  • the electronic device may output a plurality of disease prediction results based on the classifier layers by applying the extracted feature data to the classifier layers.
  • the input otoscope image 430 has the region of interest placed in the center and may be an RGB image reformatted to 256 ⁇ 256 ⁇ 3.
  • the area of interest 415 may be an area where only a certain area (eg, a circle) including the patient's eardrum is selected in the otoscope image.
  • the electronic device may estimate and extract the area corresponding to the patient's eardrum as the user's area of interest 415.
  • the electronic device may place the region of interest 415 at the center of the image.
  • the electronic device may generate an input otoscope image 430, which is an image in which the region of interest is located at the center.
  • the learned otitis media diagnosis model 440 may represent a model learned through machine learning, and in detail, may be a learned machine learning model that outputs a prediction result regarding otitis media disease from an image or video.
  • the learned otitis media diagnosis model 440 may output a plurality of disease prediction results from the input otoscope image 430.
  • a machine learning model (eg, the learned otitis media diagnosis model 440) may be created through machine learning. Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • a machine learning model may include multiple artificial neural network layers.
  • the learned otitis media diagnosis model 440 includes a shared layer 442 including at least one convolution operation and a plurality of classifier layers connected to the shared layer 442 (e.g. , task-specific layers).
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • this specification mainly describes an example in which the shared layer 442 of the otitis media diagnosis model 440 is a convolutional neural network (CNN) including at least one convolution operation.
  • the otitis media diagnosis model 440 may be an EfficientNet B-4 model.
  • the above-described machine learning model has a training input (e.g., an otoscope image of a patient for learning (e.g., patient 170 in FIG. 1)) and a training output mapped to the training input. It may be learned based on training data including pairs of (eg, a plurality of disease prediction results for learning). For example, a machine learning model can be trained to output training output from training input. A machine learning model being trained may produce temporary outputs in response to training inputs, and may be trained such that loss between the temporary outputs and the training outputs (e.g., targets of training) is minimized.
  • a training input e.g., an otoscope image of a patient for learning (e.g., patient 170 in FIG. 1)
  • a training output mapped to the training input. It may be learned based on training data including pairs of (eg, a plurality of disease prediction results for learning).
  • a machine learning model can be trained to output training output from training input.
  • parameters of the machine learning model may be updated according to the loss.
  • This learning may be performed, for example, in the electronic device itself on which the machine learning model is performed, or may be performed through a separate server.
  • the machine learning model on which training has been completed (eg, the learned otitis media diagnosis model 440) may be stored in a memory (eg, the memory 120 of FIG. 1).
  • the electronic device may use Equation 1 as an objective function for learning the otitis media diagnosis model.
  • Is Class of training input can represent the ground truth of Is Class of training input It can represent a temporary output (e.g., output probability). also, can represent 'categorical cross-entropy loss'.
  • the electronic device may set the above-described Equation 1 as an objective function for learning the machine learning model, and use the machine learning model learned through the above-described objective function as the learned otitis media diagnosis model 440.
  • the shared layer 442 may include a plurality of convolutional layers, which are an input layer and a hidden layer.
  • the electronic device uses either a first convolutional filter (e.g., 'Conv 3 ⁇ 3' in FIG. 4) or a second convolutional filter (e.g., 'MBConv 3x3' in FIG. 4) in the convolution layer.
  • At least one convolution filter can be used.
  • the convolution layer may be a layer that performs a convolution operation between input data (eg, input otoscope image 430) and a convolution filter.
  • the first convolutional filter and the second convolutional filter may represent learned connection weights.
  • the electronic device may extract feature data based on a convolution operation between the input otoscope image 430 and the learned connection weights in the shared layer 442.
  • the classifier layers include a first classifier layer 444 that outputs disease prediction results for diseases belonging to the primary class and a second classifier layer 444 that individually outputs single disease prediction results for diseases belonging to the secondary class. It may include 2 classifier layers 446. Each of the classifier layers may include separate learned connection weights (eg, connection weights between nodes/layers in each of the classifier layers). The electronic device may obtain a plurality of disease prediction results based on an operation between feature data extracted from the classifier layer and learned connection weights.
  • the first classifier layer 444 may include separate layers from the second classifier layers 446.
  • the electronic device may output a disease prediction result from the first classifier layer 444 through calculation between the feature data and the learned connection weight of the first classifier layer 444.
  • the second classifier layers 446 may include at least one layer separate from the first classifier layer.
  • the electronic device may output a single disease prediction result through calculation between the feature data and the learned connection weights of each layer of the second classifier layers 446.
  • the electronic device may obtain a plurality of disease prediction results by applying one input otoscope image 430 to one learned otitis media diagnosis model 440.
  • the electronic device may apply one feature data to a plurality of classifier layers and output a plurality of otitis media-related disease prediction results.
  • the electronic device can provide high accuracy and convenience to the user compared to a comparison target model (eg, an independent otitis media diagnosis model).
  • the electronic device may simultaneously provide a plurality of disease prediction results to the user by applying one input otoscope image 430 to one learned otitis media diagnosis model 440.
  • a user can simultaneously obtain a plurality of disease prediction results by applying one input otoscope image 430 to the learned otitis media diagnosis model 440 once.
  • the learned otitis media diagnosis model 440 can simultaneously output a plurality of disease prediction results through a plurality of classifier layers.
  • the learned otitis media diagnosis model 440 may have superior performance compared to the model being compared. For example, the learned otitis media diagnosis model 440 may output a result closer to the correct answer than the comparison target model for the same input otoscope image.
  • the accuracy of the learned otitis media diagnosis model 440 will be described later in FIGS. 8 to 10 below.
  • Figure 5 is a diagram illustrating prediction results obtained from an otitis media diagnosis model according to an embodiment.
  • An electronic device (e.g., the electronic device 100 of FIG. 1) according to an embodiment outputs a plurality of disease prediction results through a learned otitis media diagnosis model (e.g., the learned otitis media diagnosis model 440 of FIG. 4). can do.
  • the electronic device may output prediction results for one otitis media disease or multiple otitis media diseases.
  • the electronic device may output first results 510 to third results 530 for one otitis media disease. For example, if the correct answer to the first result 510 is normal, the electronic device produces a 'None' result indicating the absence of the disease among the diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model (e.g., The disease prediction result of the first result 510) may be output. Additionally, the electronic device may output a 'False' result (e.g., a single disease prediction result of the first result 510) for each disease belonging to the secondary class in the second classifier layers of the otitis media diagnosis model. .
  • a 'False' result e.g., a single disease prediction result of the first result 510
  • the electronic device For example, if the correct answer to the second result 520 is Otomycosis, the electronic device produces a 'None' result indicating the absence of the disease among the diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model. can be output. Additionally, the electronic device may output a 'True' result from the second classifier layer corresponding to ear fungus among the second classifier layers of the otitis media diagnosis model. For example, if the correct answer to the third result 530 is chronic otitis media (COM), the electronic device selects 'chronic otitis media' among the diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model. COM' results can be output. Additionally, the electronic device may output a 'False' result for each of the diseases belonging to the secondary class in the second classifier layers of the otitis media diagnosis model.
  • COM chronic otitis media
  • the electronic device may output fourth results 540 and fifth results 550 for a plurality of otitis media diseases. For example, if the correct answer to the fourth result 540 is otitis media with effusion (OME) and Myringitis, the electronic device selects diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model.
  • OME otitis media with effusion
  • the 'OME' result which indicates otitis media with effusion, can be output.
  • the electronic device may output a 'True' result from the second classifier layer corresponding to myringitis among the second classifier layers of the otitis media diagnosis model.
  • the electronic device indicates the absence of the disease among the diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model.
  • a result of 'None' can be output.
  • the electronic device may output a 'True' result from the second classifier layer corresponding to myringitis and a 'True' result from the second classifier layer corresponding to the ventilation duct.
  • Figures 6A to 6C are diagrams showing prediction results obtained from classifier layers of an otitis media diagnosis model according to an embodiment.
  • An electronic device may output a disease prediction result 650a for the input otoscope image 610a of the patient 664a to the user 662a.
  • the electronic device may apply the input otoscope image 610a to the otitis media diagnosis model to obtain a first probability result 640a for diseases belonging to the primary class.
  • the electronic device extracts feature data by applying the input otoscope image 610a to the shared layer 620a, and applies the extracted feature data to the first classifier layer 630a among the classifier layers to determine the first classifier layer 630a.
  • a probability result 640a can be obtained.
  • the electronic device may output the disease with the highest probability among the first probability results 640a (for example, chronic otitis media (COM) in FIG. 6A) as the disease prediction result 650a.
  • the electronic device may output the disease prediction result 650a to the user 662a through the display 660a.
  • the disease prediction result 650a is not limited to this, and the electronic device may output the disease prediction result to the user 662a for a plurality of input otoscope images of the patient 664a.
  • the electronic device may apply each of a plurality of input otoscope images to an otitis media diagnosis model to obtain probabilities for each of the diseases belonging to the primary class.
  • the electronic device may obtain a first probability result for a plurality of input otoscope images based on a plurality of probabilities obtained for each of the diseases belonging to the primary class. Specifically, the electronic device may calculate at least one of the average, median, or mode of the plurality of probabilities obtained for each of the diseases belonging to the primary class as the probability for each of the diseases belonging to the primary class. The electronic device may output a disease with the highest probability among first probability results for a plurality of input otoscope images as a disease prediction result.
  • the electronic device may output single disease prediction results 650b for the input otoscope image 610b of the patient 664b to the user 662b.
  • the electronic device may apply the input otoscope image 610b to the otitis media diagnosis model to obtain second probability results 640b for diseases belonging to the secondary class.
  • the electronic device extracts feature data by applying the input otoscope image 610b to the shared layer 620b, and applies the extracted feature data to the second classifier layers 630b among the classifier layers. 2 probability results 640b may be obtained.
  • the electronic device may determine the disease occurrence result for each of the diseases belonging to the secondary class.
  • the electronic device determines whether the single disease prediction results 650b are greater than or equal to a predetermined threshold (for example, in FIG. 6B, a probability of 50% is set as the threshold) for the second probability results 640b. ) can be output.
  • a predetermined threshold for example, in FIG. 6B, a probability of 50% is set as the threshold
  • the electronic device may output a 'True' result for Attic Cholesteatoma because the probability of Attic Cholesteatoma is 80%.
  • a 'True' result for epitympanic cholesteatoma may indicate that the patient 664b has developed epitympanic cholesteatoma disease.
  • the electronic device may output a 'False' result for otomycosis because the probability of otomycosis is 45%.
  • a result of 'False' for ear mold disease may indicate that the patient 664b does not develop ear mold disease.
  • the electronic device may output single disease prediction results 650b to the user 662b through the display 660b.
  • the single disease prediction results 650b are not limited to this, and the electronic device may output single disease prediction results to the user 662b for a plurality of input otoscope images of the patient 664b.
  • the electronic device may apply each of a plurality of input otoscope images to an otitis media diagnosis model to obtain probabilities for each of the diseases belonging to the secondary class.
  • the electronic device may obtain second probability results for a plurality of input otoscope images based on the plurality of probabilities obtained for each of the diseases belonging to the secondary class.
  • the electronic device may calculate at least one of the average, median, or mode of the plurality of probabilities obtained for each of the diseases belonging to the secondary class as the probability for each of the diseases belonging to the secondary class.
  • the electronic device may output single disease prediction results based on whether the second probability results for the plurality of input otoscope images are greater than or equal to a predetermined threshold.
  • the electronic device may output a disease prediction result 650c and single disease prediction results 652c for the input otoscope image 610c.
  • the electronic device may apply the input otoscope image 610c to the otitis media diagnosis model 620c and output a disease prediction result 650c and single disease prediction results 652c.
  • the electronic device may extract feature data by applying the input otoscope image 610c to the shared layer 625c.
  • the electronic device may simultaneously apply the extracted feature data to the first classifier layer 630c and the second classifier layers 632c.
  • the electronic device may obtain a first probability result 640c by applying the extracted feature data to the first classifier layer 630c.
  • the electronic device may acquire the first probability result 640c and simultaneously obtain second probability results 642c by applying the extracted feature data to the second classifier layers 632c.
  • the electronic device may output the disease with the highest probability among the first probability results 640c as the disease prediction result 650c. If the probability for each of the diseases belonging to the secondary class is greater than or equal to a threshold predetermined by the user, the electronic device may determine the disease occurrence result for each of the diseases belonging to the secondary class. The electronic device may output single disease prediction results 652c based on whether the second probability results 640c are equal to or greater than a predetermined threshold.
  • the electronic device applies one input otoscope image 610c to the otitis media diagnosis model 620c to provide a disease prediction result 650c and single disease prediction results 652c to a user (e.g., a medical professional). Can be printed.
  • FIG. 7 is a diagram illustrating a method of obtaining a prediction result from a plurality of feature data according to an embodiment.
  • An electronic device may extract a plurality of feature data from the input otoscope image 710 .
  • the electronic device may extract feature data by performing a forward propagation operation of the otitis media diagnosis model while skipping at least some of the connections between nodes of some of the shared layers.
  • the electronic device may extract the first feature data 712 by skipping the first connection among the shared layers of the otitis media diagnosis model 720.
  • the first connection may be a connection excluded from the first forward propagation operation among connections between nodes of the shared layer.
  • the first feature data 712 may include abstracted values extracted by applying the input otoscope image 710 to the shared layer in which the first connection was skipped.
  • the electronic device may extract the second feature data 714 from the shared layer of the otitis media diagnosis model 730 by skipping the second connection that is different from the first connection.
  • the second connection may be a connection excluded from the second forward propagation operation among connections between nodes of the shared layer. Connections between nodes that are skipped or excluded in the first forward propagation operation and the second forward propagation operation may vary.
  • the second feature data 714 may include abstracted values extracted by applying the input otoscope image 710 to the shared layer in which the second connection is skipped. In other words, the electronic device can extract a plurality of different feature data from one input otoscope image 710 by skipping any connection in the shared layer.
  • the electronic device may apply the first feature data 712 to the first classifier layer to obtain the first disease prediction probability 722.
  • the first disease prediction probability 722 may represent occurrence probabilities for diseases belonging to the primary class.
  • the electronic device may convert the first disease prediction probability 722 into a first disease binary result 726 based on a predetermined threshold.
  • the electronic device may apply the first feature data 712 to the first classifier layer and simultaneously apply it to the second classifier layers to obtain first single disease prediction probabilities 724.
  • the first single disease prediction probabilities 724 may represent occurrence probabilities for diseases belonging to the secondary class.
  • the electronic device may convert the first single disease prediction probabilities 724 into a first single disease binary result 728 based on a predetermined threshold.
  • the electronic device may apply the second feature data 714 to the first classifier layer to obtain the second disease prediction probability 732.
  • the second disease prediction probability 732 may represent occurrence probabilities for diseases belonging to the primary class.
  • the electronic device may convert the second disease prediction probability 732 into a second disease binary result 736 based on a predetermined threshold.
  • the electronic device may apply the second feature data 714 to the first classifier layer and simultaneously apply it to the second classifier layers to obtain second single disease prediction probabilities 734.
  • the second single disease prediction probabilities 734 may represent occurrence probabilities for diseases belonging to a secondary class.
  • the electronic device may convert the second single disease prediction probabilities 734 into a second single disease binary result 738 based on a predetermined threshold.
  • the electronic device may obtain a first statistical result representing an average for the first disease binary outcome 726 and the second disease binary outcome 736.
  • the first statistical result may include statistical results for diseases belonging to the primary class.
  • the electronic device uses the average of the binary results of chronic otitis media (COM) of the first disease binary outcome 726 and chronic otitis media of the second disease binary outcome 736 as the statistical result of chronic otitis media. You can.
  • the electronic device may average the binary results of otitis media with effusion (OME) of the first disease binary outcome 726 and otitis media with effusion of the second disease binary outcome 736 into a statistical result of otitis media with effusion. .
  • OME binary results of otitis media with effusion
  • the electronic device may take the average of the binary results of the absence of the disease in the first disease binary result 726 and the absence of the disease in the second binary result 736 as a statistical result of the absence of the disease.
  • the first statistical result may include statistical results that are 1 for chronic otitis media, 0 for otitis media with effusion, and 0 for absence of disease.
  • the electronic device may output the above-described first statistical result to the user as a disease prediction result for the input otoscope image 710.
  • the electronic device may obtain a second statistical result representing an average for the first single disease binary outcome 728 and the second single disease binary outcome 738.
  • the second statistical result may include statistical results for diseases belonging to a secondary class.
  • the electronic device averages the binary outcomes Attic Cholesteatoma of the first single disease binary outcome 728 and Attic Cholesteatoma of the second single disease binary outcome 738, This can be done with statistical results.
  • the electronic device may average the binary outcomes of Myringitis of the first single disease binary outcome 728 and Myringitis of the second single disease binary outcome 738 into a statistical result of Myringitis.
  • the electronic device may average the binary outcomes of Otomycosis of the first single disease binary outcome 728 and Otomycosis of the second single disease binary outcome 738 into a statistical result of Otomycosis. .
  • the electronic device may average the binary results of the ventilating tube of the first single disease binary result 728 and the ventilating tube of the second single disease binary result 738 as a statistical result of the ventilating tube.
  • the secondary statistical results may include statistical results that are 1 for epitympanic cholesteatoma, 0.5 for tympanitis, 0.5 for ear fungus, and 0 for ventilator tract.
  • the electronic device may output the above-described second statistical result to the user as a single disease prediction result for the input otoscope image 710.
  • each of the first and second statistical results is not limited to the disease prediction result for the input otoscope image 710 and the single disease prediction result.
  • the electronic device may output the first disease prediction probability 722 and the second disease prediction probability 732 to the user as a disease prediction result for the input otoscope image 710.
  • the electronic device may output first single disease prediction probabilities 724 and second single disease prediction probabilities 734 to the user as a single disease prediction result for the input otoscope image 710.
  • the electronic device may provide the user with an output suggesting retry of otitis media diagnosis based on at least one of the disease prediction probability or the single disease prediction probability.
  • the disease prediction probability may include at least one of the first disease prediction probability 722 or the second disease prediction probability 732.
  • the single disease prediction probability may include at least one of the first single disease prediction probabilities 724 or the second single disease prediction probabilities 734.
  • the electronic device may provide an output suggesting that the user retry diagnosing otitis media.
  • the electronic device may provide an output suggesting retry of otitis media diagnosis based on the difference between the probability of the disease prediction result and the probability of the target result.
  • the probability of the disease prediction result may be the probability of the disease having the first probability among the first disease prediction probabilities 722
  • the probability of the target result may be the probability of the disease having the second priority probability among the first disease prediction probabilities 722. It can be.
  • the disease with the first probability may be chronic otitis media (COM), and the disease with the second highest probability may be otitis media with effusion (OME).
  • COM chronic otitis media
  • OME otitis media with effusion
  • the electronic device may provide an output to the user suggesting retrying the otitis media diagnosis through another otoscope image if the calculated difference is below a threshold.
  • the threshold may be a threshold for retrying otitis media diagnosis based on the first disease prediction probability 722.
  • the electronic device may provide an output suggesting that the user retry diagnosing otitis media.
  • the electronic device may select second classifier layers related to the secondary class disease in which the disease occurred among the first single disease prediction probabilities 724.
  • the electronic device may provide an output suggesting retry of otitis media diagnosis based on a case where at least one of the probabilities related to the secondary disease for the selected layers is less than a threshold value.
  • the threshold may be a threshold for retrying otitis media diagnosis based on the first single disease prediction probabilities 724.
  • the electronic device divides the second classifier layers for Attic Cholesteatoma and Otomycosis among the first single disease prediction probabilities 724 into a second classifier layer in which the disease occurs.
  • Figure 8 is a diagram showing McNemar test results of an otitis media diagnosis model according to an embodiment.
  • An electronic device may acquire the performance of an otitis media diagnosis model (eg, the otitis media diagnosis model 130 of FIG. 1 ).
  • the electronic device may obtain performance difference results between the otitis media diagnosis model and the comparison target model.
  • the electronic device can obtain results of the performance difference between the otitis media diagnosis model and the comparative model through the McNemar test results.
  • the model to be compared may represent a model that outputs one disease prediction result (e.g., a prediction result for otitis media with effusion disease) for one input data (e.g., an input otoscope image).
  • the electronic device can obtain the performance difference results between the otitis media diagnosis model and the comparison target model through the DSC (Dice similarity coefficient) results among the McNemar test results.
  • DSC results may primarily indicate differences between correct and predicted results of video images (e.g., input otoscope images). That is, the higher the DSC result of at least one of the otitis media diagnosis model or the comparison target model, the smaller the difference between the correct answer and the model's predicted results may be indicated.
  • the otitis media diagnosis model may have a smaller difference between the correct answer and the predicted result for the remaining diseases except for myringitis, compared to the comparison target model.
  • the result 830 may include differences between the DSC result 810 of the otitis media diagnosis model and the DSC result 820 of the comparison target model.
  • the otitis media diagnosis model may be a model that has superior prediction performance for all diseases except myringitis compared to the comparison model.
  • Figure 9 is a diagram showing a confusion matrix of an otitis media diagnosis model according to an embodiment.
  • An electronic device may acquire a confusion matrix of an otitis media diagnosis model (e.g., the otitis media diagnosis model 130 of FIG. 1).
  • a confusion matrix can represent a matrix containing elements representing the ratio between the prediction results of a machine learning model and the correct answer.
  • each matrix may include a row regarding the ground truth (GT) class and a column regarding the prediction result class.
  • GT ground truth
  • the electronic device selects 1,534 images containing chronic otitis media (COM) disease (e.g., an image of the eardrum containing chronic otitis media) ), 1,463 chronic otitis media disease prediction results can be output.
  • COM chronic otitis media
  • Figure 10 is a diagram showing ROC curves for the primary class and secondary class according to one embodiment.
  • An electronic device acquires a receiver operating characteristics (ROC) curve of an otitis media diagnosis model (e.g., the otitis media diagnosis model 130 of FIG. 1) and a comparison target model. can do.
  • the otitis media diagnosis model may be shown as a Combined model, and the model to be compared may be shown as a Separate model.
  • the primary class result 1010 may include an ROC curve regarding the primary class of the otitis media diagnosis model and the comparison target model.
  • the primary class result 1010 may include AUC (area under the ROC curve) values for diseases belonging to the primary class of the otitis media diagnosis model and the comparison target model. Referring to FIG.
  • the secondary class result 1020 may include an ROC curve regarding the secondary class of the otitis media diagnosis model and the comparison target model.
  • the secondary class result 1020 may include AUC (area under the ROC curve) values for diseases belonging to the secondary class of the otitis media diagnosis model and the model to be compared. Referring to FIG. 10, it can be seen that in the results of diseases belonging to the secondary class excluding myringitis disease, the otitis media diagnosis model can have a superior AUC value than the comparison model.
  • the embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components.
  • the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA).
  • ALU arithmetic logic unit
  • FPGA field programmable gate
  • It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software.
  • OS operating system
  • a processing device may access, store, manipulate, process, and generate data in response to the execution of software.
  • a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include.
  • a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
  • Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device.
  • Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave.
  • Software may be distributed over networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on a computer-readable recording medium.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.
  • a computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. It may be possible.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
  • the hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.

Abstract

An electronic device for diagnosing otitis media, according to one embodiment, comprises: a memory for storing computer-executable instructions, and a trained otitis media diagnosis model including a shared layer, which includes at least one convolution operation, and a plurality of classifier layers, which are connected to the shared layer; a processor accessing the memory so as to execute the instructions; a display electrically connected to the processor; and an image acquisition unit for receiving an otoendoscopic image of a patient, wherein the instructions can receive the otoendoscopic image of the patient, generate an input otoendoscopic image on the basis of a region of interest extracted from the received otoendoscopic image, extract feature data from the input otoendoscopic image on the basis of the shared layer, output, on the basis of a first classifier layer from among the plurality of classifier layers, disease prediction results for diseases belonging to a primary class from the extracted feature data, and individually output, on the basis of a plurality of second classifier layers separated from the first classifier layer from among the plurality of classifier layers, a single disease prediction result for each disease of diseases belonging to a secondary class, from the corresponding second classifier layer from among the plurality of second classifier layers.

Description

중이염 진단 방법 및 장치Otitis media diagnostic methods and devices
이하, 중이염 진단 방법 및 장치에 관한 기술이 제공된다.Hereinafter, technology related to a method and device for diagnosing otitis media is provided.
급성중이염은 3세 이전의 소아 80%가 경험할 정도로 흔히 발생하고 재발이 빈번하며 많은 항생제를 사용하는 경우가 많은 질환이다. 삼출성 중이염은 급성 중이염의 후유증이나 저하된 중이 환기관의 기능으로 인해 고막 내에 삼출액이 축적되어 발생하는 질환으로 소아 연령에서 난청을 일으키는 가장 흔한 원인으로 알려져 있다. 10살 이전까지 80%의 소아에서 한번 이상 삼출성 중이염에 걸리는 것으로 알려져 있다.Acute otitis media is a disease that occurs so commonly that 80% of children before the age of 3 experience it, has frequent recurrences, and often requires a lot of antibiotics. Otitis media with effusion is a disease that occurs when exudate accumulates within the eardrum due to sequelae of acute otitis media or poor function of the middle ear ventilation duct, and is known to be the most common cause of hearing loss in children. It is known that 80% of children suffer from otitis media with effusion at least once before the age of 10.
병원에서 중이염의 진단은 일반적으로 외이도를 통해 고막에 근접하여 영상을 획득하는 내시경이 사용된다. 소아과 또는 가정의학과 등 다양한 병원에서 활용되며, 개인병원 등에도 설비를 갖추고 있는 경우가 많다. 최근에는 개인용 통신장비(handset 또는 tablet)와 연결되는 휴대장치 형태의 내시경도 개발되는 등, 고막 영상을 획득할 수 있는 기회가 증가하는 추세다.To diagnose otitis media in hospitals, an endoscope is generally used to obtain images by approaching the eardrum through the external auditory canal. It is used in various hospitals, such as pediatrics or family medicine, and is often equipped in private hospitals, etc. Recently, endoscopes in the form of portable devices connected to personal communication devices (handsets or tablets) have been developed, increasing opportunities to obtain images of the eardrum.
하지만, 중이염은 질환의 양태가 다양하여 많은 경험을 가진 전문의도 정확한 진단을 내리기 어려운 경우도 다수 존재한다. 최근에는 딥러닝 기술의 발전으로 주요한 질환을 분류하는 기술이 높은 성능을 보이기도 했으나, 학습의 대상으로 고려되지 않은 질환에 대해서는 진단을 지원할 수 없다. 따라서, 질환의 발생 또는 이상여부와 관련된 정보를 효과적으로 제공할 수 있는 방법의 개발이 절실하다.However, otitis media has many different types of disease, so there are many cases where it is difficult for even experienced specialists to make an accurate diagnosis. Recently, with the development of deep learning technology, the technology for classifying major diseases has shown high performance, but it cannot support diagnosis for diseases that are not considered the target of learning. Therefore, there is an urgent need to develop a method that can effectively provide information related to the occurrence or abnormality of a disease.
또한, 중이질환을 정확하게 진단하기 위해서, 중이질환을 동시에 존재할 수 있는 질환과 동시에 존재할 수 없는 질환으로 나누어 분류하는 방법이 필요하다.Additionally, in order to accurately diagnose middle ear diseases, a method is needed to classify middle ear diseases into diseases that can co-exist and diseases that cannot co-exist.
위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.The background technology described above is possessed or acquired by the inventor in the process of deriving the disclosure of the present application, and cannot necessarily be said to be known technology disclosed to the general public before this application.
일 실시예에 따른 중이염 진단 전자 장치에 있어서, 적어도 하나의 컨볼루션 연산을 포함하는 공유된 레이어 및 상기 공유된 레이어에 연결된 복수의 분류기 레이어들을 포함하는 학습된 중이염 진단 모델 및 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)을 저장한 메모리; 상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서; 상기 프로세서와 전기적으로 연결된 디스플레이; 및 환자의 귀내시경 이미지(otoendoscopic image)를 수신하는 영상 획득부를 포함하고, 상기 명령어들은, 상기 환자의 귀내시경 이미지를 수신하고, 상기 수신된 귀내시경 이미지로부터 추출된 관심 영역(region of interest)에 기초하여, 입력 귀내시경 이미지를 생성하고, 상기 입력 귀내시경 이미지로부터 상기 공유된 레이어에 기초하여 특징 데이터를 추출하고, 상기 복수의 분류기 레이어들 중 제1 분류기 레이어에 기초하여, 상기 추출된 특징 데이터로부터 프라이머리(primary) 클래스에 속하는 질환들에 대한 질환 예측 결과를 출력하며, 상기 복수의 분류기 레이어들 중 상기 제1 분류기 레이어와 분리된 복수의 제2 분류기 레이어들에 기초하여, 세컨더리(secondary) 클래스에 속하는 질환들의 각 질환에 대한 단일 질환 예측 결과를 상기 복수의 제2 분류기 레이어들 중 해당하는 제2 분류기 레이어에서 개별적으로 출력할 수 있다.In the otitis media diagnosis electronic device according to an embodiment, a learned otitis media diagnosis model including a shared layer including at least one convolution operation and a plurality of classifier layers connected to the shared layer, and computer-executable instructions Memory that stores (computer-executable instructions); a processor that accesses the memory and executes the instructions; a display electrically connected to the processor; and an image acquisition unit for receiving an otoendoscopic image of a patient, wherein the commands are configured to receive an otoendoscopic image of the patient and select a region of interest extracted from the received otoendoscopic image. Based on this, generate an input otoscope image, extract feature data from the input otoscope image based on the shared layer, and based on a first classifier layer among the plurality of classifier layers, the extracted feature data Outputs disease prediction results for diseases belonging to the primary class, and based on a plurality of second classifier layers separated from the first classifier layer among the plurality of classifier layers, secondary A single disease prediction result for each disease belonging to a class may be individually output from the corresponding second classifier layer among the plurality of second classifier layers.
상기 프로세서는, 상기 환자의 고막(tympanic membrane)을 촬영한 비디오 시퀀스(video sequence)를 수신하고, 상기 비디오 시퀀스를 사용자에 의해 결정된 프레임(frame) 개수만큼, 복수의 귀내시경 이미지들을 획득할 수 있다.The processor may receive a video sequence of the patient's tympanic membrane and acquire a plurality of otoscope images corresponding to the number of frames determined by the user of the video sequence. .
상기 프로세서는, 상기 귀내시경 이미지에서 상기 환자의 개인식별가능정보를 제거하고, 상기 귀내시경 이미지로부터 미리 지정된 형상을 갖는 상기 관심 영역(region of interest)을 추출하고, 상기 추출된 관심 영역을, 2차원 형태의 상기 귀내시경 이미지의 중앙(center)에 배치시킬 수 있다.The processor removes the patient's personally identifiable information from the otoscope image, extracts the region of interest having a predetermined shape from the otoscope image, and selects the extracted region of interest, 2. It can be placed in the center of the otoscope image in a dimensional form.
상기 프로세서는, 상기 제1 분류기 레이어에 기초하여, 상기 추출된 특징 데이터로부터 상기 프라이머리 클래스에 속하는 프라이머리 질환들에 관한 확률들을 획득하고, 상기 프라이머리 질환들에 관한 확률 중 가장 높은 확률을 가지는 질환을 상기 질환 예측 결과로서 사용자에게 출력할 수 있다.The processor obtains probabilities for primary diseases belonging to the primary class from the extracted feature data, based on the first classifier layer, and has the highest probability among the probabilities for the primary diseases. The disease may be output to the user as the disease prediction result.
상기 프로세서는, 상기 제2 분류기 레이어들 각각에 기초하여, 상기 추출된 특징 데이터로부터 상기 세컨더리 클래스에 속하는 세컨더리 질환에 관한 확률을 획득하고, 상기 제2 분류기 레이어들 각각에 대한 상기 세컨더리 질환에 관한 확률에 기초한 질환 발생 결과를, 상기 제2 분류기 레이어들 각각에 대한 단일 질환 예측 결과로서 사용자에게 출력할 수 있다.The processor obtains a probability regarding a secondary disease belonging to the secondary class from the extracted feature data based on each of the second classifier layers, and obtains a probability regarding the secondary disease for each of the second classifier layers. The disease occurrence result based on can be output to the user as a single disease prediction result for each of the second classifier layers.
상기 프로세서는, 상기 프라이머리 클래스에서 상기 질환 예측 결과에 해당하는 질환을 제외한 질환들 중, 가장 높은 확률을 가지는 질환의 확률을 대상 결과로 설정하고, 상기 질환 예측 결과의 확률 및 상기 대상 결과의 확률 간의 차이가 사용자에 의해 결정된 임계 값 미만인 경우에 기초하여, 상기 사용자에게 상기 귀내시경 이미지와 다른 귀내시경 이미지를 통해 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다.The processor sets the probability of a disease with the highest probability among diseases excluding the disease corresponding to the disease prediction result in the primary class as the target result, and sets the probability of the disease prediction result and the probability of the target result. Based on a case where the difference between the two is less than a threshold determined by the user, an output suggesting retry of otitis media diagnosis through an otoscope image different from the otoscope image may be provided to the user.
상기 프로세서는, 상기 세컨더리 질환에 관한 질환 발생 결과 중, 질환이 발생된 상기 세컨더리 클래스 질환에 관한 제2 분류기 레이어들을 선택하고, 상기 선택된 레이어들에 대한 세컨더리 질환에 관한 확률 중 적어도 하나 이상의 확률이 사용자에 의해 결정된 임계 값 미만인 경우에 기초하여, 상기 사용자에게 상기 귀내시경 이미지와 다른 귀내시경 이미지를 통해 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다.The processor selects second classifier layers related to the secondary class disease in which the disease occurred among the disease occurrence results related to the secondary disease, and determines that at least one of the probabilities related to the secondary disease for the selected layers is determined by the user. Based on the case being less than the threshold determined by , an output suggesting retry of otitis media diagnosis through an otoscope image different from the otoscope image may be provided to the user.
상기 프로세서는, 상기 학습된 중이염 진단 모델의 상기 공유된 레이어들의 노드들 간의 연결들 중 적어도 일부 연결을 스킵(skip)하는 것에 기초하여, 특징 데이터를 추출할 수 있다.The processor may extract feature data based on skipping at least some of the connections between nodes of the shared layers of the learned otitis media diagnosis model.
상기 프로세서는, 상기 공유된 레이어들의 노드들 간의 연결들 중 선택된 제1 연결을 스킵하는 것에 기초하여, 제1 특징 데이터를 추출하고, 상기 공유된 레이어들의 노드들 간의 연결들 중 상기 제1 연결과 다른 제2 연결을 스킵하는 것에 기초하여, 제2 특징 데이터를 추출하며, 상기 노드들 간에 스킵되는 연결의 변경을 반복하면서, 상기 제1 특징 데이터 및 상기 제2 특징 데이터를 포함하는 복수의 특징 데이터들을 추출할 수 있다.The processor extracts first feature data based on skipping the selected first connection among the connections between the nodes of the shared layers, and the first connection and the first connection among the connections between the nodes of the shared layers. Extracting second feature data based on skipping other second connections, and repeating changes in connections skipped between the nodes, a plurality of feature data including the first feature data and the second feature data can be extracted.
상기 프로세서는, 상기 제1 분류기 레이어에 기초하여, 상기 복수의 특징 데이터들 각각에 대한 상기 프라이머리 클래스에 속하는 질환들에 대한 확률을 획득하고, 상기 복수의 특징 데이터들 각각에 대하여, 상기 제1 분류기 레이어에서 획득된 질환들에 대한 확률을 미리 결정된 임계 값을 기준으로 질환 이진 결과로 변환하고, 상기 프라이머리 클래스에 속하는 질환들 각각에 대해, 상기 복수의 질환 이진(binary) 결과들에 대한 평균을 나타내는 제1 통계 결과를 획득하고, 상기 프라이머리 클래스에 속하는 질환들 중 가장 높은 제1 통계 결과를 상기 질환 예측 결과로서 사용자에게 출력할 수 있다.The processor obtains probabilities for diseases belonging to the primary class for each of the plurality of feature data, based on the first classifier layer, and, for each of the plurality of feature data, the first classifier. The probabilities for diseases obtained from the classifier layer are converted into disease binary results based on a predetermined threshold, and for each disease belonging to the primary class, the average of the plurality of disease binary results is calculated. A first statistical result representing may be obtained, and the highest first statistical result among diseases belonging to the primary class may be output to the user as the disease prediction result.
상기 프로세서는, 상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 특징 데이터들을 적용하여, 상기 복수의 특징 데이터들 각각에 대한 상기 세컨더리 클래스에 속하는 질환들에 대한 확률들을 획득하고, 상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 특징 데이터들 각각에 대응하는 확률을 미리 결정된 임계 값을 기준으로 단일 질환 이진(binary) 결과로 변환하며, 상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 단일 질환 이진 결과들에 대한 평균을 나타내는 제2 통계 결과를 획득하고, 상기 제2 분류기 레이어들 각각에 대한 제2 통계 결과를, 상기 복수의 제2 분류기 레이어들 중 해당하는 제2 분류기 레이어에서 개별적으로 상기 단일 질환 예측 결과로서 출력할 수 있다.The processor applies the plurality of feature data to each of the second classifier layers to obtain probabilities for diseases belonging to the secondary class for each of the plurality of feature data, and the second classifier For each of the layers, the probability corresponding to each of the plurality of feature data is converted into a single disease binary result based on a predetermined threshold, and for each of the second classifier layers, the probability corresponding to each of the plurality of feature data is converted into a single disease binary result. Obtain a second statistical result representing an average for disease binary outcomes, and obtain a second statistical result for each of the second classifier layers, individually in a corresponding second classifier layer among the plurality of second classifier layers. It can be output as the single disease prediction result.
도 1은 일 실시예에 따른 중이염을 진단하는 전자 장치를 도시한 도면이다.1 is a diagram illustrating an electronic device for diagnosing otitis media according to an embodiment.
도 2는 일 실시예에 따른 중이염을 진단하는 방법을 도시한 흐름도이다.Figure 2 is a flow chart illustrating a method for diagnosing otitis media according to an embodiment.
도 3은 일 실시예에 따른 프라이머리 클래스에 속하는 질환 및 세컨더리 클래스에 속하는 질환을 도시한 도면이다.FIG. 3 is a diagram illustrating a disease belonging to a primary class and a disease belonging to a secondary class according to an embodiment.
도 4는 일 실시예에 따른 귀내시경 이미지로부터 중이염을 진단하는 중이염 진단 모델을 도시한 도면이다.Figure 4 is a diagram illustrating an otitis media diagnosis model for diagnosing otitis media from an otoscope image according to an embodiment.
도 5는 일 실시예에 따른 중이염 진단 모델로부터 획득되는 예측 결과들을 도시한 도면이다.Figure 5 is a diagram illustrating prediction results obtained from an otitis media diagnosis model according to an embodiment.
도6a 내지 도 6c는 일 실시예에 따른 중이염 진단 모델의 분류기 레이어들에서 획득되는 예측 결과를 도시한 도면이다.Figures 6A to 6C are diagrams showing prediction results obtained from classifier layers of an otitis media diagnosis model according to an embodiment.
도 7은 일 실시예에 따른 복수의 특징 데이터들로부터 예측 결과를 획득하는 방법을 도시한 도면이다.FIG. 7 is a diagram illustrating a method of obtaining a prediction result from a plurality of feature data according to an embodiment.
도 8은 일 실시예에 따른 중이염 진단 모델의 McNemar 테스트 결과를 도시한 도면이다.Figure 8 is a diagram showing McNemar test results of an otitis media diagnosis model according to an embodiment.
도 9는 일 실시예에 따른 중이염 진단 모델의 confusion 행렬(confusion matrix)를 도시한 도면이다.Figure 9 is a diagram showing a confusion matrix of an otitis media diagnosis model according to an embodiment.
도 10은 일 실시예에 따른 프라이머리 클래스 및 세컨더리 클래스에 대한 ROC 커브를 도시한 도면이다.Figure 10 is a diagram showing ROC curves for the primary class and secondary class according to one embodiment.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific disclosed embodiments, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of the described features, numbers, steps, operations, components, parts, or combinations thereof, and are intended to indicate the presence of one or more other features or numbers, It should be understood that this does not exclude in advance the possibility of the presence or addition of steps, operations, components, parts, or combinations thereof.
본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다.As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. No.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
도 1은 일 실시예에 따른 중이염을 진단하는 전자 장치를 도시한 도면이다.1 is a diagram illustrating an electronic device for diagnosing otitis media according to an embodiment.
일 실시예에 따른 전자 장치(100)는 환자(170)의 귀내시경 이미지(otoendoscopic image)를 중이염 진단 모델(130)에 적용하여, 중이염 질환들에 대한 복수의 질환 예측 결과들을 출력할 수 있다. 예를 들어, 전자 장치(100)는 프로세서(110), 메모리(120), 영상 획득부(140), 및 디스플레이(150)를 포함할 수 있다.The electronic device 100 according to an embodiment may apply an otoendoscopic image of the patient 170 to the otitis media diagnosis model 130 and output a plurality of disease prediction results for otitis media diseases. For example, the electronic device 100 may include a processor 110, a memory 120, an image acquisition unit 140, and a display 150.
프로세서(110)는 환자(170)의 귀내시경 이미지를 귀내시경 장치(180)로부터 수신할 수 있다. 프로세서(110)는 수신된 귀내시경 이미지로부터 추출된 관심 영역(region of interest)에 기초하여 입력 귀내시경 이미지를 생성할 수 있다. 귀내시경 이미지는 귀내시경 장치(180)의 내시경 카메라(160)에 의해 환자(170)의 고막(tympanic membrane)이 촬영된 이미지일 수 있다. 프로세서(110)는 입력 귀내시경 이미지를 중이염 진단 모델(130)에 적용하여, 중이염 질환들에 대한 복수의 질환 예측 결과들을 획득할 수 있다. 프로세서(110)는 소프트웨어를 실행할 수 있고, 프로세서(110)에 연결된 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있다. 프로세서(110)는 이외에도 다양한 데이터 처리 또는 연산을 수행할 수 있다. 예를 들어, 프로세서(110)는 영상 획득부(140)에 의해 귀내시경 장치(180)로부터 수신된 귀내시경 이미지를 메모리(120)에 저장할 수 있다. 프로세서(110)는 후술하는 중이염 진단 방법을 이용하여 귀내시경 이미지에 대해 복수의 질환 예측 결과들을 결과 데이터로서 디스플레이(150)를 통해 출력할 수 있다.The processor 110 may receive an otoscope image of the patient 170 from the otoscope device 180. The processor 110 may generate an input otoscope image based on a region of interest extracted from the received otoscope image. The otoscope image may be an image of the tympanic membrane of the patient 170 captured by the endoscope camera 160 of the otoscope device 180. The processor 110 may apply the input otoscope image to the otitis media diagnosis model 130 to obtain a plurality of disease prediction results for otitis media diseases. Processor 110 may execute software and control at least one other component (e.g., hardware or software component) connected to processor 110. The processor 110 may also perform various data processing or operations. For example, the processor 110 may store the otoscope image received from the otoscope device 180 by the image acquisition unit 140 in the memory 120 . The processor 110 may output a plurality of disease prediction results for an otoscope image through the display 150 as result data using an otitis media diagnosis method described later.
메모리(120)는 중이염 진단을 수행하기 위해 요구되는 다양한 데이터 및/또는 정보를 임시적으로 및/또는 영구적으로 저장할 수 있다. 예를 들어, 메모리(120)는 귀내시경 이미지, 컴퓨터로 실행 가능한 명령어들(computer-executable instructions), 또는 중이염 진단 모델(130) 중 적어도 하나를 저장할 수 있다. Memory 120 may temporarily and/or permanently store various data and/or information required to perform otitis media diagnosis. For example, the memory 120 may store at least one of an otoscope image, computer-executable instructions, or an otitis media diagnosis model 130.
중이염 진단 모델(130)은 이미지 또는 영상으로부터 중이염 질환에 관한 예측 결과를 출력하는 학습된 기계학습 모델일 수 있다. 중이염 진단 모델에 관한 설명은 하기 도 4에서 후술한다.The otitis media diagnosis model 130 may be a learned machine learning model that outputs prediction results regarding otitis media disease from images or images. A description of the otitis media diagnostic model will be provided later in Figure 4.
영상 획득부(140)는 귀내시경 장치(180)로부터 환자(170)의 귀내시경 이미지를 수신할 수 있다. 본 명세서에서는 귀내시경 이미지가 환자(170)의 고막이 촬영된 비디오 시퀀스(video sequence) 중 적어도 하나의 프레임(frame)에 해당하는 이미지인 예시를 주로 설명한다. 다만, 전자 장치(100)가 하나의 귀내시경 이미지를 수신하는 것을 주로 설명하나, 이로 한정하는 것은 아니다. 예를 들어, 전자 장치(100)는 비디오 시퀀스를 수신할 수 있다. 전자 장치(100)는 사용자에 의해 결정된 프레임 개수만큼, 수신된 비디오 시퀀스로부터 복수의 귀내시경 이미지들을 획득할 수 있다. 전자 장치(100)는 획득된 복수의 귀내시경 이미지들 각각을 중이염 진단 모델(130)에 적용할 수 있다.The image acquisition unit 140 may receive an otoscope image of the patient 170 from the otoscope device 180. In this specification, an example in which the otoscope image is an image corresponding to at least one frame in a video sequence in which the eardrum of the patient 170 is photographed will mainly be described. However, it is mainly explained that the electronic device 100 receives a single ear endoscope image, but it is not limited to this. For example, the electronic device 100 may receive a video sequence. The electronic device 100 may acquire a plurality of otoscope images from the received video sequence, corresponding to the number of frames determined by the user. The electronic device 100 may apply each of the plurality of acquired otoscope images to the otitis media diagnosis model 130.
디스플레이(150)는 환자(170)의 중이염 질환들에 대한 복수의 질환 예측 결과들을 사용자(예를 들어, 의료인)에게 시각적으로 제공할 수 있다. 디스플레이(150)는 귀내시경 이미지, 입력 귀내시경 이미지, 질환 예측 결과, 단일 질환 예측 결과들, 또는 중이염 진단 재시도를 제안하는 알림(notification) 중 적어도 하나를 시각적으로 출력할 수 있다. 예를 들어, 디스플레이(150)는 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. 다만, 이로 한정하는 것은 아니고, 디스플레이(150)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다.The display 150 may visually provide a user (eg, a medical professional) with a plurality of disease prediction results for otitis media diseases of the patient 170. The display 150 may visually output at least one of an otoscope image, an input otoscope image, a disease prediction result, a single disease prediction result, or a notification suggesting retry of otitis media diagnosis. For example, the display 150 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch. However, it is not limited thereto, and the display 150 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
도 2는 일 실시예에 따른 중이염을 진단하는 방법을 도시한 흐름도이다.Figure 2 is a flow chart illustrating a method for diagnosing otitis media according to an embodiment.
단계(210)에서, 전자 장치(예: 도 1의 전자 장치(100))는 귀내시경 장치(예: 도 1의 귀내시경 장치(180))로부터 환자(예: 도 1의 환자(170))의 귀내시경 이미지를 수신할 수 있다. 귀내시경 장치는 일반적인 내시경에 사용되는 CCD 카메라, CMOS 카메라 등을 포함할 수 있으며, 이에 특별히 한정되지 아니한다. 귀내시경 이미지는 캡슐 내시경 영상, 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 환자의 의료 영상으로, 귀내시경 영상과 유사한 형태로 변환된 영상일 수 있다.In step 210, an electronic device (e.g., electronic device 100 of FIG. 1) receives information from an otoscope device (e.g., otoscope device 180 of FIG. 1) to a patient (e.g., patient 170 of FIG. 1). Ear endoscopy images can be received. The otoscope device may include a CCD camera, a CMOS camera, etc. used in general endoscopes, but is not particularly limited thereto. An otoscope image is a medical image of a patient collected by a capsule endoscope image, ultrasound, or any other medical imaging system known in the art of the present invention, and may be an image converted into a form similar to an otoscope image.
단계(220)에서, 전자 장치는 수신된 귀내시경 이미지로부터 추출된 관심 영역에 기초하여 입력 귀내시경 이미지를 생성할 수 있다. 입력 귀내시경을 생성하는 방법은 하기 도 4에서 후술한다.In step 220, the electronic device may generate an input otoscope image based on the region of interest extracted from the received otoscope image. A method of generating an input otoscope will be described later in Figure 4.
단계(230)에서, 전자 장치는 입력 귀내시경 이미지로부터 공유된 레이어에 기초하여 특징 데이터(feature data)를 추출할 수 있다. 특징 데이터는, 중이염 진단 모델의 공유된 레이어에 입력 귀내시경 이미지가 적용되어 추출된, 추상화된 값들을 포함할 수 있다. 예를 들어, 공유된 레이어는 복수의 컨볼루션 레이어(convolutional layer)들을 포함할 수 있다. 컨볼루션 레이어는, 복수의 컨볼루션 필터(convolutional filter)를 이용하여, 입력된 데이터(예를 들어, 입력 귀내시경 이미지)로부터 복수의 특징맵을 추출하는데 이용될 수 있다. 여기서, 공유된 레이어로부터 추출된 복수의 특징맵은, 특징 데이터일 수 있다. 후술하겠으나, 전자 장치는 특징 데이터를 복수의 분류기 레이어들에 적용하여, 복수의 질환 예측 결과들을 출력할 수 있다.In step 230, the electronic device may extract feature data based on the shared layer from the input otoscope image. The feature data may include abstracted values extracted by applying the input otoscope image to the shared layer of the otitis media diagnosis model. For example, a shared layer may include multiple convolutional layers. The convolutional layer may be used to extract a plurality of feature maps from input data (eg, an input otoscope image) using a plurality of convolutional filters. Here, a plurality of feature maps extracted from the shared layer may be feature data. As will be described later, the electronic device may apply feature data to a plurality of classifier layers and output a plurality of disease prediction results.
단계(240a)에서, 전자 장치는 추출된 특징 데이터로부터 제1 분류기 레이어에 기초하여 프라이머리(primary) 클래스에 속하는 질환들에 대한 질환 예측 결과를 출력할 수 있다. 예를 들어, 제1 분류기 레이어는 공유된 레이어에서 추출된 특징 데이터로부터 프라이머리 클래스에 속하는 질환들에 대한 예측 결과를 출력하는 레이어들을 포함할 수 있다. 제1 분류기 레이어에 관한 자세한 설명은 하기 도 4에서 후술한다.In step 240a, the electronic device may output disease prediction results for diseases belonging to the primary class based on the first classifier layer from the extracted feature data. For example, the first classifier layer may include layers that output prediction results for diseases belonging to the primary class from feature data extracted from the shared layer. A detailed description of the first classifier layer is described later in FIG. 4.
프라이머리 클래스에 속하는 질환들은 삼출성 중이염(OME: otitis media with effusion), 만성 중이염(COM: chronic otitis media), 선천성 진주종(congenital cholesteatoma), 또는 질환 부재(absence) 중 적어도 하나 이상을 포함할 수 있다. 프라이머리 클래스에 속하는 질환들에 관한 설명은 하기 도 3에서 후술한다.Diseases belonging to the primary class may include at least one of otitis media with effusion (OME), chronic otitis media (COM), congenital cholesteatoma, or absence of disease. there is. A description of the diseases belonging to the primary class will be provided later in FIG. 3.
질환 예측 결과는 프라이머리 클래스에 속하는 질환들 중, 가장 높은 확률을 가지는 질환일 수 있다. 예를 들어, 전자 장치는 제1 분류기 레이어에 기초하여, 추출된 특징 데이터로부터 프라이머리 클래스에 속하는 질환들에 관한 확률들을 획득할 수 있다. 전자 장치는 특징 데이터로부터 제1 분류기 레이어에 기초하여 삼출성 중이염에 대한 확률, 만성 중이염에 대한 확률, 또는 질환 부재에 대한 확률 중 적어도 하나 이상의 확률을 획득할 수 있다. 전자 장치는 프라이머리 질환들에 관한 확률 중 가장 높은 확률을 가지는 질환을 질환 예측 결과로서 사용자에게 출력할 수 있다. 구체적으로, 전자 장치는, 삼출성 중이염에 대한 확률, 만성 중이염에 대한 확률, 또는 질환 부재에 대한 확률 중 가장 높은 확률을 가지는 질환을 질환 예측 결과로서 사용자에게 출력할 수 있다. 다만, 이로 한정하는 것은 아니고, 전자 장치는 삼출성 중이염에 대한 확률, 만성 중이염에 대한 확률, 또는 질환 부재에 대한 확률 중 적어도 하나 이상의 확률을 포함하는 확률들의 집합을 질환 예측 결과로서 사용자에게 출력할 수 있다. 또한, 질환 예측 결과를 프라이머리 클래스에 속하는 질환들에 대한 확률로 한정하는 것은 아니고, 프라이머리 클래스에 속하는 질환들 각각에 대한 통계 결과일 수 있다. 프라이머리 클래스에 속하는 질환들의 통계 결과를 획득하는 방법은, 하기 도 7에서 후술한다.The disease prediction result may be a disease with the highest probability among diseases belonging to the primary class. For example, the electronic device may obtain probabilities regarding diseases belonging to the primary class from extracted feature data based on the first classifier layer. The electronic device may obtain at least one of a probability for otitis media with effusion, a probability for chronic otitis media, or a probability for the absence of a disease based on the first classifier layer from the feature data. The electronic device may output to the user the disease with the highest probability among the probabilities of primary diseases as a disease prediction result. Specifically, the electronic device may output to the user the disease with the highest probability among the probability of otitis media with effusion, the probability of chronic otitis media, or the probability of the absence of the disease as a disease prediction result. However, it is not limited to this, and the electronic device may output to the user a set of probabilities including at least one of the probability of otitis media with effusion, the probability of chronic otitis media, or the probability of the absence of the disease as a disease prediction result. there is. Additionally, the disease prediction result is not limited to the probability of diseases belonging to the primary class, but may be a statistical result for each disease belonging to the primary class. A method of obtaining statistical results for diseases belonging to the primary class is described later in FIG. 7.
단계(240b)에서, 전자 장치는, 제1 분류기 레이어와 분리된 복수의 제2 분류기 레이어들에 기초하여, 세컨더리(secondary) 클래스에 속하는 질환들의 각 질환에 대한 단일 질환 예측 결과를 개별적으로 출력할 수 있다. 예를 들어, 제2 분류기 레이어들은 공유된 레이어에서 추출된 특징 데이터로부터 세컨더리 클래스에 속하는 질환들의 각 질환에 대한 예측 결과를 개별적으로 출력하는 레이어들을 포함할 수 있다. 복수의 제2 분류기 레이어들 각각은, 세컨더리 클래스에 속하는 질환들 중 적어도 하나의 질환에 대한 단일 질환 예측 결과를 출력할 수 있다. 제2 분류기 레이어들에 관한 자세한 설명은 하기 도 4에서 후술한다.In step 240b, the electronic device may individually output a single disease prediction result for each disease of diseases belonging to the secondary class, based on the first classifier layer and the plurality of second classifier layers separated. You can. For example, the second classifier layers may include layers that individually output prediction results for each disease belonging to the secondary class from feature data extracted from the shared layer. Each of the plurality of second classifier layers may output a single disease prediction result for at least one disease among diseases belonging to the secondary class. A detailed description of the second classifier layers is described later in FIG. 4.
세컨더리 클래스에 속하는 질환들은 상고실 진주종(Attic Cholesteatoma), 고막염(Myringitis), 귀곰팡이증(Otomycosis), 고실 경화증(tympanosclerotic plague), 또는 환기관(Ventilating tube) 중 적어도 하나 이상을 포함할 수 있다. 세컨더리 클래스에 속하는 질환들에 관한 설명은 하기 도 3에서 후술한다.Diseases belonging to the secondary class may include at least one of the following: Attic Cholesteatoma, Myringitis, Otomycosis, Tympanosclerotic Plague, or Ventilating Tube. A description of diseases belonging to the secondary class will be provided later in FIG. 3.
단일 질환 예측 결과는 세컨더리 클래스에 속하는 질환들 각각에 대한 질환 발생 결과일 수 있다. 예를 들어, 질환 발생 결과는 질환이 발생되었는지 여부를 나타내는 결과일 수 있다. 전자 장치는 복수의 제2 분류기 레이어들 각각에 기초하여, 특징 데이터로부터 세컨더리 클래스에 속하는 세컨더리 질환에 관한 확률을 획득할 수 있다. 전자 장치는, 상고실 진주종에 대한 확률, 고막염에 대한 확률, 귀곰팡이증에 대한 확률, 또는 환기관에 대한 확률을, 제2 분류기 레이어들 중 해당하는 제2 분류기 레이어에서 개별적으로 획득할 수 있다. 전자 장치는, 세컨더리 클래스에 속하는 질환들 각각에 대한 확률이 사용자에 의해 미리 결정된 임계 값 이상인 경우, 세컨더리 클래스에 속하는 질환들 각각에 대해 질환 발생 결과를 결정할 수 있다. 전자 장치는, 결정된 질환 발생 결과에 기초하여, 사용자에게, 세컨더리 클래스에 속하는 질환들 각각에 대한 질환 발생 결과를 출력할 수 있다. 즉, 전자 장치는 제2 분류기 레이어들 각각에 대한 세컨더리 질환에 관한 확률에 기초한 질환 발생 결과를, 제2 분류기 레이어들 각각에 대한 단일 질환 예측 결과로서 사용자에게 출력할 수 있다. 다만, 단일 질환 예측 결과를 세컨더리 클래스에 속하는 질환들 각각에 대한 확률에 의한 질환 발생 결과로 한정하는 것은 아니고, 세컨더리 클래스에 속하는 질환들 각각에 대한 통계 결과일 수 있다. 세컨더리 클래스에 속하는 질환들의 통계 결과를 획득하는 방법은, 하기 도 7에서 후술한다.The single disease prediction result may be the disease occurrence result for each of the diseases belonging to the secondary class. For example, a disease occurrence result may be a result indicating whether a disease has occurred. The electronic device may obtain a probability regarding a secondary disease belonging to the secondary class from feature data based on each of the plurality of second classifier layers. The electronic device may separately obtain the probability for epitympanic cholesteatoma, probability for tympanitis, probability for ear fungus, or probability for ventilator tract separately from a corresponding second one of the second classifier layers. . If the probability for each of the diseases belonging to the secondary class is greater than or equal to a threshold predetermined by the user, the electronic device may determine the disease occurrence result for each of the diseases belonging to the secondary class. The electronic device may output the disease occurrence results for each of the diseases belonging to the secondary class to the user based on the determined disease occurrence results. That is, the electronic device may output a disease occurrence result based on the probability of a secondary disease for each of the second classifier layers to the user as a single disease prediction result for each of the second classifier layers. However, the single disease prediction result is not limited to the disease occurrence result based on the probability for each disease belonging to the secondary class, but may be a statistical result for each disease belonging to the secondary class. A method of obtaining statistical results for diseases belonging to the secondary class will be described later with reference to FIG. 7.
도 3은 일 실시예에 따른 프라이머리 클래스에 속하는 질환 및 세컨더리 클래스에 속하는 질환을 도시한 도면이다.FIG. 3 is a diagram illustrating a disease belonging to a primary class and a disease belonging to a secondary class according to an embodiment.
일 실시예에 따른 프라이머리 클래스(310)는 중이염 관련 질환들 중 서로 동시에 존재 및/또는 발병할 가능성이 낮은 질환들로서, 예시적으로, 서로 일정 시간 기간(time period) 동안 함께 발병이 불가능한 질환들을 포함할 수 있다. 구체적으로, 동시에 존재할 수 있는 가능성은 사용자의 판단 또는 과거 진료기록의 통계 결과 중 적어도 하나에 의해 결정될 수 있다. 사용자의 판단은, 특정 질환이 의료인 또는 의료 관계인에 의해 프라이머리 클래스에 속하는 질환으로 결정된 예시일 수 있다. 통계 결과는 복수의 귀내시경 이미지들 또는 복수의 진료 기록에서 특정 질환들이 동시에 존재할 수 있는 가능성을 나타내는 결과일 수 있다. 그러므로, 환자의 고막을 촬영한 귀내시경 이미지는, 삼출성 중이염 및 만성 중이염을 동시에 포함할 수 있는 가능성이 낮을 수 있다. 세컨더리 클래스(320)는 중이염 관련 질환들 중 서로 일정 시간 기간 동안 함께 발병이 가능한 질환들을 포함할 수 있다. 예를 들어, 세컨더리 클래스(320)에 속하는 질환들은 환자의 고막에서 동시에 존재할 수 있는 가능성이 높은 질환들일 수 있다. 예를 들어, 환자의 고막을 촬영한 귀내시경 이미지는, 상고실 진주종 및 고막염을 동시에 포함할 수 있는 가능성이 높을 수 있다.The primary class 310 according to an embodiment refers to diseases that are unlikely to exist and/or develop at the same time among otitis media-related diseases. For example, the primary class 310 includes diseases that cannot occur together during a certain time period. It can be included. Specifically, the possibility of simultaneous existence may be determined by at least one of the user's judgment or statistical results of past medical records. The user's judgment may be an example of a specific disease being determined as a disease belonging to the primary class by a medical professional or medical personnel. The statistical result may be a result indicating the possibility that certain diseases may exist simultaneously in multiple otoscope images or multiple medical records. Therefore, an otoscope image taken of a patient's eardrum may have a low possibility of simultaneously containing otitis media with effusion and chronic otitis media. The secondary class 320 may include diseases related to otitis media that can occur together over a certain period of time. For example, diseases belonging to the secondary class 320 may be diseases that are likely to co-exist in the patient's eardrum. For example, an otoscope image taken of a patient's eardrum may have a high possibility of simultaneously containing epitympanic cholesteatoma and myringitis.
도 4는 일 실시예에 따른 귀내시경 이미지로부터 중이염을 진단하는 중이염 진단 모델을 도시한 도면이다.Figure 4 is a diagram illustrating an otitis media diagnosis model for diagnosing otitis media from an otoscope image according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(100))는 귀내시경 이미지(410)를 학습된 중이염 진단 모델(440)에 적용시킬 수 있다. 구체적으로, 전자 장치는 귀내시경 이미지(410)에서 환자의 개인식별가능정보를 제거할 수 있다. 전자 장치는 귀내시경 이미지(410)로부터 미리 지정된 형상을 갖는 관심 영역(415)을 추출할 수 있다. 전자 장치는 추출된 관심 영역(415)을, 2차원 형태의 귀내시경 이미지의 중앙(center)에 배치시킬 수 있다. 전자 장치는, 관심 영역(415)을 귀내시경 이미지의 중앙에 배치시킴으로써, 입력 귀내시경 이미지(430)를 생성할 수 있다. 전자 장치는 귀내시경 이미지(410)에서 추출된 관심 영역(415)에 기초하여 생성된 입력 귀내시경 이미지(430)를, 학습된 중이염 진단 모델(440)에 적용시킬 수 있다. 전자 장치는 입력 귀내시경 이미지(430)를 학습된 중이염 진단 모델(440)에 적용하여, 복수의 질환 예측 결과들을 획득할 수 있다. 전자 장치는 입력 귀내시경 이미지(430)를 학습된 중이염 진단 모델(440)에 순전파(feed forward)시킨 것에 기초하여 복수의 질환 예측 결과들을 획득할 수 있다. An electronic device (e.g., the electronic device 100 of FIG. 1) according to an embodiment may apply the otoscope image 410 to the learned otitis media diagnosis model 440. Specifically, the electronic device may remove the patient's personally identifiable information from the otoscope image 410. The electronic device may extract a region of interest 415 having a predetermined shape from the otoscope image 410. The electronic device may place the extracted region of interest 415 at the center of the two-dimensional otoscope image. The electronic device may generate the input otoscope image 430 by placing the region of interest 415 at the center of the otoscope image. The electronic device may apply the input otoscope image 430 generated based on the region of interest 415 extracted from the otoscope image 410 to the learned otitis media diagnosis model 440. The electronic device may obtain a plurality of disease prediction results by applying the input otoscope image 430 to the learned otitis media diagnosis model 440. The electronic device may obtain a plurality of disease prediction results based on feeding forward the input otoscope image 430 to the learned otitis media diagnosis model 440.
예시적으로 중이염 진단 모델(440)은 뉴럴 네트워크를 포함할 수 있다. 뉴럴 네트워크는 레이어를 포함하고, 각 레이어는 노드를 포함할 수 있다. 노드는 활성화 함수(activation function)에 기초하여 결정되는 노드 값을 가질 수 있다. 임의의 레이어의 노드는 다른 레이어의 노드(예: 다른 노드)와 연결 가중치(connection weight)를 갖는 링크(예: 연결선(connection edge))를 통해 연결될 수 있다. 노드의 노드 값은 링크를 통해 다른 노드들로 전파될 수 있다. 뉴럴 네트워크의 추론 동작에서는, 노드 값들이 이전 레이어로부터 다음 레이어의 방향으로 순전파(forward propagate)될 수 있다. 예시적으로 중이염 진단 모델(440)에서 순전파 연산은, 공유된 레이어(442)의 입력측으로부터 분류기 레이어를 향하는 방향으로, 입력된 데이터에 기초한 노드 값을 전파하는 연산을 나타낼 수 있다. 노드와 연결선을 통해 연결된 다음 레이어의 노드(예: 다음 노드)로, 해당 노드의 노드 값이 전파(예: 순전파)될 수 있다. 예를 들어, 노드는 연결선을 통해 연결된 이전 노드(예: 복수의 노드들)로부터 연결 가중치에 의해 가중된(weighted) 값을 수신할 수 있다. 노드의 노드 값은 이전 노드들로부터 수신된 가중된 값들의 합(예: 가중 합)에 활성화 함수를 적용한 것에 기초하여 결정될 수 있다. 뉴럴 네트워크의 파라미터는 예시적으로 전술한 연결 가중치를 포함할 수 있다. 뉴럴 네트워크의 파라미터는 후술하는 목적 함수 값이 타겟팅된 방향(예: 손실이 최소화되는 방향)으로 변경되도록 업데이트될 수 있다.By way of example, the otitis media diagnosis model 440 may include a neural network. A neural network includes layers, and each layer can include nodes. A node may have a node value determined based on an activation function. A node in an arbitrary layer may be connected to a node in another layer (e.g., another node) through a link (e.g., a connection edge) with a connection weight. A node's node value can be propagated to other nodes through links. In the inference operation of a neural network, node values may be forward propagated from the previous layer to the next layer. For example, in the otitis media diagnosis model 440, the forward propagation operation may represent an operation that propagates node values based on input data in the direction from the input side of the shared layer 442 toward the classifier layer. The node value of that node can be propagated (e.g., forward propagation) to the node of the next layer (e.g., next node) connected to the node through a connection line. For example, a node may receive a value weighted by a connection weight from a previous node (eg, multiple nodes) connected through a connection line. The node value of a node may be determined based on applying an activation function to the sum of weighted values received from previous nodes (e.g., a weighted sum). Parameters of the neural network may exemplarily include the connection weights described above. The parameters of the neural network may be updated so that the objective function value, which will be described later, changes in the targeted direction (e.g., the direction in which loss is minimized).
전자 장치는 입력 귀내시경 이미지(430)를 학습된 중이염 진단 모델(440)에 적용함으로써, 공유된 레이어(442)에 기초하여 특징 데이터를 추출할 수 있다. 전자 장치는 추출된 특징 데이터를 분류기 레이어들에 적용함으로써, 분류기 레이어들에 기초하여 복수의 질환 예측 결과들을 출력할 수 있다.The electronic device may extract feature data based on the shared layer 442 by applying the input otoscope image 430 to the learned otitis media diagnosis model 440. The electronic device may output a plurality of disease prediction results based on the classifier layers by applying the extracted feature data to the classifier layers.
입력 귀내시경 이미지(430)는 관심 영역이 중앙에 배치된 형태로서, 256×256×3으로 재포맷된 RGB이미지일 수 있다. 관심 영역(415)은 귀내시경 이미지에서 환자의 고막을 포함하는 일정 영역(예를 들어, 원형)만이 선택된 영역일 수 있다. 전자 장치는, 환자의 고막에 대응되는 영역을 사용자의 관심 영역(415)으로 추정하여 추출할 수 있다. 전자 장치는 관심 영역(415)을 이미지의 중앙에 배치시킬 수 있다. 전자 장치는 관심 영역이 중앙에 배치된 이미지인 입력 귀내시경 이미지(430)로 생성할 수 있다.The input otoscope image 430 has the region of interest placed in the center and may be an RGB image reformatted to 256 × 256 × 3. The area of interest 415 may be an area where only a certain area (eg, a circle) including the patient's eardrum is selected in the otoscope image. The electronic device may estimate and extract the area corresponding to the patient's eardrum as the user's area of interest 415. The electronic device may place the region of interest 415 at the center of the image. The electronic device may generate an input otoscope image 430, which is an image in which the region of interest is located at the center.
학습된 중이염 진단 모델(440)은 기계 학습을 통해 학습된 모델을 나타낼 수 있고, 상세하게는, 이미지 또는 영상으로부터 중이염 질환에 관한 예측 결과를 출력하는 학습된 기계학습 모델일 수 있다. 학습된 중이염 진단 모델(440)은 입력 귀내시경 이미지(430)로부터 복수의 질환 예측 결과들을 출력할 수 있다.The learned otitis media diagnosis model 440 may represent a model learned through machine learning, and in detail, may be a learned machine learning model that outputs a prediction result regarding otitis media disease from an image or video. The learned otitis media diagnosis model 440 may output a plurality of disease prediction results from the input otoscope image 430.
기계학습 모델(예를 들어, 학습된 중이염 진단 모델(440))은 기계 학습을 통해 생성될 수 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 기계학습 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 구체적으로, 학습된 중이염 진단 모델(440)은 적어도 하나의 컨볼루션 연산을 포함하는 공유된 레이어(442)(shared layer) 및 상기 공유된 레이어(442)에 연결된 복수의 분류기 레이어들(예를 들어, task-specific layers)을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 참고로, 본 명세서에서는 중이염 진단 모델(440)의 공유된 레이어(442)가, 적어도 하나의 컨볼루션 연산을 포함하는 CNN(convolutional neural network)인 예를 주로 설명한다. 예를 들어, 중이염 진단 모델(440)은 EfficientNet B-4 모델일 수 있다. 또한, 지도형 학습의 경우, 상술한 기계 학습 모델은 트레이닝 입력(예를 들어, 학습을 위한 환자(예: 도 1의 환자(170))의 귀내시경 이미지) 및 해당 트레이닝 입력에 매핑된 트레이닝 출력(예를 들어, 학습을 위한 복수의 질환 예측 결과들)의 쌍을 포함하는 트레이닝 데이터에 기초하여 학습될 수 있다. 예를 들어, 기계 학습 모델은 트레이닝 입력으로부터 트레이닝 출력을 출력하도록 학습될 수 있다. 학습 중의 기계 학습 모델은 트레이닝 입력에 응답하여 임시 출력을 생성할 수 있고, 임시 출력 및 트레이닝 출력(예를 들어, 트레이닝의 타겟) 간의 손실이 최소화되도록 학습될 수 있다. 학습 과정 동안 기계 학습 모델의 파라미터(예를 들어, 뉴럴 네트워크에서 노드들/레이어들 간의 연결 가중치)가 손실에 따라 업데이트될 수 있다. 이러한 학습은, 예를 들어, 기계학습 모델이 수행되는 전자 장치 자체에서 수행될 수 있고, 별도의 서버를 통해 수행될 수도 있다. 학습이 완료된 기계 학습 모델(예를 들어, 학습된 중이염 진단 모델(440))은 메모리(예: 도 1의 메모리(120))에 저장될 수 있다.A machine learning model (eg, the learned otitis media diagnosis model 440) may be created through machine learning. Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited. A machine learning model may include multiple artificial neural network layers. Specifically, the learned otitis media diagnosis model 440 includes a shared layer 442 including at least one convolution operation and a plurality of classifier layers connected to the shared layer 442 (e.g. , task-specific layers). Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. For reference, this specification mainly describes an example in which the shared layer 442 of the otitis media diagnosis model 440 is a convolutional neural network (CNN) including at least one convolution operation. For example, the otitis media diagnosis model 440 may be an EfficientNet B-4 model. Additionally, in the case of supervised learning, the above-described machine learning model has a training input (e.g., an otoscope image of a patient for learning (e.g., patient 170 in FIG. 1)) and a training output mapped to the training input. It may be learned based on training data including pairs of (eg, a plurality of disease prediction results for learning). For example, a machine learning model can be trained to output training output from training input. A machine learning model being trained may produce temporary outputs in response to training inputs, and may be trained such that loss between the temporary outputs and the training outputs (e.g., targets of training) is minimized. During the learning process, parameters of the machine learning model (e.g., connection weights between nodes/layers in a neural network) may be updated according to the loss. This learning may be performed, for example, in the electronic device itself on which the machine learning model is performed, or may be performed through a separate server. The machine learning model on which training has been completed (eg, the learned otitis media diagnosis model 440) may be stored in a memory (eg, the memory 120 of FIG. 1).
참고로, 전자 장치는 중이염 진단 모델의 학습을 위해, 수학식 1을 중이염 진단 모델의 학습에 목적 함수로서 사용할 수 있다.For reference, the electronic device may use Equation 1 as an objective function for learning the otitis media diagnosis model.
[수학식 1][Equation 1]
Figure PCTKR2023007254-appb-img-000001
Figure PCTKR2023007254-appb-img-000001
여기서,
Figure PCTKR2023007254-appb-img-000002
은 중이염 진단 모델의 학습에 사용되는 트레이닝 입력의 개수를 나타낼 수 있고,
Figure PCTKR2023007254-appb-img-000003
은 클래스들의 개수(예를 들어, 도 4를 참조하면 5개의 클래스 개수)를 나타낼 수 있다. 또한,
Figure PCTKR2023007254-appb-img-000004
Figure PCTKR2023007254-appb-img-000005
번째 트레이닝 입력의 클래스
Figure PCTKR2023007254-appb-img-000006
의 참값(ground truth)를 나타낼 수 있고,
Figure PCTKR2023007254-appb-img-000007
Figure PCTKR2023007254-appb-img-000008
번째 트레이닝 입력의 클래스
Figure PCTKR2023007254-appb-img-000009
의 임시 출력(예를 들어, 출력되는 확률)을 나타낼 수 있다. 또한,
Figure PCTKR2023007254-appb-img-000010
는 'categorical cross-entropy loss'를 나타낼 수 있다.
here,
Figure PCTKR2023007254-appb-img-000002
may represent the number of training inputs used for learning the otitis media diagnosis model,
Figure PCTKR2023007254-appb-img-000003
may represent the number of classes (for example, 5 classes, referring to FIG. 4). also,
Figure PCTKR2023007254-appb-img-000004
Is
Figure PCTKR2023007254-appb-img-000005
Class of training input
Figure PCTKR2023007254-appb-img-000006
can represent the ground truth of
Figure PCTKR2023007254-appb-img-000007
Is
Figure PCTKR2023007254-appb-img-000008
Class of training input
Figure PCTKR2023007254-appb-img-000009
It can represent a temporary output (e.g., output probability). also,
Figure PCTKR2023007254-appb-img-000010
can represent 'categorical cross-entropy loss'.
다시 말해, 전자 장치는 상술한 수학식 1을 기계학습 모델의 학습을 위한 목적 함수로 설정하고, 상술한 목적 함수를 통해 학습된 기계학습 모델을 학습된 중이염 진단 모델(440)로 할 수 있다.In other words, the electronic device may set the above-described Equation 1 as an objective function for learning the machine learning model, and use the machine learning model learned through the above-described objective function as the learned otitis media diagnosis model 440.
공유된 레이어(442)는 입력 레이어 및 히든 레이어인 복수의 컨볼루션 레이어(convolutional layer)들을 포함할 수 있다. 전자 장치는, 컨볼루션 레이어에서 제1 컨볼루션 필터(예를 들어, 도 4에서 'Conv 3×3') 또는 제2 컨볼루션 필터(예를 들어, 도 4에서 'MBConv 3×3') 중 적어도 하나 이상의 컨볼루션 필터를 사용할 수 있다. 컨볼루션 레이어는 입력 데이터(예를 들어, 입력 귀내시경 이미지(430))와 컨볼루션 필터 간의 컨볼루션 동작을 수행하는 레이어일 수 있다. 예를 들어, 제1 컨볼루션 필터 및 제2 컨볼루션 필터는, 학습된 연결 가중치를 나타낼 수 있다. 전자 장치는, 공유된 레이어(442)에서 입력 귀내시경 이미지(430) 및 학습된 연결 가중치 간의 컨볼루션 동작에 기초하여, 특징 데이터를 추출할 수 있다.The shared layer 442 may include a plurality of convolutional layers, which are an input layer and a hidden layer. The electronic device uses either a first convolutional filter (e.g., 'Conv 3×3' in FIG. 4) or a second convolutional filter (e.g., 'MBConv 3x3' in FIG. 4) in the convolution layer. At least one convolution filter can be used. The convolution layer may be a layer that performs a convolution operation between input data (eg, input otoscope image 430) and a convolution filter. For example, the first convolutional filter and the second convolutional filter may represent learned connection weights. The electronic device may extract feature data based on a convolution operation between the input otoscope image 430 and the learned connection weights in the shared layer 442.
분류기 레이어들은 프라이머리(primary) 클래스에 속하는 질환들에 대한 질환 예측 결과를 출력하는 제1 분류기 레이어(444) 및 세컨더리(secondary) 클래스에 속하는 질환들에 대한 단일 질환 예측 결과를 개별적으로 출력하는 제2 분류기 레이어들(446)을 포함할 수 있다. 분류기 레이어들 각각은, 서로 별개의 학습된 연결 가중치(예를 들어, 분류기 레이어들 각각에서 노드들/레이어들 간의 연결 가중치)들을 포함할 수 있다. 전자 장치는, 분류기 레이어에서 추출된 특징 데이터 및 학습된 연결 가중치 간의 연산에 기초하여, 복수의 질환 예측 결과들을 획득할 수 있다.The classifier layers include a first classifier layer 444 that outputs disease prediction results for diseases belonging to the primary class and a second classifier layer 444 that individually outputs single disease prediction results for diseases belonging to the secondary class. It may include 2 classifier layers 446. Each of the classifier layers may include separate learned connection weights (eg, connection weights between nodes/layers in each of the classifier layers). The electronic device may obtain a plurality of disease prediction results based on an operation between feature data extracted from the classifier layer and learned connection weights.
제1 분류기 레이어(444)는 제2 분류기 레이어들(446)과 분리된 레이어들을 포함할 수 있다. 전자 장치는, 특징 데이터 및 제1 분류기 레이어(444)의 학습된 연결 가중치 간의 연산을 통해 제1 분류기 레이어(444)에서 질환 예측 결과를 출력할 수 있다.The first classifier layer 444 may include separate layers from the second classifier layers 446. The electronic device may output a disease prediction result from the first classifier layer 444 through calculation between the feature data and the learned connection weight of the first classifier layer 444.
제2 분류기 레이어들(446)은 제1 분류기 레이어와 분리된 적어도 하나 이상의 레이어들을 포함할 수 있다. 전자 장치는, 특징 데이터 및 제2 분류기 레이어들(446) 각 레이어의 학습된 연결 가중치 간의 연산을 통해 단일 질환 예측 결과를 출력할 수 있다.The second classifier layers 446 may include at least one layer separate from the first classifier layer. The electronic device may output a single disease prediction result through calculation between the feature data and the learned connection weights of each layer of the second classifier layers 446.
전자 장치는 하나의 입력 귀내시경 이미지(430)를, 하나의 학습된 중이염 진단 모델(440)에 적용하여, 복수의 질환 예측 결과들을 획득할 수 있다. 전자 장치는 하나의 특징 데이터를 복수개의 분류기 레이어들에 적용하여, 복수개의 중이염 관련 질환 예측 결과들을 출력할 수 있다. 전자 장치는, 학습된 중이염 진단 모델(440)을 통해, 비교 대상 모델(예를 들어, 독립 중이염 진단 모델) 대비 사용자에게 높은 정확성 및 편의성을 제공할 수 있다. 예를 들어, 전자 장치는, 하나의 입력 귀내시경 이미지(430)를 하나의 학습된 중이염 진단 모델(440)에 적용함으로써, 사용자에게 복수의 질환 예측 결과들을 동시에(simultaneously) 제공할 수 있다. 사용자는, 하나의 입력 귀내시경 이미지(430)를 학습된 중이염 진단 모델(440)에 한 번 적용시킴으로써, 복수의 질환 예측 결과들을 동시에 획득할 수 있다. 학습된 중이염 진단 모델(440)은 복수개의 분류기 레이어들을 통해 복수의 질환 예측 결과들을 동시에 출력할 수 있다. 또한, 학습된 중이염 진단 모델(440)은 비교 대상 모델 대비 우수한 성능을 가질 수 있다. 예를 들어, 학습된 중이염 진단 모델(440)은, 동일한 입력 귀내시경 이미지에 대해, 비교 대상 모델 대비 정답에 가까운 결과를 출력할 수 있다. 학습된 중이염 진단 모델(440)의 정확성에 관한 설명은 하기 도 8 내지 도 10에서 후술한다.The electronic device may obtain a plurality of disease prediction results by applying one input otoscope image 430 to one learned otitis media diagnosis model 440. The electronic device may apply one feature data to a plurality of classifier layers and output a plurality of otitis media-related disease prediction results. Through the learned otitis media diagnosis model 440, the electronic device can provide high accuracy and convenience to the user compared to a comparison target model (eg, an independent otitis media diagnosis model). For example, the electronic device may simultaneously provide a plurality of disease prediction results to the user by applying one input otoscope image 430 to one learned otitis media diagnosis model 440. A user can simultaneously obtain a plurality of disease prediction results by applying one input otoscope image 430 to the learned otitis media diagnosis model 440 once. The learned otitis media diagnosis model 440 can simultaneously output a plurality of disease prediction results through a plurality of classifier layers. Additionally, the learned otitis media diagnosis model 440 may have superior performance compared to the model being compared. For example, the learned otitis media diagnosis model 440 may output a result closer to the correct answer than the comparison target model for the same input otoscope image. The accuracy of the learned otitis media diagnosis model 440 will be described later in FIGS. 8 to 10 below.
도 5는 일 실시예에 따른 중이염 진단 모델로부터 획득되는 예측 결과들을 도시한 도면이다.Figure 5 is a diagram illustrating prediction results obtained from an otitis media diagnosis model according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(100))는 학습된 중이염 진단 모델(예: 도 4의 학습된 중이염 진단 모델(440))을 통해, 복수의 질환 예측 결과들을 출력할 수 있다. 구체적으로, 전자 장치는 하나의 중이염 질환 또는 복수의 중이염 질환들에 대해 예측 결과들을 출력할 수 있다.An electronic device (e.g., the electronic device 100 of FIG. 1) according to an embodiment outputs a plurality of disease prediction results through a learned otitis media diagnosis model (e.g., the learned otitis media diagnosis model 440 of FIG. 4). can do. Specifically, the electronic device may output prediction results for one otitis media disease or multiple otitis media diseases.
전자 장치는 하나의 중이염 질환에 대해 제1 결과(510) 내지 제3 결과(530)를 출력할 수 있다. 예를 들어, 제1 결과(510)의 정답이 normal인 경우, 전자 장치는 중이염 진단 모델의 제1 분류기 레이어에서 프라이머리 클래스에 속하는 질환들 중 질환 부재를 나타내는 'None'결과(예를 들어, 제1 결과(510)의 질환 예측 결과)를 출력할 수 있다. 또한, 전자 장치는 중이염 진단 모델의 제2 분류기 레이어들에서 세컨더리 클래스에 속하는 질환들 각각에 대하여 'False'결과(예를 들어, 제1 결과(510)의 단일 질환 예측 결과)를 출력할 수 있다. 예를 들어, 제2 결과(520)의 정답이 귀곰팡이증(Otomycosis)인 경우, 전자 장치는 중이염 진단 모델의 제1 분류기 레이어에서 프라이머리 클래스에 속하는 질환들 중 질환 부재를 나타내는 'None'결과를 출력할 수 있다. 또한, 전자 장치는 중이염 진단 모델의 제2 분류기 레이어들 중, 귀곰팡이증에 해당하는 제2 분류기 레이어에서 'True'결과를 출력할 수 있다. 예를 들어, 제3 결과(530)의 정답이 만성 중이염(COM: chronic otitis media)인 경우, 전자 장치는 중이염 진단 모델의 제1 분류기 레이어에서 프라이머리 클래스에 속하는 질환들 중 만성 중이염을 나타내는 'COM'결과를 출력할 수 있다. 또한, 전자 장치는 중이염 진단 모델의 제2 분류기 레이어들에서 세컨더리 클래스에 속하는 질환들 각각에 대하여 'False'결과를 출력할 수 있다.The electronic device may output first results 510 to third results 530 for one otitis media disease. For example, if the correct answer to the first result 510 is normal, the electronic device produces a 'None' result indicating the absence of the disease among the diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model (e.g., The disease prediction result of the first result 510) may be output. Additionally, the electronic device may output a 'False' result (e.g., a single disease prediction result of the first result 510) for each disease belonging to the secondary class in the second classifier layers of the otitis media diagnosis model. . For example, if the correct answer to the second result 520 is Otomycosis, the electronic device produces a 'None' result indicating the absence of the disease among the diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model. can be output. Additionally, the electronic device may output a 'True' result from the second classifier layer corresponding to ear fungus among the second classifier layers of the otitis media diagnosis model. For example, if the correct answer to the third result 530 is chronic otitis media (COM), the electronic device selects 'chronic otitis media' among the diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model. COM' results can be output. Additionally, the electronic device may output a 'False' result for each of the diseases belonging to the secondary class in the second classifier layers of the otitis media diagnosis model.
전자 장치는 복수의 중이염 질환들에 대해 제4 결과(540) 및 제5 결과(550)를 출력할 수 있다. 예를 들어, 제4 결과(540)의 정답이 삼출성 중이염(OME: otitis media with effusion) 및 고막염(Myringitis)인 경우, 전자 장치는 중이염 진단 모델의 제1 분류기 레이어에서 프라이머리 클래스에 속하는 질환들 중 삼출성 중이염을 나타내는 'OME'결과를 출력할 수 있다. 또한, 전자 장치는 중이염 진단 모델의 제2 분류기 레이어들 중, 고막염에 해당하는 제2 분류기 레이어에서 'True'결과를 출력할 수 있다. 예를 들어, 제5 결과(550)의 정답이 고막염(Myringitis) 및 환기관(Ventilating tube)인 경우, 전자 장치는 중이염 진단 모델의 제1 분류기 레이어에서 프라이머리 클래스에 속하는 질환들 중 질환 부재를 나타내는 'None'결과를 출력할 수 있다. 또한, 전자 장치는 중이염 진단 모델의 제2 분류기 레이어들 중, 고막염에 해당하는 제2 분류기 레이어에서 'True'결과 및 환기관에 해당하는 제2 분류기 레이어에서 'True'결과를 출력할 수 있다.The electronic device may output fourth results 540 and fifth results 550 for a plurality of otitis media diseases. For example, if the correct answer to the fourth result 540 is otitis media with effusion (OME) and Myringitis, the electronic device selects diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model. The 'OME' result, which indicates otitis media with effusion, can be output. Additionally, the electronic device may output a 'True' result from the second classifier layer corresponding to myringitis among the second classifier layers of the otitis media diagnosis model. For example, if the correct answer to the fifth result 550 is Myringitis and Ventilating tube, the electronic device indicates the absence of the disease among the diseases belonging to the primary class in the first classifier layer of the otitis media diagnosis model. A result of 'None' can be output. Additionally, among the second classifier layers of the otitis media diagnosis model, the electronic device may output a 'True' result from the second classifier layer corresponding to myringitis and a 'True' result from the second classifier layer corresponding to the ventilation duct.
도6a 내지 도 6c는 일 실시예에 따른 중이염 진단 모델의 분류기 레이어들에서 획득되는 예측 결과를 도시한 도면이다.Figures 6A to 6C are diagrams showing prediction results obtained from classifier layers of an otitis media diagnosis model according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(100))는, 환자(664a)의 입력 귀내시경 이미지(610a)에 대한 질환 예측 결과(650a)를 사용자(662a)에게 출력할 수 있다. 예를 들어, 전자 장치는 입력 귀내시경 이미지(610a)를 중이염 진단 모델에 적용하여, 프라이머리 클래스에 속하는 질환들에 대한 제1 확률 결과(640a)를 획득할 수 있다. 구체적으로, 전자 장치는 입력 귀내시경 이미지(610a)를 공유된 레이어(620a)에 적용하여 특징 데이터를 추출하고, 추출된 특징 데이터를 분류기 레이어들 중 제1 분류기 레이어(630a)에 적용하여 제1 확률 결과(640a)를 획득할 수 있다. 전자 장치는, 제1 확률 결과(640a) 중 가장 높은 확률을 가지는 질환(예를 들어, 도 6a에서는 만성 중이염(COM: chronic otitis media))을 질환 예측 결과(650a)로서 출력할 수 있다. 전자 장치는, 질환 예측 결과(650a)를 디스플레이(660a)를 통해 사용자(662a)에게 출력할 수 있다. 다만, 질환 예측 결과(650a)를 이로 한정하는 것은 아니고, 전자 장치는 환자(664a)의 복수의 입력 귀내시경 이미지에 대해 질환 예측 결과를 사용자(662a)에게 출력할 수 있다. 예를 들어, 전자 장치는 복수의 입력 귀내시경 이미지 각각을, 중이염 진단 모델에 적용하여, 프라이머리 클래스에 속하는 질환들 각각에 대한 확률들을 획득할 수 있다. 전자 장치는, 프라이머리 클래스에 속하는 질환들 각각에 대해, 획득된 복수의 확률들에 기초하여, 복수의 입력 귀내시경 이미지에 대한 제1 확률 결과를 획득할 수 있다. 구체적으로, 전자 장치는 프라이머리 클래스에 속하는 질환들 각각에 대해, 획득된 복수의 확률들의 평균값, 중앙값, 또는 최빈값 중 적어도 하나를, 프라이머리 클래스에 속하는 질환들 각각에 대한 확률로 계산할 수 있다. 전자 장치는, 복수의 입력 귀내시경 이미지에 대한 제1 확률 결과 중 가장 높은 확률을 가지는 질환을 질환 예측 결과로서 출력할 수 있다.An electronic device (e.g., the electronic device 100 of FIG. 1) according to an embodiment may output a disease prediction result 650a for the input otoscope image 610a of the patient 664a to the user 662a. there is. For example, the electronic device may apply the input otoscope image 610a to the otitis media diagnosis model to obtain a first probability result 640a for diseases belonging to the primary class. Specifically, the electronic device extracts feature data by applying the input otoscope image 610a to the shared layer 620a, and applies the extracted feature data to the first classifier layer 630a among the classifier layers to determine the first classifier layer 630a. A probability result 640a can be obtained. The electronic device may output the disease with the highest probability among the first probability results 640a (for example, chronic otitis media (COM) in FIG. 6A) as the disease prediction result 650a. The electronic device may output the disease prediction result 650a to the user 662a through the display 660a. However, the disease prediction result 650a is not limited to this, and the electronic device may output the disease prediction result to the user 662a for a plurality of input otoscope images of the patient 664a. For example, the electronic device may apply each of a plurality of input otoscope images to an otitis media diagnosis model to obtain probabilities for each of the diseases belonging to the primary class. The electronic device may obtain a first probability result for a plurality of input otoscope images based on a plurality of probabilities obtained for each of the diseases belonging to the primary class. Specifically, the electronic device may calculate at least one of the average, median, or mode of the plurality of probabilities obtained for each of the diseases belonging to the primary class as the probability for each of the diseases belonging to the primary class. The electronic device may output a disease with the highest probability among first probability results for a plurality of input otoscope images as a disease prediction result.
일 실시예에 따른 전자 장치는, 환자(664b)의 입력 귀내시경 이미지(610b)에 대한 단일 질환 예측 결과들(650b)을 사용자(662b)에게 출력할 수 있다. 예를 들어, 전자 장치는 입력 귀내시경 이미지(610b)를 중이염 진단 모델에 적용하여, 세컨더리 클래스에 속하는 질환들에 대한 제2 확률 결과들(640b)을 획득할 수 있다. 구체적으로, 전자 장치는 입력 귀내시경 이미지(610b)를 공유된 레이어(620b)에 적용하여 특징 데이터를 추출하고, 추출된 특징 데이터를 분류기 레이어들 중 제2 분류기 레이어들(630b)에 적용하여 제2 확률 결과들(640b)을 획득할 수 있다. 전자 장치는, 세컨더리 클래스에 속하는 질환들 각각에 대한 확률이 사용자에 의해 미리 결정된 임계 값 이상인 경우, 세컨더리 클래스에 속하는 질환들 각각에 대해 질환 발생 결과를 결정할 수 있다. 전자 장치는, 제2 확률 결과들(640b)에 대해 미리 결정된 임계 값(예를 들어, 도 6b에서는 50%의 확률을 임계 값인 것으로 설정됨) 이상인지 여부를 통해, 단일 질환 예측 결과들(650b)을 출력할 수 있다. 예를 들어, 도 6b에서, 전자 장치는 상고실 진주종(Attic Cholesteatoma)에 대한 확률이 80%이므로, 상고실 진주종에 대해 'True'결과를 출력할 수 있다. 여기서, 상고실 진주종에 대해 'True'결과는 환자(664b)에게 상고실 진주종 질환이 발생되었다는 것을 나타낼 수 있다. 반대로, 전자 장치는 귀곰팡이증(Otomycosis)에 대한 확률이 45%이므로, 귀곰팡이증에 대해 'False'결과를 출력할 수 있다. 여기서, 귀곰팡이증에 대해 'False'결과는 환자(664b)에게 귀곰팡이증 질환이 발생되지 않은 것을 나타낼 수 있다. 전자 장치는, 단일 질환 예측 결과들(650b)을 디스플레이(660b)를 통해 사용자(662b)에게 출력할 수 있다. 다만, 단일 질환 예측 결과들(650b)을 이로 한정하는 것은 아니고, 전자 장치는 환자(664b)의 복수의 입력 귀내시경 이미지에 대해 단일 질환 예측 결과들을 사용자(662b)에게 출력할 수 있다. 예를 들어, 전자 장치는 복수의 입력 귀내시경 이미지 각각을, 중이염 진단 모델에 적용하여, 세컨더리 클래스에 속하는 질환들 각각에 대한 확률들을 획득할 수 있다. 전자 장치는, 세컨더리 클래스에 속하는 질환들 각각에 대해, 획득된 복수의 확률들에 기초하여, 복수의 입력 귀내시경 이미지에 대한 제2 확률 결과들을 획득할 수 있다. 구체적으로, 전자 장치는 세컨더리 클래스에 속하는 질환들 각각에 대해, 획득된 복수의 확률들의 평균값, 중앙값, 또는 최빈값 중 적어도 하나를, 세컨더리 클래스에 속하는 질환들 각각에 대한 확률로 계산할 수 있다. 전자 장치는, 복수의 입력 귀내시경 이미지에 대한 제2 확률 결과들에 대해 미리 결정된 임계 값 이상인지 여부를 통해, 단일 질환 예측 결과들을 출력할 수 있다.The electronic device according to one embodiment may output single disease prediction results 650b for the input otoscope image 610b of the patient 664b to the user 662b. For example, the electronic device may apply the input otoscope image 610b to the otitis media diagnosis model to obtain second probability results 640b for diseases belonging to the secondary class. Specifically, the electronic device extracts feature data by applying the input otoscope image 610b to the shared layer 620b, and applies the extracted feature data to the second classifier layers 630b among the classifier layers. 2 probability results 640b may be obtained. If the probability for each of the diseases belonging to the secondary class is greater than or equal to a threshold predetermined by the user, the electronic device may determine the disease occurrence result for each of the diseases belonging to the secondary class. The electronic device determines whether the single disease prediction results 650b are greater than or equal to a predetermined threshold (for example, in FIG. 6B, a probability of 50% is set as the threshold) for the second probability results 640b. ) can be output. For example, in FIG. 6B, the electronic device may output a 'True' result for Attic Cholesteatoma because the probability of Attic Cholesteatoma is 80%. Here, a 'True' result for epitympanic cholesteatoma may indicate that the patient 664b has developed epitympanic cholesteatoma disease. Conversely, the electronic device may output a 'False' result for otomycosis because the probability of otomycosis is 45%. Here, a result of 'False' for ear mold disease may indicate that the patient 664b does not develop ear mold disease. The electronic device may output single disease prediction results 650b to the user 662b through the display 660b. However, the single disease prediction results 650b are not limited to this, and the electronic device may output single disease prediction results to the user 662b for a plurality of input otoscope images of the patient 664b. For example, the electronic device may apply each of a plurality of input otoscope images to an otitis media diagnosis model to obtain probabilities for each of the diseases belonging to the secondary class. The electronic device may obtain second probability results for a plurality of input otoscope images based on the plurality of probabilities obtained for each of the diseases belonging to the secondary class. Specifically, the electronic device may calculate at least one of the average, median, or mode of the plurality of probabilities obtained for each of the diseases belonging to the secondary class as the probability for each of the diseases belonging to the secondary class. The electronic device may output single disease prediction results based on whether the second probability results for the plurality of input otoscope images are greater than or equal to a predetermined threshold.
일 실시예에 따른 전자 장치는, 입력 귀내시경 이미지(610c)에 대한 질환 예측 결과(650c) 및 단일 질환 예측 결과들(652c)을 출력할 수 있다. 예를 들어, 전자 장치는 입력 귀내시경 이미지(610c)를 중이염 진단 모델(620c)에 적용하여, 질환 예측 결과(650c) 및 단일 질환 예측 결과들(652c)을 출력할 수 있다.The electronic device according to one embodiment may output a disease prediction result 650c and single disease prediction results 652c for the input otoscope image 610c. For example, the electronic device may apply the input otoscope image 610c to the otitis media diagnosis model 620c and output a disease prediction result 650c and single disease prediction results 652c.
전자 장치는 입력 귀내시경 이미지(610c)를 공유된 레이어(625c)에 적용하여 특징 데이터를 추출할 수 있다. 전자 장치는, 추출된 특징 데이터를 제1 분류기 레이어(630c) 및 제2 분류기 레이어들(632c)에 동시에 적용할 수 있다. 우선, 전자 장치는, 추출된 특징 데이터를 제1 분류기 레이어(630c)에 적용하여 제1 확률 결과(640c)를 획득할 수 있다. 그리고, 전자 장치는 제1 확률 결과(640c)를 획득함과 동시에, 추출된 특징 데이터를 제2 분류기 레이어들(632c)에 적용하여 제2 확률 결과들(642c)을 획득할 수 있다.The electronic device may extract feature data by applying the input otoscope image 610c to the shared layer 625c. The electronic device may simultaneously apply the extracted feature data to the first classifier layer 630c and the second classifier layers 632c. First, the electronic device may obtain a first probability result 640c by applying the extracted feature data to the first classifier layer 630c. Additionally, the electronic device may acquire the first probability result 640c and simultaneously obtain second probability results 642c by applying the extracted feature data to the second classifier layers 632c.
전자 장치는, 제1 확률 결과(640c) 중 가장 높은 확률을 가지는 질환을 질환 예측 결과(650c)로서 출력할 수 있다. 전자 장치는 세컨더리 클래스에 속하는 질환들 각각에 대한 확률이 사용자에 의해 미리 결정된 임계 값 이상인 경우, 세컨더리 클래스에 속하는 질환들 각각에 대해 질환 발생 결과를 결정할 수 있다. 전자 장치는, 제2 확률 결과들(640c)에 대해 미리 결정된 임계 값 이상인지 여부를 통해, 단일 질환 예측 결과들(652c)을 출력할 수 있다.The electronic device may output the disease with the highest probability among the first probability results 640c as the disease prediction result 650c. If the probability for each of the diseases belonging to the secondary class is greater than or equal to a threshold predetermined by the user, the electronic device may determine the disease occurrence result for each of the diseases belonging to the secondary class. The electronic device may output single disease prediction results 652c based on whether the second probability results 640c are equal to or greater than a predetermined threshold.
결과적으로, 전자 장치는 하나의 입력 귀내시경 이미지(610c)를 중이염 진단 모델(620c)에 적용하여, 질환 예측 결과(650c) 및 단일 질환 예측 결과들(652c)을 사용자(예를 들어, 의료인) 출력할 수 있다.As a result, the electronic device applies one input otoscope image 610c to the otitis media diagnosis model 620c to provide a disease prediction result 650c and single disease prediction results 652c to a user (e.g., a medical professional). Can be printed.
도 7은 일 실시예에 따른 복수의 특징 데이터들로부터 예측 결과를 획득하는 방법을 도시한 도면이다.FIG. 7 is a diagram illustrating a method of obtaining a prediction result from a plurality of feature data according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(100))는, 입력 귀내시경 이미지(710)로부터 복수의 특징 데이터들을 추출할 수 있다. 예를 들어, 전자 장치는 공유된 레이어 중 일부 레이어들의 노드들 간의 연결들 중 적어도 일부 연결을 스킵(skip)하면서 중이염 진단 모델의 순전파 연산을 수행함으로써, 특징 데이터를 추출할 수 있다. 전자 장치는 중이염 진단 모델(720)의 공유된 레이어 중 제1 연결을 스킵(skip)함으로써 제1 특징 데이터(712)를 추출할 수 있다. 제1 연결은, 공유된 레이어의 노드들 간 연결들 중 제1 순전파 연산으로부터 배제된 연결일 수 있다. 제1 특징 데이터(712)는 제1 연결이 스킵된 공유된 레이어에 입력 귀내시경 이미지(710)가 적용되어 추출된, 추상화된 값들을 포함할 수 있다. 전자 장치는 중이염 진단 모델(730)의 공유된 레이어에서, 제1 연결과 다른 제2 연결을 스킵함으로써 제2 특징 데이터(714)를 추출할 수 있다. 제2 연결은, 공유된 레이어의 노드들 간 연결들 중 제2 순전파 연산으로부터 배제된 연결일 수 있다. 제1 순전파 연산 및 제2 순전파 연산에서 스킵 또는 배제되는 노드 간 연결이 달라질 수 있다. 제2 특징 데이터(714)는 제2 연결이 스킵된 공유된 레이어에 입력 귀내시경 이미지(710)가 적용되어 추출된, 추상화된 값들을 포함할 수 있다. 다시 말해, 전자 장치는 공유된 레이어에서 임의의 연결을 스킵함으로써, 하나의 입력 귀내시경 이미지(710)로부터 복수의 서로 다른 특징 데이터들을 추출할 수 있다.An electronic device (eg, the electronic device 100 of FIG. 1 ) according to an embodiment may extract a plurality of feature data from the input otoscope image 710 . For example, the electronic device may extract feature data by performing a forward propagation operation of the otitis media diagnosis model while skipping at least some of the connections between nodes of some of the shared layers. The electronic device may extract the first feature data 712 by skipping the first connection among the shared layers of the otitis media diagnosis model 720. The first connection may be a connection excluded from the first forward propagation operation among connections between nodes of the shared layer. The first feature data 712 may include abstracted values extracted by applying the input otoscope image 710 to the shared layer in which the first connection was skipped. The electronic device may extract the second feature data 714 from the shared layer of the otitis media diagnosis model 730 by skipping the second connection that is different from the first connection. The second connection may be a connection excluded from the second forward propagation operation among connections between nodes of the shared layer. Connections between nodes that are skipped or excluded in the first forward propagation operation and the second forward propagation operation may vary. The second feature data 714 may include abstracted values extracted by applying the input otoscope image 710 to the shared layer in which the second connection is skipped. In other words, the electronic device can extract a plurality of different feature data from one input otoscope image 710 by skipping any connection in the shared layer.
전자 장치는 제1 특징 데이터(712)를 제1 분류기 레이어에 적용하여, 제1 질환 예측 확률(722)을 획득할 수 있다. 제1 질환 예측 확률(722)은, 프라이머리 클래스에 속하는 질환들에 대한 발생 확률들을 나타낼 수 있다. 전자 장치는 제1 질환 예측 확률(722)을 미리 결정된 임계 값을 기준으로 제1 질환 이진 결과(726)로 변환할 수 있다. 또한, 전자 장치는 제1 특징 데이터(712)를 제1 분류기 레이어에 적용함과 동시에, 제2 분류기 레이어들에 적용하여, 제1 단일 질환 예측 확률들(724)을 획득할 수 있다. 제1 단일 질환 예측 확률들(724)은 세컨더리 클래스에 속하는 질환들에 대한 발생 확률들을 나타낼 수 있다. 전자 장치는 제1 단일 질환 예측 확률들(724)을 미리 결정된 임계 값을 기준으로 제1 단일 질환 이진 결과(728)로 변환할 수 있다.The electronic device may apply the first feature data 712 to the first classifier layer to obtain the first disease prediction probability 722. The first disease prediction probability 722 may represent occurrence probabilities for diseases belonging to the primary class. The electronic device may convert the first disease prediction probability 722 into a first disease binary result 726 based on a predetermined threshold. Additionally, the electronic device may apply the first feature data 712 to the first classifier layer and simultaneously apply it to the second classifier layers to obtain first single disease prediction probabilities 724. The first single disease prediction probabilities 724 may represent occurrence probabilities for diseases belonging to the secondary class. The electronic device may convert the first single disease prediction probabilities 724 into a first single disease binary result 728 based on a predetermined threshold.
전자 장치는 제2 특징 데이터(714)를 제1 분류기 레이어에 적용하여, 제2 질환 예측 확률(732)을 획득할 수 있다. 제2 질환 예측 확률(732)은, 프라이머리 클래스에 속하는 질환들에 대한 발생 확률들을 나타낼 수 있다. 전자 장치는 제2 질환 예측 확률(732)을 미리 결정된 임계 값을 기준으로 제2 질환 이진 결과(736)로 변환할 수 있다. 또한, 전자 장치는 제2 특징 데이터(714)를 제1 분류기 레이어에 적용함과 동시에, 제2 분류기 레이어들에 적용하여, 제2 단일 질환 예측 확률들(734)을 획득할 수 있다. 제2 단일 질환 예측 확률들(734)은 세컨더리 클래스에 속하는 질환들에 대한 발생 확률들을 나타낼 수 있다. 전자 장치는 제2 단일 질환 예측 확률들(734)을 미리 결정된 임계 값을 기준으로 제2 단일 질환 이진 결과(738)로 변환할 수 있다.The electronic device may apply the second feature data 714 to the first classifier layer to obtain the second disease prediction probability 732. The second disease prediction probability 732 may represent occurrence probabilities for diseases belonging to the primary class. The electronic device may convert the second disease prediction probability 732 into a second disease binary result 736 based on a predetermined threshold. Additionally, the electronic device may apply the second feature data 714 to the first classifier layer and simultaneously apply it to the second classifier layers to obtain second single disease prediction probabilities 734. The second single disease prediction probabilities 734 may represent occurrence probabilities for diseases belonging to a secondary class. The electronic device may convert the second single disease prediction probabilities 734 into a second single disease binary result 738 based on a predetermined threshold.
전자 장치는 제1 질환 이진 결과(726) 및 제2 질환 이진 결과(736)에 대한 평균을 나타내는 제1 통계 결과를 획득할 수 있다. 예를 들어, 제1 통계 결과는 프라이머리 클래스에 속하는 질환들에 대한 통계 결과들을 포함할 수 있다. 구체적으로, 전자 장치는 제1 질환 이진 결과(726)의 만성 중이염(COM: chronic otitis media) 및 제2 질환 이진 결과(736)의 만성 중이염의 이진 결과의 평균을, 만성 중이염의 통계 결과로 할 수 있다. 전자 장치는 제1 질환 이진 결과(726)의 삼출성 중이염(OME: otitis media with effusion) 및 제2 질환 이진 결과(736)의 삼출성 중이염의 이진 결과의 평균을, 삼출성 중이염의 통계 결과로 할 수 있다. 전자 장치는 제1 질환 이진 결과(726)의 질환 부재 및 제2 질환 이진 결과(736)의 질환 부재의 이진 결과의 평균을, 질환 부재의 통계 결과로 할 수 있다. 결과적으로, 제1 통계 결과는 만성 중이염에 대해 1, 삼출성 중이염에 대해 0, 및 질환 부재에 대해 0인 통계 결과들을 포함할 수 있다. 또한, 전자 장치는 상술한 제1 통계 결과를, 입력 귀내시경 이미지(710)에 대한 질환 예측 결과로서 사용자에게 출력할 수 있다.The electronic device may obtain a first statistical result representing an average for the first disease binary outcome 726 and the second disease binary outcome 736. For example, the first statistical result may include statistical results for diseases belonging to the primary class. Specifically, the electronic device uses the average of the binary results of chronic otitis media (COM) of the first disease binary outcome 726 and chronic otitis media of the second disease binary outcome 736 as the statistical result of chronic otitis media. You can. The electronic device may average the binary results of otitis media with effusion (OME) of the first disease binary outcome 726 and otitis media with effusion of the second disease binary outcome 736 into a statistical result of otitis media with effusion. . The electronic device may take the average of the binary results of the absence of the disease in the first disease binary result 726 and the absence of the disease in the second binary result 736 as a statistical result of the absence of the disease. As a result, the first statistical result may include statistical results that are 1 for chronic otitis media, 0 for otitis media with effusion, and 0 for absence of disease. Additionally, the electronic device may output the above-described first statistical result to the user as a disease prediction result for the input otoscope image 710.
전자 장치는 제1 단일 질환 이진 결과(728) 및 제2 단일 질환 이진 결과(738)에 대한 평균을 나타내는 제2 통계 결과를 획득할 수 있다. 예를 들어, 제2 통계 결과는 세컨더리 클래스에 속하는 질환들에 대한 통계 결과들을 포함할 수 있다. 구체적으로, 전자 장치는 제1 단일 질환 이진 결과(728)의 상고실 진주종(Attic Cholesteatoma) 및 제2 단일 질환 이진 결과(738)의 상고실 진주종의 이진 결과의 평균을, 상고실 진주종의 통계 결과로 할 수 있다. 전자 장치는 제1 단일 질환 이진 결과(728)의 고막염(Myringitis) 및 제2 단일 질환 이진 결과(738)의 고막염의 이진 결과의 평균을, 고막염의 통계 결과로 할 수 있다. 전자 장치는 제1 단일 질환 이진 결과(728)의 귀곰팡이증(Otomycosis) 및 제2 단일 질환 이진 결과(738)의 귀곰팡이증의 이진 결과의 평균을, 귀곰팡이증의 통계 결과로 할 수 있다. 전자 장치는 제1 단일 질환 이진 결과(728)의 환기관(Ventilating tube) 및 제2 단일 질환 이진 결과(738)의 환기관의 이진 결과의 평균을, 환기관의 통계 결과로 할 수 있다. 결과적으로, 제2 통계 결과는 상고실 진주종에 대해 1, 고막염에 대해 0.5, 귀곰팡이증에 대해 0.5, 및 환기관에 대해 0인 통계 결과들을 포함할 수 있다. 또한, 전자 장치는 상술한 제2 통계 결과를, 입력 귀내시경 이미지(710)에 대한 단일 질환 예측 결과로서 사용자에게 출력할 수 있다.The electronic device may obtain a second statistical result representing an average for the first single disease binary outcome 728 and the second single disease binary outcome 738. For example, the second statistical result may include statistical results for diseases belonging to a secondary class. Specifically, the electronic device averages the binary outcomes Attic Cholesteatoma of the first single disease binary outcome 728 and Attic Cholesteatoma of the second single disease binary outcome 738, This can be done with statistical results. The electronic device may average the binary outcomes of Myringitis of the first single disease binary outcome 728 and Myringitis of the second single disease binary outcome 738 into a statistical result of Myringitis. The electronic device may average the binary outcomes of Otomycosis of the first single disease binary outcome 728 and Otomycosis of the second single disease binary outcome 738 into a statistical result of Otomycosis. . The electronic device may average the binary results of the ventilating tube of the first single disease binary result 728 and the ventilating tube of the second single disease binary result 738 as a statistical result of the ventilating tube. As a result, the secondary statistical results may include statistical results that are 1 for epitympanic cholesteatoma, 0.5 for tympanitis, 0.5 for ear fungus, and 0 for ventilator tract. Additionally, the electronic device may output the above-described second statistical result to the user as a single disease prediction result for the input otoscope image 710.
다만, 제1 통계 결과 및 제2 통계 결과 각각을, 입력 귀내시경 이미지(710)에 대한 질환 예측 결과 및 단일 질환 예측 결과로 한정하는 것은 아니다. 예를 들어, 전자 장치는 사용자에게 제1 질환 예측 확률(722) 및 제2 질환 예측 확률(732)을 입력 귀내시경 이미지(710)에 대한 질환 예측 결과로서 출력할 수 있다. 또한, 전자 장치는 사용자에게 제1 단일 질환 예측 확률들(724) 및 제2 단일 질환 예측 확률들(734)을 입력 귀내시경 이미지(710)에 대한 단일 질환 예측 결과로서 출력할 수 있다.However, each of the first and second statistical results is not limited to the disease prediction result for the input otoscope image 710 and the single disease prediction result. For example, the electronic device may output the first disease prediction probability 722 and the second disease prediction probability 732 to the user as a disease prediction result for the input otoscope image 710. Additionally, the electronic device may output first single disease prediction probabilities 724 and second single disease prediction probabilities 734 to the user as a single disease prediction result for the input otoscope image 710.
전자 장치는 질환 예측 확률 또는 단일 질환 예측 확률 중 적어도 하나에 기초하여, 사용자에게 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다. 질환 예측 확률은 제1 질환 예측 확률(722) 또는 제2 질환 예측 확률(732) 중 적어도 하나 이상을 포함할 수 있다. 단일 질환 예측 확률은 제1 단일 질환 예측 확률들(724) 또는 제2 단일 질환 예측 확률들(734) 중 적어도 하나 이상을 포함할 수 있다.The electronic device may provide the user with an output suggesting retry of otitis media diagnosis based on at least one of the disease prediction probability or the single disease prediction probability. The disease prediction probability may include at least one of the first disease prediction probability 722 or the second disease prediction probability 732. The single disease prediction probability may include at least one of the first single disease prediction probabilities 724 or the second single disease prediction probabilities 734.
예를 들어, 전자 장치는 제1 질환 예측 확률(722)에 기초하여, 사용자에게 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다. 전자 장치는 질환 예측 결과의 확률 및 대상 결과의 확률 간의 차이에 기초하여, 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다. 여기서, 질환 예측 결과의 확률은 제1 질환 예측 확률(722) 중 일순위 확률을 가지는 질환의 확률일 수 있고, 대상 결과의 확률은 제1 질환 예측 확률(722) 중 차순위 확률을 가지는 질환의 확률일 수 있다. 도 7을 참조하면, 일순위 확률을 가지는 질환은 만성 중이염(COM: chronic otitis media)일 수 있고, 차순위 확률을 가지는 질환은 삼출성 중이염(OME: otitis media with effusion)일 수 있다. 전자 장치는 계산된 차이가 임계 값 미만인 경우 사용자에게 다른 귀내시경 이미지를 통해 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다. 여기서 임계 값은 제1 질환 예측 확률(722)에 기초한 중이염 진단 재시도에 관한 임계 값일 수 있다.For example, based on the first disease prediction probability 722, the electronic device may provide an output suggesting that the user retry diagnosing otitis media. The electronic device may provide an output suggesting retry of otitis media diagnosis based on the difference between the probability of the disease prediction result and the probability of the target result. Here, the probability of the disease prediction result may be the probability of the disease having the first probability among the first disease prediction probabilities 722, and the probability of the target result may be the probability of the disease having the second priority probability among the first disease prediction probabilities 722. It can be. Referring to FIG. 7, the disease with the first probability may be chronic otitis media (COM), and the disease with the second highest probability may be otitis media with effusion (OME). The electronic device may provide an output to the user suggesting retrying the otitis media diagnosis through another otoscope image if the calculated difference is below a threshold. Here, the threshold may be a threshold for retrying otitis media diagnosis based on the first disease prediction probability 722.
예를 들어, 전자 장치는 제1 단일 질환 예측 확률들(724)에 기초하여, 사용자에게 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다. 전자 장치는 제1 단일 질환 예측 확률들(724) 중 질환이 발생된 질환이 발생된 상기 세컨더리 클래스 질환에 관한 제2 분류기 레이어들을 선택할 수 있다. 전자 장치는, 선택된 레이어들에 대한 세컨더리 질환에 관한 확률 중 적어도 하나 이상의 확률이 임계 값 미만인 경우에 기초하여, 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다. 여기서, 임계 값은 제1 단일 질환 예측 확률들(724)에 기초한 중이염 진단 재시도에 관한 임계 값일 수 있다. 도 7을 참조하면, 전자 장치는 제1 단일 질환 예측 확률들(724) 중 상고실 진주종(Attic Cholesteatoma) 및 귀곰팡이증(Otomycosis)에 관한 제2 분류기 레이어들을 질환이 발생된 제2 분류기 레이어들로 선택할 수 있다. 전자 장치는, 상고실 진주종(Attic Cholesteatoma)의 확률이 사용자에 의해 결정된 임계 값을 초과하는지 결정할 수 있다. 또한, 전자 장치는 귀곰팡이증(Otomycosis)의 확률이 사용자에 의해 결정된 임계 값을 초과하는지 결정할 수 있다. 만약, 상고실 진주종(Attic Cholesteatoma)의 확률 또는 귀곰팡이증(Otomycosis)의 확률 중 적어도 하나 이상의 확률이 임계 값을 초과하지 못한다면, 전자 장치는 사용자에게 다른 귀내시경 이미지를 통해 중이염 진단 재시도를 제안하는 출력을 제공할 수 있다.For example, based on the first single disease prediction probabilities 724, the electronic device may provide an output suggesting that the user retry diagnosing otitis media. The electronic device may select second classifier layers related to the secondary class disease in which the disease occurred among the first single disease prediction probabilities 724. The electronic device may provide an output suggesting retry of otitis media diagnosis based on a case where at least one of the probabilities related to the secondary disease for the selected layers is less than a threshold value. Here, the threshold may be a threshold for retrying otitis media diagnosis based on the first single disease prediction probabilities 724. Referring to FIG. 7, the electronic device divides the second classifier layers for Attic Cholesteatoma and Otomycosis among the first single disease prediction probabilities 724 into a second classifier layer in which the disease occurs. You can choose from: The electronic device may determine whether the probability of Attic Cholesteatoma exceeds a threshold determined by the user. Additionally, the electronic device may determine whether the probability of Otomycosis exceeds a threshold determined by the user. If at least one of the probability of Attic Cholesteatoma or Otomycosis does not exceed the threshold, the electronic device prompts the user to retry diagnosing otitis media through another otoscope image. Suggested output can be provided.
도 8은 일 실시예에 따른 중이염 진단 모델의 McNemar 테스트 결과를 도시한 도면이다.Figure 8 is a diagram showing McNemar test results of an otitis media diagnosis model according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(100))는 중이염 진단 모델(예: 도 1의 중이염 진단 모델(130))의 성능을 획득할 수 있다. 예를 들어, 전자 장치는 중이염 진단 모델 및 비교 대상 모델 간의 성능 차이 결과를 획득할 수 있다. 전자 장치는 McNemar 테스트 결과를 통해 중이염 진단 모델 및 비교 대상 모델 간의 성능 차이 결과를 획득할 수 있다. 비교 대상 모델은 하나의 입력 데이터(예를 들어, 입력 귀내시경 이미지)에 대해 하나의 질환 예측 결과(예를 들어, 삼출성 중이염 질환에 대한 예측 결과)를 출력하는 모델을 나타낼 수 있다. 전자 장치는 McNemar 테스트 결과 중 DSC(Dice similarity coefficient) 결과를 통해 중이염 진단 모델 및 비교 대상 모델 간의 성능 차이 결과를 획득할 수 있다. DSC 결과는 주로 영상 이미지(예를 들어, 입력 귀내시경 이미지)의 정답 및 예측 결과 간의 차이를 나타낼 수 있다. 즉, 중이염 진단 모델 또는 비교 대상 모델 중 적어도 하나의 모델의 DSC 결과가 높을수록, 정답 및 모델의 예측 결과 간의 차이가 작은 값을 나타낼 수 있다.An electronic device (eg, the electronic device 100 of FIG. 1 ) according to an embodiment may acquire the performance of an otitis media diagnosis model (eg, the otitis media diagnosis model 130 of FIG. 1 ). For example, the electronic device may obtain performance difference results between the otitis media diagnosis model and the comparison target model. The electronic device can obtain results of the performance difference between the otitis media diagnosis model and the comparative model through the McNemar test results. The model to be compared may represent a model that outputs one disease prediction result (e.g., a prediction result for otitis media with effusion disease) for one input data (e.g., an input otoscope image). The electronic device can obtain the performance difference results between the otitis media diagnosis model and the comparison target model through the DSC (Dice similarity coefficient) results among the McNemar test results. DSC results may primarily indicate differences between correct and predicted results of video images (e.g., input otoscope images). That is, the higher the DSC result of at least one of the otitis media diagnosis model or the comparison target model, the smaller the difference between the correct answer and the model's predicted results may be indicated.
도 8에 도시된 표를 참조하면, 중이염 진단 모델은 비교 대상 모델 대비, 고막염(Myringitis)을 제외하고 나머지 질환들에 대해 정답 및 예측 결과 간의 차이가 작은 값을 가질 수 있다. 예를 들어, 결과(830)를 참조하면, 결과(830)는 중이염 진단 모델의 DSC 결과(810) 및 비교 대상 모델의 DSC 결과(820)의 차이들을 포함할 수 있다. 다시 말해, 중이염 진단 모델은 비교 대상 모델 대비, 고막염(Myringitis)을 제외하고 나머지 질환들에 대해 예측 성능이 우수한 모델일 수 있다.Referring to the table shown in FIG. 8, the otitis media diagnosis model may have a smaller difference between the correct answer and the predicted result for the remaining diseases except for myringitis, compared to the comparison target model. For example, referring to the result 830, the result 830 may include differences between the DSC result 810 of the otitis media diagnosis model and the DSC result 820 of the comparison target model. In other words, the otitis media diagnosis model may be a model that has superior prediction performance for all diseases except myringitis compared to the comparison model.
도 9는 일 실시예에 따른 중이염 진단 모델의 confusion 행렬(confusion matrix)를 도시한 도면이다.Figure 9 is a diagram showing a confusion matrix of an otitis media diagnosis model according to an embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(100))는 중이염 진단 모델(예: 도 1의 중이염 진단 모델(130))의 confusion 행렬을 획득할 수 있다. 예를 들어, confusion 행렬은 기계학습 모델의 예측 결과 및 정답 간의 비율을 나타내는 원소들을 포함하는 행렬을 나타낼 수 있다. 도 9에 도시된 표를 참조하면, 각각의 행렬들은 정답(GT: ground truth) 클래스에 관한 행(row) 및 예측 결과 클래스에 관한 열(column)을 포함할 수 있다. 예를 들어, 프라이머리 클래스에 관한 confusion 행렬을 참조하면, 전자 장치는 만성 중이염(COM: chronic otitis media) 질환을 포함하는 1,534개의 이미지(예를 들어, 만성 중이염 질환을 포함하는 고막을 촬영한 이미지)에 대해, 1,463개의 만성 중이염 질환 예측 결과를 출력할 수 있다.An electronic device (e.g., the electronic device 100 of FIG. 1) according to an embodiment may acquire a confusion matrix of an otitis media diagnosis model (e.g., the otitis media diagnosis model 130 of FIG. 1). For example, a confusion matrix can represent a matrix containing elements representing the ratio between the prediction results of a machine learning model and the correct answer. Referring to the table shown in FIG. 9, each matrix may include a row regarding the ground truth (GT) class and a column regarding the prediction result class. For example, referring to the confusion matrix for the primary class, the electronic device selects 1,534 images containing chronic otitis media (COM) disease (e.g., an image of the eardrum containing chronic otitis media) ), 1,463 chronic otitis media disease prediction results can be output.
도 10은 일 실시예에 따른 프라이머리 클래스 및 세컨더리 클래스에 대한 ROC 커브를 도시한 도면이다.Figure 10 is a diagram showing ROC curves for the primary class and secondary class according to one embodiment.
일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(100))는 중이염 진단 모델(예: 도 1의 중이염 진단 모델(130)) 및 비교 대상 모델의 ROC(Receiver operating characteristics) 커브를 획득할 수 있다. 참고로, 도 10에서는, 중이염 진단 모델은 Combined model로 도시될 수 있고, 비교 대상 모델은 Separate model로 도시될 수 있다. 예를 들어, 프라이머리 클래스 결과(1010)는, 중이염 진단 모델 및 비교 대상 모델의 프라이머리 클래스에 관한 ROC 커브를 포함할 수 있다. 프라이머리 클래스 결과(1010)는, 중이염 진단 모델 및 비교 대상 모델의 프라이머리 클래스에 속하는 질환들에 대한 AUC(area under the ROC curve) 값을 포함할 수 있다. 도 10을 참조하면, 프라이머리 클래스에 속하는 질환들의 결과에 있어서, 중이염 진단 모델은 비교 대상 모델 보다 우수한 AUC 값을 가질 수 있는 것을 확인할 수 있다. 세컨더리 클래스 결과(1020)는, 중이염 진단 모델 및 비교 대상 모델의 세컨더리 클래스에 관한 ROC 커브를 포함할 수 있다. 세컨더리 클래스 결과(1020)는, 중이염 진단 모델 및 비교 대상 모델의 세컨더리 클래스에 속하는 질환들에 대한 AUC(area under the ROC curve) 값을 포함할 수 있다. 도 10을 참조하면, 고막염(Myringitis) 질환을 제외한 세컨더리 클래스에 속하는 질환들의 결과에 있어서, 중이염 진단 모델은 비교 대상 모델 보다 우수한 AUC 값을 가질 수 있는 것을 확인할 수 있다.An electronic device (e.g., the electronic device 100 of FIG. 1) according to an embodiment acquires a receiver operating characteristics (ROC) curve of an otitis media diagnosis model (e.g., the otitis media diagnosis model 130 of FIG. 1) and a comparison target model. can do. For reference, in FIG. 10, the otitis media diagnosis model may be shown as a Combined model, and the model to be compared may be shown as a Separate model. For example, the primary class result 1010 may include an ROC curve regarding the primary class of the otitis media diagnosis model and the comparison target model. The primary class result 1010 may include AUC (area under the ROC curve) values for diseases belonging to the primary class of the otitis media diagnosis model and the comparison target model. Referring to FIG. 10, it can be seen that in the results of diseases belonging to the primary class, the otitis media diagnosis model can have a superior AUC value than the comparison model. The secondary class result 1020 may include an ROC curve regarding the secondary class of the otitis media diagnosis model and the comparison target model. The secondary class result 1020 may include AUC (area under the ROC curve) values for diseases belonging to the secondary class of the otitis media diagnosis model and the model to be compared. Referring to FIG. 10, it can be seen that in the results of diseases belonging to the secondary class excluding myringitis disease, the otitis media diagnosis model can have a superior AUC value than the comparison model.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on a computer-readable recording medium.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. A computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. It may be possible. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (23)

  1. 중이염 진단 전자 장치에 있어서,In the otitis media diagnostic electronic device,
    적어도 하나의 컨볼루션 연산을 포함하는 공유된 레이어 및 상기 공유된 레이어에 연결된 복수의 분류기 레이어들을 포함하는 학습된 중이염 진단 모델 및 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)을 저장한 메모리;a memory storing computer-executable instructions and a learned otitis media diagnosis model including a shared layer including at least one convolution operation and a plurality of classifier layers connected to the shared layer;
    상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서;a processor that accesses the memory and executes the instructions;
    상기 프로세서와 전기적으로 연결된 디스플레이; 및a display electrically connected to the processor; and
    환자의 귀내시경 이미지(otoendoscopic image)를 수신하는 영상 획득부Image acquisition unit that receives the patient's otoendoscopic image
    를 포함하고,Including,
    상기 명령어들은,The above commands are:
    상기 환자의 귀내시경 이미지를 수신하고,Receiving an otoscope image of the patient,
    상기 수신된 귀내시경 이미지로부터 추출된 관심 영역(region of interest)에 기초하여, 입력 귀내시경 이미지를 생성하고,Generating an input otoscope image based on a region of interest extracted from the received otoscope image,
    상기 입력 귀내시경 이미지로부터 상기 공유된 레이어에 기초하여 특징 데이터를 추출하고,Extracting feature data from the input otoscope image based on the shared layer,
    상기 복수의 분류기 레이어들 중 제1 분류기 레이어에 기초하여, 상기 추출된 특징 데이터로부터 프라이머리(primary) 클래스에 속하는 질환들에 대한 질환 예측 결과를 출력하며,Based on a first classifier layer among the plurality of classifier layers, output disease prediction results for diseases belonging to a primary class from the extracted feature data,
    상기 복수의 분류기 레이어들 중 상기 제1 분류기 레이어와 분리된 복수의 제2 분류기 레이어들에 기초하여, 세컨더리(secondary) 클래스에 속하는 질환들의 각 질환에 대한 단일 질환 예측 결과를 상기 복수의 제2 분류기 레이어들 중 해당하는 제2 분류기 레이어에서 개별적으로 출력하는,Based on the plurality of second classifier layers separated from the first classifier layer among the plurality of classifier layers, a single disease prediction result for each disease belonging to the secondary class is generated by the plurality of second classifiers. Individually output from the corresponding second classifier layer among the layers,
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  2. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 환자의 고막(tympanic membrane)을 촬영한 비디오 시퀀스(video sequence)를 수신하고,Receiving a video sequence of the patient's tympanic membrane,
    상기 비디오 시퀀스를 사용자에 의해 결정된 프레임(frame) 개수만큼, 복수의 귀내시경 이미지들을 획득하는Obtaining a plurality of otoscope images using the video sequence as many frames as determined by the user.
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  3. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 귀내시경 이미지에서 상기 환자의 개인식별가능정보를 제거하고,Remove the patient's personally identifiable information from the otoscope image,
    상기 귀내시경 이미지로부터 미리 지정된 형상을 갖는 상기 관심 영역(region of interest)을 추출하고,Extracting the region of interest having a predetermined shape from the otoscope image,
    상기 추출된 관심 영역을, 2차원 형태의 상기 귀내시경 이미지의 중앙(center)에 배치시키는Placing the extracted region of interest at the center of the otoscope image in two-dimensional form.
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  4. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 제1 분류기 레이어에 기초하여, 상기 추출된 특징 데이터로부터 상기 프라이머리 클래스에 속하는 프라이머리 질환들에 관한 확률들을 획득하고,Based on the first classifier layer, obtain probabilities regarding primary diseases belonging to the primary class from the extracted feature data,
    상기 프라이머리 질환들에 관한 확률 중 가장 높은 확률을 가지는 질환을 상기 질환 예측 결과로서 사용자에게 출력하는,Outputting the disease with the highest probability among the probabilities of the primary diseases to the user as the disease prediction result,
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  5. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 제2 분류기 레이어들 각각에 기초하여, 상기 추출된 특징 데이터로부터 상기 세컨더리 클래스에 속하는 세컨더리 질환에 관한 확률을 획득하고,Based on each of the second classifier layers, obtain a probability regarding a secondary disease belonging to the secondary class from the extracted feature data,
    상기 제2 분류기 레이어들 각각에 대한 상기 세컨더리 질환에 관한 확률에 기초한 질환 발생 결과를, 상기 제2 분류기 레이어들 각각에 대한 단일 질환 예측 결과로서 사용자에게 출력하는,Outputting disease occurrence results based on the probability of the secondary disease for each of the second classifier layers to the user as a single disease prediction result for each of the second classifier layers,
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  6. 제4항에 있어서,According to paragraph 4,
    상기 프로세서는,The processor,
    상기 프라이머리 클래스에서 상기 질환 예측 결과에 해당하는 질환을 제외한 질환들 중, 가장 높은 확률을 가지는 질환을 대상 결과로 설정하고,Among the diseases excluding the disease corresponding to the disease prediction result in the primary class, the disease with the highest probability is set as the target result,
    상기 질환 예측 결과의 확률 및 상기 대상 결과의 확률 간의 차이가 사용자에 의해 결정된 임계 값 미만인 경우에 기초하여, 상기 사용자에게 상기 귀내시경 이미지와 다른 귀내시경 이미지를 통해 중이염 진단 재시도를 제안하는 출력을 제공하는,Based on the case where the difference between the probability of the disease prediction result and the probability of the target result is less than a threshold determined by the user, an output is provided suggesting that the user retry diagnosing otitis media through an otoscope image different from the otoscope image. providing,
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  7. 제5항에 있어서,According to clause 5,
    상기 프로세서는,The processor,
    상기 세컨더리 질환에 관한 질환 발생 결과 중, 질환이 발생된 상기 세컨더리 클래스 질환에 관한 제2 분류기 레이어들을 선택하고,Among the disease occurrence results related to the secondary disease, select second classifier layers related to the secondary class disease in which the disease occurred,
    상기 선택된 레이어들에 대한 세컨더리 질환에 관한 확률 중 적어도 하나 이상의 확률이 사용자에 의해 결정된 임계 값 미만인 경우에 기초하여, 상기 사용자에게 상기 귀내시경 이미지와 다른 귀내시경 이미지를 통해 중이염 진단 재시도를 제안하는 출력을 제공하는,Based on a case where at least one of the probabilities related to secondary disease for the selected layers is less than a threshold determined by the user, suggesting to the user to retry diagnosing otitis media through an otoscope image different from the otoscope image providing output,
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  8. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 학습된 중이염 진단 모델의 상기 공유된 레이어들의 노드들 간의 연결들 중 적어도 일부 연결을 스킵(skip)하는 것에 기초하여, 특징 데이터를 추출하는,Extracting feature data based on skipping at least some of the connections between nodes of the shared layers of the learned otitis media diagnosis model,
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  9. 제1항에 있어서,According to paragraph 1,
    상기 프로세서는,The processor,
    상기 공유된 레이어들의 노드들 간의 연결들 중 선택된 제1 연결을 스킵하는 것에 기초하여, 제1 특징 데이터를 추출하고,Extracting first feature data based on skipping a selected first connection among connections between nodes of the shared layers,
    상기 공유된 레이어들의 노드들 간의 연결들 중 상기 제1 연결과 다른 제2 연결을 스킵하는 것에 기초하여, 제2 특징 데이터를 추출하며,Extracting second feature data based on skipping a second connection different from the first connection among connections between nodes of the shared layers,
    상기 노드들 간에 스킵되는 연결의 변경을 반복하면서, 상기 제1 특징 데이터 및 상기 제2 특징 데이터를 포함하는 복수의 특징 데이터들을 추출하는,Extracting a plurality of feature data including the first feature data and the second feature data while repeating changes in connections skipped between the nodes.
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  10. 제9항에 있어서,According to clause 9,
    상기 프로세서는,The processor,
    상기 제1 분류기 레이어에 기초하여, 상기 복수의 특징 데이터들 각각에 대한 상기 프라이머리 클래스에 속하는 질환들에 대한 확률을 획득하고,Based on the first classifier layer, obtain probabilities for diseases belonging to the primary class for each of the plurality of feature data,
    상기 복수의 특징 데이터들 각각에 대하여, 상기 제1 분류기 레이어에서 획득된 질환들에 대한 확률을 미리 결정된 임계 값을 기준으로 질환 이진(binary) 결과로 변환하고,For each of the plurality of feature data, the probabilities for diseases obtained from the first classifier layer are converted into disease binary results based on a predetermined threshold,
    상기 프라이머리 클래스에 속하는 질환들 각각에 대해, 상기 복수의 질환 이진 결과들에 대한 평균을 나타내는 제1 통계 결과를 획득하고,For each of the diseases belonging to the primary class, obtain a first statistical result representing the average of the plurality of disease binary outcomes,
    상기 프라이머리 클래스에 속하는 질환들 중 가장 높은 제1 통계 결과를 상기 질환 예측 결과로서 사용자에게 출력하는,Outputting the highest first statistical result among diseases belonging to the primary class to the user as the disease prediction result,
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  11. 제9항에 있어서,According to clause 9,
    상기 프로세서는,The processor,
    상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 특징 데이터들을 적용하여, 상기 복수의 특징 데이터들 각각에 대한 상기 세컨더리 클래스에 속하는 질환들에 대한 확률들을 획득하고,For each of the second classifier layers, apply the plurality of feature data to obtain probabilities for diseases belonging to the secondary class for each of the plurality of feature data,
    상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 특징 데이터들 각각에 대응하는 확률을 미리 결정된 임계 값을 기준으로 단일 질환 이진(binary) 결과로 변환하며,For each of the second classifier layers, the probability corresponding to each of the plurality of feature data is converted into a single disease binary result based on a predetermined threshold value,
    상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 단일 질환 이진 결과들에 대한 평균을 나타내는 제2 통계 결과를 획득하고,For each of the second classifier layers, obtain a second statistical result representing an average for the plurality of single disease binary outcomes,
    상기 제2 분류기 레이어들 각각에 대한 제2 통계 결과를, 상기 복수의 제2 분류기 레이어들 중 해당하는 제2 분류기 레이어에서 개별적으로 상기 단일 질환 예측 결과로서 출력하는,Outputting a second statistical result for each of the second classifier layers individually as the single disease prediction result in a corresponding second classifier layer among the plurality of second classifier layers,
    중이염 진단 전자 장치.Otitis media diagnostic electronic device.
  12. 프로세서에 의하여 수행되는 중이염 진단 방법에 있어서,In the otitis media diagnosis method performed by a processor,
    환자의 귀내시경 이미지를 수신하는 단계;Receiving an otoscope image of a patient;
    상기 수신된 귀내시경 이미지로부터 추출된 관심 영역(region of interest)에 기초하여, 입력 귀내시경 이미지를 생성하는 단계;generating an input otoscope image based on a region of interest extracted from the received otoscope image;
    상기 입력 귀내시경 이미지로부터 중이염 진단 모델의 공유된 레이어에 기초하여 특징 데이터를 추출하는 단계;extracting feature data from the input otoscope image based on a shared layer of an otitis media diagnosis model;
    상기 중이염 진단 모델의 복수의 분류기 레이어들 중 제1 분류기 레이어에 기초하여, 상기 추출된 특징 데이터로부터 프라이머리(primary) 클래스에 속하는 질환들에 대한 질환 예측 결과를 출력하는 단계; 및Outputting disease prediction results for diseases belonging to a primary class from the extracted feature data based on a first classifier layer among the plurality of classifier layers of the otitis media diagnosis model; and
    상기 복수의 분류기 레이어들 중 상기 제1 분류기 레이어와 분리된 복수의 제2 분류기 레이어들에 기초하여, 세컨더리(secondary) 클래스에 속하는 질환들의 각 질환에 대한 단일 질환 예측 결과를 상기 복수의 제2 분류기 레이어들 중 해당하는 제2 분류기 레이어에서 개별적으로 출력하는 단계Based on the plurality of second classifier layers separated from the first classifier layer among the plurality of classifier layers, a single disease prediction result for each disease belonging to the secondary class is generated by the plurality of second classifiers. Step of individually outputting from the corresponding second classifier layer among the layers
    를 포함하는 중이염 진단 방법.Otitis media diagnosis method comprising.
  13. 제12항에 있어서,According to clause 12,
    상기 귀내시경 이미지를 수신하는 단계는,The step of receiving the otoscope image is,
    상기 환자의 고막(tympanic membrane)을 촬영한 비디오 시퀀스(video sequence)를 수신하는 단계; 및Receiving a video sequence of the patient's tympanic membrane; and
    상기 비디오 시퀀스를 사용자에 의해 결정된 프레임(frame) 개수만큼, 복수의 귀내시경 이미지들을 획득하는 단계Obtaining a plurality of otoscope images from the video sequence as many frames as determined by the user.
    를 포함하는 중이염 진단 방법.Otitis media diagnosis method comprising.
  14. 제12항에 있어서,According to clause 12,
    상기 입력 귀내시경 이미지를 생성하는 단계는,The step of generating the input otoscope image is,
    상기 귀내시경 이미지에서 상기 환자의 개인식별가능정보를 제거하는 단계;removing the patient's personally identifiable information from the otoscope image;
    상기 귀내시경 이미지로부터 미리 지정된 형상을 갖는 상기 관심 영역(region of interest)을 추출하는 단계; 및extracting the region of interest having a predetermined shape from the otoscope image; and
    상기 추출된 관심 영역을, 2차원 형태의 상기 귀내시경 이미지의 중앙(center)에 배치시키는 단계Placing the extracted region of interest at the center of the otoscope image in two-dimensional form.
    를 포함하는 중이염 진단 방법.Otitis media diagnosis method comprising.
  15. 제12항에 있어서,According to clause 12,
    상기 질환 예측 결과를 출력하는 단계는,The step of outputting the disease prediction result is,
    상기 제1 분류기 레이어에 기초하여, 상기 추출된 특징 데이터로부터 상기 프라이머리 클래스에 속하는 프라이머리 질환들에 관한 확률들을 획득하는 단계; 및Based on the first classifier layer, obtaining probabilities regarding primary diseases belonging to the primary class from the extracted feature data; and
    상기 프라이머리 질환들에 관한 확률 중 가장 높은 확률을 가지는 질환을 상기 질환 예측 결과로서 사용자에게 출력하는 단계Outputting a disease with the highest probability among the probabilities of the primary diseases to the user as the disease prediction result.
    를 포함하는,Including,
    중이염 진단 방법.How to diagnose otitis media.
  16. 제12항에 있어서,According to clause 12,
    상기 단일 질환 예측 결과를 상기 복수의 제2 분류기 레이어들 중 해당하는 제2 분류기 레이어에서 개별적으로 출력하는 단계는,The step of individually outputting the single disease prediction result from a corresponding second classifier layer among the plurality of second classifier layers,
    상기 제2 분류기 레이어들 각각에 기초하여, 상기 추출된 특징 데이터로부터 상기 세컨더리 클래스에 속하는 세컨더리 질환에 관한 확률을 획득하는 단계; 및Based on each of the second classifier layers, obtaining a probability regarding a secondary disease belonging to the secondary class from the extracted feature data; and
    상기 제2 분류기 레이어들 각각에 대한 상기 세컨더리 질환에 관한 확률에 기초한 질환 발생 결과를, 상기 제2 분류기 레이어들 각각에 대한 단일 질환 예측 결과로서 사용자에게 출력하는 단계Outputting a disease occurrence result based on the probability of the secondary disease for each of the second classifier layers to the user as a single disease prediction result for each of the second classifier layers.
    를 포함하는,Including,
    중이염 진단 방법.How to diagnose otitis media.
  17. 제15항에 있어서,According to clause 15,
    상기 사용자에게 출력하는 단계는,The step of outputting to the user is,
    상기 프라이머리 클래스에서 상기 질환 예측 결과에 해당하는 질환을 제외한 질환들 중, 가장 높은 확률을 가지는 질환의 확률을 대상 결과로 설정하는 단계; 및setting the probability of a disease with the highest probability as a target result among diseases excluding the disease corresponding to the disease prediction result in the primary class; and
    상기 질환 예측 결과의 확률 및 상기 대상 결과의 확률 간의 차이가 사용자에 의해 결정된 임계 값 미만인 경우에 기초하여, 상기 사용자에게 상기 귀내시경 이미지와 다른 귀내시경 이미지를 통해 중이염 진단 재시도를 제안하는 출력을 제공하는 단계Based on the case where the difference between the probability of the disease prediction result and the probability of the target result is less than a threshold determined by the user, an output is provided suggesting that the user retry diagnosing otitis media through an otoscope image different from the otoscope image. steps provided
    를 포함하는 중이염 진단 방법.Otitis media diagnosis method comprising.
  18. 제16항에 있어서,According to clause 16,
    상기 사용자에게 출력하는 단계는,The step of outputting to the user is,
    상기 세컨더리 질환에 관한 질환 발생 결과 중, 질환이 발생된 상기 세컨더리 클래스 질환에 관한 제2 분류기 레이어들을 선택하는 단계; 및selecting second classifier layers related to the secondary class disease in which the disease occurred from among disease occurrence results related to the secondary disease; and
    상기 선택된 레이어들에 대한 세컨더리 질환에 관한 확률 중 적어도 하나 이상의 확률이 사용자에 의해 결정된 임계 값 미만인 경우에 기초하여, 상기 사용자에게 상기 귀내시경 이미지와 다른 귀내시경 이미지를 통해 중이염 진단 재시도를 제안하는 출력을 제공하는 단계Based on a case where at least one of the probabilities related to secondary disease for the selected layers is less than a threshold determined by the user, suggesting to the user to retry diagnosing otitis media through an otoscope image different from the otoscope image Steps that provide output
    를 포함하는 중이염 진단 방법.Otitis media diagnosis method comprising.
  19. 제12항에 있어서,According to clause 12,
    상기 특징 데이터를 추출하는 단계는,The step of extracting the feature data is,
    상기 학습된 중이염 진단 모델의 상기 공유된 레이어들의 노드들 간의 연결들 중 적어도 일부 연결을 스킵(skip)하는 것에 기초하여, 특징 데이터를 추출하는 단계Extracting feature data based on skipping at least some of the connections between nodes of the shared layers of the learned otitis media diagnosis model.
    를 포함하는 방법.How to include .
  20. 제12항에 있어서,According to clause 12,
    상기 특징 데이터를 추출하는 단계는,The step of extracting the feature data is,
    상기 공유된 레이어들의 노드들 간의 연결들 중 선택된 제1 연결을 스킵하는 것에 기초하여, 제1 특징 데이터를 추출하는 단계;extracting first feature data based on skipping a selected first connection among connections between nodes of the shared layers;
    상기 공유된 레이어들의 노드들 간의 연결들 중 상기 제1 연결과 다른 제2 연결을 스킵하는 것에 기초하여, 제2 특징 데이터를 추출하는 단계; 및extracting second feature data based on skipping a second connection different from the first connection among connections between nodes of the shared layers; and
    상기 노드들 간에 스킵되는 연결의 변경을 반복하면서, 상기 제1 특징 데이터 및 상기 제2 특징 데이터를 포함하는 복수의 특징 데이터들을 추출하는 단계Extracting a plurality of feature data including the first feature data and the second feature data while repeating changes in skip connections between the nodes.
    를 포함하는 중이염 진단 방법.Otitis media diagnosis method comprising.
  21. 제20항에 있어서,According to clause 20,
    상기 제1 분류기 레이어에 기초하여, 상기 복수의 특징 데이터들 각각에 대한 상기 프라이머리 클래스에 속하는 질환들에 대한 확률을 획득하는 단계;Based on the first classifier layer, obtaining probabilities for diseases belonging to the primary class for each of the plurality of feature data;
    상기 복수의 특징 데이터들 각각에 대하여, 상기 제1 분류기 레이어에서 획득된 질환들에 대한 확률을 미리 결정된 임계 값을 기준으로 질환 이진(binary) 결과로 변환하는 단계;For each of the plurality of feature data, converting the probability of diseases obtained from the first classifier layer into a disease binary result based on a predetermined threshold value;
    상기 프라이머리 클래스에 속하는 질환들 각각에 대해, 상기 복수의 질환 결과들에 대한 평균을 나타내는 제1 통계 결과를 획득하는 단계; 및For each of the diseases belonging to the primary class, obtaining a first statistical result representing an average of the plurality of disease results; and
    상기 프라이머리 클래스에 속하는 질환들 중 가장 높은 제1 통계 결과를 상기 질환 예측 결과로서 사용자에게 출력하는 단계Outputting the highest first statistical result among diseases belonging to the primary class to the user as the disease prediction result.
    를 더 포함하는 중이염 진단 방법.A method for diagnosing otitis media further comprising:
  22. 제20항에 있어서,According to clause 20,
    상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 특징 데이터들을 적용하여, 상기 복수의 특징 데이터들 각각에 대한 상기 세컨더리 클래스에 속하는 질환들에 대한 확률들을 획득하는 단계;For each of the second classifier layers, applying the plurality of feature data to obtain probabilities for diseases belonging to the secondary class for each of the plurality of feature data;
    상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 특징 데이터들 각각에 대응하는 확률을 미리 결정된 임계 값을 기준으로 단일 질환 이진(binary) 결과로 변환하는 단계;For each of the second classifier layers, converting a probability corresponding to each of the plurality of feature data into a single disease binary result based on a predetermined threshold value;
    상기 제2 분류기 레이어들 각각에 대하여, 상기 복수의 단일 질환 이진 결과들에 대한 평균을 나타내는 제2 통계 결과를 획득하는 단계; 및For each of the second classifier layers, obtaining a second statistical result representing an average for the plurality of single disease binary outcomes; and
    상기 제2 분류기 레이어들 각각에 대한 제2 통계 결과를, 상기 복수의 제2 분류기 레이어들 중 해당하는 제2 분류기 레이어에서 개별적으로 상기 단일 질환 예측 결과로서 출력하는 단계Outputting a second statistical result for each of the second classifier layers individually as the single disease prediction result in a corresponding second classifier layer among the plurality of second classifier layers.
    를 더 포함하는 중이염 진단 방법.A method for diagnosing otitis media further comprising:
  23. 하드웨어와 결합되어 제12항 내지 제22항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program combined with hardware and stored in a computer-readable recording medium to execute the method of any one of claims 12 to 22.
PCT/KR2023/007254 2022-07-13 2023-05-26 Otitis media diagnosis method and device WO2024014702A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0086105 2022-07-13
KR20220086105 2022-07-13
KR10-2023-0002549 2023-01-06
KR1020230002549A KR20240009328A (en) 2022-07-13 2023-01-06 Method and device for diagnosising otitis media

Publications (1)

Publication Number Publication Date
WO2024014702A1 true WO2024014702A1 (en) 2024-01-18

Family

ID=89536878

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/007254 WO2024014702A1 (en) 2022-07-13 2023-05-26 Otitis media diagnosis method and device

Country Status (1)

Country Link
WO (1) WO2024014702A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210121119A (en) * 2019-01-25 2021-10-07 오토넥서스 메디컬 테크놀러지 인코퍼레이티드 Machine Learning for Otitis Media Diagnosis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210121119A (en) * 2019-01-25 2021-10-07 오토넥서스 메디컬 테크놀러지 인코퍼레이티드 Machine Learning for Otitis Media Diagnosis

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHA DONGCHUL, PAE CHONGWON, SEONG SI-BAEK, CHOI JAE YOUNG, PARK HAE-JEONG: "Automated diagnosis of ear disease using ensemble deep learning with a big otoendoscopy image database", EBIOMEDICINE, ELSEVIER BV, NL, vol. 45, 1 July 2019 (2019-07-01), NL , pages 606 - 614, XP093127423, ISSN: 2352-3964, DOI: 10.1016/j.ebiom.2019.06.050 *
CHEN YEN-CHI, CHU YUAN-CHIA, HUANG CHII-YUAN, LEE YEN-TING, LEE WEN-YA, HSU CHIEN-YEH, YANG ALBERT C., LIAO WEN-HUEI, CHENG YEN-FU: "Smartphone-based artificial intelligence using a transfer learning algorithm for the detection and diagnosis of middle ear diseases: A retrospective deep learning study", ECLINICAL MEDICINE, vol. 51, 1 September 2022 (2022-09-01), pages 101543, XP093127419, ISSN: 2589-5370, DOI: 10.1016/j.eclinm.2022.101543 *
CHOI YEONJOO, CHAE JIHYE, PARK KEUNWOO, HUR JAEHEE, KWEON JIHOON, AHN JOONG HO: "Automated multi-class classification for prediction of tympanic membrane changes with deep learning models", PLOS ONE, PUBLIC LIBRARY OF SCIENCE, US, vol. 17, no. 10, 10 October 2022 (2022-10-10), US , pages e0275846, XP093127429, ISSN: 1932-6203, DOI: 10.1371/journal.pone.0275846 *
KHAN MOHAMMAD AZAM, KWON SOONWOOK, CHOO JAEGUL, HONG SEOK MIN, KANG SUNG HUN, PARK IL-HO, KIM SUNG KYUN: "Automatic detection of tympanic membrane and middle ear infection from oto-endoscopic images via convolutional neural networks", NEURAL NETWORKS., ELSEVIER SCIENCE PUBLISHERS, BARKING., GB, vol. 126, 1 June 2020 (2020-06-01), GB , pages 384 - 394, XP093127426, ISSN: 0893-6080, DOI: 10.1016/j.neunet.2020.03.023 *
WU ZEBIN, LIN ZHEQI, LI LAN, PAN HONGGUANG, CHEN GUOWEI, FU YUQING, QIU QIANHUI: "Deep Learning for Classification of Pediatric Otitis Media", THE LARYNGOSCOPE, WILEY-BLACKWELL, UNITED STATES, vol. 131, no. 7, 1 July 2021 (2021-07-01), United States , pages E2344 - E2351, XP093127425, ISSN: 0023-852X, DOI: 10.1002/lary.29302 *
ZENG XINYU, JIANG ZIFAN, LUO WEN, LI HONGGUI, LI HONGYE, LI GUO, SHI JINGYONG, WU KANGJIE, LIU TONG, LIN XING, WANG FUSEN, LI ZHEN: "Efficient and accurate identification of ear diseases using an ensemble deep learning model", SCIENTIFIC REPORTS, NATURE PUBLISHING GROUP, US, vol. 11, no. 1, 25 May 2021 (2021-05-25), US , XP093127418, ISSN: 2045-2322, DOI: 10.1038/s41598-021-90345-w *

Similar Documents

Publication Publication Date Title
US11900647B2 (en) Image classification method, apparatus, and device, storage medium, and medical electronic device
WO2020246834A1 (en) Method for recognizing object in image
WO2017022908A1 (en) Method and program for bone age calculation using deep neural networks
WO2018106005A1 (en) System for diagnosing disease using neural network and method therefor
Zafer Fusing fine-tuned deep features for recognizing different tympanic membranes
WO2017051943A1 (en) Method and apparatus for generating image, and image analysis method
WO2005092176A1 (en) Real-time remote diagnosis of in vivo images
WO2021071288A1 (en) Fracture diagnosis model training method and device
KR20190115713A (en) Device for vessel detection and retinal edema diagnosis using multi-functional neurlal network and method for detecting and diagnosing same
Başaran et al. Chronic tympanic membrane diagnosis based on deep convolutional neural network
WO2021137454A1 (en) Artificial intelligence-based method and system for analyzing user medical information
US20220130544A1 (en) Machine learning techniques to assist diagnosis of ear diseases
WO2019143021A1 (en) Method for supporting viewing of images and apparatus using same
WO2024014702A1 (en) Otitis media diagnosis method and device
CN113222957A (en) Multi-class focus high-speed detection method and system based on capsule lens image
WO2019189972A1 (en) Method for analyzing iris image by artificial intelligence so as to diagnose dementia
WO2021201582A1 (en) Method and device for analyzing causes of skin lesion
KR20240009328A (en) Method and device for diagnosising otitis media
Schneider et al. Classification of Viral Pneumonia X-ray Images with the Aucmedi Framework
WO2022177069A1 (en) Labeling method and computing device therefor
WO2019225798A1 (en) Method and device for selecting question in multiple psychological test sheets on basis of machine learning to promptly diagnose anxiety and depression symptoms
Paul et al. Fully-automated semantic segmentation of wireless capsule endoscopy abnormalities
WO2020246676A1 (en) System for automatic diagnosis of uterine cervical cancer
WO2023027260A1 (en) Tympanum image processing apparatus and method for generating normal tympanum image by using machine learning model to otitis media tympanum image
WO2023277644A1 (en) Method for providing information required for oral disease diagnosis, and apparatus for performing same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23839796

Country of ref document: EP

Kind code of ref document: A1