WO2020009292A1 - 안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법 - Google Patents

안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법 Download PDF

Info

Publication number
WO2020009292A1
WO2020009292A1 PCT/KR2018/015577 KR2018015577W WO2020009292A1 WO 2020009292 A1 WO2020009292 A1 WO 2020009292A1 KR 2018015577 W KR2018015577 W KR 2018015577W WO 2020009292 A1 WO2020009292 A1 WO 2020009292A1
Authority
WO
WIPO (PCT)
Prior art keywords
fundus image
artifact
image
fundus
pixel
Prior art date
Application number
PCT/KR2018/015577
Other languages
English (en)
French (fr)
Inventor
최태근
이근영
임형택
양화원
Original Assignee
주식회사 메디웨일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180099370A external-priority patent/KR102301058B1/ko
Application filed by 주식회사 메디웨일 filed Critical 주식회사 메디웨일
Publication of WO2020009292A1 publication Critical patent/WO2020009292A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a method for judging the quality of a fundus image, and to an apparatus for performing fundus image management. It is about.
  • Fundus examination is a diagnostic aid that is frequently used in ophthalmology because it can observe the abnormalities of the retina, optic nerve, and macular area. Recently, the use of the fundus examination is increasing the use of the non-invasive method to observe the degree of vascular damage caused by chronic diseases such as hypertension, diabetes, as well as eye diseases.
  • One object of the present invention is to provide a method for determining the quality of a fundus image.
  • Another object of the present invention is to provide an apparatus for determining the quality of the fundus image.
  • Another object of the present invention is to provide a method for determining the quality of a fundus image or an apparatus for determining the quality of a fundus image for distinguishing a fundus image having a defect.
  • the pixel value of at least one pixel included in the target region of the fundus image Comparing the pixel value to detect a first pixel associated with the quality of the fundus image, comparing the proportion of the first pixel of the total pixels of the fundus image to the reference ratio and the first pixel of the total pixels of the fundus image Based on the comparison result obtained by comparing the proportion to the reference ratio, a method of determining the quality of the fundus image may be provided, including obtaining quality information of the fundus image.
  • the method for determining the quality of the fundus image by detecting artifacts from the fundus image of the subject's fundus image, determining at least a portion of the fundus image as a target region for detecting artifacts And detecting at least one artifact pixel corresponding to the artifact from the target region, wherein when the artifact is the first artifact, the target region is a region spaced a predetermined distance from a center of the eye fundus image in the fundus image.
  • a method of determining the quality of the fundus image determined as the first area may be provided.
  • a fundus image management unit for detecting an artifact from a fundus image photographing the fundus to manage the quality of the fundus image
  • the fundus image acquisition unit for acquiring the fundus image and the target region of the fundus image
  • a quality determiner configured to detect the first pixel from the first pixel and determine the quality of the fundus image in consideration of the number of first pixels, wherein the quality determiner is based on the pixel value of at least one pixel included in the target area of the fundus image.
  • a first pixel detector that detects a first pixel related to the quality of the fundus image in comparison with the pixel value, a comparator that compares a ratio of the first pixel of all pixels of the fundus image with a reference ratio and among all pixels of the fundus image The quality of the fundus image based on a comparison result obtained by comparing the ratio occupied by the first pixel with the reference ratio Acquiring quality information for obtaining the information may be provided with a fundus image management apparatus comprising: a.
  • a fundus image management unit for detecting an artifact from a fundus image photographing the fundus to determine the quality of the fundus image
  • the fundus image acquisition unit for acquiring the fundus image and the target region of the fundus image
  • a quality determining unit for detecting at least one artifact pixel from the plurality of pixels and determining the quality of the fundus image in consideration of the artifact pixel, wherein the quality determining unit determines at least a portion of the fundus image as a target region for detecting the artifact
  • an artifact pixel detector that detects at least one artifact pixel corresponding to the artifact from the determiner and the target region, wherein the quality determiner includes a target region from a center of a region of the fundus image corresponding to the fundus when the artifact is the first artifact.
  • Distanced areas Determining a first area, and if artifacts are artifacts of the second target area may be provided with a fundus image management apparatus
  • the quality of the fundus image can be quickly determined.
  • a more accurate neural network model can be obtained by effectively filtering out a low quality fundus image from the fundus image learning data.
  • the diagnosis based on the bad image can be prevented, and the accuracy of the diagnosis result can be improved.
  • FIG. 1 illustrates a diagnostic assistance system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a learning apparatus according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating in more detail a learning apparatus according to another embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a diagnostic apparatus according to an embodiment of the present invention.
  • FIG. 5 is a view for explaining a diagnostic apparatus according to another embodiment of the present invention.
  • FIG. 6 illustrates a diagnostic assistance system according to an embodiment of the present invention.
  • FIG. 7 is a block diagram illustrating a client device according to an embodiment of the present invention.
  • FIG. 8 is a view for explaining a diagnostic assistance process according to an embodiment of the present invention.
  • FIG. 9 is a view for explaining the configuration of the learning unit according to an embodiment of the present invention.
  • FIG. 11 is a view for explaining image resizing according to an embodiment of the present invention.
  • FIG. 12 is a diagram for describing extension of an image data set according to an embodiment of the present invention.
  • FIG. 13 is a block diagram illustrating a learning process of a neural network model according to an embodiment of the present invention.
  • FIG. 14 is a block diagram illustrating a learning process of a neural network model according to an embodiment of the present invention.
  • 15 is a diagram for describing a method of controlling a learning apparatus, according to an exemplary embodiment.
  • 16 is a diagram for describing a method of controlling a learning apparatus, according to an exemplary embodiment.
  • 17 is a diagram for describing a method of controlling a learning apparatus, according to an exemplary embodiment.
  • FIG. 18 is a view for explaining the configuration of the diagnostic unit according to an embodiment of the present invention.
  • 19 is a diagram for describing diagnosis target data according to an embodiment of the present invention.
  • FIG. 20 is a diagram for describing a diagnosis process according to an exemplary embodiment.
  • 21 is a diagram illustrating a parallel diagnostic assistance system according to some embodiments of the present invention.
  • FIG. 22 is a diagram for describing a parallel diagnosis assistance system according to some embodiments of the present disclosure.
  • FIG. 23 is a diagram for describing a configuration of a learning apparatus including a plurality of learning units according to an exemplary embodiment.
  • 24 is a diagram for describing a parallel learning process according to an embodiment of the present invention.
  • 26 is a block diagram illustrating a diagnosis unit according to an embodiment of the present invention.
  • FIG. 27 is a diagram for describing a diagnostic assistance process according to one embodiment of the present invention.
  • FIG. 28 is a diagram for describing a diagnosis assistance system according to an embodiment of the present invention.
  • 29 is a diagram for describing a graphic user interface according to one embodiment of the present invention.
  • FIG. 30 is a diagram for describing a graphic user interface according to one embodiment of the present invention.
  • FIG. 31 is a diagram illustrating region division of a fundus image according to an embodiment of the present invention.
  • 32 is a diagram illustrating region division of a fundus image according to an embodiment of the present invention.
  • FIG. 33 is a diagram illustrating region division of a fundus image according to an embodiment of the present invention.
  • 34 is a view for explaining an apparatus according to an embodiment of the present invention.
  • 35 is a view for explaining an apparatus according to an embodiment of the present invention.
  • FIG. 37 is a flowchart illustrating a method of determining an image quality according to an embodiment of the present invention.
  • 38 is a diagram for describing a graphic user interface according to one embodiment of the present invention.
  • 39 is a flowchart for describing a quality determination of an image according to an exemplary embodiment.
  • FIG. 40 is a flowchart illustrating a method of determining an image quality according to an embodiment of the present invention.
  • 41 is a flowchart illustrating a method of determining an image quality according to an embodiment of the present invention.
  • FIG. 42 is a flowchart illustrating a method of determining an image quality according to an embodiment of the present invention.
  • 43 is a view for explaining a method of determining image quality according to an embodiment of the present invention.
  • 44 is a diagram for describing a method of determining image quality according to an embodiment of the present invention.
  • 45 is a diagram for describing a method of determining image quality according to an embodiment of the present invention.
  • 46 is a view for explaining a method of determining image quality according to an embodiment of the present invention.
  • 47 is a diagram for describing a plurality of fundus images according to an embodiment of the present invention.
  • 48 is a diagram for describing selecting a target image according to an embodiment of the present invention.
  • 49 is a diagram for describing generation of a target image according to an embodiment of the present invention.
  • 50 is a diagram illustrating a method for diagnosing lesions according to some embodiments of the present invention.
  • 51 is a diagram for describing a method of determining suitability of an image according to an embodiment of the present invention.
  • FIG. 52 is a view for explaining a method of determining suitability of an image according to an embodiment of the present invention.
  • 53 is a view for explaining a method of determining suitability of an image according to an embodiment of the present invention.
  • 54 is a diagram for describing a method of determining suitability of an image according to an embodiment of the present invention.
  • 55 is a view to explain a method of determining suitability of a fundus image according to an embodiment of the present invention.
  • 56 is a view to explain a method of determining suitability of a fundus image according to an embodiment of the present invention.
  • 57 is a view to explain a method of determining suitability of a fundus image according to an embodiment of the present invention.
  • 58 is a view for explaining a method of determining the suitability of a fundus image according to an embodiment of the present invention.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • a diagnosis assisting system and method for assisting the determination of the presence or absence of a disease or a disease or an abnormality that is the basis of the determination, etc. will be described based on the fundus image.
  • a neural network model for diagnosing a disease using a deep learning technique will be described, and a diagnostic assistance system or method for assisting the detection of the presence or absence of a disease using the constructed model will be described.
  • a diagnostic assistance system or method for acquiring diagnosis information related to the presence or absence of a disease or finding information used for diagnosis of a disease, and the like, and assisting diagnosis using the fundus image is provided.
  • a diagnostic assistance system or method may be provided to assist in the diagnosis of ocular disease based on the fundus image.
  • a diagnostic assistant system or method may be provided to assist diagnosis by acquiring diagnosis information related to the presence or absence of glaucoma, cataracts, macular degeneration, and prematurity retinopathy of the test subject.
  • a diagnostic assistance system or method may be provided to assist in the diagnosis of other diseases (eg, systemic diseases or chronic diseases) that are not eye diseases.
  • a diagnostic assistant system or method may be provided that assists in diagnosis by acquiring diagnosis information of systemic diseases such as hypertension, diabetes, Alzheimer's, cytomegalovirus, stroke, heart disease, atherosclerosis, and the like.
  • a diagnostic assistant system or method for detecting abnormal fundus findings that can be used for the diagnosis of eye diseases or other diseases can be provided.
  • color abnormalities across the fundus lens opacities, cup-to-disc ratios, macular abnormalities (e.g., macular holes), blood vessel diameter, running
  • a diagnostic assistance system or method may be provided for acquiring findings such as abnormalities of the back, abnormal diameters of the retinal arteries, bleeding of the retina, the occurrence of exudate, drusen, and the like.
  • the diagnostic assistance information may be understood to encompass diagnostic information or findings based on the diagnosis according to the presence or absence of a disease.
  • a diagnostic assistance system may be provided.
  • the diagnostic assistance system 10 includes a learning device 1000 for training a diagnostic model, a diagnostic device 2000 for performing diagnosis using the diagnostic model, and a client device 3000 for obtaining a diagnostic request. It may include.
  • the diagnostic assistance system 10 may include a plurality of learning devices, a plurality of diagnostic devices, or a plurality of client devices.
  • the learning apparatus 1000 may include a learning unit 100.
  • the learning unit 100 may perform training of the neural network model.
  • the learner 100 may acquire a fundus image data set and perform training of a neural network model for detecting a disease or abnormal finding from the fundus image.
  • the diagnosis apparatus 2000 may include a diagnosis unit 200.
  • the diagnosis unit 200 may perform an acquisition of supplementary information used for diagnosing or diagnosing a disease using a neural network model.
  • the diagnosis unit 200 may acquire the diagnosis assistance information by using the diagnosis model trained by the learner.
  • the client device 3000 may include an imaging unit 300.
  • the imaging unit 300 may capture an eye fundus image.
  • the client device may be an ophthalmic fundus imaging device.
  • the client device 3000 may be a handheld device, such as a smartphone or tablet PC.
  • the learning apparatus 1000 determines a neural network model for use in diagnosis assistance by acquiring a data set and learning a neural network model, and the diagnostic apparatus requests information from a client.
  • the diagnostic assistance information according to the diagnosis target image may be obtained using the determined neural network model, and the client device may request information from the diagnostic apparatus and acquire the diagnostic assistance information transmitted in response thereto.
  • the diagnostic assistance system may include a diagnostic device and a client device for learning the diagnostic model and performing the diagnosis using the same.
  • the diagnostic assistance system may include a diagnostic apparatus for learning a diagnostic model, obtaining a diagnostic request, and performing a diagnosis.
  • the diagnostic assistance system according to another embodiment may include a learning device for learning a diagnostic model and a diagnostic device for obtaining a diagnosis request and performing a diagnosis.
  • the diagnostic assistance system disclosed herein is not limited to the above-described embodiments, but includes a learning unit that performs model learning, a diagnostic unit that acquires diagnostic assistance information according to the learned model, and an imaging unit that acquires a diagnosis target image. It may be implemented in any form, including.
  • the learning apparatus may perform training of a neural network model to assist diagnosis.
  • the learning apparatus 1000 may include a controller 1200 and a memory unit 1100.
  • the learning apparatus 1000 may include a controller 1200.
  • the controller 1200 may control an operation of the learning apparatus 1000.
  • the controller 1200 may include one or more of a central processing unit (CPU), a random access memory (RAM), a graphic processing unit (GPU), one or more microprocessors, and other electronic components capable of processing input data according to predetermined logic. It may include.
  • CPU central processing unit
  • RAM random access memory
  • GPU graphic processing unit
  • microprocessors one or more microprocessors, and other electronic components capable of processing input data according to predetermined logic. It may include.
  • the controller 1200 may read a system program stored in the memory unit 1100 and various processing programs. For example, the controller 1200 may develop a data processing process, a diagnostic process, and the like for performing the diagnostic assistant to be described later on the RAM, and perform various processes according to the deployed program. The controller 1200 may learn a neural network model to be described later.
  • the learning apparatus 1000 may include a memory unit 1100.
  • the memory unit 1100 may store data for learning and a learning model.
  • the memory unit 1100 may include a nonvolatile semiconductor memory, a hard disk, a flash memory, a RAM, a read only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), or a tangible nonvolatile recording medium. It can be implemented as.
  • the memory unit 1100 may store various processing programs, parameters for performing processing of the programs, or such processing result data.
  • the memory unit 1100 may include a data processing process program, a diagnostic process program, a parameter for performing each program, and data obtained by performing such a program (for example, processed data or diagnostics) for performing diagnostic assistant, which will be described later. Result value).
  • the learning apparatus 1000 may include a separate learning unit (or learning module).
  • the learning unit may perform training of the neural network model. The performance of learning is described in more detail in Table 2 below.
  • the learner may be included in the controller 1200 described above.
  • the learning unit may be stored in the memory unit 1100 described above.
  • the learning unit may be implemented by some components of the controller 1200 and the memory unit 1100 described above.
  • the learning unit may be stored in the memory unit 1100 and driven by the controller 1200.
  • the learning apparatus 1000 may further include a communication unit 1300.
  • the communication unit 1300 may communicate with an external device.
  • the communication unit 1300 may communicate with a diagnostic device, a server device, or a client device described later.
  • the communication unit 1300 may perform wired or wireless communication.
  • the communication unit 1300 may perform bi-directional or unidirectional communication.
  • the learning apparatus 1000 may include a processor 1050, a volatile memory 1010, a nonvolatile memory 1030, a mass storage device 1070, and a communication interface 1090.
  • the processor 1050 of the learning apparatus 1000 may include a data processing module 1051 and a learning module 1053.
  • the processor 1050 may process a data set stored in a mass storage device or a nonvolatile memory through the data processing module 1051.
  • the processor 1050 may perform training of the diagnostic assistance neural network model through the learning module 1053.
  • Processor 1050 may include local memory.
  • the communication interface 1090 may be connected with the network 1110.
  • the learning apparatus 1000 illustrated in FIG. 3 is merely an example, and the configuration of the learning apparatus 1000 according to the present invention is not limited thereto.
  • the data processing module or learning module may be provided at a location different from that shown in FIG. 3.
  • the diagnostic apparatus may obtain diagnostic assistance information using a neural network model.
  • the diagnostic apparatus 2000 may include a controller 2200 and a memory 2100.
  • the controller 2200 may generate diagnostic assistance information using the diagnostic assistance neural network model.
  • the controller 2200 may acquire diagnostic data for diagnosis (eg, fundus data of a subject) and acquire diagnostic assistance information predicted by the diagnostic data using the trained diagnostic assistance neural network model.
  • the memory unit 2100 may store the learned diagnostic assistance neural network model.
  • the memory unit 2100 may store parameters, variables, and the like of the diagnostic assistance neural network model.
  • the diagnostic apparatus 2000 may further include a communication unit 2300.
  • the communicator 2300 may communicate with a learning device and / or a client device.
  • the diagnosis apparatus 2000 may be provided in the form of a server communicating with the client device. In this regard, it will be described in more detail below.
  • the diagnostic apparatus 2000 may include a processor 2050, a volatile memory 2030, a nonvolatile memory 2010, a mass storage device 2070, and a communication interface 2090. It may include.
  • the processor 2050 of the diagnostic apparatus may include a data processing module 2051 and a diagnostic module 2053.
  • the processor 2050 may process the diagnostic data through the data processing module 2051, and may obtain diagnostic assistance information according to the diagnostic data through the diagnostic module 2053.
  • the diagnostic assistance system may include a server device.
  • the diagnostic assistance system according to an embodiment of the present invention may include a plurality of server devices.
  • the server device may store and / or drive a neural network model.
  • the server device may store weight values constituting the trained neural network model.
  • the server device may collect or store data used for diagnostic assistance.
  • the server device may output the result of the diagnostic assistance process using the neural network model to the client device.
  • the server device may obtain feedback from the client device.
  • the server device may operate similarly to the diagnostic device described above.
  • the diagnostic assistance system 20 may include a diagnostic server 4000, a learning device, and a client device.
  • the diagnostic server 4000 that is, the server device may communicate with a plurality of learning devices or a plurality of diagnostic devices. Referring to FIG. 6, the diagnostic server 4000 may communicate with the first learning apparatus 1000a and the second learning apparatus 1000b. Referring to FIG. 6, the diagnostic server 4000 may communicate with the first client device 3000a and the second client device 3000b.
  • the diagnostic server 4000 trains the first learning apparatus 1000a for learning the first diagnostic assistance neural network model for obtaining the first diagnostic assistance information and the second diagnostic assistance neural network model for obtaining the second diagnostic assistance information.
  • the second learning apparatus 1000b may communicate.
  • the diagnostic server 4000 stores the first diagnostic auxiliary neural network model for obtaining the first diagnostic assistance information and the second diagnostic auxiliary neural network model for obtaining the second diagnostic assistance information, and the first client device 3000a or the second client device.
  • the diagnostic assistance information may be obtained in response to the request for obtaining the diagnostic assistance information from 3000b, and the obtained diagnostic assistance information may be transmitted to the first client device 3000a or the second client device 3000b.
  • the diagnostic server 4000 may communicate with the first client device 3000a requesting the first diagnostic assistance information and the second client device 3000b requesting the second diagnostic assistance information.
  • the client device may request diagnostic assistance information from the diagnostic device or the server device.
  • the client device may acquire data necessary for diagnosis and transmit the acquired data to the diagnostic device.
  • the client device may include a data acquirer.
  • the data acquirer may acquire data necessary for assistance of diagnosis.
  • the data acquisition unit may be an imaging unit that acquires an image used for the diagnostic assistance model.
  • the client device 3000 may include an imaging unit 3100, a controller 3200, and a communication unit 3300.
  • the imaging unit 3100 may acquire image or image data.
  • the imaging unit 3100 may acquire a fundus image.
  • the client device 3000 may be replaced with a data acquisition unit other than the imaging unit 3100.
  • the communicator 3300 may communicate with an external device, such as a diagnostic device or a server device.
  • the communicator 3300 may perform wired or wireless communication.
  • the controller 3200 may control the imaging unit 3100 to acquire an image or data.
  • the controller 3200 may control the image capturer 3100 to acquire a fundus image.
  • the controller 3200 may transmit the acquired fundus image to the diagnosis apparatus.
  • the controller may transmit the image acquired through the imaging unit 3100 to the server device through the communication unit 3300, and obtain the diagnostic assistance information generated based on the image.
  • the client device may further include an output unit.
  • the output unit may include a display that outputs an image or an image or a speaker that outputs an audio.
  • the output unit may output the image or the image data obtained by the obtained imaging unit.
  • the output unit may output diagnostic assistance information obtained from the diagnostic apparatus.
  • the client device may further include an input unit.
  • the input unit may obtain a user input.
  • the input unit may obtain a user input for requesting the diagnostic assistance information.
  • the input unit may obtain user information for evaluating the diagnostic assistance information obtained from the diagnostic apparatus.
  • the client device may further include a memory unit.
  • the memory unit may store an image acquired by the imaging unit.
  • the diagnostic assistant process may be performed by the diagnostic assistant system or the diagnostic assistant apparatus disclosed herein.
  • the diagnostic assistant process can be considered as divided into a training process for learning a diagnostic assistant model used for diagnosis assistance and a diagnostic process using the diagnostic assistant model.
  • the diagnostic assistance process acquires and processes data (S110), learns a neural network model (S130), and obtains variables of the learned neural network model (S150). It may include a diagnostic assistant process to acquire the learning process and the diagnostic target data (S210) and to obtain diagnostic assistance information (S250) using the trained neural network model (S230) based on the diagnostic target data.
  • the training process may include a data processing process of processing the input training image data and processing the model into a state that can be used for training of the model, and a training process of training the model using the processed data.
  • the training process may be performed by the learning apparatus described above.
  • the diagnostic process may include a data processing process of processing the input test target image data to a state capable of performing a diagnosis using a neural network model, and a diagnostic process of performing diagnosis using the processed data.
  • the diagnostic process may be performed by the above-described diagnostic apparatus or server apparatus.
  • a process for training a neural network model may be provided.
  • a process of training a neural network model to perform or assist with a diagnosis based on the fundus image can be disclosed.
  • the training process described below may be performed by the learning apparatus described above.
  • the training process may be performed by the learning unit.
  • the learning unit may be provided in the above-described learning apparatus.
  • the learner 100 may include a data processing module 110, a queue module 130, a learning module 150, and a learning result obtaining module 170. Each module may perform separate steps of the data processing process and the learning process as described below. However, not all of the components described in FIG. 9 and the functions performed by each element are essential, and some elements may be added or some elements may be omitted depending on a learning form.
  • a data set may be obtained.
  • the data processing module may acquire a data set.
  • the data set may be an image data set. Specifically, it may be a fundus image data set.
  • the fundus image data set may be acquired using a general Shandong pupil fundus camera or the like.
  • the fundus image may be a panoramic image.
  • the fundus image may be a red-free image.
  • the fundus image may be an infrared photographed image.
  • the fundus image may be an autofluorescence image.
  • the image data may be obtained in any one of JPG, PNG, DCM (DICOM), BMP, GIF, and TIFF.
  • the data set may comprise a training data set.
  • the data set may comprise a test data set.
  • the data set may comprise a validation data set.
  • the data set may be allocated to at least one data set of the training data set, the test data set, and the verification data set.
  • the data set may be determined in consideration of diagnostic assistance information to be obtained using a neural network model trained through the data set. For example, in order to train a neural network model for obtaining diagnostic assistance information related to cataracts, the data set obtained may be determined as an infrared fundus image data set. Alternatively, when the neural network model for acquiring diagnostic assistance information related to macular degeneration is to be trained, the acquired data set may be a self-fluoresced fundus image data set.
  • Individual data included in the data set may include a label.
  • the label may be plural.
  • individual data included in the data set may be labeled for at least one feature.
  • the data set is a fundus image data set that includes a plurality of fundus image data, each fundus image data being a diagnostic information label (eg, the presence or absence of a specific disease) and / or finding information (eg, specific) according to the image. Abnormalities of the site) may include a label.
  • each fundus image data may include a perimeter information label for that image.
  • each fundus image data may include left and right eye information on whether the corresponding fundus image is an image of the left eye or right eye, gender information on whether the fundus image is a female or a male fundus image, and a subject who photographed the fundus image.
  • Peripheral information labels, including age information about the age of may include.
  • an image data set DS may include a plurality of image data IDs. Each image data ID may include an image I and a label L assigned to the image.
  • the image data set DS may include first image data ID1 and second image data ID2.
  • the first image data ID1 may include a first image I1 and a first label L1 corresponding to the first image.
  • one image data includes one label. However, as described above, one image data may include a plurality of labels.
  • the size of the acquired image data may be adjusted. That is, the images can be resized.
  • image resizing may be performed by the data processing module described above.
  • the size or aspect ratio of the image can be adjusted.
  • the obtained plurality of images may be sized to have a constant size.
  • the images can be scaled to have a constant aspect ratio.
  • Resizing an image may be applying an image conversion filter to the image.
  • the size or capacity of the individual images obtained is excessively large or small, the size or capacity of the image may be adjusted to convert to an appropriate size. Alternatively, if the size or capacity of the individual images vary, resizing may unify the size or capacity.
  • the capacity of the image may be adjusted. For example, when the capacity of an image exceeds an appropriate range, downsampling can reduce the image. Alternatively, when the capacity of the image falls short of an appropriate range, the image may be enlarged through upsampling or interpolating.
  • the size or aspect ratio of the image may be adjusted by cropping the image or adding pixels to the acquired image. For example, if an image contains an unnecessary part for learning, a part of the image may be cropped to remove it. Alternatively, if a portion of the image is cut off and the aspect ratio is not correct, a column or row may be added to adjust the image aspect ratio. In other words, the aspect ratio can be adjusted by adding margins or padding to the image.
  • the capacity and size or aspect ratio of the image may be adjusted together. For example, when the size of an image is large, the image size may be reduced by downsampling the image, and unnecessary portions included in the reduced image may be cropped and converted into appropriate image data.
  • the orientation of the image data may be changed.
  • each fundus image may be adjusted in size or resized. Cropping to remove the marginal portions other than the fundus portion of the fundus image or padding to adjust the aspect ratio by replenishing the cropped portion of the fundus image may be performed.
  • FIG. 11 is a view for explaining image resizing according to an embodiment of the present invention.
  • an acquired fundus image may be resized by an image resizing process according to an embodiment of the present invention.
  • the original fundus image (a) may be cropped (b) the margins unnecessary for obtaining diagnostic information (b) and may be reduced in size (c) to improve learning efficiency.
  • preprocessing of the image may be performed. If the image is used as it is input for learning, overfitting may occur as a result of learning about unnecessary characteristics, and the learning efficiency may also be reduced.
  • pretreatment may be performed on the fundus image to facilitate highlighting abnormalities of the ocular disease or pretreatment to highlight retinal vessel to blood flow changes.
  • the preprocessing of the image may be performed by the data processing module of the learning unit described above.
  • the data processing module may acquire the resized image and perform preprocessing required for learning.
  • the preprocessing of the image may be performed on the image in which the above-mentioned resizing process is completed.
  • the contents of the present invention disclosed herein are not limited thereto, and the resizing process may be omitted and preprocessing may be performed on the image.
  • Applying the preprocessing of the image may be to apply a preprocessing filter to the image.
  • a blur filter may be applied to the image.
  • Gaussian filters may be applied to the image.
  • Gaussian blur filters may be applied to the image.
  • a deblur filter for sharpening the image may be applied to the image.
  • a filter for adjusting or modulating the color of the image may be applied.
  • a filter may be applied to change the value of some of the RGB values constituting the image, or to binarize the image.
  • a filter may be applied to emphasize specific elements in an image. For example, for fundus image data, preprocessing may be performed to highlight the vascular element from each image. At this time, the pretreatment for emphasizing the vascular element may be to apply one or more filters sequentially or in combination.
  • the preprocessing of the image may be performed in consideration of the characteristics of the diagnostic assistance information to be obtained. For example, when it is desired to obtain diagnostic assistance information related to findings such as bleeding, drusen, microvascular flow, and exudate of the retina, pretreatment may be performed to convert the acquired fundus image into a red-free fundus image.
  • the image may be augmented or expanded. Augmentation of the image may be performed by the data processing module of the learning unit described above.
  • Augmented images can be used to improve training performance of the neural network model. For example, when the amount of data for training the neural network model is insufficient, by modulating existing training image data to expand the number of data for training, and using the modulated (or changed) image together with the original image You can increase the number of training image data. As a result, overfitting can be suppressed, a layer of a model can be formed deeper, and prediction accuracy can be improved.
  • the expansion of the image data may be performed by inverting the left and right sides of the image, clipping out a part of the image, correcting a color value of the image, or adding artificial noise.
  • clipping out a portion of an image may be performed by clipping some regions of an element constituting the image or randomly clipping some regions.
  • the image data can be extended by inverting left and right, upside down, rotating, scaling ratio resizing, cropping, padding, color adjustment, or brightness adjustment.
  • the augmentation or extension of the image data described above may generally be applied to a training data set.
  • the present invention may be applied to other data sets, for example, test data sets, that is, data sets for testing the verified model using training and validation data using training data.
  • the fundus image data set when used as the data set, one or more processes of inverting, cropping, adding noise, or changing color in order to increase the number of data are randomly applied.
  • An augmented fundus image data set may be obtained.
  • FIG. 12 is a diagram for describing extension of an image data set according to an embodiment of the present invention.
  • an image according to embodiments of the present disclosure may be modified to improve prediction accuracy of a neural network model.
  • an image according to one embodiment of the present invention may include a portion of which is dropped out (a), inverted from side to side (b), or a center point is moved (c, d) of the region. Color may be modulated (e).
  • the image data may be linearized.
  • the image may be serialized by the data processing module described above.
  • the serialization module can serialize the preprocessed image data and pass it to the queue module.
  • the image data to be serialized may be image data to which at least one of the above-described image resizing and image preprocessing is applied, or both of the image data may not be processed.
  • Each image data included in the image data set may be converted into a string form.
  • Image data may be converted into binary data form.
  • the image data may be transformed into a data form suitable for use in training the neural network model.
  • the image data may be converted into a TFRecord form for use in neural network model training using tensorflow.
  • the acquired fundus image set may be converted into a TFRecord form and used for learning a neural network model.
  • Queues can be used to eliminate data bottlenecks.
  • the queue module of the learning unit may store image data in a queue and transmit the image data to the learning model module.
  • the use of queues minimizes the bottleneck between the CPU and the GPU, facilitates access to the database, and memory. It can improve the use efficiency.
  • the queue may store data used to train the neural network model.
  • the cue can store image data.
  • the image data stored in the queue may be image data processed or at least one of the above-described data processing processes (ie, resizing, preprocessing, and augmentation) is processed image data.
  • the queue may store image data, preferably serialized image data as described above.
  • the queue may store image data and supply image data to the neural network model.
  • the queue may deliver image data in a batch size unit to a neural network model.
  • the queue may provide image data.
  • the queue may provide data to a learning module described later. As data is extracted from the learning module, the number of data accumulated in the queue may be reduced.
  • the queue may request replenishment of the data.
  • the queue may request replenishment of certain kinds of data.
  • the queue may supplement the data in the queue.
  • the queue may be provided in the system memory of the learning device.
  • the queue may be formed in a random access memory (RAM) of a central processing unit (CPU).
  • RAM random access memory
  • CPU central processing unit
  • the size of the queue that is, the capacity may be determined according to the RAM capacity of the CPU.
  • the queue may be a first in first out (FIFO) queue, a primary queue, or a random queue.
  • the learning process of the neural network model can be initiated.
  • the training of the neural network model may be performed by the above-described learning apparatus.
  • the learning process may be performed by the controller of the learning apparatus.
  • the learning process may be performed by the learning module described above.
  • FIG. 13 is a block diagram illustrating a learning process of a neural network model according to an embodiment of the present invention.
  • the training process of the neural network model according to an embodiment of the present invention obtains data (S1010), learns a neural network model (S1030), verifies a trained model (S1050), and learns a model. This may be performed by acquiring a variable of S1070.
  • a data set for training the diagnostic assistance neural network model can be obtained.
  • the data obtained may be an image data set processed by the data processing process described above.
  • the data set may include serialized fundus image data after it has been sized, preprocessed filters applied, and data is augmented.
  • a training data set may be obtained and used.
  • a verification data set may be obtained and used.
  • a test data set may be obtained and used.
  • Each data set may include a fundus image and a label.
  • the data set can be obtained from the queue.
  • the data set may be obtained in batch size units from the queue. For example, if 60 are specified as the batch size, the data set may be extracted from the queue in 60 units.
  • the size of the batch size may be limited by the RAM capacity of the GPU.
  • the data set can be randomly obtained from the queue into the learning module.
  • the data set may be obtained in the order accumulated in the queue.
  • the learning module may specify and extract the configuration of the data set obtained from the queue. For example, the learning module may extract the fundus image having the left eye label and the fundus image data having the right eye label of a specific subject to be used together for learning.
  • the neural network model may be a diagnostic assistance model that outputs diagnostic assistance information based on the image data.
  • the structure of the diagnostic assistance neural network model for obtaining the diagnostic assistance information may have a predetermined form.
  • the neural network model may include a plurality of layers or layers.
  • the neural network model may be implemented in the form of a classifier that generates diagnostic assistance information.
  • the classifier may perform double classification or multiple classification.
  • the neural network model may be a binary classification model that classifies input data into a normal or abnormal class for target diagnosis assistance information such as a specific disease or abnormality.
  • the neural network model may be a multiple classification model that classifies input data into a plurality of class classes for particular characteristics (eg, degree of disease progression).
  • the neural network model may be implemented as a regression type model that outputs a specific value related to a specific disease.
  • the neural network model may include a convolutional neural network (CNN).
  • CNN convolutional neural network
  • the CNN structure at least one of AlexNet, LENET, NIN, VGGNet, ResNet, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, and DeeplySupervisedNet may be used.
  • the neural network model may be implemented using a plurality of CNN structures.
  • the neural network model may be implemented to include a plurality of VGGNet blocks. More specifically, the neural network model includes a CNN layer having 64 filters of 3x3 size, a BN (Batch Normalization) layer, and a ReLu layer, and a CNN layer having a 128x filter of 3x3 size, a ReLu layer, The second block, in which the BN layers are sequentially combined, may be provided in combination.
  • the neural network model includes each CNN block, followed by a max pooling layer, and at the end may include a global average pooling layer, a fully connected layer, and an activation layer (eg, sigmoid, softmax, etc.). have.
  • Neural network models can be trained using training data sets.
  • Neural network models can be trained using labeled data sets.
  • the learning process of the diagnostic assisted neural network model described herein is not limited thereto, and the neural network model may be trained in an unsupervised form using unlabeled data.
  • the training of the neural network model based on the training image data, obtains a result using a neural network model to which arbitrary weight values are assigned, compares the obtained result with a label value of the training data and back propagates according to the error. Can be performed by optimizing the weight values.
  • the training of the neural network model may be influenced from feedback from the verification results, test results and / or diagnostic steps of the models described below.
  • Training of the neural network model described above may be performed using TensorFlow.
  • frameworks such as Theano, Keras, Caffe, Torch, and CNTK (Microsoft Cognitive Toolkit) are used for learning neural network models. May be
  • the neural network model can be verified using the validation data set.
  • the verification of the neural network model may be performed by obtaining a result value for the verification data set from the neural network model in which the learning is performed, and comparing the result value with a label of the verification data set. Verification can be performed by measuring the accuracy of the results.
  • parameters of the neural network model eg, weights and / or biases
  • hyper parameters eg, learning rates
  • the learning apparatus may learn a neural network model predicting diagnosis assistance information based on the fundus image, and correspond to the diagnosis fundus image with the diagnosis assistance information of the verified fundus image of the trained model.
  • Validation of the diagnostic assistance neural network model may be performed by comparison with the validation label.
  • a separate verification set i.e., a data set having distinct factors not included in the training data set
  • the separate verification set may be a data set in which the training data set and the factors such as race, environment, age, and gender are distinguished.
  • Neural network models can be tested using test data sets.
  • the neural network model may be tested using a test data set that is distinguished from a training data set and a verification data set. Depending on the test results, the parameters (eg, weights and / or biases) or hyperparameters (eg, learning rates) of the neural network model may be adjusted.
  • the parameters eg, weights and / or biases
  • hyperparameters eg, learning rates
  • the learning apparatus obtains a result value of inputting test fundus image data that is not used for training and verification, from a neural network model trained to predict diagnostic assistance information based on the fundus image.
  • a test of the trained and verified diagnostic auxiliary neural network model may be performed.
  • a separately prepared external data set i.e., a data set having factors distinct from training and / or validation data, may be used.
  • parameter values of the optimized model may be obtained.
  • more appropriate parameter (or variable) values may be obtained. If the learning proceeds sufficiently, an optimized value of weight and / or bias can be obtained.
  • the learned neural network model and / or parameters or variables of the learned neural network model may be stored in the learning apparatus and / or the diagnostic apparatus (or the server).
  • the trained neural network model may be used for prediction of diagnostic assistance information by a diagnostic device and / or a client device.
  • the parameters or variables of the learned neural network model may be updated by feedback obtained from the diagnostic apparatus or the client apparatus.
  • a plurality of sub-models may be learned at the same time in the course of learning one diagnostic auxiliary neural network model.
  • the plurality of submodels may have different hierarchical structures.
  • the diagnostic assisted neural network model may be implemented by combining a plurality of sub-neural network models.
  • the neural network model may be trained using an ensemble technique that combines a plurality of sub-neural networks.
  • prediction may be performed by combining the results predicted from various types of sub-neural network models, thereby improving accuracy of the result prediction.
  • FIG. 14 is a block diagram illustrating a learning process of a neural network model according to an embodiment of the present invention.
  • a data set is obtained (S1011), and a first model (ie, a first neural network model) and a second are obtained using the acquired data.
  • the model ie, the second neural network model
  • S1051 the trained first neural network model and the second neural network model
  • S10721 the final neural network model
  • the plurality of sub-neural network models may acquire the same training data set and generate output values separately.
  • an ensemble of the plurality of sub-neural network models may be determined as a final neural network model, and parameter values for each of the plurality of sub-neural network models may be obtained as a learning result.
  • the output value of the final neural network model may be determined as an average value of the output values by each sub-neural network model.
  • the output value of the final neural network model may be determined as a weighted average value for the output value of each sub-neural network model in consideration of the accuracy obtained as a result of verification for each sub-neural network model.
  • the optimized parameter value for the first sub-neural network model and the optimized parameter value of the second sub-neural network model by machine learning can be obtained.
  • an average value of output values for example, probability values for specific diagnostic assistance information
  • the output value of the final neural network model may be determined as the output value of the final neural network model.
  • the accuracy of the individual sub-neural network models may be evaluated based on output values of each of the plurality of sub-neural network models.
  • one of the plurality of sub-neural network models may be selected and determined as the final sub-neural network model based on the accuracy.
  • the structure of the determined sub neural network model and the parameter values of the determined sub neural network model obtained as a result of the training may be stored.
  • the neural network model includes a first sub-neural network model and a second sub-neural network model
  • accuracy is obtained according to each of the first and second sub-neural network models, and a more accurate sub-neural network model is obtained. This can be determined by a neural network model.
  • the combination of sub-neural network models forming a highly accurate ensemble can be determined as the final neural network model.
  • the ensemble may be performed for all possible cases of selecting at least one of the plurality of sub-neural network models, and the sub-neural network combination evaluated as the highest accuracy may be determined as the final neural network model.
  • the neural network model includes a first sub-neural network model and a second sub-neural network model
  • the accuracy of the first sub-neural network model, the accuracy of the second sub-neural network model and the ensemble of the first and second sub-neural network models By comparing the accuracy by and the sub-neural network model configuration of the most accurate case can be determined as the final neural network model.
  • 15 is a diagram for describing a method of controlling a learning apparatus, according to an exemplary embodiment.
  • performing preprocessing of the first fundus image (S110), serializing the preprocessed first fundus image (S130), and first Training of the neural network model (S150) may be included.
  • a control method of a learning apparatus obtains a first training data set including a plurality of fundus images, processes the fundus image included in the first training data set, and the first training.
  • the method may be a control method of a learning apparatus included in a system including a diagnostic apparatus for obtaining information.
  • Performing preprocessing of the first fundus image may perform preprocessing of the first fundus image such that the first fundus image included in the first training data set is converted into a form suitable for learning of the first neural network model. It may further include doing.
  • the control method of the learning apparatus may include serializing the preprocessed first fundus image (S130).
  • the first fundus image may be serialized in a form that is easy for learning of the neural network model.
  • the training of the first neural network model (S150) further includes training the first neural network model classifying the target fundus image into a first label or a second label by using the serialized first fundus image. can do.
  • the learning apparatus may obtain a second training data set including a plurality of fundus images and at least partially different from the first training data set, and train the second neural network model using the second training data set.
  • a method of controlling a learning apparatus may include performing preprocessing of a second fundus image such that a second fundus image included in a second training set is suitable for learning a second neural network model. Serializing the two fundus images and using the serialized second fundus image, training a second neural network model that classifies the subject fundus image into a third label or a fourth label.
  • 16 is a diagram for describing a method of controlling a learning apparatus, according to an exemplary embodiment. Referring to FIG. 16, in the method of controlling a learning apparatus according to an embodiment of the present disclosure, performing a preprocessing of a second fundus image (S210), serializing a preprocessed second fundus image (S230), and a second method Training of the neural network model (S250) may be included.
  • S210 a second fundus image
  • S230 serializing a preprocessed second fundus image
  • S250 second method Training of the neural network model
  • preprocessing of the first fundus image, serialization of the first fundus image, and learning using the first fundus image, followed by preprocessing of the first fundus image, serialization of the second fundus image, and first fundus image Although described as being performed following learning with, the content of the present invention is not limited thereto.
  • Preprocessing of the second fundus image included in the second training set, and serializing the second fundus image and learning using the second fundus image include the above-described preprocessing of the first fundus image, serialization of the first fundus image, and first fundus. It can be performed independently of learning using images.
  • Preprocessing of the second fundus image included in the second training set, and serializing the second fundus image and learning using the second fundus image include the above-described preprocessing of the first fundus image, serialization of the first fundus image, and first fundus. It can be performed in parallel with learning using images.
  • the preprocessing of the second fundus image included in the second training set, and the serialization of the second fundus image and the learning using the second fundus image must be the preprocessing of the first fundus image described above and the serialization of the first fundus image. And after the learning using the first fundus image, or not previously performed, the processing on the first fundus image and the processing on the second fundus image may be performed without mutual dependence.
  • the first preprocessing performed on the fundus image included in the first training data set may be distinguished from the second preprocessing performed on the fundus image included in the second training data set.
  • the first pretreatment may be vascular emphasis pretreatment
  • the second pretreatment may be color modulation pretreatment.
  • Each preprocessing may be determined in consideration of diagnostic assistance information to be obtained through each neural network model.
  • a method of controlling a learning apparatus may evaluate an accuracy of the trained first neural network model by using a first verification data set that is at least partially distinguished from a first training data set. Validating the first neural network model and evaluating the accuracy of the trained first neural network model using a second verification data set that is at least partially distinct from a second training data set, thereby evaluating the second neural network model It may further comprise the step of verifying. At this time, the verification of the first neural network model and the second neural network model may be performed independently.
  • the serialized first fundus image is sequentially stored in a first queue, and the serialized fundus image stored in the first queue is used for learning the first neural network model in a predetermined capacity unit from the first queue, and serialized.
  • a second fundus image is sequentially stored in a second cue that is distinct from the first cue, and the serialized fundus image stored in the second cue is subjected to learning of the first neural network model in a predetermined capacity unit from the second cue. Can be used.
  • the first neural network model may include a first sub neural network model and a second sub neural network model.
  • classifying the target fundus image into the first label or the second label may be performed by considering a first prediction value predicted by the first sub-neural network model and a second prediction value predicted by the second sub-neural network model. Can be performed.
  • the second neural network model may include a third sub neural network model and a fourth sub neural network model.
  • classifying an object fundus image into the third label or the fourth label may be performed by considering a third prediction value predicted by the third sub-neural network model and a fourth prediction value predicted by the fourth sub-neural network model. Can be performed.
  • the first training data set may include at least a portion of the fundus image labeled with the first label
  • the second training data set may include at least a portion of the fundus image labeled with the third label.
  • the fundus image labeled with the first label and the at least some fundus image labeled with the third label may be partially common.
  • the first label is a normal label indicating that the subject corresponding to the subject fundus image is normal with respect to the first finding
  • the second label is an abnormal label indicating that the subject is abnormal with respect to the second finding. Can be.
  • Performing preprocessing of the first fundus image may include cropping the first fundus image to satisfy a reference aspect ratio and changing the size of the first fundus image.
  • the pre-processing of the first fundus image may further include applying a blood vessel emphasis filter to the fundus image such that the processing unit highlights the blood vessels included in the first fundus image.
  • the serialized first fundus image may be sequentially stored in a queue, and the serialized first fundus image stored in the queue may be used for learning the first neural network model in a predetermined capacity unit from the queue.
  • the cue may request replenishment of the serialized first fundus image if the serialized first fundus image not used for the first learning is reduced below a reference dose.
  • the first finding may be any one of retinal bleeding findings, retinal exudation findings, lens clouding findings, and diabetic retinopathy findings.
  • 17 is a diagram for describing a method of controlling a learning apparatus, according to an exemplary embodiment.
  • control method of the learning apparatus may further include verifying the first neural network model (S170) and updating the first neural network model (S190).
  • the step S170 of validating the first neural network model may be performed by evaluating the accuracy of the trained first neural network model by using the first verification data set that is at least partially distinguished from the first training data set.
  • the method may further include verifying.
  • the method may further include updating the first neural network model by reflecting the verification result obtained from updating the first neural network model (S190) and validating the first neural network model (S170).
  • the first neural network model may include a first sub neural network model and a second sub neural network model.
  • the training of the first neural network model may include verifying the first sub-neural network model using a first verification data set to obtain an accuracy of the first sub-neural network model, and using the first verification data set.
  • the second sub-neural network model is verified to obtain an accuracy of the second sub-neural network model, and the accuracy of the first sub-neural network model and the accuracy of the second sub-neural network model are compared to make a more accurate sub-neural network model as the final neural network model. May include determining.
  • a diagnostic assistance process for acquiring diagnostic assistance information using a neural network model may be provided.
  • diagnostic assistant information eg, diagnostic information or findings information
  • diagnostic assistant neural network model may be predicted using a fundus image and trained diagnostic assistant neural network model.
  • the diagnostic assistance process described below may be performed by a diagnostic apparatus.
  • the diagnostic process may be performed by the diagnosis unit 200.
  • the diagnosis unit 200 may be provided in the above-described diagnosis apparatus.
  • the diagnosis unit 200 may include a diagnosis request obtaining module 210, a data processing module 230, a diagnosis module 250, and an output module 270.
  • Each module may perform separate steps of the data processing process and the learning process as described below. However, not all of the components described in FIG. 16 and the functions performed by each of the elements are essential, and some elements may be added or some elements may be omitted depending on the aspect of diagnosis.
  • the diagnostic apparatus may obtain diagnostic target data and obtain diagnostic assistance information based on the diagnostic target data.
  • the diagnosis target data may be image data.
  • the data acquisition and the acquisition of the diagnosis request may be performed by the above-described diagnosis request acquisition module of the diagnosis unit.
  • diagnosis target data TD may include a diagnosis target image TI and diagnosis object information PI.
  • the diagnosis target image TI may be an image for obtaining diagnosis assistance information on the diagnosis target object.
  • the diagnosis target image may be a fundus image.
  • the diagnostic target (TI) JPG, PNG, DCM (DICOM), BMP, GIF can be any one of the formats of TIFF.
  • the diagnostic object information PI may be information for identifying a diagnosis object.
  • the diagnostic object information PI may be characteristic information of a diagnostic object or an image.
  • the diagnostic object information PI may include information such as a date and time of imaging the diagnosis target image, photographing equipment, an identification number of the subject to be diagnosed, an ID, a name, a gender, an age, or a weight.
  • the diagnostic object information PI may further include eye related information such as binocular information indicating whether the left eye is the right eye.
  • the diagnostic device may obtain a diagnostic request.
  • the diagnostic apparatus may acquire the diagnosis target data together with the diagnosis request.
  • the diagnostic apparatus may acquire diagnostic assistance information using the trained diagnostic assistance neural network model.
  • the diagnostic device may obtain a diagnostic request from the client device.
  • the diagnostic apparatus may obtain a diagnostic request from a user through an input means provided separately.
  • the obtained data can be processed. Processing of the data may be performed by the data processing module of the above-described diagnostic unit.
  • the data processing process may generally be performed similarly to the data processing process in the aforementioned learning process.
  • the data processing process in a diagnostic process is demonstrated centering on the difference with the data processing process in a learning process.
  • the diagnostic device may acquire data as in the learning process.
  • the obtained data may be in the same format as the data obtained in the learning process.
  • the diagnostic apparatus may acquire the DCM image and obtain the diagnosis assistance information using the trained neural network model. .
  • the acquired diagnosis subject image may be resized, similar to the image data used in the learning process.
  • the image to be diagnosed may be shaped to have an appropriate dose, size, and / or aspect ratio in order to efficiently perform diagnostic assistance information prediction through the trained diagnostic assistance neural network model.
  • diagnosis target image is a fundus image
  • resizing such as cropping an unnecessary portion of the image or reducing its size may be performed to predict diagnosis information based on the fundus image.
  • a preprocessing filter may be applied to the obtained diagnosis target image, similar to the image data used in the learning process.
  • An appropriate filter may be applied to the diagnosis target image so that the accuracy of the prediction of the diagnosis assistance information through the trained diagnosis assistance neural network model is further improved.
  • preprocessing for facilitating prediction of positive diagnostic information such as image preprocessing for highlighting blood vessels or image preprocessing for highlighting or weakening a specific color, may be applied to the image to be diagnosed. have.
  • the obtained diagnostic subject image may be serialized, similar to the image data used in the learning process.
  • the diagnostic target image may be converted or serialized into a form that facilitates driving a diagnostic model in a specific work frame.
  • Serialization of the diagnosis target image may be omitted. This may be because, unlike in the learning stage, the processor does not have a large number of data processed at a time in the diagnostic stage, so that the burden on the data processing speed is relatively small.
  • the acquired diagnosis subject image may be stored in a queue, similar to the image data used in the learning process. However, in the diagnostic process, since the number of processed data is smaller than that of the learning process, the step of storing the data in the queue may be omitted.
  • a diagnostic process using a trained neural network model can be initiated.
  • the diagnostic process can be performed in the above-described diagnostic apparatus.
  • the diagnostic process can be performed at the aforementioned diagnostic server.
  • the diagnostic process may be performed by the controller of the above-described diagnostic apparatus.
  • the diagnostic process may be performed by the diagnostic module of the above-described diagnostic unit.
  • the diagnosis process may be performed by obtaining data to be diagnosed (S2010), by using a learned neural network model (S2030), and by obtaining a result corresponding to the obtained diagnosis target data (S2050). However, processing of the data may be selectively performed.
  • the diagnostic module may acquire diagnostic target data.
  • the obtained data may be processed data as described above.
  • the acquired data may be fundus image data of a subject to whom the pre-processing to adjust the size and emphasize the blood vessel is applied.
  • the left eye image and the right eye image of one subject may be input together as diagnosis target data.
  • the diagnostic assistance neural network model provided in the classifier form may classify the input diagnosis target image into a positive or negative class for a predetermined label.
  • the trained diagnostic auxiliary neural network model may receive diagnostic target data and output a predicted label.
  • the trained diagnostic assistance neural network model may output a predicted value of the diagnostic assistance information. Diagnostic assistance information may be obtained using the trained diagnostic assistance neural network model. Diagnostic assistance information may be determined based on the predicted label.
  • the diagnostic assisted neural network model may predict diagnostic information (ie, information about the presence of a disease) or finding information (ie, information about the presence or absence of abnormalities) of a subject's eye disease or systemic disease.
  • the diagnostic information or findings may be output in a probability form.
  • the probability that the subject has a specific disease or the probability that there is a specific abnormality of the fundus image of the subject may be output.
  • the predicted label may be determined in consideration of whether the output probability value (or prediction score) exceeds the threshold value.
  • the diagnosis-assisted neural network model may output the presence or absence of diabetic retinopathy of a subject as a probability value by using the fundus photograph of the subject as a diagnosis target image.
  • the fundus photograph of the subject is input to the diagnostic assistive neural network model, and whether the subject has diabetic retinopathy or not has a normal value of abnormal: 0.74: 0.26. It can be obtained in the form of.
  • the data is classified based on a classifier-type diagnostic auxiliary neural network model.
  • the present invention is not limited thereto, and specific diagnostic auxiliary values may be defined using the diagnostic auxiliary neural network model implemented as a regression model. For example, blood pressure).
  • suitability information of an image may be obtained.
  • the suitability information may indicate whether the diagnosis target image is suitable for obtaining diagnostic assistance information using the diagnostic assistance neural network model.
  • the suitability information of the image may be quality information of the image.
  • the quality information or suitability information may indicate whether the diagnosis target image reaches the reference level.
  • diagnosis target image when the diagnosis target image has a defect due to a defect of the photographing equipment or the influence of illumination when the image is taken, a non-conformance result may be output as the suitability information on the diagnosis target image. If the diagnosis target image contains noise more than a certain level, the diagnosis target image may be determined to be inappropriate.
  • the suitability information may be a value predicted using a neural network model.
  • the suitability information may be information obtained through a separate image analysis process.
  • diagnostic assistance information obtained based on the inappropriate image may be obtained.
  • the image classified as inappropriate may be reviewed by a diagnostic aid neural network model.
  • the diagnostic assistance neural network model for performing the review may be different from the diagnostic assistance neural network model for performing the initial review.
  • the diagnostic apparatus may store the first diagnostic auxiliary neural network model and the second diagnostic auxiliary neural network model, and an image classified as inappropriate through the first diagnostic auxiliary neural network model may be reviewed through the second diagnostic auxiliary neural network model. .
  • a class activation map may be obtained from a trained neural network model.
  • Diagnostic assistant information may include CAM.
  • the CAM can be obtained along with other diagnostic assistance information.
  • a CAM it may optionally be obtained.
  • the CAM when the diagnostic information or finding information obtained by the diagnostic assistance model is classified into an abnormal class, the CAM may be extracted and / or output.
  • Diagnostic assistance information may be determined based on labels predicted from the diagnostic assistance neural network model.
  • the output of the diagnostic assistance information may be performed by the above-described output module of the diagnostic unit.
  • the diagnostic assistance information may be output from the diagnostic apparatus to the client apparatus.
  • the diagnostic assistance information may be output from the diagnostic apparatus to the server apparatus.
  • the diagnostic assistance information may be stored in a diagnostic device or a diagnostic server.
  • the diagnostic assistance information may be stored in a server device provided separately.
  • Diagnostic assistant information can be managed in a database.
  • the acquired diagnosis assistance information may be stored and managed together with the diagnosis target image of the subject according to the identification number of the subject.
  • the diagnosis target image and the diagnosis assistance information of the subject may be managed in a time sequence.
  • Diagnostic assistance information may be provided to the user.
  • the diagnostic assistance information may be provided to the user through the output means of the diagnostic apparatus or the client apparatus.
  • the diagnostic assistance information may be output for the user to recognize through visual or audio output means provided in the diagnostic apparatus or the client apparatus.
  • an interface for effectively providing diagnostic assistance information to a user may be provided.
  • This user interface will be described in more detail later in 5.
  • an image of the CAM may be provided together.
  • a CAM image it may optionally be provided.
  • the diagnostic information acquired through the diagnosis assisted neural network model is normal finding information or normal diagnostic information
  • the CAM image is not provided, and when the obtained diagnostic information is abnormal finding information or abnormal diagnostic information, for more accurate clinical diagnosis.
  • CAM images can be provided together.
  • the suitability information of the image may be provided together.
  • the diagnostic assistance information and the non-conformance determination information acquired according to the image may be provided together.
  • the diagnosis subject image determined to be inappropriate may be classified as a retake subject image.
  • the reshooting guide for the target object of the image classified as the reshooting target may be provided together with the suitability information.
  • feedback related to the learning of the neural network model may be obtained.
  • feedback may be obtained for adjusting parameters or hyperparameters related to training of the neural network model.
  • Feedback may be obtained through a user input provided in the diagnostic apparatus or the client apparatus.
  • the diagnostic assistance information corresponding to the diagnosis target image may include grade information.
  • the grade information may be selected from among a plurality of grades.
  • the grade information may be determined based on diagnostic information and / or finding information obtained through the neural network model.
  • the grade information may be determined in consideration of suitability information or quality information of the diagnosis target image. If the neural network model is a classifier model that performs multiple classifications, the rating information may be determined in consideration of the class in which the diagnosis target image is classified by the neural network model. If the neural network model is a regression model that outputs a value associated with a particular disease, the grade information may be determined in consideration of the output value.
  • the diagnostic assistance information acquired in response to the diagnosis target image may include any one grade information selected from the first grade information or the second grade information.
  • the grade information may be selected as the first grade information when abnormal finding information or abnormal diagnosis information is obtained through the neural network model.
  • the grade information may be selected as second grade information when abnormal finding information or abnormal diagnosis information is not obtained through the neural network model.
  • the grade information may be selected as the first grade information when the value obtained through the neural network model exceeds the reference value, and may be selected as the second grade information when the value obtained is less than the reference value.
  • the first grade information may indicate that strong abnormality information exists in the diagnosis target image, compared to the second grade information.
  • the grade information may be selected as the third grade information when it is determined that the quality of the diagnosis target image is lower than a reference by using an image analysis or a neural network model.
  • the diagnostic assistant information may include third grade information together with the first or second grade information.
  • the first user guide may be output through the output means.
  • the first user guide may indicate that a more precise examination is required for the subject (ie, the patient) corresponding to the diagnosis assistance information.
  • the first user guidance may indicate that a secondary diagnosis (eg, a separate medical institution or a power supply procedure) for the subject is required.
  • the first user guide may instruct treatment required for the subject.
  • the first user guide may provide instructions on injection prescription and power supply procedure for the subject (eg, List).
  • the second user guide may be output through the output means.
  • the second user guide may include a later management method for the subject corresponding to the diagnosis assistance information.
  • the second user guide may indicate a next medical treatment time, a next medical treatment subject, or the like.
  • the third user guide may be output through the output means.
  • the third user guide may indicate that re-photographing is required for the diagnosis target image.
  • the third user guide may include information about the quality of the diagnosis target image.
  • the third user guide may include information of defects (eg, whether bright artifacts or dark artifacts or the like) present in the diagnosis target image.
  • a diagnostic assistance system for predicting a plurality of labels may be provided.
  • the diagnostic assistance neural network of the aforementioned diagnostic assistance system may be designed to predict a plurality of labels.
  • a plurality of diagnostic assistance neural networks that predict different labels may be used in parallel.
  • a parallel diagnostic assistance system will be described.
  • a parallel diagnostic assistance system for acquiring a plurality of diagnostic assistance information.
  • the parallel diagnostic assistance system may learn a plurality of neural network models for acquiring a plurality of diagnostic assistance information, and obtain a plurality of diagnostic assistance information using the trained plurality of neural network models.
  • the parallel diagnosis assistance system acquires a first neural network model obtaining first diagnosis assistance information related to the presence or absence of an eye disease in a subject and second diagnosis assistance information related to the presence or absence of a systemic disease in a subject based on the fundus image.
  • the second neural network model may be trained, and diagnostic assistance information regarding the presence or absence of eye diseases and systemic diseases of the subject may be output using the learned first neural network model and the second neural network model.
  • 21 and 22 are diagrams for describing a parallel diagnostic assistance system according to some embodiments of the present invention.
  • the parallel diagnosis assistance system may include a plurality of learning units.
  • the parallel diagnosis assistance system 30 may include a learning apparatus 1000, a diagnosis apparatus 2000, and a client apparatus 3000.
  • the learning apparatus 1000 may include a plurality of learning units.
  • the learning apparatus 1000 may include a first learner 100a and a second learner 100b.
  • the parallel diagnosis assistance system 40 may include a first learning device 1000a, a second learning device 1000b, a diagnosis device 2000, and a client device 3000. It may include.
  • the first learning apparatus 1000a may include a first learning unit 100a.
  • the second learning apparatus 1000b may include a second learning unit 100b.
  • the first learner 100a may obtain a first data set and output a first parameter set of the first neural network model obtained as a result of learning with respect to the first neural network model.
  • the second learner 100b may obtain a second data set and output a second parameter set of the second neural network model obtained as a result of learning with respect to the second neural network model.
  • the diagnosis apparatus 2000 may include a diagnosis unit 200.
  • the description described with reference to FIG. 1 may be similarly applied to the diagnosis apparatus 2000 and the diagnosis unit 200.
  • the diagnosis unit 200 obtains the first diagnosis assistance information and the second diagnosis assistance information by using the first neural network model and the second neural network model trained from the first learner 100a and the second learner 100b, respectively. can do.
  • the diagnosis unit 2000 may store the parameters of the trained first neural network model acquired from the first learner 100a and the second learner 100b and the parameters of the trained second neural network model.
  • the diagnosis assistance system 40 has been described based on the case in which the diagnostic assistance system 40 includes the first learner 100a and the second learner 100b.
  • the learning apparatus may include a learning unit for acquiring three or more different diagnostic assistance information.
  • the diagnostic assistance system may include a plurality of learning apparatuses for obtaining different diagnostic assistance information.
  • a plurality of neural network models may be learned.
  • the training process for learning each neural network model can be performed in parallel.
  • the training process may be performed by a plurality of learning units. Each training process may be performed independently of each other.
  • the plurality of learning units may be provided in one learning device or in each of the plurality of learning devices.
  • FIG. 23 is a diagram for describing a configuration of a learning apparatus including a plurality of learning units according to an exemplary embodiment. Configuration and operation of each of the first learner 100a and the second learner 100b may be implemented similarly to those described above with reference to FIG. 9.
  • a process of a neural network model may include obtaining a first data processing module 110a, a first queue module 130a, a first learning module 150a, and a first learning result.
  • the first learning unit 100a and the second data processing module 110b including the module 170a, the second cue module 130b, the second learning module 150b, and the second learning result obtaining module 170b may be used. It may be performed by the learning apparatus 1000 including the second learning unit 100b.
  • the training process of the neural network model may be performed by the first learner 100a and the second learner 100b, respectively.
  • the first learner 100a and the second learner 100b may independently learn the first neural network model and the second neural network model.
  • the first learner 100a and the second learner 100b may be provided in the above-described learning apparatus. Alternatively, the first learner and the second learner may be provided in different learning devices.
  • the plurality of learning units may acquire data.
  • the plurality of learners may acquire different data sets.
  • the plurality of learners may obtain the same data set.
  • the plurality of learners may acquire a data set, some of which are common.
  • the data set may be a fundus image data set.
  • the first learner may obtain a first data set
  • the second learner may obtain a second data set.
  • the first data set and the second data set can be distinguished.
  • the first data set and the second data set may be some common.
  • the first data set and the second data set may be labeled fundus image data sets.
  • the first data set may include data labeled as normal for the first feature and data labeled as abnormal for the first feature.
  • the first data set may include a fundus image labeled as normal and a fundus image labeled as abnormal with respect to lens clouding.
  • the second data set may include data normally labeled for the second feature (distinguish from the first feature) and data labeled abnormally for the second feature.
  • the second data set may include a fundus image labeled as normal and a fundus image labeled as abnormal with respect to diabetic retinopathy.
  • the data set labeled normally for the first feature included in each of the first data set and the second data set and the data labeled normally for the second feature may be common.
  • the first data set includes an eye fundus image labeled as normal with respect to lens cloudiness and an ocular fundus image labeled as abnormal
  • the second data set contains an eye fundus image and abnormal labeled as normal with diabetic retinopathy.
  • the fundus image labeled as being included, but the fundus image labeled as normal with respect to the lens clouding included in the first data set and the fundus image labeled as normal with respect to diabetic retinopathy included in the second data set will be common. Can be.
  • data abnormally labeled with respect to the first feature included in each of the first data set and the second data set and data abnormally labeled with respect to the second feature may be common. That is, data labeled for multiple features may be used for training neural network models for multiple features.
  • the first data set may be the fundus image data set photographed by the first method
  • the second data set may be the fundus image data set photographed by the second method.
  • the first method and the second method may be any one selected from red-free photographing, panorama photographing, autofluorescence photographing, infrared photographing, and the like.
  • the data set used in each learning unit may be determined in consideration of diagnostic assistance information obtained by the neural network to be learned. For example, when the first learner trains a first neural network model to acquire diagnostic assistance information related to retinal abnormalities (eg, microvascular perfusion, exudate, etc.), the red fundographed first fundus image data You can obtain a set. Alternatively, when the second learner learns a second neural network model for acquiring diagnosis assistance information related to macular degeneration, the second learner may acquire a second fundus image data set by autofluorescence.
  • the plurality of learners may process the obtained data, respectively.
  • each learner may process the data by applying one or more of an image resizing, a preprocessing filter, an image enhancement, and an image serialization process.
  • the first data processing module of the first learner may process the first data set
  • the second data processing module of the second learner may process the second data set.
  • the first learner and the second learner included in the plurality of learners may differently process the obtained data set in consideration of diagnostic assistance information obtained from the neural network model learned by the learner.
  • the first learner may perform preprocessing to cause blood vessels to be emphasized with respect to the fundus images included in the first fundus image data set in order to train the first neural network model for obtaining first diagnostic assistance information related to hypertension. Can be done.
  • the second learner may learn about the fundus images included in the second fundus image data set in order to train the second neural network model for acquiring second diagnostic assistance information related to abnormal findings such as exudates of the retina and microvascular vessels. You can also perform preprocessing to convert to a red-free image.
  • the plurality of learners may store data in a queue. As described in 2.2.6 Queues above, each learner can store processed data in a queue and deliver it to the learning module. For example, the first learner may store the first data set in the first cue module and provide the first data set sequentially or randomly. The second learning module may store the second data set in the second cue module and provide the second learning module sequentially or randomly.
  • the plurality of learners may train the neural network model.
  • Each learning module may independently train a diagnostic assisted neural network model that predicts for different labels using a training data set.
  • the first learning module of the first learning unit trains the first neural network model
  • the second learning module of the second learning unit trains the second neural network module.
  • the plurality of diagnostic assistance neural network models can be trained in parallel and / or independently. By learning the model to predict different labels through the plurality of neural network models as described above, the prediction accuracy for each label can be improved and the efficiency of the prediction operation can be increased.
  • the parallel learning process may include training a diagnostic assisted neural network model predicting different labels.
  • the first learner may train the first diagnostic assistance neural network model predicting the first label.
  • the second learner may train a second diagnostic assistance neural network model that predicts the second label.
  • the first learner may train a first diagnostic assisted neural network model that obtains a first data set and predicts a first label. For example, the first learner may train a first diagnostic assisted neural network model predicting macular degeneration of a subject from an ocular fundus image by using a fundus image training data set labeled for macular degeneration.
  • the second learner may train a first diagnostic assisted neural network model that obtains a second data set and predicts a second label. For example, the second learner may train a second diagnostic assistive neural network model for predicting whether a subject is diabetic retinopathy from the fundus image, using the fundus image training data set labeled for diabetic retinopathy.
  • FIG. 24 is a diagram for describing a parallel learning process according to an embodiment of the present invention.
  • the parallel learning process may be applied to both the case where the parallel diagnosis assistance system is implemented as shown in FIG. 21, the case where it is implemented as shown in FIG. 22, and other forms. However, for convenience of description, the following description will be made based on the parallel diagnosis assistance system implemented as shown in FIG. 21.
  • the parallel learning process may include a plurality of sub-learning processes each learning a plurality of diagnostic assistance neural network models predicting different labels.
  • the parallel learning process may include a first sub learning process for learning the first neural network model and a second sub learning process for learning the second neural network model.
  • the first sub-learning process acquires first data (S1010a), uses a first neural network model (S1030a), verifies a first model (ie, a first diagnostic auxiliary neural network model) (S1050a) This may be performed by obtaining parameters of the neural network model (S1070a).
  • the second sub-learning process acquires second data (S1010b), uses the second neural network model (S1030b), verifies the second neural network model (ie, the second diagnostic auxiliary neural network model) (S1050b), and the second neural network. This may be performed by obtaining parameters of the model (S1070b).
  • the sub-learning process may include training the neural network model by inputting training data into the sub-neural network model, verifying the model by comparing the label value obtained as the output with the input training data, and reflecting the verification result back to the sub-neural network model. have.
  • Each sub-learning process obtains a result by using a neural network model to which arbitrary weight values are assigned, compares the obtained result with a label value of training data, and performs backpropagation according to the error. May include optimizing them.
  • the diagnostic assistance neural network model may be verified through a validation data set that is distinct from the training data set. Validation data sets for verifying the first neural network model and the second neural network model may be distinguished.
  • the plurality of learning units may acquire a learning result.
  • Each learning result obtaining module may obtain information about the learned neural network module from the learning module.
  • Each learning result obtaining module may obtain parameter values of the neural network module learned from the learning unit.
  • the first learning result obtaining module of the first learning unit may obtain a first parameter set of the first neural network model learned from the first learning module.
  • the second learning result obtaining module of the second learning unit may obtain a second parameter set of the second neural network model learned from the second learning module.
  • optimized parameter values i.e., a set of parameters
  • more appropriate parameter values can be obtained.
  • a first set of parameters of the first diagnostic assistance neural network model learned by the first sub learning process may be obtained.
  • a second parameter set of the second diagnostic assistance neural network model learned by the second sub learning process may be obtained.
  • optimized values of the weight and / or bias of the first diagnostic auxiliary neural network model and the second diagnostic auxiliary neural network model can be obtained.
  • the parameter set of each obtained neural network model may be stored in a learning device and / or a diagnostic device (or server).
  • the first parameter set of the first diagnostic assistance neural network model and the second parameter set of the second diagnostic assistance neural network model may be stored together or separately.
  • the parameter set of each neural network model learned may be updated by feedback obtained from a diagnostic device or a client device.
  • each sub learning process may comprise training a plurality of sub neural network models.
  • the plurality of submodels may have different hierarchical structures. In the following, the contents described in 2.3.7 may be similarly applied unless otherwise stated.
  • the shape of a more optimized neural network model is obtained in each sub-process, and the error of prediction may be reduced.
  • each learning process may include training a plurality of sub-neural network models.
  • the first sub-learning process obtains first data (S1011a), uses a 1-1 neural network model and a 1-2 neural network model (S1031a, S1033a) and a 1-1 neural network model.
  • the second neural network model may be verified (S1051a), and the final shape and the parameters of the first neural network model may be determined (S1071a).
  • the second sub-learning process acquires second data (S1011b), uses the 2-1 neural network model and the 2-2 neural network model (S1031b, S1033b), the 2-1 neural network model and the 2-2 neural network model.
  • the final form of the first model ie, the first diagnostic assistance neural network model
  • its parameters may be determined (S1071b).
  • the first neural network learned in the first sub-learning process may include a 1-1 neural network model and a 1-2 neural network model.
  • the 1-1 neural network model and the 1-2 neural network model may be provided in different hierarchical structures.
  • the first-first neural network model and the first-two neural network model may obtain the first data set and output the predicted labels, respectively.
  • the predicted label by the ensemble of the 1-1 neural network model and the 1-2 neural network model may be determined as the final predictive label.
  • the 1-1 neural network model and the 1-2 neural network model may be verified using the verification data set, and a highly accurate neural network model may be determined as the final neural network model.
  • the ensemble of the 1-1 neural network model, the 1-2 neural network model, the 1-1 neural network model, and the 1-2 neural network model is verified, and the neural network model form in the case of high accuracy is used as the final first neural network. You can also decide by model.
  • Model ie, a second diagnostic assistance neural network model
  • each sub-learning process includes two sub-models, but this is merely an example, and the present invention is not limited thereto.
  • the neural network model trained in each sub-learning process may include only one neural network model or three or more submodels.
  • a diagnostic process for acquiring a plurality of diagnostic assistance information may be provided.
  • the diagnostic process for acquiring the plurality of diagnostic assistance information may be implemented in the form of a parallel diagnostic assistance process including a plurality of diagnostic processes independent of each other.
  • the diagnostic assistance process may be performed by a plurality of diagnostic modules. Each diagnostic assistance process can be performed independently.
  • 26 is a block diagram illustrating a diagnosis unit 200 according to an embodiment of the present invention.
  • the diagnostic unit 200 may include a diagnostic request obtaining module 211, a data processing module 231, a first diagnostic module 251, and a second diagnostic module 253. And an output module 271.
  • Each module of the diagnostic unit 200 may operate similarly to the diagnostic module of the diagnostic unit illustrated in FIG. 18 unless otherwise noted.
  • the diagnosis unit 200 includes a plurality of diagnostic modules
  • the diagnostic request obtaining module 211, the data processing module 231, and the output module 271 are illustrated as being common. It is not limited to this configuration, a plurality of diagnostic request acquisition module, data processing module and / or output module may also be provided. A plurality of diagnostic request acquisition modules, data processing modules and / or output modules may also operate in parallel.
  • the diagnosis unit 200 may include a first data processing module that performs a first processing on an input diagnosis target image and a second processing module that performs second data processing on a diagnosis target image.
  • the first diagnostic module may acquire first diagnostic assistance information based on the first processed diagnosis target image
  • the second diagnostic module may acquire second diagnostic assistance information based on the second processed diagnosis target image.
  • the first and / or second processing may be any one selected from image resizing, color modulation of the image, blur filter application, blood vessel highlighting, red-free transformation, partial region cropping, and some element extraction.
  • the plurality of diagnostic modules may acquire different diagnostic assistance information.
  • the plurality of diagnostic modules may obtain diagnostic assistance information using different diagnostic assistance neural network models.
  • the first diagnostic module acquires first diagnostic assistance information related to the subject's eye disease using a first neural network model that predicts whether the subject has eye disease
  • the second diagnostic module detects the eye disease.
  • second neural network model that predicts whether a subject is a systemic disease
  • second diagnostic assistance information related to a subject's systemic disease may be obtained.
  • the first diagnostic module acquires first diagnostic assistance information on whether the subject is diabetic retinopathy by using a first diagnostic assistive neural network model that predicts whether the subject is diabetic retinopathy based on the fundus image.
  • the second diagnostic module may acquire second diagnostic assistance information related to hypertension of the subject using a second diagnostic assistive neural network model predicting whether the subject is hypertension based on the fundus image.
  • the diagnostic assistance process may include a plurality of subdiagnostic processes. Each sub-diagnostic process may be performed using a different diagnostic assistance neural network model. Each sub-diagnostic process may be performed in a different diagnostic module. For example, the first diagnostic module may perform a first sub-diagnosis process of acquiring first diagnostic assistance information through the first diagnostic assistance neural network model. Alternatively, the second diagnostic module may perform a second sub-diagnosis process of obtaining second diagnostic assistance information through the second diagnostic assistance neural network model.
  • the trained plurality of neural network models may input diagnostic target data and output predicted labels or probabilities.
  • Each neural network model is provided in the form of a classifier, and the input diagnosis target data may be classified with respect to a predetermined label.
  • the plurality of neural network models may be provided in the form of a classifier learned about different characteristics.
  • Each neural network model can classify the data to be diagnosed as described in 3.4.2.
  • a CAM can be obtained, and the CAM can be obtained selectively.
  • the CAM can be extracted if a predetermined condition is satisfied. For example, when the first diagnostic assistance information indicates that the subject is abnormal for the first characteristic, the first CAM may be obtained from the first diagnostic assistance neural network model.
  • FIG. 27 is a diagram for describing a diagnostic assistance process according to one embodiment of the present invention.
  • the diagnostic assistance process acquires data to be diagnosed (S2011), and diagnoses using the first diagnostic assistance neural network model and the second diagnostic assistance neural network model (S2031a and S2031b). It may include acquiring (S2051) diagnostic assistance information according to the target data.
  • the data to be diagnosed may be processed data.
  • the diagnostic assistance process may include obtaining first diagnostic assistance information through a trained first diagnostic assistance neural network model, and obtaining second diagnostic assistance information through a trained second diagnostic assistance neural network model. It may include.
  • the first diagnostic assistance neural network model and the second diagnostic assistance neural network model may obtain first diagnostic assistance information and second diagnostic assistance information based on the same diagnosis target data.
  • the first diagnosis aid neural network model and the second diagnosis aid neural network model are based on the diagnosis target fundus image, the first diagnosis aid information on whether the subject is macular degeneration and the second diagnosis on whether the subject is diabetic retinopathy 2 diagnostic assistance information can be obtained respectively.
  • the diagnostic assistance process described with reference to FIG. 27 may be implemented similarly to the diagnostic assistance process described above with reference to FIG. 20.
  • diagnostic assistance information obtained by a parallel diagnostic assistance process may be obtained.
  • the obtained diagnostic assistance information may be stored in the diagnostic apparatus, the server apparatus, and / or the client apparatus.
  • the obtained diagnostic assistance information may be delivered to an external device.
  • the plurality of diagnostic assistance information may indicate a plurality of labels predicted by the plurality of diagnostic assistance neural network models, respectively.
  • the plurality of diagnostic assistance information may correspond to a plurality of labels predicted by the plurality of diagnostic assistance neural network models, respectively.
  • the diagnostic assistance information may be information determined based on a plurality of labels predicted by the plurality of diagnostic assistance neural network models.
  • the diagnostic assistance information may correspond to a plurality of labels predicted by the plurality of diagnostic assistance neural network models.
  • the first diagnostic assistance information may be diagnostic assistance information corresponding to the first label predicted through the first diagnostic assistance neural network model.
  • the first diagnostic assistance information may be diagnostic assistance information determined by considering the first label predicted through the first diagnostic assistance neural network model and the second label predicted through the second diagnostic assistance neural network model.
  • an image of the CAM obtained from the plurality of diagnostic assistance neural network models may be output.
  • the CAM image may be output when a predetermined condition is satisfied. For example, when the first diagnostic assistance information indicates that the subject is abnormal for the first characteristic or when the second diagnostic assistance information indicates that the subject is abnormal for the second characteristic, The CAM image obtained from the diagnostic assistance neural network model outputting the diagnostic assistance information indicated as abnormal may be output.
  • the plurality of diagnostic assistance information and / or CAM images may be provided to the user.
  • the plurality of diagnostic assistance information and the like may be provided to the user through output means of the diagnostic apparatus or the client apparatus. Diagnostic assistance information may be visually output. In this regard, it is described in more detail in 5.
  • User interface may be provided to the user through output means of the diagnostic apparatus or the client apparatus. Diagnostic assistance information may be visually output. In this regard, it is described in more detail in 5.
  • the diagnostic assistance information corresponding to the diagnosis target image may include grade information.
  • the grade information may be selected from among a plurality of grades.
  • the grade information may be determined based on the plurality of diagnostic information and / or finding information obtained through the neural network model.
  • the grade information may be determined in consideration of suitability information or quality information of the diagnosis target image.
  • the grade information may be determined in consideration of a class in which a diagnosis target image is classified by a plurality of neural network models.
  • the grade information may be determined in consideration of numerical values output from the plurality of neural network models.
  • the diagnostic assistance information acquired in response to the diagnosis target image may include any one grade information selected from the first grade information or the second grade information.
  • the grade information may be selected as first grade information when at least one abnormality finding information or abnormal diagnosis information is obtained among the diagnostic information obtained through the neural network model.
  • the grade information may be selected as the second grade information when abnormal finding information or abnormal diagnosis information is not obtained from the diagnosis information acquired through the neural network model.
  • the grade information is selected as the first grade information when at least one of the values acquired through the neural network model exceeds the reference value, and the grade information is selected as the second grade information when all of the acquired values fall below the reference value.
  • the first grade information may indicate that strong abnormality information exists in the diagnosis target image, compared to the second grade information.
  • the grade information may be selected as the third grade information when it is determined that the quality of the diagnosis target image is equal to or lower than a reference value by using an image analysis or a neural network model.
  • the diagnostic assistant information may include third grade information together with the first or second grade information.
  • the first user guide may be output through the output means.
  • the first user guide may include at least one abnormality finding information included in the diagnosis assistance information or a matter corresponding to the abnormal diagnosis information.
  • the first user guide may indicate that a more precise examination is required for a subject (ie, a patient) corresponding to abnormal information included in the diagnosis assistance information.
  • the first user guidance may indicate that a secondary diagnosis (eg, a separate medical institution or a power supply procedure) for the subject is required.
  • the first user guide may instruct treatment required for the subject.
  • the first user guide may provide instructions on injection prescription and power supply procedure for the subject (eg, List).
  • the second user guide may be output through the output means.
  • the second user guide may include a later management method for the subject corresponding to the diagnosis assistance information.
  • the second user guide may indicate a next medical treatment time, a next medical treatment subject, or the like.
  • the third user guide may be output through the output means.
  • the third user guide may indicate that re-photographing is required for the diagnosis target image.
  • the third user guide may include information about the quality of the diagnosis target image.
  • the third user guide may include information of defects (eg, whether bright artifacts or dark artifacts or the like) present in the diagnosis target image.
  • the first to third grade information may be output by an output unit of the client device or the diagnostic device. Specifically, it may be output through a user interface described later.
  • the diagnostic assistance system may include a fundus image obtaining unit, a first processing unit, a second processing unit, a third processing unit, and a diagnostic information output unit.
  • the diagnostic assistance system may include a diagnostic device.
  • the diagnostic apparatus may include a fundus image acquirer, a first processor, a second processor, a third processor, and / or a diagnostic information output unit.
  • each unit included in the diagnosis assistance system may be located at appropriate locations on the learning device, the diagnosis device, the learning diagnosis server, and / or the client device.
  • a diagnosis apparatus of the diagnosis assistance system will be described based on a case where the fundus image obtaining unit, the first processing unit, the second processing unit, the third processing unit, and the diagnostic information output unit are included.
  • the diagnostic assistance system may include a diagnostic apparatus, and the diagnostic apparatus may include a fundus image obtaining unit, a first processing unit, a second processing unit, a third processing unit, and a diagnostic information output unit.
  • a diagnosis assisting system for assisting diagnosis of a plurality of diseases based on the fundus image may include a fundus image obtaining unit configured to acquire an object fundus image, which is a basis for obtaining diagnosis assistance information about a subject. And obtaining a first result associated with a first finding on the subject using a first neural network model for the subject fundus image, wherein the first neural network model is machine learned based on the first set of fundus images.
  • the subject using a first processing unit, a second neural network model with respect to the target fundus image, wherein the second neural network model is machine learned based on a second set of fundus images different from at least a portion of the first fundus image set;
  • a second processing unit for obtaining a second result related to a second finding about, based on the first result and the second result, for the subject
  • the processing unit may comprise 3, and the user parts of the diagnostic information output for providing the determined diagnostic information for determining the diagnostic information.
  • the first finding and the second finding may be used for diagnosis of different diseases.
  • the first neural network model is trained to classify the input fundus image into any one of a normal label and an abnormal label in relation to the first finding, and the first processing unit uses the first neural network model to classify the target fundus image into the normal label.
  • the first result may be obtained by classifying into one of the abnormal labels.
  • the third processor may determine whether the diagnostic information based on the target fundus image is normal information or abnormal information by considering the first result and the second result together.
  • the third processing unit may determine the diagnostic information on the subject by giving priority to the abnormal label so that diagnostic accuracy is improved.
  • the third processing unit determines that the diagnostic information is normal when the first label is a normal label for the first finding, and the second label is a normal label for the second finding, and the first label is the first label. If the label is not a normal label for the finding or the second label is not a label for the second finding, the diagnostic information may be abnormally determined.
  • the first finding is associated with an ocular disease, and the first result may indicate whether the subject is normal for the ocular disease.
  • the second finding is associated with systemic disease, and the second result may indicate whether the subject is normal for the systemic disease.
  • a first eye is associated with a first eye disease
  • the first result indicates whether the subject is normal for the first eye disease
  • the second eye is a second eye that is distinct from the first eye disease
  • the second result may indicate whether the subject is normal for the second eye disease.
  • the first finding is a finding for diagnosing a first eye disease
  • the first result indicates whether the subject is normal to the first eye disease
  • the second finding is for diagnosing the first eye disease.
  • the findings are distinguished from the first findings, and the second result may indicate whether the subject is normal to the second eye disease.
  • the first neural network model includes a first sub neural network model and a second sub neural network model, and the first result is a first prediction value predicted by the first sub neural network model and a second predicted by the second sub neural network model. It may be determined by considering the prediction value together.
  • the first processor may acquire a Class Activation Map (CAM) associated with the first label through the first neural network model, and the diagnostic information output unit may output an image of the CAM.
  • CAM Class Activation Map
  • the diagnostic information output unit may output an image of the CAM when the diagnostic information acquired by the third processing unit is abnormal diagnostic information.
  • the diagnosis assistance system may further include a fourth processor configured to acquire quality information of the target fundus image, and the diagnostic information output unit may output quality information of the target fundus image obtained by the fourth processor.
  • the diagnostic information output unit is further configured to provide the user with the determined diagnostic information. Information indicating that the following can be provided together.
  • the aforementioned client device or diagnostic device may have a display unit for providing the diagnostic assistance information to the user.
  • the display unit may be provided to clearly transmit the diagnostic assistance information to the user, and to easily obtain feedback from the user.
  • a display for providing visual information to a user may be provided.
  • a graphic user interface for visually delivering the diagnostic assistance information to the user may be used.
  • a graphic user interface for effectively displaying the acquired diagnosis assistance information and helping the user to understand may be provided.
  • 29 and 30 are diagrams for describing a graphical user interface for providing diagnostic information to a user, according to some embodiments of the present disclosure.
  • FIGS. 29 and 30 some embodiments of the user interface that can be used in the fundus diagnosis assistance system will be described.
  • a user interface may display identification information of a subject corresponding to a diagnosis fundus image.
  • the user interface may include a target image identification information display unit 401 that displays identification information of a subject (ie, a patient) and / or photographing information (eg, a photographing date) of a diagnosis target fundus image.
  • the user interface may include a fundus image display unit 405 for displaying a fundus image of a left eye and a right eye of a same subject, respectively.
  • the fundus image display unit 405 may display a CAM image.
  • the user interface indicates that the image of the left eye or the right eye for each of the left eye fundus image and the right eye fundus image, and a diagnostic information indicator indicating whether the diagnosis information and the user confirmation of each image are displayed.
  • the diagnostic information indicating unit 403 may be included.
  • the color of the diagnostic information indicator may be determined in consideration of diagnostic assistance information obtained based on the target fundus image.
  • the diagnostic information indicator may be displayed in a first color or a second color according to the diagnostic assistance information. For example, when the first to third diagnostic assistance information is acquired in one target fundus image, when even one diagnostic assistance information includes abnormal (that is, abnormal) information, the diagnostic information indicator is displayed in red. In the case where all the diagnostic assistance information includes normal (ie, no abnormality) information, the diagnostic information indicator may be displayed in green.
  • the type of diagnostic information indicator may be determined according to whether the user confirms it.
  • the diagnostic information indicator may be displayed in a first form or a second form depending on whether the user confirms the information. For example, referring to FIG. 25, the diagnostic information indicator corresponding to the target fundus image reviewed by the user is indicated by a filled circle, and the diagnostic information indicator corresponding to the target fundus image unreviewed by the user is filled with a semicircle. Can be displayed.
  • the user interface may include a diagnostic information indicating unit 407 for indicating the diagnostic assistance information.
  • the diagnostic assistance information indicator may be located in the left eye and right eye images, respectively.
  • the diagnostic assistance information indicating unit may indicate a plurality of findings or diagnostic information.
  • the diagnostic assistance information indicator may include at least one diagnostic assistance information indicator.
  • the diagnostic assistance information indicator may indicate corresponding diagnostic assistance information through color change.
  • a second diagnosis aid indicating diagnosis of diabetic retinopathy through the first diagnosis aid information indicating the presence of lens turbidity through the first diagnosis aid neural network model and the second diagnosis aid neural network model with respect to the diagnosis fundus image.
  • Information and third diagnostic assistance information indicating whether there is a retinal abnormality finding through the third diagnostic assistance neural network model, the diagnostic information indicating unit may include the first diagnostic assistance information, the second diagnostic assistance, and the third diagnostic assistance information, respectively. It may include a first to third diagnostic assistant information indicator indicating.
  • the diagnostic information indicating unit 407 may include first diagnostic assistance information indicating that the diagnosis aid information acquired based on the left eye fundus image of the subject is abnormal lens turbidity. , The first diagnostic assistant information having the first color when the second diagnostic assistant information indicating diabetic retinopathy normal (no abnormal findings) and the third diagnostic assistant information indicating the retinal abnormality (with abnormal findings) are obtained.
  • the indicator, the first diagnostic assistant information indicator having a second color, and the third diagnostic assistant information indicator having a first color may be displayed.
  • the user interface may obtain a user comment on the diagnosis target fundus image from the user.
  • the user interface may include a user comment object 409 and display a user input window in response to a user selection for the user comment object.
  • the comments obtained from the user may be used to update the diagnostic assistance neural network model.
  • the user input window displayed in response to the selection of the user comment object may obtain a user evaluation of the diagnostic assistance information through the neural network, and the obtained user evaluation may be used to update the neural network model.
  • the user interface may include a review instruction object 411 indicating whether the user reviews the respective fundus image.
  • the review instruction object may receive a user input indicating that the user review of each diagnosis target image is completed, and the display may be changed from the first state to the second state. For example, referring to FIGS. 29 and 30, the review instruction object may be changed to a second state indicating that the user input is confirmed in the first state displaying the confirmation request text.
  • the list 413 of the diagnosis target fundus images may be displayed.
  • identification information of the subject, an image photographing date, and an indicator of whether to review the binocular image may be displayed together.
  • a review completion indicator 415 indicating the reviewed diagnosis fundus image may be displayed.
  • the review completion indicator 415 may be displayed when user selection has occurred for all of the review indicating object 411 for both eyes of the corresponding image.
  • the user graphic interface may include a low quality warning object 417 which indicates to the user that there is an abnormality in the quality of the target fundus image. have.
  • the low quality warning object 417 is displayed when the diagnosis fundus image is judged by the diagnosis unit to be less than the quality (that is, the reference quality level) of the level at which the appropriate diagnosis aid information can be predicted from the diagnosis aid neural network model. Can be.
  • the low quality warning object 419 may be displayed in the list 413 of the diagnosis fundus images.
  • the judgment standard of a person is subjective, and may vary according to the person who performs the judgment, and even a judgment by the same person may be difficult to expect a consistent judgment standard for all images.
  • the fundus image may refer to an image of the inside of the eye that is viewed through the pupil.
  • the fundus image may mean an image in which at least some of the retina, retinal blood vessel, optic nerve papilla, and choroid are photographed.
  • the fundus image may be a panoramic image.
  • the fundus image may be a red-free image.
  • the fundus image may be an infrared photographed image.
  • the fundus image may be an autofluorescence image.
  • the image data may be obtained in any one of JPG, PNG, DCM (DICOM), BMP, GIF, and TIFF.
  • FIG. 31 is a diagram illustrating region division of the fundus image FI according to an embodiment of the present invention.
  • the fundus image FI may include a plurality of regions associated with an imaging frame or an imaging condition of the fundus image.
  • the fundus image FI may include a fundus region FA in which the fundus is imaged and a non-fungus region NFA in which the fundus is not included. In some cases, the fundus image FI may not include the non- fundus region NFA.
  • the fundus image FI may include a fundus region and a non-fungus region NFA separated by the structure of the imaging device or the camera control application.
  • FIG. 32 is a diagram illustrating region division of a fundus image according to another embodiment of the present invention.
  • the fundus region FA of the fundus image FI may include an inner region IA and an outer region OA.
  • the inner region IA and the outer region OA may be divided based on the boundary BO.
  • the boundary BO may be concentric with the periphery of the fundus region.
  • the boundary BO can be determined circularly.
  • the boundary BO may be determined as a circle having the center of the fundus region as its center and having a predetermined radius R.
  • the outer area OA may be determined as an area spaced apart from the center of the fundus area by a predetermined distance R or more.
  • the inner region IA may be determined as a region where the distance from the center of the fundus region is R or less.
  • the boundary BO may be determined such that the ratio of the width of the inner area IA to the width of the outer area OA has a predetermined value.
  • the boundary BO may be determined such that the ratio of the width of the inner region IA to the width of the fundus region has a predetermined value.
  • the boundary BO may be determined such that the width of the inner region IA defined by the boundary BO corresponds to 80% of the fundus region.
  • FIG. 33 is a diagram illustrating region division of a fundus image according to another embodiment of the present invention.
  • the fundus image may include a plurality of regions determined in consideration of positions of anatomical elements included in the fundus image.
  • the fundus area FA may include the macular part MA, the optic nerve head part ODA, and the periphery part.
  • the fundus image may be divided to include the macula, optic nerve head and periphery based on the location of the macula and / or optic nerve head detected from the fundus image.
  • the macular portion MA may be determined to include a region in which the macular of the fundus region is distributed.
  • the optic nerve head (ODA) may be determined to include a region in which the optic nerve papilla of the fundus region is distributed.
  • the periphery may be determined as an area excluding the macular part MA and the optic nerve head part ODA from the fundus area.
  • the boundaries of the macular (MA), optic nerve papilla (ODA), and periphery may be determined based on the location of the macular and / or optic nerve papilla.
  • the boundary of the macular portion MA may be determined to surround the area where the macular is distributed.
  • the boundary of the optic nerve head (ODA) may be determined to surround an area where the optic nerve head is distributed.
  • the periphery may be divided into a plurality of detailed areas.
  • an upper part SNA, a lower part INA, an upper part STA, a lower part ITA, and a side TA may be included.
  • the upper part SNA, the lower part INA, the upper part STA, the lower part ITA and the side part TA may be distinguished based on the positions of the macula and / or optic nerve papilla.
  • the boundaries of the upper part SNA, the lower part INA, the upper part STA, the lower part ITA and the side part TA may be distinguished based on the positions of the macular and / or optic nerve papilla.
  • the upper abdomen is considered in consideration of a first straight line connecting the position of the macula (eg, the approximate center point) and the position of the optic nerve head (eg, the approximate center point) and a second straight line perpendicular to the first line and passing through the position of the optic nerve head.
  • SNA standard INA
  • upper part STA, lower part ITA and side TA may be determined.
  • the side portion TA may be determined in consideration of the third straight line and the fourth straight line parallel to the first straight line and in contact with the macular portion MA.
  • each area is divided by a boundary indicated by a dotted line, but according to an embodiment, each area may be defined to partially overlap.
  • the areas and / or boundaries described above with respect to FIGS. 31-33 may be used consistently for different images. Alternatively, the regions and / or boundaries described above may be appropriately determined and used for each image. The above-described areas and / or boundaries may be determined and used by user input.
  • the division of the fundus image described with reference to FIGS. 31 to 33 is merely an example, and a boundary or a detail region of the fundus image for separating the fundus image may be implemented in various forms. For example, the detail area of the fundus image may be divided by the user as needed.
  • the fundus image can be used to diagnose ocular disease.
  • the fundus image can be used to diagnose ocular diseases such as glaucoma, cataracts, macular degeneration and prematurity retinopathy.
  • Fundus images include hemorrhages, exudate, cotton patches, drusen & drusenoid deposits, turbidity, degeneration, proliferative tissue, vascular abnormalities, retinal pigmentary changes, macular abnormalities, macular perforation (macular hole), choroidal atrophy (chroioretinal atrophy) can be used for the diagnosis of lesions.
  • the fundus image can be used to diagnose other diseases (eg, systemic or chronic diseases) that are not eye diseases.
  • fundus images can be used to diagnose diseases such as diabetes (or diabetic retinopathy), Alzheimer's, cytomegalovirus, stroke, and the like.
  • the fundus image can be used to diagnose cardiovascular disease (heart disease, coronary artery disease, etc.).
  • the fundus image may be used for diagnosis of hypertension, hypotension, atherosclerosis, angina pectoris, heart failure, and the like.
  • findings for diagnosing ocular disease or other disease can be identified. For example, from an ocular fundus image, color abnormalities across the fundus, opacity of the lens, abnormality of the C / D ratio (cup to disc ratio), macular abnormality (eg, macular hole), blood vessels Abnormalities such as diameter, running, abnormalities of retinal arteries, retinal hemorrhage, exudate, drusen, and the like can be identified.
  • an image management system and / or apparatus for determining the quality of a fundus image and managing the fundus image may be provided.
  • the image management system and / or the device may perform the image quality determining method described herein.
  • the method of determining the quality of the fundus image disclosed herein may be performed by the above-described diagnostic assistance system or a device configuring the diagnostic assistance system.
  • the image management system and / or apparatus, the image quality management system and / or apparatus, etc., disclosed herein may be implemented similarly to the diagnostic assistance system and / or apparatus described above with respect to FIGS.
  • the diagnostic assistance system described above with reference to FIGS. 1 to 9 may be implemented as an image management system that manages the quality of the fundus image.
  • the image management system may include a learning device, a diagnostic device, and a client device, which may operate similar to the diagnostic assistance system of FIG. 1.
  • the learning device, diagnostic device, and / or client device may perform the quality judgment of the fundus image and / or the suitability determination of the fundus image described herein.
  • the diagnostic device (or image management device) included in the image management system may operate similarly to the diagnostic device described with reference to FIG. 4 or 5.
  • the image management system may include a diagnostic device and a client device.
  • the diagnostic device may perform the functions of the learning device and / or the server device.
  • the diagnostic device and / or the client device may perform the quality determination of the fundus image and / or the suitability determination of the fundus image described herein.
  • the image management system may further include a server device.
  • the server device may operate similar to that described above with respect to FIG. 6.
  • the server device may perform the quality determination of the fundus image and / or the suitability determination of the fundus image described herein.
  • the image management system may include a mobile device.
  • the mobile device may perform all or part of the operations of the learning device, diagnostic device and / or client device described above.
  • the mobile device may communicate with a server device.
  • the mobile device may perform quality determination of the fundus image and / or suitability determination of the fundus image described herein.
  • the configuration of the image management system may be similarly constructed from the description related to the diagnostic assistance system described with reference to FIGS. 1 to 9. It can be obvious.
  • the diagnostic assistance systems 10 and 20 and the devices included in the system described above with reference to FIGS. 1 to 9 may perform the quality determination of the fundus image.
  • the learning apparatus 1000 may include a quality determiner that determines the quality of the fundus image.
  • the learning apparatus 1000 may include a suitability determination unit that determines suitability of the fundus image.
  • the learning apparatus 1000 may determine the quality of the fundus data for learning by using the quality determining unit, and may learn the neural network model using the selected image as a result of the quality determining.
  • the learning apparatus 1000 may determine suitability for the target disease of the fundus image by using the suitability determination unit, and may learn a neural network model by using the selected image as a result of the suitability determination.
  • the quality determining unit or suitability determining unit of the learning apparatus 1000 may be included in the control unit 1200 of the learning apparatus 1000.
  • the controller 1200 of the learning apparatus 1000 may perform an operation of the quality determining unit or the suitability determining unit of the learning apparatus 1000.
  • the quality determining unit or suitability determining unit of the learning apparatus 1000 may be included in the processor 1050 of the learning apparatus 1000.
  • the processor 1050 of the learning apparatus 1000 may perform an operation of the quality determining unit or the suitability determining unit of the learning apparatus 1000.
  • the diagnostic apparatus 2000 may include a quality determination unit that determines the quality of the fundus image.
  • the diagnosis apparatus 2000 may include a suitability determination unit that determines suitability of the fundus image.
  • the diagnosis apparatus 2000 may acquire the fundus image of the subject and determine the quality of the acquired fundus image by using the quality determining unit.
  • the diagnostic apparatus 2000 may acquire a fundus image of a subject and determine the quality of the acquired fundus image by using a suitability determination unit.
  • the diagnosis apparatus 2000 may determine the quality of the fundus image by using the quality determination unit, and obtain diagnostic assistance information from the neural network model using the selected image.
  • the diagnosis apparatus 2000 may determine suitability of the fundus image by using the suitability determination unit, and may obtain diagnostic assistance information from the neural network model using the selected image.
  • the quality determining unit or suitability determining unit of the diagnostic apparatus 2000 may be included in the control unit 2200 of the diagnostic apparatus 2000.
  • the controller 2200 of the diagnostic apparatus 2000 may perform an operation of the quality determination unit or the suitability determination unit of the diagnostic apparatus 2000.
  • the quality determining unit or suitability determining unit of the diagnostic apparatus 2000 may be included in the processor 2050 of the diagnostic apparatus 2000.
  • the processor 2050 of the diagnostic apparatus 2000 may perform an operation of the quality determining unit or the conformity determining unit of the diagnostic apparatus 2000.
  • the client device 3000 may include a quality determiner that determines the quality of the fundus image or a suitability determiner that determines the suitability of the fundus image.
  • the client device 3000 may acquire the fundus image of the subject and determine the quality of the acquired fundus image by using the quality determination unit.
  • the client device 3000 may acquire the fundus image of the subject and determine the quality of the acquired fundus image by using the suitability determination unit.
  • the client device 3000 may determine the quality of the fundus image and transmit the selected image to an external device (eg, a diagnostic device or a server device) based on a quality determination result obtained using the quality determination unit.
  • an external device eg, a diagnostic device or a server device
  • the quality determining unit or suitability determining unit of the client device 3000 may be included in the controller 3300 or the processor of the client device 3000.
  • the controller 3200 or the processor of the client device 3000 may perform an operation of the quality determination unit or the suitability determination unit of the client device 3000.
  • the server device 4000 may include a quality determination unit determining the quality of the fundus image or a suitability determination unit determining the suitability of the fundus image.
  • the server device 4000 may determine the quality of the image acquired from the learning apparatus or the client apparatus using the quality determination unit.
  • the server device 4000 may determine the quality of an image acquired from an external device (eg, a client device) using the quality determination unit, and perform diagnosis on the selected image as a result of the quality determination.
  • the quality determining unit of the server device 4000 may determine the quality of the fundus image included in the fundus image data set, and transmit the selected image to an external device (eg, a client device or a diagnostic device) as a result of the quality determination.
  • the server device 4000 may determine a quality of an image obtained from an external device (eg, a client device) using the suitability determination unit, perform a diagnosis on the selected image as a result of the suitability determination, or perform a diagnosis on the selected image, or select an external device (eg, a client). Device or diagnostic device).
  • an external device eg, a client device
  • the quality determination unit or suitability determination unit of the server device 4000 may be included in a control unit or a processor of the server device.
  • the controller or processor of the server device may perform an operation of the quality determination unit or the suitability determination unit of the server device 4000.
  • the mobile device may include a quality determining unit determining the quality of the fundus image or a suitability determining unit determining the suitability of the fundus image.
  • the mobile device may include an imaging unit, and determine the quality of an image acquired through the imaging unit.
  • the quality determining unit of the mobile device may determine the quality of the captured image and perform diagnosis on the selected image as a result of the quality determination.
  • the quality determining unit or suitability determining unit of the mobile device may be included in the controller or processor of the mobile device.
  • the controller or processor of the mobile device may perform an operation of the quality determination unit or the suitability determination unit of the mobile device.
  • 34 and 35 are diagrams for describing an apparatus for performing quality judgment of a fundus image or suitability determination of a fundus image disclosed herein. 34 and 35 may be implemented in the form of the device described above with reference to FIGS.
  • the fundus image management apparatus 5000 may include a fundus image acquirer 5010 and a quality determiner 5030.
  • the fundus image acquirer 5010 and / or the quality determiner 5030 may be provided in a controller or a processor of the apparatus.
  • the fundus image acquirer 5010 may capture or acquire a fundus image.
  • the fundus image acquirer 5010 may acquire a fundus image through a camera or may acquire a fundus image from an external device.
  • the fundus image may be normalized to facilitate quality determination of the format, size, and the like of the acquired fundus image.
  • the quality determining unit 5030 may determine the quality of the fundus image.
  • the quality determining unit 5030 may perform the quality determination of the fundus image described herein.
  • the quality determination unit 5030 may perform quality determination in consideration of the area.
  • the quality determination unit 5030 may perform quality determination in consideration of artifacts.
  • the quality determination unit 5030 may perform quality determination in consideration of the pixel value.
  • the fundus image management apparatus 5000 may further include a quality information manager 5050.
  • the quality information manager 5050 may be provided in a controller, a processor, or a memory of the apparatus.
  • the quality information manager 5050 may manage quality information of the fundus image.
  • the quality information manager 5050 may assign the quality information obtained as a result of the quality determination of the fundus image to the fundus image.
  • the quality information manager 5050 may manage the fundus image data set based on the quality information matched to the fundus image. For example, the quality information manager 5050 may classify and store the fundus image data based on the quality information.
  • a fundus image management apparatus for detecting an artifact related to the quality of the fundus image from the fundus image photographing the fundus and managing the quality of the fundus image may include a fundus image acquisition unit for acquiring the fundus image;
  • the apparatus may include a quality determiner configured to detect a first pixel from a target region of the fundus image and determine the quality of the fundus image in consideration of the number of the first pixels.
  • the artifact may be either a bright artifact due to excessive reflection of light occurring in the fundus region of the fundus image or a dark artifact due to a shadow occurring in the fundus region of the fundus image.
  • the quality determiner may include: a first pixel detector configured to detect a first pixel related to the quality of the fundus image by comparing pixel values of at least one pixel included in a target area of the fundus image with a reference pixel value; A quality of acquiring quality information of the fundus image based on a comparison result obtained by comparing the ratio of the first pixel to the reference ratio and the comparison ratio obtained by comparing the ratio of the first pixel to the reference ratio among the total pixels of the fundus image. It may include an information acquisition unit.
  • the target area may include a first area spaced at least a first distance from the center of the area corresponding to the fundus of the fundus image, a second area within a first distance from the center of the area corresponding to the fundus, and an optic nerve papilla among the areas corresponding to the fundus. It may include at least one selected from the third region corresponding to the region in which is distributed and the fourth region corresponding to the region in which the macular is distributed among the regions corresponding to the fundus.
  • the target region is determined to be a first region spaced at least a first distance from the center of the region corresponding to the fundus of the fundus image, and if the artifact is a second artifact, the target region is the fundus of the fundus image May be determined as a second region in which is distributed.
  • the first distance may be determined such that an area within a first distance from the center of the area corresponding to the fundus is equal to or greater than a first ratio with respect to the entire fundus image area.
  • the reference pixel value is a first pixel value
  • the step of detecting the first pixel by comparison with the reference pixel value includes a first pixel included in the target area and having a pixel value that is greater than the reference pixel value.
  • the reference ratio is a first reference ratio
  • comparing with the reference ratio further includes determining whether a ratio of the first pixel of all pixels of the fundus image is greater than the first reference ratio, and the comparison result
  • the acquiring of the quality information may further include determining that the fundus image is a bad image when the ratio of the first pixel to the entire pixel of the fundus image is greater than the first reference ratio.
  • the reference pixel value is a second pixel value
  • the step of detecting the first pixel by comparison with the reference pixel value includes a first pixel that is included in the target area and has a pixel value that is less than the reference pixel value.
  • the reference ratio is a second reference ratio
  • comparing with the reference ratio further includes determining whether a ratio of the first pixel of all pixels of the fundus image is less than the second reference ratio, and comparing
  • the acquiring of the quality information based on the result may further include determining that the fundus image is a bad image when the ratio of the first pixel of the total pixels of the fundus image is smaller than the second reference ratio.
  • the fundus image management apparatus may further include a quality information management unit that adds a quality information label to the fundus image based on the quality information and manages the fundus image according to the quality information label.
  • a fundus image management apparatus for detecting an artifact related to the quality of the fundus image from the fundus image photographing the fundus and determining the quality of the fundus image, the fundus image acquisition unit acquiring the fundus image And a quality determination unit that detects at least one artifact pixel from a target region of the fundus image and determines the quality of the fundus image in consideration of the artifact pixel.
  • the quality determiner may include a target region determiner that determines at least a portion of the fundus image as a target region for detecting artifacts, and an artifact pixel detector that detects at least one artifact pixel corresponding to the artifact from the target region.
  • the quality determining unit determines the target region as the first region that is spaced a predetermined distance away from the center of the fundus image corresponding to the fundus, and when the artifact is the second artifact, the target region is included in the fundus image. It may be determined as the fundus area, which is the area where the fundus is distributed.
  • the first artifact may be a bright artifact due to excessive reflection of light generated in the fundus region of the fundus image
  • the second artifact may be a dark artifact due to shadow occurring in the fundus region of the fundus image.
  • the fundus image management apparatus may further include a converting unit configured to obtain a transformed fundus image by grayscale converting the fundus image.
  • the quality determining unit may determine the quality of the fundus image based on the converted fundus image.
  • the artifact pixel detector includes a comparison unit that compares pixel values of a plurality of pixels included in the target region with a reference pixel value range, and at least one pixel having a pixel value included in the target region and included in the target pixel value range.
  • the determination unit may further include determining.
  • the comparison unit compares pixel values of the plurality of pixels included in the target area with the first reference pixel value when the artifact is the first artifact, and pixels of the plurality of pixels included in the target area when the artifact is the second artifact.
  • the value may be compared with the second reference pixel value.
  • the determiner determines at least one pixel included in the target area and having a pixel value greater than the first reference pixel value as the first artifact pixel, and when the artifact is the second artifact, At least one pixel included in the area and having a pixel value smaller than the second reference pixel value may be determined as the second artifact pixel.
  • the quality determining unit may determine the quality of the fundus image in consideration of whether the amount of the detected artifact exceeds the reference amount.
  • the quality determining unit determines whether the number of detected artifact pixels exceeds a reference ratio with respect to the total number of pixels of the fundus image, and when the number of artifact pixels exceeds the reference ratio with respect to the total number of pixels of the fundus image, the fundus image is an artifact. It may be determined to include.
  • the fundus image management apparatus may further include a quality information manager configured to add a quality information label generated based on the quality information to the fundus image and manage the fundus image according to the quality information label.
  • a quality information manager configured to add a quality information label generated based on the quality information to the fundus image and manage the fundus image according to the quality information label.
  • the fundus image management apparatus 6000 may include a fundus image acquirer 6010 and a suitability determiner 6030.
  • the fundus image acquirer 6010 and / or the suitability determiner 6030 may be provided in a controller or a processor of the apparatus.
  • the fundus image acquirer 6010 may acquire a fundus image through a camera or may acquire a fundus image from an external device.
  • the fundus image may be normalized to facilitate quality determination of the format, size, and the like of the acquired fundus image.
  • the suitability determination unit 6030 may determine suitability for the target disease of the fundus image.
  • the suitability determination unit 6030 may perform suitability determination on the image described herein.
  • the suitability determination unit 6030 may determine the suitability of the fundus image in consideration of the target region of the fundus image.
  • the suitability determination unit may determine suitability of the fundus image in consideration of the presence or absence of a target artifact.
  • the suitability determination unit may determine suitability of the fundus image in consideration of a pixel value, a distribution, and the like.
  • the fundus image management apparatus 6000 may further include a suitability information manager 6050.
  • the suitability information manager 6050 may be provided in a controller, a processor, or a memory of the apparatus.
  • the suitability information manager 6050 may manage suitability information of the fundus image.
  • the suitability information manager 6050 may assign suitability information obtained as a result of the suitability determination of the fundus image to the fundus image.
  • the suitability information manager 6050 may manage the fundus image data set based on the suitability information matched to the fundus image. For example, the suitability information manager 6050 may classify and store the fundus image based on the suitability information.
  • the suitability information manager 6050 may store and manage the fundus images having the same target suitability information together.
  • the fundus image management apparatus for determining the suitability of the fundus image, the target disease for the fundus image acquisition unit and the fundus image to acquire the fundus image It may include a suitability determination unit for determining the target suitability of the fundus image by using a quality standard corresponding to.
  • the subject disease may include at least one of a first disease and a second disease.
  • the suitability determination unit may determine whether the fundus image satisfies the first quality criterion when the target disease is the first disease, and determine whether the fundus image satisfies the second quality standard when the target disease is the second disease.
  • the quality criterion may include a quality criterion for the target area.
  • the suitability determination unit determines the target suitability of the fundus image to determine whether the first region of the fundus image satisfies the first quality criterion when the target disease is the first disease, and when the target disease is the second disease, The method may further include determining whether the region satisfies the second quality criterion.
  • Quality criteria may include quality criteria for the presence or absence of artifacts.
  • the suitability determination unit when the target disease is the first disease, determining the first quality criterion includes determining whether the image includes a first artifact corresponding to the first disease, and when the target disease is the second disease, Determining the second quality criterion can further include determining whether the fundus image includes a second artifact corresponding to the second disease.
  • the first artifact corresponding to the first disease may be detected from a first region associated with the first disease
  • the second artifact corresponding to the second disease may be detected from a second region associated with the second disease.
  • the first artifact having a corresponding relationship with the first disease may correspond to the first region having a corresponding relationship with the first disease.
  • the matching relationship between the disease and the region, the disease and the artifact, the artifact and the region may be previously stored and used in the suitability determination apparatus or the quality determination apparatus.
  • the above-described matching relationship may be specified by the user.
  • the above-described matching relationship may be learned and generated according to the neural network model.
  • the ocular fundus image management apparatus may further include a diagnostic information acquisition unit configured to acquire diagnostic information regarding a target disease based on the ocular fundus image.
  • the diagnosis information acquiring unit acquires first diagnostic assistance information for the first disease when the fundus image satisfies the first quality criterion when the target disease is the first disease, and when the target disease is the second disease, the fundus image is reconstructed. If the second quality criterion is satisfied, the second diagnostic assistance information for the second disease may be obtained.
  • the fundus image management apparatus may further include a suitability information acquisition unit that acquires suitability information of the fundus image based on the determination result.
  • the fitness information obtaining unit obtains fitness information indicating that the fundus image is suitable for the first disease when the target disease is the first disease and the fundus image satisfies the first quality criterion, and the target disease is the second disease.
  • suitability information indicating that the ocular fundus image is appropriate for the second disease may be obtained.
  • the subject disease may include a first disease and a second disease.
  • the suitability determination unit may determine whether the fundus image satisfies the first quality criterion and the second quality criterion.
  • the suitability information acquisition unit when it is determined that the fundus image satisfies the first quality criterion but does not satisfy the second quality criterion, the suitability information indicating that the fundus image is suitable for the first disease and inadequate for the second disease. Can be obtained.
  • the fundus image management apparatus for determining the suitability of the fundus image, the fundus image acquisition unit for acquiring the fundus image, the quality of the fundus image
  • the apparatus may include a suitability determination unit configured to determine a target suitability for a target disease of the fundus image based on the quality determination unit to determine whether the fundus image satisfies the quality criteria.
  • the quality determiner may determine whether the first quality criterion related to the first region is satisfied and whether the fundus image satisfies the second quality criterion related to the second region that is at least partially distinguished from the first region. have.
  • the quality determiner may determine the presence or absence of the first artifact in consideration of the first area, and determine whether or not the second artifact is in consideration of the second area.
  • the quality determining unit determines whether the fundus image includes the first artifact by determining whether the fundus image includes the first artifact, and determines whether the fundus image satisfies the second quality standard by determining whether the fundus image includes the second artifact. Can be.
  • the first area may be an area spaced a predetermined distance or more from the center of the fundus area in which the fundus of the fundus image is distributed.
  • the second area may be an area within a predetermined distance from the center of the fundus area.
  • the first region or the second region may be an outer region spaced at least a first distance from the center of the region corresponding to the fundus of the fundus image, an inner region within a first distance from the center of the region corresponding to the fundus, and the fundus. It may include at least one selected from the optic nerve papilla region corresponding to the region where the optic nerve papilla is distributed and the macular region corresponding to the region where the macula is distributed among the regions corresponding to the fundus.
  • the first area or the second area may be an area that includes at least a part of the detail area of the fundus image described with reference to FIGS. 31 to 33 or excludes at least a part thereof.
  • the suitability determination unit determines that the fundus image satisfies the first suitability when the target disease is the first disease and the fundus image satisfies the first quality criterion, and the target disease is the second disease and the fundus image uses the second quality criterion. If satisfied, it may be determined that the fundus image satisfies the second suitability.
  • the suitability determination unit may have a first suitability but no second suitability for the fundus image that satisfies the first quality criterion but does not satisfy the second quality criterion when the target disease is the first disease and the second disease. You can judge.
  • the fundus image determined to have the first suitability but not the second suitability may be suitable as a diagnosis basis of the first disease, but may be inappropriate as a disease basis of the second disease.
  • the fundus image determined to have the first suitability but not the second suitability may be interpreted as being suitable for the first disease group to which the first disease belongs, but inappropriate to the second disease group to which the second disease belongs. .
  • the ocular fundus image management apparatus may further include a diagnostic information acquisition unit configured to acquire diagnostic information regarding a target disease based on the ocular fundus image.
  • the diagnostic information acquisition unit acquires first diagnostic assistance information for the first disease when the fundus image satisfies the first quality criterion, and when the target disease is the second disease, the fundus image is acquired. If the second quality criterion is satisfied, the second diagnostic assistance information for the second disease may be obtained.
  • the subject disease may include a first disease and a second disease.
  • the diagnostic information obtaining unit acquires first diagnostic assistance information for the first disease and does not acquire the second diagnostic assistance information. You can not.
  • the diagnostic information acquisition unit may include the first diagnostic assistance information for the first disease and the second diagnostic assistance information for the second disease even when the fundus image satisfies the first quality standard and does not satisfy the second quality standard. Acquisition, but may be stored along with the second diagnostic assistance information dissatisfaction history of the second quality standard. The diagnostic assistance information stored together and the dissatisfaction details of the quality standard may be provided to the user.
  • the method for determining the quality of the image, the method for determining suitability, and the like described in the present specification may be performed by the system or apparatus described with reference to FIGS. 1 to 9.
  • the quality determination method, the suitability determination method, and the like described in this specification may be performed by the processor or the controller described with reference to FIGS. 1 to 9.
  • the quality determination method, the suitability determination method, and the like described in the present specification may be performed by at least one of the system, the device, and the processor (or the controller) described with reference to FIGS. 1 to 9.
  • defects may occur in the fundus image depending on the photographing state. For example, an object may be detected that interferes with the observation of the fundus element from the fundus image. Alternatively, the brightness of the image may be higher or lower than the appropriate range. For example, artifacts may occur in the process of capturing an image.
  • An artifact may refer to a photographed state or an image in which such a state occurs so as to obstruct identification of a subject. For example, bright artifacts can occur when light is excessively reflected from the fundus. Or dark artifacts can occur when shadows are in the fundus. Alternatively, reflection artifacts caused by reflected light may occur. In addition, various types of artifacts may occur in the fundus image that make it difficult to diagnose the diagnosis or fundus element based on the image.
  • a bright artifact (a), a dark artifact (b), or haze (c) may occur in the fundus image.
  • Each abnormality may be slightly different from the occurrence position and the sun, and considering the difference, an image quality determining method for detecting each abnormality may be implemented differently.
  • Bright artifacts can be caused by optical reflections, bright borders, and the like. Bright artifacts may occur at locations where blood vessels or optic nerve papillas are distributed. Bright artifacts may be distributed close to the outside of the fundus image.
  • Dark artifacts may appear due to shadows, etc., generated during imaging of the fundus image. Dark artifacts may be distributed close to the center of the fundus image. Dark artifacts and bright artifacts may occur together in the same image.
  • Cloudiness can occur due to incorrect focusing or contamination on the optical path during fundus image capture. Turbidity can be distributed throughout the fundus region of the fundus image. Haze can appear due to clouding of the lens or vitreous. Cloudy artifacts can themselves be used as a basis for diagnosis of a particular disease or finding.
  • the fundus image has artifacts, it may be difficult to identify elements included in the image, so it may be inappropriate to perform a fundus examination or obtain other information based on the fundus image having the artifacts.
  • the following describes a method and apparatus for detecting artifacts occurring in an image, evaluating the quality of an image with or without an artifact, or selecting a defective image.
  • the method may include obtaining a fundus image (S11), converting a fundus image (S13), and obtaining quality information of the fundus image ( S15) may be included.
  • Determination of the quality of an image may include acquiring a fundus image (S11).
  • the fundus image may be a diagnosis target image or a learning target image.
  • the fundus image may be obtained through a fundus image pickup device.
  • the fundus image may be obtained using a non-dong pupil fundus camera or the like generally used in ophthalmology.
  • the fundus image may be obtained via a portable fundus imaging device.
  • the fundus image may be obtained using a camera embedded in the mobile device.
  • a fundus video may be acquired and / or used.
  • the fundus image may be extracted from the fundus video.
  • a plurality of fundus image items to be described later will be described in more detail.
  • the fundus image may be obtained from an external server or a storage medium. Alternatively, the fundus image may be stored in advance.
  • the method for determining the quality of an image described herein may be performed by a predetermined information processing apparatus, and the at least one fundus image may be pre-stored in a memory of a predetermined information processing apparatus.
  • the fundus image may be obtained via wired or wireless communication.
  • Determination of the quality of the image may include converting the fundus image (S13).
  • the pixel value used for quality determination which will be described later, may be obtained from the transformed fundus image.
  • Determination of the quality of the fundus image may include converting the fundus image to grayscale.
  • the at least one pixel value included in the fundus image may be obtained from the grayscale fundus image after the obtained fundus image is grayscaled (grayscale).
  • Determination of the quality of the fundus image may include converting the fundus image having a plurality of channels to have a single channel. At least one pixel value may be obtained from a fundus image transformed to have a single channel.
  • the fundus image may comprise an RGB channel, and pixel values may be obtained from the R channel image.
  • Determination of the quality of the fundus image may include binarizing the fundus image.
  • the fundus image may be converted to a bitmap image.
  • the fundus image is binarized based on a predetermined pixel value, at least one pixel value may be obtained from the binarized fundus image.
  • Determination of the quality of the fundus image may include obtaining and / or converting a histogram of the fundus image.
  • the fundus image is histogram transformed, at least one pixel value may be obtained from the histogram transformed fundus image.
  • a pixel value of at least one pixel may be obtained from a histogram normalized or equalized image.
  • the step of converting the fundus image may be selectively used. Determination of the quality of the image may convert the fundus image, obtain quality information using the converted fundus image, or obtain quality information based on the original image without converting the fundus image.
  • Determination of the quality of the image may include acquiring quality information of the fundus image (S30).
  • Acquiring quality information of the fundus image may include determining whether the fundus image satisfies a quality condition.
  • acquiring the quality information may include determining the plurality of quality conditions and acquiring the quality information in consideration of the determination result of the plurality of quality conditions.
  • the quality information of the image may be obtained in consideration of the above-described pixel value or the target pixel.
  • the quality information of the image may be performed in consideration of whether the image satisfies the above-described quality conditions.
  • the quality information of the image may be normal information indicating whether the image is a normal image or an abnormal image.
  • the quality information of the image may be defect information indicating whether the image contains defects or not.
  • the defect information may further include specific information on what defect the image contains.
  • the quality information of the image may include artifact information on whether or not the artifact is included.
  • the quality information of the image may include identification information of the artifact indicating the type of the artifact, and artifact information indicating whether the corresponding fundus image includes the artifact or the intensity of inclusion of the artifact.
  • the quality information of the image may be provided in probability form.
  • the normal information of the image may include the probability that the image is normal.
  • the defect information of the image may include a probability that the image includes a defect or a probability that the image includes a plurality of defects, respectively.
  • the quality information of the image may further include information about an area. For example, when the target pixel is detected from the target area using the predetermined area as the target area, or when the quality condition is determined for the target area, the quality information of the area may be included.
  • the quality information may include identification information of the target area and quality information about the target area.
  • the quality information of the image may include normal information or defect information on the first area of the fundus image.
  • the quality information of the image may further include information on the second area as well as information on the first area of the fundus image.
  • the quality information of the image may include a quality value, a quality score, a quality degree, and the like.
  • the quality score may be calculated in consideration of the number, ratio, and the like of pixels corresponding to the artifact.
  • the quality score and the like may be calculated in consideration of the type of artifact and / or the degree of the artifact.
  • the quality score and the like may be obtained through a neural network model.
  • the target area may be determined as a part of the fundus image or the fundus area.
  • the target region may be selected from a plurality of regions constituting the fundus image or the fundus region.
  • the target area may be selected from the areas described with reference to FIGS. 31 to 33.
  • the fundus region may include an inner region IA and an outer region OA.
  • the target area may be determined as the outer area OA or the inner area IA.
  • the object area may be determined as the outer area OA.
  • the target area may be the macular area MA, the optic nerve head part ODA, or the periphery part.
  • the target area may be an area including at least one of the upper part SNA, the lower part INA, the upper part STA, the lower part ITA, and the side part TA.
  • the target region may be from the fundus image or the fundus region, from the macular region (MA), the optic nerve papilla (ODA), the periphery, the upper part (SNA), the lower part (INA), the upper part (STA), the lower part (ITA) and the side part. It may be an area except at least one of the TAs.
  • the target area is selected from areas of a predetermined fundus image, but the present invention is not limited thereto.
  • the target area may be selected by user input.
  • the target area may be determined as a region showing an unusual aspect in each image.
  • determining the quality information of the fundus image may include detecting a target pixel (S15a) and determining a quality condition (S15b).
  • the method of determining the quality of an image may include detecting a target pixel 15a.
  • the target pixel may be a pixel corresponding to a defect or an artifact to be detected.
  • the target pixel may be a pixel corresponding to a normal region where no defects or artifacts occur.
  • the subject pixel may be a pixel corresponding to an obstructive element that interferes with the identification of a disease element to be detected.
  • the target pixel may be a pixel corresponding to an indicator element that is an indicator for determining whether an abnormality has occurred in the fundus image.
  • Detecting the target pixel may include determining a target pixel among pixels included in the fundus image that satisfies the target pixel requirement. Detecting the target pixel may be performed in consideration of the pixel value described above.
  • the target pixel requirement may include a requirement for a reference range or reference value for the pixel value.
  • the reference range or reference value may be a predetermined range or value.
  • the reference range or reference value may be a range or value obtained as a result of training the neural network model.
  • the reference range or reference value may be adaptively changed to improve the accuracy of the determination as the quality of the image is judged a plurality of times.
  • the image quality determination may include determining, as a target pixel, a pixel having a pixel value belonging to or not belonging to a predetermined reference range.
  • the image quality determination may include determining a pixel having a pixel value that exceeds or falls below a predetermined reference value as the target pixel.
  • the target pixel requirement may include that the intensity value of the pixel is equal to or greater than the reference intensity
  • detecting the target pixel may include determining a pixel having the intensity value equal to or greater than the reference intensity as the target pixel.
  • the target pixel requirement may be differently specified for each region. Detecting the target pixel from the image includes determining whether the first target pixel requirement is satisfied for the pixels included in the first region, and determining whether the second target pixel requirement is satisfied for the pixels included in the second region. can do.
  • Detecting the target pixel may include detecting the target pixel included in a predetermined area included in the fundus image. Detecting the target pixel may include determining a pixel included in a predetermined area and satisfying the target pixel requirement as the target pixel.
  • the target pixel requirement may be included in a target area that is an area corresponding to the fundus of the fundus image, and detecting the target pixel may include detecting a target pixel included in the target area corresponding to the fundus.
  • the fundus image may include at least one area.
  • the predetermined area (or target area) may be determined in consideration of the position of the anatomical components of the eye.
  • the at least one area may be determined in consideration of the location of occurrence of the element that interferes with the identification.
  • the target area may be selected from at least one area included in the fundus image.
  • it may include a plurality of regions divided by at least one boundary that anatomically significantly divides the fundus image.
  • the boundary for dividing the fundus image may be determined based on the location of at least one of the macular, optic nerve papilla, blood vessel, and ocular embryo included in the fundus image.
  • the method of determining the quality of an image may include determining whether a quality condition is satisfied (S15b).
  • the pixel value may be any one of an intensity value, an intensity value, a brightness value, a luminance value, a color value, a chroma value, a saturation value, and a brightness value of the pixel.
  • the pixel value may be in an integer or vector form.
  • the pixel value may be provided in the form of an 8-bit integer.
  • the pixel value may include at least one item value extracted from the fundus image having values for the plurality of items. For example, when the fundus image has a brightness value, a color value, and a saturation value for each pixel, at least one pixel value may include a brightness value.
  • the pixel value may include a plurality of values for the plurality of channels.
  • the fundus image may include an RGB channel
  • the pixel value may include a color value for each of R, G, and B channels.
  • Determining whether the ocular fundus image satisfies a quality condition may include detecting a target pixel (or abnormal pixel) included in the image and satisfying a predetermined criterion.
  • the target pixel may be a plurality.
  • Determining whether a fundus image satisfies a quality condition is based on the distribution of pixel values, deviations of pixel values, maximum or minimum pixel values, and differences between pixel values (hereinafter, referred to as "machining values of pixel values"). Can be performed.
  • Determining whether a fundus image satisfies a quality condition is that if the pixel value or processing value of the pixel value falls within the reference range, exceeds the reference value, or falls below the reference value, the fundus image satisfies the quality condition. It can be determined.
  • Determining whether the fundus image satisfies the quality condition may include determining whether the fundus image satisfies the quality condition in consideration of the detected target pixel.
  • Determining whether the fundus image satisfies a quality condition may include determining whether the number of target pixels is greater than or equal to a reference number. For example, if the number of target pixels included in the fundus image exceeds the reference number, the image may be determined to be dissatisfied with the quality condition.
  • the plurality of quality conditions may be determined in relation to the reference number. For example, when the number of target pixels exceeds the first reference number and falls short of the second reference number, the fundus image determines that the first quality condition is not satisfied, and when the number of target pixels exceeds the second reference number, the corresponding fundus The image may be determined to be dissatisfied with the second quality condition.
  • Determining whether the fundus image satisfies a quality condition may include determining whether a ratio of the target pixel is equal to or greater than a reference ratio. For example, when the ratio of the number of target pixels to the total number of pixels of the fundus image is greater than or equal to the reference ratio, the image may be determined to satisfy the quality condition.
  • whether the quality condition of the fundus image is satisfied may be determined based on the binarized fundus image.
  • the fundus image is binarized with respect to the reference pixel value, and based on the binarized fundus image, the number or ratio of the target pixels having a pixel value that exceeds or falls short of the reference pixel value is obtained, and the obtained number is obtained.
  • the ratio may be compared with the reference number or the reference ratio to determine whether the fundus image satisfies the quality condition.
  • the subject area may be considered together.
  • the image when the target pixel is detected in the target region, the image may be determined to be dissatisfied with the quality condition.
  • the image when the number of target pixels detected in the target area exceeds or falls short of the reference number, the image may be determined to be dissatisfied or satisfying the quality condition.
  • the ratio of the number of target pixels to the total number of pixels of the target area exceeds the reference ratio, the image may be determined to be dissatisfied or satisfying the quality condition.
  • the image when the target pixel is detected in an area other than the target area, the image may be determined to be dissatisfied or satisfying the quality condition.
  • the image when the target pixel is detected in the first region, the image is determined to be unsatisfactory in the first quality condition, and when the target pixel is detected in the second region, the image satisfies the second quality condition or You can judge that you are not satisfied.
  • the quality condition of the image may be determined in consideration of the target pixel included in the first target area corresponding to the area in which the fundus of the fundus image is distributed.
  • the quality condition of the image may be determined in consideration of pixel values of pixels corresponding to regions in which the macular of the fundus is distributed.
  • the quality condition may be determined differently for each region. Determining whether the image satisfies the quality requirements means that the target pixel detected from the first region exceeds the first reference ratio for the first region, and the target pixel detected from the second region has a second reference ratio for the second region It may include determining whether exceeds.
  • FIG. 39 is a flowchart for describing a quality determination of an image according to an exemplary embodiment.
  • the method of determining the quality of the fundus image by detecting artifacts related to the quality of the fundus image from the fundus image according to an embodiment of the present invention detecting the first pixel related to the quality of the fundus image (S110), comparing the ratio of the first pixel of the entire pixels of the fundus image to the reference ratio (S130), and obtaining the quality information based on the comparison result (S150).
  • Detecting a first pixel related to the quality of the fundus image may compare a pixel value of at least one pixel included in a target area of the fundus image with a reference pixel value, thereby comparing the first pixel related to the quality of the fundus image. Detecting.
  • the target area is determined according to the artifacts detected for quality determination, and the artifact is either a bright artifact due to excessive reflection of light occurring in the fundus region of the fundus image or a dark artifact due to a shadow occurring in the fundus region of the fundus image. Can be.
  • the target area may include a first area spaced at least a first distance from the center of the area corresponding to the fundus of the fundus image, a second area within a first distance from the center of the area corresponding to the fundus, and an optic nerve papilla among the areas corresponding to the fundus. It may include at least one selected from the third region corresponding to the region in which is distributed and the fourth region corresponding to the region in which the macular is distributed among the regions corresponding to the fundus.
  • Comparing the ratio of the first pixel of all the pixels of the fundus image to the reference ratio may include determining whether the ratio of the first pixel of all the pixels of the fundus image exceeds the reference ratio.
  • comparing the ratio of the first pixel of all the pixels of the fundus image to the reference ratio may include determining whether the ratio of the first pixel of all the pixels of the fundus image is less than the reference ratio. .
  • Acquiring quality information based on the comparison result may include obtaining quality information of the fundus image based on a comparison result obtained by comparing a ratio of the first pixel of all the pixels of the fundus image with a reference ratio. It may include doing.
  • the step of obtaining quality information based on the comparison result (S150) may include: when the ratio of the first pixel of all the pixels of the fundus image exceeds the reference ratio, the quality indicating the fundus image is the abnormal fundus image. May include obtaining information.
  • the obtaining of the quality information based on the comparison result (S150) may include: quality information indicating that the fundus image is a normal fundus image when the ratio of the first pixel of all the pixels of the fundus image is less than the reference ratio. It may include acquiring.
  • the method of determining a quality of a fundus image may further include obtaining a first scale value with respect to a first scale with respect to a plurality of pixels included in the fundus image from the fundus image.
  • the pixel value obtained for the quality determination may include a first scale value.
  • the first scale may be a brightness scale of the plurality of pixels, and the first scale value may be a brightness scale value.
  • the method of determining the quality of the fundus image may further include binarizing the fundus image with respect to a reference pixel value.
  • the detecting of the first pixel may further include detecting the first pixel based on the binarized fundus image.
  • a method of determining an image quality according to an embodiment of the present invention includes determining a region of a fundus image as a target region (S210) and detecting an artifact pixel from the target region (S230). can do.
  • a method of determining the quality of the fundus image by detecting artifacts related to the quality of the fundus image from the fundus image of the subject's fundus image is performed by detecting artifacts in at least a portion of the fundus image. Determining the target region (S210) and detecting at least one artifact pixel corresponding to the artifact from the target region (S230).
  • the target region may be determined as the first region that is a region spaced a predetermined distance from the center of the region corresponding to the fundus of the eye fundus image.
  • the first artifact may be a bright artifact due to excessive reflection of light occurring in the fundus area of the fundus image.
  • the first artifact may be various kinds of defects that occur in the outer area OA of the fundus image.
  • the first artifact may be a first type artifact described later.
  • the target area may be determined as a fundus area that is an area in which the fundus is distributed in the fundus image.
  • the second artifact may be a dark artifact due to a shadow occurring in the fundus region of the fundus image.
  • the second artifact may be various kinds of defects occurring in the fundus region FA or the inner region IA of the fundus image.
  • the second artifact may be a second type artifact, described below.
  • the method of determining the quality of the fundus image may further include determining the quality of the fundus image based on the detected artifact pixel.
  • Determining the quality of the fundus image may further include determining the quality of the fundus image in consideration of whether the amount of detected artifacts exceeds a reference amount.
  • the amount of the artifact may be determined based on the number of pixels corresponding to the artifact detected from the fundus region, the area of the region corresponding to the artifact detected from the fundus region, or the number of artifacts detected from the fundus region.
  • the reference amount may be defined as a reference pixel number, a reference width, a number of reference artifacts, or the like.
  • Determining the quality of the fundus image includes determining whether the number of detected artifact pixels exceeds a reference ratio with respect to the total number of pixels in the fundus image, and the reference ratio with respect to the total number of pixels of the fundus image.
  • the eye fundus image may comprise determining to include an artifact if exceeded.
  • the method for determining the quality of a fundus image may further include obtaining a converted fundus image by grayscale converting the fundus image. Detecting the artifact pixel may further include detecting the artifact pixel from the transformed fundus image.
  • the method for determining the quality of the fundus image may include obtaining a transformed fundus image obtained by binarizing the fundus image, changing the color tone, or applying other modifications.
  • FIG. 41 is a flowchart illustrating a method of determining an image quality according to an embodiment of the present invention.
  • Detecting an artifact pixel from the target region may include comparing pixel values of a plurality of pixels included in the target region with a reference pixel value range (S231) and / or included in the target region and included in the reference pixel value range.
  • at least one pixel having the pixel value may be determined as an artifact pixel.
  • the pixel value may be a brightness value of the pixel.
  • the reference pixel value range may be determined as a range including a value larger than the reference pixel value or a range including a value smaller than the reference pixel value.
  • the reference pixel value range may be defined as a range including a value larger than the reference lower limit value and smaller than the reference upper limit value.
  • FIG. 42 is a flowchart illustrating a method of determining an image quality according to an embodiment of the present invention.
  • determining a region of a fundus image as a target region S210
  • determining a pixel value of a pixel included in the target region as a first reference. Comparing with the pixel value (S235) and determining a pixel included in the target area and having a pixel value larger than the first reference pixel value as the first artifact pixel (S237).
  • the detecting of the artifact pixel may include comparing pixel values of a plurality of pixels included in the target region with a first reference pixel value (S235) and being included in the target region.
  • S235 a first reference pixel value
  • at least one pixel having a pixel value greater than the first reference pixel value may be determined as the first artifact pixel.
  • the detecting of the artifact pixel may include comparing a brightness value of pixels included in the target area with a bright artifact reference pixel value and having a value brighter than the bright artifact reference pixel value. May be determined to be a bright artifact pixel.
  • the detecting of the artifact pixel may include comparing pixel values of a plurality of pixels included in the target region with a second reference pixel value and including the second reference pixel value in the target region.
  • the method may further include determining at least one pixel having a pixel value smaller than the reference pixel value as the second artifact pixel.
  • the detecting of the artifact pixel may include comparing the brightness value of the pixels included in the target area with a dark artifact reference pixel value and having a brightness value smaller than the dark artifact pixel reference value. Determining at least one pixel as a dark artifact pixel.
  • determining the quality of an image may include detecting various defects or abnormalities occurring in the image.
  • the above-described image determination method may be implemented differently depending on the type of defect to be determined.
  • an image quality determining method for determining whether the fundus image includes a first type artifact (hereinafter, referred to as a first artifact) may be provided.
  • Image quality determination may be performed in consideration of the degree to which the area corresponding to the first artifact is distributed with respect to the fundus image.
  • the first artifact may be a bright artifact.
  • Bright artifacts can be caused by optical reflections, bright borders, and the like.
  • Bright artifacts may be distributed close to the outside of the fundus image.
  • an image quality determination method will be described on the basis of a case where the first artifact is a bright artifact that occurs close to the outside of the fundus region of the fundus image due to an optical factor.
  • 43 is a view for explaining a method of determining image quality according to an embodiment of the present invention.
  • an image quality determining method may include acquiring a fundus image (S21) and acquiring first quality information (S23).
  • acquiring a fundus image (S21), detecting a first pixel (S23a), and determining a first quality condition It may include the step (S23b).
  • an image quality determining method for determining whether a fundus image includes a first artifact comprises: acquiring a fundus image and first type quality information (hereinafter, first quality information) of the fundus image; ) May be obtained.
  • the image quality determining method for determining whether the fundus image includes the first artifact may further include converting the fundus image to facilitate acquisition of an intensity value of each pixel of the fundus image.
  • image conversion the above-described information may be similarly applied in 2.2 Determination.
  • Acquiring the first quality information may include detecting a first pixel from the fundus image and determining a first quality condition.
  • the first pixel may be a pixel corresponding to the first artifact.
  • the first pixel may be a pixel corresponding to a region in which the first artifact is distributed.
  • the first pixel may be a pixel used as an indicator for detecting the first artifact.
  • the first pixel may be a bright pixel for detecting bright artifacts.
  • a bright pixel may be a pixel having a particularly bright brightness value or having a specific color value.
  • the detecting of the first pixel may include detecting a pixel having a pixel value greater than or equal to a reference value from the fundus image.
  • detecting the first pixel may include detecting a first pixel having a brightness value of the pixel having a reference brightness value or more.
  • the reference value may be a predetermined value.
  • the reference value can be determined differently for the individual image.
  • the reference value may be determined as an average value of pixel values of all pixels included in the image.
  • the reference value may be determined as an average value of pixel values of pixels included in the fundus region.
  • the first pixel can be detected from a specific area.
  • the first pixel can be detected from the fundus area.
  • the first pixel may be detected from a target area determined as part of the fundus area. More specifically, the first pixel may be detected from a target area that is an area spaced apart from the center of the fundus area by a predetermined distance or more.
  • the first pixel may be detected from a target area, which is an area outside of the boundary determined to include a predetermined portion of the fundus area from the center of the fundus area.
  • the fundus image In consideration of the detected first pixel, it may be determined whether the fundus image satisfies the first quality condition. Alternatively, whether the fundus image includes the first artifact may be determined in consideration of the detected first pixel.
  • the determining of the first quality condition may include determining the first quality condition in consideration of the detected first pixel.
  • the first quality condition may include a range of the first number of pixels, a ratio of the number of first pixels to the number of pixels of the fundus image, and the like.
  • Whether the fundus image satisfies the first quality condition may be determined in consideration of the first pixel included in the target area.
  • the determining of the first quality condition may include determining whether the fundus image satisfies the first quality condition in consideration of a ratio of the first pixel detected from the target region in the fundus image.
  • determining the first quality condition may include determining whether the number of first pixels exceeds a reference ratio of the number of pixels of the entire fundus image (or fundus area).
  • determining the first quality condition may include determining whether a ratio of the first pixel detected from the outer region OA in the fundus image (or fundus region) exceeds the reference ratio.
  • the number of first pixels having a brightness value greater than or equal to the reference brightness detected from the outer area OA exceeds 2% of the total number of pixels of the fundus image, it may be determined that the first quality condition is satisfied. Alternatively, it may be determined that the first artifact has occurred in the fundus image.
  • the reference ratio may be a predetermined value.
  • the image may be determined for each image in consideration of variations in brightness values of the entire image. Or it may be a value obtained as a result of artificial intelligence learning.
  • the reference ratio may be 5% or less.
  • 44 is a diagram for describing a method of determining image quality according to an embodiment of the present invention.
  • the image quality determination method obtains a fundus image (a), converts the acquired fundus image (b), the transformed fundus (C) determining whether the image contains a bright artifact based on the image.
  • the acquired fundus image may include an artifact near an outer portion of the fundus region.
  • the fundus image may comprise bright artifacts.
  • determining whether the fundus image includes a bright artifact may include detecting a bright artifact pixel.
  • Detecting bright artifact pixels may include the number of pixels, the position of the pixels, the ratio of pixels, and the like.
  • Detecting bright artifact pixels involves detecting bright artifact pixels (i.e., pixels having a brightness value greater than or equal to a reference brightness) whose values are greater than or equal to a threshold from an outer region of a boundary spaced a predetermined distance from the center of the fundus region. It may include.
  • the boundary may be determined to partition the fundus region such that the region therein is 80% of the fundus region.
  • Determining whether the image contains bright artifacts detects the bright artifact pixels, determines whether the proportion of the detected bright artifact pixels to the fundus image is greater than or equal to the reference ratio (e.g., greater than 2%). When the ratio of the bright artifact pixel to the fundus image is greater than or equal to the reference ratio, the fundus image may be determined to have a bright artifact.
  • the reference ratio e.g., greater than 2%
  • the determining of the first quality condition may further include determining that the fundus image includes the first artifact when the first quality condition is satisfied. For example, if the fundus image satisfies the first quality condition, it may be determined that the fundus image includes bright artifacts.
  • the first quality information may be obtained.
  • the first quality information may indicate suitability of the fundus image.
  • the first quality information may indicate suitability associated with the bright artifact of the fundus image.
  • the first quality information may indicate suitability associated with the area where bright artifacts of the fundus image occur.
  • the first quality information may indicate whether a bright artifact is included in the fundus image. For example, when the fundus image satisfies the first quality condition, first quality information indicating that the fundus image includes a bright artifact may be obtained.
  • the first quality information may include bright artifact presence information on whether the fundus image includes bright artifacts, degree information of bright artifacts, location information of bright artifacts, and the like.
  • a method of determining a quality of a fundus image by detecting a first type artifact from a fundus image of a subject's fundus image may include pixel values of at least one pixel included in a target area of the fundus image.
  • Comparing the reference pixel value with a reference pixel value to detect a first pixel related to the quality of the fundus image comparing the proportion of the first pixel of all the pixels of the fundus image to the reference ratio and the first of all pixels of the fundus image Obtaining quality information of the fundus image based on a comparison result obtained by comparing the ratio occupied by the pixel with a reference ratio, wherein the artifact is a first artifact, and the target region is an area of a region corresponding to the fundus of the fundus image.
  • the first region may be spaced apart from the center by a first distance or more.
  • the first distance may be determined such that an area within a first distance from the center of the area corresponding to the fundus is equal to or greater than a first ratio with respect to the entire fundus image area.
  • the reference pixel value is a first pixel value
  • the detecting of the first pixel in comparison with the reference pixel value may include detecting a first pixel included in the target area and having a pixel value larger than the reference pixel value.
  • the reference ratio is the first reference ratio, and the comparing with the reference ratio may further include determining whether a ratio of the first pixel of all the pixels of the fundus image is greater than the first reference ratio.
  • the acquiring of the quality information based on the comparison result may further include determining that the fundus image is a bad image when the ratio of the first pixel of the total pixels of the fundus image is greater than the first reference ratio.
  • an image quality determination method for determining whether the fundus image includes a second type artifact may be provided.
  • Image quality determination may be performed in consideration of the degree to which the area corresponding to the second artifact is distributed with respect to the fundus image.
  • the second artifact may be a dark artifact.
  • the dark artifact may occur when the distance between the fundus and the image pickup device or the amount of light incident on the fundus is picked up while the eye fundus image is captured. Dark artifacts can occur in any area. Dark artifacts can occur close to the center of the fundus region.
  • an image quality determination method will be described based on the case where the second artifact is a dark artifact caused by an optical factor.
  • an image quality determining method may include acquiring a fundus image (S31) and acquiring second quality information (S33).
  • the method may include obtaining a fundus image (S31), detecting a second pixel (S33a), and determining a second quality condition. It may include the step (S33b).
  • an image quality determining method for determining whether a fundus image includes a second artifact includes obtaining a fundus image and second type quality information of the fundus image (hereinafter, referred to as second quality information). ) May be obtained.
  • the image quality determining method may further include an image converting step.
  • the above description may be similarly applied to the conversion of the image in the 2.2 determining method.
  • Dark artifacts may appear due to shadows, etc., generated during imaging of the fundus image. Dark artifacts may be distributed close to the center of the fundus image. Dark artifacts and bright artifacts may occur together in the same image.
  • Acquiring the second quality information may include detecting a second pixel from the fundus image and determining a second quality condition.
  • the second pixel may be a pixel corresponding to the second artifact.
  • the second pixel may be a pixel corresponding to a region in which the second artifact is distributed.
  • the second pixel may be a pixel used as an indicator for detecting the second artifact.
  • the second pixel may be a dark pixel for detecting dark artifacts.
  • the dark pixel may be a pixel having a particularly dark pixel value or having a specific color value.
  • the detecting of the second pixel may include detecting a pixel having a pixel value less than or equal to a reference value from the fundus image.
  • detecting the second pixel may include detecting a second pixel whose brightness value is equal to or less than a reference brightness value.
  • the second pixel can be detected from a particular area.
  • the second pixel may be detected from a fundus area or a target area that is part of the fundus area.
  • the second pixel may be detected from a target area that is an area within a predetermined distance from the center of the fundus area.
  • the second pixel may be detected from the inner region IA inside the boundary BO described in FIG. 32.
  • the fundus image In consideration of the detected second pixel, it may be determined whether the fundus image satisfies the second quality condition. Alternatively, whether the fundus image includes the second artifact may be determined in consideration of the detected second pixel.
  • the determining of the second quality condition may include determining the second quality condition in consideration of the detected second pixel.
  • the second quality condition may include a range of the second pixel number, a ratio of the second pixel number to the pixel number of the fundus image, and the like.
  • Whether the fundus image satisfies the second quality condition may be determined in consideration of the second pixel included in the target area.
  • the determining of the second quality condition may include determining whether the fundus image satisfies the second quality condition in consideration of the proportion of the second pixel detected from the target region in the fundus image.
  • determining the second quality condition may include determining whether the number of detected second pixels is less than a reference ratio with respect to the total number of pixels of the fundus image (or fundus area).
  • determining the second quality condition may include determining whether a ratio of the second pixel detected from the inner region IA or the fundus region FA of the fundus region to the fundus image (or the fundus region) exceeds a reference ratio. It may include doing.
  • the second quality condition is satisfied. It can be judged. Alternatively, it may be determined that the second artifact has occurred in the fundus image.
  • 46 is a view for explaining a method of determining image quality according to an embodiment of the present invention.
  • the image quality determining method obtains a fundus image (a), converts the acquired fundus image (b), and converts the transformed fundus (C) determining whether the image contains a bright artifact based on the image.
  • the acquired fundus image may include an area photographed darker than the surrounding.
  • the acquired fundus image may include dark artifacts.
  • transforming the fundus image may include grayscale transformation or histogram normalization of the fundus image.
  • determining (c) whether the image includes an artifact may include detecting a dark artifact pixel.
  • detecting the dark artifact pixel may include detecting a pixel whose value is less than or equal to a threshold (that is, a pixel having a brightness value less than or equal to a reference brightness).
  • detecting the dark artifact pixel may include detecting a pixel whose value is equal to or less than a threshold value from an inner region within a predetermined distance from the center of the fundus region.
  • the boundary for determining the inner region OA of the fundus region may be determined such that the inner region occupies 80% of the fundus region.
  • determining whether the image includes dark artifacts may include detecting a dark artifact pixel, determining whether the detected dark artifact pixel occupies the fundus image is greater than or equal to a reference ratio (2% or more). When the ratio of the dark artifact pixel to the fundus image is greater than or equal to the reference ratio, the fundus image may be determined to have a bright artifact.
  • Determining the second quality condition may further include determining that the fundus image includes the second artifact when the second quality condition is satisfied. For example, when the fundus image meets the second quality condition, it may be determined that the fundus image includes dark artifacts.
  • the second quality information may be obtained.
  • the second quality information may indicate suitability of the fundus image.
  • the second quality information may indicate suitability associated with the dark artifact of the fundus image.
  • the second quality information may indicate suitability associated with the area in which dark artifacts of the fundus image occur.
  • the second quality information may indicate whether dark artifacts are included in the fundus image. For example, when the fundus image satisfies the second quality condition, second quality information indicating that the fundus image includes the bright artifact may be obtained.
  • the second quality information may include dark artifact presence information related to whether the fundus image includes dark artifacts, degree information of dark artifacts, location information of dark artifacts, and the like.
  • a method of determining a quality of a fundus image by detecting a second type artifact from a fundus image of a subject's fundus image may include pixel values of at least one pixel included in a target area of the fundus image.
  • Comparing the reference pixel value with a reference pixel value to detect a first pixel related to the quality of the fundus image comparing the proportion of the first pixel of all the pixels of the fundus image to the reference ratio and the first of all pixels of the fundus image Obtaining quality information of the fundus image based on a comparison result obtained by comparing the ratio occupied by the pixel with a reference ratio, wherein the artifact is a first artifact, and the target region is an area of a region corresponding to the fundus of the fundus image.
  • the first region may be spaced apart from the center by a first distance or more.
  • the artifact may be a second artifact
  • the target region may be a second region in which the fundus of the fundus image is distributed.
  • the reference pixel value is a second pixel value
  • the detecting of the first pixel in comparison with the reference pixel value may include detecting a first pixel included in the target area and having a pixel value smaller than the reference pixel value.
  • the reference ratio is the second reference ratio, and the comparing with the reference ratio may further include determining whether a ratio of the first pixel of all the pixels of the fundus image is smaller than the second reference ratio.
  • the acquiring of the quality information based on the comparison result may further include determining that the fundus image is a bad image when the ratio of the first pixel of the total pixels of the fundus image is smaller than the second reference ratio.
  • an image quality determination method for determining whether the fundus image includes a third type artifact (hereinafter referred to as a third artifact) may be provided.
  • Image quality determination may be performed in consideration of the degree of the third artifact included in the fundus image.
  • the third artifact may be an artifact in which the entire fundus region is blurred.
  • the fundus region is clouded due to contamination on the lens or other obstacle on the optical path during imaging.
  • the third artifact may be a disease-derived artifact due to eye diseases of the subject. If the subject has a certain type of eye disease, there may be cases where the fundus image cannot be used to diagnose other diseases, even if no artifacts from other external factors have occurred. For example, when opacity occurs in the eye of a subject, since the fundus image is mostly blurred, there is a problem that reliability is not guaranteed when diagnosing other diseases based on the fundus image. Therefore, it is necessary to separately detect such an artifact and notify the user.
  • an artifact that makes element identification difficult throughout the fundus area is defined as a third artifact, and a method for determining the quality of the fundus image in consideration of the third artifact will be described.
  • an image quality determining method for determining whether a fundus image includes a third artifact comprises: acquiring a fundus image and third type quality information (hereinafter, third quality information) of the fundus image; ) May be obtained.
  • third quality information third type quality information
  • the image quality determining method may further include converting the fundus image, and the foregoing description may be similarly applied in the 2.2 determining method.
  • Acquiring the third quality information may include detecting a third pixel from the fundus image and determining a third quality condition.
  • the third pixel may be a pixel corresponding to the third artifact.
  • the third pixel may be a pixel corresponding to a region in which the third artifact is distributed.
  • the third pixel may be used as an indicator for detecting the third artifact.
  • the third pixel may be a cloudy pixel.
  • the third pixel may be a pixel having a pixel value within a predetermined range or having a pixel value difference within a predetermined ratio when compared with a neighboring pixel.
  • the fundus image In consideration of the detected third pixel, it may be determined whether the fundus image satisfies the third quality condition. Alternatively, whether the fundus image includes the third artifact may be determined in consideration of the detected third pixel.
  • the determining of the third quality condition may further include determining the third quality condition in consideration of the number, range, and ratio of the third pixels included in the target area (eg, the fundus area).
  • the determining of the third quality condition may further include determining that the fundus image includes the third artifact when the third quality condition is satisfied.
  • Acquiring the third quality information may include detecting the third artifact from the fundus image. Whether the fundus image includes the third artifact may be determined using the fundus region of the fundus image as the target region.
  • Detecting the third artifact may further include detecting the third artifact using a histogram of the fundus image. For example, the determination of the presence or absence of the third artifact may use the deviation of the histogram of the fundus image, and when the deviation is less than or equal to a predetermined value, the corresponding image may be determined to include the third artifact. In other words, determining whether the third artifact is present may include determining that the fundus image has the third artifact when the brightness distribution of the pixels included in the fundus region of the fundus image is equal to or greater than a reference value.
  • whether the fundus image includes the third artifact may be determined by using a neural network model trained using the fundus image data set having the third artifact.
  • the third quality information may be obtained.
  • the third quality information may indicate suitability of the fundus image, eg, suitability associated with turbidity.
  • the third quality information may include third artifact information indicating whether a third artifact has occurred in the fundus image and / or a degree of the third artifact.
  • the third quality information may include turbid artifact information indicating the presence or absence of turbid artifacts, the degree of turbid artifacts, and the like.
  • the imaging device may acquire a plurality of fundus images.
  • the plurality of fundus images may be a plurality of fundus images captured by the imaging device.
  • the plurality of fundus images may be images continuously photographed by the imaging device.
  • the plurality of fundus images may be a plurality of fundus images obtained from the fundus image obtained by the imaging device.
  • the plurality of fundus images included in the fundus image may be a plurality of fundus images extracted from the fundus image and corresponding to the plurality of frames of the fundus image.
  • 47 is a diagram for describing a plurality of fundus images according to an embodiment of the present invention.
  • a plurality of fundus images a may be obtained.
  • the plurality of fundus images a may be obtained in a time t order.
  • the plurality of fundus images a may be images continuously photographed.
  • the plurality of fundus images (a) may be images included in the fundus image.
  • the plurality of fundus images a may include a first fundus image b1, a second fundus image b2, and a third fundus image b3.
  • a method of determining a target fundus image from a plurality of fundus images will be described with reference to FIG. 46.
  • Determining the quality of the fundus image may include acquiring a plurality of fundus images and determining the quality of the plurality of fundus images according to the above-described quality determination method of the image.
  • one fundus image of the plurality of fundus images may be determined as the target fundus image based on a quality determination result for each of the plurality of fundus images.
  • an image selected from a plurality of fundus images may be determined as a diagnosis target fundus image.
  • a fundus image having a better quality among the plurality of fundus images may be determined as the target fundus image.
  • determining the quality of the fundus image may include performing, by the controller, quality determination on the first fundus image b1 and the second fundus image b2. If the first fundus image b1 has better quality information than the second fundus image b2, the controller may determine the first fundus image b1 as the target fundus image.
  • the target fundus images may be replaced.
  • the control unit may determine that the first fundus image b1 having a better quality among the first fundus image b1 and the second fundus image b2 is an object.
  • the quality of the third fundus image b3 acquired later than the first fundus image b1 and the second fundus image b2 is determined, and the third fundus image b3 is determined as the first fundus. If the image has a better quality than the image b1, the target fundus image may be replaced with a third fundus image b3.
  • the information obtained based on the target fundus image may be replaced.
  • the information obtained based on the target fundus image may be replaced.
  • the provided diagnostic assistance information may be replaced.
  • the fundus image when a fundus image is obtained that does not satisfy the quality criteria, the fundus image may be discarded.
  • the controller performs quality determination on the second fundus image b2 obtained after the first fundus image b1 and the first fundus image b1 are obtained, and the second fundus image b1 is obtained. If the fundus image b2 does not meet the quality criteria, it may include discarding the second fundus image b2.
  • the controller performs quality determination on the first fundus image b1 and the second fundus image b2, and the second fundus image b2 has a higher quality value or quality score than the first fundus image b1. If low, the second fundus image b2 may be discarded.
  • the acquisition of the fundus image may be stopped.
  • Determining a quality criterion of the fundus image includes the controller performing a quality determination on the first fundus image b1 and the third fundus image b3 obtained after the first fundus image b1 is obtained. can do. If the third fundus image b3 satisfies a quality criterion (eg, does not have an artifact), the acquisition of the fundus image may be stopped. For example, the controller may instruct the imaging device to stop acquiring the fundus image. The controller may determine an image satisfying the quality criteria as the target fundus image.
  • the controller may stop acquiring the fundus image and determine the image satisfying the quality criterion as the target fundus image.
  • diagnostic assistance information or the like may be output based on the target fundus image.
  • the controller may start acquiring the image. In other words, the controller judges the quality of the fundus image sequentially photographed, but discards the fundus image that does not satisfy the quality standard, and acquires (or stores) the corresponding fundus image when the fundus image that satisfies the quality standard is captured. You can start
  • one fundus image generated by merging or combining at least one fundus image selected from a plurality of fundus images may be determined as a diagnosis fundus image.
  • the controller may extract different regions of the fundus image from the plurality of fundus images, and determine the image generated by merging the extracted partial images as the target fundus image.
  • determining the quality of the fundus image may include determining, by the controller, the quality of the first fundus image b1 and the second fundus image b2.
  • the fourth fundus image generated by merging the first region of the first fundus image b1 and the second region of the second fundus image b2 may be determined as the target fundus image.
  • the fourth fundus image generated by merging the first region of the first fundus image b1 and the second region of the second fundus image b2 determined to satisfy the quality criteria may be determined as the target fundus image. Can be.
  • the control unit performs quality determination for each region on a plurality of fundus images, extracts a region satisfying the quality criteria from the fundus image satisfying the quality criteria for each region, and merges the extracted partial images.
  • determining the quality of the fundus image may include determining, by the controller, the quality of the first region and the second region included in the first fundus image b1, and determining the quality of the first fundus image b2.
  • the fourth image generated by determining the quality of the second region and merging the first region of the first fundus image b1 and the second region of the second fundus image b2 that satisfies the quality criterion is the target fundus image. You can decide.
  • a target fundus image may be generated by overlapping a plurality of fundus images.
  • determining the quality of the fundus image may include acquiring, by the controller, the first fundus image b1 and detecting a first region in which the artifact is generated from the first fundus image.
  • the controller further acquires the second fundus image b2, determines whether an artifact has occurred in the first region of the second fundus image b2, and the artifact does not occur in the first region of the second fundus image b2.
  • a partial image of the first area of the second fundus image b2 may be obtained.
  • the controller may determine the fourth fundus image generated by overlapping or merging the obtained partial image with the first fundus image b1 as the diagnosis target image.
  • Merging or synthesizing the at least one fundus image may be performed using a neural network model. For example, an image formed by synthesizing or merging two or more images selected from a plurality of fundus images using a convolutional neural network (CNN) or a generative adversarial neural network (GAN), etc. Can be determined by an image.
  • CNN convolutional neural network
  • GAN generative adversarial neural network
  • FIG. 48 is a diagram for describing selecting a target image according to an embodiment of the present invention.
  • the second fundus image (b) including the weaker dark artifacts is selected as the target fundus image.
  • the fundus image (b) may be selected as the target fundus image.
  • the artifacts including the weaker artifacts may be selected as the target fundus image.
  • the first fundus image includes the first artifact and the second fundus image includes the second artifact, and the second fundus image is included in the second fundus image than the ratio of pixels corresponding to the first artifact included in the first fundus image.
  • the second fundus image may be determined as the target fundus image.
  • FIG. 49 is a diagram for describing generation of a target image according to an embodiment of the present invention.
  • an area where the bright artifact of the first fundus image (a) is located The third fundus image c generated by merging (or overlapping) a partial region of the second fundus image b corresponding to the first fundus image a may be determined as the target fundus image.
  • the third fundus image c may remove a portion of the first fundus image a corresponding to an area where the dark artifact of the second fundus image b is located. It may be generated by merging or superimposing the two fundus images (b).
  • quality information of the fundus image may be obtained.
  • the quality information of the fundus image may be used in various cases.
  • the quality information of the fundus image may be used for constructing the granular data set.
  • the quality information of the fundus image may be used to classify and use the training data for each learning purpose.
  • the quality information of the fundus image may be used to select a diagnosis target fundus image.
  • the controller may add the quality information to the fundus image.
  • the controller may tag or label quality information corresponding to each fundus image.
  • the controller may label the corresponding information on an image determined as having a specific artifact as a result of the quality determination, as a result of being judged to be less than the reference quality or having a defect.
  • the controller may label the first label on the fundus image determined to include the first artifact.
  • the controller may label the first label on the fundus image determined to not satisfy the first quality criterion.
  • the controller may label the second label with respect to the fundus image determined to not include the first artifact or to satisfy the first quality criterion.
  • a data set including the quality information may be obtained.
  • a plurality of data sets may be obtained according to the quality classification. For example, image data judged to have an artifact or an image data set (hereinafter referred to as a first data set) judged to be less than the reference quality and an image data set judged to have no artifact or satisfying the reference quality (hereinafter , The second data set) may be managed separately.
  • the first data set may be discarded. For example, if you are training a diagnostic model that performs diagnostics based on the fundus image, the data may be removed from the training data because the model may be less accurate when using a first data set that contains artifacts or consists of bad images. Can be.
  • the diagnostic model may be trained using the first data set.
  • the diagnostic model may exhibit more robust characteristics for images with artifacts or of poor quality.
  • the obtained quality information may be output.
  • a processing device, an image pickup device, a client device, or a mobile device that performs quality determination may output quality information.
  • the quality information may include visual, auditory and / or tactile information.
  • the quality information may be provided to the user through the above-described user interface.
  • diagnostic assistance information based on the corresponding fundus image may be output.
  • the quality judgment of the captured fundus image determines that the fundus image is an abnormal image (or when it is determined to include an artifact)
  • the quality information of the fundus image is recognized so that the user can recognize the quality information of the image. May be output.
  • the output quality information may include the type, location, and degree of artifacts included in the fundus image. Diagnostic assistance information based on the fundus image may be provided along with the quality information. In addition to the quality information, a guide recommending a retake may be output. The reshooting guide may be output along with the indication information.
  • the indication information determined in consideration of the result of the quality determination of the image may be output.
  • the indication information may include instructions for improving the quality of the fundus image.
  • the instruction information may include instructions for causing the eyeball component to be included on the screen.
  • the indication information may include instructions that cause the eye component to align in the reference direction.
  • the indication information may include instructions for causing the ROI to be included in the imaging area.
  • the indication information may include instructions for allowing the region of interest to be included in an appropriate position of the captured image, instructions for not including an artifact in the region of interest, or instructions for improving the quality of the region of interest.
  • the instruction information may include instructions regarding focus, shutter speed, aperture control, sensitivity control, artificial light control, and the like.
  • the instruction information may be provided in the form of a processing instruction that can be interpreted by the imaging apparatus.
  • the imaging apparatus can change the imaging condition based on the instruction information.
  • the imaging device performs quality determination (for example, in the case of a portable fundus imaging device or a smartphone-mounted imaging device)
  • the control unit of the imaging device generates instruction information based on the quality determination
  • the imaging condition can be changed based on this. For example, the amount of light, focus, shooting direction, and the like can be changed.
  • the indication information may be output as visual, auditory and / or tactile information.
  • the instruction information may be output from the diagnostic apparatus or the imaging apparatus. For example, when quality information indicating that bright artifacts are generated in the vicinity of the standing side of the fundus is acquired, instruction information indicating to move the photographing lens in the direction of the standing side may be output.
  • the visual indication information may be superimposed on the fundus image displayed on the display unit.
  • the indication information may be provided differently when the subject and the examiner exist and when the subject photographs the fundus by themselves.
  • the indication information may indicate the opposite direction when the subject and the inspector are present and when the subject photographs the fundus.
  • the instruction information based on the position of the inspector may be output, and when the subject photographs himself, the instruction information based on the position of the subject may be output.
  • the indication information may be provided as tactile or auditory information.
  • the visual indication information may be output so as to be displayed in the field of view of the eye to be picked up.
  • the controller may reduce the amount of light incident on the fundus during imaging and output instruction information in the direction of the eye to be imaged.
  • the instruction information can instruct a setting condition change of the imaging device.
  • the indication information may include a notification for requesting approval for changing a setting condition of the imaging apparatus. Notifications requesting approval may be provided visually or audibly.
  • the imaging apparatus or the diagnostic apparatus may obtain a user approval generated in response to the notification requesting the approval, and change the setting condition.
  • quality information may be output even when photographing a fundus image or a continuous image.
  • the processing device, the image pickup device, the client device, or the mobile device may output the quality information obtained from the fundus image.
  • the indication information generated in consideration of the quality information may be output.
  • the fundus image capturing apparatus may configure a fundus image by continuously photographing the fundus image.
  • the processing apparatus for determining the quality of the fundus image may acquire quality information for each acquired fundus image frame.
  • the processing apparatus may output the instruction information indicating the end of photographing when the fundus image of appropriate quality is obtained based on the obtained quality information.
  • the processing apparatus may output the indication information indicating that an appropriate fundus image can be obtained based on the obtained quality information.
  • the indication information may be provided together during the capturing of the fundus image. In other words, the indication information may be provided in real time.
  • the controller outputs first indication information obtained as a result of the first quality determination on the first fundus image corresponding to the first frame before a specific time point, and includes a first frame corresponding to the second frame obtained in response to the output of the first indication information.
  • the second quality determination may be performed on the two fundus images, and the second indication information may be output.
  • the controller increases the amount of light, adjusts the distance to the fundus, or the direction of incidence of the light, as a result of performing a first quality determination on the first fundus image corresponding to the first frame. You can output the command information.
  • a region of interest may be determined differently according to the disease.
  • the disease in the case of diagnosing a disease using the fundus image, there may be a case in which the disease is diagnosed based on the entire area of the fundus or a case of diagnosing the disease based on information obtained from a part of the fundus image. .
  • criteria for determining the quality of an image according to a target disease may be set differently.
  • quality criteria for determining the suitability of an image may vary according to a target disease.
  • the area to be considered when determining the quality of the fundus image may be determined differently according to the target disease. Specifically, since the region of interest at the time of diagnosis may be different according to the target disease, regions other than the region of interest of diagnosis may be excluded from the target region.
  • a quality condition determined when determining the quality of the fundus image may be differently determined according to a target disease.
  • whether to detect a pixel, a range of pixel values of the detected pixel, and the like may be determined according to the target disease.
  • Target diseases may include eye diseases, chronic diseases, systemic diseases, ophthalmic lesions, ophthalmic findings, and the like described throughout this specification.
  • a target disease may be a first type disease that can be diagnosed based on an ocular fundus image containing any artifact, a second type disease that is difficult to diagnose based on an ocular fundus image that includes any artifact, and a fundus containing a specific type of artifact. Based on the image, it can be considered to be divided into a third type of disease that is difficult to diagnose.
  • the first quality criterion for determining suitability of the fundus image for a type 1 disease is the second quality criterion and / or criterion for determining suitability of the fundus image for a second type disease is fundus image for a third type disease. It may include a more relaxed criterion than the third quality criterion for determining the suitability of a.
  • the fundus image may be determined as a bad image.
  • the quality judgment of the fundus image related to the artifact detection may be omitted.
  • the suitability of the fundus image may be determined by performing a quality criterion determination including determining whether there is a target artifact that affects the diagnosis of the target disease, that is, whether there is a target artifact corresponding to the target disease. have.
  • the suitability of the fundus image is determined by performing a quality criterion including a quality judgment on a target area of the fundus image used for diagnosis of the target disease, that is, a target area corresponding to the target disease. Can be judged.
  • artifacts occurring in the fundus image can be thought of as being divided into several types.
  • an artifact may be a first type artifact that makes it difficult to diagnose all diseases based on the fundus image, a second type artifact that does not interfere with the diagnosis of a disease based on the fundus image, an agent that interferes with the diagnosis of a specific disease group based on the fundus image.
  • the fundus image from which the first type artifact is detected may be determined as a bad image. Determination for the second type artifact may be omitted. Even if the second type artifact is detected, a target operation based on the fundus image, such as a diagnostic process, may be performed. However, the occurrence of the second type artifact may be notified to the user.
  • the target operation based on the fundus image may not be performed.
  • a target operation based on the fundus image may be performed. In this case, the occurrence of the third type artifact may be notified to the user.
  • the suitability of the fundus image according to the disease is mainly considered in consideration of the correspondence relationship between the artifact and the disease, the correspondence relationship between the specific region and the disease, and the correspondence relationship between the specific artifact and the region, based on the third type disease and the third type artifact. It will be described how to judge. Diseases and artifacts, diseases and domains, or artifacts and domains may have a one-to-one correspondence.
  • the correspondence between disease and artifact, disease and territory, or artifact and territory may be a many-to-one or one-to-many response.
  • the first disease may correspond to the first artifact and / or the second artifact.
  • the first disease may correspond to the first region and / or the second region.
  • the first artifact may correspond to the first region and / or the second region.
  • the first artifact may correspond to the first disease and / or the second disease.
  • the first region may correspond to the first artifact and / or the second artifact.
  • the first region may correspond to the first disease and / or the second disease.
  • FIG. 50 is a diagram illustrating a method for diagnosing lesions.
  • FIG. 50 illustrates the areas considered for the diagnosis, for various findings, lesions or diseases that can be diagnosed from the fundus image.
  • hemorrhage may be diagnosed based on the fundus image. For example, as shown in (a), bleeding L1 can be detected from any position throughout the fundus region.
  • a drusen may be diagnosed based on the fundus image.
  • drusen (L2) can be found from any position throughout the fundus region.
  • a glaucomatous disc change may be diagnosed based on the fundus image.
  • glaucoma finding (L3) can be detected from the optic nerve papilla of the fundus image.
  • macular holes may be diagnosed based on the fundus image.
  • macular puncture finding L4 can be found from the macular portion of the fundus image.
  • the macular epiretinal membrane may be diagnosed from the fundus image.
  • macular epithelial findings (L5) can be found near the macula of the fundus image.
  • Yellow foil epithelium findings can be found from the macula of the fundus image.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명은 안저 이미지의 품질을 판단하는 방법에 있어서, 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 단계, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 단계 및 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 안저 이미지의 품질 정보를 획득하는 단계를 포함하는 안저 이미지의 품질 판단 방법에 관한 것이다.

Description

안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법
본 발명은 안저 이미지의 품질 판단 방법 및 이를 수행하는 안저 이미지 관리 장치에 관한 것으로서, 안저 이미지의 영역 또는 아티팩트를 고려하여 품질을 판단하기 위한 안저 이미지의 품질 판단 방법 및 이를 수행하는 안저 이미지 관리 장치에 관한 것이다.
안저 검사는 망막, 시신경 및 황반부의 이상을 관찰할 수 있으며 비교적 간단하게 촬영을 통하여 결과를 확인할 수 있어 안과에서 빈번하게 활용되는 진단 보조 자료이다. 최근에는 안저 검사를 통하여 안질환 뿐 아니라 고혈압, 당뇨 등의 만성 질환에 의한 혈관 손상 정도를 비침습적 방법으로 관찰할 수 있다는 점에서 더욱 그 쓰임새가 늘어나고 있는 추세이다.
한편, 근래의 딥러닝 기술의 도약적인 발전에 의해, 의료 진단 분야, 특히 이미지 기반의 진단 분야에서 진단 인공지능의 개발이 활발하게 이루어지고 있다. 구글, IBM 등의 글로벌 기업들에서도 의료계와의 협업으로 대규모 데이터를 투입하는 등, 다양한 영상 의료 데이터 분석을 위한 인공지능 개발에 투자를 아끼지 않고 있으며, 일부 기업에서는 우수한 진단 결과를 출력하는 인공지능 진단 툴 개발에 성공하기도 하였다.
다만, 안저 이미지를 이용하여 인공 지능 모델을 학습하거나, 인공 지능 모델을 이용하여 안저 이미지에 기초한 진단을 수행하는 경우에, 안저 이미지에 흠결이 포함되어 있는 경우 정확한 학습 결과 또는 진단 결과를 기대하기 어렵다는 문제가 있다. 이에, 안저 이미지의 품질을 판단하기 위한 방법 등의 필요성이 대두된다.
본 발명의 일 과제는, 안저 이미지의 품질을 판단하는 방법을 제공하는 것이다.
본 발명의 다른 일 과제는 안저 이미지의 품질을 판단하는 장치를 제공하는 것이다.
본 발명의 또 다른 일 과제는 흠결을 가지는 안저 이미지를 구분하기 위한 안저 이미지의 품질 판단 방법 또는 안저 이미지의 품질을 판단하는 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 양태에 따르면, 피검체의 안저를 촬영한 안저 이미지로부터 아티팩트를 검출하여 안저 이미지의 품질을 판단하는 방법에 있어서, 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 단계, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 단계 및 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 안저 이미지의 품질 정보를 획득하는 단계를 포함하는 안저 이미지의 품질 판단 방법이 제공될 수 있다.
본 발명의 다른 일 양태에 따르면, 피검체의 안저를 촬영한 안저 이미지로부터 아티팩트를 검출하여 안저 이미지의 품질을 판단하는 방법에 있어서, 안저 이미지의 적어도 일부 영역을 아티팩트를 검출하기 위한 대상 영역으로 결정하는 단계 및 대상 영역으로부터 아티팩트와 대응되는 적어도 하나의 아티팩트 픽셀을 검출하는 단계를 포함하되, 아티팩트가 제1 아티팩트인 경우 대상 영역은 안저 이미지 중 안저에 대응되는 영역의 중심으로부터 소정 거리 이격된 영역인 제1 영역으로 결정되는 안저 이미지의 품질 판단 방법이 제공될 수 있다.
본 발명의 또 다른 일 양태에 따르면, 안저를 촬영한 안저 이미지로부터 아티팩트를 검출하여 안저 이미지의 품질을 관리하는 안저 이미지 관리 장치에 있어서, 안저 이미지를 획득하는 안저 이미지 획득부 및 안저 이미지의 대상 영역으로부터 제1 픽셀을 검출하고, 제1 픽셀의 수를 고려하여 안저 이미지의 품질을 판단하는 품질 판단부를 포함하되, 품질 판단부는, 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 제1 픽셀 검출부, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 비교부 및 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 안저 이미지의 품질 정보를 획득하는 품질 정보 획득부를 포함하는 안저 이미지 관리 장치가 제공될 수 있다.
본 발명의 또 다른 일 양태에 따르면, 안저를 촬영한 안저 이미지로부터 아티팩트를 검출하여 안저 이미지의 품질을 판단하는 안저 이미지 관리 장치에 있어서, 안저 이미지를 획득하는 안저 이미지 획득부 및 안저 이미지의 대상 영역으로부터 적어도 하나의 아티팩트 픽셀을 검출하고, 아티팩트 픽셀을 고려하여 안저 이미지의 품질을 판단하는 품질 판단부를 포함하되, 품질 판단부는 안저 이미지의 적어도 일부 영역을 아티팩트를 검출하기 위한 대상 영역으로 결정하는 대상 영역 결정부 및 대상 영역으로부터 아티팩트와 대응되는 적어도 하나의 아티팩트 픽셀을 검출하는 아티팩트 픽셀 검출부를 포함하되, 품질 판단부는 아티팩트가 제1 아티팩트인 경우 대상 영역은 안저 이미지 중 안저에 대응되는 영역의 중심으로부터 소정 거리 이격된 영역인 제1 영역으로 결정하고, 아티팩트가 제2 아티팩트인 경우 대상 영역은 안저 이미지 중 상기 안저가 분포하는 영역인 안저 영역으로 결정하는 안저 이미지 관리 장치가 제공될 수 있다.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 의하면, 안저 이미지의 품질 판단이 신속하게 이루어질 수 있다.
본 발명에 의하면, 안저 이미지 학습 데이터로부터 저품질 안저 이미지를 효과적으로 걸러내어, 보다 정확한 신경망 모델이 얻어질 수 있다.
본 발명에 의하면, 불량 이미지에 기초한 진단이 방지되고, 진단 결과의 정확도가 향상될 수 있다.
본 발명에 의하면, 대상 병변을 고려하여 결정된 품질 판단 프로세스를 적용함으로써 다양한 병변을 대상으로 하는 경우에도 정확한 품질 판단 결과가 얻어질 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 진단 보조 시스템을 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 학습 장치를 설명하기 위한 블럭도이다.
도 3은 본 발명의 다른 일 실시예에 따른 학습 장치를 보다 구체적으로 설명하기 위한 블럭도이다.
도 4는 본 발명의 일 실시예에 따른 진단 장치를 설명하기 위한 블럭도이다.
도 5는 본 발명의 다른 일 실시예에 따른 진단 장치를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 진단 보조 시스템을 도시한 것이다.
도 7은 본 발명의 일 실시예에 따른 클라이언트 장치를 설명하기 위한 블록도이다.
도 8은 본 발명의 일 실시예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 학습부의 구성을 설명하기 위한 도면이다.
도 10는 본 발명의 일 실시예에 따른 이미지 데이터 세트를 설명하기 위한 개념도이다.
도 11은 본 발명의 일 실시예에 따른 이미지 리사이징을 설명하기 위한 도면이다.
도 12은 본 발명의 일 실시예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다.
도 13는 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블럭도이다.
도 14은 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블럭도이다.
도 15는 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 17은 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 18은 본 발명의 일 실시예에 따른 진단부의 구성을 설명하기 위한 도면이다.
도 19는 본 발명의 일 예에 따른 진단 대상 데이터를 설명하기 위한 도면이다.
도 20은 본 발명의 일 실시예에 따른 진단 프로세스를 설명하기 위한 도면이다.
도 21은 본 발명의 몇몇 실시예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 22는 본 발명의 몇몇 실시예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다.
도 23은 본 발명의 일 실시예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다.
도 24는 본 발명의 일 실시예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 25는 본 발명의 다른 일 실시예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다.
도 26은 본 발명의 일 실시예에 따른 진단부를 설명하기 위한 블록도이다.
도 27은 본 발명의 일 실시예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 28은 본 발명의 일 실시예에 따른 진단 보조 시스템을 설명하기 위한 도면이다.
도 29는 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 30은 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 31은 본 발명의 일 실시예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다.
도 32는 본 발명의 일 실시예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다.
도 33은 본 발명의 일 실시예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다.
도 34는 본 발명의 일 실시예에 따른 장치를 설명하기 위한 도면이다.
도 35는 본 발명의 일 실시예에 따른 장치를 설명하기 위한 도면이다.
도 36은 안저 이미지에 발생할 수 있는 이상의 몇몇 예를 도시한 것이다.
도 37은 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법을 설명하기 위한 흐름도이다.
도 38은 본 발명의 일 실시예에 따른 그래픽 사용자 인터페이스를 설명하기 위한 도면이다.
도 39는 본 발명의 일 실시예에 따른 이미지의 품질 판단을 설명하기 위한 흐름도이다.
도 40은 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법을 설명하기 위한 흐름도이다.
도 41은 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법을 설명하기 위한 흐름도이다.
도 42는 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법을 설명하기 위한 흐름도이다.
도 43은 본 발명의 일 실시예에 따른 이미지 품질 판단 방법을 설명하기 위한 도면이다.
도 44는 본 발명의 일 실시예에 따른 이미지 품질 판단 방법을 설명하기 위한 도면이다.
도 45는 본 발명의 일 실시예에 따른 이미지 품질 판단 방법을 설명하기 위한 도면이다.
도 46은 본 발명의 일 실시예에 따른 이미지 품질 판단 방법을 설명하기 위한 도면이다.
도 47은 본 발명의 일 실시예에 따른 복수의 안저 이미지를 설명하기 위한 도면이다.
도 48은 본 발명의 일 실시예에 따른 대상 이미지 선택을 설명하기 위한 도면이다.
도 49는 본 발명의 일 실시예에 따른 대상 이미지 생성을 설명하기 위한 도면이다.
도 50은 본 발명의 몇몇 실시예에 따른 병변 별 진단 방법을 설명하기 위한 도면이다.
도 51은 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
도 52는 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
도 53은 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
도 54는 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
도 55는 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
도 56은 본 발명의 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
도 57은 본 발명의 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
도 58은 본 발명의 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장된 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조 부호를 사용하여 설명한다.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별 기호에 불과하다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함 만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
1. 안저 이미지를 이용한 진단 보조
1.1 진단 보조 시스템 및 프로세스
1.1.1 목적 및 정의
이하에서는, 안저 이미지에 기초하여 질병 또는 질환의 유무 또는 그 판단의 근거가 되는 이상 여부 등의 판단을 보조하기 위한 진단 보조 시스템 및 방법 등에 대하여 설명한다. 특히, 딥러닝 기법을 이용하여 질환을 진단하기 위한 신경망 모델을 구축하고, 구축된 모델을 이용하여 질환 유무 또는 이상 소견의 검출을 보조하는 진단 보조 시스템 또는 방법에 대하여 설명한다.
본 발명의 일 실시예에 따르면, 안저 이미지에 기초하여 질병의 유무와 관련된 진단 정보 또는 질병 유무의 진단에 이용되는 소견 정보 등을 획득하고, 이를 이용하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
본 발명의 일 실시예에 의하면, 안저 이미지에 기초하여 안질환의 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 검사 대상자의 녹내장, 백내장, 황반 변성, 미숙아 망막증의 유무와 관련된 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
본 발명의 다른 일 실시예에 의하면, 안질환이 아닌 타 질환(예컨대, 전신 질환 또는 만성 질환)의 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 고혈압, 당뇨병, 알츠하이머, 거대 세포 바이러스, 뇌졸중, 심장 질환, 동맥 경화증 등의 전신 질환의 진단 정보를 획득하여 진단을 보조하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
본 발명의 또 다른 일 실시예에 의하면, 안질환 또는 타 질환의 진단에 이용될 수 있는 이상 안저 소견을 검출하기 위한 진단 보조 시스템 또는 방법이 제공될 수 있다. 예를 들어, 안저 전반의 색상 이상, 수정체 혼탁(Opacity), 시신경 유두의 비율(C/D ratio; cup to disc ratio)의 이상, 황반 이상(예를 들어, 황반 원공), 혈관의 직경, 주행 등의 이상, 망막 동맥의 직경 이상, 망막의 출혈, 삼출물의 발생, 드루젠(drusen) 등의 소견 정보를 획득하는 진단 보조 시스템 또는 방법이 제공될 수 있다.
본 명세서에서, 진단 보조 정보라 함은, 질환 유무의 판단에 따른 진단 정보 또는 그 기초가 되는 소견 정보 등을 포괄하는 것으로 이해될 수 있다.
1.1.2 진단 보조 시스템 구성
본 발명의 일 실시예에 따르면, 진단 보조 시스템이 제공될 수 있다.
도 1은 본 발명의 일 실시예에 따른 진단 보조 시스템(10)을 도시한 것이다. 도 1을 참조하면, 진단 보조 시스템(10)은 진단 모델을 트레이닝하는 학습 장치(1000), 진단 모델을 이용하여 진단을 수행하는 진단 장치(2000) 및 진단 요청을 획득하는 클라이언트 장치(3000)를 포함할 수 있다. 진단 보조 시스템(10)은 복수의 학습 장치, 복수의 진단 장치 또는 복수의 클라이언트 장치를 포함할 수 있다.
학습 장치(1000)는 학습부(100)를 포함할 수 있다. 학습부(100)는 신경망 모델의 트레이닝을 수행할 수 있다. 일 예로, 학습부(100)는 안저 이미지 데이터 세트를 획득하고, 안저 이미지로부터 질환 또는 이상 소견을 검출하는 신경망 모델의 트레이닝을 수행할 수 있다.
진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단부(200)는 신경망 모델을 이용하여 질환의 진단 또는 진단에 이용되는 보조 정보의 획득을 수행할 수 있다. 일 예로, 진단부(200)는 학습부에 의하여 트레이닝된 진단 모델을 이용하여 진단 보조 정보의 획득을 수행할 수 있다.
클라이언트 장치(3000)는 촬상부(300)를 포함할 수 있다. 촬상부(300)는 안저 이미지를 촬상할 수 있다. 클라이언트 장치는 안과용 안저 촬영 장치일 수 있다. 또는, 클라이언트 장치(3000)는 스마트폰, 태블릿 PC 등의 휴대용(handheld) 디바이스일 수 있다.
본 실시예에 따른 진단 보조 시스템(10)에서, 학습 장치(1000)는 데이터 세트를 획득하여 신경망 모델의 학습을 수행함으로써 진단 보조에 이용하기 위한 신경망 모델을 결정하고, 진단 장치는 클라이언트로부터 정보 요청이 획득되면 결정된 신경망 모델을 이용하여 진단 대상 이미지에 따른 진단 보조 정보를 획득하고, 클라이언트 장치는 진단 장치로 정보를 요청하고 이에 응답하여 전송된 진단 보조 정보를 획득할 수 있다.
다른 일 실시예에 따른 진단 보조 시스템은, 진단 모델의 학습 및 이를 이용한 진단을 수행하는 진단 장치 및 클라이언트 장치를 포함할 수 있다. 또 다른 일 실시예에 따른 진단 보조 시스템은, 진단 모델의 학습, 진단 요청의 획득 및 진단을 수행하는 진단 장치를 포함할 수 있다. 또 다른 일 실시예에 따른 진단 보조 시스템은, 진단 모델의 학습을 수행하는 학습 장치 및 진단 요청을 획득하고 진단을 수행하는 진단 장치를 포함할 수 있다.
본 명세서에서 개시하는 진단 보조 시스템이 위에서 설명한 실시 예들에 한정되는 것은 아니고, 모델의 학습을 수행하는 학습부, 학습된 모델에 따라 진단 보조 정보를 획득하는 진단부 및 진단 대상 이미지를 획득하는 촬상부를 포함하는 어떠한 형태로든 구현될 수 있다.
이하에서는, 시스템을 구성하는 각 장치의 몇몇 실시예에 대하여 설명한다.
1.1.2.1 학습 장치
본 발명의 일 실시예에 따른 학습 장치는 진단을 보조하는 신경망 모델의 트레이닝을 수행할 수 있다.
도 2는 본 발명의 일 실시예에 따른 학습 장치(1000)를 설명하기 위한 블럭도이다. 도 2를 참조하면, 학습 장치(1000)는 제어부(1200) 및 메모리부(1100)를 포함할 수 있다.
학습 장치(1000)는 제어부(1200)를 포함할 수 있다. 제어부(1200)는 학습 장치(1000)의 동작을 제어할 수 있다.
제어부(1200)는 CPU(Central Processing Unit), RAM(Random Access Memory), GPU(Graphic Processing Unit), 하나 이상의 마이크로 프로세서 및 기타 미리 정해진 논리에 따라 입력된 데이터를 처리할 수 있는 전자 부품 중 하나 이상을 포함할 수 있다.
제어부(1200)는 메모리부(1100)에 저장된 시스템 프로그램 및 다양한 프로세싱 프로그램을 판독할 수 있다. 일 예로, 제어부(1200)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스, 진단 프로세스 등을 RAM상에 전개하고, 전개된 프로그램에 따라 각종 처리를 수행할 수 있다. 제어부(1200)는 후술하는 신경망 모델의 학습을 수행할 수 있다.
학습 장치(1000)는 메모리부(1100)를 포함할 수 있다. 메모리부(1100)는 학습에 필요한 데이터 및 학습 모델을 저장할 수 있다.
메모리부(1100)는 비휘발성 반도체 메모리, 하드 디스크, 플래시 메모리, RAM, ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 또는 그 외에 유형의(tangible) 비휘발성의 기록 매체 등으로 구현될 수 있다.
메모리부(1100)는 각종 프로세싱 프로그램, 프로그램의 프로세싱을 수행하기 위한 파라미터 또는 이러한 프로세싱 결과 데이터 등을 저장할 수 있다. 일 예로, 메모리부(1100)는 후술하는 진단 보조의 수행을 위한 데이터 가공 프로세스 프로그램, 진단 프로세스 프로그램, 각 프로그램의 수행을 위한 파라미터 및 이러한 프로그램의 수행에 따라 얻어진 데이터(예컨대, 가공된 데이터 또는 진단 결과값) 등을 저장할 수 있다.
학습 장치(1000)는 별도의 학습부(또는 학습 모듈)를 포함할 수 있다. 학습부는 신경망 모델의 학습을 수행할 수 있다. 학습의 수행과 관련하여서는 이하의 목차 2. 학습 프로세스 에서 보다 상세히 설명하기로 한다.
학습부는 전술한 제어부(1200)에 포함될 수 있다. 학습부는 전술한 메모리부(1100)에 저장될 수 있다. 학습부는 전술한 제어부(1200) 및 메모리부(1100)의 일부 구성에 의하여 구현될 수 있다. 예컨대, 학습부는 메모리부(1100)에 저장되고, 제어부(1200)에 의하여 구동될 수 있다.
학습 장치(1000)는 통신부(1300)를 더 포함할 수 있다. 통신부(1300)는 외부 장치와 통신을 수행할 수 있다. 예컨대, 통신부(1300)는 후술하는 진단 장치, 서버 장치 또는 클라이언트 장치와 통신할 수 있다. 통신부(1300)는 유선 또는 무선 통신을 수행할 수 있다. 통신부(1300)는 양방향(bi-directional) 또는 단방향 통신을 수행할 수 있다.
도 3은 본 발명의 다른 일 실시예에 따른 학습 장치(1000)를 보다 구체적으로 설명하기 위한 블럭도이다. 도 3을 참조하면, 학습 장치(1000)는 프로세서(1050), 휘발성 메모리(1010), 비휘발성 메모리(1030), 대용량 저장 장치(1070) 및 통신 인터페이스(1090)를 포함할 수 있다.
학습 장치(1000)의 프로세서(1050)는 데이터 가공 모듈(1051) 및 학습 모듈(1053)을 포함할 수 있다. 프로세서(1050)는 데이터 가공 모듈(1051)을 통하여 대용량 저장 장치 또는 비휘발성 메모리에 저장된 데이터 세트를 가공할 수 있다. 프로세서(1050)는 학습 모듈(1053)을 통하여, 진단 보조 신경망 모델의 트레이닝을 수행할 수 있다. 프로세서(1050)는 로컬 메모리를 포함할 수 있다. 통신 인터페이스(1090)는 네트워크(1110)와 연결될 수 있다.
다만 도 3에서 도시하는 학습 장치(1000)는, 예시에 불과하며, 본 발명에 따른 학습 장치(1000)의 구성이 이에 한정되지는 아니한다. 특히, 데이터 가공 모듈 또는 학습 모듈은 도 3에서 도시하는 것과 다른 위치에 마련될 수 있다.
1.1.2.2 진단 장치
진단 장치는 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.
도 4는 본 발명의 일 실시예에 따른 진단 장치(2000)를 설명하기 위한 블럭도이다. 도 4를 참조하면, 진단 장치(2000)는 제어부(2200) 및 메모리부(2100)를 포함할 수 있다.
제어부(2200)는 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 생성할 수 있다. 제어부(2200)는 진단을 위한 진단 데이터(예컨대, 피검자의 안저 데이터)를 획득하고 학습된 진단 보조 신경망 모델을 이용하여 진단 데이터에 의해 예측되는 진단 보조 정보를 획득할 수 있다.
메모리부(2100)는 학습된 진단 보조 신경망 모델을 저장할 수 있다. 메모리부(2100)는 진단 보조 신경망 모델의 파라미터, 변수 등을 저장할 수 있다.
진단 장치(2000)는 통신부(2300)를 더 포함할 수 있다. 통신부(2300)는 학습 장치 및/또는 클라이언트 장치와 통신할 수 있다. 일 예로, 진단 장치(2000)는 클라이언트 장치와 통신하는 서버 형태로 마련될 수 있다. 이와 관련하여, 이하에서 보다 상세히 설명한다.
도 5는 본 발명의 다른 일 실시예에 따른 진단 장치(2000)를 설명하기 위한 도면이다. 도 5를 참조하면, 본 발명의 일 실시예에 따른 진단 장치(2000)는 프로세서(2050), 휘발성 메모리(2030), 비휘발성 메모리(2010), 대용량 저장 장치(2070) 및 통신 인터페이스(2090)를 포함할 수 있다.
진단 장치의 프로세서(2050)는 데이터 가공 모듈(2051) 및 진단 모듈(2053)을 포함할 수 있다. 프로세서(2050)는 데이터 가공 모듈(2051)을 통하여 진단 데이터의 가공을 수행하고, 진단 모듈(2053)을 통하여 진단 데이터에 따른 진단 보조 정보를 획득할 수 있다.
1.1.2.3 서버 장치
본 발명의 일 실시예에 따르면, 진단 보조 시스템은 서버 장치를 포함할 수 있다. 본 발명의 일 실시예에 따른 진단 보조 시스템은, 복수의 서버 장치를 포함할 수도 있다.
서버 장치는 신경망 모델을 저장 및/또는 구동할 수 있다. 서버 장치는 학습된 신경망 모델을 구성하는 가중치 값들을 저장할 수 있다. 서버 장치는 진단 보조에 이용되는 데이터를 수집 또는 저장할 수 있다.
서버 장치는 신경망 모델을 이용한 진단 보조 프로세스의 결과를 클라이언트 장치로 출력할 수 있다. 서버 장치는 클라이언트 장치로부터 피드백을 획득할 수 있다. 서버 장치는 전술한 진단 장치와 유사하게 동작할 수 있다.
도 6은 본 발명의 일 실시예에 따른 진단 보조 시스템(20)을 도시한 것이다. 도 6를 참조하면, 본 발명의 일 실시예에 따른 진단 보조 시스템(20)은 진단 서버(4000), 학습 장치 및 클라이언트 장치를 포함할 수 있다.
진단 서버(4000), 즉, 서버 장치는 복수의 학습 장치 또는 복수의 진단 장치와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 학습 장치(1000a) 및 제2 학습 장치(1000b)와 통신할 수 있다. 도 6을 참조하면, 진단 서버(4000)는 제1 클라이언트 장치(3000a) 및 제2 클라이언트 장치(3000b)와 통신할 수 있다.
예컨대, 진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델을 학습시키는 제1 학습 장치(1000a) 및 제2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 학습시키는 제2 학습 장치(1000b)와 통신할 수 있다.
진단 서버(4000)는 제1 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델 및 2 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델을 저장하고, 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로부터의 진단 보조 정보 획득 요청에 응답하여 진단 보조 정보를 획득하고, 획득된 진단 보조 정보를 제1 클라이언트 장치(3000a) 또는 제2 클라이언트 장치(3000b)로 전송할 수 있다.
또는, 진단 서버(4000)는 제1 진단 보조 정보를 요청하는 제1 클라이언트 장치(3000a) 및 제2 진단 보조 정보를 요청하는 제2 클라이언트 장치(3000b)와 통신할 수도 있다.
1.1.2.4 클라이언트 장치
클라이언트 장치는 진단 장치 또는 서버 장치로 진단 보조 정보를 요청할 수 있다. 클라이언트 장치는 진단에 필요한 데이터를 획득하고, 진단 장치로 획득한 획득한 데이터를 전송할 수 있다.
클라이언트 장치는 데이터 획득부를 포함할 수 있다. 데이터 획득부는 진단 보조에 필요한 데이터를 획득할 수 있다. 데이터 획득부는 진단 보조 모델에 이용되는 이미지를 획득하는 촬상부일 수 있다.
도 7은 본 발명의 일 실시예에 따른 클라이언트 장치(3000)를 설명하기 위한 블록도이다. 도 7을 참조하면, 본 발명의 일 실시예에 따른 클라이언트 장치(3000)는 촬상부(3100), 제어부(3200) 및 통신부(3300)를 포함할 수 있다.
촬상부(3100)는 이미지 또는 영상 데이터를 획득할 수 있다. 촬상부(3100)는 안저 이미지를 획득할 수 있다. 다만, 클라이언트 장치(3000)는 촬상부(3100)가 아닌 다른 형태의 데이터 획득부로 대체될 수도 있다.
통신부(3300)는 외부 장치, 예컨대 진단 장치 또는 서버 장치와 통신할 수 있다. 통신부(3300)는 유선 또는 무선 통신을 수행할 수 있다.
제어부(3200)는 촬상부(3100)가 이미지 또는 데이터를 획득하도록 제어할 수 있다. 제어부(3200)는 촬상부(3100)가 안저 이미지를 획득하도록 제어할 수 있다. 제어부(3200)는 획득된 안저 이미지를 진단 장치로 전송할 수 있다. 제어부는 촬상부(3100)를 통하여 획득한 이미지를 통신부(3300)를 통하여 서버 장치로 전송하고, 이에 기초하여 생성된 진단 보조 정보를 획득할 수 있다.
도시하지는 아니하였으나, 클라이언트 장치는 출력부를 더 포함할 수 있다. 출력부는 영상 또는 이미지를 출력하는 디스플레이 또는 음성을 출력하는 스피커를 포함할 수 있다. 출력부는 획득된 촬상부에 의해 획득된 영상 또는 이미지 데이터를 출력할 수 있다. 출력부는 진단 장치로부터 획득된 진단 보조 정보를 출력할 수 있다.
도시하지는 아니하였으나, 클라이언트 장치는 입력부를 더 포함할 수 있다. 입력부는 사용자 입력을 획득할 수 있다. 예컨대, 입력부는 진단 보조 정보를 요청하는 사용자 입력을 획득할 수 있다. 입력부는 진단 장치로부터 획득된 진단 보조 정보를 평가하는 사용자 정보를 획득할 수 있다.
또한, 도시하지는 아니하였으나, 클라이언트 장치는 메모리부를 더 포함할 수 있다. 메모리부는 촬상부에 의해 획득된 이미지를 저장할 수 있다.
1.1.3 진단 보조 프로세스 개요
본 명세서에서 개시하는 진단 보조 시스템 또는 진단 보조 장치에 의하여 진단 보조 프로세스가 수행될 수 있다. 진단 보조 프로세스는 크게 진단 보조에 이용되는 진단 보조 모델을 학습하는 트레이닝 프로세스, 진단 보조 모델을 이용하는 진단 프로세스로 나누어 고려될 수 있다.
도 8은 본 발명의 일 실시예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다. 도 8을 참조하면, 본 발명의 일 실시예에 따른 진단 보조 프로세스는, 데이터를 획득하고, 가공하여(S110) 신경망 모델을 학습하고(S130), 학습된 신경망 모델의 변수를 획득(S150)하는 학습 프로세스 및 진단 대상 데이터를 획득하고(S210) 진단 대상 데이터에 기초하여 학습된 신경망 모델(S230)을 이용하여 진단 보조 정보를 획득(S250)하는 진단 보조 프로세스를 포함할 수 있다.
보다 구체적으로, 트레이닝 프로세스는 입력된 학습 이미지 데이터를 가공하여 모델의 트레이닝에 이용될 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 모델을 트레이닝하는 학습 프로세스를 포함할 수 있다. 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.
진단 프로세스는 입력된 검사 대상 이미지 데이터를 가공하여 신경망 모델을 이용한 진단을 수행할 수 있는 상태로 가공하는 데이터 가공 프로세스 및 가공된 데이터를 이용하여 진단을 수행하는 진단 프로세스를 포함할 수 있다. 진단 프로세스는 전술한 진단 장치 또는 서버 장치에 의하여 수행될 수 있다.
이하에서는, 각 프로세스에 대하여 설명한다.
1.2 트레이닝 프로세스
본 발명의 일 실시예에 따르면, 신경망 모델을 트레이닝하는 프로세스가 제공될 수 있다. 구체적인 예로, 안저 이미지에 기초하여 진단을 수행하거나 보조하는 신경망 모델을 트레이닝하는 프로세스가 개시될 수 있다.
이하에서 설명하는 트레이닝 프로세스는 전술한 학습 장치에 의하여 수행될 수 있다.
1.2.1 학습부
본 발명의 일 실시예에 따르면, 트레이닝 프로세스는 학습부에 의해 수행될 수 있다. 학습부는 전술한 학습 장치 내에 마련될 수 있다.
도 9는 본 발명의 일 실시예에 따른 학습부(100)의 구성을 설명하기 위한 도면이다. 도 9를 참조하면, 학습부(100)는 데이터 가공 모듈(110), 큐 모듈(130), 학습 모듈(150) 및 학습 결과 획득 모듈(170)을 포함할 수 있다. 각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만 도 9에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적이지는 아니하며, 학습 형태에 따라, 일부 요소가 추가되거나 일부 요소들이 생략될 수 있다.
1.2.2 데이터 가공 프로세스
1.2.2.1 이미지 데이터 획득
본 발명의 일 실시예에 따르면, 데이터 세트가 획득될 수 있다. 본 발명의 일 실시예에 따르면, 데이터 가공 모듈은 데이터 세트를 획득할 수 있다.
데이터 세트는 이미지 데이터 세트일 수 있다. 구체적으로, 안저 이미지 데이터 세트일 수 있다. 안저 이미지 데이터 세트는 일반적인 무산동 안저 카메라 등을 이용하여 획득될 수 있다. 안저 이미지는 파노라마 이미지일 수 있다. 안저 이미지는 레드프리(Red-free) 이미지일 수 있다. 안저 이미지는 적외선 촬영된 이미지일 수 있다. 안저 이미지는 자가형광 촬영된 이미지일 수 있다. 이미지 데이터는 JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 형태로 획득될 수 있다.
데이터 세트는 트레이닝 데이터 세트를 포함할 수 있다. 데이터 세트는 테스트 데이터 세트를 포함할 수 있다. 데이터 세트는 검증(validation) 데이터 세트를 포함할 수 있다. 다시 말해, 데이터 세트는 트레이닝 데이터 세트, 테스트 데이터 세트 및 검증 데이터 세트 중 적어도 하나의 데이터 세트로 할당될 수 있다.
데이터 세트는 해당 데이터 세트를 통해 학습되는 신경망 모델을 이용하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다. 예컨대, 백내장과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 적외선 안저 이미지 데이터 세트로 결정될 수 있다. 또는, 황반 변성과 관련된 진단 보조 정보를 획득하는 신경망 모델을 학습시키고자 하는 경우, 획득되는 데이터 세트는 자가형광 촬영된 안저 이미지 데이터 세트일 수 있다.
데이터 세트에 포함되는 개별 데이터는 라벨을 포함할 수 있다. 라벨은 복수개일 수 있다. 다시 말해, 데이터 세트에 포함되는 개별 데이터는 적어도 하나의 특징에 대하여 라벨링되어 있을 수 있다. 일 예로, 데이터 세트는 복수의 안저 이미지 데이터를 포함하는 안저 이미지 데이터 세트이고, 각각의 안저 이미지 데이터는 해당 이미지에 따른 진단 정보 라벨(예컨대, 특정 질환의 유무) 및/또는 소견 정보(예컨대, 특정 부위의 이상 여부) 라벨을 포함할 수 있다.
다른 예로, 데이터 세트는 안저 이미지 데이터 세트이고 각각의 안저 이미지 데이터는 해당 이미지에 대한 주변 정보 라벨을 포함할 수 있다. 예컨대, 각각의 안저 이미지 데이터는 해당 안저 이미지가 좌안의 이미지인지 또는 우안의 이미지인지에 대한 좌우안 정보, 여성의 안저 이미지인지 또는 남성의 안저 이미지인지에 대한 성별 정보, 해당 안저 이미지를 촬영한 피검자의 나이에 대한 나이 정보 등을 포함하는 주변 정보 라벨을 포함할 수 있다.
도 10는 본 발명의 일 실시예에 따른 이미지 데이터 세트(DS)를 설명하기 위한 개념도이다. 도 10를 참조하면, 본 발명의 일 실시예에 따른 이미지 데이터 세트(DS)는 복수의 이미지 데이터(ID)를 포함할 수 있다. 각 이미지 데이터(ID)는 이미지(I) 및 이미지에 할당된 라벨(L)을 포함할 수 있다. 도 10을 참조하면, 이미지 데이터 세트(DS)는 제1 이미지 데이터(ID1) 및 제2 이미지 데이터(ID2)를 포함할 수 있다. 제1 이미지 데이터(ID1)은 제1 이미지(I1) 및 제1 이미지에 대응되는 제1 라벨(L1)을 포함할 수 있다.
도 10에서는 하나의 이미지 데이터가 하나의 라벨을 포함하는 경우를 기준으로 설명하였으나, 전술한 바와 같이 하나의 이미지 데이터는 복수의 라벨을 포함할 수 있다.
1.2.2.2 이미지 리사이징
본 발명의 일 실시예에 따르면, 획득된 이미지 데이터의 크기가 조정될 수 있다. 즉, 이미지들이 리사이징 될 수 있다. 본 발명의 일 실시예에 따르면, 전술한 학습부의 데이터 가공 모듈에 의하여 이미지 리사이징이 수행될 수 있다.
이미지의 크기 또는 종횡비가 조정될 수 있다. 획득된 복수의 이미지들은 일정한 크기를 가지도록 그 크기가 조정될 수 있다. 또는, 이미지들은 일정한 종횡비(aspect ratio)를 가지도록 그 크기가 조정될 수 있다. 이미지를 리사이징 하는 것은 이미지에 이미지 변환 필터를 적용하는 것일 수 있다.
획득된 개별 이미지들의 사이즈 또는 용량이 과도하게 크거나 작은 경우에, 이미지의 사이즈 또는 용량을 조정하여 적절한 사이즈로 변환할 수 있다. 또는 개별 이미지들의 사이즈 또는 용량이 다양한 경우에, 리사이징을 통하여 사이즈 또는 용량을 통일시킬 수 있다.
일 실시예에 따르면, 이미지의 용량이 조정될 수 있다. 예컨대, 이미지의 용량이 적정 범위를 초과하는 경우에, 다운샘플링(down sampling)을 통하여 이미지를 축소시킬 수 있다. 또는, 이미지의 용량이 적정 범위에 못 미치는 경우에, 업샘플링(upsampling) 또는 보간(interpolating)을 통하여 이미지를 확대할 수 있다.
다른 일 실시예에 따르면, 이미지를 자르거나 획득한 이미지에 픽셀을 덧붙여 이미지의 사이즈 또는 종횡비를 조정할 수 있다. 예컨대, 이미지에 학습에 불필요한 부분이 포함되어 있는 경우에, 이를 제거하기 위하여 이미지 일부를 크롭할 수 있다. 또는, 이미지의 일부가 잘려나가 종횡비가 맞지 않는 경우에 칼럼(column) 또는 로(row)을 추가하여 이미지 종횡비를 조정할 수도 있다. 다시 말해, 이미지에 마진 또는 패딩을 추가하여 종횡비를 조정할 수 있다.
또 다른 일 실시예에 따르면, 이미지의 용량 및 사이즈 또는 종횡비가 함께 조정될 수 있다. 일 예로, 이미지의 용량이 큰 경우에 이미지를 다운샘플링 하여 이미지 용량을 축소하고, 축소된 이미지에 포함된 불필요한 부분을 크롭하여 적절한 이미지 데이터로 변환할 수 있다.
또한, 본 발명의 다른 일 실시예에 따르면, 이미지 데이터의 방향(orientation)이 변경될 수도 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우, 각각의 안저 이미지는 그 용량이 조절되거나, 사이즈가 조정될 수 있다. 안저 이미지의 안저 부분을 제외한 여백 부분을 제거하기 위한 크롭핑 또는 안저 이미지의 잘린 부분을 보충하여 종횡비를 조정하기 위한 패딩을 수행할 수 있다.
도 11은 본 발명의 일 실시예에 따른 이미지 리사이징을 설명하기 위한 도면이다. 도 11을 참조하면, 본 발명의 일 실시예에 따른 이미지 리사이징 프로세스에 의하여, 획득된 안저 이미지가 리사이징될 수 있다.
구체적으로, 원본 안저 이미지(a)는 진단 정보 획득에 불필요한 여백 부분이 크롭되고(b) 학습 효율의 증진을 위하여 그 크기가 축소(c)될 수 있다.
1.2.2.3 이미지 전처리
본 발명의 일 실시예에 따르면, 이미지의 전처리가 수행될 수 있다. 이미지를 입력된 그대로 학습에 이용할 경우, 불필요한 특성들에 대한 학습 결과 과적합 현상 등이 발생할 수 있고 학습 효율 역시 저하될 수 있다.
이를 방지하기 위하여, 이미지 데이터를 학습의 목적에 부합하도록 적절히 전처리하여 이용함으로써 학습 효율 및 성능을 향상시킬 수 있다. 예컨대, 안저 이미지에 대하여 안질환의 이상 징후를 검출하기에 용이하도록 하는 전처리 또는 망막 혈관 내지 혈류 변화가 강조되도록 하는 전처리가 수행될 수 있다.
전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 전처리가 수행될 수 있다. 데이터 가공 모듈은 리사이징된 이미지를 획득하고 학습에 요청되는 전처리를 수행할 수 있다.
이미지의 전처리는 전술한 리사이징 처리가 완료된 이미지에 대하여 수행될 수 있다. 다만, 본 명세서에서 개시하는 발명의 내용이 이에 한정되는 것은 아니고, 리사이징 처리를 생략하고 이미지에 대한 전처리가 수행될 수도 있다. 이미지의 전처리를 가하는 것은 이미지에 전처리 필터를 적용하는 것일 수 있다.
일 실시예에 따르면, 이미지에 블러(blur) 필터가 적용될 수 있다. 이미지에 가우시안 필터가 적용될 될 수 있다. 이미지에 가우시안 블러 필터가 적용될 수도 있다. 또는, 이미지에 이미지를 선명하게 하는 디블러(deblur) 필터가 적용될 수 있다.
다른 일 실시예에 따르면, 이미지의 색상을 조정 또는 변조하는 필터가 적용될 수 있다. 예컨대, 이미지를 구성하는 RGB 값 중 일부 성분의 값을 변경하거나, 또는, 이미지를 이진화하는 필터가 적용될 수도 있다.
또 다른 일 실시예에 따르면, 이미지에 특정 요소가 강조되도록 하는 필터가 적용될 수 있다. 예컨대, 안저 이미지 데이터에 대하여, 각 이미지로부터 혈관 요소가 강조되도록 하는 전처리가 수행될 수 있다. 이때, 혈관 요소가 강조되도록 하는 전처리는 하나 이상의 필터를 순차적으로 또는 조합하여 적용하는 것일 수 있다.
본 발명의 일 실시예에 따르면, 이미지의 전처리는 획득하고자 하는 진단 보조 정보의 특성을 고려하여 수행될 수 있다. 예컨대, 망막의 출혈, 드루젠, 미세혈관류, 삼출물 등의 소견과 관련된 진단 보조 정보를 획득하고자 하는 경우에는 획득된 안저 이미지를 레드프리 안저 이미지 형태로 변환하는 전처리를 수행할 수 있다.
1.2.2.4 이미지 증강(augmentation)
본 발명의 일 실시예에 따르면, 이미지가 증강 또는 확장될 수 있다. 전술한 학습부의 데이터 가공 모듈에 의하여 이미지의 증강이 수행될 수 있다.
증강된 이미지들은 신경망 모델의 트레이닝 성능 개선을 위하여 이용될 수 있다. 예컨대, 신경망 모델의 트레이닝을 위한 데이터의 양이 부족한 경우에, 트레이닝을 위한 데이터 수의 확대를 위하여 존재하는 트레이닝 이미지 데이터의 변조를 실시하고, 변조(또는 변화)된 이미지를 원본 이미지와 함께 이용함으로써 트레이닝 이미지 데이터 수를 늘릴 수 있다. 이에 따라 과학습(overfitting)이 억제되고 모델의 레이어를 보다 깊이 형성할 수 있으며, 예측 정확도가 향상될 수 있다.
예를 들어, 이미지 데이터의 확장은, 이미지의 좌우를 반전시키거나, 이미지의 일부를 오려내거나, 이미지의 색상 값을 보정하거나, 또는 인위적인 노이즈를 추가하여 수행될 수 있다. 구체적인 예로, 이미지의 일부를 오려내는 것은 이미지를 구성하는 요소의 일부 영역을 오려내거나, 일부 영역들을 랜덤하게 오려내는 방식으로 수행될 수 있다. 보다 많은 예로, 이미지 데이터를 좌우 반전, 상하 반전, 회전, 일정 비율 리사이징, 크롭핑, 패딩, 색상 조정 또는 밝기 조정 함으로써 이미지 데이터를 확장할 수 있다.
일 예로, 상술한 이미지 데이터의 증강 또는 확장은 일반적으로, 트레이닝 데이터 세트에 대하여 적용될 수 있다. 다만, 이외의 데이터 세트, 예컨대 테스트 데이터 세트, 즉 트레이닝 데이터를 이용한 학습 및 검증 데이터를 이용한 검증이 끝난 모델의 테스트를 위한 데이터 세트에도 적용될 수 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 데이터 세트가 이용되는 경우에, 데이터의 수를 늘리기 위하여 이미지를 반전시키거나, 오려내거나, 노이즈를 추가하거나, 색상을 변경하는 것 중 하나 이상의 처리를 랜덤하게 적용하여 증강된 안저 이미지 데이터 세트를 획득할 수 있다.
도 12은 본 발명의 일 실시예에 따른 이미지 데이터 세트의 확장을 설명하기 위한 도면이다. 도 12을 참조하면, 본 발명의 일 실시예들에 따른 이미지는 신경망 모델의 예측 정확도를 향상시키기 위하여 변형될 수 있다.
구체적으로, 도 12를 참조하면, 본 발명의 일 실시예들에 따른 이미지는 일부 영역이 드롭아웃되거나(a), 좌우가 반전되거나(b), 중심점이 이동되거나 (c, d) 일부 영역의 색상이 변조(e)될 수 있다.
1.2.2.5 이미지 직렬화(serialization)
본 발명의 일 실시예에 따르면, 이미지 데이터는 직렬화(linearization) 될 수 있다. 이미지는 전술한 학습부의 데이터 가공 모듈에 의하여 직렬화될 수 있다. 직렬화 모듈은 전처리된 이미지 데이터를 직렬화하고 큐 모듈로 전달할 수 있다.
이미지 데이터를 그대로 이용하여 학습에 이용하게 되면, 이미지 데이터는 JPG, PNB, DCM 등의 이미지 파일 형태를 가지기 때문에 디코딩이 필요한데, 매번 디코딩을 거쳐 학습을 수행하게 되면 모델 학습의 성능이 저하될 수 있다. 이에 따라, 이미지 파일을 그대로 학습에 이용하지 않고 직렬화하여 학습을 수행할 수 있다. 따라서, 학습 성능 및 속도를 향상시키기 위하여 이미지 데이터의 직렬화를 수행할 수 있다. 직렬화되는 이미지 데이터는 전술한 이미지 리사이징 및 이미지 전처리 중 하나 이상의 단계가 적용된 이미지 데이터이거나, 둘 다 처리되지 아니한 이미지 데이터일 수 있다.
이미지 데이터 세트에 포함되는 각 이미지 데이터는 스트링 형태로 변환될 수 있다. 이미지 데이터는 이진화된 데이터 형태로 변환될 수 있다. 특히, 이미지 데이터는 신경망 모델의 학습에 이용되기에 적합한 데이터 형태로 변환될 수 있다. 일 예로, 이미지 데이터는 텐서플로우(tensorflow)를 이용한 신경망 모델 학습에 이용하기 위한 TFRecord 형태로 변환될 수 있다.
구체적인 예로, 데이터 세트로서 안저 이미지 세트가 이용되는 경우에, 획득된 안저 이미지 세트는 TFRecord 형태로 변환되어 신경망 모델의 학습에 이용될 수 있다.
1.2.2.6 큐(Queue)
데이터의 병목 현상을 해소하기 위하여 큐(Queue)가 이용될 수 있다. 전술한 학습부의 큐 모듈은 이미지 데이터를 큐에 저장하고, 학습 모델 모듈로 전달할 수 있다.
특히 CPU(Central Processing Unit)와 GPU(Graphic Processing Unit)를 함께 이용하여 학습 프로세스를 진행하는 경우에, 큐를 이용함으로써, CPU와 GPU 사이의 병목현상을 최소화하고 데이터베이스에 대한 접근이 원활하게 하며 메모리 사용 효율을 증진할 수 있다.
큐는 신경망 모델의 학습에 이용되는 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장할 수 있다. 큐에 저장되는 이미지 데이터는 전술한 데이터 가공 프로세스(즉, 리사이징, 전처리 및 증강) 중 적어도 하나가 처리된 이미지 데이터이거나 획득된 상태 그대로의 이미지일 수 있다.
큐는 이미지 데이터, 바람직하게는 전술한 바와 같이 직렬화된 이미지 데이터를 저장할 수 있다. 큐는 이미지 데이터를 저장하고, 신경망 모델로 이미지 데이터를 공급할 수 있다. 큐는 신경망 모델로 배치(batch) 사이즈 단위로 이미지 데이터를 전달할 수 있다.
큐는 이미지 데이터를 제공할 수 있다. 큐는 후술하는 학습 모듈에 데이터를 제공할 수 있다. 학습 모듈에서 데이터를 추출함에 따라 큐에 축적된 데이터 수가 줄어들 수 있다.
신경망 모델의 학습이 진행됨에 큐에 저장된 데이터 수가 기준 이하로 감소하면, 큐는 데이터의 보충을 요청할 수 있다. 큐는 특정 종류 데이터의 보충을 요청할 수 있다. 큐는 학습부는 데이터의 보충이 요청되면, 큐에 데이터를 보충할 수 있다.
큐는 학습 장치의 시스템 메모리에 마련될 수 있다. 예컨대, 큐는 중앙 처리 장치(CPU)의 RAM(Random Access Memory)에 형성될 수 있다. 이 경우, 큐의 크기 즉, 용량은 CPU의 RAM 용량에 따라 정해질 수 있다. 큐로는 선입선출(FIFO; First In First Out) 큐, 우선순위 큐(Primary Queue) 또는 랜덤 큐가 이용될 수 있다.
1.2.3 학습 프로세스
본 발명의 일 실시예에 의하면, 신경망 모델의 학습 프로세스가 개시될 수 있다.
본 발명의 일 실시예에 따르면, 신경망 모델의 학습은 전술한 학습 장치에 의하여 수행될 수 있다. 학습 프로세스는 학습 장치의 제어부에 의해 수행될 수 있다. 학습 프로세스는 전술한 학습부의 학습 모듈에 의하여 수행될 수 있다.
도 13는 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블럭도이다. 도 13을 참조하면, 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스는 데이터를 획득(S1010)하고, 신경망 모델을 학습(S1030)하고, 학습된 모델을 검증(S1050)하고, 학습된 모델의 변수를 획득(S1070)하여 수행될 수 있다.
이하에서는, 도 13을 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시예를 들어 설명한다.
1.2.3.1 데이터 입력
진단 보조 신경망 모델의 학습을 위한 데이터 세트가 획득될 수 있다.
획득되는 데이터는 전술한 데이터 가공 프로세스에 의하여 처리된 이미지 데이터 세트일 수 있다. 일 예로, 데이터 세트는 사이즈가 조정되고 전처리 필터가 적용되고 데이터가 증강된 후 직렬화된 안저 이미지 데이터를 포함할 수 있다.
신경망 모델의 학습 단계에서는 트레이닝 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 검증 단계에서는 검증 데이터 세트가 획득 및 이용될 수 있다. 신경망 모델의 테스트 단계에서는 테스트 데이터 세트가 획득 및 이용될 수 있다. 각 데이터 세트는 안저 이미지 및 라벨을 포함할 수 있다.
데이터 세트는 큐로부터 획득될 수 있다. 데이터 세트는 큐로부터 배치 사이즈 단위로 획득될 수 있다. 예컨대, 배치 사이즈로서 60개가 지정된 경우, 데이터 세트는 큐로부터 60개 단위로 추출될 수 있다. 배치 사이즈의 사이즈는 GPU의 RAM 용량에 의해 제한될 수 있다.
데이터 세트는 큐로부터 학습 모듈로 랜덤하게 획득될 수 있다. 데이터 세트는 큐에 축적된 순서대로 획득될 수도 있다.
학습 모듈은 큐로부터 획득되는 데이터 세트의 구성을 지정하여 추출할 수 있다. 일 예로, 학습 모듈은 특정 피검자의 좌안 라벨을 가지는 안저 이미지와 우안 라벨을 가지는 안저 이미지 데이터가 함께 학습에 이용되도록 추출할 수 있다.
학습 모듈은 큐로부터 특정 라벨의 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터 세트를 획득할 수 있다. 학습 모듈은 큐로부터 라벨에 따른 데이터 수의 비율을 지정하여 데이터 세트를 획득할 수 있다. 일 예로, 학습 모듈은 큐로부터 진단 정보 라벨이 비정상인 안저 이미지 데이터의 수와 진단 정보 라벨이 정상인 안저 이미지 데이터의 수가 1 대 1이 되도록 안저 이미지 데이터 세트를 획득할 수 있다.
1.2.3.2 모델의 설계
신경망 모델은 이미지 데이터에 기초하여 진단 보조 정보를 출력하는 진단 보조 모델일 수 있다. 진단 보조 정보 획득을 위한 진단 보조 신경망 모델의 구조는 미리 정해진 형태를 가질 수 있다. 신경망 모델은 복수의 계층 또는 레이어를 포함할 수 있다.
신경망 모델은 진단 보조 정보를 생성하는 분류기(classifier)의 형태로 구현될 수 있다. 분류기는 이중 분류 또는 다중 분류를 수행할 수 있다. 예컨대, 신경망 모델은 입력 데이터를 특정 질병 또는 이상 징후 등의 타겟 진단 보조 정보에 대하여 정상 또는 비정상 클래스로 분류하는 이진 분류 모델일 수 있다. 또는, 신경망 모델은 입력 데이터를 특정 특성(예컨대, 질병의 진행 정도)에 대한 복수의 등급 클래스로 분류하는 다중 분류 모델일 수 있다. 또는, 신경망 모델은 특정 질병과 관련된 특정 수치를 출력하는 회귀 형태의 모델로 구현될 수도 있다.
신경망 모델은 합성곱 신경망(CNN; Convolutional Neural Network)을 포함할 수 있다. 수 있다. CNN 구조로서, AlexNet, LENET, NIN, VGGNet, ResNet, WideResnet, GoogleNet, FractaNet, DenseNet, FitNet, RitResNet, HighwayNet, MobileNet, DeeplySupervisedNet 중 적어도 하나가 이용될 수 있다. 신경망 모델은 복수의 CNN 구조를 이용하여 구현될 수 있다.
일 예로, 신경망 모델은 복수의 VGGNet 블록을 포함하도록 구현될 수 있다. 보다 구체적인 예로, 신경망 모델은 3x3 크기의 64개의 필터를 가지는 CNN 레이어, BN(Batch Normalization) 레이어 및 ReLu 레이어가 순차적으로 결합된 제1 구조 및 3x3 크기의 128개의 필터를 가지는 CNN 레이어, ReLu 레이어 및 BN 레이어가 순차적으로 결합된 제2 블록이 결합되어 마련될 수 있다.
신경망 모델은 각 CNN 블록에 이어서, 맥스 풀링 레이어를 포함하고, 종단에는 GAP(Global Average pooling) 레이어, FC(Fully Connected) 레이어 및 활성화 레이어(예컨대, 시그모이드, 소프트맥스 등)를 포함할 수 있다.
1.2.3.3 모델의 학습
신경망 모델은 트레이닝 데이터 세트를 이용하여 학습될 수 있다.
신경망 모델은 라벨링된 데이터 세트를 이용하여 학습될 수 있다. 다만, 본 명세서에서 설명하는 진단 보조 신경망 모델의 학습 프로세스가 이에 한정되는 것은 아니며, 신경망 모델은 라벨링되지 아니한 데이터를 이용하여 비지도 형태로 학습될 수도 있다.
신경망 모델의 학습은, 트레이닝 이미지 데이터에 기초하여, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화함으로써 수행할 수 있다. 또한, 신경망 모델의 학습은 후술하는 모델의 검증 결과, 테스트 결과 및/또는 진단 단계로부터의 피드백으로부터 영향을 받을 수 있다.
상술한 신경망 모델의 학습은 텐서플로우를 이용하여 수행될 수 있다. 다만, 본 발명이 이에 한정되지는 아니하며, 티아노(Theano), 케라스(Keras), 카페(Caffe), 토치(Torch), CNTK(Microsoft Cognitive Toolkit) 등의 프레임워크가 신경망 모델의 학습에 이용될 수도 있다.
1.2.3.4 모델의 검증(validation)
신경망 모델은 검증 데이터 세트를 이용하여 검증될 수 있다. 신경망 모델의 검증은 학습이 진행된 신경망 모델로부터 검증 데이터 세트에 대한 결과값을 획득하고, 결과값과 검증 데이터 세트의 라벨을 비교하여 수행될 수 있다. 검증은 결과값의 정확도(accuracy)를 측정하여 수행될 수 있다. 검증 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)이 조정될 수 있다.
일 예로, 본 발명의 일 실시예에 따른 학습 장치는, 안저 이미지에 기초하여 진단 보조 정보를 예측하는 신경망 모델을 학습시키고, 학습된 모델의 검증 안저 이미지에 대한 진단 보조 정보를 검증 안저 이미지에 대응되는 검증 라벨과 비교함으로써 진단 보조 신경망 모델의 검증을 수행할 수 있다.
신경망 모델의 검증에는, 별도의 검증 세트(external data set), 즉 트레이닝 데이터 세트에는 포함되지 않은 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다. 예를 들어, 별도의 검증 세트는 트레이닝 데이터 세트와 인종, 환경, 나이, 성별 등의 요인이 구별되는 데이터 세트일 수 있다.
1.2.3.5 모델의 테스트
신경망 모델은 테스트 데이터 세트를 이용하여 테스트될 수 있다.
도 13에서 도시하지는 아니하였으나, 본 발명의 일 실시예에 따른 학습 프로세스에 의하면, 신경망 모델을 트레이닝 데이터 세트 및 검증 데이터 세트와 구분되는 테스트 데이터 세트를 이용하여 테스트할 수 있다. 테스트 결과에 따라, 신경망 모델의 파라미터(예컨대, 가중치 및/또는 편향) 또는 하이퍼 파라미터(예컨대, 학습률)이 조정될 수 있다.
일 예로, 본 발명의 일 실시예에 따른 학습 장치는 안저 이미지에 기초하여 진단 보조 정보를 예측하도록 학습된 신경망 모델로부터, 트레이닝 및 검증에 이용되지 않은 테스트 안저 이미지 데이터를 입력으로 하는 결과 값을 획득하여, 학습 및 검증된 진단 보조 신경망 모델의 테스트를 수행할 수 있다.
신경망 모델의 테스트에는, 별도로 마련된 검증 세트(external data set), 즉 트레이닝 및/또는 검증 데이터와 구별되는 요인을 가지는 데이터 세트가 이용될 수 있다.
1.2.3.6 결과의 출력
신경망 모델의 학습 결과, 최적화된 모델의 파라미터 값이 획득될 수 있다. 전술한 바와 같이 테스트 데이터 세트를 이용하여 모델의 학습을 반복적으로 진행함에 따라, 보다 적절한 파라미터(또는 변수) 값이 얻어질 수 있다. 학습이 충분히 진행되면, 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다.
본 발명의 일 실시예에 따르면, 학습된 신경망 모델 및/또는 학습된 신경망 모델의 파라미터 또는 변수는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 학습된 신경망 모델은 진단 장치 및/또는 클라이언트 장치 등에 의하여 진단 보조 정보의 예측에 이용될 수 있다. 또한 학습된 신경망 모델의 파라미터 또는 변수는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.
1.2.3.7 모델 앙상블(ensemble)
본 발명의 일 실시예에 따르면, 하나의 진단 보조 신경망 모델을 학습하는 과정에서, 복수의 서브 모델이 동시에 학습될 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다.
이때, 본 발명의 일 실시예에 따른 진단 보조 신경망 모델은 복수의 서브 신경망 모델을 조합하여 구현될 수 있다. 다시 말해, 복수의 서브 신경망을 조합하는 앙상블 기법을 이용하여 신경망 모델의 학습을 수행할 수 있다.
앙상블을 형성하여 진단 보조 신경망 모델을 구성할 경우, 다양한 형태의 서브 신경망 모델로부터 예측되는 결과를 종합하여 예측을 수행할 수 있어, 결과 예측의 정확도가 보다 향상될 수 있다.
도 14은 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스를 설명하기 위한 블럭도이다. 도 14를 참조하면, 본 발명의 일 실시예에 따른 신경망 모델의 학습 프로세스는, 데이터 세트를 획득(S1011)하고, 획득된 데이터를 이용하여 제1 모델(즉, 제1 신경망 모델) 및 제2 모델(즉, 제2 신경망 모델)을 학습(S1031, S1033)하고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 검증(S1051)하고, 최종 신경망 모델을 결정하고 그 파라미터 또는 변수를 획득(S10721)할 수 있다.
이하에서는, 도 14을 참조하여, 신경망 모델의 학습 프로세스에 대하여 몇몇 실시예를 들어 설명한다.
본 발명의 일 실시예에 따르면 복수의 서브 신경망 모델은 동일한 트레이닝 데이터 세트를 획득하고, 개별적으로 출력값을 생성할 수 있다. 이때, 복수의 서브 신경망 모델의 앙상블을 최종 신경망 모델로 결정하고, 복수의 서브 신경망 모델 각각에 대한 파라미터 값이 학습 결과로 얻어질 수 있다. 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델에 의한 출력값의 평균값으로 정해질 수 있다. 또는, 최종 신경망 모델의 출력값은 각각의 서브 신경망 모델 각각에 대한 검증 결과 얻어진 정확도를 고려하여, 각각의 서브 신경망 모델의 출력값에 대한 가중 평균값으로 정해질 수 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 을 포함할 때, 기계 학습에 의하여 제1 서브 신경망 모델에 대한 최적화된 파라미터 값 및 제2 서브 신경망 모델의 최적화된 파라미터 값을 획득할 수 있다. 이때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델로부터 각각 획득되는 출력값(예컨대, 특정 진단 보조 정보에 대한 확률 값)들에 대한 평균값을 최종 신경망 모델의 출력값으로 결정할 수 있다.
본 발명의 다른 일 실시예에 따르면, 복수의 서브 신경망 모델 각각에 의한 출력값에 기초하여 개별 서브 신경망 모델의 정확도를 평가할 수 있다. 이때, 정확도에 기초하여 복수의 서브 신경망 모델 중 어느 하나의 모델을 선택하여 최종 서브 신경망 모델로 결정할 수 있다. 결정된 서브 신경망 모델의 구조 및 학습 결과 얻어진 결정된 서브 신경망 모델의 파라미터 값들은 저장될 수 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 을 포함할 때, 제1 서브 신경망 모델 및 제2 서브 신경망 모델 각각에 따른 정확도를 획득하고, 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정할 수 있다.
본 발명의 또 다른 일 실시예에 따르면, 복수의 신경망 모델 중 적어도 하나의 서브 신경망을 조합하고, 조합된 적어도 하나의 서브 신경망 모델의 앙상블을 형성하고, 각각의 앙상블에 대하여 평가하되, 복수의 앙상블 중 정확도가 높은 앙상블을 형성하는 서브 신경망 모델의 조합을 최종 신경망 모델로 결정할 수 있다. 이때, 복수의 서브 신경망 모델 중 적어도 하나를 선택하는 가능한 모든 경우의 수에 대하여 앙상블을 수행하고, 가장 정확도가 높은 것으로 평가된 서브 신경망 조합을 최종 신경망 모델로 결정할 수도 있다.
보다 구체적인 예로, 신경망 모델이 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 을 포함할 때, 제1 서브 신경망 모델의 정확도, 제2 서브 신경망 모델의 정확도 및 제1 및 제2 서브 신경망 모델의 앙상블에 의한 정확도를 비교하고, 가장 정확한 경우의 서브 신경망 모델 구성을 최종 신경망 모델로 결정할 수 있다.
1.2.4 실시예 1 - 학습 장치의 제어 방법.
도 15는 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 15를 참조하면, 본 발명의 일 실시예에 따른 학습 장치의 제어 방법은 제1 안저 이미지의 전처리를 수행하는 단계(S110), 전처리된 제1 안저 이미지를 직렬화하는 단계(S130), 제1 신경망 모델을 학습시키는 단계(S150)를 포함할 수 있다.
본 발명의 일 실시예에 따른 학습 장치의 제어 방법은 복수의 안저 이미지를 포함하는 제1 트레이닝 데이터 세트를 획득하고, 상기 제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지를 가공하고, 상기 제1 트레이닝 데이터 세트를 이용하여, 제1 신경망 모델을 학습시키는 학습 장치, 진단 보조 정보를 획득하기 위한 대상 안저 이미지를 획득하고, 상기 학습된 제1 신경망 모델을 이용하여 상기 대상 안저 이미지에 기초하여 상기 진단 보조 정보를 획득하는 진단 장치를 포함하는 시스템에 포함되는 학습 장치의 제어 방법일 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계(S110)는 상기 제1 트레이닝 데이터 세트에 포함된 제1 안저 이미지가 상기 제1 신경망 모델의 학습에 적절한 형태로 변환되도록 상기 제1 안저 이미지의 전처리를 수행하는 것을 더 포함할 수 있다.
본 발명의 일 실시예에 따른 학습 장치의 제어 방법은, 전처리된 제1 안저 이미지를 직렬화하는 단계(S130)를 포함할 수 있다. 제1 안저 이미지는 신경망 모델의 학습에 용이한 형태로 직렬화될 수 있다.
이때, 제1 신경망 모델을 학습시키는 단계(S150)는 직렬화된 제1 안저 이미지를 이용하여, 상기 대상 안저 이미지를 제1 라벨 또는 제2 라벨로 분류하는 상기 제1 신경망 모델을 학습시키는 것을 더 포함할 수 있다.
학습 장치는 복수의 안저 이미지를 포함하고 상기 제1 트레이닝 데이터 세트와 적어도 일부 상이한 제2 트레이닝 데이터 세트를 획득하고, 상기 제2 트레이닝 데이터 세트를 이용하여, 제2 신경망 모델을 학습시킬 수 있다.
본 발명의 일 실시예에 따르면, 학습 장치의 제어 방법은 제2 트레이닝 세트에 포함된 제2 안저 이미지가 제2 신경망 모델의 학습에 적합하도록 제2 안저 이미지의 전처리를 수행하는 단계, 전처리된 제2 안저 이미지를 직렬화하는 단계 및 직렬화된 제2 안저 이미지를 이용하여, 대상 안저 이미지를 제3 라벨 또는 제4 라벨로 분류하는 제2 신경망 모델을 학습시키는 단계를 더 포함할 수 있다.
도 16은 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다. 도 16을 참조하면, 본 발명의 일 실시예에 따른 학습 장치의 제어 방법은 제2 안저 이미지의 전처리를 수행하는 단계(S210), 전처리된 제2 안저 이미지를 직렬화하는 단계(S230), 제2 신경망 모델을 학습시키는 단계(S250)를 포함할 수 있다.
도 16에서는 설명의 편의를 위하여, 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 제1 안저 이미지의 전처리, 제2 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습에 이어서 수행되는 것으로 묘사하였으나, 본 발명의 내용이 이에 한정되는 것은 아니다.
제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 독립적으로 수행될 수 있다. 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습과 병렬적으로 수행될 수 있다. 다시 말해, 제2 트레이닝 세트에 포함된 제2 안저 이미지의 전처리, 및 제2 안저 이미지의 직렬화 및 제2 안저 이미지를 이용한 학습은, 반드시 전술한 제1 안저 이미지의 전처리, 제1 안저 이미지의 직렬화 및 제1 안저 이미지를 이용한 학습 이후에 이루어지거나, 이전에 이루어져야 하는 것은 아니며, 제1 안저 이미지에 대한 처리 및 제2 안저 이미지에 대한 처리는 상호 의존관계 없이 수행될 수 있다.
제1 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제1 전처리는 상기 제2 트레이닝 데이터 세트에 포함된 상기 안저 이미지에 대하여 수행되는 제2 전처리와 구별될 수 있다. 예컨대, 제1 전처리는 혈관 강조 전처리이고, 제2 전처리는 색상 변조 전처리일 수 있다. 각 전처리는 각 신경망 모델을 통하여 획득하고자 하는 진단 보조 정보를 고려하여 결정될 수 있다.
본 발명의 일 실시예에 따른 학습 장치의 제어 방법은, 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제1 신경망 모델을 검증하는 단계 및 제2 트레이닝 데이터 세트와 적어도 일부 구별되는 제2 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여, 상기 제2 신경망 모델을 검증하는 단계를 더 포함할 수 있다. 이때, 제1 신경망 모델의 및 상기 제2 신경망 모델의 검증은 독립적으로 수행될 수 있다.
직렬화된 제1 안저 이미지는 제1 큐에 순차적으로 저장되고, 상기 제1 큐에 저장된 직렬화된 안저 이미지는 상기 제1 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용되고, 직렬화된 제2 안저 이미지는 상기 제1 큐와 구별되는 제2 큐에 순차적으로 저장되고, 상기 제2 큐에 저장된 직렬화된 안저 이미지는 상기 제2 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다.
제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제1 라벨 또는 상기 제2 라벨로 분류하는 것은 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 수행될 수 있다.
제2 신경망 모델은 제3 서브 신경망 모델 및 제4 서브 신경망 모델을 포함할 수 있다. 이때, 대상 안저 이미지를 상기 제3 라벨 또는 상기 제4 라벨로 분류하는 것은 상기 제3 서브 신경망 모델에 의해 예측되는 제3 예측값 및 상기 제4 서브 신경망 모델에 의해 예측되는 제4 예측값을 함께 고려하여 수행될 수 있다.
제1 트레이닝 데이터 세트는 제1 라벨로 라벨링된 안저 이미지를 적어도 일부 포함하고, 제2 트레이닝 데이터 세트는 제3 라벨로 라벨링된 안저 이미지를 적어도 일부 포함할 수 있다. 이때, 제1 라벨로 라벨링된 안저 이미지 및 상기 제3 라벨로 라벨링된 적어도 일부의 안저 이미지는 일부 공통될 수 있다.
제1 라벨은 상기 대상 안저 이미지에 대응되는 피검체가 상기 제1 소견에 대하여 정상임을 지시하는 정상 라벨이고, 상기 제2 라벨은 상기 피검체가 상긴 제2 소견에 대하여 비정상임을 지시하는 비정상 라벨일 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계는, 상기 제1 안저 이미지가 기준 종횡비를 만족하도록 크롭하고, 상기 제1 안저 이미지의 사이즈를 변경하는 것을 포함할 수 있다.
제1 안저 이미지의 전처리를 수행하는 단계는, 상기 가공부가 상기 제1 안저 이미지에 포함된 혈관이 강조되도록 상기 안저 이미지에 혈관 강조 필터를 적용하는 것을 더 포함할 수 있다.
직렬화된 제1 안저 이미지는 큐에 순차적으로 저장되고, 상기 큐에 저장된 직렬화된 제1 안저 이미지는 상기 큐로부터 미리 정해진 용량 단위로 상기 제1 신경망 모델의 학습에 이용될 수 있다. 큐는 상기 제1 학습에 이용되지 않은 상기 직렬화된 제1 안저 이미지가 기준 용량 이하로 감소하면 상기 직렬화된 제1 안저 이미지의 보충을 요청할 수 있다.
제1 소견은 망막 출혈 소견, 망막 삼출물 발생 소견, 수정체 혼탁 소견, 당뇨 망막증 소견 중 어느 하나일 수 있다.
도 17은 본 발명의 일 실시예에 따른 학습 장치의 제어 방법을 설명하기 위한 도면이다.
도 17을 참조하면, 본 발명의 일 실시예에 따른 학습 장치의 제어 방법은 제1 신경망 모델을 검증하는 단계(S170) 및 제1 신경망 모델을 갱신하는 단계(S190)를 더 포함할 수 있다.
제1 신경망 모델을 검증하는 단계(S170)는 제1 트레이닝 데이터 세트와 적어도 일부 구별되는 제1 검증 데이터 세트를 이용하여, 상기 학습된 제1 신경망 모델의 정확도(accuracy)를 평가하여 1 신경망 모델을 검증하는 것을 더 포함할 수 있다.
제1 신경망 모델을 갱신하는 단계(S190), 제1 신경망 모델을 검증하는 단계(S170)로부터 얻어진 검증 결과를 반영하여, 상기 제1 신경망 모델을 갱신하는 단계를 더 포함할 수 있다.
한편, 제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함할 수 있다. 이때, 제1 신경망 모델을 학습시키는 단계는 제1 검증 데이터 세트를 이용하여 상기 제1 서브 신경망 모델을 검증하여 상기 제1 서브 신경망 모델의 정확도를 획득하고, 상기 제1 검증 데이터 세트를 이용하여 상기 제2 서브 신경망 모델을 검증하여 상기 제2 서브 신경망 모델의 정확도를 획득하고, 상기 제1 서브 신경망 모델의 정확도 및 상기 제2 서브 신경망 모델의 정확도를 비교하여 보다 정확한 서브 신경망 모델을 최종 신경망 모델로 결정하는 것을 포함할 수 있다.
1.3 진단 보조 프로세스
본 발명의 일 실시예에 따르면, 신경망 모델을 이용하여 진단 보조 정보를 획득하는 진단 보조 프로세스(또는 진단 프로세스)가 제공될 수 있다. 구체적인 예로, 진단 보조 프로세스에 의하여, 안저 이미지를 이용하고 학습된 진단 보조 신경망 모델을 통하여 진단 보조 정보(예컨대, 진단 정보 또는 소견 정보)가 예측될 수 있다.
이하에서 설명하는 진단 보조 프로세스는 진단 장치에 의하여 수행될 수 있다.
1.3.1 진단부
본 발명의 일 실시예에 따르면, 진단 프로세스는 진단부(200)에 의해 수행될 수 있다. 진단부(200)는 전술한 진단 장치 내에 마련될 수 있다.
도 18은 본 발명의 일 실시예에 따른 진단부(200)의 구성을 설명하기 위한 도면이다. 도 18을 참조하면, 진단부(200)는 진단 요청 획득 모듈(210), 데이터 가공 모듈(230), 진단 모듈(250) 및 출력 모듈(270)을 포함할 수 있다.
각각의 모듈은 후술하는 바와 같이 데이터 가공 프로세스 및 학습 프로세스의 개별 단계들을 수행할 수 있다. 다만 도 16에서 설명하는 구성 요소들 및 각 요소들이 수행하는 기능이 모두 필수적인 것은 아니며, 진단의 양태에 따라 일부 요소가 추가되거나 일부 요소가 생략될 수 있다.
1.3.2 데이터 획득 및 진단 요청
본 발명의 일 실시예에 따른 진단 장치는 진단 대상 데이터를 획득하고, 이에 기초하여 진단 보조 정보를 획득할 수 있다. 진단 대상 데이터는 이미지 데이터일 수 있다. 전술한 진단부의 진단 요청 획득 모듈에 의하여 데이터 획득 및 진단 요청의 획득이 수행될 수 있다.
도 19는 본 발명의 일 예에 따른 진단 대상 데이터(TD)를 설명하기 위한 도면이다. 도 19를 참조하면, 진단 대상 데이터(TD)는 진단 대상 이미지(TI) 및 진단 대상 객체 정보(PI; patient information)를 포함할 수 있다.
진단 대상 이미지(TI)는 진단 대상 객체에 대한 진단 보조 정보를 획득하기 위한 이미지일 수 있다. 예컨대, 진단 대상 이미지는 안저 이미지일 수 있다. 진단 대상 (TI)JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 포맷을 가질 수 있다.
진단 객체 정보(PI)는 진단 대상 객체를 식별하기 위한 정보일 수 있다. 또는, 진단 객체 정보(PI)는 진단 대상 객체 또는 이미지의 특성 정보일 수 있다. 예컨대, 진단 객체 정보(PI)는 진단 대상 이미지의 촬상 일시, 촬영 장비, 진단 대상 피검체의 식별 번호, ID, 성명, 성별, 나이 또는 몸무게 등의 정보를 포함할 수 있다. 진단 대상 이미지가 안저 이미지인 경우, 진단 객체 정보(PI)는 좌안인지 우안인지를 나타내는 양안 정보 등의 안구 관련 정보를 더 포함할 수 있다.
진단 장치는 진단 요청을 획득할 수 있다. 진단 장치는 진단 요청과 함께 진단 대상 데이터를 획득할 수 있다. 진단 장치는 진단 요청이 획득되면, 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 장치는 클라이언트 장치로부터 진단 요청을 획득할 수 있다. 또는, 진단 장치는 별도로 마련된 입력 수단을 통하여 사용자로부터 진단 요청을 획득할 수 있다.
1.3.3 데이터 가공 프로세스
획득된 데이터는 가공될 수 있다. 데이터의 가공은 전술한 진단부의 데이터 가공 모듈에 의하여 수행될 수 있다.
데이터 가공 프로세스는 일반적으로, 전술한 학습 프로세스에서의 데이터 가공 프로세스와 유사하게 수행될 수 있다. 이하에서는, 학습 프로세스에서의 데이터 가공 프로세스와의 차이점을 중심으로, 진단 프로세스에서의 데이터 가공 프로세스에 대하여 설명한다.
진단 프로세스에서, 진단 장치는 학습 프로세스에서와 마찬가지로 데이터를 획득할 수 있다. 이때, 획득되는 데이터는 학습 프로세스에서 획득되는 데이터와 동일한 형식일 수 있다. 예를 들어, 학습 프로세스에서 학습 장치가 DCM 형식의 이미지 데이터를 이용하여 진단 보조 신경망 모델을 학습시킨 경우, 진단 장치는 DCM 이미지를 획득하고 학습된 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 리사이징될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측을 효율적으로 수행하기 위하여, 적절한 용량, 크기 및/또는 종횡비를 가지도록 그 형태가 조정될 수 있다.
예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 안저 이미지에 기초한 진단 정보의 예측을 위하여, 이미지의 불필요한 부분을 크롭하거나, 그 사이즈를 축소하는 등의 리사이징이 수행될 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지에는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 전처리 필터가 적용될 수 있다. 진단 대상 이미지는, 학습된 진단 보조 신경망 모델을 통한 진단 보조 정보 예측의 정확도가 보다 향상되도록, 적절한 필터가 적용될 수 있다.
예를 들어, 진단 대상 이미지가 안저 이미지인 경우, 정 진단 정보의 예측이 용이하도록 하는 전처리, 예컨대 혈관이 강조되도록 하는 이미지 전처리 또는 특정 색상이 강조되거나 약화되도록 하는 이미지 전처리가 진단 대상 이미지에 적용될 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 직렬화될 수 있다. 진단 대상 이미지는 특정 워크프레임에서의 진단 모델 구동이 용이한 형태로 변환 또는 직렬화 수 있다.
진단 대상 이미지의 직렬화는 생략될 수 있다. 이는, 학습 단계에서와 달리 진단 단계에서는 프로세서가 한번에 처리하는 데이터의 수가 많지 않아, 데이터 처리 속도에 대한 부담이 상대적으로 적기 때문일 수 있다.
진단 프로세스에서, 획득된 진단 대상 이미지는, 학습 프로세스에서 이용된 이미지 데이터와 유사하게, 큐에 저장될 수 있다. 다만, 진단 프로세스에서는 처리 데이터 수가 학습 프로세스에 비하여 적으므로, 데이터를 큐에 저장하는 단계는 생략될 수도 있다.
한편, 진단 프로세스에서는, 데이터 수의 증가가 요구되지 않으므로, 정확한 진단 보조 정보의 획득을 위하여, 학습 프로세스와 달리 데이터 증강 또는 이미지 증강 절차는 이용하지 않음이 바람직할 것이다.
1.3.4 진단 프로세스
본 발명의 일 실시예에 따르면, 학습된 신경망 모델을 이용한 진단 프로세스가 개시될 수 있다. 진단 프로세스는 전술한 진단 장치에서 수행될 수 있다. 진단 프로세스는 전술한 진단 서버에서 수행될 수 있다. 진단 프로세스는 전술한 진단 장치의 제어부에서 수행될 수 있다. 진단 프로세스는 전술한 진단부의 진단 모듈에 의하여 수행될 수 있다.
도 20은 본 발명의 일 실시예에 따른 진단 프로세스를 설명하기 위한 도면이다. 도 20을 참조하면, 진단 프로세스는 진단 대상 데이터를 획득(S2010)하고, 학습된 신경망 모델을 이용하여(S2030), 획득된 진단 대상 데이터에 대응되는 결과를 획득하여 수행(S2050)될 수 있다. 다만, 데이터의 가공은 선택적으로 수행될 수 있다.
이하에서는 도 20을 참조하여, 진단 프로세스의 각 단계에 대하여 설명한다.
1.3.4.1 데이터 입력
본 발명의 일 실시예에 따르면, 진단 모듈은 진단 대상 데이터를 획득할 수 있다. 획득된 데이터는, 전술한 바와 같이 가공된 데이터일 수 있다. 일 예로, 획득된 데이터는 사이즈가 조절되고 혈관이 강조되도록 하는 전처리가 적용된 피검자의 안저 이미지 데이터일 수 있다. 본 발명의 일 실시예에 따르면, 하나의 피검자의 좌안 이미지 및 우안 이미지는 함께 진단 대상 데이터로 입력될 수 있다.
1.3.4.2 데이터 분류
분류기 형태로 마련된 진단 보조 신경망 모델은 입력된 진단 대상 이미지를 소정의 라벨에 대하여 긍정 또는 부정 클래스로 분류할 수 있다.
학습된 진단 보조 신경망 모델은 진단 대상 데이터를 입력받고, 예측되는 라벨을 출력할 수 있다. 학습된 진단 보조 신경망 모델은 진단 보조 정보의 예측값을 출력할 수 있다. 학습된 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 진단 보조 정보는 예측되는 라벨에 기초하여 결정될 수 있다.
예를 들어, 진단 보조 신경망 모델은 피검체의 안질환 또는 전신 질환에 대한 진단 정보(즉, 질병의 유무에 대한 정보) 또는 소견 정보(즉, 이상 소견의 유무에 대한 정보)를 예측할 수 있다. 이때, 진단 정보 또는 소견 정보는 확률 형태로 출력될 수 있다. 예컨대, 피검체가 특정 질병을 보유할 확률 또는 피검체의 안저 이미지체 특정 이상 소견이 있을 확률이 출력될 수 있다. 분류기 형태로 마련된 진단 보조 신경망 모델을 이용하는 경우에, 예측되는 라벨은 출력되는 확률값(또는 예측 점수)이 임계값을 초과하는지 여부를 고려하여 결정될 수 있다.
구체적인 예로, 진단 보조 신경망 모델은 피검체의 안저 사진을 진단 대상 이미지로 하여, 피검체의 당뇨 망막증 유무를 확률값으로 출력할 수 있다. 1을 정상으로 하는 분류기 형태의 진단 보조 신경망 모델을 이용하는 경우, 피검체의 안저 사진을 진단 보조 신경망 모델에 입력하고, 피검체의 당뇨 망막증 보유 여부에 대하여, 정상 : 비정상 의 확률 값을 0.74:0.26 등의 형태로 획득할 수 있다.
여기에서는 분류기 형태의 진단 보조 신경망 모델을 이용하여 데이터를 분류하는 경우를 기준으로 설명하였으나, 본 발명이 이에 한정되지는 아니하며, 회귀 모델 형태로 구현된 진단 보조 신경망 모델을 이용하여 특정한 진단 보조 수치(예컨대, 혈압 등)를 예측할 수도 있다.
본 발명의 다른 일 실시예에 따르면, 이미지의 적합성 정보가 획득될 수 있다. 적합성 정보는 진단 대상 이미지가 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득하기에 적합한지 여부를 나타낼 수 있다.
이미지의 적합성 정보는 이미지의 품질 정보일 수 있다. 품질 정보 또는 적합성 정보는, 진단 대상 이미지가 기준 레벨에 미치는지 여부를 나타낼 수 있다.
예컨대, 진단 대상 이미지가 촬영 장비의 결함 또는 촬영시 조명의 영향 등으로 인하여 결함을 가지는 경우, 해당 진단 대상 이미지에 대하여는 적합성 정보로서 부적합 결과가 출력될 수 있다. 진단 대상 이미지에 노이즈가 일정 수준 이상 포함된 경우, 그 진단 대상 이미지는 부적합한 것으로 판단될 수 있다.
적합성 정보는 신경망 모델을 이용하여 예측된 값일 수 있다. 또는, 적합성 정보는 별도의 이미지 분석 프로세스를 통하여 획득된 정보일 수 있다.
일 실시예에 따르면, 이미지가 부적합한 것으로 분류된 경우에도, 부적합한 이미지에 기초하여 획득된 진단 보조 정보가 획득될 수 있다.
일 실시예에 따르면, 부적합한 것으로 분류된 이미지는 진단 보조 신경망 모델에 의하여 재검토될 수 있다.
이때, 재검토를 수행하는 진단 보조 신경망 모델은, 최초 검토를 수행하는 진단 보조 신경망 모델과 상이할 수 있다. 예를 들어, 진단 장치는 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 저장하고, 제1 진단 보조 신경망 모델을 통하여 부적합한 것으로 분류된 이미지는 제2 진단 보조 신경망 모델을 통하여 검토될 수 있다.
본 발명의 또 다른 일 실시예에 따르면, 학습된 신경망 모델로부터 CAM(Class Activation Map)이 획득될 수 있다. 진단 보조 정보는 CAM을 포함할 수 있다. CAM은 다른 진단 보조 정보와 함께 획득될 수 있다.
CAM의 경우, 선택적으로 획득될 수 있다. 예를 들어, CAM의 경우, 진단 보조 모델에 의하여 획득된 진단 정보 또는 소견 정보가 비정상 클래스로 분류된 경우에 CAM이 추출 및/또는 출력될 수 있다.
1.3.5 진단 보조 정보의 출력
진단 보조 정보는, 진단 보조 신경망 모델로부터 예측된 라벨에 기초하여 결정될 수 있다.
진단 보조 정보의 출력은 전술한 진단부의 출력 모듈에 의하여 수행될 수 있다. 진단 보조 정보는 진단 장치로부터 클라이언트 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치로부터 서버 장치로 출력될 수 있다. 진단 보조 정보는 진단 장치 또는 진단 서버에 저장될 수 있다. 진단 보조 정보는 별도로 마련된 서버 장치 등에 저장될 수 있다.
진단 보조 정보는 데이터베이스화 되어 관리될 수 있다. 예컨대, 획득된 진단 보조 정보는 피검체의 식별 번호에 따라 해당 피검체의 진단 대상 이미지와 함께 저장 및 관리될 수 있다. 이때, 피검체의 진단 대상 이미지 및 진단 보조 정보는 시간 순서에 따라 관리될 수 있다. 진단 보조 정보 및 진단 대상 이미지를 시계열적으로 관리함으로써, 개인별 진단 정보의 추적 및 이력 관리가 용이해질 수 있다.
진단 보조 정보는 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 진단 장치 또는 클라이언트 장치에 마련된 시각적 또는 청각적 출력 수단을 통하여 사용자가 인지할 수 있도록 출력될 수 있다.
본 발명의 일 실시예에 따르면, 사용자에게 진단 보조 정보를 효과적으로 제공하기 위한 인터페이스가 제공될 수 있다. 이러한 사용자 인터페이스와 관련하여서는 후술하는 5. 사용자 인터페이스 에서 보다 상세히 설명한다.
신경망 모델에 의하여 CAM이 획득된 경우, CAM의 이미지가 함께 제공될 수 있다. CAM 이미지의 경우 선택적으로 제공될 수 있다. 예컨대, 진단 보조 신경망 모델을 통하여 획득된 진단 정보가 정상 소견 정보 또는 정상 진단 정보인 경우 CAM 이미지를 제공하지 않고, 획득된 진단 정보가 비정상 소견 정보 또는 비정상 진단 정보인 경우, 보다 정확한 임상 진단을 위하여 CAM 이미지가 함께 제공될 수 있다.
이미지가 부적합한 것으로 분류된 경우, 이미지의 적합성 정보가 함께 제공될 수 있다. 일 예로, 이미지가 부적합한 것으로 분류된 경우, 해당 이미지에 따라 획득된 진단 보조 정보 및 부적합 판정 정보가 함께 제공될 수 있다.
부적합한 것으로 판정된 진단 대상 이미지는 재촬영 대상 이미지로 분류될 수도 있다. 이때, 재촬영 대상으로 분류된 이미지의 대상 객체에 대한 재촬영 안내가 적합성 정보와 함께 제공될 수 있다.
한편, 신경망 모델을 통하여 획득된 진단 보조 정보를 제공하는 것에 응답하여, 신경망 모델의 학습과 관련된 피드백이 획득될 수 있다. 예컨대, 신경망 모델의 학습과 관련된 파라미터 또는 하이퍼 파라미터를 조정하기 위한 피드백이 획득될 수 있다. 피드백은 진단 장치 또는 클라이언트 장치에 마련된 사용자 입력부를 통하여 획득될 수 있다.
본 발명의 일 실시예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 신경망 모델이 다중 분류를 수행하는 분류기 모델인 경우, 등급 정보는 진단 대상 이미지가 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 신경망 모델이 특정 질병과 관련된 수치를 출력하는 회귀 모델인 경우, 등급 정보는 출력되는 수치를 고려하여 결정될 수 있다.
예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다. 또는, 등급 정보는, 신경망 모델을 통하여 획득된 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.
한편, 등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.
진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.
진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다.
진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.
1.4 복수 라벨 대한 진단 보조 시스템
본 발명의 일 실시예에 따르면, 복수 라벨(예컨대, 복수의 진단 보조 정보)에 대하여 예측하기 위한 진단 보조 시스템이 제공될 수 있다. 이를 위하여, 전술한 진단 보조 시스템의 진단 보조 신경망을 복수의 라벨에 대하여 예측하도록 설계할 수 있다.
또는, 위와 전술한 진단 보조 시스템에 있어서, 서로 다른 라벨에 대하여 예측하는 복수의 진단 보조 신경망이 병렬적으로 이용될 수 있다. 이하에서는, 이러한 병렬 진단 보조 시스템에 대하여 설명한다.
1.4.1 병렬 진단 보조 시스템 구성
본 발명의 일 실시예에 따르면, 복수의 진단 보조 정보를 획득하기 위한 병렬 진단 보조 시스템이 제공될 수 있다. 병렬 진단 보조 시스템은 복수의 진단 보조 정보를 획득하기 위한 복수의 신경망 모델을 학습시키고, 학습된 복수의 신경망 모델을 이용하여 복수의 진단 보조 정보를 획득할 수 있다.
예컨대, 병렬 진단 보조 시스템은 안저 이미지에 기초하여, 피검체의 안질환 유무와 관련된 제1 진단 보조 정보를 획득하는 제1 신경망 모델 및 피검체의 전신 질환 유무와 관련된 제2 진단 보조 정보를 획득하는 제2 신경망 모델을 학습시키고, 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 피검체의 안질환 유무 및 전신 질환 유무에 관한 진단 보조 정보를 출력할 수 있다.
도 21 및 22는 본 발명의 몇몇 실시예에 따른 병렬 진단 보조 시스템을 설명하기 위한 도면이다. 도 21 및 22를 참조하면, 병렬 진단 보조 시스템은 복수의 학습부를 포함할 수 있다.
도 21을 참조하면, 본 발명의 일 실시예에 따른 병렬 진단 보조 시스템(30)은 학습 장치(1000), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 이때, 학습 장치(1000)는 복수의 학습부를 포함할 수 있다. 예를 들어, 학습 장치(1000)는 제1 학습부(100a) 및 제2 학습부(100b)를 포함할 수 있다.
도 22를 참조하면, 본 발명의 일 실시예에 따른 병렬 진단 보조 시스템(40)은 제1 학습 장치(1000a), 제2 학습 장치(1000b), 진단 장치(2000) 및 클라이언트 장치(3000)를 포함할 수 있다. 제1 학습 장치(1000a)는 제1 학습부(100a)를 포함할 수 있다. 제2 학습 장치(1000b)는 제2 학습부(100b)를 포함할 수 있다.
도 21 및 22를 참조하면, 제1 학습부(100a)는 제1 데이터 세트를 획득하고, 제1 신경망 모델에 대하여 학습 결과 얻어진 제1 신경망 모델의 제1 파라미터 세트를 출력할 수 있다. 제2 학습부(100b)는 제2 데이터 세트를 획득하고, 제2 신경망 모델에 대하여 학습 결과 얻어진 제2 신경망 모델의 제2 파라미터 세트를 출력할 수 있다.
진단 장치(2000)는 진단부(200)를 포함할 수 있다. 진단 장치(2000) 및 진단부(200)에 대하여는 도 1과 관련하여 설명한 내용이 유사하게 적용될 수 있다. 진단부(200)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 각각 학습된 제1 신경망 모델 및 제2 신경망 모델을 이용하여 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다. 진단부(2000)는 제1 학습부(100a) 및 제2 학습부(100b)로부터 획득한 학습된 제1 신경망 모델의 파라미터 및 학습된 제2 신경망 모델의 파라미터를 저장할 수 있다.
클라이언트 장치(3000)는 데이터 획득부 예컨대, 촬상부(300)를 포함할 수 있다. 다만, 촬상부(300)는 기타 진단 보조 정보의 획득에 이용되는 데이터의 획득 수단으로 대체될 수 있다. 클라이언트 장치는 진단 장치로 진단 요청 및 진단 대상 데이터(예컨대, 촬상부로부터 획득된 안저 이미지)를 전송할 수 있다. 클라이언트 장치(3000)는 진단 요청을 전송하는 것에 응답하여, 진단 장치로부터, 전송한 진단 대상 데이터에 따른 복수의 진단 보조 정보를 획득할 수 있다.
한편, 도 21 및 22에서는 진단 보조 시스템(40)이 제1 학습부(100a) 및 제2 학습부(100b)를 포함하는 경우를 기준으로 설명하였으나, 본 발명의 내용이 이에 한정되는 것은 아니다. 본 발명의 다른 실시예에 따르면, 학습 장치는 3개 이상의 서로 다른 진단 보조 정보를 획득하는 학습부를 포함할 수 있다. 또는, 진단 보조 시스템은 서로 다른 진단 보조 정보를 획득하는 복수의 학습 장치를 포함할 수도 있다.
학습 장치, 진단 장치 및 클라이언트 장치의 보다 구체적인 동작에 대하여는 이하에서 보다 상세하게 설명하기로 한다.
1.4.2 병렬 트레이닝 프로세스
본 발명의 일 실시예에 따르면, 복수의 신경망 모델이 학습될 수 있다. 각각의 신경망 모델을 학습하는 트레이닝 프로세스는 병렬적으로 수행될 수 있다.
1.4.2.1 병렬 학습부
트레이닝 프로세스는 복수의 학습부에 의해 수행될 수 있다. 각각의 트레이닝 프로세스는 서로 독립적으로 수행될 수 있다. 복수의 학습부는 하나의 학습 장치에 마련되거나 복수의 학습 장치에 각각 마련될 수 있다.
도 23은 본 발명의 일 실시예에 따른 복수의 학습부를 포함하는 학습 장치의 구성을 설명하기 위한 도면이다. 제1 학습부(100a) 및 제2 학습부(100b) 각각의 구성 및 동작은 도 9와 관련하여 전술한 것과 유사하게 구현될 수 있다.
도 23을 참조하면, 본 발명의 일 실시예에 따른 신경망 모델의 프로세스는, 제1 데이터 가공 모듈(110a), 제1 큐 모듈(130a), 제1 학습 모듈(150a) 및 제1 학습 결과 획득 모듈(170a)을 포함하는 제1 학습부(100a) 및 제2 데이터 가공 모듈(110b), 제2 큐 모듈(130b), 제2 학습 모듈(150b) 및 제2 학습 결과 획득 모듈(170b)을 포함하는 제2 학습부(100b)를 포함하는 학습 장치(1000)에 의하여 수행될 수 있다.
도 23을 참조하면, 본 발명의 일 실시예에 따른 신경망 모델의 트레이닝 프로세스는 제1 학습부(100a) 및 제2 학습부(100b)에 의하여 각각 수행될 수 있다. 제1 학습부(100a) 및 제2 학습부(100b)는 독립적으로 제1 신경망 모델 및 제2 신경망 모델의 학습을 수행할 수 있다. 도 23을 참조하면, 제1 학습부(100a) 및 제2 학습부(100b)는 전술한 학습 장치 내에 마련될 수 있다. 또는, 제1 학습부 및 제2 학습부는 서로 다른 학습 장치 내에 마련될 수도 있다.
1.4.2.2 병렬 데이터 획득
본 발명의 일 실시예에 따르면, 복수의 학습부는 데이터를 획득할 수 있다. 복수의 학습부는 서로 다른 데이터 세트를 획득할 수 있다. 또는, 복수의 학습부는 동일한 데이터 세트를 획득할 수도 있다. 경우에 따라, 복수의 학습부는 일부가 공통되는 데이터 세트를 획득할 수도 있다. 데이터 세트는 안저 이미지 데이터 세트일 수 있다.
제1 학습부는 제1 데이터 세트를 획득하고, 제2 학습부는 제2 데이터 세트를 획득할 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 구별될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 일부 공통될 수 있다. 제1 데이터 세트 및 제2 데이터 세트는 라벨링된 안저 이미지 데이터 세트일 수 있다.
제1 데이터 세트는 제1 특징에 대하여 정상(normal)으로 라벨링된 데이터 및 제1 특징에 대하여 비정상(abnormal)으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.
제2 데이터 세트는 (제1 특징과 구별되는)제2 특징에 대하여 정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터를 포함할 수 있다. 예를 들어, 제2 데이터 세트는 당뇨 망막증과 관련하여, 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함할 수 있다.
제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 정상으로 라벨링된 데이터 세트 및 제2 특징에 대하여 정상으로 라벨링된 데이터는 공통될 수 있다. 예를 들어, 제1 데이터 세트는 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하고, 제2 데이터 세트는 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 비정상인 것으로 라벨링된 안저 이미지를 포함하되, 제1 데이터 세트에 포함된 수정체 혼탁과 관련하여 정상인 것으로 라벨링된 안저 이미지 및 제2 데이터 세트에 포함된 당뇨 망막증과 관련하여 정상인 것으로 라벨링된 안저 이미지는 공통될 수 있다.
또는, 제1 데이터 세트 및 제2 데이터 세트 각각에 포함된 제1 특징에 대하여 비정상으로 라벨링된 데이터 및 제2 특징에 대하여 비정상으로 라벨링된 데이터가 공통될 수도 있다. 즉, 복수 특징에 대하여 라벨링된 데이터가 복수 특징에 대한 신경망 모델의 학습에 이용될 수도 있다.
한편, 제1 데이터 세트는 제1 방법으로 촬영된 안저 이미지 데이터 세트이고, 제2 데이터 세트는 제2 방법으로 촬영된 안저 이미지 데이터 세트일 수 있다. 제1 방법 및 제2 방법은 레드프리 촬영, 파노라마 촬영, 자가형광 촬영, 적외선 촬영 등으로부터 선택된 어느 하나의 방법일 수 있다.
각 학습부에서 이용되는 데이터 세트는, 학습되는 신경망에 의하여 획득되는 진단 보조 정보를 고려하여 결정될 수 있다. 예를 들어, 제1 학습부는 망막 이상 소견(예를 들어, 미세혈관류, 삼출물 등)과 관련된 진단 보조 정보를 획득하고자 하는 제1 신경망 모델을 학습시키는 경우, 레드프리 촬영된 제1 안저 이미지 데이터 세트를 획득할 수 있다. 또는, 제2 학습부는 황반 변성과 관련된 진단 보조 정보를 획득하고자 하는 제2 신경망 모델을 학습시키는 경우, 자가형광 촬영된 제2 안저 이미지 데이터 세트를 획득할 수 있다.
1.4.2.3 병렬 데이터 가공
복수의 학습부는 각각 획득된 데이터를 가공할 수 있다. 전술한 2.2 데이터 가공 프로세스 에서 설명한 것과 같이, 각각의 학습부는, 획득된 데이터에 대하여, 이미지 리사이징, 전처리 필터 적용, 이미지 증강 및 이미지 직렬화 프로세스 중 하나 이상을 적용하여 데이터를 가공할 수 있다. 제1 학습부의 제1 데이터 가공 모듈은 제1 데이터 세트를 가공하고, 제2 학습부의 제2 데이터 가공 모듈은 제2 데이터 세트를 가공할 수 있다.
복수의 학습부에 포함되는 제1 학습부 및 제2 학습부는 각각에 의해 학습되는 신경망 모델로부터 획득되는 진단 보조 정보를 고려하여 획득된 데이터 세트를 달리 가공할 수 있다. 예를 들어, 제1 학습부는 고혈압과 관련된 제1 진단 보조 정보를 획득하기 위한 제1 신경망 모델을 학습시키기 위하여, 제1 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 혈관이 강조되도록 하는 전처리를 수행할 수 있다. 또는, 제2 학습부는 망막의 삼출물, 미세 혈관 등의 이상 소견과 관련된 제2 진단 보조 정보를 획득하기 위한 제2 신경망 모델을 학습시키기 위하여, 제2 안저 이미지 데이터 세트에 포함된 안저 이미지들에 대하여 레드프리 이미지로 변환하는 전처리를 수행할 수도 있다.
1.4.2.4 병렬 큐
복수의 학습부는 데이터를 큐에 저장할 수 있다. 전술한 2.2.6 큐 에서 설명한 것과 같이, 각각의 학습부는 처리된 데이터를 큐에 저장하고 학습 모듈로 전달할 수 있다. 예를 들어, 제1 학습부는 제1 데이터 세트를 제1 큐 모듈에 저장하고 제1 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다. 제2 학습 모듈은 제2 데이터 세트를 제2 큐 모듈에 저장하고 제2 학습 모듈에 순차적으로 또는 랜덤하게 제공할 수 있다.
1.4.2.5 병렬 학습 프로세스
복수의 학습부는 신경망 모델을 학습시킬 수 있다. 각각의 학습 모듈은 트레이닝 데이터 세트를 이용하여 서로 다른 라벨에 대하여 예측하는 진단 보조 신경망 모델을 각각 독립적으로 학습시킬 수 있다. 제1 학습부의 제1 학습 모듈은 제1 신경망 모델을 학습시키고, 제2 학습부의 제2 학습 모듈은 제2 신경망 모듈을 학습시킬 수 있다.
복수의 진단 보조 신경망 모델은 병렬적 및/또는 독립적으로 학습될 수 있다. 이와 같이 복수의 신경망 모델을 통하여 서로 다른 라벨에 대하여 예측하도록 모델을 학습시킴으로써, 각 라벨에 대한 예측 정확도가 향상되고, 예측 동작의 효율이 증가될 수 있다.
각각의 진단 보조 신경망 모델은 2.3.2 모델의 설계 에서 설명한 것과 유사하게 마련될 수 있다. 각각의 서브 학습 프로세스는 2.3.1 내지 2.3.5 에서 전술한 것과 유사하게 수행될 수 있다.
본 발명의 일 실시예에 따른 병렬 학습 프로세스는, 서로 다른 라벨을 예측하는 진단 보조 신경망 모델을 학습시키는 것을 포함할 수 있다. 제1 학습부는 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 제2 학습부는 제2 라벨을 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다.
제1 학습부는 제1 데이터 세트를 획득하고 제1 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제1 학습부는 황반 변성 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 황반 변성 여부를 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다.
제2 학습부는 제2 데이터 세트를 획득하고 제2 라벨을 예측하는 제1 진단 보조 신경망 모델을 학습시킬 수 있다. 예컨대, 제2 학습부는 당뇨 망막증 해당 여부에 대하여 라벨링된 안저 이미지 트레이닝 데이터 세트를 이용하여, 안저 이미지로부터 피검체의 당뇨 망막증 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 학습시킬 수 있다.
신경망 모델의 학습 프로세스에 대하여는 이하에서 도 24 및 25를 참조하여 보다 구체적으로 설명한다.
도 24는 본 발명의 일 실시예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 병렬 학습 프로세스는, 병렬 진단 보조 시스템이 도 21과 같이 구현된 경우, 도 22과 같이 구현된 경우 및 그 외의 형태로 구현된 경우 모두에 적용될 수 있다. 다만, 설명의 편의를 위하여, 이하에서는 도 21과 같이 구현된 병렬 진단 보조 시스템을 기준으로 설명한다.
도 24를 참조하면, 병렬 학습 프로세스는 서로 다른 라벨을 예측하는 복수의 진단 보조 신경망 모델을 각각 학습시키는 복수의 서브 학습 프로세스를 포함할 수 있다. 병렬 학습 프로세스는 제1 신경망 모델을 학습시키는 제1 서브 학습 프로세스 및 제2 신경망 모델을 학습시키는 제2 서브 학습 프로세스를 포함할 수 있다.
예컨대, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1010a), 제1 신경망 모델을 이용하고(S1030a), 제1 모델(즉, 제1 진단 보조 신경망 모델)을 검증하고(S1050a) 제1 신경망 모델의 파라미터를 획득(S1070a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1010b), 제2 신경망 모델을 이용하고(S1030b), 제2 신경망 모델을 검증(즉, 제2 진단 보조 신경망 모델)하고(S1050b) 제2 신경망 모델의 파라미터를 획득(S1070b)하여 수행될 수 있다.
서브 학습 프로세스는 서브 신경망 모델에 트레이닝 데이터를 입력하고, 출력으로 얻어진 라벨 값을 입력 트레이닝 데이터와 비교하여 모델을 검증하고, 검증 결과를 다시 서브 신경망 모델에 반영함으로써 신경망 모델을 학습시키는 것을 포함할 수 있다.
각각의 서브 학습 프로세스는, 임의의 가중치 값들이 부여된 신경망 모델을 이용하여 결과값을 획득하고, 획득된 결과값을 트레이닝 데이터의 라벨값과 비교하고 그 오차에 따라 역전파를 수행하여, 가중치 값들을 최적화하는 것을 포함할 수 있다.
각각의 서브 학습 프로세스에서, 진단 보조 신경망 모델은 트레이닝 데이터 세트와 구별되는 검증 데이터 세트를 통하여 검증될 수 있다. 제1 신경망 모델 및 제2 신경망 모델을 검증하기 위한 검증 데이터 세트는 구별될 수 있다.
복수의 학습부는 학습 결과를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습 모듈로부터 학습된 신경망 모듈에 관한 정보를 획득할 수 있다. 각각의 학습 결과 획득 모듈은 학습부로부터 학습된 신경망 모듈의 파라미터 값들을 획득할 수 있다. 제1 학습부의 제1 학습 결과 획득 모듈은 제1 학습 모듈로부터 학습된 제1 신경망 모델의 제1 파라미터 세트를 획득할 수 있다. 제2 학습부의 제2 학습 결과 획득 모듈은 제2 학습 모듈로부터 학습된 제2 신경망 모델의 제2 파라미터 세트를 획득할 수 있다.
각각의 서브 학습 프로세스에 의하여, 학습된 신경망 모델의 최적화된 파라미터 값들, 즉 파라미터 세트가 획득될 수 있다. 보다 많은 트레이닝 데이터 세트를 이용하여 학습을 진행함에 따라, 보다 적절한 파라미터 값들이 얻어질 수 있다.
제1 서브 학습 프로세스에 의하여 학습된 제1 진단 보조 신경망 모델의 제1 파라미터 세트가 획득될 수 있다. 제2 서브 학습 프로세스에 의하여 학습된 제2 진단 보조 신경망 모델의 제2 파라미터 세트가 획득될 수 있다. 학습이 충분히 진행됨에 따라, 제1 진단 보조 신경망 모델의 및 제2 진단 보조 신경망 모델의 가중치(weight) 및/또는 편향(bias)의 최적화된 값이 획득될 수 있다.
획득된 각 신경망 모델의 파라미터 세트는 학습 장치 및/또는 진단 장치(또는 서버)에 저장될 수 있다. 제1 진단 보조 신경망 모델의 제1 파라미터 세트 및 제2 진단 보조 신경망 모델의 제2 파라미터 세트는 함께 또는 따로 저장될 수 있다. 학습된 각 신경망 모델의 파라미터 세트는 진단 장치 또는 클라이언트 장치로부터 획득된 피드백에 의하여 갱신될 수도 있다.
1.4.2.6 병렬 앙상블 학습 프로세스
복수의 신경망 모델을 병렬적으로 학습시키는 경우에도, 전술한 앙상블 형태의 모델 학습이 이용될 수 있다. 각각의 서브 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다. 복수의 서브 모델은 서로 다른 계층 구조를 가질 수 있다. 이하에서, 별다른 언급이 없는 한 2.3.7 에서 설명한 내용이 유사하게 적용될 수 있다.
복수의 진단 보조 신경망 모델이 병렬적으로 학습되는 경우에, 각각의 진단 보조 신경망 모델을 학습시키는 서브 학습 프로세스 중 일부 서브 학습 프로세스는 단일 모델을 학습시키고, 일부 서브 학습 프로세스는 복수의 서브 모델을 함께 학습시키는 형태로 구현될 수도 있다.
각 서브 학습 프로세스에서 앙상블을 이용하여 모델을 학습시킴에 따라, 각각의 서브 프로세스에서 보다 최적화된 신경망 모델의 형태를 획득하고, 예측의 오차가 감소될 수 있다.
도 25는 본 발명의 다른 일 실시예에 따른 병렬 학습 프로세스를 설명하기 위한 도면이다. 도 25를 참조하면, 각 학습 프로세스는 복수의 서브 신경망 모델을 학습시키는 것을 포함할 수 있다.
도 25를 참조하면, 제1 서브 학습 프로세스는 제1 데이터를 획득하고(S1011a), 제 1-1 신경망 모델 및 제1-2 신경망 모델을 이용하고(S1031a, S1033a) 제 1-1 신경망 모델 및 제1-2 신경망 모델을 검증(S1051a)하여, 제1 신경망 모델의 최종 형태 및 그 파라미터를 결정(S1071a)하여 수행될 수 있다. 제2 서브 학습 프로세스는 제2 데이터를 획득하고(S1011b), 제 2-1 신경망 모델 및 제2-2 신경망 모델을 이용하고(S1031b, S1033b) 제 2-1 신경망 모델 및 제2-2 신경망 모델을 검증(S1051b)하여, 제1 모델(즉, 제1 진단 보조 신경망 모델)의 최종 형태 및 그 파라미터를 결정(S1071b)하여 수행될 수 있다.
제1 서브 학습 프로세스에서 학습되는 제1 신경망은 제1-1 신경망 모델, 제1-2 신경망 모델을 포함할 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 서로 다른 계층 구조로 마련될 수 있다. 제1-1 신경망 모델 및 제1-2 신경망 모델은 제1 데이터 세트를 획득하고 예측되는 라벨을 각각 출력할 수 있다. 또는, 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블에 의한 예측되는 라벨을 최종 예측 라벨로 결정할 수 있다.
이때, 제1-1 신경망 모델 및 제1-2 신경망 모델을 검증 데이터 세트를 이용하여 검증하고, 정확도가 높은 신경망 모델을 최종 신경망 모델로 결정할 수 있다. 또는, 제1-1 신경망 모델, 제1-2 신경망 모델 및 제1-1 신경망 모델 및 제1-2 신경망 모델의 앙상블을 검증하고, 그 중 정확도가 높은 경우의 신경망 모델 형태를 최종 제1 신경망 모델로 결정할 수도 있다.
제2 서브 학습 프로세스에 대하여도 마찬가지로, 제2-1 신경망 모델, 제2-2 신경망 모델 및 제2-1 신경망 모델, 제2-2 신경망 모델의 앙상블 중 정확도가 높은 형태의 신경망을 최종 제2 모델(즉, 제2 진단 보조 신경망 모델)로 결정할 수 있다.
한편, 도 25에서는, 편의를 위하여 각 서브 학습 프로세스가 두 개의 서브 모델을 포함하는 경우를 기준으로 설명하였으나, 이는 예시에 불과하며, 본 발명이 이에 한정되지는 않는다. 각 서브 학습 프로세스에서 학습되는 신경망 모델은, 하나의 신경망 모델만을 포함하거나, 세 개 이상의 서브 모델을 포함할 수도 있다.
1.4.3 병렬 진단 프로세스
본 발명의 일 실시예에 의하면, 복수의 진단 보조 정보를 획득하는 진단 프로세스가 제공될 수 있다. 복수의 진단 보조 정보를 획득하는 진단 프로세스는 서로 독립적인 복수의 진단 프로세스를 포함하는 병렬 진단 보조 프로세스 형태로 구현될 수 있다.
1.4.3.1 병렬 진단부
본 발명의 일 실시예에 따르면, 진단 보조 프로세스는 복수의 진단 모듈에 의하여 수행될 수 있다. 각각의 진단 보조 프로세스는 독립적으로 수행될 수 있다.
도 26은 본 발명의 일 실시예에 따른 진단부(200)를 설명하기 위한 블록도이다.
도 26을 참조하면, 본 발명의 일 실시예에 따른 진단부(200)는 진단 요청 획득 모듈(211), 데이터 가공 모듈(231), 제1 진단 모듈(251), 제2 진단 모듈(253) 및 출력 모듈(271)을 포함할 수 있다. 진단부(200)의 각 모듈은 특별한 언급이 없는 한, 도 18에서 도시하는 진단부의 진단 모듈과 유사하게 동작할 수 있다.
도 26에서는, 진단부(200)가 복수의 진단 모듈을 포함하는 경우에도, 진단 요청 획득 모듈(211), 데이터 가공 모듈(231) 및 출력 모듈(271)은 공통되는 것으로 도시하였으나, 본 발명이 이러한 구성에 한정되는 것은 아니며, 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 복수로 마련될 수도 있다. 복수의 진단 요청 획득 모듈, 데이터 가공 모듈 및/또는 출력 모듈 역시 병렬적으로 동작할 수도 있다.
예를 들어, 진단부(200)는 입력된 진단 대상 이미지에 대하여 제1 가공을 수행하는 제1 데이터 가공 모듈 및 진단 대상 이미지에 대하여 제2 데이터 가공을 수행하는 제2 가공 모듈을 포함하고, 제1 진단 모듈은 제1 가공된 진단 대상 이미지에 기초하여 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 제2 가공된 진단 대상 이미지에 기초하여 제2 진단 보조 정보를 획득할 수 있다. 제1 가공 및/또는 제2 가공은 이미지 리사이징, 이미지의 색상 변조, 블러 필터 적용, 혈관 강조 처리, 레드프리 변환, 일부 영역 크롭, 일부 요소 추출 중 선택된 어느 하나일 수 있다.
복수의 진단 모듈은 서로 다른 진단 보조 정보를 획득할 수 있다. 복수의 진단 모듈은 서로 다른 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득할 수 있다. 예를 들어, 제1 진단 모듈은 피검체의 안질환 해당 여부를 예측하는 제1 신경망 모델을 이용하여 피검체의 안질환 해당 여부와 관련된 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 피검체의 전신 질환 해당 여부를 예측하는 제2 신경망 모델을 이용하여 피검체의 전신 질환 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.
보다 구체적인 예로, 제1 진단 모듈은 안저 이미지에 기초하여 피검체의 당뇨 망막증 해당 여부를 예측하는 제1 진단 보조 신경망 모델을 이용하여 피검체의 당뇨 망막증 해당 여부에 관한 제1 진단 보조 정보를 획득하고, 제2 진단 모듈은 안저 이미지에 기초하여 피검체의 고혈압 해당 여부를 예측하는 제2 진단 보조 신경망 모델을 이용하여 피검체의 고혈압 해당 여부와 관련된 제2 진단 보조 정보를 획득할 수 있다.
1.4.3.2 병렬 진단 프로세스
본 발명의 일 실시예에 따른 진단 보조 프로세스는 복수의 서브 진단 프로세스를 포함할 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 보조 신경망 모델을 이용하여 수행될 수 있다. 각각의 서브 진단 프로세스는 서로 다른 진단 모듈에서 수행될 수 있다. 예컨대, 제1 진단 모듈은 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하는 제1 서브 진단 프로세스를 수행할 수 있다. 또는, 제2 진단 모듈은 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 제2 서브 진단 프로세스를 수행할 수 있다.
학습된 복수의 신경망 모델은 진단 대상 데이터를 입력으로 하여, 예측되는 라벨 또는 확률을 출력할 수 있다. 각각의 신경망 모델은 분류기 형태로 마련되고, 입력되는 진단 대상 데이터를 소정의 라벨에 대하여 분류할 수 있다. 이때, 복수의 신경망 모델은 서로 다른 특성에 대하여 학습된 분류기 형태로 마련될 수 있다. 각각의 신경망 모델은 3.4.2 에서 전술한 것과 같이 진단 대상 데이터를 분류할 수 있다.
한편, 각각의 진단 보조 신경망 모델로부터, CAM이 획득될 수 있다, CAM은 선택적으로 획득될 수 있다. CAM은 미리 정해진 조건이 만족되는 경우에 추출될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우에 제1 진단 보조 신경망 모델로부터 제1 CAM이 획득될 수 있다.
도 27은 본 발명의 일 실시예에 따른 진단 보조 프로세스를 설명하기 위한 도면이다.
도 27을 참조하면, 본 발명의 일 실시예에 따른 진단 보조 프로세스는 진단 대상 데이터를 획득(S2011)하고, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델을 이용하여(S2031a, S2031b) 진단 대상 데이터에 따른 진단 보조 정보를 획득(S2051)하는 것을 포함할 수 있다. 진단 대상 데이터는 가공된 데이터일 수 있다.
본 발명의 일 실시예에 따른 진단 보조 프로세스는 학습된 제1 진단 보조 신경망 모델을 통하여 제1 진단 보조 정보를 획득하고, 학습된 제2 진단 보조 신경망 모델을 통하여 제2 진단 보조 정보를 획득하는 것을 포함할 수 있다. 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 동일한 진단 대상 데이터에 기초하여 각각 제1 진단 보조 정보 및 제2 진단 보조 정보를 획득할 수 있다.
예를 들어, 제1 진단 보조 신경망 모델 및 제2 진단 보조 신경망 모델은 진단 대상 안저 이미지에 기초하여, 피검체의 황반 변성 여부에 관한 제1 진단 보조 정보 및 피검체의 당뇨 망막증 해당 여부에 관한 제2 진단 보조 정보를 각각 획득할 수 있다.
이외에도, 특별한 언급이 없는 한, 도 27과 관련하여 설명하는 진단 보조 프로세스는 도 20과 관련하여 전술한 진단 보조 프로세스와 유사하게 구현될 수 있다.
1.4.3.3 진단 보조 정보의 출력
본 발명의 일 실시예에 따르면, 병렬 진단 보조 프로세스에 의하여 획득된 진단 보조 정보가 획득될 수 있다. 획득된 진단 보조 정보는 진단 장치, 서버 장치 및/또는 클라이언트 장치에 저장될 수 있다. 획득된 진단 보조 정보는 외부 장치로 전달될 수 있다.
복수의 진단 보조 정보는, 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨을 각각 지시할 수 있다. 복수의 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 각각 대응될 수 있다. 또는, 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측된 복수의 라벨에 기초하여 결정된 정보일 수 있다. 진단 보조 정보는 복수의 진단 보조 신경망 모델에 의하여 예측되는 복수의 라벨에 대응될 수 있다.
다시 말해, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨에 대응되는 진단 보조 정보일 수 있다. 또는, 제1 진단 보조 정보는 제1 진단 보조 신경망 모델을 통하여 예측된 제1 라벨 및 제2 진단 보조 신경망 모델을 통하여 예측된 제2 라벨을 함께 고려하여 결정된 진단 보조 정보일 수 있다.
한편, 복수의 진단 보조 신경망 모델로부터 획득된 CAM의 이미지가 출력될 수 있다. CAM 이미지는 미리 정해진 조건이 만족되는 경우에 출력될 수 있다. 예를 들어, 제1 진단 보조 정보가 피검체가 제1 특성에 대하여 비정상임을 지시하는 경우 또는 제2 진단 보조 정보가 피검체가 제2 특성에 대하여 비정상임을 지시하는 경우 중 어느 하나의 경우에, 비정상임인 것으로 지시된 진단 보조 정보가 출력된 진단 보조 신경망 모델로부터 획득된 CAM 이미지가 출력될 수 있다.
복수의 진단 보조 정보 및/또는 CAM 이미지는 사용자에게 제공될 수 있다. 복수의 진단 보조 정보 등은 진단 장치 또는 클라이언트 장치의 출력 수단을 통하여 사용자에게 제공될 수 있다. 진단 보조 정보는 시각적으로 출력될 수 있다. 이와 관련하여, 5. 사용자 인터페이스에서 보다 상세하게 설명한다.
본 발명의 일 실시예에 따르면, 진단 대상 이미지에 대응되는 진단 보조 정보는 등급 정보를 포함할 수 있다. 등급 정보는 복수의 등급 중 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 복수의 진단 정보 및/또는 소견 정보에 기초하여 결정될 수 있다. 등급 정보는 진단 대상 이미지의 적합성 정보 또는 품질 정보를 고려하여 결정될 수 있다. 등급 정보는 진단 대상 이미지가 복수의 신경망 모델에 의하여 분류된 클래스를 고려하여 결정될 수 있다. 등급 정보는 복수의 신경망 모델로부터 출력되는 수치를 고려하여 결정될 수 있다.
예를 들어, 진단 대상 이미지에 대응하여 획득된 진단 보조 정보는 제1 등급 정보 또는 제2 등급 정보 중 선택된 어느 하나의 등급 정보를 포함할 수 있다. 등급 정보는, 복수의 신경망 모델을 통하여 획득된 진단 정보 중, 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보가 획득된 경우, 제1 등급 정보로 선택될 수 있다. 등급 정보는 신경망 모델을 통하여 획득된 진단 정보 중, 비정상 소견 정보 또는 비정상 진단 정보가 획득되지 않은 경우, 제2 등급 정보로 선택될 수 있다.
등급 정보는, 신경망 모델을 통하여 획득된 수치들 중 적어도 하나의 수치가 기준 수치를 초과하는 경우 제1 등급 정보로 선택되고, 획득된 수치들 모두가 기준 수치에 못 미치는 경우 제2 등급 정보로 선택될 수도 있다. 제1 등급 정보는 제2 등급 정보에 비하여, 진단 대상 이미지에 강한 비정상 정보가 존재함을 나타낼 수 있다.
등급 정보는, 이미지 분석 또는 신경망 모델을 이용하여, 진단 대상 이미지의 품질이 기준 이하인 것으로 판단된 경우, 제3 등급 정보로 선택될 수 있다. 혹은, 진단 보조 정보는 제3 등급 정보를 제1 또는 제2 등급 정보와 함께 포함할 수 있다.
진단 보조 정보가 제1 등급 정보를 포함하는 경우, 제1 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제1 사용자 안내는, 진단 보조 정보에 포함된 적어도 하나의 비정상 소견 정보 또는 비정상 진단 정보에 대응되는 사항을 포함할 수 있다. 예컨대, 제1 사용자 안내는, 진단 보조 정보에 포함된 비정상 정보에 대응되는 피검체(즉, 환자)에 대하여 보다 정밀한 검사가 요구됨을 지시할 수 있다. 예컨대, 제1 사용자 안내는 피검체에 대한 2차 진단(예를 들어, 별도의 의료 기관에서의 진단 또는 전원 절차)가 요구됨을 지시할 수 있다. 또는, 제1 사용자 안내는 피검체에 대하여 요구되는 처치를 지시할 수 있다. 구체적인 예로, 진단 보조 정보에 의하여, 피검체의 황반 변성에 대한 비정상 정보가 획득된 경우, 제1 사용자 안내는 피검체에 대한 주사 처방 및 전원 절차에 대한 안내(예를 들어, 전원이 가능한 병원의 리스트)를 포함할 수 있다.
진단 보조 정보가 제2 등급 정보를 포함하는 경우, 제2 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제2 사용자 안내는 진단 보조 정보에 대응되는 피검체에 대한 추후 관리 방안을 포함할 수 있다. 예컨대, 제2 사용자 안내는 피검체의 다음 진료 시기, 다음 진료 과목 등을 지시할 수 있다.
진단 대상 정보가 제3 등급 정보를 포함하는 경우, 제3 사용자 안내가 출력 수단을 통하여 출력될 수 있다. 제3 사용자 안내는 진단 대상 이미지에 재촬영이 요구됨을 지시할 수 있다. 제3 사용자 안내는 진단 대상 이미지의 품질에 대한 정보를 포함할 수 있다. 예컨대, 제3 사용자 안내는 진단 대상 이미지에 존재하는 흠결의 정보(예컨대, bright artifact 인지 또는 dark artifact 인지, 혹은 그 정도)를 포함할 수 있다.
제1 내지 제3 등급 정보는, 클라이언트 장치 또는 진단 장치의 출력부에 의해 출력될 수 있다. 구체적으로, 후술하는 사용자 인터페이스를 통해 출력될 수 있다.
1.4.4 실시예 2 - 진단 보조 시스템
본 발명의 일 실시예에 따른 진단 보조 시스템은 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 진단 보조 시스템은 진단 장치를 포함할 수 있다. 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및/또는 진단 정보 출력부를 포함할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 진단 보조 시스템에 포함되는 각 부는 학습 장치, 진단 장치, 학습 진단 서버 및/또는 클라이언트 장치 상의 적절한 위치에 각각 위치될 수 있다. 이하에서는, 편의를 위하여 진단 보조 시스템의 진단 장치가 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함하는 경우를 기준으로 설명한다.
도 28은 본 발명의 일 실시예에 따른 진단 보조 시스템을 설명하기 위한 도면이다. 도 28을 참조하면, 진단 보조 시스템은 진단 장치를 포함하고, 진단 장치는 안저 이미지 획득부, 제1 처리부, 제2 처리부, 제3 처리부 및 진단 정보 출력부를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 안저 이미지에 기초하여 복수의 질병에 대한 진단을 보조하는 진단 보조 시스템은, 피검체에 대한 진단 보조 정보 획득의 기초가 되는 대상 안저 이미지를 획득하는 안저 이미지 획득부, 상기 대상 안저 이미지에 대하여 제1 신경망 모델 - 상기 제1 신경망 모델은 상기 제1 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제1 소견과 관련된 제1 결과를 획득하는 제1 처리부, 상기 대상 안저 이미지에 대하여 제2 신경망 모델 - 상기 제2 신경망 모델은 상기 제1 안저 이미지 세트와 적어도 일부가 상이한 제2 안저 이미지 세트를 기초로 기계 학습됨 - 을 이용하여 상기 피검체에 대한 제2 소견과 관련된 제2 결과를 획득하는 제2 처리부, 상기 제1 결과 및 상기 제2 결과에 기초하여, 상기 피검체에 대한 진단 정보를 결정하는 제3 처리부 및 사용자에게 상기 결정된 진단 정보를 제공하는 진단 정보 출력부를 포함할 수 있다. 이때, 제1 소견 및 상기 제2 소견은 서로 다른 질병에 대한 진단에 이용될 수 있다.
제1 신경망 모델은 입력된 안저 이미지를 상기 제1 소견과 관련하여 정상 라벨 및 비정상 라벨 중 어느 하나로 분류하도록 학습되고, 제1 처리부는 상기 제1 신경망 모델을 이용하여 상기 대상 안저 이미지를 상기 정상 라벨 또는 상기 비정상 라벨 중 어느 하나로 분류하여 상기 제1 결과를 획득할 수 있다.
제3 처리부는 제1 결과 및 제2 결과를 함께 고려하여, 대상 안저 이미지에 따른 진단 정보가 정상 정보인지 비정상 정보인지 결정할 수 있다.
제3 처리부는, 진단 정확도가 향상되도록, 상기 비정상 라벨에 우선권을 부여하여 상기 피검체에 대한 진단 정보를 결정할 수 있다.
제3 처리부는 상기 제1 라벨이 상기 제1 소견에 대한 정상 라벨이고, 상기 제2 라벨이 상기 제2 소견에 대한 정상 라벨인 경우, 상기 진단 정보를 정상으로 결정하고, 제1 라벨이 제1 소견에 대한 정상 라벨이 아니거나 상기 제2 라벨이 상기 제2 소견에 대한 정상 라벨이 아닌 경우, 상기 진단 정보를 비정상으로 결정할 수 있다.
제1 소견은 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 안질환에 대한 정상 여부를 지시할 수 있다. 제2 소견은 전신 질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 전신 질환에 대한 정상 여부를 지시할 수 있다.
제1 소견은 제1 안질환과 관련되고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 상기 제2 소견은 상기 제1 안질환과 구별되는 제2 안질환과 관련되고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다.
제1 소견은 제1 안질환을 진단하기 위한 소견이고, 상기 제1 결과는 상기 피검체의 상기 제1 안질환에 대한 정상 여부를 지시하고, 제2 소견은 상기 제1 안질환을 진단하기 위한 상기 제1 소견과 구별되는 소견이고, 상기 제2 결과는 상기 피검체의 상기 제2 안질환에 대한 정상 여부를 지시할 수 있다.
제1 신경망 모델은 제1 서브 신경망 모델 및 제2 서브 신경망 모델을 포함하고, 제1 결과는 상기 제1 서브 신경망 모델에 의해 예측되는 제1 예측값 및 상기 제2 서브 신경망 모델에 의해 예측되는 제2 예측값을 함께 고려하여 결정될 수 있다.
제1 처리부는 상기 제1 신경망 모델을 통하여 상기 제1 라벨과 관련된 CAM(Class Activation Map)을 획득하고, 진단 정보 출력부는 상기 CAM의 이미지를 출력할 수 있다.
진단 정보 출력부는 상기 제3 처리부에 의하여 획득된 상기 진단 정보가 비정상 진단 정보인 경우 상기 CAM의 이미지를 출력할 수 있다.
진단 보조 시스템은 상기 대상 안저 이미지의 품질 정보를 획득하는 제4 처리부를 더 포함하고, 진단 정보 출력부는 상기 제4 처리부에 의하여 획득된 상기 대상 안저 이미지의 품질 정보를 출력할 수 있다.
제4 처리부에서 상기 대상 안저 이미지의 품질 정보가 미리 정해진 품질 레벨 이하인 것으로 판단된 경우, 상기 진단 정보 출력부는, 상기 사용자에게 상기 결정된 진단 정보와 함께 상기 대상 안저 이미지의 품질 정보가 상기 미리 정해진 품질 레벨 이하인 것을 지시하는 정보를 함께 제공할 수 있다.
1.5 사용자 인터페이스
본 발명의 일 실시예에 따르면, 전술한 클라이언트 장치 또는 진단 장치는 진단 보조 정보를 사용자에게 제공하기 위한 표시부를 가질 수 있다. 이때, 표시부는 사용자에게 진단 보조 정보를 명확히 전달하고, 사용자로부터의 피드백 획득이 용이하도록 마련될 수 있다.
표시부의 일 예로서, 사용자에게 시각 정보를 제공하는 디스플레이가 제공될 수 있다. 이때, 사용자에게 진단 보조 정보를 시각적으로 전달하기 위한 그래픽 사용자 인터페이스가 이용될 수 있다. 예컨대, 안저 이미지에 기초하여 진단 보조 정보를 획득하는 안저 진단 보조 시스템에 있어서, 획득된 진단 보조 정보를 효과적으로 표시하고 사용자의 이해를 돕기 위한 그래픽 사용자 인터페이스가 제공될 수 있다.
도 29 및 30은 본 발명의 몇몇 실시예에 따른 사용자에게 진단 정보를 제공하기 위한 그래픽 사용자 인터페이스를 설명하기 위한 도면이다. 이하에서는, 도 29 및 30을 참조하여, 안저 진단 보조 시스템에서 이용될 수 있는 사용자 인터페이스에 대하여 몇몇 실시예를 들어 설명한다.
도 29를 참조하면, 본 발명의 일 실시예에 따른 사용자 인터페이스는 진단 대상 안저 이미지에 대응되는 피검체의 식별 정보를 표시할 수 있다. 사용자 인터페이스는 피검체(즉, 환자)의 식별 정보 및/또는 진단 대상 안저 이미지의 촬영 정보(예컨대, 촬영 날짜)를 표시하는 대상 이미지 식별 정보 표시부(401)를 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자 인터페이스는, 동일한 피검체의 좌안의 안저 이미지 및 우안의 안저 이미지를 각각 표시하는 안저 이미지 표시부(405)를 포함할 수 있다. 안저 이미지 표시부(405)는 CAM 이미지를 표시할 수도 있다.
본 발명의 일 실시예에 따른 사용자 인터페이스는 좌안의 안저 이미지 및 우안의 안저 이미지 각각에 대하여 좌안 또는 우안의 이미지임을 표시하고, 각 이미지의 진단 정보 및 사용자 확인 여부를 지시하는 진단 정보 지시자가 표시되는 진단 정보 지시부(403)를 포함할 수 있다.
진단 정보 지시자의 색상은 대상 안저 이미지에 기초하여 얻어진 진단 보조 정보를 고려하여 결정될 수 있다. 진단 정보 지시자는 진단 보조 정보에 따라 제1 색상 또는 제2 색상으로 표시될 수 있다. 일 예로, 하나의 대상 안저 이미지에 제1 내지 제3 진단 보조 정보를 획득한 경우, 하나의 진단 보조 정보라도 비정상(즉, 이상 소견 있음) 정보를 포함하는 경우, 진단 정보 지시자는 적색으로 표시되고, 모든 진단 보조 정보가 정상(즉, 이상 소견 없음) 정보를 포함하는 경우, 진단 정보 지시자는 녹색으로 표시될 수 있다.
진단 정보 지시자의 형태는 사용자의 확인 여부에 따라 결정될 수 있다. 진단 정보 지시자는 사용자의 확인 여부에 따라 제1 형태 또는 제2 형태로 표시될 수 있다. 일 예로, 도 25를 참조하면, 사용자에 의해 검토가 완료된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 원으로 표시되고, 사용자에 의해 미검토된 대상 안저 이미지에 대응되는 진단 정보 지시자는 채워진 반원으로 표시될 수 있다.
본 발명의 일 실시예에 따른 사용자 인터페이스는, 진단 보조 정보를 지시하는 진단 정보 지시부(407)를 포함할 수 있다. 진단 보조 정보 지시부는 좌안 및 우안 이미지에 각각 위치될 수 있다. 진단 보조 정보 지시부는 복수의 소견 정보 또는 진단 정보를 지시할 수 있다.
진단 보조 정보 지시부는 적어도 하나의 진단 보조 정보 지시자를 포함할 수 있다. 진단 보조 정보 지시자는 색상 변화를 통하여 각각 대응되는 진단 보조 정보를 지시할 수 있다.
예를 들어, 진단 대상 안저 이미지에 대하여, 제1 진단 보조 신경망 모델을 통하여 수정체 혼탁 유무를 지시하는 제1 진단 보조 정보, 제2 진단 보조 신경망 모델을 통하여 당뇨 망막증 소견 유무를 지시하는 제2 진단 보조 정보, 제3 진단 보조 신경망 모델을 통하여 망막 이상 소견 유무를 지시하는 제3 진단 보조 정보가 획득된 경우에, 진단 정보 지시부는 제1 진단 보조 정보, 제2 진단 보조, 제3 진단 보조 정보를 각각 지시하는 제1 내지 제3 진단 보조 정보 지시자를 포함할 수 있다.
보다 구체적인 예로, 도 29를 참조하면, 좌안 안저 이미지와 관련하여, 진단 정보 지시부(407)는 피검체의 좌안 안저 이미지에 기초하여 획득된 진단 보조 정보가 수정체 혼탁 비정상임을 지시하는 제1 진단 보조 정보, 당뇨 망막증 정상(이상 소견 없음)을 지시하는 제2 진단 보조 정보 및 망막 비정상(이상 소견 있음)을 지시하는 제3 진단 보조 정보가 획득된 경우에, 제1 색상을 띠는 제1 진단 보조 정보 지시자, 제2 색상을 띠는 제1 진단 보조 정보 지시자 및 제1 색상을 띠는 제3 진단 보조 정보 지시자를 표시할 수 있다.
본 발명의 일 실시예에 따른 사용자 인터페이스는, 사용자로부터 진단 대상 안저 이미지에 대한 사용자 코멘트를 획득할 수 있다. 사용자 인터페이스는 사용자 코멘트 오브젝트(409)를 포함하고, 사용자 코멘트 오브젝트에 대한 사용자 선택에 응답하여, 사용자 입력창을 표시할 수 있다. 사용자로부터 획득된 코멘트는 진단 보조 신경망 모델의 갱신에 이용될 수도 있다. 예컨대, 사용자 코멘트 오브젝트에 대한 선택에 응답하여 표시되는 사용자 입력창은, 신경망을 통한 진단 보조 정보에 대한 사용자 평가를 획득할 수 있고, 획득된 사용자 평가는 신경망 모델의 갱신에 이용될 수 있다.
본 발명의 일 실시예에 따른 사용자 인터페이스는, 각 진단 대상 안저 이미지에 대한 사용자 검토 여부를 표시하는 검토 지시 오브젝트(411)를 포함할 수 있다. 검토 지시 오브젝트는 각 진단 대상 이미지에 대한 사용자 검토가 완료되었음을 나타내는 사용자 입력을 획득 받고, 제1 상태에서 제2 상태로 그 표시가 변경될 수 있다. 예컨대, 도 29 및 도 30을 참조하면, 검토 지시 오브젝트는 확인 요청 문구를 표시하는 제1 상태에서, 사용자 입력이 획득되면, 확인 되었음을 나타내는 제2 상태로 변경될 수 있다.
진단 대상 안저 이미지의 목록(413)이 표시될 수 있다. 목록에는 피검체의 식별 정보, 이미지 촬영 날짜 및 양안 이미지에 대한 검토 여부 지시자(403)가 함께 표시될 수 있다.
진단 대상 안저 이미지의 목록(413)에는 검토가 완료된 진단 대상 안저 이미지를 나타내는 검토 완료 지시자(415)가 표시될 수 있다. 검토 완료 지시자(415)는 해당 이미지의 양안에 대한 검토 지시 오브젝트(411) 모두에 대하여 사용자 선택이 발생한 경우에 표시될 수 있다.
도 30을 참조하면, 사용자 그래픽 인터페이스는, 진단 대상 안저 이미지에 품질 이상이 있는 것으로 판단된 경우에, 사용자에게 대상 안저 이미지의 품질에 이상이 있음을 지시하는 저품질 경고 오브젝트(417)를 포함할 수 있다. 저품질 경고 오브젝트(417)는, 진단부로부터 진단 대상 안저 이미지가 진단 보조 신경망 모델로부터 적절한 진단 보조 정보가 예측될 수 있는 수준의 품질(즉, 기준 품질 레벨)에 미치지 아니하는 것으로 판단된 경우에 표시될 수 있다.
또한, 도 28을 참조하면 진단 대상 안저 이미지의 목록(413)에도 저품질 경고 오브젝트(419)가 표시될 수 있다.
2. 안저 이미지의 품질 판단
2.1 서론
2.1.1 배경 및 목적
본 명세서에서는 이미지를 이용하여 병변의 진단을 수행하기 위하여 흠결이 있는 이미지를 검출하는 방법 및 장치 등에 대하여 설명한다.
이미지에 기초하여 특정한 판단, 예컨대, 병변의 진단 등을 수행하기 위하여는 이미지가 적절하게 촬상된 것으로서 기준 이상의 품질을 가질 것이 전제되어야 한다. 따라서, 촬상 과정 또는 이미지의 처리 과정 등에서 발생한 흠결(defect)로 인하여 진단을 수행하기에 적합한 품질을 갖추지 못한 이미지는 질병 진단의 기초로 이용하지 않는 것이 바람직하며, 이에 따라 이미지에 기초한 진단에 앞서 이미지의 품질 판단이 선행될 수 있다.
일 예로, 안저 이미지에 기초하여 피검체에 대하여 특정 질병에 대한 진단을 수행하고자 하는 경우에도, 그 품질이 일정 수준 이상 보장된 안저 이미지에 한하여 그 진단의 기초로 이용되는 것이 적절할 것이다. 안저 이미지의 경우, 그 촬영 과정에서 빛의 입사각 또는 안저와의 거리 등에 따라 아티팩트(artifact)가 발생할 수 있으며, 이러한 아티팩트를 가지는 이미지의 경우 진단 근거 자료로서 이용되기 어려우므로, 안저 이미지의 품질 판단이 선행될 필요가 있다.
아티팩트가 있는 이미지를 근거로 질환의 진단을 수행할 경우, 정확한 진단이 어려울 수 있으므로, 오퍼레이터, 프로그램 관리자 등의 사람이 직접 촬상된 이미지의 품질을 판단하는 방법 등이 제시되어 이용된 바 있다.
그러나 처리해야 할 이미지가 다수인 경우에는 사람이 직접 각각의 이미지의 품질을 판단하는 것이 비효율적일 수 있다. 특히, 이미지에 기초하여 인공지능을 학습시키는 것과 같이 많은 수의 이미지가 이용되는 경우에는, 사람이 직접 다량의 이미지의 품질을 각각 판단하는 것은 인적 자원의 심각한 낭비를 초래할 수 있다.
또한, 사람의 판단 기준은 주관적인 것이어서, 판단을 수행하는 사람에 따라 달라질 수 있으며 동일인에 의한 판단이라 할지라도 모든 이미지에 대하여 일관적인 판단 기준을 기대하기는 어려울 수 있다.
본 명세서에서는 이미지의 품질 판단을 신속 및 정확하게 수행하고, 일정한 품질 판단 기준을 제공하기 위한 이미지 선별 방법 및 장치 등을 몇몇 실시예를 들어 설명한다. 이하에서는, 설명의 편의를 위하여 안저 이미지를 선별하는 방법 및 장치를 중심으로 설명하나, 본 명세서에서 설명하는 발명의 내용이 이에 한정되는 것은 아니다. 본 명세서에서 설명하는 발명은, 이미지의 품질 판단이 필요한 다양한 경우에 적용 또는 변용될 수 있다.
2.1.2 안저 이미지
본 명세서에서, 안저(fundus) 이미지란 동공을 통하여 들여다보이는 안구의 안쪽을 촬상한 이미지를 의미할 수 있다. 안저 이미지는 망막, 망막 혈관, 시신경 유두 및 맥락막 중 적어도 일부가 촬상된 이미지를 의미할 수 있다.
안저 이미지는 파노라마 이미지일 수 있다. 안저 이미지는 레드프리(Red-free) 이미지일 수 있다. 안저 이미지는 적외선 촬영된 이미지일 수 있다. 안저 이미지는 자가형광 촬영된 이미지일 수 있다. 이미지 데이터는 JPG, PNG, DCM(DICOM), BMP, GIF, TIFF 중 어느 하나의 형태로 획득될 수 있다.
도 31 은 본 발명의 일 실시예에 따른 안저 이미지(FI)의 영역 구분을 설명하기 위한 도면이다. 본 발명의 일 실시예에 따르면, 안저 이미지(FI)는 안저 이미지의 촬상 프레임 또는 촬상 조건과 관련된 복수의 영역을 포함할 수 있다.
도 31을 참조하면, 안저 이미지(FI)는 안저가 촬상된 안저 영역(FA), 안저가 포함되지 않은 비-안저 영역(NFA)을 포함할 수 있다. 경우에 따라, 안저 이미지(FI)는 비-안저 영역(NFA)을 포함하지 않을 수 있다. 안저 이미지(FI)는 촬상 장치의 구조 또는 카메라 제어 응용 프로그램에 의하여 구분된 안저 영역 및 비-안저 영역(NFA)을 포함할 수 있다.
도 32는 본 발명의 다른 일 실시예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다. 도 32를 참조하면, 안저 이미지(FI)의 안저 영역(FA)은 내측 영역(IA)과 외측 영역(OA)을 포함할 수 있다.
내측 영역(IA)과 외측 영역(OA)은 경계(BO)를 기준으로 구분될 수 있다. 경계(BO)는 안저 영역의 둘레와 동심원 형태일 수 있다. 경계(BO)는 원형으로 결정될 수 있다. 경계(BO)는 안저 영역의 중심을 그 중심으로 하고, 소정의 R을 반지름으로 하는 원형으로 결정될 수 있다. 외측 영역(OA)는 안저 영역의 중심으로부터 소정 거리 R 이상 이격된 영역으로 결정될 수 있다. 내측 영역(IA)는 안저 영역의 중심으로부터의 거리가 R 이하인 영역으로 결정될 수 있다.
경계(BO)는 내측 영역(IA)의 넓이와 외측 영역(OA)의 넓이 비가 소정의 값을 가지도록 결정될 수 있다. 경계(BO)는 내측 영역(IA)의 넓이와 안저 영역의 넓이의 비가 소정의 값을 가지도록 결정될 수 있다. 예컨대, 경계(BO)는 경계(BO)에 의하여 정의되는 내측 영역(IA)의 넓이가 안저 영역의 80%에 해당하도록 결정될 수 있다.
여기에서는, 내측 영역(IA)과 외측 영역(OA)이 경계(BO)를 기준으로 구분되는 경우를 기준으로 설명하였으나 이는 본 발명을 한정하는 것은 아니며, 내측 영역(IA)과 외측 영역(OA)은 일부 중첩되도록 결정될 수도 있다.
도 33은 본 발명의 다른 일 실시예에 따른 안저 이미지의 영역 구분을 설명하기 위한 도면이다. 본 발명의 일 실시예에 따르면, 안저 이미지는 안저 이미지에 포함된 해부학적 요소의 위치를 고려하여 결정된 복수의 영역을 포함할 수 있다.
도 33을 참조하면, 안저 영역(FA)은 황반부(MA), 시신경 유두부(ODA) 및 주변부를 포함할 수 있다. 안저 이미지는 안저 이미지로부터 검출된 황반 및/또는 시신경 유두의 위치에 기초하여 황반부, 시신경 유두부 및 주변부를 포함하도록 구분될 수 있다.
황반부(MA)는 안저 영역의 황반이 분포하는 영역을 포함하도록 결정될 수 있다. 시신경 유두부(ODA)는 안저 영역의 시신경 유두가 분포하는 영역을 포함하도록 결정될 수 있다. 주변부는 안저 영역으로부터 황반부(MA) 및 시신경 유두부(ODA)를 제외한 영역으로 결정될 수 있다.
황반부(MA), 시신경 유두부(ODA) 및 주변부의 경계는 황반 및/또는 시신경 유두의 위치에 기초하여 결정될 수 있다. 황반부(MA)의 경계는 황반이 분포하는 영역을 둘러싸도록 결정될 수 있다. 시신경 유두부(ODA)의 경계는 시신경 유두가 분포하는 영역을 둘러싸도록 결정될 수 있다.
주변부는 경우에 따라, 복수의 세부 영역으로 구분될 수 있다. 도 33을 참조하면, 상비부(SNA), 하비부(INA), 상측부(STA), 하측부(ITA) 및 측부(TA)를 포함할 수 있다. 상비부(SNA), 하비부(INA), 상측부(STA), 하측부(ITA) 및 측부(TA)는 황반 및/또는 시신경 유두의 위치에 기초하여 구분될 수 있다.
상비부(SNA), 하비부(INA), 상측부(STA), 하측부(ITA) 및 측부(TA)의 경계는 황반 및/또는 시신경 유두의 위치에 기초하여 구분될 수 있다. 예컨대, 황반의 위치(예컨대, 근사적 중심점)와 시신경 유두의 위치(예컨대, 근사적 중심점)를 연결하는 제1 직선 및 제1 직선에 직교하고 시신경 유두의 위치를 지나는 제2 직선을 고려하여 상비부(SNA), 하비부(INA), 상측부(STA), 하측부(ITA) 및 측부(TA)가 결정될 수 있다. 또 예컨대, 제1 직선에 평행하고 황반부(MA)에 접하는 제3 직선 및 제4 직선을 고려하여 측부(TA)가 결정될 수도 있다.
도 32 및 33에서는 각 영역이 점선으로 나타내어진 경계에 의하여 구분되는 경우를 설명하였으나, 실시 예에 따라, 각 영역은 일부 중첩되도록 정의될 수도 있다.
도 31 내지 33과 관련하여 상술한 영역 및/또는 경계는 서로 다른 이미지에 대하여 일관되게 이용될 수 있다. 또는, 상술한 영역 및/또는 경계는, 각각의 이미지에 대하여 적절하게 결정되어 이용될 수 있다. 상술한 영역 및/또는 경계는, 사용자 입력에 의해 결정 및 이용될 수 있다. 도 31 내지 33에서 설명하는 안저 이미지의 영역 구분은 예시적인 것에 불과하며, 안저 이미지를 구분하는 경계 또는 안저 이미지의 세부 영역은 다양한 형태로 구현될 수 있다. 예컨대, 안저 이미지의 세부 영역은 필요에 따라 사용자에 의해 구분될 수 있다.
안저 이미지는 안질환의 진단에 이용될 수 있다. 안저 이미지는 녹내장, 백내장, 황반 변성, 미숙아 망막증 등의 안질환 진단에 이용될 수 있다. 안저 이미지는, 출혈, 삼출물, 면화반, 드루젠 및 드루제노이드 침착물(drusen & drusenoid deposits), 혼탁, 변성, 증식 조직, 혈관 이상, 망막 색소 변화(retinal pigmentary change), 황반 이상, 황반 천공(macular hole), 맥락 망막 위축(chroioretinal atrophy) 등의 병변 진단에 이용될 수 있다.
안저 이미지는 안질환이 아닌 타 질환(예컨대, 전신 실환 또는 만성 질환)의 진단에 이용될 수 있다. 예를 들어, 안저 이미지는 당뇨병(또는 당뇨 망막증), 알츠하이머, 거대 세포 바이러스, 뇌졸중 등의 질환의 진단에 이용될 수 있다. 다른 예를 들어, 안저 이미지는 심혈관 질환(심장 질환, 관상동맥 질환 등)의 진단에 이용될 수 있다. 안저 이미지는 고혈압, 저혈압, 동맥 경화증, 협심증, 심부전 등의 진단에 이용될 수 있다.
안저 이미지로부터, 안질환 또는 타 질환을 진단하기 위한 소견이 식별될 수 있다. 예를 들어, 안저 이미지로부터, 안저 전반의 색상 이상, 수정체 혼탁(Opacity), 시신경 유두의 비율(C/D ratio; cup to disc ratio)의 이상, 황반 이상(예를 들어, 황반 원공), 혈관의 직경, 주행 등의 이상, 망막 동맥의 직경 이상, 망막의 출혈, 삼출물의 발생, 드루젠(drusen) 등의 소견이 식별될 수 있다.
2.2 이미지 관리 시스템 및 장치
2.2.1 시스템 및 동작
본 발명의 일 실시예에 의하면, 안저 이미지의 품질을 판단하고, 안저 이미지를 관리하는 이미지 관리 시스템 및/또는 장치가 제공될 수 있다. 이미지 관리 시스템 및/또는 장치는 본 명세서에서 설명하는 이미지 품질 판단 방법 등을 수행할 수 있다. 본 명세서에서 개시하는 안저 이미지의 품질 판단 방법 등은 전술한 진단 보조 시스템 또는 진단 보조 시스템을 구성하는 장치에 의하여 수행될 수도 있다.
본 명세서에서 개시하는 이미지 관리 시스템 및/또는 장치, 이미지 품질 관리 시스템 및/또는 장치 등은 도 1 내지 9와 관련하여 전술한 진단 보조 시스템 및/또는 장치와 유사하게 구현될 수 있다. 다시 말해, 도 1 내지 9와 관련하여 전술한 진단 보조 시스템은 안저 이미지의 품질을 관리하는 이미지 관리 시스템으로 구현될 수도 있다.
일 예로, 이미지 관리 시스템은 학습 장치, 진단 장치, 클라이언트 장치를 포함할 수 있으며 이는 도 1의 진단 보조 시스템과 유사하게 동작할 수 있다. 학습 장치, 진단 장치 및/또는 클라이언트 장치는 본 명세서에서 설명하는 안저 이미지의 품질 판단 및/또는 안저 이미지의 적합성 판단을 수행할 수 있다. 이미지 관리 시스템에 포함되는 진단 장치(또는 이미지 관리 장치)는 도 4 또는 도 5에서 설명하는 진단 장치와 유사하게 동작할 수 있다.
다른 예로, 이미지 관리 시스템은 진단 장치 및 클라이언트 장치를 포함할 수 있다. 진단 장치는 학습 장치 및/또는 서버 장치의 기능을 수행할 수 있다. 진단 장치 및/또는 클라이언트 장치는 본 명세서에서 설명하는 안저 이미지의 품질 판단 및/또는 안저 이미지의 적합성 판단을 수행할 수 있다.
또 다른 예로, 이미지 관리 시스템은 서버 장치를 더 포함할 수 있다. 서버 장치는 도 6과 관련하여 전술한 것과 유사하게 동작할 수 있다. 서버 장치는 본 명세서에서 설명하는 안저 이미지의 품질 판단 및/또는 안저 이미지의 적합성 판단을 수행할 수 있다.
또 다른 예로, 이미지 관리 시스템은 모바일 장치를 포함할 수 있다. 모바일 장치는 전술한 학습 장치, 진단 장치 및/또는 클라이언트 장치의 동작 중 전부 또는 일부를 수행할 수 있다. 모바일 장치는 서버 장치와 통신할 수도 있다. 모바일 장치는 본 명세서에서 설명하는 안저 이미지의 품질 판단 및/또는 안저 이미지의 적합성 판단을 수행할 수 있다.
이상에서는 이미지 관리 시스템에 대하여 몇 가지 예를 들어 설명하였으나, 위에서 설명되지 않은 경우라 할지라도, 도 1 내지 9와 관련하여 설명하는 진단 보조 시스템에 관련된 기재로부터 이미지 관리 시스템의 구성이 유사하게 구성될 수 있음은 자명하다.
2.2.2 장치 및 동작
도 1 내지 도 9와 관련하여 전술한 진단 보조 시스템(10, 20) 및 시스템에 포함되는 장치는 안저 이미지의 품질 판단을 수행할 수 있다.
일 실시예에 따르면, 학습 장치(1000)는 안저 이미지의 품질을 판단하는 품질 판단부를 포함할 수 있다. 학습 장치(1000)는 안저 이미지의 적합성을 판단하는 적합성 판단부를 포함할 수 있다. 학습 장치(1000)는 품질 판단부를 이용하여 학습을 위한 안저 데이터의 품질을 판단하고, 품질 판단 결과 선택된 이미지를 이용하여 신경망 모델의 학습을 수행할 수 있다. 학습 장치(1000)는 적합성 판단부를 이용하여 안저 이미지의 대상 질병에 대한 적합성을 판단하고, 적합성 판단 결과 선택된 이미지를 이용하여 신경망 모델의 학습을 수행할 수 있다.
학습 장치(1000)의 품질 판단부 또는 적합성 판단부는 학습 장치(1000)의 제어부(1200)에 포함될 수 있다. 학습 장치(1000)의 제어부(1200)는 학습 장치(1000)의 품질 판단부 또는 적합성 판단부의 동작을 수행할 수 있다. 학습 장치(1000)의 품질 판단부 또는 적합성 판단부는 학습 장치(1000)의 프로세서(1050)에 포함될 수 있다. 학습 장치(1000)의 프로세서(1050)는 학습 장치(1000)의 품질 판단부 또는 적합성 판단부의 동작을 수행할 수 있다.
일 실시예에 따르면, 진단 장치(2000)는 안저 이미지의 품질을 판단하는 품질 판단부를 포함할 수 있다. 진단 장치(2000)는 안저 이미지의 적합성을 판단하는 적합성 판단부를 포함할 수 있다. 진단 장치(2000)는 피검체의 안저 이미지를 획득하고, 품질 판단부를 이용하여 획득된 안저 이미지의 품질을 판단할 수 있다. 진단 장치(2000)는 피검체의 안저 이미지를 획득하고, 적합성 판단부를 이용하여 획득된 안저 이미지의 품질을 판단할 수 있다. 진단 장치(2000)는 품질 판단부를 이용하여 안저 이미지의 품질을 판단하고 품질 판단 결과 선택된 이미지를 이용하여 신경망 모델로부터 진단 보조 정보를 획득할 수 있다. 진단 장치(2000)는 적합성 판단부를 이용하여 안저 이미지의 적합성을 판단하고, 판단 결과 선택된 이미지를 이용하여 신경망 모델로부터 진단 보조 정보를 획득할 수 있다.
진단 장치(2000)의 품질 판단부 또는 적합성 판단부는 진단 장치(2000)의 제어부(2200)에 포함될 수 있다. 진단 장치(2000)의 제어부(2200)는 진단 장치(2000)의 품질 판단부 또는 적합성 판단부의 동작을 수행할 수 있다. 진단 장치(2000)의 품질 판단부 또는 적합성 판단부는 진단 장치(2000)의 프로세서(2050)에 포함될 수 있다. 진단 장치(2000)의 프로세서(2050)는 진단 장치(2000)의 품질 판단부 또는 적합성 판단부의 동작을 수행할 수 있다.
일 실시예에 따르면, 클라이언트 장치(3000)는 장치는 안저 이미지의 품질을 판단하는 품질 판단부 또는 안저 이미지의 적합성을 판단하는 적합성 판단부를 포함할 수 있다. 클라이언트 장치(3000)는 피검체의 안저 이미지를 획득하고, 품질 판단부를 이용하여 획득된 안저 이미지의 품질을 판단할 수 있다. 클라이언트 장치(3000)는 피검체의 안저 이미지를 획득하고, 적합성 판단부를 이용하여 획득된 안저 이미지의 품질을 판단할 수 있다. 클라이언트 장치(3000)는 안저 이미지의 품질을 판단하고, 품질 판단부를 이용하여 획득된 품질 판단 결과에 기초하여 선택된 이미지를 외부 장치(예컨대, 진단 장치 또는 서버 장치)로 전송할 수 있다.
클라이언트 장치(3000)의 품질 판단부 또는 적합성 판단부는 클라이언트 장치(3000)의 제어부(3300) 또는 프로세서에 포함될 수 있다. 클라이언트 장치(3000)의 제어부(3200) 또는 프로세서는 클라이언트 장치(3000)의 품질 판단부 또는 적합성 판단부의 동작을 수행할 수 있다.
일 실시예에 따르면, 서버 장치(4000)는 안저 이미지의 품질을 판단하는 품질 판단부 또는 안저 이미지의 적합성을 판단하는 적합성 판단부를 포함할 수 있다. 서버 장치(4000)는 품질 판단부를 이용하여 학습 장치 또는 클라이언트 장치로부터 획득된 이미지의 품질을 판단할 수 있다. 서버 장치(4000)는 품질 판단부를 이용하여 외부 장치(예컨대, 클라이언트 장치)로부터 획득된 이미지의 품질을 판단하고, 품질 판단 결과 선택된 이미지를 대상으로 진단을 수행할 수 있다. 또는, 서버 장치(4000)의 품질 판단부는 안저 이미지 데이터 세트에 포함되는 안저 이미지의 품질을 판단하고, 품질 판단 결과 선택된 이미지를 외부 장치(예컨대, 클라이언트 장치 또는 진단 장치)로 전달할 수 있다. 서버 장치(4000)는 적합성 판단부를 이용하여 외부 장치(예컨대, 클라이언트 장치)로부터 획득된 이미지의 품질을 판단하고, 적합성 판단 결과 선택된 이미지를 대상으로 진단을 수행하거나 선택된 이미지를 외부 장치(예컨대, 클라이언트 장치 또는 진단 장치)로 전송할 수 있다.
서버 장치(4000)의 품질 판단부 또는 적합성 판단부는 서버 장치의 제어부 또는 프로세서에 포함될 수 있다. 서버 장치의 제어부 또는 프로세서는 서버 장치(4000)의 품질 판단부 또는 적합성 판단부의 동작을 수행할 수 있다.
일 실시예에 따르면, 모바일 장치는 안저 이미지의 품질을 판단하는 품질 판단부 또는 안저 이미지의 적합성을 판단하는 적합성 판단부를 포함할 수 있다. 모바일 장치는 촬상부를 포함하고, 촬상부를 통하여 획득된 이미지의 품질을 판단할 수 있다. 예컨대, 모바일 장치의 품질 판단부는 촬상된 이미지의 품질을 판단하고, 품질 판단 결과 선별된 이미지를 대상으로 진단을 수행할 수 있다.
모바일 장치의 품질 판단부 또는 적합성 판단부는 모바일 장치의 제어부 또는 프로세서에 포함될 수 있다. 모바일 장치의 제어부 또는 프로세서는 모바일 장치의 품질 판단부 또는 적합성 판단부의 동작을 수행할 수 있다.
도 34 및 35는 각각 본 명세서에서 개시하는 안저 이미지의 품질 판단 또는 안저 이미지의 적합성 판단을 수행하는 장치를 설명하기 위한 도면이다. 도 34 및 35에서 도시하는 장치는, 도 1 내지 9와 관련하여 전술한 장치의 형태로 구현될 수 있다.
도 34는 본 발명의 일 실시예에 따른 안저 이미지 관리 장치(5000)를 설명하기 위한 도면이다. 도 34를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지 관리 장치(5000)는 안저 이미지 획득부(5010), 품질 판단부(5030)를 포함할 수 있다. 안저 이미지 획득부(5010) 및/또는 품질 판단부(5030)는 장치의 제어부 또는 프로세서에 마련될 수 있다.
안저 이미지 획득부(5010)는 안저 이미지를 촬상하거나, 획득할 수 있다. 안저 이미지 획득부(5010)는 카메라를 통하여 안저 이미지를 획득하거나, 외부 장치로부터 안저 이미지를 획득할 수 있다. 안저 이미지는 획득된 안저 이미지의 형식, 크기 등을 품질 판단이 용이하도록 정규화될 수 있다.
품질 판단부(5030)는 안저 이미지의 품질을 판단할 수 있다. 품질 판단부(5030)는 본 명세서에서 설명하는 안저 이미지의 품질 판단을 수행할 수 있다. 품질 판단부(5030)는 영역을 고려하여 품질 판단을 수행할 수 있다. 품질 판단부(5030)는 아티팩트를 고려하여 품질 판단을 수행할 수 있다. 품질 판단부(5030)는 픽셀 값을 고려하여 품질 판단을 수행할 수 있다.
도 34를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지 관리 장치(5000)는 품질 정보 관리부(5050)를 더 포함할 수 있다. 품질 정보 관리부(5050)는 장치의 제어부, 프로세서 또는 메모리에 마련될 수 있다.
품질 정보 관리부(5050)는 안저 이미지의 품질 정보를 관리할 수 있다. 품질 정보 관리부(5050)는 안저 이미지의 품질 판단 결과 획득된 품질 정보를 안저 이미지에 부여할 수 있다. 품질 정보 관리부(5050)는 안저 이미지에 매칭된 품질 정보에 기초하여 안저 이미지 데이터 세트를 관리할 수 있다. 예컨대, 품질 정보 관리부(5050)는 안저 이미지 데이터를 품질 정보에 기초하여 구분 및 저장할 수 있다.
본 발명의 일 실시예에 따르면, 안저를 촬영한 안저 이미지로부터 안저 이미지의 품질에 관여하는 아티팩트를 검출하여 안저 이미지의 품질을 관리하는 안저 이미지 관리 장치는, 안저 이미지를 획득하는 안저 이미지 획득부 및 안저 이미지의 대상 영역으로부터 제1 픽셀을 검출하고, 제1 픽셀의 수를 고려하여 안저 이미지의 품질을 판단하는 품질 판단부를 포함할 수 있다.
아티팩트는 안저 이미지의 안저 영역에 발생하는 광의 과도한 반사에 의한 브라이트 아티팩트 또는 안저 이미지의 안저 영역에 발생하는 그림자에 의한 다크 아티팩트 중 어느 하나일 수 있다.
품질 판단부는, 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 제1 픽셀 검출부, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 비교부 및 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 안저 이미지의 품질 정보를 획득하는 품질 정보 획득부를 포함할 수 있다.
대상 영역은, 안저 이미지의 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역, 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 제2 영역, 안저에 대응되는 영역 중 시신경 유두가 분포하는 영역에 대응되는 제3 영역 및 안저에 대응되는 영역 중 황반이 분포하는 영역에 대응되는 제4 영역 중 선택된 적어도 하나의 영역을 포함할 수 있다.
아티팩트가 제1 아티팩트인 경우, 대상 영역은 안저 이미지의 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역으로 결정되고, 아티팩트가 제2 아티팩트인 경우, 대상 영역은 안저 이미지의 안저가 분포하는 제2 영역으로 결정될 수 있다. 이때, 제1 거리는 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 영역이 안저 이미지 전체 영역에 대하여 제1 비율 이상이 되도록 결정될 수 있다.
아티팩트가 제1 아티팩트인 경우, 기준 픽셀 값은 제1 픽셀 값이고,기준 픽셀 값과 비교하여 제1 픽셀을 검출하는 단계는 대상 영역에 포함되고 기준 픽셀 값보다 큰 픽셀 값을 가지는 제1 픽셀을 검출하는 것을 포함하고, 기준 비율은 제1 기준 비율이고, 기준 비율과 비교하는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 제1 기준 비율보다 큰지 판단하는 것을 더 포함하고, 비교 결과에 기초하여 품질 정보를 획득하는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 제1 기준 비율보다 큰 경우 안저 이미지는 불량 이미지인 것으로 판단하는 것을 더 포함할 수 있다.
아티팩트가 제2 아티팩트인 경우, 기준 픽셀 값은 제2 픽셀 값이고, 기준 픽셀 값과 비교하여 제1 픽셀을 검출하는 단계는 대상 영역에 포함되고 기준 픽셀 값보다 작은 픽셀 값을 가지는 제1 픽셀을 검출하는 것을 포함하고, 기준 비율은 제2 기준 비율이고, 기준 비율과 비교하는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 제2 기준 비율보다 작은지 판단하는 것을 더 포함하고, 비교 결과에 기초하여 품질 정보를 획득하는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 제2 기준 비율보다 작은 경우 안저 이미지는 불량 이미지인 것으로 판단하는 것을 더 포함할 수 있다.
안저 이미지 관리 장치는, 안저 이미지에 대하여, 품질 정보에 기초하여 품질 정보 라벨을 추가하고, 안저 이미지를 품질 정보 라벨에 따라 관리하는 품질 정보 관리부를 더 포함할 수 있다.
본 발명의 다른 일 실시예에 따르면, 안저를 촬영한 안저 이미지로부터 안저 이미지의 품질에 관여하는 아티팩트를 검출하여 안저 이미지의 품질을 판단하는 안저 이미지 관리 장치는, 안저 이미지를 획득하는 안저 이미지 획득부 및 안저 이미지의 대상 영역으로부터 적어도 하나의 아티팩트 픽셀을 검출하고, 아티팩트 픽셀을 고려하여 안저 이미지의 품질을 판단하는 품질 판단부를 포함할 수 있다.
품질 판단부는 안저 이미지의 적어도 일부 영역을 아티팩트를 검출하기 위한 대상 영역으로 결정하는 대상 영역 결정부 및 대상 영역으로부터 아티팩트와 대응되는 적어도 하나의 아티팩트 픽셀을 검출하는 아티팩트 픽셀 검출부를 포함할 수 있다.
품질 판단부는 아티팩트가 제1 아티팩트인 경우 대상 영역은 안저 이미지 중 안저에 대응되는 영역의 중심으로부터 소정 거리 이격된 영역인 제1 영역으로 결정하고, 아티팩트가 제2 아티팩트인 경우 대상 영역은 안저 이미지 중 안저가 분포하는 영역인 안저 영역으로 결정할 수 있다.
제1 아티팩트는 안저 이미지의 안저 영역에 발생하는 광의 과도한 반사에 의한 브라이트 아티팩트이고, 제2 아티팩트는 안저 이미지의 안저 영역에 발생하는 그림자에 의한 다크 아티팩트일 수 있다.
안저 이미지 관리 장치는, 안저 이미지를 회색조 변환하여 변환된 안저 이미지를 획득하는 변환부를 더 포함할 수 있다. 품질 판단부는 변환된 안저 이미지에 기초하여 안저 이미지의 품질을 판단할 수 있다.
아티팩트 픽셀 검출부는, 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 기준 픽셀 값 범위와 비교하는 비교부 및 대상 영역에 포함되고 기준 픽셀 값 범위에 포함되는 픽셀 값을 가지는 적어도 하나의 픽셀을 아티팩트 픽셀로 결정하는 결정부를 더 포함할 수 있다.
비교부는, 아티팩트가 제1 아티팩트인 경우, 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 제1 기준 픽셀 값과 비교하고, 아티팩트가 제2 아티팩트인 경우, 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 제2 기준 픽셀 값과 비교할 수 있다.
결정부는, 아티팩트가 제1 아티패트인 경우, 대상 영역에 포함되고 제1 기준 픽셀 값보다 큰 픽셀 값을 가지는 적어도 하나의 픽셀을 제1 아티팩트 픽셀로 결정하고, 아티팩트가 제2 아티팩트인 경우, 대상 영역에 포함되고 제2 기준 픽셀 값보다 작은 픽셀 값을 가지는 적어도 하나의 픽셀을 제2 아티팩트 픽셀로 결정할 수 있다.
품질 판단부는 검출된 아티팩트의 양이 기준량을 초과하는지 여부를 고려하여 안저 이미지의 품질을 판단할 수 있다.
품질 판단부는 검출된 아티팩트 픽셀의 수가 안저 이미지의 전체 픽셀의 수에 대하여 기준 비율을 초과하는지 여부를 판단하고, 아티팩트 픽셀의 수가 안저 이미지 전체 픽셀의 수에 대하여 기준 비율을 초과하는 경우 안저 이미지는 아티팩트를 포함하는 것으로 결정할 수 있다.
안저 이미지 관리 장치는, 안저 이미지에 품질 정보에 기초하여 생성된 품질 정보 라벨을 추가하고, 안저 이미지를 품질 정보 라벨에 따라 관리하는 품질 정보 관리부를 더 포함할 수 있다.
도 35는 본 발명의 일 실시예에 따른 안저 이미지 관리 장치(6000)를 설명하기 위한 도면이다. 도 35를 참조하면, 안저 이미지 관리 장치(6000)는 안저 이미지 획득부(6010) 및 적합성 판단부(6030)를 포함할 수 있다. 안저 이미지 획득부(6010) 및/또는 적합성 판단부(6030)는 장치의 제어부 또는 프로세서에 마련될 수 있다.
안저 이미지 획득부(6010)는 카메라를 통하여 안저 이미지를 획득하거나, 외부 장치로부터 안저 이미지를 획득할 수 있다. 안저 이미지는 획득된 안저 이미지의 형식, 크기 등을 품질 판단이 용이하도록 정규화될 수 있다.
적합성 판단부(6030)는 안저 이미지의 대상 질병에 대한 적합성을 판단할 수 있다. 적합성 판단부(6030)는 본 명세서에서 설명하는 이미지의 적합성 판단을 수행할 수 있다. 적합성 판단부(6030)는 안저 이미지의 대상 영역을 고려하여 안저 이미지의 적합성을 판단할 수 있다. 적합성 판단부는 대상 아티팩트의 유무를 고려하여 안저 이미지의 적합성을 판단할 수 있다. 적합성 판단부는 픽셀의 값, 분포 등을 고려하여 안저 이미지의 적합성을 판단할 수 있다.
도 35를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지 관리 장치(6000)는 적합성 정보 관리부(6050)를 더 포함할 수 있다. 적합성 정보 관리부(6050)는 장치의 제어부, 프로세서 또는 메모리에 마련될 수 있다.
적합성 정보 관리부(6050)는 안저 이미지의 적합성 정보를 관리할 수 있다. 적합성 정보 관리부(6050)는 안저 이미지의 적합성 판단 결과 획득된 적합성 정보를 안저 이미지에 부여할 수 있다. 적합성 정보 관리부(6050)는 안저 이미지에 매칭된 적합성 정보에 기초하여 안저 이미지 데이터 세트를 관리할 수 있다. 예컨대, 적합성 정보 관리부(6050)는 안저 이미지를 적합성 정보에 기초하여 구분 및 저장할 수 있다. 적합성 정보 관리부(6050)는 동일한 대상 적합성 정보를 가지는 안저 이미지들을 함께 저장 및 관리할 수 있다.
본 발명의 일 실시예에 따른 안저 이미지에 기초한 대상 질병의 진단과 관련하여, 안저 이미지의 적합성을 판단하는 안저 이미지 관리 장치는, 안저 이미지를 획득하는 안저 이미지 획득부 및 안저 이미지에 대하여, 대상 질병에 대응되는 품질 기준을 이용하여 안저 이미지의 대상 적합성을 판단하는 적합성 판단부를 포함할 수 있다. 대상 질병은 제1 질병 및 제2 질병 중 적어도 하나를 포함할 수 있다.
적합성 판단부는, 대상 질병이 제1 질병인 경우 안저 이미지가 제1 품질 기준을 만족하는지 판단하고, 대상 질병이 제2 질병인 경우 안저 이미지가 제2 품질 기준을 만족하는지 판단할 수 있다.
품질 기준은 대상 영역에 대한 품질 기준을 포함할 수 있다. 적합성 판단부가 안저 이미지의 대상 적합성을 판단하는 것은 대상 질병이 제1 질병인 경우 안저 이미지의 제1 영역이 제1 품질 기준을 만족하는지 판단하고, 대상 질병이 제2 질병인 경우 안저 이미지의 제2 영역이 제2 품질 기준을 만족하는지 판단하는 것을 더 포함할 수 있다.
품질 기준은 아티팩트의 유무에 대한 품질 기준을 포함할 수 있다. 적합성 판단부는 대상 질병이 제1 질병인 경우, 제1 품질 기준을 판단하는 것은 저 이미지가 제1 질병에 대응되는 제1 아티팩트를 포함하는지 판단하는 것을 포함하고, 대상 질병이 제2 질병인 경우, 제2 품질 기준을 판단하는 것은 안저 이미지가 제2 질병에 대응되는 제2 아티팩트를 포함하는지 판단하는 것을 더 포함할 수 있다.
제1 질병에 대응되는 제1 아티팩트는 제1 질병에 연관된 제1 영역으로부터 검출되고, 제2 질병에 대응되는 제2 아티팩트는 제2 질병에 연관된 제2 영역으로부터 검출될 수 있다. 다시 말해, 제1 질병과 대응 관계를 가지는 제1 아티팩트는 제1 질병과 대응 관계를 가지는 제1 영역과 대응될 수 있다. 이러한 질병 및 영역, 질병 및 아티팩트, 아티팩트 및 영역 사이의 매칭 관계를 적합성 판단 장치 또는 품질 판단 장치에 미리 저장되어 이용될 수 있다. 또는, 상술한 매칭 관계는 사용자에 의해 지정될 수 있다. 상술한 매칭 관계는 신경망 모델에 따라 학습되어 생성될 수 있다.
일 실시예에 따르면, 안저 이미지 관리 장치는 안저 이미지에 기초하여 대상 질병에 대한 진단 정보를 획득하는 진단 정보 획득부를 더 포함할 수 있다.
진단 정보 획득부는 대상 질병이 제1 질병인 경우, 안저 이미지가 제1 품질 기준을 만족하면 제1 질병에 대한 제1 진단 보조 정보를 획득하고, 대상 질병이 제2 질병인 경우, 안저 이미지가 제2 품질 기준을 만족하면 제2 질병에 대한 제2 진단 보조 정보를 획득할 수 있다.
일 실시예에 따르면, 안저 이미지 관리 장치는, 판단 결과에 기초하여 안저 이미지의 적합성 정보를 획득하는 적합성 정보 획득부를 더 포함할 수 있다.
적합성 정보 획득부는, 대상 질병이 제1 질병이고 안저 이미지가 제1 품질 기준을 만족하는 경우, 안저 이미지가 제1 질병에 대하여 적합함을 지시하는 적합성 정보를 획득하고, 대상 질병이 제2 질병이고 안저 이미지가 제2 품질 기준을 만족하는 경우, 안저 이미지가 제2 질병에 대하여 적합함을 지시하는 적합성 정보를 획득할 수 있다.
대상 질병은 제1 질병 및 제2 질병을 포함할 수 있다. 적합성 판단부는 안저 이미지가 제1 품질 기준 및 제2 품질 기준을 만족하는지 판단할 수 있다.
적합성 정보 획득부는, 안저 이미지가 제1 품질 기준을 만족하되 제2 품질 기준을 만족하지 않는 것으로 판단된 경우, 안저 이미지가 제1 질병에 대하여 적합하고 제2 질병에 대하여 부적합함을 지시하는 적합성 정보를 획득할 수 있다.
본 발명의 다른 일 실시예에 따르면, 안저 이미지에 기초한 대상 질병의 진단과 관련하여, 안저 이미지의 적합성을 판단하는 안저 이미지 관리 장치로서, 안저 이미지를 획득하는 안저 이미지 획득부, 안저 이미지의 품질을 판단하는 품질 판단부 및 안저 이미지가 품질 기준을 만족하는지 판단하는 것에 기초하여, 안저 이미지의 대상 질병에 대한 대상 적합성을 판단하는 적합성 판단부를 포함할 수 있다.
품질 판단부는, 제1 영역과 관련된 제1 품질 기준을 만족하는지 여부를 판단하고, 안저 이미지가 제1 영역과 적어도 일부 구별되는 제2 영역과 관련되는 제2 품질 기준을 만족하는지 여부를 판단할 수 있다.
품질 판단부는, 제1 영역을 고려하여 제1 아티팩트의 유무를 판단하고, 제2 영역을 고려하여 제2 아티팩트의 유무를 판단할 수 있다.
품질 판단부는 안저 이미지가 제1 아티팩트를 포함하는지 판단하여 안저 이미지가 제1 품질 기준을 만족하는지 판단하고, 안저 이미지가 제2 아티팩트를 포함하는지 판단하여 안저 이미지가 제2 품질 기준을 만족하는지 판단할 수 있다.
제1 영역은 안저 이미지의 안저가 분포하는 안저 영역의 중심으로부터 소정 거리 이상 이격된 영역일 수 있다. 제2 영역은 안저 영역의 중심으로부터 소정 거리 이내의 영역일 수 있다.
그 외에도, 제1 영역 또는 제2 영역은, 안저 이미지의 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 외측 영역, 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 내측 영역, 안저에 대응되는 영역 중 시신경 유두가 분포하는 영역에 대응되는 시신경 유두 영역 및 안저에 대응되는 영역 중 황반이 분포하는 영역에 대응되는 황반 영역 중 선택된 적어도 하나의 영역을 포함할 수 있다. 제1 영역 또는 제2 영역은, 도 31 내지 33과 관련하여 설명한 안저 이미지의 세부 영역 중 적어도 일부를 포함하거나 적어도 일부가 제외된 영역일 수 있다.
적합성 판단부는, 대상 질병이 제1 질병이고 안저 이미지가 제1 품질 기준을 만족하는 경우 안저 이미지가 제1 적합성을 만족하는 것으로 판단하고, 대상 질병이 제2 질병이고 안저 이미지가 제2 품질 기준을 만족하는 경우 안저 이미지가 제2 적합성을 만족하는 것으로 판단할 수 있다.
적합성 판단부는, 대상 질병이 제1 질병 및 제2 질병인 경우, 제1 품질 기준을 만족하되 제2 품질 기준을 만족하지 않는 안저 이미지에 대하여, 제1 적합성을 가지되 제2 적합성을 가지지 않는 것으로 판단할 수 있다. 이때, 제1 적합성을 가지되 제2 적합성을 가지지 않는 것으로 판단된 안저 이미지는 제1 질병의 진단 근거로 적합하되, 제2 질병의 질병 근거로 부적합한 것으로 판단될 수 있다. 제1 적합성을 가지되 제2 적합성을 가지지 않는 것으로 판단된 안저 이미지는 제1 질병이 속하는 제1 질병 군에 대하여 적합하되, 제2 질병이 속하는 제2 질병 군에 대하여 부적합한 것으로 확장 해석될 수도 있다.
일 실시예에 따르면, 안저 이미지 관리 장치는 안저 이미지에 기초하여 대상 질병에 대한 진단 정보를 획득하는 진단 정보 획득부를 더 포함할 수 있다.
진단 정보 획득부는, 대상 질병이 제1 질병인 경우, 안저 이미지가 제1 품질 기준을 만족하면 제1 질병에 대한 제1 진단 보조 정보를 획득하고, 대상 질병이 제2 질병인 경우, 안저 이미지가 제2 품질 기준을 만족하면 제2 질병에 대한 제2 진단 보조 정보를 획득할 수 있다.
대상 질병은 제1 질병 및 제2 질병을 포함할 수 있다. 이때, 진단 정보 획득부는, 안저 이미지가 제1 품질 기준을 만족하고, 제2 품질 기준을 만족하지 않는 경우, 제1 질병에 대한 제1 진단 보조 정보를 획득하고, 제2 진단 보조 정보를 획득하지 아니할 수 있다. 또는, 진단 정보 획득부는, 안저 이미지가 제1 품질 기준을 만족하고, 제2 품질 기준을 만족하지 않는 경우에도, 제1 질병에 대한 제1 진단 보조 정보 및 제2 질병에 대한 제2 진단 보조 정보를 획득하되, 제2 진단 보조 정보와 함께 제2 품질 기준의 불만족 내역을 함께 저장할 수 있다. 함께 저장된 진단 보조 정보와 품질 기준의 불만족 내역은 사용자에게 함께 제공될 수 있다.
이하, 본 명세서에서 설명하는 이미지의 품질 판단 방법, 적합성 판단 방법 등은 도 1 내지 9와 관련하여 설명하는 시스템 또는 장치에 의해 수행되는 것일 수 있다. 또는, 본 명세서에서 설명하는 이미지의 품질 판단 방법, 적합성 판단 방법 등은 도 1 내지 9에서 설명하는 프로세서 또는 제어부에 의해 수행되는 것일 수 있다. 본 명세서에서 설명하는 이미지의 품질 판단 방법, 적합성 판단 방법 등은 도 1 내지 9에서 설명하는 시스템, 장치, 프로세서(또는 제어부) 중 적어도 하나 이상에 의하여 수행되는 것일 수 있다.
2.3 이미지 품질 판단 방법
2.3.1 일반
전술한 것과 같이, 안저 이미지에는 그 촬영 상태에 따라 흠결이 발생할 수 있다. 예컨대 안저 이미지로부터 안저 요소의 관찰을 방해하는 오브젝트가 검출될 수도 있다. 또는 이미지의 밝기가 적정 범위보다 높거나 낮을 수도 있다. 일 예로, 이미지의 촬상 과정에서, 아티팩트가 발생할 수 있다.
아티팩트는 피사체를 식별하는데 방해되도록 촬영된 상태 또는 그러한 상태가 발생한 이미지를 의미할 수 있다. 예를 들어, 안저로부터 빛이 과도하게 반사된 경우 브라이트 아티팩트가 발생할 수 있다. 또는 안저 내에 그림자가 진 경우에는 다크 아티팩트가 발생할 수 있다. 또는, 반사광에 의한 반사 아티팩트가 발생할 수도 있다. 그 외에도, 이미지에 기초한 진단 또는 안저 요소의 식별을 곤란하도록 하는 다양한 형태의 아티팩트가 안저 이미지에 발생할 수 있다.
도 36은 안저 이미지에 발생할 수 있는 이상의 몇몇 예를 도시한 것이다. 도 63을 참조하면, 안저 이미지에는 브라이트 아티팩트(a), 다크 아티팩트(b), 혼탁(c) 등이 발생할 수 있다. 각각의 이상은 그 발생 위치와 태양이 다소 상이할 수 있으며, 이러한 차이를 고려할 때, 각 이상을 검출하기 위한 이미지 품질 판단 방법은 서로 다르게 구현될 수 있다.
브라이트 아티팩트는 광학적 반사(optical reflections), 밝은 가장자리(bright borders)등에 의해 발생할 수 있다. 브라이트 아티팩트는 혈관 또는 시신경 유두가 분포하는 위치에 발생할 수 있다. 브라이트 아티팩트는 안저 이미지의 외곽에 가깝게 분포할 수 있다.
다크 아티팩트는 안저 이미지의 촬상 시 발생하는 그림자 등에 의하여 나타날 수 있다. 다크 아티팩트는 안저 이미지의 중심부에 가깝게 분포할 수 있다. 다크 아티팩트와 브라이트 아티팩트는 동일한 이미지에 함께 발생할 수도 있다.
혼탁은 안저 이미지 촬상 시 초점 조절이 잘못 되거나 광 경로 상의 오염 등에 의하여 발생할 수 있다. 혼탁은 안저 이미지의 안저 영역 전반에 걸쳐 분포할 수 있다. 혼탁은 수정체 또는 유리체의 혼탁으로 인해 나타날 수 있다. 혼탁 아티팩트는 그 자체로서 특정 질병 또는 소견의 진단 근거로 이용될 수 있다.
안저 이미지가 아티팩트를 가지는 경우, 이미지에 포함된 요소를 식별하는 것이 곤란할 수 있으므로, 아티팩트를 가지는 안저 이미지에 기초하여 안저 검사를 수행하거나 기타 정보를 획득하는 것은 부적절할 수 있다.
특히, 안저 이미지에 기초하여 진단을 수행하도록 인공 지능 모델을 학습시키는 경우에, 다수의 이미지를 학습 데이터로서 이용하는 단계가 필수적이나, 전술한 것과 같은 아티팩트를 포함하는 이미지의 경우, 요소 식별이 곤란할 것이므로 모델의 학습에 부정적인 영향을 미칠 가능성이 있다. 따라서, 아티팩트를 포함하는 이미지에 대하여는 별도의 관리가 필요하다.
이와 관련하여, 이하에서는 이미지에 발생한 아티팩트를 검출하거나, 아티팩트 유무와 관련하여 이미지의 품질을 평가하거나, 불량 이미지를 선별하는 방법 및 장치 등에 대하여 몇몇 실시예를 들어 설명한다.
이하에서는, 안저 이미지에 발생하는 아티팩트, 특히, 브라이트 아티팩트 또는 다크 아티팩트를 기준으로 설명하나, 본 명세서에서 설명하는 발명의 내용이 이에 한정되지는 아니하는 것은 자명하며, 본 명세서에서 설명하는 발명의 내용은 부적합한 이미지 또는 정보를 획득하기에 부적합한 이미지를 판별하는 다양한 경우에 적용될 수 있을 것이다.
2.3.2 판단 방법
본 발명의 일 실시예에 따르면, 이미지에 포함되는 적어도 하나의 픽셀 값을 이용하여 이미지의 품질을 판단할 수 있다. 이미지의 품질을 판단하는 것은 이미지를 평가하거나, 불량 이미지를 선별하거나, 이미지의 흠결을 검출하거는 등 이미지가 소정의 기준을 만족하는지 여부를 판단하는 다양한 동작을 의미할 수 있다. 이미지의 품질을 판단하는 것은, 이미지가 전술한 다양한 형태의 아티팩트를 포함하는지 여부를 판단하는 것을 포함할 수 있다.
도 37은 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법을 설명하기 위한 흐름도이다. 도 37을 참조하면, 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법은 안저 이미지를 획득하는 단계(S11), 안저 이미지를 변환하는 단계(S13) 및 안저 이미지의 품질 정보를 획득하는 단계(S15)를 포함할 수 있다.
본 발명의 일 실시예에 따른 이미지의 품질 판단은 안저 이미지를 획득(S11)하는 것을 포함할 수 있다. 안저 이미지는 진단 대상 이미지 또는 학습 대상 이미지일 수 있다.
안저 이미지는 안저 이미지 촬상 장치를 통하여 획득될 수 있다. 안저 이미지는, 안과에서 일반적으로 이용되는 무산동 안저 카메라 등을 이용하여 획득될 수 있다. 안저 이미지는 휴대용 안저 촬상 장치를 통하여 획득될 수 있다. 안저 이미지는 모바일 장치에 내장된 카메라를 이용하여 획득될 수 있다. 안저 이미지 대신 또는 안저 이미지와 함께, 안저 동영상이 획득 및/또는 이용될 수 있다. 일 실시예에 따르면, 안저 동영상으로부터 안저 이미지가 추출될 수도 있다. 이와 관련하여서는 후술하는 복수의 안저 이미지 항목에서 보다 상세히 설명한다.
안저 이미지는 외부 서버 또는 저장 매체로부터 획득될 수 있다. 또는 안저 이미지는 미리 저장되어 마련될 수 있다. 예컨대, 본 명세서에서 설명하는 이미지의 품질 판단 방법 등은 소정의 정보 처리 장치에 의하여 수행되고, 적어도 하나의 안저 이미지는 소정의 정보 처리 장치의 메모리 등에 미리 저장되어 마련될 수 있다. 안저 이미지는 유선 또는 무선 통신을 통하여 획득될 수도 있다.
본 발명의 일 실시예에 따른 이미지의 품질 판단은 안저 이미지를 변환(S13)하는 것을 포함할 수 있다. 이때, 후술하는 품질 판단에 이용되는 픽셀 값은 변환된 안저 이미지로부터 획득될 수 있다.
안저 이미지의 품질 판단은 안저 이미지를 회색조로 변환하는 것을 포함할 수 있다. 안저 이미지에 포함되는 적어도 하나의 픽셀 값은, 획득된 안저 이미지를 회색조(그레이스케일) 처리한 후, 회색조 처리된 안저 이미지로부터 얻어질 수 있다.
안저 이미지의 품질 판단은 복수의 채널을 가지는 안저 이미지를 단일 채널을 가지도록 변환하는 것을 포함할 수 있다. 적어도 하나의 픽셀 값은, 단일 채널을 가지도록 변환된 안저 이미지로부터 획득될 수 있다. 예컨대, 안저 이미지는 RGB 채널을 포함하고, 픽셀 값은 R 채널 이미지로부터 획득될 수 있다.
안저 이미지의 품질 판단은 안저 이미지를 이진화하는 것을 포함할 수 있다. 예컨대, 안저 이미지는 비트맵 이미지로 변환될 수 있다. 안저 이미지가 소정의 픽셀 값을 기준으로 이진화된 경우, 이진화된 안저 이미지로부터 적어도 하나의 픽셀 값이 획득될 수 있다.
안저 이미지의 품질 판단은 안저 이미지의 히스토그램을 획득 및/또는 변환하는 것을 포함할 수 있다. 안저 이미지가 히스토그램 변환된 경우, 히스토그램 변환된 안저 이미지로부터 적어도 하나의 픽셀 값이 획득될 수 있다. 이미지의 품질 판단 등은 히스토그램 정규화 또는 평활화(equalization)된 이미지로부터 적어도 하나의 픽셀의 픽셀 값이 획득될 수 있다.
한편, 안저 이미지를 변환하는 단계는 선택적으로 이용될 수 있다. 이미지의 품질 판단은 안저 이미지를 변환하고, 변환된 안저 이미지를 이용하여 품질 정보를 획득하거나, 안저 이미지를 변환하지 아니하고 원본 이미지에 기초하여 품질 정보를 획득할 수도 있다.
본 발명의 일 실시예에 따른 이미지의 품질 판단은 안저 이미지의 품질 정보를 획득(S30)하는 것을 포함할 수 있다.
안저 이미지의 품질 정보를 획득하는 것은 안저 이미지가 품질 조건을 만족하는지 판단하는 것을 포함할 수 있다. 일 실시예에 따르면, 품질 정보를 획득하는 것은, 복수의 품질 조건에 대하여 판단하고 복수의 품질 조건에 대한 판단 결과를 고려하여 품질 정보를 획득하는 것을 포함할 수도 있다.
이미지의 품질 정보는 전술한 픽셀 값 또는 대상 픽셀을 고려하여 획득될 수 있다. 이미지의 품질 정보는 이미지가 전술한 품질 조건을 만족하는지를 고려하여 수행될 수 있다.
이미지의 품질 정보는 이미지가 정상 이미지인지 비정상 이미지인지를 나타내는 정상 정보일 수 있다. 이미지의 품질 정보는 이미지가 흠결을 포함하는지 아닌지를 나타내는 흠결 정보일 수 있다. 흠결 정보는 이미지가 어떠한 흠결을 포함하는지에 대한 구체적인 정보를 더 포함할 수도 있다.
이미지의 품질 정보는 아티팩트 포함 여부에 관한 아티팩트 정보를 포함할 수 있다. 이미지의 품질 정보는 아티팩트의 종류를 나타내는 아티팩트의 식별 정보 및 해당 안저 이미지가 아티팩트를 포함하는지 여부 또는 아티팩트의 포함 강도 등을 나타내는 아티팩트 정보를 포함할 수 있다.
이미지의 품질 정보는 확률 형태로 제공될 수도 있다. 예컨대, 이미지의 정상 정보는 이미지가 정상일 확률을 포함할 수 있다. 이미지의 흠결 정보는 이미지가 흠결을 포함할 확률 또는 이미지가 복수의 흠결을 각각 포함할 확률을 포함할 수 있다.
이미지의 품질 정보는 영역에 대한 정보를 더 포함할 수 있다. 예컨대, 소정의 영역을 대상 영역으로 하여 대상 영역으로부터 대상 픽셀을 검출하거나, 대상 영역에 대하여 품질 조건을 판단한 경우, 영역에 대한 품질 정보를 포함할 수 있다. 품질 정보는 대상 영역의 식별 정보 및 대상 영역에 대한 품질 정보를 포함할 수 있다.
예를 들어, 이미지의 품질 정보는 안저 이미지의 제1 영역에 대한 정상 정보 또는 흠결 정보를 포함할 수 있다. 이미지의 품질 정보는 안저 이미지의 제1 영역에 대한 정보와 더불어 제2 영역에 대한 정보를 더 포함할 수 있다.
이미지의 품질 정보는 품질 값, 품질 점수, 품질 정도 등을 포함할 수 있다. 품질 점수 등은 아티팩트에 대응되는 픽셀의 수, 비율 등을 고려하여 산출될 수 있다. 품질 점수 등은 포함하는 아티팩트의 종류 및/또는 아티팩트의 정도를 고려하여 산출될 수 있다. 품질 점수 등은 신경망 모델을 통해 획득될 수 있다.
대상 영역은 안저 이미지 또는 안저 영역의 일 부분으로 결정될 수 있다. 대상 영역은 안저 이미지 또는 안저 영역을 구성하는 복수의 영역으로부터 선택될 수 있다. 대상 영역은 도 31 내지 33에서 설명하는 영역들 중 선택될 수 있다.
예컨대, 도 32를 참조하면 안저 영역은 내측 영역(IA)과 외측 영역(OA)을 포함할 수 있다. 대상 영역은 외측 영역(OA) 또는 내측 영역(IA)으로 결정될 수 있다. 예컨대, 품질 판단을 위한 검출 대상 아티팩트가 브라이트 아티팩트인 경우, 대상 영역은 외측 영역(OA)으로 결정될 수 있다.
또 예컨대, 도 33을 참조하면 대상 영역은 황반부(MA), 시신경 유두부(ODA) 또는 주변부일 수 있다. 또는, 대상 영역은 상비부(SNA), 하비부(INA), 상측부(STA), 하측부(ITA) 및 측부(TA) 중 적어도 하나를 포함하는 영역일 수 있다. 또는, 대상 영역은, 안저 이미지 또는 안저 영역으로부터 황반부(MA), 시신경 유두부(ODA), 주변부, 상비부(SNA), 하비부(INA), 상측부(STA), 하측부(ITA) 및 측부(TA) 중 적어도 하나를 제외한 영역일 수 있다.
여기에서는, 대상 영역이 미리 정해진 안저 이미지의 영역들로부터 선택되는 경우를 기준으로 설명하였으나, 본 발명이 이에 한정 되는 것은 아니다. 예컨대, 대상 영역은 사용자의 입력에 의해 선택될 수 있다. 또는, 대상 영역은 각 이미지에서 특이 양상을 보이는 영역으로 결정될 수도 있다.
도 38은 본 발명의 일 실시예에 따른 이미지의 품질 판단을 설명하기 위한 흐름도이다. 도 38을 참조하면, 안저 이미지의 품질 정보를 판단(S15)하는 것은 대상 픽셀을 검출하는 단계(S15a) 및 품질 조건을 판단하는 단계(S15b)를 포함할 수 있다.
이미지의 품질 판단 방법은 대상 픽셀을 검출하는 단계(15a)를 포함할 수 있다.
대상 픽셀은 검출하고자 하는 흠결 또는 아티팩트에 대응되는 픽셀일 수 있다. 대상 픽셀은 흠결 또는 아티팩트가 발생하지 아니한 정상 영역에 대응되는 픽셀일 수도 있다. 대상 픽셀은 검출하고자 하는 질병 요소의 식별에 방해되는 방해 요소에 대응되는 픽셀일 수 있다. 대상 픽셀은 안저 이미지에 이상이 발생하였는지 여부에 대한 판단의 지표가 되는 지표 요소에 대응되는 픽셀일 수 있다.
대상 픽셀을 검출하는 것은 안저 이미지에 포함되는 픽셀들 중 대상 픽셀 요건을 만족하는 픽셀을 대상 픽셀로 결정하는 것을 포함할 수 있다. 대상 픽셀을 검출하는 것은 전술한 픽셀 값을 고려하여 수행될 수 있다.
대상 픽셀 요건은 픽셀 값에 대한 기준 범위 또는 기준 값에 대한 요건을 포함할 수 있다.
기준 범위 또는 기준 값은 미리 정해진 범위 또는 값일 수 있다. 또는, 기준 범위 또는 기준 값은 신경망 모델의 학습 결과 획득된 범위 또는 값일 수 있다. 기준 범위 또는 기준 값은 이미지의 품질 판단을 복수 회 진행함에 따라, 판단의 정확도가 향상되도록 적응적으로 변경될 수 있다.
예컨대, 이미지 품질 판단은 미리 정해진 기준 범위에 속하거나 기준 범위에 속하지 않는 픽셀 값을 가지는 픽셀을 대상 픽셀로 결정하는 것을 포함할 수 있다. 또는, 이미지 품질 판단은 미리 정해진 기준 값을 초과하거나 기준 값에 미치지 않는 픽셀 값을 가지는 픽셀을 대상 픽셀로 결정하는 것을 포함할 수 있다.
구체적인 예로, 대상 픽셀 요건은 픽셀의 세기 값이 기준 세기 이상인 것을 포함하고, 대상 픽셀을 검출하는 것은 그 세기 값이 기준 세기 이상인 픽셀을 대상 픽셀로 결정하는 것을 포함할 수 있다.
일 실시예에 따르면, 대상 픽셀 요건은 영역별로 달리 지정될 수 있다. 이미지로부터 대상 픽셀을 검출하는 것은, 제1 영역에 포함되는 픽셀에 대하여 제1 대상 픽셀 요건을 만족하는지 판단하고, 제2 영역에 포함되는 픽셀에 대하여 제2 대상 픽셀 요건을 만족하는지 판단하는 것을 포함할 수 있다.
대상 픽셀을 검출하는 것은 안저 이미지에 포함된 소정의 영역에 포함된 대상 픽셀을 검출하는 것을 포함할 수 있다. 대상 픽셀을 검출하는 것은 소정의 영역에 포함되고 대상 픽셀 요건을 만족하는 픽셀을 대상 픽셀로 결정하는 것을 포함할 수 있다.
또는, 대상 픽셀 요건은 영역에 대한 요건을 포함할 수 있다. 대상 픽셀을 검출하는 것은 소정의 대상 영역에 위치하는 픽셀을 대상 요건을 만족하는 대상 픽셀로 결정하는 것을 포함할 수 있다.
구체적인 예로, 대상 픽셀 요건은 안저 이미지의 안저에 대응하는 영역인 대상 영역에 포함될 것을 포함하고, 대상 픽셀을 검출하는 것은 안저에 대응하는 대상 영역에 포함되는 대상 픽셀을 검출하는 것을 포함할 수 있다.
안저 이미지는 적어도 하나의 영역을 포함할 수 있다. 소정의 영역(또는 대상 영역)은 안구의 해부학적 구성 요소의 위치를 고려하여 결정될 수 있다. 적어도 하나의 영역은 소견 식별에 방해가 되는 요소의 발생 위치를 고려하여 결정될 수 있다. 대상 영역은 안저 이미지에 포함되는 적어도 하나의 영역 중에서 선택될 수 있다.
예를 들어, 안저 이미지를 해부학적으로 유의미하게 분할하는 적어도 하나의 경계에 의하여 분할된 복수의 영역을 포함할 수 있다. 안저 이미지를 분할하는 경계는 안저 이미지에 포함된 황반, 시신경 유두, 혈관 및 안배 중 적어도 하나의 위치에 기초하여 결정될 수 있다.
이미지의 품질을 판단하는 방법은 품질 조건을 만족하는지 판단하는 단계(S15b)를 포함할 수 있다.
안저 이미지가 품질 조건을 만족하는지 판단하는 것은 안저 이미지에 포함되는 적어도 하나의 픽셀의 픽셀 값을 고려하여 수행될 수 있다. 안저 이미지가 품질 조건을 만족하는지 판단하는 것은, 안저 이미지 내의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 고려하여 수행될 수 있다. 픽셀 값은 원본 안저 이미지 또는 변환된 안저 이미지로부터 획득될 수 있다. 또는, 안저 이미지의 품질 조건은 획득된 다른 수치 또는 데이터, 예컨대, 안저 이미지의 히스토그램, 도수 곡선 등에 기초하여 판단될 수 있다.
픽셀 값은 픽셀의 세기 값(intensity value), 강도 값, 밝기 값, 휘도 값, 색상 값, 색도 값, 채도 값 및 명도 값 중 어느 하나일 수 있다. 픽셀 값은 정수 또는 벡터 형태일 수 있다. 예를 들어, 픽셀 값은 8비트 정수 형태로 마련될 수 있다.
픽셀 값은 복수의 항목에 대한 값을 가지는 안저 이미지로부터 추출된 적어도 하나의 항목 값을 포함할 수 있다. 예컨대, 안저 이미지가 각 픽셀에 대하여 명도 값, 색상 값 및 채도 값을 가지는 경우, 적어도 하나의 픽셀 값은 명도 값을 포함할 수 있다.
픽셀 값은 복수 채널에 대한 복수의 값을 포함할 수 있다. 예를 들어, 안저 이미지는 RGB 채널을 포함하고, 픽셀 값은 R, G, B 각각의 채널에 대한 색상 값을 포함할 수 있다.
안저 이미지가 품질 조건을 만족하는지 판단하는 것은 이미지에 포함되고 소정의 기준을 만족하는 대상 픽셀(또는 이상 픽셀)을 검출하는 것을 포함할 수 있다. 대상 픽셀은 복수일 수 있다.
안저 이미지가 품질 조건을 만족하는지 판단하는 것은, 픽셀 값의 분포, 픽셀 값의 편차(deviation), 픽셀 값의 최대값 또는 최소값, 픽셀 값들 간의 차이 등(이하, 픽셀 값의 가공 값)을 이용하여 수행될 수 있다.
안저 이미지가 품질 조건을 만족하는지 판단하는 것은, 픽셀 값 또는 픽셀 값의 가공 값 등이 기준 범위에 속하거나, 기준 값을 초과하거나, 기준 값에 못 미치는 경우, 해당 안저 이미지는 품질 조건을 만족하는 것으로 판단될 수 있다.
안저 이미지가 품질 조건을 만족하는지 판단하는 것은 검출된 대상 픽셀을 고려하여 안저 이미지가 품질 조건을 만족하는지 여부를 판단하는 것을 포함할 수 있다.
안저 이미지가 품질 조건을 만족하는지 판단하는 것은, 대상 픽셀의 수가 기준 수 이상인지 판단하는 것을 포함할 수 있다. 예컨대, 안저 이미지에 포함된 대상 픽셀의 수가 기준 수를 초과하는 경우, 해당 이미지는 품질 조건을 불만족하는 것으로 판단될 수 있다.
일 실시예에 따르면, 기준 수와 관련하여 복수의 품질 조건에 대하여 판단할 수도 있다. 예컨대, 대상 픽셀 수가 제1 기준 수를 초과하고 제2 기준 수에 못미치는 경우, 해당 안저 이미지는 제1 품질 조건을 불만족하는 것으로 판단하고, 대상 픽셀 수가 제2 기준 수를 초과하는 경우, 해당 안저 이미지는 제2 품질 조건을 불만족하는 것으로 판단될 수 있다.
안저 이미지가 품질 조건을 만족하는지 판단하는 것은, 대상 픽셀의 비율이 기준 비율 이상인지 판단하는 것을 포함할 수 있다. 예컨대, 안저 이미지의 전체 픽셀 수에 대한 대상 픽셀 수의 비율이 기준 비율 이상인 경우, 해당 이미지는 품질 조건을 불만족하는 것으로 판단될 수 있다.
일 실시예로, 안저 이미지의 품질 조건 만족 여부는 이진화된 안저 이미지에 기초하여 판단될 수 있다. 예컨대, 안저 이미지를 기준 픽셀 값에 대하여 이진화하고, 이진화된 안저 이미지에 기초하여, 기준 픽셀 값을 초과하거나 기준 픽셀 값에 못 미치는 픽셀 값을 가지는 대상 픽셀의 수 또는 비율을 획득하고, 획득된 수 또는 비율을 기준 수 또는 기준 비율과 비교하여 안저 이미지의 품질 조건 만족 여부를 판단할 수 있다.
안저 이미지가 품질 조건을 만족하는지 판단하는 것과 관련하여, 대상 영역을 함께 고려할 수 있다.
일 예로, 대상 픽셀이 대상 영역에서 검출된 경우, 해당 이미지는 품질 조건을 불만족하는 것으로 판단될 수 있다. 또는, 대상 영역에서 검출된 대상 픽셀의 수가 기준 수를 초과하거나 기준 수에 못 미치는 경우, 해당 이미지는 품질 조건을 불만족 또는 만족하는 것으로 판단될 수 있다. 대상 영역의 전체 픽셀 수에 대한 대상 픽셀 수의 비율이 기준 비율을 초과하는 경우, 해당 이미지는 품질 조건을 불만족 또는 만족하는 것으로 판단될 수 있다.
다른 예로, 대상 픽셀이 대상 영역이 아닌 영역에서 검출된 경우, 해당 이미지는 품질 조건을 불만족 또는 만족하는 것으로 판단될 수 있다.
또 다른 예로, 대상 픽셀이 제1 영역에서 검출된 경우, 해당 이미지는 제1 품질 조건을 불만족하는 것으로 판단하고, 대상 픽셀이 제2 영역에서 검출된 경우, 해당 이미지는 제2 품질 조건을 만족 또는 불만족하는 것으로 판단할 수 있다.
구체적인 예로, 이미지의 품질 조건은 안저 이미지의 안저가 분포하는 영역에 대응되는 제1 대상 영역에 포함되는 대상 픽셀을 고려하여 판단될 수 있다. 또는, 이미지의 품질 조건은 안저의 황반이 분포하는 영역에 대응되는 픽셀의 픽셀 값을 고려하여 판단될 수 있다
일 실시예에 따르면, 품질 조건은 영역 별로 다르게 결정될 수 있다. 이미지가 품질 요건을 만족하는지 판단하는 것은 제1 영역으로부터 검출된 대상 픽셀이 제1 영역에 대하여 제1 기준 비율을 초과하고, 제2 영역으로부터 검출된 대상 픽셀이 제2 영역에 대하여 제2 기준 비율을 초과하는지 판단하는 것을 포함할 수 있다.
도 39는 본 발명의 일 실시예에 따른 이미지의 품질 판단을 설명하기 위한 흐름도이다. 도 39를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지로부터 안저 이미지의 품질에 관여하는 아티팩트를 검출하여 안저 이미지의 품질을 판단하는 방법은 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 단계(S110), 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 단계(S130) 및 비교 결과에 기초하여 품질 정보를 획득하는 단계(S150)를 포함할 수 있다.
안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 단계(S110)는 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 것을 포함할 수 있다.
대상 영역은 품질 판단을 위하여 검출되는 아티팩트에 따라 결정되되, 아티팩트는 안저 이미지의 안저 영역에 발생하는 광의 과도한 반사에 의한 브라이트 아티팩트 또는 안저 이미지의 안저 영역에 발생하는 그림자에 의한 다크 아티팩트 중 어느 하나일 수 있다.
대상 영역은, 안저 이미지의 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역, 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 제2 영역, 안저에 대응되는 영역 중 시신경 유두가 분포하는 영역에 대응되는 제3 영역 및 안저에 대응되는 영역 중 황반이 분포하는 영역에 대응되는 제4 영역 중 선택된 적어도 하나의 영역을 포함할 수 있다.
안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 단계(S130)는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 기준 비율을 초과하는지 판단하는 것을 포함할 수 있다. 또는, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 단계(S130)는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 기준 비율에 미달하는지 판단하는 것을 포함할 수 있다.
비교 결과에 기초하여 품질 정보를 획득하는 단계(S150)는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 안저 이미지의 품질 정보를 획득하는 것을 포함할 수 있다.
예컨대, 비교 결과에 기초하여 품질 정보를 획득하는 단계(S150)는 단계는, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 기준 비율을 초과하는 경우, 안저 이미지가 이상 안저 이미지임을 지시하는 품질 정보를 획득하는 것을 포함할 수 있다. 또는, 비교 결과에 기초하여 품질 정보를 획득하는 단계(S150)는 단계는, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 기준 비율에 미달 하는 경우 안저 이미지가 정상 안저 이미지임을 지시하는 품질 정보를 획득하는 것을 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 품질 판단 방법은, 안저 이미지로부터 안저 이미지에 포함되는 복수의 픽셀에 대하여 제1 스케일에 대한 제1 스케일 값을 획득하는 단계를 더 포함할 수 있다. 이때, 품질 판단을 위하여 획득되는 픽셀 값은 제1 스케일 값을 포함할 수 있다. 제1 스케일은 복수의 픽셀의 명도 스케일이고, 제1 스케일 값은 명도 스케일 값일 수 있다.
일 실시예에 따르면, 안저 이미지의 품질 판단 방법은, 안저 이미지를 기준 픽셀 값에 대하여 이진화하는 단계를 더 포함할 수 있다. 이때, 제1 픽셀을 검출하는 단계는, 이진화된 안저 이미지에 기초하여 제1 픽셀을 검출하는 것을 더 포함할 수 있다.
도 40은 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법을 설명하기 위한 흐름도이다. 도 40을 참조하면, 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법은 안저 이미지의 일부 영역을 대상 영역으로 결정하는 단계(S210) 및 대상 영역으로부터 아티팩트 픽셀을 검출하는 단계(S230)를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 피검체의 안저를 촬영한 안저 이미지로부터 안저 이미지의 품질에 관여하는 아티팩트를 검출하여 안저 이미지의 품질을 판단하는 방법은 안저 이미지의 적어도 일부 영역을 아티팩트를 검출하기 위한 대상 영역으로 결정하는 단계(S210) 및 대상 영역으로부터 아티팩트와 대응되는 적어도 하나의 아티팩트 픽셀을 검출하는 단계(S230)를 포함할 수 있다.
아티팩트가 제1 아티팩트인 경우 대상 영역은 안저 이미지 중 안저에 대응되는 영역의 중심으로부터 소정 거리 이격된 영역인 제1 영역으로 결정될 수 있다. 제1 아티팩트는 안저 이미지의 안저 영역에 발생하는 광의 과도한 반사에 의한 브라이트 아티팩트일 수 있다. 제1 아티팩트는 안저 이미지의 외측 영역(OA)에 발생하는 다양한 종류의 흠결일 수 있다. 제1 아티팩트는 후술하는 제1 타입 아티팩트일 수 있다.
아티팩트가 제2 아티팩트인 경우 대상 영역은 안저 이미지 중 안저가 분포하는 영역인 안저 영역으로 결정될 수 있다. 제2 아티팩트는 안저 이미지의 안저 영역에 발생하는 그림자에 의한 다크 아티팩트일 수 있다. 제2 아티팩트는 안저 이미지의 안저 영역(FA) 또는 내측 영역(IA)에 발생하는 다양한 종류의 흠결일 수 있다. 제2 아티팩트는 후술하는 제2 타입 아티팩트일 수 있다.
일 실시예에 따르면, 안저 이미지의 품질 판단 방법은 검출된 아티팩트 픽셀에 기초하여 안저 이미지의 품질을 판단하는 단계를 더 포함할 수 있다.
안저 이미지의 품질을 판단하는 것은 검출된 아티팩트의 양이 기준량을 초과하는지 여부를 고려하여 안저 이미지의 품질을 판단하는 것을 더 포함할 수 있다. 아티팩트의 양은 안저 영역으로부터 검출된 아티팩트에 대응되는 픽셀의 수, 안저 영역으로부터 검출된 아티팩트에 대응되는 영역의 넓이 또는 안저 영역으로부터 검출된 아티팩트의 수 등에 기초하여 판단될 수 있다. 기준량은 기준 픽셀 수, 기준 넓이, 기준 아티팩트의 수 등으로 정의될 수 있다.
안저 이미지의 품질을 판단하는 단계는, 검출된 아티팩트 픽셀의 수가 안저 이미지의 전체 픽셀의 수에 대하여 기준 비율을 초과하는지 여부를 판단하는 단계 및 아티팩트 픽셀의 수가 안저 이미지 전체 픽셀의 수에 대하여 기준 비율을 초과하는 경우 안저 이미지는 아티팩트를 포함하는 것으로 결정하는 단계를 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 품질 판단 방법은, 안저 이미지를 회색조 변환하여, 변환된 안저 이미지를 획득하는 단계를 더 포함할 수 있다. 아티팩트 픽셀을 검출하는 것은 변환된 안저 이미지로부터 아티팩트 픽셀을 검출하는 것을 더 포함할 수 있다. 안저 이미지의 품질 판단 방법은, 안저 이미지를 이진화하거나 색조를 변경하거나, 기타 변형을 가하여 획득된 변환된 안저 이미지를 획득하는 것을 포함할 수 있다.
도 41은 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법을 설명하기 위한 흐름도이다. 도 41을 참조하면, 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법은 안저 이미지의 일부 영역을 대상 영역으로 결정하는 단계(S210), 대상 영역에 포함되는 픽셀의 픽셀 값을 기준 픽셀 값 범위와 비교하는 단계(S231) 및 기준 픽셀 값 범위에 포함되는 픽셀 값을 가지는 픽셀을 아티팩트 픽셀로 결정하는 단계(S233)를 포함할 수 있다.
대상 영역으로부터 아티팩트 픽셀을 검출하는 단계(S230)는 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 기준 픽셀 값 범위와 비교하는 단계(S231) 및/또는 대상 영역에 포함되고 기준 픽셀 값 범위에 포함되는 픽셀 값을 가지는 적어도 하나의 픽셀을 아티팩트 픽셀로 결정하는 단계(S233)를 더 포함할 수 있다. 픽셀 값은 픽셀의 밝기 값일 수 있다.
기준 픽셀 값 범위는 기준 픽셀 값보다 큰 값을 포함하는 범위 또는 기준 픽셀 값보다 작은 값을 포함하는 범위로 정해질 수 있다. 또는, 기준 픽셀 값 범위는 기준 하한 값보다 크고 기준 상한 값보다 작은 값을 포함하는 범위로 정해질 수 있다.
도 42는 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법을 설명하기 위한 흐름도이다. 도 42를 참조하면, 본 발명의 일 실시예에 따른 이미지의 품질 판단 방법은, 안저 이미지의 일부 영역을 대상 영역으로 결정하는 단계(S210), 대상 영역에 포함되는 픽셀의 픽셀 값을 제1 기준 픽셀 값과 비교하는 단계(S235) 및 대상 영역에 포함되고 제1 기준 픽셀 값보다 큰 픽셀 값을 가지는 픽셀을 제1 아티팩트 픽셀로 결정하는 단계(S237)를 포함할 수 있다.
아티팩트가 제1 아티팩트인 경우, 아티팩트 픽셀을 검출하는 단계(S230)는, 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 제1 기준 픽셀 값과 비교하는 단계(S235) 및 대상 영역에 포함되고 제1 기준 픽셀 값보다 큰 픽셀 값을 가지는 적어도 하나의 픽셀을 제1 아티팩트 픽셀로 결정하는 단계(S237)를 포함할 수 있다.
예컨대, 아티팩트가 브라이트 아티팩트인 경우, 아티팩트 픽셀을 검출하는 단계(S230)는, 대상 영역에 포함되는 픽셀들의 밝기 값을 브라이트 아티팩트 기준 픽셀 값과 비교하고, 브라이트 아티팩트 기준 픽셀 값보다 밝은 값을 가지는 픽셀을 브라이트 아티팩트 픽셀로 결정하는 것을 포함할 수 있다.
한편, 아티팩트가 제2 아티팩트인 경우, 아티팩트 픽셀을 검출하는 단계(S230)는, 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 제2 기준 픽셀 값과 비교하는 단계 및 대상 영역에 포함되고 제2 기준 픽셀 값보다 작은 픽셀 값을 가지는 적어도 하나의 픽셀을 제2 아티팩트 픽셀로 결정하는 단계를 더 포함할 수도 있다.
예컨대, 아티팩트가 다크 아티팩트인 경우, 아티팩트 픽셀을 검출하는 단계(S230)는, 대상 영역에 포함되는 픽셀들의 밝기 값을 다크 아티팩트 기준 픽셀 값과 비교하고, 다크 아티팩트 픽셀 기준 값보다 작은 밝기 값을 가지는 적어도 하나의 픽셀을 다크 아티팩트 픽셀로 결정하는 것을 포함할 수 있다.
이상에서는 편의를 위하여, 이미지의 품질을 판단하는 것을 기준으로 서술하였으나, 이는 예시에 불과하며, 이는 본 명세서 전체에서, 목적을 달성하기에 부적합한 이미지를 선별하는 목적을 가지는 다양한 동작에 대하여 상호 대체가 가능한 것으로 해석되어야 할 것이다.
2.3.3 검출 대상 종류별 알고리즘
본 발명의 일 실시예에 따르면, 이미지의 품질을 판단하는 것은 이미지에 발생한 다양한 흠결 또는 이상 상태를 검출하는 것을 포함할 수 있다. 전술한 이미지의 판단 방법은 판단하고자 하는 흠결의 종류에 따라 다르게 구현될 수 있다
이하에서는, 이미지의 품질을 판단하기 위하여 검출하기 위한 이상의 종류에 따른 이미지 품질 판단 알고리즘에 대하여 몇몇 실시예를 들어 설명한다.
2.3.3.1 제1 타입 아티팩트(브라이트 아티팩트)
본 발명의 일 실시예에 따르면, 안저 이미지가 제1 타입 아티팩트(이하, 제1 아티팩트)를 포함하는지 여부를 판단하기 위한 이미지 품질 판단 방법 등이 제공될 수 있다. 이미지 품질 판단은 제1 아티팩트에 대응되는 영역이 안저 이미지에 대하여 분포하는 정도를 고려하여 수행될 수 있다.
제1 아티팩트는 브라이트 아티팩트일 수 있다. 브라이트 아티팩트는 광학적 반사(optical reflections), 밝은 가장자리(bright borders)등에 의해 발생할 수 있다. 브라이트 아티팩트는 안저 이미지의 외곽에 가깝게 분포할 수 있다. 이하에서는, 제1 아티팩트가 광학적 요인에 의하여 안저 이미지의 안저 영역의 외곽에 가깝게 발생하는 브라이트 아티팩트인 경우를 기준으로 이미지 품질 판단 방법에 대하여 설명한다.
도 43은 본 발명의 일 실시예에 따른 이미지 품질 판단 방법을 설명하기 위한 도면이다.
도 43의 (a)를 참조하면, 본 발명의 일 실시예에 따른 이미지 품질 판단 방법은 안저 이미지를 획득하는 단계(S21) 및 제1 품질 정보를 획득하는 단계(S23)를 포함할 수 있다. 도 43의 (b)를 참조하면, 본 발명의 일 실시예에 따른 이미지 품질 판단 방법은 안저 이미지를 획득하는 단계(S21), 제1 픽셀을 검출하는 단계(S23a) 및 제1 품질 조건을 판단하는 단계(S23b)를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 안저 이미지가 제1 아티팩트를 포함하는지 여부를 판단하기 위한 이미지 품질 판단 방법은 안저 이미지를 획득하는 단계 및 안저 이미지의 제1 타입 품질 정보(이하, 제1 품질 정보)를 획득하는 단계를 포함할 수 있다.
안저 이미지가 제1 아티팩트를 포함하는지 여부를 판단하기 위한 이미지 품질 판단 방법은 안저 이미지의 각 픽셀의 세기 값 획득이 용이하도록 안저 이미지를 변환하는 것을 더 포함할 수 있다. 이미지를 변환에 대하여는 2.2 판단 방법 에서 전술한 내용이 유사하게 적용될 수 있다.
제1 품질 정보를 획득하는 단계는 안저 이미지로부터 제1 픽셀을 검출하는 단계 및 제1 품질 조건을 판단하는 단계를 포함할 수 있다.
제1 픽셀은 제1 아티팩트에 대응되는 픽셀일 수 있다. 제1 픽셀은 제1 아티팩트가 분포하는 영역에 대응되는 픽셀일 수 있다. 제1 픽셀은 제1 아티팩트를 검출하기 위한 지표로 이용되는 픽셀일 수 있다. 구체적인 예로, 제1 픽셀은 브라이트 아티팩트를 검출하기 위한 브라이트 픽셀일 수 있다. 예컨대, 브라이트 픽셀은 특히 밝은 밝기 값을 가지거나 특정 색상 값을 가지는 픽셀일 수 있다.
제1 픽셀을 검출하는 단계는 안저 이미지로부터 픽셀 값이 기준 값 이상인 픽셀을 검출하는 것을 포함할 수 있다. 예컨대, 제1 픽셀을 검출하는 단계는 픽셀의 밝기 값이 기준 밝기 값 이상을 가지는 제1 픽셀을 검출하는 것을 포함할 수 있다.
기준 값은 미리 정해진 값일 수 있다. 또는 기준 값은 개별 이미지에 대하여 다르게 결정될 수 있다. 예컨대, 기준 값은 이미지에 포함된 전체 픽셀의 픽셀 값의 평균 값으로 결정될 수 있다. 또는, 기준 값은 안저 영역에 포함된 픽셀의 픽셀 값의 평균 값으로 결정될 수 있다.
제1 픽셀은 특정 영역으로부터 검출될 수 있다. 예컨대, 제1 픽셀은 안저 영역으로부터 검출될 수 있다. 또는, 제1 픽셀은 안저 영역 중 일부로 결정되는 대상 영역으로부터 검출될 수 있다. 보다 구체적인 예로, 제1 픽셀은 안저 영역의 중심으로부터 소정 거리 이상 이격된 영역인 대상 영역으로부터 검출될 수 있다. 예컨대, 제1 픽셀은 안저 영역의 중심으로부터 안저 영역의 소정 부분을 포함하도록 결정된 경계의 외부 영역인 대상 영역으로부터 검출될 수 있다.
검출된 제1 픽셀을 고려하여 안저 이미지가 제1 품질 조건을 만족하는지 판단할 수 있다. 또는, 검출된 제1 픽셀을 고려하여 안저 이미지가 제1 아티팩트를 포함하는지 여부를 판단할 수 있다.
제1 품질 조건을 판단하는 단계는 검출된 제1 픽셀을 고려하여 제1 품질 조건을 판단하는 것을 포함할 수 있다. 제1 품질 조건은 제1 픽셀 수의 범위, 제1 픽셀의 수와 안저 이미지의 픽셀 수의 비율 등을 포함할 수 있다.
안저 이미지의 제1 품질 조건 만족 여부는 대상 영역에 포함되는 제1 픽셀을 고려하여 결정될 수도 있다. 이때, 제1 품질 조건을 판단하는 단계는 안저 이미지에서 대상 영역으로부터 검출된 제1 픽셀이 차지하는 비율을 고려하여 안저 이미지가 제1 품질 조건을 만족하는지 판단하는 것을 포함할 수 있다.
일 예로, 제1 품질 조건을 판단하는 것은 제1 픽셀의 수가 안저 이미지(또는 안저 영역) 전체 픽셀의 수의 기준 비율을 초과하는지 판단하는 것을 포함할 수 있다.
다른 예로, 제1 품질 조건을 판단하는 것은 외측 영역(OA)으로부터 검출된 제1 픽셀이 안저 이미지(또는 안저 영역)에서 차지하는 비율이 기준 비율을 초과하는지 판단하는 것을 포함할 수 있다.
보다 구체적인 예로, 외측 영역(OA)으로부터 검출된 기준 밝기 이상의 밝기 값을 가지는 제1 픽셀의 수가 안저 이미지 전체 픽셀 수의 2%를 초과하는 경우, 제1 품질 조건이 만족된 것으로 판단할 수 있다. 또는, 안저 이미지에 제1 아티팩트가 발생한 것으로 판단될 수 있다.
기준 비율은 미리 정해진 값일 수 있다. 또는, 이미지 전체의 밝기 값의 편차 등을 고려하여 이미지 별로 결정될 수 있다. 또는 인공지능 학습 결과 얻어진 값일 수 있다. 기준 비율은 5%이하일 수 있다.
도 44는 본 발명의 일 실시예에 따른 이미지 품질 판단 방법을 설명하기 위한 도면이다.
도 44의 (a) 내지 (c)를 참조하면, 본 발명의 일 실시예에 따른 이미지 품질 판단 방법은 안저 이미지를 획득하고(a), 획득한 안저 이미지를 변환하고(b), 변환된 안저 이미지에 기초하여 이미지가 브라이트 아티팩트를 포함하는지 여부를 판단(c)하는 것을 포함할 수 있다.
도 44의 (a)를 참조하면, 획득된 안저 이미지는 안저 영역의 외곽 부근에 아티팩트를 포함할 수 있다. 예컨대, 안저 이미지는 브라이트 아티팩트를 포함할 수 있다.
도 44의 (b)를 참조하면, 안저 이미지를 변환하는 것은, 안저 이미지를 회색조 변환하는 것을 포함할 수 있다. 안저 이미지를 변환하는 것은 안저 이미지를 히스토그램 정규화 하는 것을 포함할 수 있다.
도 44의 (c)를 참조하면, 안저 이미지가 브라이트 아티팩트를 포함하는지 여부를 판단하는 것은 브라이트 아티팩트 픽셀을 검출하는 것을 포함할 수 있다. 브라이트 아티팩트 픽셀을 검출하는 것은 픽셀의 수, 픽셀의 위치, 픽셀의 비율 등을 포함하는 것일 수 있다.
브라이트 아티팩트 픽셀을 검출하는 것은, 안저 영역의 중심으로터 소정 거리 이격된 경계의 외측 영역으로부터 그 픽셀의 값이 임계값 이상인 브라이트 아티팩트 픽셀(즉, 기준 밝기 이상의 밝기 값을 가지는 픽셀)을 검출하는 것을 포함할 수 있다. 경계는 그 내부의 영역이 안저 영역의 80%가 되도록 안저 영역을 구분하도록 결정될 수 있다.
이미지가 브라이트 아티팩트를 포함하는지 여부를 판단(c)하는 것은 브라이트 아티팩트 픽셀을 검출하고, 검출된 브라이트 아티팩트 픽셀이 안저 이미지에 대하여 차지하는 비율이 기준 비율 이상인지(예컨대, 2%를 초과하는지) 판단하고, 브라이트 아티팩트 픽셀이 안저 이미지에 대하여 차지하는 비율이 기준 비율 이상인 경우, 해당 안저 이미지는 브라이트 아티팩트를 가지는 것으로 판단될 수 있다.
제1 품질 조건을 판단하는 단계는 제1 품질 조건이 만족되는 경우 안저 이미지가 제1 아티팩트를 포함하는 것으로 결정하는 것을 더 포함할 수 있다. 예컨대, 안저 이미지가 제1 품질 조건을 만족하는 경우, 해당 안저 이미지는 브라이트 아티팩트를 포함하는 것으로 결정될 수 있다.
품질 조건 만족 여부가 결정되면, 제1 품질 정보가 획득될 수 있다.
제1 품질 정보는 안저 이미지의 적합성을 지시할 수 있다. 특히, 제1 품질 정보는 안저 이미지의 브라이트 아티팩트와 관련된 적합성을 지시할 수 있다. 제1 품질 정보는 안저 이미지의 브라이트 아티팩트가 발생하는 영역과 관련된 적합성을 지시할 수 있다.
제1 품질 정보는 안저 이미지의 브라이트 아티팩트 포함 여부를 지시할 수 있다. 예컨대, 안저 이미지가 제1 품질 조건을 만족하는 경우, 안저 이미지가 브라이트 아티팩트를 포함하는 것을 지시하는 제1 품질 정보가 획득될 수 있다.
제1 품질 정보는 안저 이미지가 브라이트 아티팩트를 포함하는지 여부에 대한 브라이트 아티팩트 유무 정보, 브라이트 아티팩트의 정도 정보, 브라이트 아티팩트의 위치 정보 등을 포함할 수 있다.
본 발명의 일 실시예에 따른 피검체의 안저를 촬영한 안저 이미지로부터 제1 타입 아티팩트를 검출하여 안저 이미지의 품질을 판단하는 방법은, 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 단계, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 단계 및 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 안저 이미지의 품질 정보를 획득하는 단계를 포함하되, 아티팩트는 제1 아티팩트이고, 대상 영역은 안저 이미지의 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역일 수 있다.
이때, 제1 거리는 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 영역이 안저 이미지 전체 영역에 대하여 제1 비율 이상이 되도록 결정될 수 있다.
기준 픽셀 값은 제1 픽셀 값이고, 기준 픽셀 값과 비교하여 제1 픽셀을 검출하는 단계는 대상 영역에 포함되고 기준 픽셀 값보다 큰 픽셀 값을 가지는 제1 픽셀을 검출하는 것을 포함할 수 있다.
기준 비율은 제1 기준 비율이고, 기준 비율과 비교하는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 제1 기준 비율보다 큰지 판단하는 것을 더 포함할 수 있다.
비교 결과에 기초하여 품질 정보를 획득하는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 제1 기준 비율보다 큰 경우 안저 이미지는 불량 이미지인 것으로 결정하는 것을 더 포함할 수 있다.
2.3.3.2 제2 타입 아티팩트(다크 아티팩트)
본 발명의 일 실시예에 따르면, 안저 이미지가 제2 타입 아티팩트(이하, 제2 아티팩트)를 포함하는지 여부를 판단하기 위한 이미지 품질 판단 방법 등이 제공될 수 있다. 이미지 품질 판단은 제2 아티팩트에 대응되는 영역이 안저 이미지에 대하여 분포하는 정도를 고려하여 수행될 수 있다.
제2 아티팩트는 다크 아티팩트일 수 있다. 다크 아티팩트는 안저 이미지 촬상 시 안저와 촬상 장치의 거리 또는 안저로 입사되는 광량 등이 적절하지 않은 상태에서 촬상된 경우에 발생할 수 있다. 다크 아티팩트는 임의의 영역에 발생할 수 있다. 다크 아티팩트는 안저 영역의 중심부에 가깝게 발생할 수 있다. 이하에서는, 제2 아티팩트가 광학적 요인에 의하여 발생하는 다크 아티팩트인 경우를 기준으로 이미지 품질 판단 방법에 대하여 설명한다.
도 45는 본 발명의 일 실시예에 따른 이미지 품질 판단 방법을 설명하기 위한 도면이다. 도 45의 (a)를 참조하면, 본 발명의 일 실시예에 따른 이미지 품질 판단 방법은 안저 이미지를 획득하는 단계(S31) 및 제2 품질 정보를 획득하는 단계(S33)를 포함할 수 있다. 도 45의 (b)를 참조하면, 본 발명의 일 실시예에 따른 이미지 품질 판단 방법은 안저 이미지를 획득하는 단계(S31), 제2 픽셀을 검출하는 단계(S33a) 및 제2 품질 조건을 판단하는 단계(S33b)를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 안저 이미지가 제2 아티팩트를 포함하는지 여부를 판단하기 위한 이미지 품질 판단 방법은 안저 이미지를 획득하는 단계 및 안저 이미지의 제2 타입 품질 정보(이하, 제2 품질 정보)를 획득하는 단계를 포함할 수 있다.
일 실시예에 따르면, 이미지 품질 판단 방법은 이미지 변환 단계를 더 포함할 수 있다, 이미지의 변환에 대하여는 2.2 판단 방법에서 전술한 내용이 유사하게 적용될 수 있다.
다크 아티팩트는 안저 이미지의 촬상 시 발생하는 그림자 등에 의하여 나타날 수 있다. 다크 아티팩트는 안저 이미지의 중심부에 가깝게 분포할 수 있다. 다크 아티팩트와 브라이트 아티팩트는 동일한 이미지에 함께 발생할 수도 있다.
제2 품질 정보를 획득하는 단계는 안저 이미지로부터 제2 픽셀을 검출하는 단계 및 제2 품질 조건을 판단하는 단계를 포함할 수 있다.
제2 픽셀은 제2 아티팩트에 대응되는 픽셀일 수 있다. 제2 픽셀은 제2 아티팩트가 분포하는 영역에 대응되는 픽셀일 수 있다. 제2 픽셀은 제2 아티팩트를 검출하기 위한 지표로 이용되는 픽셀일 수 있다. 구체적인 예로, 제2 픽셀은 다크 아티팩트를 검출하기 위한 다크 픽셀일 수 있다. 예컨대, 다크 픽셀은 특히 어두운 픽셀 값을 가지거나 특정 색상 값을 가지는 픽셀일 수 있다.
제2 픽셀을 검출하는 단계는 안저 이미지로부터 픽셀 값이 기준 값 이하인 픽셀을 검출하는 것을 포함할 수 있다. 예컨대, 제2 픽셀을 검출하는 단계는 픽셀의 밝기 값이 기준 밝기 값 이하인 제2 픽셀을 검출하는 것을 포함할 수 있다.
제2 픽셀은 특정 영역으로부터 검출될 수 있다. 제2 픽셀은 안저 영역 또는 안저 영역 중 일부인 대상 영역으로부터 검출될 수 있다. 예컨대, 제2 픽셀은 안저 영역의 중심으로부터 소정 거리 이내의 영역인 대상 영역으로부터 검출될 수 있다. 제2 픽셀은 도 32 에서 설명하는 경계(BO) 내부의 내측 영역(IA)로부터 검출될 수도 있다.
검출된 제2 픽셀을 고려하여 안저 이미지가 제2 품질 조건을 만족하는지 판단할 수 있다. 또는, 검출된 제2 픽셀을 고려하여 안저 이미지가 제2 아티팩트를 포함하는지 여부를 판단할 수 있다.
제2 품질 조건을 판단하는 단계는 검출된 제2 픽셀을 고려하여 제2 품질 조건을 판단하는 것을 포함할 수 있다. 제2 품질 조건은 제2 픽셀 수의 범위, 제2 픽셀 수와 안저 이미지의 픽셀 수의 비율 등을 포함할 수 있다.
안저 이미지의 제2 품질 조건 만족 여부는 대상 영역에 포함되는 제2 픽셀을 고려하여 결정될 수도 있다. 이때, 제2 품질 조건을 판단하는 단계는 안저 이미지에서 대상 영역으로부터 검출된 제2 픽셀이 차지하는 비율을 고려하여 안저 이미지가 제2 품질 조건을 만족하는지 판단하는 것을 포함할 수 있다.
일 예로, 제2 품질 조건을 판단하는 것은 검출된 제2 픽셀의 수가 안저 이미지(또는 안저 영역) 전체 픽셀 수에 대하여 기준 비율에 미달하는지 판단하는 것을 포함할 수 있다.
다른 예로, 제2 품질 조건을 판단하는 것은 안저 영역의 내측 영역(IA) 또는 안저 영역(FA)으로부터 검출된 제2 픽셀이 안저 이미지(또는 안저 영역)에 대하여 차지하는 비율이 기준 비율을 초과하는지 판단하는 것을 포함할 수 있다.
보다 구체적인 예로, 내측 영역(OA) 또는 안저 영역(FA)으로부터 검출된 기준 밝기 이하의 밝기 값을 가지는 제2 픽셀의 수가 안저 이미지 전체 픽셀 수의 2%를 초과하는 경우, 제2 품질 조건은 만족된 것으로 판단될 수 있다. 또는, 안저 이미지에 제2 아티팩트가 발생한 것으로 판단될 수 있다.
도 46은 본 발명의 일 실시예에 따른 이미지 품질 판단 방법을 설명하기 위한 도면이다.
도 46의 (a) 내지 (c)를 참조하면, 본 발명의 일 실시예에 따른 이미지 품질 판단 방법은 안저 이미지를 획득하고(a), 획득된 안저 이미지를 변환하고(b), 변환된 안저 이미지에 기초하여 이미지가 브라이트 아티팩트를 포함하는지 여부를 판단(c)하는 것을 포함할 수 있다.
도 46의 (a)를 참조하면, 획득된 안저 이미지는 주변보다 어둡게 촬상된 영역을 포함할 수 있다. 획득된 안저 이미지는 다크 아티팩트를 포함할 수 있다.
도 46의 (b)를 참조하면, 안저 이미지를 변환하는 것은 안저 이미지를 회색조 변환 또는 히스토그램 정규화하는 것을 포함할 수 있다.
도 46의 (c)를 참조하면, 이미지가 아티팩트를 포함하는지 여부를 판단(c)하는 것은 다크 아티팩트 픽셀을 검출하는 것을 포함할 수 있다. 도 46의 (c)를 참조하면, 다크 아티팩트 픽셀을 검출하는 것은 그 픽셀의 값이 임계값 이하인 픽셀(즉, 기준 밝기 이하의 밝기 값을 가지는 픽셀)을 검출하는 것을 포함할 수 있다.
일 예로, 다크 아티팩트 픽셀을 검출하는 것은, 안저 영역 중심으로부터 소정 거리 내의 내측 영역으로부터 그 픽셀의 값이 임계값 이하인 픽셀을 검출하는 것일 수 있다. 이때, 안저 영역의 내측 영역(OA)를 결정하는 경계는 그 내부 영역이 안저 영역의 80%를 차지하도록 결정될 수 있다.
도 46을 참조하면, 이미지가 다크 아티팩트를 포함하는지 여부를 판단하는 것은 다크 아티팩트 픽셀을 검출하고, 검출된 다크 아티팩트 픽셀이 안저 이미지에 대하여 차지하는 비율이 기준 비율 이상인지(2% 이상인지) 판단하고, 다크 아티팩트 픽셀이 안저 이미지에 대하여 차지하는 비율이 기준 비율 이상인 경우, 해당 안저 이미지는 브라이트 아티팩트를 가지는 것으로 판단될 수 있다.
제2 품질 조건을 판단하는 단계는 제2 품질 조건이 만족되는 경우 안저 이미지가 제2 아티팩트를 포함하는 것으로 결정하는 것을 더 포함할 수 있다. 예컨대, 안저 이미지가 제2 품질 조건을 만족하는 경우, 해당 안저 이미지는 다크 아티팩트를 포함하는 것으로 결정될 수 있다.
품질 조건 만족 여부가 결정되면, 제2 품질 정보가 획득될 수 있다.
제2 품질 정보는 안저 이미지의 적합성을 지시할 수 있다. 특히, 제2 품질 정보는 안저 이미지의 다크 아티팩트와 관련된 적합성을 지시할 수 있다. 제2 품질 정보는 안저 이미지의 다크 아티팩트가 발생하는 영역과 관련된 적합성을 지시할 수 있다.
제2 품질 정보는 안저 이미지의 다크 아티팩트 포함 여부를 지시할 수 있다. 예컨대, 안저 이미지가 제2 품질 조건을 만족하는 경우, 안저 이미지가 브라이트 아티팩트를 포함하는 것을 지시하는 제2 품질 정보가 획득될 수 있다.
제2 품질 정보는 안저 이미지가 다크 아티팩트를 포함하는지 여부에 관련된 다크 아티팩트 유무 정보, 다크 아티팩트의 정도 정보, 다크 아티팩트의 위치 정보 등을 포함할 수 있다.
본 발명의 일 실시예에 따른 피검체의 안저를 촬영한 안저 이미지로부터 제2 타입 아티팩트를 검출하여 안저 이미지의 품질을 판단하는 방법은, 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 단계, 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 단계 및 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율을 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 안저 이미지의 품질 정보를 획득하는 단계를 포함하되, 아티팩트는 제1 아티팩트이고, 대상 영역은 안저 이미지의 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역일 수 있다.
이때, 아티팩트는 제2 아티팩트이고, 대상 영역은 안저 이미지의 안저가 분포하는 제2 영역일 수 있다. 기준 픽셀 값은 제2 픽셀 값이고, 기준 픽셀 값과 비교하여 제1 픽셀을 검출하는 단계는 대상 영역에 포함되고 기준 픽셀 값보다 작은 픽셀 값을 가지는 제1 픽셀을 검출하는 것을 포함할 수 있다.
기준 비율은 제2 기준 비율이고, 기준 비율과 비교하는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 제2 기준 비율보다 작은지 판단하는 것을 더 포함할 수 있다.
비교 결과에 기초하여 품질 정보를 획득하는 단계는 안저 이미지의 전체 픽셀 중 제1 픽셀이 차지하는 비율이 제2 기준 비율보다 작은 경우 안저 이미지는 불량 이미지인 것으로 결정하는 것을 더 포함할 수 있다.
2.3.3.3 제3 타입 아티팩트(혼탁)
본 발명의 일 실시예에 따르면, 안저 이미지가 제3 타입 아티팩트(이하, 제3 아티팩트)를 포함하는지 여부를 판단하기 위한 이미지 품질 판단 방법 등이 제공될 수 있다. 이미지 품질 판단은 안저 이미지에 포함된 제3 아티팩트의 정도를 고려하여 수행될 수 있다.
제3 아티팩트는 안저 영역 전반이 흐리게 촬상된 아티팩트일 수 있다. 예컨대, 촬상시 렌즈 상의 오염 기타 광경로 상의 방해요소로 인하여 안저 영역이 뿌옇게 촬영되는 경우가 있을 수 있다.
일 예로, 제3 아티팩트는 피검자의 안질환으로 인한 질병 유래 아티팩트일 수 있다. 피검자가 특정한 종류의 안질환을 보유하고 있는 경우, 다른 외부 요인에 의한 아티팩트가 발생하지 아니한 경우라도, 안저 이미지가 다른 질병의 진단에 이용될 수 없는 경우가 있을 수 있다. 예컨대, 피검자의 안구에 혼탁(opacity)이 발생한 경우, 안저 이미지가 흐릿하게 촬영되는 경우가 대부분이므로 해당 안저 이미지에 기초하여 타 질병을 진단할 경우 그 신뢰도가 보장되지 않는다는 문제가 있다. 따라서, 이와 같은 아티팩트에 대하여 별도로 검출하고, 사용자에게 고지할 필요가 있다.
이하에서는, 안저 영역 전반에 걸쳐 요소 식별을 곤란하게 하는 아티팩트를 제3 아티팩트로 정의하고, 제3 아티팩트를 고려한 안저 이미지의 품질 판단 방법에 대하여 설명한다.
본 발명의 일 실시예에 따르면, 안저 이미지가 제3 아티팩트를 포함하는지 여부를 판단하기 위한 이미지 품질 판단 방법은 안저 이미지를 획득하는 단계 및 안저 이미지의 제3 타입 품질 정보(이하, 제3 품질 정보)를 획득하는 단계를 포함할 수 있다.
이미지 품질 판단 방법은 안저 이미지를 변환하는 것을 더 포함할 수 있고, 이제 대하여는 2.2 판단 방법 에서 전술한 내용이 유사하게 적용될 수 있다.
제3 품질 정보를 획득하는 단계는 안저 이미지로부터 제3 픽셀을 검출하는 단계 및 제3 품질 조건을 판단하는 단계를 포함할 수 있다.
제3 픽셀은 제3 아티팩트에 대응되는 픽셀일 수 있다. 제3 픽셀은 제3 아티팩트가 분포하는 영역에 대응되는 픽셀일 수 있다. 제3 픽셀은 제3 아티팩트를 검출하기 위한 지표로 이용될 수 있다. 제3 픽셀은 혼탁 픽셀일 수 있다. 제3 픽셀은 소정 범위 내의 픽셀 값을 가지거나 주변 픽셀과 비교하였을 때 소정 비율 이내의 픽셀 값 차이를 가지는 픽셀일 수 있다.
검출된 제3 픽셀을 고려하여 안저 이미지가 제3 품질 조건을 만족하는지 판단할 수 있다. 또는, 검출된 제3 픽셀을 고려하여 안저 이미지가 제3 아티팩트를 포함하는지 여부를 판단할 수 있다.
제3 품질 조건을 판단하는 단계는 대상 영역(예컨대, 안저 영역)에 포함되는 제3 픽셀의 수, 범위 및 비율 등을 고려하여 제3 품질 조건을 판단하는 것을 더 포함할 수 있다.
제3 품질 조건을 판단하는 단계는 제3 품질 조건이 만족되는 경우 안저 이미지가 제3 아티팩트를 포함하는 것으로 결정하는 것을 더 포함할 수 있다.
제3 품질 정보를 획득하는 단계는 안저 이미지로부터 제3 아티팩트를 검출하는 단계를 포함할 수 있다. 안저 이미지가 제3 아티팩트를 포함하는지 여부는 안저 이미지의 안저 영역을 대상 영역으로 하여 판단될 수 있다.
제3 아티팩트를 검출하는 단계는 안저 이미지의 히스토그램을 이용하여 제3 아티팩트를 검출하는 것을 더 포함할 수 있다. 예컨대, 제3 아티팩트 유무를 판단하는 것은 안저 이미지의 히스토그램의 편차를 이용하여, 편차가 소정 값 이하인 경우 해당 이미지는 제3 아티팩트를 포함하는 것으로 판단할 수도 있다. 다시 말해, 제3 아티팩트 유무를 판단하는 것은 안저 이미지의 안저 영역에 포함되는 픽셀들의 밝기 분포가 기준 이상으로 균일한 경우 해당 안저 이미지는 제3 아티팩트를 가지는 것으로 판단하는 것을 포함할 수 있다.
또는, 본 발명의 일 실시예에 따르면, 안저 이미지가 제3 아티팩트를 포함하는지 여부는 제3 아티팩트를 가지는 안저 이미지 데이터 세트를 이용하여 학습된 신경망 모델을 이용하여 판단될 수도 있다.
제3 품질 조건 만족 여부가 결정되거나 이미지로부터 제3 아티팩트가 검출되면 제3 품질 정보가 획득될 수 있다. 제3 품질 정보는 안저 이미지의 적합성, 예컨대, 혼탁과 관련된 적합성을 지시할 수 있다.
제3 품질 정보는 안저 이미지에 제3 아티팩트가 발생하였는지 여부 및/또는 제3 아티팩트의 정도를 지시하는 제3 아티팩트 정보를 포함할 수 있다. 제3 품질 정보는 혼탁 아티팩트 유무, 혼탁 아티팩트의 정도 등을 지시하는 혼탁 아티팩트 정보를 포함할 수 있다.
2.3.4 복수의 안저 이미지
본 발명의 일 실시예에 따르면, 촬상 장치(또는 클라이언트 장치)는 복수의 안저 이미지를 획득할 수 있다. 복수의 안저 이미지는 촬상 장치에 의하여 촬상된 복수의 안저 이미지일 수 있다. 복수의 안저 이미지는 촬상 장치에 의하여 연속 촬상된 이미지들일 수 있다. 또는, 복수의 안저 이미지는 촬상 장치에 의하여 획득된 안저 영상으로부터 획득된 복수의 안저 이미지일 수 있다. 예컨대, 안저 영상에 포함되는 복수의 안저 이미지는 안저 영상으로부터 추출되고 안저 영상의 복수의 프레임에 대응되는 복수의 안저 이미지일 수 있다.
도 47은 본 발명의 일 실시예에 따른 복수의 안저 이미지를 설명하기 위한 도면이다.
도 47을 참조하면, 본 발명의 일 실시예에 따르면, 복수의 안저 이미지(a)가 획득될 수 있다. 복수의 안저 이미지(a)는 시간(t) 순서에 따라 획득될 수 있다. 복수의 안저 이미지(a)는 연속 촬영된 이미지일 수 있다. 복수의 안저 이미지(a)는 안저 영상에 포함되는 이미지들일 수 있다.
복수의 안저 이미지(a)는 제1 안저 이미지(b1), 제2 안저 이미지(b2) 및 제3 안저 이미지(b3)를 포함할 수 있다. 이하에서는, 복수의 안저 이미지로부터 대상 안저 이미지를 결정하는 방안에 대한 몇몇 실시예에 대하여, 도 46을 참조하여 설명한다.
안저 이미지의 품질을 판단하는 것은, 복수의 안저 이미지를 획득하고 복수의 안저 이미지에 대하여 전술한 이미지의 품질 판단 방법에 따라 품질을 판단하는 것을 포함할 수 있다. 특히, 진단 단계에서 진단 대상 안저 이미지를 결정하는 경우에, 복수의 안저 이미지 각각에 대한 품질 판단 결과에 기초하여, 복수의 안저 이미지 중 하나의 안저 이미지를 대상 안저 이미지로 결정될 수 있다.
본 발명의 일 실시예에 따르면, 복수의 안저 이미지로부터 선택된 이미지가 진단 대상 안저 이미지로 결정될 수 있다.
구체적인 예로, 복수의 안저 이미지 중 나은 품질을 가지는 안저 이미지가 대상 안저 이미지로 결정될 수 있다. 예컨대, 안저 이미지의 품질을 판단하는 것은, 제어부가 제1 안저 이미지(b1) 및 제2 안저 이미지(b2)에 대하여 품질 판단을 수행하는 것을 포함할 수 있다. 제어부는 제1 안저 이미지(b1)가 제2 안저 이미지(b2)보다 나은 품질 정보를 가지는 경우, 제1 안저 이미지(b1)를 대상 안저 이미지로 결정할 수 있다.
다른 구체적인 예로, 안저 이미지가 순차로 획득되는 경우, 대상 안저 이미지는 대체될 수 있다. 예컨대, 연속 촬영 또는 동영상 촬영을 통하여 안저 이미지가 획득되고 있는 경우에, 제어부는 제1 안저 이미지(b1) 및 제2 안저 이미지(b2) 중 보다 나은 품질을 가지는 제1 안저 이미지(b1)가 대상 안저 이미지로 결정된 상태에서, 제1 안저 이미지(b1) 및 제2 안저 이미지(b2)보다 늦게 획득되는 제3 안저 이미지(b3)의 품질을 판단하고, 제3 안저 이미지(b3)가 제1 안저 이미지(b1)보다 나은 품질을 가지는 경우, 대상 안저 이미지는 제3 안저 이미지(b3)로 대체될 수 있다.
대상 안저 이미지가 대체되면, 대상 안저 이미지에 기초하여 획득되는 정보가 대체될 수 있다. 예컨대, 안저 이미지를 연속적으로 획득함과 동시에 진단 보조 정보를 제공하는 진단 장치에 있어서, 안저 이미지의 계속적인 획득에 따라 대상 안저 이미지가 대체되면, 제공되는 진단 보조 정보가 대체될 수 있다.
또 다른 구체적인 예로, 품질 기준을 만족하지 않는 안저 이미지가 획득된 경우, 해당 안저 이미지는 폐기될 수 있다. 안저 이미지의 품질을 판단하는 것은, 제어부가 제1 안저 이미지(b1) 및 제1 안저 이미지(b1)가 획득된 이후에 획득된 제2 안저 이미지(b2)에 대하여 품질 판단을 수행하고, 제2 안저 이미지(b2)가 품질 기준을 만족하지 않는 경우, 제2 안저 이미지(b2)를 폐기하는 것을 포함할 수 있다. 또는, 제어부는, 제1 안저 이미지(b1) 및 제2 안저 이미지(b2)에 대하여 품질 판단을 수행하고, 제2 안저 이미지(b2)가 제1 안저 이미지(b1)보다 품질 값 또는 품질 점수가 낮은 경우, 제2 안저 이미지(b2)를 폐기할 수 있다.
또 다른 구체적인 예로, 품질 기준을 만족하는 안저 이미지가 획득된 경우, 안저 이미지의 획득이 중단될 수 있다. 안저 이미지의 품질 기준을 판단하는 것은, 제어부가 제1 안저 이미지(b1) 및 제1 안저 이미지(b1)가 획득된 이후에 획득된 제3 안저 이미지(b3)에 대하여 품질 판단을 수행하는 것을 포함할 수 있다. 제3 안저 이미지(b3)가 품질 기준을 만족하는 경우(예컨대, 아티팩트를 가지지 않는 경우), 안저 이미지의 획득이 중단될 수 있다. 예컨대, 제어부는 촬상 장치가 안저 이미지의 획득을 중단하도록 지시할 수 있다. 제어부는 품질 기준을 만족하는 이미지를 대상 안저 이미지로 결정할 수 있다. 다시 말해, 품질 기준을 만족하는 이미지가 획득되면, 제어부는 안저 이미지의 획득을 중단하고, 품질 기준을 만족하는 이미지를 대상 안저 이미지로 결정할 수 있다. 대상 안저 이미지가 결정되면, 대상 안저 이미지에 기초하여 진단 보조 정보 등이 출력될 수 있다. 또 예컨대, 제어부는 품질 기준을 만족하는 이미지가 획득되면, 이미지의 획득을 시작할 수 있다. 다시 말해, 제어부는 순차적으로 촬상되는 안저 이미지의 품질을 판단하되, 품질 기준을 만족하지 아니하는 안저 이미지는 폐기하고, 품질 기준을 만족하는 안저 이미지가 촬상되면, 해당 안저 이미지부터 획득(또는 저장)을 시작할 수 있다.
본 발명의 다른 일 실시예에 따르면, 복수의 안저 이미지 중 선택된 적어도 하나의 안저 이미지를 병합 또는 합성하여 생성된 하나의 안저 이미지가 진단 대상 안저 이미지로 결정될 수 있다.
구체적인 예로, 제어부는 복수의 안저 이미지로부터 안저 이미지의 서로 다른 영역을 추출하고, 추출된 부분 이미지를 병합하여 생성된 이미지를 대상 안저 이미지로 결정할 수 있다. 예컨대, 안저 이미지의 품질을 판단하는 것은, 제어부가 제1 안저 이미지(b1) 및 제2 안저 이미지(b2)의 품질을 판단하는 것을 포함할 수 있다. 품질 판단 결과, 제1 안저 이미지(b1)의 제1 영역 및 제2 안저 이미지(b2)의 제2 영역을 병합하여 생성된 제4 안저 이미지가 대상 안저 이미지로 결정될 수 있다. 품질 판단 결과, 품질 기준을 만족하는 것으로 판단된 제1 안저 이미지(b1)의 제1 영역 및 제2 안저 이미지(b2)의 제2 영역을 병합하여 생성된 제4 안저 이미지가 대상 안저 이미지로 결정될 수 있다.
다른 구체적인 예로, 제어부는 복수의 안저 이미지에 대하여 영역 별 품질 판단을 수행하고, 각 영역 별로 품질 기준을 만족하는 안저 이미지로부터 품질 기준을 만족한 영역을 추출하고, 추출된 부분 이미지를 병합하여 형성된 이미지를 대상 안저 이미지로 결정할 수 있다. 예컨대, 안저 이미지의 품질을 판단하는 것은, 제어부가 제1 안저 이미지(b1)에 포함되는 제1 영역 및 제2 영역의 품질을 판단하고, 제2 안저 이미지(b2)에 포함되는 제1 영역 및 제2 영역의 품질을 판단하고, 품질 기준을 만족하는 제1 안저 이미지(b1)의 제1 영역 및 제2 안저 이미지(b2)의 제2 영역을 병합하여 생성된 제4 이미지를 대상 안저 이미지로 결정할 수 있다.
다른 구체적인 예로, 복수의 안저 이미지를 중첩하여 대상 안저 이미지를 생성할 수 있다. 예컨대, 안저 이미지의 품질을 판단하는 것은, 제어부가 제1 안저 이미지(b1)를 획득하고, 제1 안저 이미지로부터 아티팩트가 발생한 제1 영역을 검출하는 것을 포함할 수 있다. 제어부는 제2 안저 이미지(b2)를 더 획득하고, 제2 안저 이미지(b2)의 제1 영역에 아티팩트가 발생하였는지 판단하고, 제2 안저 이미지(b2)의 제1 영역에 아티팩트가 발생하지 않은 경우, 제2 안저 이미지(b2)의 제1 영역의 부분 이미지를 획득할 수 있다. 제어부는 획득된 부분 이미지를 제1 안저 이미지(b1)에 중첩 또는 병합하여 생성된 제4 안저 이미지를 진단 대상 이미지로 결정할 수 있다.
적어도 하나의 안저 이미지를 병합 또는 합성하는 것은, 신경망 모델을 이용하여 수행될 수 있다. 예컨대, 합성곱 신경망(CNN; convolutional neural network) 또는 생성적 적대 신경망(GAN; generative adversarial neural network)등을 이용하여, 복수의 안저 이미지로부터 선택된 둘 이상의 이미지를 합성 또는 병합하여 생성된 이미지가 대상 안저 이미지로 결정될 수 있다.
도 48은 본 발명의 일 실시예에 따른 대상 이미지 선택을 설명하기 위한 도면이다. 도 48을 참조하면, 다크 아티팩트를 가지는 제1 안저 이미지(a) 및 제2 안저 이미지(b)가 획득된 경우, 보다 약한 다크 아티팩트를 포함하는 제2 안저 이미지(b)가 대상 안저 이미지로 선택될 수 있다. 보다 구체적으로, 제1 안저 이미지(a)에 포함되는 다크 아티팩트에 대응되는 픽셀의 수 또는 비율이 제2 안저 이미지(b)에 포함되는 다크 아티팩트에 대응되는 픽셀의 수 또는 비율보다 큰 경우, 제2 안저 이미지(b)가 대상 안저 이미지로 선택될 수 있다.
다른 예로, 도 48과 관련하여 예시되는 것과 달리, 서로 다른 타입의 아티팩트를 포함하는 복수의 이미지가 획득된 경우에도, 보다 약한 아티팩트를 포함하는 아티팩트가 대상 안저 이미지로 선택될 수 있다. 예컨대, 제1 안저 이미지는 제1 아티팩트를 포함하고 제2 안저 이미지는 제2 아티팩트를 포함하고, 제1 안저 이미지에 포함되는 제1 아티팩트에 대응되는 픽셀의 비율보다 제2 안저 이미지에 포함되는 제2 아티팩트에 대응되는 픽셀의 비율이 낮은 경우, 제2 안저 이미지가 대상 안저 이미지로 결정될 수 있다.
도 49는 본 발명의 일 실시예에 따른 대상 이미지 생성을 설명하기 위한 도면이다. 도 49를 참조하면, 브라이트 아티팩트를 포함하는 제1 안저 이미지(a), 다크 아티팩트를 포함하는 제2 안저 이미지(b)가 획득된 경우, 제1 안저 이미지(a)의 브라이트 아티팩트가 위치하는 영역에 대응되는 제2 안저 이미지(b)의 일부 영역을 제1 안저 이미지(a)와 병합(또는 중첩)하여 생성된 제3 안저 이미지(c)가 대상 안저 이미지로 결정될 수 있다.
다른 예로, 도 49과 관련하여 예시되는 것과 달리, 제3 안저 이미지(c)는 제2 안저 이미지(b)의 다크 아티팩트가 위치하는 영역에 대응되는 제1 안저 이미지(a)의 일부 영역을 제2 안저 이미지(b)에 병합 또는 중첩하여 생성될 수도 있다.
2.3.5 결과의 이용
2.3.5.1 라벨링
전술한 품질 판단 방법 등에 의하면, 안저 이미지의 품질 정보가 획득될 수 있다. 안저 이미지의 품질 정보는 경우에 따라 다양하게 이용될 수 있다.
데이터 베이스 구축 단계에서, 안저 이미지의 품질 정보는 세분화된 데이터 세트 구축을 위하여 이용될 수 있다. 진단 모델의 학습 단계에서, 안저 이미지의 품질 정보는 학습 목적 별로 학습 데이터를 구분하여 이용하기 위하여 이용될 수 있다. 진단 단계에서, 안저 이미지의 품질 정보는 진단 대상 안저 이미지를 선별하기 위하여 이용될 수 있다.
본 발명의 일 실시예에 따르면, 안저 이미지의 품질 정보가 획득되면, 제어부는 안저 이미지에 품질 정보를 부가할 수 있다. 예컨대, 제어부는 각 안저 이미지에 대응되는 품질 정보를 태깅 또는 라벨링할 수 있다. 예컨대, 제어부는 품질 판단 결과 평가 결과 특정 아티팩트를 가지는 것으로 판단되거나, 기준 품질에 미치지 못하는 것으로 평가되거나 흠결을 가지는 것으로 결정된 이미지 등에는 해당 정보를 라벨링할 수 있다.
일 예로, 제어부는 제1 아티팩트를 포함하는 것으로 판단된 안저 이미지에 제1 라벨을 라벨링할 수 있다. 다른 예로, 제어부는 제1 품질 기준을 만족하지 않는 것으로 판단된 안저 이미지에 제1 라벨을 라벨링할 수 있다.
다른 예로, 제어부는 제1 아티팩트를 포함하지 않는 것으로 판단되거나 제1 품질 기준을 만족하는 것으로 판단된 안저 이미지에 대하여 제2 라벨을 라벨링할 수도 있다.
다수 이미지에 대한 품질 판단 결과, 품질 정보를 포함하는 데이터 세트가 획득될 수 있다. 데이터 세트는 그 품질 분류에 따라 복수 개로 획득될 수 있다. 예컨대, 아티팩트를 가지는 것으로 판단된 이미지 데이터 또는 기준 품질에 못 미치는 것으로 판단된 이미지 데이터 세트(이하, 제1 데이터 세트)와 아티팩트가 없는 것으로 판단되거나 기준 품질을 만족하는 것으로 판단된 이미지 데이터 세트(이하, 제2 데이터 세트)는 별도로 관리될 수 있다.
일 예로, 제1 데이터 세트는 폐기될 수 있다. 예를 들어, 안저 이미지에 기초하여 진단을수행하는 진단 모델을 학습시키는 경우에, 아티팩트를 포함하거나 불량 이미지들로 구성된 제1 데이터 세트 이용 시 모델의 정확도가 떨어질 수 있으므로 해당 데이터는 학습 데이터에서 제거될 수 있다.
다른 예로, 제1 데이터 세트를 이용하여 진단 모델을 학습할 수 있다. 이 경우, 진단 모델은 아티팩트를 가지거나 품질이 떨어지는 이미지에 대하여 보다 강인한(robust) 특성을 나타낼 수 있다.
품질 판단 결과 얻어진 데이터 세트를 이용한 진단 모델의 학습 및 진단의 수행과 관련하여서는, 후술하는 품질 판단 결과의 적용 항목에서 보다 상세히 살펴본다.
2.3.5.2 출력
본 발명의 일 실시예에 따르면, 획득된 품질 정보는 출력될 수 있다. 품질 판단을 수행하는 처리 장치, 이미지 촬상 장치, 클라이언트 장치 또는 모바일 장치는 품질 정보를 출력할 수 있다. 품질 정보는 시각, 청각 및/또는 촉각 정보를 포함할 수 있다. 품질 정보는 전술한 사용자 인터페이스를 통하여 사용자에게 제공될 수 있다.
일 예로, 촬상된 안저 이미지의 품질 판단 결과 안저 이미지가 정상 이미지인 것으로 판단된 경우(또는, 아티팩트를 포함하지 않는 것으로 판단된 경우), 해당 안저 이미지에 기초한 진단 보조 정보가 출력될 수 있다.
촬상된 안저 이미지의 품질 판단 결과 안저 이미지가 비정상 이미지인 것으로 판단된 경우(또는, 아티팩트를 포함하는 것으로 판단된 경우), 사용자가 이미지의 품질 정보를 인지할 수 있도록, 해당 안저 이미지에 대한 품질 정보가 출력될 수 있다.
이때, 출력되는 품질 정보는 안저 이미지에 포함된 아티팩트의 종류, 위치, 정도 등을 포함할 수 있다. 품질 정보와 함께 안저 이미지에 기초한 진단 보조 정보가 제공될 수도 있다. 품질 정보와 함께 재촬영을 권고하는 안내가 출력될 수 있다. 재촬영 안내는 지시 정보와 함께 출력될 수 있다.
본 발명의 일 실시예에 따르면, 이미지의 품질 판단 결과를 고려하여 결정된 지시 정보가 출력될 수 있다.
지시 정보는 안저 이미지의 품질이 개선되도록 하는 지시 사항을 포함할 수 있다. 지시 정보는 안구 구성 요소가 화면상에 포함되도록 하는 지시 사항을 포함할 수 있다. 지시 정보는 안구 구성 요소가 기준 방향으로 정렬되도록 하는 지시 사항을 포함할 수 있다. 지시 정보는 관심 영역이 촬상 영역에 포함되도록 하는 지시 사항을 포함할 수 있다. 지시 정보는 관심 영역이 촬상 이미지의 적절한 위치에 포함되도록 하는 지시 사항, 관심 영역에 아티팩트가 포함되지 않도록 하는 지시 사항 또는 관심 영역의 품질이 개선되도록 하는 지시 사항을 포함할 수 있다. 예를 들어, 지시 정보는 초점, 셔터 속도, 조리개 제어, 감도 조절, 인공조명 제어 등에 관한 지시 사항을 포함할 수 있다.
일 예로, 지시 정보는 촬상 장치에서 해석 가능한 처리 명령의 형태로 제공될 수도 있다. 이 경우, 처리 장치로부터 안저 이미지가 적절히 촬상되도록 제공된 지시 정보가 촬상 장치로 전달되면 촬상 장치는 지시 정보에 기초하여 촬상 조건을 변경할 수 있다. 또는, 촬상 장치가 품질 판단을 수행하는 경우(예를 들어, 휴대용 안저 촬상 장치 또는 스마트폰 부착형 촬상 장치의 경우), 촬상 장치의 제어부는 품질 판단에 기초하여 지시 정보를 생성하고, 지시 정보에 기초하여 촬상 조건을 변경할 수 있다. 예컨대, 광량, 초점, 촬영 방향 등을 변경할 수 있다.
지시 정보는 시각, 청각 및/또는 촉각 정보로 출력될 수 있다. 지시 정보는 진단 장치 또는 촬상 장치에서 출력될 수 있다. 예컨대, 안저의 상비측 부근에 브라이트 아티팩트가 발생하였음을 나타내는 품질 정보가 획득된 경우, 촬영 렌즈를 상비측 방향으로 이동할 것을 지시하는 지시 정보가 출력될 수 있다. 시각적 지시 정보는 표시부에 표시되는 안저 이미지에 중첩 표시될 수 있다.
지시 정보는 피검자와 검사자가 존재하는 경우와 피검자가 스스로 안저를 촬영하는 경우에 달리 제공될 수 있다. 예컨대, 지시 정보는 피검자와 검사자가 존재하는 경우와 피검자가 스스로 안저를 촬영하는 경우에 각각 반대 방향을 지시할 수 있다. 다시 말해, 피검자와 검사자가 존재하는 경우, 검사자의 위치를 기준으로 한 지시 정보가 출력되고, 피검자가 스스로 촬영하는 경우에는 피검자의 위치를 기준으로 한 지시 정보가 출력될 수 있다.
특히, 피검자가 스스로 촬영하는 경우, 지시 정보는 촉각 또는 청각 정보로 제공될 수 있다. 피검자가 스스로 촬영하는 경우, 시각적 지시 정보는 촬상되는 안구의 시야에 표시되도록 출력될 수 있다. 예컨대, 제어부는 촬상 중 안저로 입사되는 광량을 감소시킴과 동시에 촬상 대상 안구 방향으로 지시 정보를 출력할 수 있다.
지시 정보는 촬상 장치의 설정 조건 변경을 지시할 수 있다. 또는, 지시 정보는 촬상 장치의 설정 조건 변경에 대한 승인을 요청하는 알림을 포함할 수 있다. 승인을 요청하는 알림은 시각 또는 청각적으로 제공될 수 있다. 촬상 장치 또는 진단 장치는 승인을 요청하는 알림에 응답하여 생성된 사용자 승인을 획득하고, 설정 조건을 변경할 수 있다.
본 발명의 일 실시예에 따르면, 안저 영상 또는 연속 이미지를 촬영하는 경우에도 품질 정보가 출력될 수 있다. 처리 장치, 이미지 촬상 장치, 클라이언트 장치 또는 모바일 장치 등은 안저 영상으로부터 획득된 품질 정보를 출력할 수 있다. 이때, 품질 정보를 고려하여 생성된 지시 정보가 출력될 수도 있다.
구체적인 예로, 안저 이미지 촬상 장치는 안저 이미지를 연속 프레임 촬영하여 안저 영상을 구성할 수 있다. 이때, 안저 이미지의 품질을 판단하는 처리 장치는 획득되는 안저 이미지 프레임마다의 품질 정보를 획득할 수 있다. 처리 장치는 획득된 품질 정보에 기초하여, 적절한 품질의 안저 이미지가 획득된 경우 촬영 종료를 지시하는 지시 정보를 출력할 수 있다. 또는, 처리 장치는 획득된 품질 정보에 기초하여, 적절한 안저 이미지가 획득될 수 있도록 지시하는 지시 정보를 출력할 수도 있다.
지시 정보는 안저 이미지의 촬영 중에 함께 제공될 수 있다. 다시 말해, 지시 정보는 실시간으로 제공될 수 있다. 제어부는 특정 시점 전의 제1 프레임에 대응되는 제1 안저 이미지에 대한 제1 품질 판단 결과 획득된 제1 지시 정보를 출력하고, 제1 지시 정보의 출력에 응답하여 획득된 제2 프레임에 대응되는 제2 안저 이미지에 대하여 제2 품질 판단을 수행하고, 제2 지시 정보를 출력할 수 있다.
구체적인 예로, 제어부는 제1 프레임에 대응되는 제1 안저 이미지에 대하여 제1 품질 판단을 수행한 결과, 황반부 근처에서 다크 아티팩트가 검출된 경우, 광량을 늘리거나 안저와의 거리 또는 광의 입사 방향을 조절하라는 지시 정보를 출력할 수 있다.
2.4 질병 특이적 품질 판단 방법(적합성 판단 방법)
2.4.1 질병 특이적 특성
안저 이미지를 이용하여 질병을 진단하는 경우, 질병에 따라 관심 영역이 달리 결정될 수 있다. 다시 말해, 안저 이미지를 이용하여 질병을 진단하는 경우에 있어서, 안저의 전체 영역에 기초하여 질병을 진단하는 경우 또는 안저 이미지의 일부 영역으로부터 획득된 정보에 기초하여 질병을 진단하는 경우가 있을 수 있다.
이와 관련하여, 대상 질병에 따라 이미지의 품질을 판단하는 기준(criteria)이 달리 설정될 수 있다. 다시 말해, 대상 질병에 따라 이미지의 적합성을 판단하기 위한 품질 판단 기준이 상이할 수 있다. 대상 질병 별로 이미지 품질 판단을 달리 수행함으로써, 질병 별 진단 정확도를 향상시킴과 동시에 이미지 사용 효율이 증대될 수 있다.
예컨대, 대상 질병에 따라 안저 이미지의 품질 판단 시 고려하는 영역이 달리 결정될 수 있다. 구체적으로, 대상 질병에 따라 진단 시의 관심 영역이 상이할 수 있는 바, 진단 관심 영역 외의 영역은 대상 영역에서 제외될 수 있다.
또 예컨대, 대상 질병에 따라 안저 이미지의 품질 판단 시 판단되는 품질 조건이 달리 결정될 수 있다. 구체적으로, 대상 질병에 따라 픽셀 검출 여부, 검출되는 픽셀의 픽셀 값의 범위 등이 달리 결정될 수 있다.
안저 이미지의 품질 또는 적합성을 판단함에 있어서, 대상 질병을 몇 가지 종류로 나누어 고려할 수 있다. 대상 질병에는 본 명세서 전반에 걸쳐 설명하는 안질환, 만성 질환, 전신 질환, 안과 병변, 안과 소견 등이 포함될 수 있다.
예컨대, 대상 질병은 어떠한 아티팩트를 포함하는 안저 이미지에 기초하여서도 진단 가능한 제1 타입 질병, 어떠한 아티팩트를 포함하는 안저 이미지에 기초하여서도 진단이 곤란한 제2 타입 질병 및 특정 종류의 아티팩트를 포함하는 안저 이미지에 기초하여서는 진단이 곤란한 제 3타입 질병으로 나누어 생각될 수 있다.
제1 타입 질병에 대하여 안저 이미지의 적합성을 판단하기 위한 제1 품질 기준은 제2 타입 질병에 대하여 안저 이미지의 적합성을 판단하기 위한 제2 품질 기준 및/또는 기준은 제3 타입 질병에 대하여 안저 이미지의 적합성을 판단하기 위한 제3 품질 기준에 비하여 보다 완화된 기준을 포함할 수 있다.
제1 타입 질병이 대상 질병인 경우, 적어도 하나의 아티팩트가 검출되면 안저 이미지는 불량 이미지로 판단될 수 있다. 제2 타입 질병이 대상 질병인 경우, 아티팩트 검출과 관련된 안저 이미지의 품질 판단은 생략될 수 있다.
제3 타입 질병이 대상 질병인 경우, 안저 이미지의 적합성은 대상 질병의 진단에 영향을 미치는 대상 아티팩트, 즉, 대상 질병에 대응되는 대상 아티팩트의 유무 판단을 포함하는 품질 기준 판단을 수행하여 판단될 수 있다. 제3 타입 질병이 대상 질병인 경우, 안저 이미지의 적합성은 대상 질병의 진단에 이용되는 안저 이미지의 대상 영역, 즉, 대상 질병에 대응되는 대상 영역에 대한 품질 판단을 포함하는 품질 기준 판단을 수행하여 판단될 수 있다.
한편, 안저 이미지에 발생하는 아티팩트는 몇 가지 종류로 나누어 생각될 수 있다. 예컨대, 아티팩트는 안저 이미지에 기초한 모든 질병의 진단을 곤란하게 하는 제1 타입 아티팩트, 안저 이미지에 기초한 질병의 진단에 방해되지 않는 제2 타입 아티팩트, 안저 이미지에 기초한 특정 질병 군의 진단에 방해되는 제3 타입 아티팩트가 있을 수 있다.
제1 타입 아티팩트가 검출된 안저 이미지는 불량 이미지로 판단될 수 있다. 제2 타입 아티팩트에 대한 판단은 생략될 수 있다. 제2 타입 아티팩트가 검출되더라도 안저 이미지에 기초한 목적 동작, 예컨대, 진단 프로세스가 수행될 수 있다. 다만, 제2 타입 아티팩트의 발생 사실은 사용자에게 고지될 수 있다.
제3 타입 아티팩트의 경우, 대상 아티팩트에 의하여 진단이 곤란해지는 질병이 대상 질병인 경우, 즉, 대상 아티팩트에 대응되는 질병이 대상 질병인 경우에는 안저 이미지에 기초한 목적 동작을 수행하지 않을 수 있다. 또는, 대상 아티팩트에 대응되는 질병이 아닌 질병이 대상 질병인 경우에는 안저 이미지에 기초한 목적 동작이 수행될 수 있다. 이때, 제3 타입 아티팩트의 발생 사실이 사용자에게 고지될 수 있다.
이하에서는 주로, 제3 타입 질병 및 제3 타입 아티팩트를 기준으로, 아티팩트와 질병의 대응 관계, 특정 영역과 질병의 대응 관계, 특정 아티팩트와 영역의 대응 관계 등을 고려하여 질병에 따른 안저 이미지의 적합성을 판단하는 방법 등에 대하여 설명한다. 질병과 아티팩트, 질병과 영역 또는 아티팩트와 영역은 일대일 대응 관계를 가질 수 있다.
질병과 아티팩트, 질병과 영역 또는 아티팩트와 영역의 대응 관계는 다대일 또는 일대다 대응일 수도 있다. 예컨대, 제1 질병은 제1 아티팩트 및/또는 제2 아티팩트와 대응될 수 있다. 또는, 제1 질병은 제1 영역 및/또는 제2 영역과 대응될 수 있다. 또는, 제1 아티팩트는 제1 영역 및/또는 제2 영역과 대응될 수 있다. 또는, 제1 아티팩트는 제1 질병 및/또는 제2 질병과 대응될 수 있다. 또는, 제1 영역은 제1 아티팩트 및/또는 제2 아티팩트와 대응될 수 있다. 또는, 제1 영역은 제1 질병 및/또는 제2 질병과 대응될 수 있다.
도 50은 병변 별 진단 방법을 설명하기 위한 도면이다. 도 50은 안저 이미지로부터 진단될 수 있는 여러 소견, 병변 또는 질병에 대하여, 그 진단을 위하여 고려되는 영역을 예시한 것이다.
도 50의 (a)를 참조하면, 안저 이미지에 기초하여 출혈(hemorrhage)이 진단될 수 있다. 예컨대, (a)에서 도시하는 것과 같이, 안저 영역 전체의 임의의 위치로부터 출혈(L1)이 검출될 수 있다.
도 50의 (b)를 참조하면, 안저 이미지에 기초하여 드루젠(drusen)이 진단될 수 있다. 예컨대, (b)에서 도시하는 것과 같이, 안저 영역 전체의 임의의 위치로부터 드루젠(L2)이 발견될 수 있다.
도 50의 (c)를 참조하면, 안저 이미지에 기초하여 녹내장성 시신경 유두(glaucomatous disc change)가 진단될 수 있다. 예컨대, (c)에서 도시하는 것과 같이, 안저 이미지의 시신경 유두로부터 녹내장 소견(L3)이 검출될 수 있다.
도 50의 (d)를 참조하면, 안저 이미지에 기초하여 황반 천공(macular hole)이 진단될 수 있다. 예컨대, (d)에서 도시하는 것과 같이, 안저 이미지의 황반부로부터 황반 천공 소견(L4)이 발견될 수 있다.
도 50의 (e)를 참조하면, 안저 이미지로부터 황반 전막(macular epiretinal membrane)이 진단될 수 있다. 예컨대, (e)에서 도시하는 것과 같이, 안저 이미지의 황반 근처에서 황반 전막 소견(L5)이 발견될 수 있다. 황박 전막 소견은, 안저 이미지의 황반부로부터 발견될 수 있다.
도 50의 (f)를 참조하면, 안저 이미지로부터 유수신경섬유(myelinated nerve fiber) 증상이 진단될 수도 있다. 예컨대, (f)에서 도시하는 것과 같이, 안저 이미지의 임의의 영역으로부터 유수신경섬유(L6) 소견이 발견될 수 있다.
도 50의 (a), (b) 및 (f)와 같이 안저 이미지의 임의의 영역으로부터 병변이 검출되는 경우, 안저 영역의 전체에 걸쳐 품질을 평가하는 것이 바람직할 수 있다. 도 50의 (c)와 같이 시신경유두의 형태에 기초하여 진단되는 소견 또는 병변의 경우에는 시신경 유두 주위 영역을 중심으로 품질 평가를 수행하는 것이 효율적일 수 있다. 또한, 도 50의 (d) 및 (e)와 같이 황반 부근으로부터 그 소견이 발견되는 경우, 황반 주변을 중심으로 품질을 판단하는 것이 효율적일 수 있다.
도 50에서는 몇가지 질환을 예시적으로 설명하였으나, 그 외의 다양한 안저 기반 진단에 대하여도 유사하게 적용될 수 있다.
상술한 배경을 고려할 때, 본 명세서에서 설명하는 안저 이미지의 품질 판단 방법 등은 대상 질병에 따라 달리 구현될 수 있다. 이하에서는, 전술한 복수 병변에 대한 진단을 수행하고자 하는 경우에, 병변 별 진단 특성을 고려하여 이미지의 품질을 판단하는 방법 등에 대하여 몇몇 실시 예를 들어 설명한다.
2.4.2 질병 적합성 판단 방법
진단 대상 병변 또는 질병에 따라 이미지의 품질 판단 방법이 달리 수행될 수 있다. 다시 말해, 대상 질병, 관심 질병, 대상 병변 또는 관심 병변에 따라 다른 기준을 적용하여 이미지의 적합성을 판단할 수 있다. 이하에서 설명하는 안저 이미지의 품질 판단 방법 또는 안저 이미지의 적합성 판단 방법은 전술한 제어부에 의해 수행될 수 있다. 이하에서 설명하는 품질 판단 방법의 각 단계의 순서는 변경될 수 있다.
이하에서는, 대상 질병을 고려하여 이미지의 적합성을 판단하는 방법 등에 대하여 몇몇 실시예를 들어 설명한다.
도 51은 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법을 설명하기 위한 도면이다.
도 51을 참조하면, 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법은 안저 이미지를 획득하는 단계(S31) 및 안저 이미지의 적합성 정보를 획득하는 단계(S33)를 포함할 수 있다. 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법은 안저 이미지를 변환하는 단계를 더 포함할 수 있다. 안저 이미지의 변환에 대하여는 본 명세서에서 전술한 내용이 유추 적용될 수 있다.
안저 이미지의 적합성 정보를 획득하는 단계(S33)는 안저 이미지에 대하여 품질 판단을 수행하고, 품질 판단 결과에 기초하여 안저 이미지의 대상 질병에 대한 적합성 정보를 획득하는 것을 포함할 수 있다. 안저 이미지의 품질 판단에 대하여는 본 명세서에서 전술한 내용이 유추 적용될 수 있다.
도 52는 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 52를 참조하면, 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법은, 안저 이미지를 획득하는 단계(S31), 안저 이미지가 대상 질병에 대응되는 품질 조건을 만족하는지 여부를 판단하는 단계(S33a), 안저 이미지의 대상 질병에 대한 적합성 정보를 획득하는 단계(S33b)를 포함할 수 있다.
안저 이미지의 적합성 정보를 획득하는 단계(S33)는, 안저 이미지가 대상 질병에 대응되는 품질 조건(또는 대상 적합성 조건)을 만족하는지 여부를 판단하는 단계(S33a)를 포함할 수 있다.
대상 적합성 조건은 안저 이미지가 대상 질병을 진단하기에 이용될 수 있는 이미지인지를 판단하기 위한 조건일 수 있다. 대상 질병에 대응되는 품질 조건은 대상 질병의 진단에 이용될 수 있는 이미지를 선별하기 위하여 대상 질병의 특이적 특성을 고려하여 결정된 품질 조건을 의미할 수 있다. 대상 적합성 조건은 안저 이미지에 기초한 대상 질병에 대한 진단의 정확도가 충분히 보장될 수 있는지를 판단하기 위한 기준일 수 있다.
대상 적합성 조건은 품질 조건을 포함할 수 있다. 품질 조건 및 품질 조건의 판단은 본 명세서에서 전술한 내용이 유추 적용될 수 있다. 예컨대, 품질 조건은 픽셀 값의 기준 범위, 기준 범위에 속하는 픽셀 값을 가지는 픽셀의 비율 등을 포함할 수 있다.
대상 적합성 조건은 대상 질병에 대응되도록 미리 마련될 수 있다. 다시 말해, 적합성 판단 장치(또는 제어부)는 복수의 대상 질병 각각에 대응되도록 미리 마련된 복수의 대상 적합성 조건을 포함하는 데이터베이스를 이용하여 안저 이미지가 대상 질병에 대응되는 대상 적합성 조건을 만족하는지 판단할 수 있다.
예컨대, 대상 질병이 제1 질병인 경우, 안저 이미지의 적합성 판단 방법은 안저 이미지가 제1 대상 적합성 조건을 만족하는지 판단하는 것을 포함할 수 있다.
대상 적합성 조건은 영역에 대한 품질 조건을 포함할 수 있다. 예컨대, 대상 적합성 조건은 안저 영역의 적어도 일부가 제외된 제1 영역과 관련된 제1 품질 조건을 포함할 수 있다. 대상 적합성 조건은 영역 별 품질 조건을 포함할 수 있다. 예컨대, 대상 적합성 조건은 제1 영역에 대한 제1 품질 조건, 제2 영역에 대한 제1 품질 조건을 포함할 수 있다.
대상 적합성 조건은 대상 질병에 대응되는 영역에 대한 품질 조건을 포함할 수 있다. 다시 말해, 대상 적합성 조건은 대상 영역에 대한 품질 조건을 포함할 수 있고, 이때 대상 영역은 대상 질병에 기초하여 결정될 수 있다.
구체적인 예로, 질병이 안저 영역(FA)의 내부 영역(IA)에서 주로 발생하는 병변 또는 소견에 기초하여 진단되는 질병인 경우, 제1 대상 적합성 조건은 내부 영역(IA)에 대한 기준 품질 조건을 포함할 수 있다. 제1 질병이 시신경 유두의 형태에 기초하여 진단되는 녹내장인 경우, 제1 대상 적합성 조건은 내부 영역(IA)에 대한 기준 품질 조건을 포함할 수 있다.
다른 구체적인 예로, 제1 질병이 안저 영역(FA)의 황반부(MA)에서 주로 발생하는 병변 또는 소견에 기초하여 진단되는 질병인 경우, 제1 대상 적합성 조건은 안저 이미지의 황반부(MA)에 대한 기준 품질 조건을 포함할 수 있다. 구체적인 예로, 제1 질병이 황반 천공인 경우, 제1 대상 적합성 조건은 황반부(MA)로부터 아티팩트가 검출되지 않을 것을 포함할 수 있다.
대상 적합성 조건은 아티팩트에 관련된 조건을 포함할 수 있다. 대상 적합성 조건은 특정 아티팩트의 유무와 관련된 조건을 포함할 수 있다. 예컨대, 대상 적합성 조건을 판단하는 것은 안저 이미지가 제1 아티팩트를 포함하는지 판단하는 것을 포함할 수 있다. 대상 적합성 조건은 특정 영역의 아티팩트 유무와 관련된 조건을 포함할 수 있다. 예컨대, 대상 적합성 조건을 판단하는 것은 안저 이미지의 제1 영역 내에 제1 아티팩트가 발생하였는지 여부를 판단하는 것을 포함할 수 있다.
대상 적합성 조건은 대상 질병에 대응되는 아티팩트에 관련된 조건을 포함할 수 있다. 예컨대, 대상 적합성 조건에서 고려되는 아티팩트는 질병 진단 시 고려되는 안저 상의 영역과 적어도 일부 중첩되는 영역에 발생하는 아티팩트일 수 있다. 다시 말해, 대상 적합성 조건은 대상 질병과 관련된 대상 아티팩트의 유무에 관한 조건을 포함할 수 있다. 대상 아티팩트와 대상 질병은 안저 이미지로부터 검출되는 영역이 일부 중첩될 수 있다.
구체적인 예로, 제1 질병이 안저 영역(FA)의 외부 영역(OA)에서 주로 발생하는 병변 또는 소견에 기초하여 진단되는 질병인 경우, 제1 대상 적합성 조건은 안저 이미지가 제1 아티팩트(예컨대, 브라이트 아티팩트)를 포함하는지 여부를 포함할 수 있다. 구체적인 예로, 제1 질병이 혈관의 형태를 고려하여 진단되는 심혈관계 만성질환인 경우, 제1 대상 적합성 조건은 브라이트 아티팩트가 없을 것을 포함할 수 있다.
다른 구체적인 예로, 안저 이미지의 대상 적합성 조건을 판단하는 것은, 제1 아티팩트 및 제2 아티팩트의 포함 여부에 대하여 판단하는 것을 포함할 수 있다.
대상 질병이 제1 질병이고 안저 이미지가 제1 아티팩트를 불포함하는 경우, 안저 이미지는 제1 질병에 대한 제1 적합성을 가지는 것으로 판단될 수 있다. 대상 질병이 제2 질병이고 안저 이미지가 제2 아티팩트를 불포함하는 경우, 안저 이미지는 제2 질병에 대한 제2 적합성을 가지는 것으로 판단될 수 있다. 대상 질병이 제3 질병이고 안저 이미지가 제1 아티팩트 및 제2 아티팩트를 불포함하는 경우, 안저 이미지는 제3 질병에 대한 제3 적합성을 가지는 것으로 판단될 수 있다.
안저 이미지의 적합성 정보를 획득하는 단계(S33)는, 안저 이미지의 대상 질병에 대한 적합성 정보를 획득하는 단계(S33b)를 포함할 수 있다.
안저 이미지의 대상 질병에 대한 적합성 정보는 안저 이미지가 대상 질병의 진단에 적절한 상태인지를 나타낼 수 있다. 적합성 정보는 안저 이미지로부터 얻어진 진단 보조 정보가 정확할 확률을 나타낼 수 있다. 적합성 정보는 적합 여부 또는 적합한 정도를 포함할 수 있다.
일 실시예에 따르면, 본 발명의 일 실시예에 따른 이미지의 적합성 판단은, 복수의 대상 질병에 대하여 수행될 수 있다. 복수의 대상 질병에 대한 적합성 판단은 하나의 장치에서 수행될 수 있다. 복수의 대상 질병에 대한 적합성 판단은 복수의 장치에서 각각 수행될 수 있다.
예컨대, 대상 질병이 제1 질병 및 제2 질병인 경우, 안저 이미지의 적합성 판단 방법은 안저 이미지가 제1 질병에 대응되는 제1 대상 적합성 조건을 만족하는지 판단하고, 안저 이미지가 제2 질병에 대응되고 제1 대상 적합성 조건과 적어도 일부 상이한 제2 대상 적합성 조건을 만족하는지 판단하는 것을 포함할 수 있다.
복수의 대상 질병에 대한 적합성 판단은 순차로 수행될 수 있다. 복수의 대상 질병에 대하여 적합성을 판단하는 경우, 대상 질병들 간의 적합성은 우선순위 또는 포함 관계를 가질 수 있다.
예컨대, 제1 안저 이미지가 제1 질병에 대하여 적합성을 가지는 것으로 판단된 경우, 제1 안저 이미지는 제2 질병에 대하여도 적합성을 가지는 것으로 판단할 수 있다. 또는, 제1 안저 이미지가 제1 질병에 대하여 적합하지 않은 것으로 판단된 경우, 제1 안저 이미지는 제2 질병에 대하여도 적합하지 않은 것으로 판단될 수 있다.
구체적인 예로, 제1 질병이 안저 영역 전체를 대상으로 판단되는 출혈 소견인 경우, 제1 대상 적합성 조건은 안저 이미지가 안저 영역 전체에 대하여 전술한 제3 아티팩트(예컨대, 혼탁 아티팩트)를 포함하지 않을 것을 포함할 수 있다. 또한, 제2 질병에 대응되는 제2 대상 적합성 조건은 외부 영역(OA)이 품질 기준을 만족할 것을 포함할 수 있다. 이때, 제1 안저 이미지가 제3 아티팩트를 가지는 경우, 제1 안저 이미지는 제2 질병에 대하여도 적합성을 가지지 않는 것으로 판단될 수 있다.
다시 말해, 각 질병에 대응되는 대상 적합성 조건들에 따라 판단되는 각각의 대상 영역 또는 각 질병에 대응되는 대상 적합성 조건들에 따라 판단되는 각각의 품질 기준의 정도 등이 포함 관계 또는 우선 순위를 가지는 경우, 안저 이미지의 품질 판단을 수행하는 것은, 보다 우선하는 대상 적합성 조건 또는 보다 넓은(또는 엄격한) 판단 기준을 가지는 대상 적합성 조건을 먼저 판단하고, 그 결과에 따라 후순위 대상 적합성 조건에 대한 판단은 생략하여 수행될 수 있다.
도 53은 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 53을 참조하면, 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법은, 안저 이미지를 획득하는 단계(S31), 안저 이미지의 대상 영역에 대한 품질 정보를 획득하는 단계(S33c) 및 대상 영역에 대한 품질 정보에 기초하여 안저 이미지의 대상 질병에 대한 적합성 정보를 획득하는 단계(S33d)를 포함할 수 있다.
안저 이미지의 적합성 정보를 획득하는 단계(S33)는, 안저 이미지의 대상 영역에 대한 품질 정보를 획득하는 단계(S33c)를 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 대상 영역에 대한 품질 정보를 획득하는 것은, 복수의 대상 영역에 대한 품질 정보를 획득하는 것을 포함할 수 있다. 예컨대, 안저 이미지의 대상 영역에 대한 품질 정보를 획득하는 것은, 제1 영역에 대한 품질 정보 및 제2 영역에 대한 품질 정보를 획득하는 것을 포함할 수 있다.
안저 이미지의 적합성 정보를 획득하는 단계(S33)는, 대상 영역에 대한 품질 정보에 기초하여 안저 이미지의 대상 질병에 대한 적합성 정보를 획득하는 단계(S33d)를 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 대상 질병에 대한 적합성 정보를 획득하는 것은, 대상 영역 및 대상 질병의 대응 관계를 고려하여 수행될 수 있다. 예컨대, 안저 이미지의 대상 질병에 대한 적합성 정보를 획득하는 것은, 제1 대상 영역에 대한 품질 정보를 고려하여, 제1 대상 영역에 대응되는 제1 질병에 대한 안저 이미지의 적합성 정보를 획득하는 것을 포함할 수 있다.
구체적인 예로, 안저 이미지의 적합성 정보를 획득하는 것은, 제1 대상 영역이 황반부(MA)인 경우, 제1 대상 영역에 대한 품질 정보를 고려하여, 제1 질병, 예컨대 황반 천공에 대한 안저 이미지의 적합성 정보를 획득하는 것을 포함할 수 있다.
도 54는 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 54를 참조하면, 본 발명의 일 실시예에 따른 이미지의 적합성 판단 방법은, 안저 이미지를 획득하는 단계(S31), 안저 이미지의 적어도 하나의 아티팩트에 대한 품질 정보를 획득하는 단계(S33e) 및 대상 질병에 대응되는 대상 아티팩트 및 적어도 하나의 아티팩트에 대한 안저 이미지의 품질 정보를 고려하여, 안저 이미지의 적합성 정보를 획득하는 단계(S33f)를 포함할 수 있다.
안저 이미지의 적합성 정보를 획득하는 단계(S33)는, 안저 이미지의 적어도 하나의 아티팩트에 대한 품질 정보를 획득하는 단계(S33e)를 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 아티팩트에 대한 품질 정보를 획득하는 것은, 복수의 대상 아티팩트에 대한 품질 정보를 획득하는 것을 포함할 수 있다. 예컨대, 안저 이미지의 아티팩트에 대한 품질 정보를 획득하는 것은 제1 대상 아티팩트에 대한 제1 품질 정보 및 제2 대상 아티팩트에 대한 제2 품질 정보를 획득하는 것을 포함할 수 있다.
다른 일 실시예에 따르면, 안저 이미지의 아티팩트에 대한 품질 정보를 획득하는 것은, 안저 이미지의 대상 영역에 대한 품질 정보를 획득하고, 대상 영역과 대상 아티팩트의 대응 관계를 고려하여 안저 이미지의 아티팩트에 대한 품질 정보를 획득하는 것을 포함할 수 있다. 예컨대, 안저 이미지의 아티팩트에 대한 품질 정보를 획득하는 것은 제1 대상 영역에 대한 제1 품질 정보를 획득하고, 제1 품질 정보에 기초하여 안저 이미지의 제1 대상 영역에 대응되는 제1 아티팩트에 대한 품질 정보를 획득하는 것을 포함할 수 있다.
안저 이미지의 적합성 정보를 획득하는 단계(S33)는, 대상 질병에 대응되는 대상 아티팩트 및 적어도 하나의 아티팩트에 대한 안저 이미지의 품질 정보를 고려하여, 안저 이미지의 적합성 정보를 획득하는 단계(S33f)를 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 대상 질병에 대한 적합성 정보를 획득하는 것은, 안저 이미지의 대상 아티팩트에 대한 품질 정보를 획득하고, 대상 아티팩트와 대상 질병의 대응 관계를 고려하여 안저 이미지의 적합성 정보를 획득하는 것을 포함할 수 있다. 예컨대, 안저 이미지의 적합성 정보를 획득하는 것은, 안저 이미지의 제1 아티팩트에 대한 품질 정보를 획득하고, 안저 이미지의 제1 아티팩트에 대응되는 제1 대상 질병에 대한 제1 적합성 정보를 획득하는 것을 포함할 수 있다.
보다 구체적인 예로, 대상 질병이 주로 안저 영역의 중심에 가깝게 위치되는 시신경 유두로부터 검출되는 녹내장인 경우(다만, 안저 이미지의 촬상 상태가 시신경 유두가 안저 영역의 중심에서 멀리 위치되도록 설정되어 있는 경우 달리 구현될 수 있음), 대상 질병에 대한 안저 이미지의 적합성 정보를 획득하는 것은, 안저 이미지의 제1 아티팩트(예컨대, 브라이트 아티팩트) 포함 여부에 기초하여, 제1 아티팩트에 대응되는 녹내장에 대한 안저 이미지의 대상 적합성 여부를 판단하는 것을 포함할 수 있다.
본 발명의 일 실시예에 따르면, 안저 이미지의 적합성 판단 방법은, 안저 이미지에 대하여 대상 질병에 대한 적합성 판단을 수행하는 것을 포함하되, 대상 질병에 대한 적합성 판단은, 대상 질병에 대응되는 품질 기준을 만족하는지 판단함으로써 수행될 수 있다.
도 55는 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 55를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법은 안저 이미지를 획득하는 단계(S310) 및 대상 질병에 대응되는 품질 기준을 이용하여 안저 이미지의 대상 적합성을 판단하는 단계(S330)을 포함할 수 있다.
대상 질병은 녹내장, 백내장, 출혈, 드루젠, 삼출물, 면화반, 혼탁, 망막 색소 변화, 황반 천공, 황반 변성 및 미숙아 망막증을 포함하는 안질환, 당뇨병, 알츠하이머, 거대 세포 바이러스를 포함하는 전신 질환, 고혈압, 저혈압, 뇌졸중, 동맥 경화증, 협심증 및 심부전을 포함하는 심혈관계 질환 중 선택된 어느 하나일 수 있다.
본 발명의 일 실시예에 따르면, 안저 이미지에 기초한 대상 질병의 진단과 관련하여, 안저 이미지의 적합성을 판단하는 방법은, 안저 이미지를 획득하는 단계(S310) 및 안저 이미지에 대하여, 대상 질병에 대응되는 품질 기준을 이용하여 안저 이미지의 대상 적합성을 판단하는 단계(S330)를 포함할 수 있다. 이때, 대상 질병은 제1 질병 및 제2 질병 중 적어도 하나를 포함할 수 있다.
안저 이미지의 대상 적합성을 판단하는 것은, 안저 이미지가 대상 질병에 대응되도록 미리 결정된 품질 기준을 만족하는지 판단하는 것을 포함할 수 있다. 예컨대, 대상 적합성을 판단하는 것은, 대상 질병이 제1 질병인 경우 안저 이미지가 제1 품질 기준을 만족하는지 판단하고, 대상 질병이 제2 질병인 경우 안저 이미지가 제2 품질 기준을 만족하는지 판단하는 것을 포함할 수 있다.
품질 기준은 대상 영역에 대한 품질 기준을 포함할 수 있다. 예컨대, 품질 기준은 대상 영역에 분포하는 픽셀들의 픽셀 값(예컨대, 밝기 값) 또는 대상 영역에 분포하는 아티팩트의 양 또는 수 등에 대한 기준을 포함할 수 있다.
안저 이미지의 대상 적합성을 판단하는 것은 대상 질병이 제1 질병인 경우 안저 이미지의 제1 영역이 제1 품질 기준을 만족하는지 판단하고, 대상 질병이 제2 질병인 경우 안저 이미지의 제2 영역이 제2 품질 기준을 만족하는지 판단하는 것을 더 포함할 수 있다.
제1 질병은 제1 영역에 적어도 일부 기초하여 판단되는 제1 영역 대응 질병 군으로부터 선택될 수 있다. 예컨대, 제1 영역 대응 질병 군은, 안저 이미지의 내측 영역에 적어도 일부 기초하여 판단되는 질병의 군일 수 있다. 제1 영역 대응 질병 군이, 안저 이미지의 내측 영역에 적어도 일부 기초하여 판단되는 질병의 군인 경우, 황반부 또는 시신경 유두부는 일반적으로 촬영된 안저 이미지에 있어서 안저 영역의 내측 영역에 위치하므로, 황반 또는 시신경 유두의 형태에 근거하여 진단되는 질병, 병변 또는 소견의 경우 제1 질병 군에 해당할 수 있다.
제2 질병은 제1 영역과 적어도 일부 다른 제2 영역에 적어도 일부 기초하여 판단되는 제2 영역 대응 질병 군으로부터 선택될 수 있다. 예컨대, 제2 영역 대응 질병 군은 안저 이미지의 외측 영역에 적어도 일부 기초하여 판단되는 질병의 군일 수 있다. 제2 영역 대응 질병 군이, 안저 이미지의 외측 영역에 적어도 일부 기초하여 판단되는 질병의 군인 경우, 안저 이미지의 혈관 대부분이 안저 영역의 외측에 위치하므로, 혈관의 상태 또는 형태 등에 근거하여 진단되는 질병, 병변 또는 소견 등의 경우 제2 질병 군에 해당할 수 있다.
제1 영역 대응 질병 군에 속하는 질병이 대상 질병인 경우, 안저 이미지의 대상 적합성은, 제1 영역에 대한 제1 품질 기준에 기초하여 판단될 수 있다. 제2 영역 대응 질병 군에 속하는 질병이 대상 질병인 경우, 안저 이미지의 대상 적합성은, 제2 영역에 대한 제2 품질 기준에 기초하여 판단될 수 있다.
대상 질병은, 제1 또는 제2 아티팩트 대응 질병 군으로부터 선택될 수도 있다. 제1 또는 제2 아티팩트 대응 질병 군은 제1 또는 제2 아티팩트의 발생 위치와 그 검출 위치가 적어도 일부 중첩되는 질병의 군일 수 있다.
대상 질병은, 제1 또는 제2 품질 기준 대응 질병 군으로부터 선택될 수도 있다. 제1 또는 제2 아티팩트 대응 질병 군은 제1 또는 제2 품질 기준에서 각각 판단 대상이 되는 제1 또는 제2 영역으로부터 검출되는 질병의 군일 수 있다.
대상 영역은, 안저 이미지의 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역, 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 제2 영역, 안저에 대응되는 영역 중 시신경 유두가 분포하는 영역에 대응되는 제3 영역 및 안저에 대응되는 영역 중 황반이 분포하는 영역에 대응되는 제4 영역 중 선택된 적어도 하나의 영역을 포함할 수 있다. 대상 영역은, 본 명세서에서 설명하는 안저 이미지의 세부 영역 중 적어도 일부로 정해질 수 있다. 또는, 대상 영역은 사용자에 의해 결정될 수 있다.
품질 기준은 아티팩트의 유무에 대한 품질 기준을 포함할 수 있다. 다시 말해, 안저 이미지의 특정 질병에 대한 대상 적합성을 판단하기 위한 품질 기준은 질병에 대응되는 아티팩트의 유무에 대한 내용을 포함할 수 있다. 예컨대, 품질 기준은, 안저 이미지를 특정 질병에 대한 진단의 근거로 이용함에 있어서 방해되는 아티팩트의 유무에 대한 내용을 포함할 수 있다.
예컨대, 안저 이미지의 대상 적합성을 판단하는 것은, 대상 질병이 제1 질병인 경우, 제1 품질 기준을 판단하는 것은 안저 이미지가 제1 질병에 대응되는 제1 아티팩트를 포함하는지 판단하는 것을 포함하고, 대상 질병이 제2 질병인 경우, 제2 품질 기준을 판단하는 것은 안저 이미지가 제2 질병에 대응되는 제2 아티팩트를 포함하는지 판단하는 것을 더 포함할 수 있다.
제1 질병에 대응되는 제1 아티팩트는 제1 질병에 연관된 제1 영역으로부터 검출될 수 있다. 제2 질병에 대응되는 제2 아티팩트는 제2 질병에 연관된 제2 영역으로부터 검출될 수 있다.
제1 질병은 안저 이미지의 안저 영역의 중심으로부터 소정 거리 이내의 제1 영역에 적어도 일부 기초하여 진단되고, 제1 아티팩트는 제 1 영역에서 검출되는 아티팩트일 수 있다.
예컨대, 제1 질병은 안저 영역 내의 시신경 유두가 분포하는 시신경 유두부에 기초하여 진단되는 녹내장이고, 제1 영역은 안저 영역의 중심으로부터 안저 이미지상의 시신경 유두를 포함하도록 결정될 수 있다.
제2 질병은 안저 영역 전체를 포함하는 제2 영역의 임의의 위치에 적어도 일부 기초하여 진단되고, 제2 아티팩트는 제2 영역에서 검출되는 아티팩트일 수 있다.
예컨대, 제2 질병은 안저 영역의 임의의 위치에서 검출되는 출혈 소견이고, 제2 영역은 안저 영역 전체를 포함하도록 결정될 수 있다.
도 56의 (a)는 본 발명의 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 56의 (a)를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법은 안저 이미지를 획득하는 단계(S310), 안저 이미지의 대상 적합성을 판단하는 단계(S330) 및 판단 결과에 기초하여 안저 이미지의 적합성 정보를 획득하는 단계(S351)를 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 적합성 판단 방법은, 대상 적합성 판단 결과에 기초하여, 안저 이미지의 적합성 정보를 획득하는 단계(S351)를 더 포함할 수 있다.
적합성 정보를 획득하는 것은, 대상 질병이 제1 질병이고 안저 이미지가 제1 품질 기준을 만족하는 경우, 안저 이미지가 제1 질병에 대하여 적합함을 지시하는 적합성 정보를 획득하는 것을 포함할 수 있다.
적합성 정보를 획득하는 것은, 대상 질병이 제2 질병이고 안저 이미지가 제2 품질 기준을 만족하는 경우, 안저 이미지가 제2 질병에 대하여 적합함을 지시하는 적합성 정보를 획득하는 것을 포함할 수 있다.
대상 질병은 하나 이상의 질병을 포함할 수 있고, 이때, 각각의 대상 질병에 대하여 서로 다른 품질 기준이 대응될 수 있으므로, 안저 이미지는 대상 질병 별로 다른 적합성을 가질 수 있다.
예컨대, 대상 질병은 제1 질병 및 제2 질병을 포함할 수 있다. 이때, 안저 이미지의 대상 적합성을 판단하는 것은 안저 이미지에 대하여 제1 품질 기준 및 제2 품질 기준을 만족하는지 판단하는 것을 포함할 수 있다. 안저 이미지가 제1 품질 기준을 만족하되 제2 품질 기준을 만족하지 않는 것으로 판단된 경우, 안저 이미지의 적합성 정보를 획득하는 것은, 안저 이미지가 제1 질병에 대하여 적합하되, 제2 질병에 대하여 부적합함을 지시하는 적합성 정보를 획득하는 것을 포함할 수 있다.
도 56의 (b)는 본 발명의 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 56의 (b)를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법은 안저 이미지를 획득하는 단계(S310), 안저 이미지의 대상 적합성을 판단하는 단계(S330) 및 안저 이미지에 기초하여 대상 질병에 대한 진단 정보를 획득하는 단계(S353)를 포함할 수 있다. 안저 이미지의 적합성 판단 방법은, 적합성 정보를 획득하는 단계(S351) 및 적합성 정보에 기초하여 대상 질병에 대한 진단 정보를 획득하는 단계(S353)를 포함할 수도 있다.
일 실시예에 따르면, 안저 이미지의 적합성 판단 방법은, 안저 이미지에 기초하여 대상 질병에 대한 진단 정보를 획득하는 단계를 더 포함할 수 있다.
진단 정보를 획득하는 단계는, 대상 질병이 제1 질병인 경우, 안저 이미지가 제1 품질 기준을 만족하면 제1 질병에 대한 제1 진단 보조 정보를 획득할 수 있다. 진단 정보를 획득하는 단계는, 대상 질병이 제2 질병인 경우, 안저 이미지가 제2 품질 기준을 만족하면 제2 질병에 대한 제2 진단 보조 정보를 획득하는 것을 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 안저 이미지의 적합성 판단 방법은, 안저 이미지에 대하여 적어도 하나의 품질 기준에 기초한 품질 판단을 선행적으로 수행하고, 대상 질병이 획득되면, 품질 판단 결과를 고려하여 대상 질병에 따른 적합성을 판단하는 것을 포함할 수 있다.
도 57은 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 57을 참조하면, 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법은 안저 이미지를 획득하는 단계(S410), 안저 이미지가 품질 기준을 만족하는지 판단하는 단계(S430) 및 안저 이미지가 품질 기준을 만족하는지 판단하는 것에 기초하여, 안저 이미지의 대상 질병에 대한 대상 적합성을 판단하는 단계(S450)를 포함할 수 있다.
안저 이미지가 품질 기준을 만족하는지 판단하는 것은, 제1 영역과 관련된 제1 품질 기준을 만족하는지 여부를 판단하고, 안저 이미지가 제1 영역과 적어도 일부 구별되는 제2 영역과 관련되는 제2 품질 기준을 만족하는지 여부를 판단하는 것을 포함할 수 있다.
대상 적합성을 판단하는 것은, 대상 질병이 제1 질병이고 안저 이미지가 제1 품질 기준을 만족하는 경우 안저 이미지가 제1 적합성을 만족하는 것으로 판단하고, 대상 질병이 제2 질병이고 안저 이미지가 제2 품질 기준을 만족하는 경우 안저 이미지가 제2 적합성을 만족하는 것으로 판단하는 것을 포함할 수 있다.
안저 이미지가 품질 기준을 만족하는지 판단하는 것은, 제1 영역을 고려하여 제1 아티팩트의 유무를 판단하고, 제2 영역을 고려하여 제2 아티팩트의 유무를 판단하는 것을 포함할 수 있다.
안저 이미지가 제1 품질 기준을 만족하는지 판단하는 것은, 안저 이미지가 제1 아티팩트를 포함하는지 판단하는 것을 포함하고, 안저 이미지가 제2 품질 기준을 만족하는지 판단하는 것은, 안저 이미지가 제2 아티팩트를 포함하는지 판단하는 것을 포함할 수 있다.
제1 영역은 안저 이미지의 안저가 분포하는 안저 영역의 중심으로부터 소정 거리 이상 이격된 영역이고, 제2 영역은 안저 영역의 중심으로부터 소정 거리 이내의 영역일 수 있다.
제1 질병은 제1 영역에 적어도 일부 기초하여 판단되는 제1 영역 대응 질병 군으로부터 선택되고, 제2 질병은 제1 영역과 적어도 일부 다른 제2 영역에 적어도 일부 기초하여 판단되는 제2 영역 대응 질병 군으로부터 선택될 수 있다.
제1 영역 또는 제2 영역은, 안저 이미지의 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 외측 영역, 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 내측 영역, 안저에 대응되는 영역 중 시신경 유두가 분포하는 영역에 대응되는 시신경 유두 영역 및 안저에 대응되는 영역 중 황반이 분포하는 영역에 대응되는 황반 영역 중 선택된 적어도 하나의 영역을 포함할 수 있다.
도 58의 (a)는 본 발명의 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 58의 (a)를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법은 안저 이미지를 획득하는 단계(S410), 안저 이미지가 품질 기준을 만족하는지 판단하는 단계(S430), 안저 이미지의 대상 질병에 대한 대상 적합성을 판단(S450) 및 적합성 단 결과에 기초하여 안저 이미지의 적합성 정보를 획득하는 단계(S471)를 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 적합성 판단 방법은, 판단 결과에 기초하여 안저 이미지의 적합성 정보를 획득하는 단계를 더 포함할 수 있다.
적합성 정보를 획득하는 것은, 대상 질병이 제1 질병이고 안저 이미지가 제1 품질 기준을 만족하는 경우, 안저 이미지가 제1 질병에 대하여 적합함을 지시하는 적합성 정보를 획득하고, 대상 질병이 제2 질병이고 안저 이미지가 제2 품질 기준을 만족하는 경우, 안저 이미지가 제2 질병에 대하여 적합함을 지시하는 적합성 정보를 획득하는 것을 포함할 수 있다.
도 58의 (b)는 본 발명의 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법을 설명하기 위한 도면이다. 도 58의 (b)를 참조하면, 본 발명의 일 실시예에 따른 안저 이미지의 적합성 판단 방법은 안저 이미지를 획득하는 단계(S410), 안저 이미지가 품질 기준을 만족하는지 판단하는 단계(S430), 안저 이미지의 대상 질병에 대한 대상 적합성을 판단(S450) 및 안저 이미지에 기초하여 대상 질병에 대한 진단 정보를 획득하는 단계(S473)를 포함할 수 있다.
일 실시예에 따르면, 안저 이미지의 적합성 판단 방법은, 안저 이미지에 기초하여 대상 질병에 대한 진단 정보를 획득하는 단계를 더 포함할 수 있다.
진단 정보를 획득하는 단계는, 대상 질병이 제1 질병인 경우, 안저 이미지가 제1 품질 기준을 만족하면 제1 질병에 대한 제1 진단 보조 정보를 획득하고, 대상 질병이 제2 질병인 경우, 안저 이미지가 제2 품질 기준을 만족하면 제2 질병에 대한 제2 진단 보조 정보를 획득하는 것을 포함할 수 있다. 제1 품질 기준 및 제2 품질 기준은 독립적으로 판단될 수 있다.
대상 질병이 제1 질병 및 제2 질병을 포함하는 경우, 진단 정보를 획득하는 단계는, 안저 이미지가 제1 품질 기준을 불만족하는 경우 제1 질병 및 제2 질병에 대한 진단 보조 정보를 획득하지 아니하는 것을 포함할 수 있다.
대상 질병이 제1 질병 및 제2 질병을 포함하는 경우, 진단 정보를 획득하는 단계는, 안저 이미지가 제1 품질 기준을 만족하고, 제2 품질 기준을 만족하지 않는 경우, 제1 질병에 대한 제1 진단 보조 정보를 획득하고, 제2 진단 보조 정보를 획득하지 아니하는 것을 더 포함할 수 있다.
2.5 품질 판단 결과의 적용
전술한 이미지 품질 판단 방법 결과 얻어진 이미지의 품질 정보를 이용하여, 안저 이미지에 기초하여 질병의 진단을 수행하는 신경망 모델을 학습 또는 구동할 수 있다. 이하에서는, 이미지의 품질 정보를 이용하여 안저 이미지 데이터를 관리하는 방법, 신경망 모델을 학습하는 방법 및 신경망 모델을 이용하여 진단을 수행하는 방법 등에 대하여 몇몇 실시 예를 들어 설명한다.
또한, 전술한 것과 같이 대상 병변의 특성을 고려하여 이미지의 품질 또는 적합성을 판단하는 경우, 획득된 병변 대응 품질 정보 또는 병변 대응 적합성 정보는 안저 이미지가 이용되는 단계에 따라 다양한 형태로 이용될 수 있다.
이하에서 설명하는 데이터 관리, 신경망 모델의 학습 및 신경망 모델을 이용한 진단과 관련하여서는, 안저 이미지를 이용한 진단 보조 항목에서 설명한 안저 이미지 데이터, 신경망 모델 및 진단 등에 관한 내용이 유추 적용될 수 있다.
2.5.1 데이터 관리 단계
본 발명의 일 실시예에 따르면, 안저 이미지의 품질 판단 방법 또는 안저 이미지의 적합성 판단 방법은 데이터 관리 단계에서 이용될 수 있다.
안저 이미지 데이터 관리 단계에서는, 품질 기준 만족 여부에 따라 다수의 안저 이미지를 분류하여 관리할 수 있다. 또는, 대상 병변을 고려하여 품질 기준이 결정된 경우, 대상 병변 별로 적합성을 가지는 이미지들을 선별하여 관리할 수 있다.
예컨대, 안저 이미지 데이터 관리 단계에서는, 본 명세서에서 설명하는 안저 이미지의 품질 판단 방법 또는 안저 이미지의 적합성 판단 방법 등을 이용하여 안저 이미지 데이터를 분류, 선별 또는 구분할 수 있다. 그 결과, 목적에 맞게 이용될 수 있는 적어도 하나의 안저 이미지 데이터 세트가 획득될 수 있다.
본 발명의 일 실시예에 따르면, 데이터 관리 단계에서 안저 이미지의 품질 판단 방법이 이용될 수 있다. 일 실시 예로서, 안저 이미지의 품질 판단을 이용한 안저 이미지 데이터의 관리 방법이 제공될 수 있다. 일 실시예에 따르면, 데이터 관리 방법은 안저 이미지의 품질 정보에 기초하여 안저 이미지를 관리하는 것을 포함할 수 있다. 이하에서 설명하는 데이터의 관리 방법은 전술한 이미지 관리 장치, 제어부 또는 프로세서 등에 의하여 수행될 수 있다.
일 실시예에 따르면, 안저 이미지의 품질 판단을 이용한 안저 이미지 데이터의 관리 방법에 의하여, 품질 정보에 따른 라벨이 부여된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트가 획득될 수 있다. 안저 이미지 데이터 세트는 품질 정보에 따라 분류된 복수의 안저 이미지를 포함할 수 있다.
본 발명의 일 실시예에 따른 데이터 관리 방법은, 안저 이미지의 품질 정보에 기초하여 안저 이미지에 품질 정보를 부여하는 것을 포함할 수 있다. 예컨대, 안저 이미지에는 품질 정보가 태깅 또는 라벨링될 수 있다(예컨대, 전술한 품질 정보 관리부 또는 품질 판단부에서 안저 이미지에 품질 정보를 부여할 수 있다). 품질 정보는 안저 이미지의 정상 또는 비정상 정보, 안저 이미지의 아티팩트 포함 여부, 안저 이미지의 영역 별 품질 정보 등을 포함할 수 있다.
예컨대, 데이터 관리 방법은, 제1 안저 이미지의 품질 정보에 기초하여 제1 안저 이미지에 제1 품질 정보를 부여하고, 제2 안저 이미지의 품질 정보에 기초하여 제2 안저 이미지에 제1 품질 정보와 다른 제2 품질 정보를 부여하는 것을 포함할 수 있다.
본 발명의 일 실시예에 따른 데이터 관리 방법은, 안저 이미지의 품질 정보에 기초하여 복수의 안저 이미지를 포함하는 안저 데이터 세트를 생성, 저장 및/또는 관리하는 것을 포함할 수 있다.
예컨대, 본 발명의 일 실시예에 따른 데이터 관리 방법에 의하면, 제1 품질 정보를 가지는 복수의 안저 이미지를 포함하는 제1 안저 이미지 데이터 세트 및 제2 품질 정보를 가지는 복수의 안저 이미지를 포함하는 제2 안저 이미지 데이터 세트가 제공될 수 있다. 구체적인 예로, 제1 안저 이미지 데이터 세트는 안저 이미지가 정상임을 지시하는 정상 품질 정보가 부여된 복수의 안저 이미지를 포함할 수 있다. 제2 안저 이미지 데이터 세트는 안저 이미지가 비정상(예컨대, 흠결, 아티팩트 또는 이상 상태를 포함하는 경우)임을 나타내는 비정상 품질 정보가 부여된 복수의 안저 이미지를 포함할 수 있다.
품질 정보는 이미지 품질 판단 항목에서 전술한 바와 같이 다양한 정보를 포함할 수 있다. 예컨대, 품질 정보는 다양한 세부 정보를 포함할 수 있다. 이와 관련하여, 품질 정보에 따라 생성되는 안저 이미지 데이터 세트는 복수의 서브 데이터 세트를 포함할 수도 있다.
본 발명의 다른 일 실시예에 따르면, 데이터 관리 단계에서 안저 이미지의 적합성 판단 방법이 이용될 수 있다. 본 발명의 일 실시 예로서, 안저 이미지의 적합성 판단을 이용한 안저 이미지 데이터의 관리 방법이 제공될 수 있다. 이하에서 설명하는 데이터의 관리 방법은 전술한 이미지 관리 장치, 제어부 또는 프로세서 등에 의하여 수행될 수 있다.
일 실시예에 따르면, 안저 이미지의 적합성 판단을 이용한 안저 이미지 데이터의 적합성 판단 방법에 의하여, 적합성 정보에 따른 라벨이 부여된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트가 획득될 수 있다. 안저 이미지 데이터 세트는 적합성 정보에 따라 분류된 복수의 안저 이미지를 포함할 수 있다.
본 발명의 일 실시예에 따른 데이터 관리 방법은, 안저 이미지의 적합성 정보에 기초하여 안저 이미지에 적합성 정보를 부여하는 것을 포함할 수 있다. 예컨대, 안저 이미지에는 적합성 정보가 태깅 또는 라벨링될 수 있다(예컨대, 전술한 적합성 정보 관리부 또는 적합성 판단부에서 안저 이미지에 적합성 정보를 부여할 수 있다). 적합성 정보는 안저 이미지의 대상 질병에 대한 적합성 정보를 포함할 수 있다. 적합성 정보는 대상 질병의 식별 정보 및 안저 이미지의 대상 질병에 대한 적합성 정보를 포함할 수 있다.
예컨대, 데이터 관리 방법은, 제1 안저 이미지의 적합성 정보에 기초하여 제1 안저 이미지에 제1 적합성 정보를 부여하고, 제2 안저 이미지의 적합성 정보에 기초하여 제2 안저 이미지에 제1 적합성 정보와 다른 제2 적합성 정보를 부여하는 것을 포함할 수 있다.
본 발명의 일 실시예에 따른 데이터 관리 방법은, 안저 이미지의 적합성 정보에 기초하여 복수의 안저 이미지를 포함하는 안저 데이터 세트를 생성, 저장 및/또는 관리하는 것을 포함할 수 있다.
예컨대, 본 발명의 일 실시예에 따른 데이터 관리 방법에 의하면, 제1 적합성 정보를 가지는 복수의 안저 이미지를 포함하는 제1 안저 이미지 데이터 세트 및 제2 적합성 정보를 가지는 복수의 안저 이미지를 포함하는 제2 안저 이미지 데이터 세트가 제공될 수 있다. 구체적인 예로, 제1 안저 이미지 데이터 세트는 안저 이미지가 제1 질병에 대하여 적합한 것으로 판단되었음을 지시하는 제1 적합성 정보가 부여된 복수의 안저 이미지를 포함할 수 있다. 제2 안저 이미지 데이터 세트는 안저 이미지가 제2 질병에 대하여 적합한 것으로 판단되었음을 지시하는 제2 적합성 정보가 부여된 복수의 안저 이미지를 포함할 수 있다.
적합성 정보는 이미지 적합성 판단 항목에서 전술한 바와 같이 다양한 정보를 포함할 수 있다. 예컨대, 적합성 정보는 다양한 세부 정보를 포함할 수 있고, 적합성 정보에 기초하여 생성되는 안저 이미지 데이터 세트는 복수의 서브 데이터 세트를 포함할 수도 있다.
데이터 베이스는 식별 정보에 기초하여 관리될 수 있다. 예컨대, 데이터 베이스는 안저 이미지의 식별 정보, 질병의 식별 정보, 영역의 식별 정보, 아티팩트의 식별 정보에 기초하여 관리될 수 있다. 또 예컨대, 데이터 베이스는 식별 정보 및 품질 정보 및/또는 적합성 정보를 연관하여 관리될 수 있다.
구체적인 예로, 대상 영역 및 대상 질병이 연관되어 관리되는 경우 대상 영역의 식별 정보와 대상 질병의 식별 정보는 매칭되어 저장될 수 있다. 대상 질병과 대상 아티팩트가 연관되어 관리되는 경우, 대상 질병의 식별 정보와 대상 아티팩트의 식별 정보는 매칭되어 저장될 수 있다. 다른 구체적인 예로, 안저 이미지가 품질 정보 및/또는 적합성 정보를 가지는 경우, 안저 이미지와 품질 정보 및/또는 적합성 정보는 매칭되어 저장될 수 있다.
2.5.2 학습 단계
신경망 모델을 트레이닝 또는 학습하는 단계에서는, 품질 정보 또는 적합성 정보를 이용하여 안저 이미지 데이터 세트를 이용하여 신경망 모델을 학습할 수 있다. 예컨대, 신경망 모델의 학습 시, 모델의 기능 또는 목적과 관련하여, 품질 정보 또는 적합성 정보에 기초하여 생성된 안저 이미지 데이터 세트를 선택적으로 이용할 수 있다. 신경망 모델의 학습, 특히 진단 보조 신경망 모델의 학습과 관련하여서는, 진단 보조 항목에서 전술한 진단 보조 신경망 모델에 관한 내용이 유추 적용될 수 있다.
본 발명의 일 실시예에 따르면, 신경망 모델은 본 명세서에서 설명하는 안저 이미지의 품질 판단 방법을 이용하여 획득된 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
일 예로, 신경망 모델은 품질 판단 방법에 따라 정상 이미지로 판단된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다. 진단 보조 신경망 모델은 품질 정보가 부여된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다. 진단 보조 신경망 모델은 정상 정보가 라벨링된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
예컨대, 신경망 모델은 안저 이미지 데이터 세트는 전술한 이미지 품질 판단 방법 항목에서 설명한 다양한 실시 예에 따라 판단된 품질 정보에 기초하여 획득된 안저 이미지 데이터 세트에 의해 학습될 수 있다. 예컨대, 진단 보조 신경망 모델은 정상 품질 정보가 라벨링된 안저 이미지만을 포함하는 안저 이미지 데이터 세트에 의하여 학습될 수 있다.
정상 이미지로 판단되어 정상 정보가 라벨링된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습된 신경망 모델은, 정상 이미지와 비정상 이미지를 모두 포함하는 안저 이미지 데이터 세트를 이용하여 학습된 신경망 모델보다 향상된 예측 정확도를 가질 수 있다.
다른 예로, 신경망 모델은, 영역을 고려한 품질 판단 방법에 따라 획득된 품질 정보를 포함하는 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다. 진단 보조 신경망 모델은 특정 영역에 대한 품질 정보가 부여된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
예컨대, 신경망 모델은, 제1 영역에 대한 품질 정보가 라벨링된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다. 예컨대, 진단 보조 신경망 모델은, 제1 영역에 대하여 품질 정보를 만족함을 나타내는 제1 품질 정보를 가지는 복수의 안저 이미지만을 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
특정 영역에 대하여 정상 품질 정보를 가지는 안저 이미지들로 구성된 학습 데이터를 이용하여 학습된 신경망 모델의 경우, 무작위의 안저 이미지를 가지는 학습 데이터를 이용하여 학습된 신경망 모델에 비하여, 특정 영역에 적어도 일부 기초하여 진단되는 질병에 대한 진단 보조 정보의 예측 정확도가 향상될 수 있다.
또 예컨대, 신경망 모델은, 제1 영역에 대한 품질 정보를 불만족함을 나타내는 제2 품질 정보를 가지는 복수의 안저 이미지만을 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
특정 영역에 대하여 비정상 품질 정보를 가지는 안저 이미지들로 구성된 학습 데이터를 이용하여 학습된 신경망 모델의 경우, 무작위의 안저 이미지를 가지는 학습 데이터를 이용하여 학습된 신경망 모델에 비하여, 특정 영역의 품질이 저하된 안저 이미지를 입력으로 하는 경우에 보다 강화된 결과를 출력할 수 있다.
또 다른 예로, 신경망 모델은, 아티팩트를 고려한 품질 판단 방법에 따라 획득된 품질 정보를 포함하는 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다. 진단 보조 신경망 모델은, 아티팩트의 유무를 지시하는 품질 정보가 부여된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트에 의하여 학습될 수 있다.
예컨대, 신경망 모델은 제1 아티팩트를 포함하지 않는 것으로 판단된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다. 예컨대, 진단 보조 신경망 모델은 제1 아티팩트를 포함하지 않음을 지시하는 품질 정보가 라벨링된 복수의 안저 이미지로 구성된 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
아티팩트를 포함하지 않는 안저 이미지들로 구성된 안저 이미지 데이터를 이용하여 학습된 신경망 모델의 경우, 임의의 안저 이미지들로 구성된 안저 이미지 데이터를 이용하여 학습된 신경망 모델에 비하여, 향상된 예측 정확도를 가질 수 있다.
또 예컨대, 진단 보조 신경망 모델은, 제1 아티팩트를 포함하는 것으로 판단된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다. 예컨대, 진단 보조 신경망 모델은 제1 아티팩트를 포함함을 지시하는 품질 정보가 라벨링된 복수의 안저 이미지로 구성된 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
특정 아티팩트를 포함하는 안저 이미지들로 구성된 안저 이미지 데이터를 이용하여 학습된 신경망 모델의 경우, 임의의 안저 이미지들로 구성된 안저 이미지 데이터를 이용하여 학습된 신경망 모델에 비하여, 특정 아티팩트에 강인(robust)한 특성을 가질 수 있다. 즉, 특정 아티팩트를 포함하는 안저 이미지들로 구성된 안저 이미지 데이터를 이용하여 학습된 신경망 모델은, 특정 아티팩트를 포함하는 안저 이미지를 입력으로 하는 경우에, 보다 향상된 예측 정확도를 보일 수 있다.
본 발명의 일 실시예에 따르면, 진단 보조 신경망 모델은 본 명세서에서 설명하는 안저 이미지의 적합성 판단을 이용하여 획득된 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
일 예로, 신경망 모델은 적합성 판단 방법에 따라 대상 질병에 대하여 적합한 이미지로 판단된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다. 진단 보조 신경망 모델은 대상 질병에 대한 적합성 정보가 부여된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
예컨대, 신경망 모델은 대상 질병에 적합한 안저 이미지들을 포함하는 안저 이미지데이터 세트를 이용하여 학습될 수 있다. 진단 보조 신경망 모델은 안저 이미지가 제1 대상 질병에 대하여 적합함을 지시하는 제1 적합성 정보가 라벨링된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
대상 질병에 적합한 것으로 판단된 안저 이미지들로 구성된 학습 데이터를 이용하여 학습된 신경망 모델은, 임의의 안저 이미지들로 구성된 학습 데이터를 이용하여 학습된 안저 이미지에 비하여, 대상 질병과 관련된 진단 보조 정보 예측에 있어서 보다 향상된 정확도를 가질 수 있다.
또 예컨대, 신경망 모델은 대상 질병에 부적합한 안저 이미지들을 포함하는 안저 이미지데이터 세트를 이용하여 학습될 수 있다. 진단 보조 신경망 모델은 안저 이미지가 제1 대상 질병에 대하여 부적합 함을 지시하는 제2 적합성 정보가 라벨링된 복수의 안저 이미지를 포함하는 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
대상 질병에 부적합한 것으로 판단된 안저 이미지들로 구성된 학습 데이터를 이용하여 학습된 신경망 모델은, 임의의 안저 이미지들로 구성된 학습 데이터를 이용하여 학습된 안저 이미지에 비하여, 대상 질병과 관련된 진단 보조 정보 예측에 있어서, 안저 이미지의 품질이 저조한 경우에도 보다 향상된 정확도를 가질 수 있다.
본 명세서에서 개시하는 안저 이미지의 적합성 판단 방법은 복수의 신경망 모델을 병렬적으로 이용하는 경우에도 이용될 수 있다. 예컨대, 복수의 신경망 모델을 학습하는 경우, 각 신경망 모델의 대상 질병에 대하여 적합성 판단된 안저 이미지를 학습에 이용할 수 있다. 복수의 신경망 모델의 병렬적 구성과 관련하여서는, 전술한 복수 라벨 대한 진단 시스템 항목의 내용이 유추 적용될 수 있다.
일 예로, 복수의 신경망 모델은, 제1 질병에 대한 진단을 보조하기 위한 제1 신경망 모델 및 제2 질병에 대한 진단을 보조하기 위한 제2 신경망 모델을 포함할 수 있다. 제1 신경망 모델은 제1 장치에서 학습 및/또는 구동될 수 있다. 제2 신경망 모델은 제1 장치에서 학습 및/또는 구동될 수 있다. 제1 신경망 모델 및 제2 신경망 모델은 제3 장치에서 학습 및/또는 구동될 수 있다. 제1 신경망 모델 및/또는 제2 신경망 모델은 제4 장치에서 학습되고 제4 장치에서 구동될 수 있다.
이하에서는, 제1 신경망 모델 및 제2 신경망 모델이 이용되는 경우, 안저 이미지의 적합성 판단을 이용하여 각 신경망 모델을 학습하는 방법 등에 대하여 몇 가지 실시 예를 들어 설명한다.
본 발명의 일 실시예에 따르면, 진단 보조 신경망 모델을 학습하는 것은 제1 안저 이미지 데이터를 이용하여 제1 질병의 진단을 보조하기 위한 제1 신경망 모델을 학습하고, 제2 안저 이미지 데이터를 이용하여 제2 질병의 진단을 보조하기 위한 제2 신경망 모델을 학습하는 것을 포함할 수 있다. 다시 말해, 진단 보조 신경망 모델을 학습하는 것은, 제1 적합성 정보(또는 제1 품질 정보)가 라벨링된 제1 안저 이미지 데이터를 이용하여 제1 신경망 모델을 학습하고, 제2 적합성 정보(또는 제2 품질 정보)가 라벨링된 제2 안저 이미지 데이터를 이용하여 제2 신경망 모델을 학습하는 것을 포함할 수 있다.
예컨대, 진단 보조 신경망 모델을 학습하는 것은, 제1 질병에 대하여 적합한 것으로 판단된 복수의 안저 이미지를 포함하는 제1 안저 이미지 데이터를 이용하여 제1 질병의 진단을 보조하기 위한 제1 신경망 모델을 학습하고, 제1 질병과 다른 제2 질병에 대하여 적합한 것으로 판단된 복수의 안저 이미지를 포함하는 제2 안저 이미지 데이터를 이용하여 제2 질병의 진단을 보조하기 위한 제2 신경망 모델을 학습하는 것을 포함할 수 있다.
제1 안저 이미지 데이터는 제1 영역에 대하여 적합한 것으로 판단된 복수의 안저 이미지를 포함하고, 제1 질병은 제1 영역에 대하여 적어도 일부 기초하여 진단되는 질병일 수 있다. 제2 안저 이미지 데이터는 제1 영역과 적어도 일부 상이한 제2 영역에 대하여 적합한 것으로 판단된 복수의 안저 이미지를 포함하고, 제2 질병은 제2 영역에 대하여 적어도 일부 기초하여 진단되는 질병일 수 있다.
제1 안저 이미지 데이터는 제1 영역으로부터 적어도 일부 검출되는 제1 아티팩트를 포함하지 않는 것으로 판단된 복수의 안저 이미지를 포함하고, 제1 질병은 제1 영역에 대하여 적어도 일부 기초하여 진단되는 질병일 수 있다. 제2 안저 이미지 데이터는 제1 영역과 적어도 일부 상이한 제2 영역으로부터 적어도 일부 검출되는 제2 아티팩트를 포함하지 않는 것으로 판단된 복수의 안저 이미지를 포함하고, 제2 질병은 제2 영역에 대하여 적어도 일부 기초하여 진단되는 질병일 수 있다.
각 진단 보조 신경망 모델을 학습함에 있어서, 각 모델의 대상 질병에 대하여 적합한 안저 이미지 데이터 세트를 이용하는 경우, 각 신경망 모델에서 임의의(또는 동일한) 데이터 세트를 이용하여 모델을 학습하는 경우에 비하여, 각 신경망 모델의 개별 질병에 대한 진단 보조 정보 예측 정확도가 향상될 수 있다.
또 예컨대, 진단 보조 신경망 모델을 학습하는 것은, 제1 질병에 대하여 부적합한 것으로 판단된 복수의 안저 이미지를 포함하는 제1 안저 이미지 데이터를 이용하여, 제1 질병의 진단을 보조하기 위한 제1 신경망 모델을 학습하고, 제1 질병과 다른 제2 질병에 대하여 부적합한 것으로 판단된 복수의 안저 이미지를 포함하는 제2 안저 이미지 데이터를 이용하여, 제2 질병의 진단을 보조하기 위한 제2 신경망 모델을 학습하는 것을 포함할 수 있다.
제1 안저 이미지 데이터는 제1 영역에 대하여 부적합한 것으로 판단된 복수의 안저 이미지를 포함하고, 제1 질병은 제1 영역에 대하여 적어도 일부 기초하여 진단되는 질병일 수 있다. 제2 안저 이미지 데이터는 제1 영역과 적어도 일부 상이한 제2 영역에 대하여 부적합한 것으로 판단된 복수의 안저 이미지를 포함하고, 제2 질병은 제2 영역에 대하여 적어도 일부 기초하여 진단되는 질병일 수 있다.
제1 안저 이미지 데이터는 제1 영역으로부터 적어도 일부 검출되는 제1 아티팩트를 포함하는 것으로 판단된 복수의 안저 이미지를 포함하고, 제1 질병은 제1 영역에 대하여 적어도 일부 기초하여 진단되는 질병일 수 있다. 제2 안저 이미지 데이터는 제1 영역과 적어도 일부 상이한 제2 영역으로부터 적어도 일부 검출되는 제2 아티팩트를 포함하는 것으로 판단된 복수의 안저 이미지를 포함하고, 제2 질병은 제2 영역에 대하여 적어도 일부 기초하여 진단되는 질병일 수 있다.
각 진단 보조 신경망 모델을 학습함에 있어서, 각 모델의 대상 질병에 대하여 적합한 안저 이미지 데이터 세트를 이용하는 경우, 각 신경망 모델에서 임의의(또는 동일한) 데이터 세트를 이용하여 모델을 학습하는 경우에 비하여, 각 신경망 모델의 개별 질병에 대한 진단 보조 정보 예측 정확도가 향상될 수 있다.
2.5.3 진단 단계
학습된 신경망 모델을 이용하여 진단 또는 진단 보조를 수행하는 단계에서는, 진단 대상 안저 이미지의 획득 시 품질 판단이 적용될 수 있다. 또한, 진단에 이용되는 신경망 모델의 특정 질병의 진단을 위한 것인 경우, 해당 질병에 적합성을 가지는 안저 이미지를 진단 대상 이미지로 이용할 수 있다. 신경망 모델은 전술한 이미지 품질 판단 또는 적합성 판단을 통하여 얻어진 안저 이미지 데이터 세트를 이용하여 학습된 진단 보조 신경망 모델일 수 있다.
본 발명의 일 실시예에 따르면, 신경망 모델은 본 명세서에서 설명하는 안저 이미지의 품질 판단 방법을 이용하여 획득된 안저 이미지를 입력으로 하여 진단 보조 정보를 출력할 수 있다.
일 예로, 진단 보조 방법은, 신경망 모델을 이용하여 품질 판단 방법에 따라 정상 이미지로 판단된 안저 이미지에 기초하여 진단 보조 정보를 출력하는 것을 포함할 수 있다. 예컨대, 본 발명의 일 실시예에 따른 진단 보조 방법은, 진단 대상 안저 이미지의 품질을 판단하고, 정상 품질을 가지는 것으로 판단된 안저 이미지에 기초하여 진단 보조 신경망 모델로부터 진단 보조 정보를 획득하는 것을 포함할 수 있다.
또는, 진단 보조 방법은, 진단 대상 안저 이미지의 품질을 판단하고, 비정상 품질을 가지는 것으로 판단된 안저 이미지에 기초하여 진단 보조 신경망 모델로부터 진단 보조 정보를 획득하는 것을 포함할 수 있다. 이때, 대상 안저 이미지가 비정상 임을 지시하는 품질 정보는, 대상 안저 이미지에 기초하여 획득된 진단 보조 정보와 함께 출력될 수 있다. 또는, 본 발명의 일 실시예에 따른 진단 보조 방법은, 진단 대상 안저 이미지의 품질을 판단하고, 안저 이미지가 비정상 품질을 가지는 경우, 사용자에게 재촬영 알림을 제공하거나 재촬영 모드로 전환하는 것을 포함할 수 있다.
안저 이미지의 정상 여부에 대한 품질 판단 결과에 기초하여 선택된 대상 안저 이미지를 이용하여 진단 보조 정보를 획득하는 경우, 흠결을 가지는 안저 이미지에 기초한 진단 보조 정보의 출력이 방지될 수 있으므로, 진단 보조 시스템의 신뢰도가 증진될 수 있다.
다른 예로, 진단 보조 방법은, 대상 영역에 대하여 품질 기준을 만족하는 대상 안저 이미지에 기초하고 신경망 모델을 이용하여 진단 보조 정보를 획득하는 것을 더 포함할 수 있다. 예컨대, 본 발명의 일 실시예에 따른 진단 보조 방법은, 진단 대상 안저 이미지의 대상 영역의 품질을 판단하고, 대상 영역에 대하여 정상 품질을 가지는 것으로 판단된 안저 이미지에 기초하여 진단 보조 신경망 모델로부터 진단 보조 정보를 획득하는 것을 포함할 수 있다.
또는, 진단 보조 방법은, 진단 대상 안저 이미지의 품질을 판단하고, 대상 영역에 대하여비정상 품질을 가지는 것으로 판단된 안저 이미지에 기초하여 진단 보조 신경망 모델로부터 진단 보조 정보를 획득하는 것을 포함할 수 있다. 이때, 대상 안저 이미지가 대상 영역에 대하여 비정상 임을 지시하는 품질 정보가 대상 안저 이미지에 기초하여 획득된 진단 보조 정보와 함께 출력될 수 있다. 또는, 본 발명의 일 실시예에 따른 진단 보조 방법은, 안저 이미지의 대상 영역이 비정상 품질을 가지는 경우, 사용자에게 재촬영 알림을 제공하거나 재촬영 모드로 전환하는 것을 포함할 수 있다.
대상 영역에 대하여 품질 기준을 만족하는 안저 이미지로 선택된 대상 안저 이미지에 기초하여 진단 보조 정보를 획득하는 경우, 대상 영역과 연관된 대상 질병에 대한 진단 보조 정보의 정확도가 향상될 수 있다.
다른 예로, 진단 보조 방법은, 진단 보조 방법은, 대상 아티팩트와 관련하여 품질 기준을 만족하는 대상 안저 이미지에 기초하고 신경망 모델을 이용하여 진단 보조 정보를 획득하는 것을 더 포함할 수 있다. 예컨대, 본 발명의 일 실시예에 따른 진단 보조 방법은, 진단 대상 안저 이미지의 대상 아티팩트 포함 유무를 판단하고, 대상 아티팩트를 포함하지 않는 것으로 판단된 안저 이미지에 기초하여 진단 보조 신경망 모델로부터 진단 보조 정보를 획득하는 것을 포함할 수 있다.
또는, 진단 보조 방법은, 진단 대상 안저 이미지의 품질을 판단하고, 대상 아티팩트에 대하여 비정상 품질을 가지는 것으로 판단된 안저 이미지에 기초하여 진단 보조 신경망 모델로부터 진단 보조 정보를 획득하는 것을 포함할 수 있다. 이때, 대상 안저 이미지가 대상 아티팩트를 포함함을 지시하는 품질 정보가 대상 안저 이미지에 기초하여 획득된 진단 보조 정보와 함께 출력될 수 있다. 또는, 본 발명의 일 실시예에 따른 진단 보조 방법은, 안저 이미지가 대상 아티팩트를 포함하는 경우, 사용자에게 재촬영 알림을 제공하거나 재촬영 모드로 전환하는 것을 포함할 수 있다.
대상 아티팩트를 포함하지 아니하는 안저 이미지로 선택된 대상 안저 이미지에 기초하여 진단 보조 정보를 획득하는 경우, 대상 아티팩트가 발생하는 영역과 연관된 대상 질병에 대한 진단 보조 정보의 정확도가 향상될 수 있다.
본 발명의 일 실시예에 따르면, 진단 보조 신경망 모델은 본 명세서에서 설명하는 안저 이미지의 적합성 판단을 이용하여 획득된 안저 이미지 데이터 세트를 이용하여 학습될 수 있다.
일 예로, 진단 보조 방법은, 신경망 모델을 이용하여 적합성 판단 방법에 따라 대상 질병에 대하여 적합한 이미지로 판단된 안저 이미지에 기초하여 진단 보조 정보를 출력하는 것을 포함할 수 있다. 예컨대, 본 발명의 일 실시예에 따른 진단 보조 방법은, 진단 대상 안저 이미지의 적합성을 판단하고, 대상 질병에 대하여 적합한 것으로 판단된 안저 이미지에 기초하여 진단 보조 신경망 모델로부터 진단 보조 정보를 획득하는 것을 포함할 수 있다.
또는, 진단 보조 방법은, 진단 대상 안저 이미지의 적합성을 판단하고, 대상 질병에 대하여 부적합한 것으로 판단된 안저 이미지에 기초하여 진단 보조 신경망 모델로부터 진단 보조 정보를 획득하는 것을 포함할 수 있다. 이때, 대상 안저 이미지가 부적합 함을 지시하는 적합성 정보는, 대상 안저 이미지에 기초하여 획득된 진단 보조 정보와 함께 출력될 수 있다. 또는, 본 발명의 일 실시예에 따른 진단 보조 방법은, 진단 대상 안저 이미지의 적합성을 판단하고, 안저 이미지가 대상 질병에 대하여 부적합한 경우, 사용자에게 재촬영 알림을 제공하거나 재촬영 모드로 전환하는 것을 포함할 수 있다.
안저 이미지의 적합성 여부에 대한 품질 판단 결과에 기초하여 선택된 대상 안저 이미지를 이용하여 진단 보조 정보를 획득하는 경우, 대상 질병에 대하여 특히 부적합한 흠결을 가지는 이미지는 대상 안저 이미지에서 제외될 수 있는 바, 대상 질병에 대한 진단 보조 시스템의 신뢰도가 증진될 수 있다.
본 명세서에서 개시하는 안저 이미지의 적합성 판단 방법은 복수의 신경망 모델을 병렬적으로 이용하여 진단 보조 정보를 획득하는 경우에도 이용될 수 있다. 예컨대, 복수의 신경망 모델을 이용하여 진단 보조 정보를 획득하는 경우, 복수의 적합성 기준 또는 조건이 이용될 수 있다.
예컨대, 제1 질병에 대한 진단 보조 정보를 획득하는 제1 진단 보조 신경망 모델의 경우, 제1 적합성 조건을 만족하는 안저 이미지를 대상 안저 이미지로 하여 진단 보조 정보를 획득할 수 있다. 제2 질병에 대한 진단 보조 정보를 획득하는 제2 진단 보조 신경망 모델의 경우, 제2 적합성 조건을 만족하는 안저 이미지를 대상 안저 이미지로 하여 진단 보조 정보를 획득할 수 있다.
복수의 신경망 모델은, 제1 질병에 대한 진단을 보조하기 위한 제1 신경망 모델 및 제2 질병에 대한 진단을 보조하기 위한 제2 신경망 모델을 포함할 수 있다. 제1 신경망 모델은 제1 장치에서 학습 및/또는 구동될 수 있다. 제2 신경망 모델은 제1 장치에서 학습 및/또는 구동될 수 있다. 제1 신경망 모델 및 제2 신경망 모델은 제3 장치에서 학습 및/또는 구동될 수 있다. 제1 신경망 모델 및/또는 제2 신경망 모델은 제4 장치에서 학습되고 제4 장치에서 구동될 수 있다.
이하에서는, 제1 신경망 모델 및 제2 신경망 모델을 이용하여 안저 이미지의 적합성 판단을 고려하여 진단 보조 정보를 획득하는 방법 등에 대하여 몇 가지 실시 예를 들어 설명한다.
본 발명의 일 실시예에 따르면, 진단 보조 방법은, 대상 안저 이미지에 대하여 제1 질병의 진단을 보조하기 위한 제1 신경망 모델에 대응되는 제1 적합성을 만족하는지 판단하고, 대상 안저 이미지에 대하여 제2 질병의 진단을 보조하기 위한 제2 신경망 모델에 대응되는 제2 적합성을 만족하는지 판단하는 것을 포함할 수 있다.
대상 안저 이미지가 제1 적합성을 만족하고, 제2 적합성을 만족하는 경우, 진단 보조 방법은, 제1 신경망 모델을 이용하여 대상 안저 이미지에 기초한 제1 진단 보조 정보를 획득하고, 제2 신경망 모델을 이용하여 대상 안저 이미지에 기초한 제2 진단 보조 정보를 획득하는 것을 포함할 수 있다.
대상 안저 이미지가 제1 적합성 조건을 만족하되, 제2 적합성 조건을 만족하지 않는 경우, 진단 보조 방법은, 제1 진단 보조 신경망 모델을 이용하여 대상 안저 이미지에 기초하여 제1 진단 보조 정보를 획득하고, 제1 진단 보조 정보만을 출력할 수 있다. 이때, 대상 안저 이미지가 제2 적합성 조건을 불만족 함을 나타내는 제2 적합성 정보를 함께 출력될 수 있다. 또는, 진단 보조 방법은, 제1 진단 보조 정보와, 제2 진단 보조 신경망 모델을 이용하여 대상 안저 이미지에 기초하여 획득된 제2 진단 보조 정보를 출력하되, 제2 적합성 정보를 함께 출력하는 것을 포함할 수 있다.
대상 안저 이미지가 제1 적합성 조건 및 제2 적합성 조건을 만족하지 않는 경우, 진단 보조 정보를 획득되지 않을 수 있다. 이때, 대상 안저 이미지가 제1 적합성 조건 및 제2 적합성 조건을 불만족 함을 나타내는 제1 적합성 정보 및 제2 적합성 정보가 사용자에게 제공될 수 있다. 또는, 진단 보조 방법은, 제2 진단 보조 신경망 모델을 이용하여 대상 안저 이미지에 기초하여 획득된 제1 진단 보조 정보 및 제2 진단 보조 신경망 모델을 이용하여 대상 안저 이미지에 기초하여 획득된 제2 진단 보조 정보를 출력하되, 제1 적합성 정보 및 제2 적합성 정보를 함께 출력하는 것을 포함할 수 있다.
일 예에 따르면, 대상 안저 이미지가 제1 적합성 조건을 만족하지 판단하는 것은, 대상 안저 이미지의 제1 영역이 품질 기준을 만족하는지 판단하는 것을 포함할 수 있다. 대상 안저 이미지가 제2 적합성 조건을 만족하지 판단하는 것은, 대상 안저 이미지의 제1 영역과 적어도 일부 상이한 제2 영역이 품질 기준을 만족하는지 판단하는 것을 포함할 수 있다.
일 예에 따르면, 대상 안저 이미지가 제1 적합성 조건을 만족하지 판단하는 것은, 대상 안저 이미지가 제1 아티팩트를 포함하는지 판단하는 것을 포함할 수 있다. 대상 안저 이미지가 제2 적합성 조건을 만족하지 판단하는 것은, 대상 안저 이미지가 제1 아티팩트와 다른 제2 아티팩트를 포함하는지 판단하는 것을 포함할 수 있다.
복수의 대상 질병을 진단하기 위한 진단 보조 신경망 모델을 이용하여 진단 보조 정보를 획득하는 경우, 질병 별로 진단에 영향을 미치는 흠결이 상이할 수 있다. 따라서, 각각의 진단 보조 신경망 모델 별로, 진단 대상 질병에 대응되는 적합성을 가지는 안저 이미지에 기초하여 진단 보조 정보를 획득함으로써 진단 보조 정보의 신뢰도가 보장될 수 있다.
또한, 대상 안저 이미지가 부적합한 경우에도 사용자에게 진단 보조 정보와 적합성 정보를 함께 제공함으로써, 사용자의 주체적 판단이 보조될 수 있다.
이상에서는, 안저 이미지의 품질 판단 또는 적합성 판단 방법을 데이터 베이스 구축, 신경망 모델의 학습 및 신경망 모델의 구동에 적용하는 경우를 기준으로 설명하였으나, 본 명세서에서 개시하는 발명의 내용이 이에 한정되는 것은 아니다. 안저 이미지가 아닌 이미지의 경우라도, 이미지에 소정 영역에 흠결이 발생할 수 있고, 이미지에 기초하여 소정의 정보가 획득되는 경우, 본 명세서에서 개시하는 발명의 내용이 유추 적용될 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (41)

  1. 피검체의 안저를 촬영한 안저 이미지로부터 아티팩트를 검출하여 상기 안저 이미지의 품질을 판단하는 방법에 있어서,
    상기 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 상기 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 단계;
    상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 단계; 및
    상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율을 상기 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 상기 안저 이미지의 품질 정보를 획득하는 단계; 를 포함하는
    안저 이미지의 품질 판단 방법.
  2. 제1항에 있어서,
    상기 대상 영역은 상기 품질 판단을 위하여 검출되는 아티팩트에 따라 결정되되,
    상기 아티팩트는 상기 안저 이미지의 안저 영역에 발생하는 광의 과도한 반사에 의한 브라이트 아티팩트 또는 상기 안저 이미지의 안저 영역에 발생하는 그림자에 의한 다크 아티팩트 중 어느 하나인,
    안저 이미지의 품질 판단 방법.
  3. 제1항에 있어서,
    상기 대상 영역은, 상기 안저 이미지의 상기 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역, 상기 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 제2 영역, 상기 안저에 대응되는 영역 중 시신경 유두가 분포하는 영역에 대응되는 제3 영역 및 상기 안저에 대응되는 영역 중 황반이 분포하는 영역에 대응되는 제4 영역 중 선택된 적어도 하나의 영역을 포함하는,
    안저 이미지의 품질 판단 방법.
  4. 제1항에 있어서,
    상기 안저 이미지로부터 상기 안저 이미지에 포함되는 복수의 픽셀에 대하여 제1 스케일에 대한 제1 스케일 값을 획득하는 단계; 를 더 포함하고,
    상기 픽셀 값은 상기 제1 스케일 값을 포함하는,
    안저 이미지의 품질 판단 방법.
  5. 제4항에 있어서,
    상기 제1 스케일은 상기 복수의 픽셀의 명도 스케일이고, 상기 제1 스케일 값은 명도 스케일 값인
    안저 이미지의 품질 판단 방법.
  6. 제1항에 있어서,
    상기 안저 이미지를 상기 기준 픽셀 값에 대하여 이진화하는 단계;를 더 포함하고,
    상기 제1 픽셀을 검출하는 단계는, 상기 이진화된 안저 이미지에 기초하여 상기 제1 픽셀을 검출하는 것을 더 포함하는
    안저 이미지의 품질 판단 방법.
  7. 제1항에 있어서,
    상기 아티팩트는 제1 아티팩트이고,
    상기 대상 영역은 상기 안저 이미지의 상기 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역인
    안저 이미지의 품질 판단 방법.
  8. 제7항에 있어서,
    상기 제1 거리는 상기 안저에 대응되는 영역의 중심으로부터 상기 제1 거리 이내인 영역이 상기 안저 이미지 전체 영역에 대하여 제1 비율 이상이 되도록 결정되는,
    안저 이미지의 품질 판단 방법.
  9. 제 7항에 있어서,
    상기 기준 픽셀 값은 제1 픽셀 값이고,
    상기 기준 픽셀 값과 비교하여 상기 제1 픽셀을 검출하는 단계는
    상기 대상 영역에 포함되고 상기 기준 픽셀 값보다 큰 픽셀 값을 가지는 상기 제1 픽셀을 검출하는 것을 포함하는
    안저 이미지의 품질 판단 방법.
  10. 제7항에 있어서,
    상기 기준 비율은 제1 기준 비율이고,
    상기 기준 비율과 비교하는 단계는 상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율이 상기 제1 기준 비율보다 큰지 판단하는 것을 더 포함하고,
    상기 비교 결과에 기초하여 상기 품질 정보를 획득하는 단계는 상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율이 상기 제1 기준 비율보다 큰 경우 상기 안저 이미지는 불량 이미지인 것으로 결정하는 것을 더 포함하는
    안저 이미지의 품질 판단 방법.
  11. 제1항에 있어서,
    상기 아티팩트는 제2 아티팩트이고,
    상기 대상 영역은 상기 안저 이미지의 상기 안저가 분포하는 제2 영역인
    안저 이미지의 품질 판단 방법.
  12. 제11항에 있어서,
    상기 기준 픽셀 값은 제2 픽셀 값이고,
    상기 기준 픽셀 값과 비교하여 상기 제1 픽셀을 검출하는 단계는
    상기 대상 영역에 포함되고 상기 기준 픽셀 값보다 작은 픽셀 값을 가지는 상기 제1 픽셀을 검출하는 것을 포함하는
    안저 이미지의 품질 판단 방법.
  13. 제11항에 있어서,
    상기 기준 비율은 제2 기준 비율이고,
    상기 기준 비율과 비교하는 단계는 상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율이 상기 제2 기준 비율보다 작은지 판단하는 것을 더 포함하고,
    상기 비교 결과에 기초하여 상기 품질 정보를 획득하는 단계는 상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율이 상기 제2 기준 비율보다 작은 경우 상기 안저 이미지는 불량 이미지인 것으로 결정하는 것을 더 포함하는
    안저 이미지의 품질 판단 방법.
  14. 피검체의 안저를 촬영한 안저 이미지로부터 아티팩트를 검출하여 상기 안저 이미지의 품질을 판단하는 방법에 있어서,
    상기 안저 이미지의 적어도 일부 영역을 상기 아티팩트를 검출하기 위한 대상 영역으로 결정하는 단계; 및
    상기 대상 영역으로부터 상기 아티팩트와 대응되는 적어도 하나의 아티팩트 픽셀을 검출하는 단계; 를 포함하되,
    상기 아티팩트가 제1 아티팩트인 경우 상기 대상 영역은 상기 안저 이미지 중 상기 안저에 대응되는 영역의 중심으로부터 소정 거리 이격된 영역인 제1 영역으로 결정되는
    안저 이미지의 품질 판단 방법.
  15. 제14항에 있어서,
    상기 제1 아티팩트는 상기 안저 이미지의 안저 영역에 발생하는 광의 과도한 반사에 의한 브라이트 아티팩트인,
    안저 이미지의 품질 판단 방법.
  16. 제14항에 있어서,
    상기 아티팩트가 제2 아티팩트인 경우 상기 대상 영역은 상기 안저 이미지 중 상기 안저가 분포하는 영역인 안저 영역으로 결정되는,
    안저 이미지의 품질 판단 방법.
  17. 제16항에 있어서,
    상기 제2 아티팩트는 상기 안저 이미지의 안저 영역에 발생하는 그림자에 의한 다크 아티팩트인,
    안저 이미지의 품질 판단 방법.
  18. 제14항에 있어서,
    상기 안저 이미지를 회색조 변환하여, 변환된 안저 이미지를 획득하는 단계;를 더 포함하고,
    상기 아티팩트 픽셀을 검출하는 것은 상기 변환된 안저 이미지로부터 상기 아티팩트 픽셀을 검출하는 것을 더 포함하는,
    안저 이미지의 품질 판단 방법.
  19. 제14항에 있어서,
    상기 대상 영역으로부터 아티팩트 픽셀을 검출하는 단계는
    상기 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 기준 픽셀 값 범위와 비교하는 단계; 및
    상기 대상 영역에 포함되고 상기 기준 픽셀 값 범위에 포함되는 픽셀 값을 가지는 적어도 하나의 픽셀을 상기 아티팩트 픽셀로 결정하는 단계; 를 더 포함하는
    안저 이미지의 품질 판단 방법.
  20. 제19항에 있어서,
    상기 픽셀 값은 상기 픽셀의 밝기 값인
    안저 이미지의 품질 판단 방법.
  21. 제14항에 있어서,
    상기 아티팩트가 상기 제1 아티팩트인 경우, 상기 아티팩트 픽셀을 검출하는 단계는,
    상기 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 제1 기준 픽셀 값과 비교하는 단계; 및
    상기 대상 영역에 포함되고 상기 제1 기준 픽셀 값보다 큰 픽셀 값을 가지는 적어도 하나의 픽셀을 제1 아티팩트 픽셀로 결정하는 단계; 를 더 포함하는
    안저 이미지의 품질 판단 방법.
  22. 제16항에 있어서,
    상기 아티팩트가 상기 제2 아티팩트인 경우, 상기 아티팩트 픽셀을 검출하는 단계는,
    상기 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 제2 기준 픽셀 값과 비교하는 단계; 및
    상기 대상 영역에 포함되고 상기 제2 기준 픽셀 값보다 작은 픽셀 값을 가지는 적어도 하나의 픽셀을 제2 아티팩트 픽셀로 결정하는 단계; 를 더 포함하는
    안저 이미지의 품질 판단 방법.
  23. 제14항에 있어서,
    상기 검출된 아티팩트 픽셀에 기초하여 상기 안저 이미지의 품질을 판단하는 단계; 를 더 포함하되,
    안저 이미지의 품질 판단 방법.
  24. 제23항에 있어서,
    상기 안저 이미지의 품질을 판단하는 것은 상기 검출된 아티팩트의 양이 기준량을 초과하는지 여부를 고려하여 상기 안저 이미지의 품질을 판단하는 것을 더 포함하는,
    안저 이미지의 품질 판단 방법.
  25. 제23항에 있어서,
    상기 안저 이미지의 품질을 판단하는 단계는,
    상기 검출된 상기 아티팩트 픽셀의 수가 상기 안저 이미지의 전체 픽셀의 수에 대하여 기준 비율을 초과하는지 여부를 판단하는 단계; 및
    상기 아티팩트 픽셀의 수가 상기 안저 이미지 전체 픽셀의 수에 대하여 상기 기준 비율을 초과하는 경우 상기 안저 이미지는 아티팩트를 포함하는 것으로 결정하는 단계;를 포함하는
    안저 이미지의 품질 판단 방법.
  26. 안저를 촬영한 안저 이미지로부터 아티팩트를 검출하여 안저 이미지의 품질을 관리하는 안저 이미지 관리 장치에 있어서,
    상기 안저 이미지를 획득하는 안저 이미지 획득부; 및
    상기 안저 이미지의 대상 영역으로부터 제1 픽셀을 검출하고, 제1 픽셀의 수를 고려하여 상기 안저 이미지의 품질을 판단하는 품질 판단부; 를 포함하되,
    상기 품질 판단부는,
    상기 안저 이미지의 대상 영역에 포함되는 적어도 하나의 픽셀의 픽셀 값을 기준 픽셀 값과 비교하여, 상기 안저 이미지의 품질과 관련된 제1 픽셀을 검출하는 제1 픽셀 검출부,
    상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율을 기준 비율과 비교하는 비교부 및
    상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율을 상기 기준 비율과 비교하여 획득된 비교 결과에 기초하여, 상기 안저 이미지의 품질 정보를 획득하는 품질 정보 획득부를 포함하는,
    안저 이미지 관리 장치.
  27. 제26항에 있어서,
    상기 아티팩트는 상기 안저 이미지의 안저 영역에 발생하는 광의 과도한 반사에 의한 브라이트 아티팩트 또는 상기 안저 이미지의 안저 영역에 발생하는 그림자에 의한 다크 아티팩트 중 어느 하나인,
    안저 이미지 관리 장치.
  28. 제26항에 있어서,
    상기 대상 영역은, 상기 안저 이미지의 상기 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역, 상기 안저에 대응되는 영역의 중심으로부터 제1 거리 이내인 제2 영역, 상기 안저에 대응되는 영역 중 시신경 유두가 분포하는 영역에 대응되는 제3 영역 및 상기 안저에 대응되는 영역 중 황반이 분포하는 영역에 대응되는 제4 영역 중 선택된 적어도 하나의 영역을 포함하는,
    안저 이미지 관리 장치.
  29. 제26항에 있어서,
    상기 아티팩트가 제1 아티팩트인 경우, 상기 대상 영역은 상기 안저 이미지의 상기 안저에 대응되는 영역의 중심으로부터 제1 거리 이상 이격된 제1 영역으로 결정되고- 상기 제1 거리는 상기 안저에 대응되는 영역의 중심으로부터 상기 제1 거리 이내인 영역이 상기 안저 이미지 전체 영역에 대하여 제1 비율 이상이 되도록 결정됨-
    상기 아티팩트가 제2 아티팩트인 경우, 상기 대상 영역은 상기 안저 이미지의 상기 안저가 분포하는 제2 영역으로 결정되는,
    안저 이미지 관리 장치.
  30. 제29에 있어서,
    상기 아티팩트가 제1 아티팩트인 경우,
    상기 기준 픽셀 값은 제1 픽셀 값이고,
    상기 기준 픽셀 값과 비교하여 상기 제1 픽셀을 검출하는 단계는 상기 대상 영역에 포함되고 상기 기준 픽셀 값보다 큰 픽셀 값을 가지는 상기 제1 픽셀을 검출하는 것을 포함하고,
    상기 기준 비율은 제1 기준 비율이고,
    상기 기준 비율과 비교하는 단계는 상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율이 상기 제1 기준 비율보다 큰지 판단하는 것을 더 포함하고,
    상기 비교 결과에 기초하여 상기 품질 정보를 획득하는 단계는 상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율이 상기 제1 기준 비율보다 큰 경우 상기 안저 이미지는 불량 이미지인 것으로 판단하는 것을 더 포함하는
    안저 이미지 관리 장치.
  31. 제29항에 있어서,
    상기 아티팩트가 제2 아티팩트인 경우,
    상기 기준 픽셀 값은 제2 픽셀 값이고,
    상기 기준 픽셀 값과 비교하여 상기 제1 픽셀을 검출하는 단계는 상기 대상 영역에 포함되고 상기 기준 픽셀 값보다 작은 픽셀 값을 가지는 상기 제1 픽셀을 검출하는 것을 포함하고,
    상기 기준 비율은 제2 기준 비율이고,
    상기 기준 비율과 비교하는 단계는 상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율이 상기 제2 기준 비율보다 작은지 판단하는 것을 더 포함하고,
    상기 비교 결과에 기초하여 상기 품질 정보를 획득하는 단계는 상기 안저 이미지의 전체 픽셀 중 상기 제1 픽셀이 차지하는 비율이 상기 제2 기준 비율보다 작은 경우 상기 안저 이미지는 불량 이미지인 것으로 판단하는 것을 더 포함하는
    안저 이미지 관리 장치.
  32. 제26항에 있어서,
    상기 안저 이미지에 상기 품질 정보에 기초하여 생성된 품질 정보 라벨을 추가하고, 상기 안저 이미지를 상기 품질 정보 라벨에 따라 관리하는 품질 정보 관리부; 를 더 포함하는
    안저 이미지 관리 장치.
  33. 안저를 촬영한 안저 이미지로부터 아티팩트를 검출하여 상기 안저 이미지의 품질을 판단하는 안저 이미지 관리 장치에 있어서,
    상기 안저 이미지를 획득하는 안저 이미지 획득부; 및
    상기 안저 이미지의 대상 영역으로부터 적어도 하나의 아티팩트 픽셀을 검출하고, 상기 아티팩트 픽셀을 고려하여 상기 안저 이미지의 품질을 판단하는 품질 판단부; 를 포함하되,
    상기 품질 판단부는
    상기 안저 이미지의 적어도 일부 영역을 상기 아티팩트를 검출하기 위한 대상 영역으로 결정하는 대상 영역 결정부; 및
    상기 대상 영역으로부터 상기 아티팩트와 대응되는 적어도 하나의 아티팩트 픽셀을 검출하는 아티팩트 픽셀 검출부; 를 포함하되,
    상기 품질 판단부는 상기 아티팩트가 제1 아티팩트인 경우 상기 대상 영역은 상기 안저 이미지 중 상기 안저에 대응되는 영역의 중심으로부터 소정 거리 이격된 영역인 제1 영역으로 결정하고, 상기 아티팩트가 제2 아티팩트인 경우 상기 대상 영역은 상기 안저 이미지 중 상기 안저가 분포하는 영역인 안저 영역으로 결정하는,
    안저 이미지 관리 장치.
  34. 제33항에 있어서,
    상기 제1 아티팩트는 상기 안저 이미지의 안저 영역에 발생하는 광의 과도한 반사에 의한 브라이트 아티팩트이고, 상기 제2 아티팩트는 상기 안저 이미지의 안저 영역에 발생하는 그림자에 의한 다크 아티팩트인,
    안저 이미지 관리 장치.
  35. 제33항에 있어서,
    상기 안저 이미지 관리 장치는, 상기 안저 이미지를 회색조 변환하여 변환된 안저 이미지를 획득하는 변환부; 를 더 포함하고,
    상기 품질 판단부는 상기 변환된 안저 이미지에 기초하여 상기 안저 이미지의 품질을 판단하는
    안저 이미지 관리 장치.
  36. 제33항에 있어서,
    상기 아티팩트 픽셀 검출부는,
    상기 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 기준 픽셀 값 범위와 비교하는 비교부 및 상기 대상 영역에 포함되고 상기 기준 픽셀 값 범위에 포함되는 픽셀 값을 가지는 적어도 하나의 픽셀을 상기 아티팩트 픽셀로 결정하는 결정부를 더 포함하는
    안저 이미지 관리 장치.
  37. 제36항에 있어서,
    상기 비교부는, 상기 아티팩트가 상기 제1 아티팩트인 경우, 상기 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 제1 기준 픽셀 값과 비교하고, 아티팩트가 상기 제2 아티팩트인 경우, 상기 대상 영역에 포함되는 복수의 픽셀의 픽셀 값을 제2 기준 픽셀 값과 비교하고,
    상기 결정부는, 상기 아티팩트가 상기 제1 아티패트인 경우, 상기 대상 영역에 포함되고 상기 제1 기준 픽셀 값보다 큰 픽셀 값을 가지는 적어도 하나의 픽셀을 제1 아티팩트 픽셀로 결정하고, 상기 아티팩트가 상기 제2 아티팩트인 경우, 상기 대상 영역에 포함되고 상기 제2 기준 픽셀 값보다 작은 픽셀 값을 가지는 적어도 하나의 픽셀을 제2 아티팩트 픽셀로 결정하는
    안저 이미지 관리 장치.
  38. 제33항에 있어서,
    상기 품질 판단부는 상기 검출된 아티팩트의 양이 기준량을 초과하는지 여부를 고려하여 상기 안저 이미지의 품질을 판단하는
    안저 이미지 관리 장치.
  39. 제33항에 있어서,
    상기 품질 판단부는 상기 검출된 상기 아티팩트 픽셀의 수가 상기 안저 이미지의 전체 픽셀의 수에 대하여 기준 비율을 초과하는지 여부를 판단하고,
    상기 아티팩트 픽셀의 수가 상기 안저 이미지 전체 픽셀의 수에 대하여 상기 기준 비율을 초과하는 경우 상기 안저 이미지는 아티팩트를 포함하는 것으로 결정하는,
    안저 이미지 관리 장치.
  40. 제33항에 있어서,
    상기 안저 이미지에, 상기 품질 정보에 기초하여 생성된 품질 정보 라벨을 추가하고, 상기 안저 이미지를 상기 품질 정보 라벨에 따라 관리하는 품질 정보 관리부; 를 더 포함하는
    안저 이미지 관리 장치.
  41. 제 1 내지 25항 중 어느 하나의 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체.
PCT/KR2018/015577 2018-07-06 2018-12-07 안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법 WO2020009292A1 (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201862694901P 2018-07-06 2018-07-06
US62/694,901 2018-07-06
US201862715729P 2018-08-07 2018-08-07
US62/715,729 2018-08-07
KR1020180099370A KR102301058B1 (ko) 2018-08-24 2018-08-24 진단 보조 시스템 및 그 제어 방법
KR10-2018-0099370 2018-08-24
US201862776345P 2018-12-06 2018-12-06
US62/776,345 2018-12-06

Publications (1)

Publication Number Publication Date
WO2020009292A1 true WO2020009292A1 (ko) 2020-01-09

Family

ID=69059228

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/015577 WO2020009292A1 (ko) 2018-07-06 2018-12-07 안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법

Country Status (1)

Country Link
WO (1) WO2020009292A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021230500A1 (ko) * 2020-05-12 2021-11-18 부산대학교병원 실시간 안저사진 품질 판독을 위한 딥러닝 아키텍처 시스템
CN114820515A (zh) * 2022-04-26 2022-07-29 渭南日报社印刷厂 基于通道注意力的无参考型图像质量评价方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104762A (ja) * 2006-10-27 2008-05-08 Ge Medical Systems Global Technology Co Llc X線断層撮影装置およびアーチファクトの低減方法
JP2009502220A (ja) * 2005-07-22 2009-01-29 カール ツアイス メディテック アクチエンゲゼルシャフト 眼底を観察し、記録作成しおよび/または診断するための装置および方法
US20160166142A1 (en) * 2013-08-07 2016-06-16 Sony Corporation Image processing device and method, eye fundus image processing device, image photographing method, and eye fundus image photographing device and method
JP6076329B2 (ja) * 2011-03-30 2017-02-08 カール ツアイス メディテック アクチエンゲゼルシャフト 追跡を利用してヒト眼球の測定値を効率的に取得するためのシステムおよび方法
JP2018015189A (ja) * 2016-07-27 2018-02-01 株式会社トプコン 眼科画像処理装置及び眼科撮影装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009502220A (ja) * 2005-07-22 2009-01-29 カール ツアイス メディテック アクチエンゲゼルシャフト 眼底を観察し、記録作成しおよび/または診断するための装置および方法
JP2008104762A (ja) * 2006-10-27 2008-05-08 Ge Medical Systems Global Technology Co Llc X線断層撮影装置およびアーチファクトの低減方法
JP6076329B2 (ja) * 2011-03-30 2017-02-08 カール ツアイス メディテック アクチエンゲゼルシャフト 追跡を利用してヒト眼球の測定値を効率的に取得するためのシステムおよび方法
US20160166142A1 (en) * 2013-08-07 2016-06-16 Sony Corporation Image processing device and method, eye fundus image processing device, image photographing method, and eye fundus image photographing device and method
JP2018015189A (ja) * 2016-07-27 2018-02-01 株式会社トプコン 眼科画像処理装置及び眼科撮影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021230500A1 (ko) * 2020-05-12 2021-11-18 부산대학교병원 실시간 안저사진 품질 판독을 위한 딥러닝 아키텍처 시스템
CN114820515A (zh) * 2022-04-26 2022-07-29 渭南日报社印刷厂 基于通道注意力的无参考型图像质量评价方法

Similar Documents

Publication Publication Date Title
WO2019039912A1 (ko) 진단 보조 시스템 및 그 제어 방법
WO2019125026A1 (ko) 심혈관 질병 진단 보조 방법 및 장치
WO2022004956A1 (ko) 진단 보조 방법 및 장치
WO2018088794A2 (ko) 디바이스가 이미지를 보정하는 방법 및 그 디바이스
WO2020235966A1 (ko) 예측된 메타데이터를 이용하여 의료 영상을 처리하는 장치 및 방법
WO2018143707A1 (ko) 메이크업 평가 시스템 및 그의 동작 방법
WO2020009292A1 (ko) 안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법
WO2021132851A1 (ko) 전자 장치, 두피 케어 시스템 및 그들의 제어 방법
US8155397B2 (en) Face tracking in a camera processor
JP5228490B2 (ja) 画像解析によって欠陥検査を行う欠陥検査装置
KR20200005408A (ko) 안저 이미지 관리 장치 및 안저 이미지의 품질 판단 방법
WO2020138803A1 (ko) 영상 분석 장치 및 방법
WO2017135564A1 (ko) 전자장치, 휴대단말기 및 그 제어방법
WO2019083227A1 (en) MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING APPARATUS IMPLEMENTING THE METHOD
WO2020138564A1 (ko) 전자 장치
WO2021054518A1 (ko) 인공지능 기반 기술의 의료영상분석을 이용한 자궁경부암 진단방법, 장치 및 소프트웨어 프로그램
EP3440593A1 (en) Method and apparatus for iris recognition
WO2022145999A1 (ko) 인공지능 기반의 자궁경부암 검진 서비스 시스템
WO2020116923A1 (ko) 영상 분석 장치 및 방법
WO2023277589A1 (ko) 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
WO2022145537A1 (ko) 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템
WO2021040078A1 (ko) 렌즈 결정 방법 및 이를 이용하는 장치
WO2022182067A1 (ko) 탈모 상태 정보 제공 방법 및 장치
WO2023277622A1 (ko) 활동성 갑상선 눈병증 진료를 위한 내원 안내 방법 및 이를 수행하는 시스템
WO2023106686A1 (ko) 전자 장치의 사용을 관리하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18925109

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18925109

Country of ref document: EP

Kind code of ref document: A1