WO2019189971A1 - Artificial intelligence analysis method of iris image and retinal image to diagnose diabetes and presymptom - Google Patents

Artificial intelligence analysis method of iris image and retinal image to diagnose diabetes and presymptom Download PDF

Info

Publication number
WO2019189971A1
WO2019189971A1 PCT/KR2018/003806 KR2018003806W WO2019189971A1 WO 2019189971 A1 WO2019189971 A1 WO 2019189971A1 KR 2018003806 W KR2018003806 W KR 2018003806W WO 2019189971 A1 WO2019189971 A1 WO 2019189971A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
iris
image
diabetes
interest
Prior art date
Application number
PCT/KR2018/003806
Other languages
French (fr)
Korean (ko)
Inventor
남궁종
길용현
Original Assignee
주식회사 홍복
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 홍복 filed Critical 주식회사 홍복
Priority to PCT/KR2018/003806 priority Critical patent/WO2019189971A1/en
Publication of WO2019189971A1 publication Critical patent/WO2019189971A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a method of artificially analyzing iris images and retinal images to diagnose diabetes and prognostic symptoms, and can accurately predict diabetes and reliably predict the possibility of diabetes through iris and retinal images on a smartphone. It is about providing a service.
  • Diabetes is a type of metabolic disease, such as insufficient insulin secretion or normal functioning. It is characterized by high blood glucose, which increases the concentration of glucose in the blood, and causes many symptoms and signs and releases glucose from urine. .
  • Type 1 diabetes is a disease caused by the inability to produce insulin at all, usually occurs in children or adolescents
  • type 2 diabetes is caused by the inability to effectively burn glucose due to the insulin function that lowers blood sugar.
  • Blood glucose test is one of the most commonly used methods of diagnosing diabetes. If the fasting blood sugar (fasting blood sugar after fasting for more than 8 hours) is 126 mg / dL or more, and whether or not the measured blood sugar is 200 mg / dL or more, the diagnosis is diabetes. do.
  • the oral glucose test is performed to confirm the blood sugar level, which is not high enough to be called diabetes in the blood glucose test, but also in the normal range.
  • the test method is to perform venous blood collection without fasting for more than 8 hours.
  • the glycated hemoglobin test is an important diagnostic method for diagnosing diabetes as well as long-term glycemic control in the medical community.
  • the glycated hemoglobin test reflects the average blood glucose level, that is, the degree of blood glucose control over the last two to three months. The normal range is 4-6%, and 6.5% or more is diagnosed as diabetes. It is classified into impaired glucose tolerance, impaired fasting glucose, and diabetes mellitus according to blood glucose level.
  • the prior art has a variety of disease diagnosis services through artificial intelligence
  • the existing AI disease diagnosis service is a server-client structure, using MRI, PET, retina, etc. as a medical image for learning or diagnosis.
  • the characteristics of each disease are extracted from the convolutional neural network (CNN), and the location of the disease and which part is a problem with high accuracy.
  • CNN convolutional neural network
  • An object of the present invention is to diagnose diabetes and prognostic symptoms in a smart phone in order to solve the high cost, space constraints, discomfort that is a problem of disease diagnosis using the existing artificial neural network.
  • Diagnosing diabetes and prognostic symptoms with iris and retinal images taken with a dedicated iris authentication lens attached to the front of the smartphone has the advantage of low cost and no space limitation, while the limited hardware performance of the smartphone This can make the use of wide and deep neural networks less accurate. Therefore, even in an area where there is no network, the purpose is to provide a service for diagnosing diseases through iris and retinal imaging in a smartphone and diagnosing diabetes and prognostic symptoms with high accuracy.
  • a method of artificially analyzing an iris image and a retinal image to diagnose diabetes and prognostic symptoms may include: Obtaining; Preprocessing the captured image to extract a region of interest at the user terminal; Expanding the resolution of the extracted region of interest at the user terminal; Compressing, at the user terminal, the library for reducing the amount of data for the region of interest to be transmitted to a server; At the user terminal, performing user authentication through the iris image; Encrypting, at the user terminal, data of the iris image and the retina image to be stored in the server; Learning, at the server, an artificial neural network to perform the diagnosis of the diabetes and the prognostic symptoms based on the stored data; And predicting, in the user terminal, a probability of developing diabetes using the learned artificial neural network, and the preprocessing of the captured image includes graying out an area that is not extracted to the ROI and extracting only an ROI.
  • the method may further include estimating the type of diabetes, based on the location and
  • the step of acquiring the captured image may include the iris image and the retina using an iris authentication-dedicated lens attachable to the user terminal.
  • the method may further include extracting an image.
  • a method of artificially analyzing an iris image and a retina image may include: preprocessing the captured image, extracting a region of interest including an iris region and a retina region from the captured image; Setting an axis for obtaining rotation rates of the iris region and the retinal region in the region of interest; Extracting only the iris region and the retina region from the region of interest; And repositioning the iris region and the retinal region based on the rotation rate.
  • a method of analyzing an iris image and a retinal image by artificial intelligence may further include setting the axis to set an axis for obtaining the rotation rate after performing eyelid segmentation. Repositioning the iris region and the retinal region is performed such that when the iris region and the retinal region are inclined with respect to the vertical direction, the iris region and the retinal region are 0 ° with respect to the vertical direction using the rotation rate. It characterized in that it further comprises the step of repositioning by rotation and interpolation to be.
  • the step of expanding the resolution may include: dividing the ROI into a specific patch size, Applying a convolutional neural network to further extend the resolution of the region of interest to a predetermined resolution, and before the convolutional neural network is applied, zero padding is added and the convolutional neural network is applied.
  • a dense block for re-learning the features of the previous step is used, and a skip connection is applied.
  • a method of artificially analyzing an iris image and a retinal image may include: learning the artificial neural network, storing the data of the iris image and the retinal image in a database; Learning on the stored data using the artificial neural network to perform parallel classification, detection and segmentation for diagnosing the diabetes or prognostic symptoms;
  • the artificial neural network includes a factorization method, a detachable convolution method, and a pointwise convolution method, classifying the data of the iris image and the retinal image, Extracting a feature map for the data; Extracting a region of interest corresponding to a predetermined anchor box by applying a region proposal network (RPN) to the feature map; Applying pooling to the learned region to convert regions of different sizes into regions of the same size; And classifying, detecting, and dividing a region corresponding to the diabetic or the prognostic symptoms based on the same size region.
  • RPN region proposal network
  • the step of predicting the occurrence of diabetes mellitus by applying the artificial neural network to the data of the iris image and the retinal image And predicting the probability of developing diabetes from the prognostic symptoms.
  • the user's terminal after predicting the probability of diabetes, the user's terminal, the individual constitution diagnosis service, complication diagnosis service and eating habits management service It characterized in that it further comprises the step of providing.
  • the server-client method Helps diagnose diabetes and prognostic symptoms in older areas where networks are not connected.
  • FIG. 1 is a conceptual diagram showing an entire system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a method of artificially analyzing an iris image and a retinal image to diagnose diabetes and prognostic symptoms according to an embodiment of the present invention.
  • FIG. 3 is a conceptual diagram of diabetes and prognostic symptoms AI diagnosis service through iris and retinal image on a smart phone according to an embodiment of the present invention.
  • FIG. 4 is a system configuration diagram of diabetes and prognostic symptoms artificial intelligence diagnosis service through iris and retinal image on a smart phone according to an embodiment of the present invention.
  • FIG. 5 is a schematic block diagram of an Image Super Resolution artificial intelligence neural network for raising the iris and retinal image shown in FIG. 3 from the low resolution to the high resolution.
  • FIG. 6 is a block diagram of a database structure for storing data in the neural network learning unit shown in FIG. 3 of the present invention.
  • FIG. 7 is a schematic block diagram of the artificial intelligence based disease diagnosis neural network shown in FIG. 4 of the present invention.
  • FIG. 8 is an additional service configuration diagram in addition to diabetes and prognostic symptoms diagnosis service in the service unit shown in FIG. 4 of the present invention.
  • FIG. 9 is a schematic diagram of an encryption method for storing data of an iris and retina image data encryption module in the security unit shown in FIG. 4 of the present invention.
  • ... unit described in the specification means a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software.
  • “a” or “an”, “one”, and the like shall be, in the context of describing the present invention, both singular and plural unless the context clearly dictates otherwise or is clearly contradicted by the context. It can be used as a meaning including.
  • FIG. 1 is a conceptual diagram showing an entire system according to an embodiment of the present invention.
  • the user terminal may be an electronic device including a smart phone, a tablet PC, a laptop, and the like.
  • the user terminal may include a camera, and the camera may include an iris authentication dedicated camera or an iris authentication dedicated lens may be attached to the camera. Therefore, when the user's eye is photographed using the user terminal, a high resolution screen or image may be secured for a specific area including the iris and the retina.
  • the captured image obtained by photographing the eyes of the user through the user terminal may be used to predict and diagnose diabetes and prognostic symptoms.
  • FIG. 2 is a flowchart illustrating a method of artificially analyzing an iris image and a retinal image to diagnose diabetes and prognostic symptoms according to an embodiment of the present invention.
  • a user terminal acquires an image captured by a user's eyes.
  • the user terminal may preprocess the captured image to extract a region of interest.
  • a region of interest for example, an area that is not extracted from the region of interest is an unnecessary region, and thus a gray process is performed to extract only the region of interest, thereby reducing the amount of computation when diagnosing diabetes and prognostic symptoms from the image. More accurate diagnosis can be made.
  • the resolution of the extracted region of interest is expanded (S13), and the user terminal is compressed using a library for reducing the amount of data for the region of interest to be transmitted to the server (S14).
  • step S15 user authentication is performed through the iris image, and at the user terminal, data of the iris image and the retinal image to be stored in the server is encrypted (S16).
  • the artificial neural network to be diagnosed may be learned (S17), and the user terminal may predict the onset probability of diabetes using the learned artificial neural network (S18).
  • the type of diabetes can also be predicted based on the position and shape of the lesion area or the like in the region of interest.
  • Diabetes may be classified into type 1 diabetes, type 2 diabetes, and the like according to insulin function, or may be classified into impaired glucose tolerance and impaired fasting glucose according to blood glucose levels.
  • impaired glucose tolerance and impaired fasting glucose According to blood glucose levels.
  • Figure 3 shows a conceptual diagram of a diabetic and prognostic symptoms AI diagnosis service through iris and retinal image on a smart phone according to an embodiment of the present invention.
  • the diabetic and prognostic symptoms AI diagnosis service 100 through the iris and the retinal image on the smart phone includes an image capturing unit 101, an image preprocessing unit 102, and a neural network.
  • the learning unit 103 is provided through the disease diagnosis unit 104.
  • the image capturing unit 101 captures an eye image through a smartphone, and photographs using an iris authentication-dedicated lens that can be attached to the front of the smartphone, and acquires a captured image (S11). While cameras built into existing smartphones can capture eye images, iris-certified lenses use short-focus lenses and infrared LEDs to capture clear iris and retinal images with less impact on the environment. The sharper and less affected the light is, the better it is for iris recognition and diabetic and diagnosing AI symptoms. The captured image may be different for each iris color.
  • the image preprocessing unit 102 may extract only the iris and retinal regions necessary for diagnosing a disease from the captured eye image.
  • the region of interest refers to the minimum region necessary for extracting the iris and the retina.
  • the reason for extracting the region of interest is that the amount of computation for the extraction and relocation of the iris and retina can be reduced.
  • the grayed image connect the edges of the both ends of the eyelids with a line, and then set the axis, and set the axis's rotation rate based on 0 degree, and then rotate and interpolate the extracted iris and retinal images by the rotation rate. Relocate through the back.
  • the reason for relocating the iris and retinal images is that the location of lesions such as tears, pigmentation, and cockroaches is important information for diagnosing diabetic prognostic symptoms through iris and retinal imaging. Since it means that there is a problem with a specific organ according to the location, the iris and retinal images may be rearranged based on 0 ° to determine accurate prognostic symptoms (S12).
  • the artificial neural network converting the low resolution to the high resolution may be converted to the high resolution (S13).
  • Artificial neural networks that convert low resolution to high resolution can separate iris and retinal images into a specific patch size and then expand the resolution through a convolutional neural network (CNN). Since the original image is expanded by a specific patch unit, the image can be restored by merging the output images.
  • the neural network that converts the low resolution into high resolution uses a dense block to enhance and reuse the feature propagation of the previous stage and extracts the input image to learn more about the boundary of the image. You can use the Skip Connection to connect to the previous video.
  • the neural network learning unit 103 is composed of a database storing iris and retinal image data and a neural network model learning from the stored data.
  • a database storing iris and retinal image data and a neural network model learning from the stored data.
  • the information to be stored in the database must be stored encrypted with bio information, unique identification information (resident registration number, passport number, driver's license number, alien registration number) and password corresponding to personal information according to the Personal Information Protection Act. Since the iris and retinal image data correspond to bioinformation, the iris and retinal image data should be stored after encryption (S16). Encryption methods for storing data include application self-encryption, DB server encryption, DBMS self-encryption, DBMS encryption function call, and operating system encryption.
  • DB encryption method should be selected in consideration of constraints.
  • the encryption key uses a code value extracted from iris and retinal image data, encrypts it using the encryption key, and stores it in a database.
  • the artificial intelligence neural network for diagnosing diabetes and prognostic symptoms can be learned (S17). Diagnosis of Diabetes and Prognostic Symptoms through Iris and Retinal Imaging
  • the AI neural network should be trained to be classified, detected, or segmented for diabetic precursor symptoms. Therefore, this artificial intelligence neural network can pre-train the neural network part that classifies the precursor symptoms for more accurate classification in learning.
  • the artificial neural network used for the classification part takes up a large part of the entire neural network, this part is made as lightweight as possible so that it can be performed smoothly on mobile.
  • There are many ways to lighten the AI neural network For example, multiplying a large filter size of 5 x 5 into 3 x 3 and small filters of 3 x 3 and performing a multiplication can reduce the factorization by 20-30% of the computation performed by the existing large filter.
  • the conventional convolution layer learns filters in horizontal-vertical (two-dimensional) and channels (one-dimensional), and each filter simultaneously requires mapping and spatial correlation.
  • Depthwise Separable Convolution method which reduces the amount of computation by 1 / N + 1 / D_K compared to the conventional convolution, by processing the inter-channel and spatial correlation separately Instead of dealing with spatial correlation in the conventional convolution layer, only the correlation between channels is used to increase or decrease the dimension of the output feature map.
  • Using a combination of pointwise convolution methods to reduce the artificial intelligence neural network After performing pre-training on the classification part, we can learn to find the location of the bounding box of the probable part with the extracted feature map. Since the extracted bounding boxes are different sizes, ROI pooling is performed to fit a certain size, and the classification of diabetic prognostic symptoms is carried out through a convolutional neural network (CNN). Can learn / Detection / Segmentation. For classes that are not prognostic symptoms, students learn to penalize penalties for more accurate classification, detection, and segmentation.
  • CNN convolutional neural network
  • the disease diagnosis unit 104 may diagnose diabetes by detecting diabetes mellitus and prognostic symptoms using the iris and retinal images preprocessed with the artificial intelligence neural network learned by the neural network learning unit 103 (S18).
  • FIG. 4 is a system configuration diagram of diabetes and prognostic symptoms artificial intelligence diagnosis service through iris and retinal image on a smart phone according to an embodiment of the present invention.
  • the diabetic and prognostic symptoms AI diagnosis system 200 through the iris and the retina image on the smart phone is a user unit 201, platform unit 202, security unit 203 ), A service unit 204, a data server unit 205, and a neural network learning server unit 206.
  • the user unit 201 may be an individual or a hospital and may be an institution that desires diagnostic services through the iris and retina.
  • the platform unit 202 may be Android, IOS, WINDOWS, etc., because it must be serviced on the mobile.
  • the security unit 203 may be divided into a part for authenticating a person with an iris recognition module and a part for encrypting iris and retinal image data in order to receive diabetic and prognostic symptom diagnosis services through iris and retinal images.
  • the service unit 204 is capable of diagnosing diabetes and prognostic symptoms through the learned AI-based disease diagnosis neural network, individual constitution diagnosis service comparing the iris constitution features with collected iris data, and probable occurrences based on the extracted prognostic symptoms. Complications diagnostic services, and personalized eating habits management services through the diagnosis of constitution and prognostic symptoms.
  • the data server unit 205 may store iris and retinal image data necessary for the AI neural network to learn.
  • the neural network learning server unit 206 may learn the artificial intelligence neural network through the stored iris and retinal image data.
  • FIG. 5 is a schematic block diagram of an Image Super Resolution artificial intelligence neural network 300 that raises the iris and retinal images shown in FIG. 3 from low resolution to high resolution. If the iris and retinal images have low resolution, there is less data to refer to when diagnosing a disease, so the accuracy of the iris and retinal images is relatively low. Therefore, it is necessary to raise the low resolution iris and retinal images to high resolution.
  • the low resolution iris and retinal images coming into the input are divided into a specific patch size, and the divided images are input as inputs and the reconstructed output image is extracted through a multiplication neural network.
  • the use of a generalized composite neural network reduces the size of the output feature map, making it impossible to make full use of information about pixels near the image boundary.
  • FIG. 6 is a block diagram illustrating a structure of a database 400 for storing iris and retinal image data in the neural network learning unit illustrated in FIG. 3 of the present invention.
  • server processes in the database can be allocated to process the SQL.
  • the server process uses the handler to find the handlers in the library cache that contain information about the SQL. If the handler exists, the server parses the SQL statement. Hard Parsing) procedure.
  • Hard parsing includes syntax checking (SQL spelling and SQL grammar checking), semantic checking (table / column existence), query transformation (optimizer rewrites SQL for better performance), authorization checking, and DML (Data) During Manipulation Language), lock type check, execution plan, parsing tree creation, and log record (LOG record generated during DML) are processed. Data is stored in a specific block in the data buffer cache, and when a commit is performed, the data of the block is written to the data file. Through this process, iris and retinal image data can be stored in a database.
  • the AI-based disease diagnosis neural network shown in FIG. 4 of the present invention is composed of a disease classification unit 501 and a disease location detection unit 502, and the disease classification unit 501 is a diabetic precursor symptom (pancreas) from iris and retinal images.
  • a multiplicative neural network can be used to classify site lesions, triglycerides, stress rings, etc.).
  • the disease location detection unit 502 may extract the features for the prognostic symptoms while passing through the composite product neural network of the disease classification unit 501 and process the feature map output from the last output layer.
  • the disease location detecting unit 502 may detect and segment the precursor symptom site based on a feature map from the disease classification unit 501.
  • the region is subjected to a Region Proposal Network (RPN).
  • RPN Region Proposal Network
  • the region of interest is extracted according to a predetermined anchor box.
  • the region of interest may represent a detection region for prognostic symptoms in the iris and retinal images. Since the extracted regions of interest differ in size, they cannot be used in convolutional neural networks that require performance at a fixed size. Therefore, ROIs of different sizes are converted into the same size through the ROI pooling layer.
  • the precursor symptom classification / detection / division of the corresponding region of interest may be performed in parallel to output to the iris and retinal images which precursor symptoms are detected at which positions. Based on the prognostic symptoms in the iris and retina of a person with diabetes, the predicted outcome of the neural network can be predicted.
  • FIG. 8 is an additional service configuration diagram in addition to diabetes and prognostic symptoms diagnosis service in the service unit shown in FIG. 4 of the present invention.
  • the additional service includes an image capturing unit 601, a data server unit 602, a constitution diagnosis unit 603, a disease diagnosis unit 604, a complication diagnosis unit 605, and a eating habit management unit 606. It can be provided using.
  • the image capturing unit 601 may allow the user to photograph the iris and the retina using an iris authentication dedicated lens attached to the front of the smartphone.
  • the data server unit 602 may encrypt and store the photographed iris and retina image data.
  • the constitution diagnosis unit 603 may perform constitution diagnosis by the sun person, Taein person, Soyangin person, and the noise person in comparison with the iris constitution property from the personal iris and retinal image data stored in the database server.
  • the disease diagnosis unit 604 may diagnose diabetes and prognostic symptoms using the captured iris and retinal image data.
  • the complication diagnosis unit 605 may diagnose complications associated with the prognostic symptoms from the disease diagnosis unit 604.
  • the eating habit management unit 606 may provide a personalized diet based on the constitution diagnosed by the constitution diagnosis unit 603 (sun person, Taein person, Soyangin person, and noise person) and the prognostic symptoms diagnosed by the disease diagnosis unit 604.
  • Encryption methods for storing data include application program encryption 701, DB server encryption 702, DBMS self encryption 703, DBMS encryption function call 704, and operating system encryption 705.
  • Application self-encryption (701) is a method in which the encryption / decryption module is installed in each application server in the form of API library to call the encryption / decryption module within the application, but it does not affect the DB server. Modifications may be necessary.
  • DB server encryption 702 is easy to implement because the encryption / decryption module is installed on the DB server and calls the encryption / decryption module connected to the plug-in from the DBMS. Therefore, it is necessary to create a view corresponding to the existing DB schema and add a table to encrypt, and there may be a load on the DB server.
  • the DBMS self encryption (703) is processed at the DBMS kernel level by performing encryption / decryption processing using the encryption function built in the DBMS, so that modification of the existing application or modification of the DB schema is rarely required. Load can occur.
  • the DBMS encryption function call 704 provides an API for the DBMS to perform its own encryption / decryption function, and the application needs to be modified in such a way that the application executes to use the function, and the DB server may be overloaded. have.
  • the operating system encryption 705 is an encryption / decryption method using input / output system calls generated by the OS, but does not require modification of an application program or a DB schema, but may cause a load on the file server and the DB server to encrypt the entire DB file.
  • the present invention accumulates big data indicating the possibility of diabetes and the degree of diabetes progression according to the position and shape of the lesion area associated with diabetes mellitus, and based on the big data, Learning and determining the possibility of diabetes mellitus and the progression of diabetes mellitus, and according to the possibility of diabetes mellitus and the degree of diabetes mellitus, an additional test including a blood glucose test, an oral glucose load test and a glycated hemoglobin (HbA1c) test is required. Notification can be made in real time. In addition, even when the degree of diabetes progressed exponentially in recent years, the progress of the diabetes may be notified in real time through the user terminal.
  • the real time notification through the user terminal may be configured as a pop-up or push alarm.
  • the above-described method may be written as a program executable on a computer, and may be implemented in a general-purpose digital computer which operates the program using a computer readable medium.
  • the structure of the data used in the above-described method can be recorded on the computer-readable medium through various means.
  • Computer-readable media that store executable computer code for carrying out the various methods of the present invention include, but are not limited to, magnetic storage media (eg, ROM, floppy disks, hard disks, etc.), optical reading media (eg, CD-ROMs, DVDs). Storage media).

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Security & Cryptography (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioethics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

An artificial intelligence analysis method of an iris image and a retinal image to diagnose diabetes and presymptom on a smartphone according to an embodiment of the present invention comprises the steps of: acquiring a captured image of a user's eye by a user terminal; pre-processing, by the user terminal, the captured image to extract a region of interest; expanding, by the user terminal, the resolution of the extracted region of interest; compressing, using a library for reducing the amount of data, the region of interest to be transmitted to a server, by the user terminal; performing, by the user terminal, user authentication on the iris image; encrypting data of the iris image and the retina image to be stored in the server by the user terminal; learning, by the server, an artificial neural network to diagnose the diabetes and the presymptom on the basis of the stored data; and predicting a risk of developing diabetes using the learned artificial neural network by the user terminal, wherein the step of pre-processing the captured image further comprises a step of gray-processing an area not extracted as the region of interest of the captured image to extract only the region of interest, and the step of predicting the risk of developing diabetes further comprises a step of predicting the type of diabetes on the basis of the position and shape of a lesion area.

Description

당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법How to artificially analyze iris and retinal images to diagnose diabetes and prognostic symptoms
본 발명은 당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법에 관한 것으로서, 스마트 폰 상에서 홍채 및 망막 영상을 통해 당뇨병을 정확하게 진단하고 당뇨가 걸릴 가능성을 신뢰성 있게 예측할 수 있는 서비스를 제공하는 것에 관한 것이다.The present invention relates to a method of artificially analyzing iris images and retinal images to diagnose diabetes and prognostic symptoms, and can accurately predict diabetes and reliably predict the possibility of diabetes through iris and retinal images on a smartphone. It is about providing a service.
당뇨병은 인슐린의 분비량이 부족하거나 정상적인 기능이 이루어지지 않는 등의 대사 질환의 일종으로, 혈중 포도당의 농도가 높아지는 고혈당을 특징으로 하며, 고혈당으로 인하여 여러 증상 및 징후를 일으키고 소변에서 포도당을 배출하게 된다. Diabetes is a type of metabolic disease, such as insufficient insulin secretion or normal functioning. It is characterized by high blood glucose, which increases the concentration of glucose in the blood, and causes many symptoms and signs and releases glucose from urine. .
당뇨병은 제 1형 당뇨병과 제 2형 당뇨병으로 분류된다. 제 1형 당뇨병은 인슐린을 전혀 생산하지 못하는 것이 원인이 되어 발생하는 질환으로 대개 어린이나 청소년에게 발생하고, 제 2형 당뇨병은 혈당을 낮추는 인슐린 기능이 떨어져 세포가 포도당을 효과적으로 연소하지 못해 발생한다. Diabetes is classified into type 1 diabetes and type 2 diabetes. Type 1 diabetes is a disease caused by the inability to produce insulin at all, usually occurs in children or adolescents, type 2 diabetes is caused by the inability to effectively burn glucose due to the insulin function that lowers blood sugar.
종래의 당뇨병 진단은 3 가지 정도의 진단 검사를 통해 중증도를 평가한다. 혈당검사, 경구 당 부하 검사, 당화혈색소(HbA1c) 검사가 있다. 혈당 검사는 당뇨병의 진단방법 중 대표적으로 사용되는 검사법으로 공복 혈당(8시간 이상 금식 후 검사한 혈당)이 126mg/dL 이상일 경우와 식사 여부에 관계없이 측정한 혈당이 200mg/dL 이상일 경우 당뇨병으로 진단한다. 경구 당 부하 검사는 혈당 검사에서 당뇨병이라고 할 만큼 혈당 수치가 높지는 않으나 정상 범위 또한 아닌 경우 확진을 위해 수행하게 되는데, 검사 방법은 8시간 이상 음식을 섭취하지 않은 공복 상태에서 먼저 정맥 채혈을 시행 한 뒤 75g의 경구용 포도당을 물 300ml 에 섞어서 마신 후 30분 뒤, 60분 뒤, 120분 뒤에 각각 채혈검사를 시행한 후 기준치와 비교하여 2시간 뒤의 혈당 수치가 200mg/dL 인 경우 당뇨병으로 진단한다. 당화혈색소 검사는 최근 의학계에서 당뇨병의 진단 기준은 물론이고 장기적인 혈당 조절의 평가 지표로도 중요하게 이용되고 있는 검사법으로, 최근 2~3개월 동안의 혈당 평균치, 즉 혈당 조절의 정도를 반영한다. 정상 범위는 4~6% 이며, 6.5% 이상이면 당뇨병으로 진단한다. 혈당 정도에 따라 내당능장애, 공복혈당장애, 당뇨병으로 분류한다.Conventional diabetes diagnosis evaluates the severity through three diagnostic tests. Blood glucose test, oral glucose load test, glycated hemoglobin (HbA1c) test. Blood glucose test is one of the most commonly used methods of diagnosing diabetes. If the fasting blood sugar (fasting blood sugar after fasting for more than 8 hours) is 126 mg / dL or more, and whether or not the measured blood sugar is 200 mg / dL or more, the diagnosis is diabetes. do. The oral glucose test is performed to confirm the blood sugar level, which is not high enough to be called diabetes in the blood glucose test, but also in the normal range. The test method is to perform venous blood collection without fasting for more than 8 hours. After 75g of oral glucose was mixed with 300ml of water, 30 minutes later, 60 minutes later, and 120 minutes later, blood collection was done. After 2 hours, the blood glucose level was 200mg / dL. do. The glycated hemoglobin test is an important diagnostic method for diagnosing diabetes as well as long-term glycemic control in the medical community. The glycated hemoglobin test reflects the average blood glucose level, that is, the degree of blood glucose control over the last two to three months. The normal range is 4-6%, and 6.5% or more is diagnosed as diabetes. It is classified into impaired glucose tolerance, impaired fasting glucose, and diabetes mellitus according to blood glucose level.
한편 종래 기술로는 인공지능을 통한 각종 질병 진단 서비스가 있는데 기존의 인공지능 질병 진단 서비스는 서버-클라이언트 구조이고, 학습 또는 진단을 위한 의료 영상으로 MRI, PET, 망막 등을 사용한다. 영상으로부터 각 질병에 대한 특징을 합성곱 신경망(CNN: Convolution Neural Network)에서 추출하고 높은 정확도를 가지고 어떤 병인지 어느 부분이 문제인지 위치도 찾아낸다. On the other hand, the prior art has a variety of disease diagnosis services through artificial intelligence, the existing AI disease diagnosis service is a server-client structure, using MRI, PET, retina, etc. as a medical image for learning or diagnosis. The characteristics of each disease are extracted from the convolutional neural network (CNN), and the location of the disease and which part is a problem with high accuracy.
전술한 종래 기술들은 높은 정확도로 질병을 구분해 내지만, 영상(MRI, PET, 망막 등) 획득을 위해 병원은 고가의 장비를 사용해야하고 개인은 영상 촬영을 위해 직접 병원으로 찾아가 고비용의 영상 촬영 비용을 지불해야 한다. 그리고 서버-클라이언트 기반이다 보니 아프리카와 같은 낙후된 지역에서는 의료시설 부족 및 의료진 부족으로 인해 사용하기 어렵다는 문제점을 가지고 있다. 현재 당뇨병 환자의 75%가 개발도상국에 거주하는 사람들이므로 저가로 제공되면서 복잡한 의료 시설을 요하지 않는 당뇨 진단 방식이 나온다면 많은 수의 당뇨병 환자들을 예방할 수 있을 것이다.The above-described conventional techniques distinguish diseases with high accuracy, but hospitals must use expensive equipment to acquire images (MRI, PET, retina, etc.), and individuals go directly to the hospital for imaging, and high cost of imaging You have to pay And since it is server-client based, it has a problem that it is difficult to use due to the lack of medical facilities and the lack of medical staff in underdeveloped areas such as Africa. Since 75% of diabetics live in developing countries, a number of diabetics will be prevented if a low-cost, diabetic diagnosis is available that does not require complex medical facilities.
따라서, 어느 곳에서든지 개인이 의료진의 도움 없이 간편하게 당뇨병 및 전조 증상 진단 서비스를 받을 수 있고 저가이면서 정확한 진단 서비스에 대한 필요성이 있다.Therefore, there is a need for low-cost and accurate diagnosis services wherever an individual can easily receive diabetes and prognostic symptoms diagnosis services without the help of medical staff.
본 발명의 목적은, 기존 인공 신경망을 이용한 질병 진단의 문제점인 고비용, 공간 제약, 불편함을 해결하기 위해, 스마트 폰 내에서 당뇨병 및 전조 증상을 진단하는 것이다. 스마트 폰 전면에 부착된 홍채 인증 전용 렌즈로 촬영한 홍채 및 망막 영상으로 당뇨병 및 전조 증상을 진단하면 저비용에 공간 제약도 없고 편리하게 사용할 수 있는 장점이 있는 반면에, 스마트 폰의 제한적인 하드웨어 성능으로 인해 넓고 깊은 신경망을 사용할 수 없어 정확도가 떨어질 수 있다. 따라서, 네트워크가 되지 않는 지역에서도 스마트 폰 내에서 홍채 및 망막 영상을 통한 질병 진단을 수행하고 높은 정확도로 당뇨병 및 전조 증상을 진단하는 서비스를 제공하는 것을 목적으로 한다.An object of the present invention is to diagnose diabetes and prognostic symptoms in a smart phone in order to solve the high cost, space constraints, discomfort that is a problem of disease diagnosis using the existing artificial neural network. Diagnosing diabetes and prognostic symptoms with iris and retinal images taken with a dedicated iris authentication lens attached to the front of the smartphone has the advantage of low cost and no space limitation, while the limited hardware performance of the smartphone This can make the use of wide and deep neural networks less accurate. Therefore, even in an area where there is no network, the purpose is to provide a service for diagnosing diseases through iris and retinal imaging in a smartphone and diagnosing diabetes and prognostic symptoms with high accuracy.
본 발명에서 이루고자 하는 기술적 과제들은 상기 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved in the present invention are not limited to the above technical problems, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 문제점을 해결하기 위한 본 발명의 일실시예에 따른 당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 사용자 단말에서, 사용자의 눈을 촬영한 촬상 영상을 획득하는 단계; 상기 사용자 단말에서, 관심 영역(Region of Interest)을 추출하기 위해 상기 촬상 영상을 전처리하는 단계; 상기 사용자 단말에서, 추출된 상기 관심 영역의 해상도를 확장시키는 단계; 상기 사용자 단말에서, 서버로 전송될 상기 관심 영역에 대해, 데이터량을 감소시키기 위한 라이브러리를 이용하여 압축하는 단계; 상기 사용자 단말에서, 상기 홍채 영상을 통해 사용자 인증을 수행하는 단계; 상기 사용자 단말에서, 상기 서버에 저장될 상기 홍채 영상 및 상기 망막 영상의 데이터를 암호화하는 단계; 상기 서버에서, 저장된 상기 데이터에 기초하여 상기 당뇨병 및 상기 전조 증상의 진단을 수행할 인공 신경망을 학습하는 단계; 및 상기 사용자 단말에서, 학습된 상기 인공 신경망을 이용하여 당뇨병 발병 확률을 예측하는 단계를 포함하고, 상기 촬상 영상을 전처리하는 단계는, 상기 관심 영역으로 추출되지 않은 영역은 그레이처리해서 관심 영역만 추출하는 단계를 더 포함하고, 상기 당뇨병 발병 확률을 예측하는 단계는, 상기 관심 영역 내의 병변의 위치 및 형상에 기초하여, 당뇨병의 종류를 예측하는 단계를 더 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, a method of artificially analyzing an iris image and a retinal image to diagnose diabetes and prognostic symptoms according to an embodiment of the present invention may include: Obtaining; Preprocessing the captured image to extract a region of interest at the user terminal; Expanding the resolution of the extracted region of interest at the user terminal; Compressing, at the user terminal, the library for reducing the amount of data for the region of interest to be transmitted to a server; At the user terminal, performing user authentication through the iris image; Encrypting, at the user terminal, data of the iris image and the retina image to be stored in the server; Learning, at the server, an artificial neural network to perform the diagnosis of the diabetes and the prognostic symptoms based on the stored data; And predicting, in the user terminal, a probability of developing diabetes using the learned artificial neural network, and the preprocessing of the captured image includes graying out an area that is not extracted to the ROI and extracting only an ROI. The method may further include estimating the type of diabetes, based on the location and shape of the lesion in the ROI.
본 발명의 일실시예에 따른 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 상기 촬상 영상을 획득하는 단계가, 상기 사용자 단말에 부착 가능한 홍채 인증 전용 렌즈를 이용하여, 상기 홍채 영상 및 망막 영상을 추출하는 단계를 더 포함하는 것을 특징으로 한다.In the method of artificially analyzing the iris image and the retina image according to an embodiment of the present invention, the step of acquiring the captured image may include the iris image and the retina using an iris authentication-dedicated lens attachable to the user terminal. The method may further include extracting an image.
본 발명의 일실시예에 따른 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 상기 촬상 영상을 전처리하는 단계가, 상기 촬상 영상으로부터 홍채 영역 및 망막 영역을 포함하는 관심 영역을 추출하는 단계; 상기 관심 영역에서 상기 홍채 영역 및 상기 망막 영역의 회전율을 구하기 위한 축을 설정하는 단계; 상기 관심 영역에서 상기 홍채 영역 및 상기 망막 영역만 추출하는 단계; 및 상기 회전율에 기초하여, 상기 홍채 영역 및 상기 망막 영역을 재배치하는 단계를 더 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, a method of artificially analyzing an iris image and a retina image may include: preprocessing the captured image, extracting a region of interest including an iris region and a retina region from the captured image; Setting an axis for obtaining rotation rates of the iris region and the retinal region in the region of interest; Extracting only the iris region and the retina region from the region of interest; And repositioning the iris region and the retinal region based on the rotation rate.
본 발명의 일실시예에 따른 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 상기 축을 설정하는 단계가, 눈꺼풀 분할(Segmentation) 수행 후 상기 회전율을 구하기 위한 축을 설정하는 단계를 더 포함하고, 상기 홍채 영역 및 상기 망막 영역을 재배치하는 단계가, 상기 홍채 영역 및 상기 망막 영역이 수직 방향에 대해 기울어져 있는 경우, 상기 회전율을 이용하여 상기 홍채 영역 및 상기 망막 영역을 상기 수직 방향에 대해 0°가 되도록 회전 및 보간법을 통해 재배치하는 단계를 더 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, a method of analyzing an iris image and a retinal image by artificial intelligence may further include setting the axis to set an axis for obtaining the rotation rate after performing eyelid segmentation. Repositioning the iris region and the retinal region is performed such that when the iris region and the retinal region are inclined with respect to the vertical direction, the iris region and the retinal region are 0 ° with respect to the vertical direction using the rotation rate. It characterized in that it further comprises the step of repositioning by rotation and interpolation to be.
본 발명의 일실시예에 따른 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 상기 해상도를 확장시키는 단계가, 상기 관심 영역을 특정 패치(Patch) 크기로 분할한 후, 분할한 영상에 대해 합성곱 신경망을 적용하여, 상기 관심 영역의 해상도를 미리 설정된 해상도로 확장시키는 단계를 더 포함하고, 상기 합성곱 신경망이 적용되기 전에, 제로 패딩(Zero padding)이 추가되고, 상기 합성곱 신경망이 적용될 때, 이전 단계의 특징들을 재학습하기 위한 고 밀도 블록(Dense Block)이 사용되며, 스킵 연결(Skip Connection)이 적용되는 것을 특징으로 한다.In the method of artificially analyzing the iris image and the retinal image according to an embodiment of the present invention, the step of expanding the resolution may include: dividing the ROI into a specific patch size, Applying a convolutional neural network to further extend the resolution of the region of interest to a predetermined resolution, and before the convolutional neural network is applied, zero padding is added and the convolutional neural network is applied. In this case, a dense block for re-learning the features of the previous step is used, and a skip connection is applied.
본 발명의 일실시예에 따른 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 상기 암호화하는 단계가, 상기 서버에 저장될 상기 홍채 영상 및 상기 망막 영상의 상기 데이터로부터 추출된 코드 값을 암호화 키로 사용하여 암호화하는 단계를 더 포함하는 것을 특징으로 한다.In the method of artificially analyzing the iris image and the retina image according to an embodiment of the present invention, the step of encrypting, encrypting the code value extracted from the data of the iris image and the retina image to be stored in the server And encrypting using the key.
본 발명의 일실시예에 따른 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 상기 인공 신경망을 학습하는 단계가, 상기 홍채 영상 및 상기 망막 영상의 상기 데이터를 데이터베이스에 저장하는 단계; 저장된 상기 데이터에 대해, 상기 당뇨병 또는 상기 전조 증상의 진단을 위한 분류, 검출 및 분할을 병렬적으로 수행하도록 상기 인공 신경망을 이용하여 학습하는 단계; 상기 인공 신경망은 인수분해(Factorization) 방법, 분리가능한 컨볼루션(Depthwise Separable Convolution) 방법 및 포인트와이즈 컨볼루션(Pointwise Convolution) 방법을 포함하고, 상기 홍채 영상 및 상기 망막 영상의 상기 데이터를 분류하여, 상기 데이터에 대한 특징 맵(Feature Map)을 추출하는 단계; 상기 특징 맵에 대해 RPN(Region Proposal Network)을 적용하여, 미리 정해진 앵커 박스(Anchor Box)에 대응하는 관심 영역을 추출하는 단계; 상기 학습된 영역에 대해 풀링(Pooling)을 적용하여, 상이한 크기의 영역을 동일한 크기의 영역으로 변환시키는 단계; 및 상기 동일한 크기의 영역에 기초하여 상기 당뇨병 또는 상기 전조 증상에 해당하는 부위를 분류, 검출 및 분할하는 단계를 더 포함하는 것을 특징으로 한다.According to an embodiment of the present disclosure, a method of artificially analyzing an iris image and a retinal image may include: learning the artificial neural network, storing the data of the iris image and the retinal image in a database; Learning on the stored data using the artificial neural network to perform parallel classification, detection and segmentation for diagnosing the diabetes or prognostic symptoms; The artificial neural network includes a factorization method, a detachable convolution method, and a pointwise convolution method, classifying the data of the iris image and the retinal image, Extracting a feature map for the data; Extracting a region of interest corresponding to a predetermined anchor box by applying a region proposal network (RPN) to the feature map; Applying pooling to the learned region to convert regions of different sizes into regions of the same size; And classifying, detecting, and dividing a region corresponding to the diabetic or the prognostic symptoms based on the same size region.
본 발명의 일실시예에 따른 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 상기 당뇨병 발병 확률을 예측하는 단계가, 상기 홍채 영상 및 상기 망막 영상의 상기 데이터에 대해 상기 인공 신경망을 적용하여, 상기 전조 증상으로부터 상기 당뇨병 발병 확률을 예측하는 단계를 더 포함하는 것을 특징으로 한다.In the method of artificially analyzing the iris image and the retinal image according to an embodiment of the present invention, the step of predicting the occurrence of diabetes mellitus, by applying the artificial neural network to the data of the iris image and the retinal image And predicting the probability of developing diabetes from the prognostic symptoms.
본 발명의 일실시예에 따른 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법은, 상기 당뇨병 발병 확률을 예측하는 단계 이후에, 상기 사용자 단말에서, 개인별 체질 진단 서비스, 합병증 진단 서비스 및 식습관 관리 서비스를 제공하는 단계를 더 포함하는 것을 특징으로 한다.In the method of artificially analyzing the iris image and the retinal image according to an embodiment of the present invention, after predicting the probability of diabetes, the user's terminal, the individual constitution diagnosis service, complication diagnosis service and eating habits management service It characterized in that it further comprises the step of providing.
상기와 같은 본 발명에 따르면 아래에 기재된 효과를 얻을 수 있다. 다만, 본 발명을 통해 얻을 수 있는 효과는 이에 제한되지 않는다.According to the present invention as described above it can be obtained the effect described below. However, effects obtained through the present invention are not limited thereto.
첫째, 본 발명에 따르면, 장소에 관계없이 스마트 폰 전면에 부착된 홍채 인증 전용 렌즈를 이용해 홍채 및 망막 영상을 추출(우수한 화질 보장)하고 서버-클라이언트 방식이 아닌 미리 학습된 신경망을 통해 스마트 폰 내에서 당뇨병 및 전조 증상을 정확하게 진단할 수 있게 함으로써 네트워크가 연결되지 않는 낙후된 지역에서도 당뇨병을 예방하는데 도움을 준다.First, according to the present invention, regardless of the location using the iris authentication dedicated lens attached to the front of the smartphone to extract the iris and retina image (guaranteed excellent image quality) and in the smart phone through a pre-learned neural network, not the server-client method Helps diagnose diabetes and prognostic symptoms in older areas where networks are not connected.
둘째, 2015년 국제 당뇨 연합(IDF: International Diabetes Federation)이 발표한 통계에 따르면 전 세계 성인 중 4억 1500만 명이 당뇨병 진단을 받았고, 3억 1800만 명은 당뇨병 발병 위험이 높았다. 그리고 현재 주요 국가 복지 예산의 5~20%가 당뇨 관련 질환을 예방 및 치료하는 데 사용되고 있고, 전 세계 75%의 당뇨병 환자가 개발도상국에 거주하고 있어 낙후된 지역에서의 당뇨병 예방이 중요시 되고 있다. 따라서 본 발명이 서비스가 되면 저가의 가격으로 어느 지역에서든지 개인이 당뇨병 진단을 간편하게 받을 수 있어 당뇨병 발병률을 낮출 수 있고, 이에 따라 당뇨병 관련 복지예산을 줄이고 더 필요한 곳에 할당해 개개인의 삶의 질을 향상 시킬 수 있다.Second, according to statistics released by the International Diabetes Federation (IDF) in 2015, 415 million of the world's adults were diagnosed with diabetes, and 310 million were at high risk of developing diabetes. Currently, 5-20% of the major national welfare budgets are used to prevent and treat diabetes-related diseases, and 75% of the world's diabetics live in developing countries, preventing the prevention of diabetes in underdeveloped areas. Therefore, when the present invention becomes a service, an individual can easily diagnose a diabetes in any region at a low price, thereby lowering the incidence of diabetes, thereby reducing diabetes related welfare budgets and allocating more necessary places to improve individual's quality of life. You can.
본 발명에서 이루고자 하는 기술적 과제들은 상기 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved in the present invention are not limited to the above technical problems, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일실시예에 따른 전체 시스템을 나타내는 개념도이다.1 is a conceptual diagram showing an entire system according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법을 나타내는 순서도이다.2 is a flowchart illustrating a method of artificially analyzing an iris image and a retinal image to diagnose diabetes and prognostic symptoms according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 스마트 폰 상에서 홍채 및 망막 영상을 통한 당뇨병 및 전조 증상 인공지능 진단 서비스의 개념도이다.3 is a conceptual diagram of diabetes and prognostic symptoms AI diagnosis service through iris and retinal image on a smart phone according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 스마트 폰 상에서 홍채 및 망막 영상을 통한 당뇨병 및 전조 증상 인공지능 진단 서비스의 시스템 구성도이다.4 is a system configuration diagram of diabetes and prognostic symptoms artificial intelligence diagnosis service through iris and retinal image on a smart phone according to an embodiment of the present invention.
도 5는 본 발명의 도 3에 도시된 홍채 및 망막 영상을 저 해상도에서 고 해상도로 높이는 이미지 고 해상도(Image Super Resolution) 인공지능 신경망의 개략적인 블록도이다.FIG. 5 is a schematic block diagram of an Image Super Resolution artificial intelligence neural network for raising the iris and retinal image shown in FIG. 3 from the low resolution to the high resolution.
도 6은 본 발명의 도 3에 도시된 신경망 학습 부에서 데이터를 저장하기 위한 데이터베이스 구조 블록도이다.FIG. 6 is a block diagram of a database structure for storing data in the neural network learning unit shown in FIG. 3 of the present invention.
도 7은 본 발명의 도 4에 도시된 인공지능 기반 질병 진단 신경망의 개략적인 블록도이다.7 is a schematic block diagram of the artificial intelligence based disease diagnosis neural network shown in FIG. 4 of the present invention.
도 8은 본 발명의 도 4에 도시된 서비스 부에서 당뇨병 및 전조 증상 진단 서비스 외에 추가적인 부가 서비스 구성도이다.8 is an additional service configuration diagram in addition to diabetes and prognostic symptoms diagnosis service in the service unit shown in FIG. 4 of the present invention.
도 9는 본 발명의 도 4에 도시된 보안 부에서 홍채 및 망막 영상 데이터 암호화 모듈의 데이터 저장 시 암호화 방식에 대한 개략도이다.9 is a schematic diagram of an encryption method for storing data of an iris and retina image data encryption module in the security unit shown in FIG. 4 of the present invention.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The detailed description, which will be given below with reference to the accompanying drawings, is intended to explain exemplary embodiments of the present invention and is not intended to represent the only embodiments in which the present invention may be practiced.
단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전히 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The present embodiments are merely provided to complete the disclosure of the present invention and to fully inform the scope of the invention to those skilled in the art, and the present invention is defined by the scope of the claims. It is only.
몇몇의 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some instances, well-known structures and devices may be omitted or shown in block diagram form centering on the core functions of the structures and devices in order to avoid obscuring the concepts of the present invention. In addition, the same components will be described with the same reference numerals throughout the present specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to "comprising" (or including) a component, this means that it may further include other components, except to exclude other components unless specifically stated otherwise. do.
또한, 명세서에 기재된 "…부" 의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 나아가, "일(a 또는 an)", "하나(one)", 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.In addition, the term "… unit" described in the specification means a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. Furthermore, "a" or "an", "one", and the like shall be, in the context of describing the present invention, both singular and plural unless the context clearly dictates otherwise or is clearly contradicted by the context. It can be used as a meaning including.
아울러, 본 발명의 실시예들에서 사용되는 특정(特定) 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in the embodiments of the present invention are provided to aid the understanding of the present invention, and unless otherwise defined, all terms used herein, including technical or scientific terms, are used to describe the present invention. It has the same meaning as commonly understood by one of ordinary skill in the art. Use of this specific terminology may be modified in other forms without departing from the spirit of the invention.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The detailed description, which will be given below with reference to the accompanying drawings, is intended to explain exemplary embodiments of the present invention and is not intended to represent the only embodiments in which the present invention may be practiced.
도 1은 본 발명의 일실시예에 따른 전체 시스템을 나타내는 개념도이다.1 is a conceptual diagram showing an entire system according to an embodiment of the present invention.
도 1을 참조하면, 사용자 단말은 스마트 폰, 테블릿 PC, 랩탑 등을 포함하는 전자 기기일 수 있다. 사용자 단말은 카메라를 포함하고, 상기 카메라는 홍채 인증 전용 카메라를 포함하거나, 상기 카메라에 홍채 인증 전용 렌즈가 부착될 수 있다. 따라서, 사용자 단말을 이용하여 사용자의 눈을 촬영하였을 때, 홍채 및 망막을 포함한 특정 부위에 대해 해상도 높은 화면 또는 영상을 확보할 수 있다. 사용자 단말을 통해 사용자의 눈을 촬영하여 획득된 촬상 영상은 당뇨병 및 전조 증상의 예측 및 진단 등에 사용될 수 있다. 이하, 당뇨병 진단과 관련하여, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 보다 상세하게 설명한다.Referring to FIG. 1, the user terminal may be an electronic device including a smart phone, a tablet PC, a laptop, and the like. The user terminal may include a camera, and the camera may include an iris authentication dedicated camera or an iris authentication dedicated lens may be attached to the camera. Therefore, when the user's eye is photographed using the user terminal, a high resolution screen or image may be secured for a specific area including the iris and the retina. The captured image obtained by photographing the eyes of the user through the user terminal may be used to predict and diagnose diabetes and prognostic symptoms. Hereinafter, with reference to the diagnosis of diabetes, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.
도 2는 본 발명의 일실시예에 따른 당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법을 나타내는 순서도이다.2 is a flowchart illustrating a method of artificially analyzing an iris image and a retinal image to diagnose diabetes and prognostic symptoms according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일실시예에 따른 당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법에서는, 사용자 단말에서, 사용자의 눈을 촬영한 촬상 영상을 획득하고(S11), 사용자 단말에서, 관심 영역(Region of Interest)을 추출하기 위해 촬상 영상을 전처리할 수 있다(S12). 관심 영역을 추출할 때는, 예를 들어 촬상 영상 중 관심 영역으로 추출되지 않은 영역은 불필요한 영역이므로 그레이처리해서 관심 영역만 추출하는 방식을 사용함으로써, 촬상 영상으로부터 당뇨병 진단과 전조 증상 진단시 연산량 감소와 보다 정확한 진단을 할 수 있다. 또한, 사용자 단말에서, 추출된 관심 영역의 해상도를 확장시키고(S13), 사용자 단말에서, 서버로 전송될 관심 영역에 대해, 데이터량을 감소시키기 위한 라이브러리를 이용하여 압축하고(S14), 사용자 단말에서, 홍채 영상을 통해 사용자 인증을 수행하고(S15), 사용자 단말에서, 서버에 저장될 홍채 영상 및 망막 영상의 데이터를 암호화하고(S16), 서버에서, 저장된 데이터에 기초하여 당뇨병 및 전조 증상의 진단을 수행할 인공 신경망을 학습하고(S17), 사용자 단말에서, 학습된 인공 신경망을 이용하여 당뇨병 발병 확률을 예측할 수 있다(S18). 이 때, 관심 영역에서 병변 영역 등의 위치 및 형상에 기초하여, 당뇨병의 종류도 예측할 수 있다. 당뇨병은 인슐린 기능에 따라 제 1형 당뇨병 및 제 2형 당뇨병 등으로 분류될 수 있고, 또는 혈당 정도에 따라 내당능장애 및 공복혈당장애 등으로 분류될 수 있다. 이하, 도 3을 통해 상술한 S11 내지 S18을 수행하는 구성을 자세히 설명한다.Referring to FIG. 2, in a method of artificially analyzing an iris image and a retinal image to diagnose diabetes and prognostic symptoms according to an embodiment of the present invention, a user terminal acquires an image captured by a user's eyes. In operation S11, the user terminal may preprocess the captured image to extract a region of interest. When extracting a region of interest, for example, an area that is not extracted from the region of interest is an unnecessary region, and thus a gray process is performed to extract only the region of interest, thereby reducing the amount of computation when diagnosing diabetes and prognostic symptoms from the image. More accurate diagnosis can be made. Further, in the user terminal, the resolution of the extracted region of interest is expanded (S13), and the user terminal is compressed using a library for reducing the amount of data for the region of interest to be transmitted to the server (S14). In step S15, user authentication is performed through the iris image, and at the user terminal, data of the iris image and the retinal image to be stored in the server is encrypted (S16). The artificial neural network to be diagnosed may be learned (S17), and the user terminal may predict the onset probability of diabetes using the learned artificial neural network (S18). At this time, the type of diabetes can also be predicted based on the position and shape of the lesion area or the like in the region of interest. Diabetes may be classified into type 1 diabetes, type 2 diabetes, and the like according to insulin function, or may be classified into impaired glucose tolerance and impaired fasting glucose according to blood glucose levels. Hereinafter, the configuration of performing the above-described S11 to S18 through FIG. 3 will be described in detail.
도 3은 본 발명의 실시예에 따른 스마트 폰 상에서 홍채 및 망막 영상을 통한 당뇨병 및 전조 증상 인공지능 진단 서비스의 개념도를 도시한다.Figure 3 shows a conceptual diagram of a diabetic and prognostic symptoms AI diagnosis service through iris and retinal image on a smart phone according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 실시예에 따른 스마트 폰 상에서 홍채 및 망막 영상을 통한 당뇨병 및 전조 증상 인공지능 진단 서비스(100)는 영상 촬영 부(101), 영상 전 처리 부(102), 신경망 학습 부(103), 질병 진단 부(104)를 통해 제공된다.Referring to FIG. 3, the diabetic and prognostic symptoms AI diagnosis service 100 through the iris and the retinal image on the smart phone according to an embodiment of the present invention includes an image capturing unit 101, an image preprocessing unit 102, and a neural network. The learning unit 103 is provided through the disease diagnosis unit 104.
영상 촬영 부(101)는 스마트 폰을 통해 눈 영상을 촬영하는 부분으로 스마트 폰 전면에 부착이 가능한 홍채 인증 전용 렌즈를 이용해 촬영하고, 촬상 영상을 획득할 수 있다(S11). 기존 스마트 폰에 내장된 카메라를 사용해 눈 영상을 촬영할 수 있지만, 홍채 인증 전용 렌즈는 단 초점 렌즈와 적외선 LED 를 사용해 주변 환경에 대한 영향을 덜 받으면서 선명한 홍채 및 망막 영상을 촬영할 수 있다. 촬영한 영상이 선명하고 빛의 영향을 덜 받을수록 홍채 인식 및 당뇨병 및 전조 증상 인공지능 진단에 더 유리하다. 그리고 촬영된 영상은 홍채 색상별로 다를 수 있다.The image capturing unit 101 captures an eye image through a smartphone, and photographs using an iris authentication-dedicated lens that can be attached to the front of the smartphone, and acquires a captured image (S11). While cameras built into existing smartphones can capture eye images, iris-certified lenses use short-focus lenses and infrared LEDs to capture clear iris and retinal images with less impact on the environment. The sharper and less affected the light is, the better it is for iris recognition and diabetic and diagnosing AI symptoms. The captured image may be different for each iris color.
영상 전 처리 부(102)는 촬영한 눈 영상으로부터 질병 진단에 필요한 홍채 및 망막 영역만 추출할 수 있다. 우선 JPEG2000 라이브러리를 사용해 눈 영상으로부터 관심 영역(RoI: Region-of-Interest)만 추출할 수 있다. 여기에서 관심 영역은 홍채 및 망막을 추출하기 위해 필요한 최소한의 영역을 뜻한다. 관심 영역을 추출하는 이유는 홍채 및 망막의 추출 및 재배치를 위한 연산량을 줄일 수 있기 때문이다. 추출된 관심 영역에서 눈꺼풀 분할(Segmentation)을 수행한 후 홍채 및 망막 부분을 따로 추출해놓고 눈꺼풀 바깥 부분은 그레이 처리한다. 그레이 처리된 영상에서 눈꺼풀의 양끝 모서리 부분을 선으로 잇고 해당 선과 직교하는 선을 이어서 축을 설정하고 0도를 기준으로 축의 회전율을 구한 뒤, 따로 추출한 홍채 및 망막 영상을 회전율만큼 로테이션(rotation) 및 보간법 등을 통해 재배치한다. 홍채 및 망막 영상을 재배치하는 이유는 홍채 및 망막 영상을 통해 당뇨병 전조 증상을 진단할 때 열공, 착색, 바퀴살 등의 병변 위치가 진단을 위한 중요한 정보이기 때문이다. 위치에 따라 특정 장기에 문제가 있다는 것을 의미하므로 정확한 전조 증상을 판별하기 위해 홍채 및 망막 영상을 0° 기준으로 재배치할 수 있다(S12). 그리고 홍채 및 망막 영상의 해상도가 낮을 경우 질병 진단 시 참조할 데이터가 적어 상대적으로 정확도가 떨어질 수 있다. 이에 저 해상도를 고 해상도로 변환시키는 인공 신경망을 사용해 고 해상도로 변환할 수 있다(S13). 저 해상도를 고 해상도로 변환시키는 인공 신경망은 홍채 및 망막 이미지를 특정 패치(Patch) 크기로 분리한 뒤 분리된 영상을 합성곱 신경망(CNN: Convolution Neural Network)을 통해 해상도를 확장할 수 있다. 원본 영상에서 특정 패치 단위로 확장을 했기 때문에 출력된 이미지를 합치는 머지 과정을 통해 영상을 복원할 수 있다. 해당 저 해상도를 고 해상도로 변환시키는 신경망에는 특징 추출 시 이전 단계의 특징 전파를 강화하고 재사용하기 위해 고 밀도 블록(Dense Block)을 사용하고, 영상의 경계 부분을 좀 더 학습하기 위해 입력 영상을 출력 전 단계의 영상과 연결하는 스킵 연결(Skip Connection)을 사용해 학습할 수 있다. 여기까지 진행이 되면 홍채 및 망막 영상으로 당뇨병 및 전조증상을 진단하기 위해 필요한 영상을 얻을 수 있고, 해당 홍채 및 망막 영상을 네트워크를 통해 원격지 데이터베이스로 보내게 되는데 그대로 보내게 되면 영상의 용량이 크기 때문에 JPEG2000 라이브러리를 사용해 영상을 압축한 후(S14), 네트워크를 통해 전송할 수 있다. 또한, 홍채 영상을 통해 사용자 인증을 수행할 수 있다(S15).The image preprocessing unit 102 may extract only the iris and retinal regions necessary for diagnosing a disease from the captured eye image. First, only the region-of-interest (RoI) can be extracted from the eye image using the JPEG2000 library. Here, the region of interest refers to the minimum region necessary for extracting the iris and the retina. The reason for extracting the region of interest is that the amount of computation for the extraction and relocation of the iris and retina can be reduced. After performing eyelid segmentation in the extracted region of interest, the iris and retina parts are extracted separately and the outer part of the eyelid is grayed out. In the grayed image, connect the edges of the both ends of the eyelids with a line, and then set the axis, and set the axis's rotation rate based on 0 degree, and then rotate and interpolate the extracted iris and retinal images by the rotation rate. Relocate through the back. The reason for relocating the iris and retinal images is that the location of lesions such as tears, pigmentation, and cockroaches is important information for diagnosing diabetic prognostic symptoms through iris and retinal imaging. Since it means that there is a problem with a specific organ according to the location, the iris and retinal images may be rearranged based on 0 ° to determine accurate prognostic symptoms (S12). In addition, when the iris and retinal images have low resolution, the data to be referred to when diagnosing disease may be relatively inaccurate. Accordingly, the artificial neural network converting the low resolution to the high resolution may be converted to the high resolution (S13). Artificial neural networks that convert low resolution to high resolution can separate iris and retinal images into a specific patch size and then expand the resolution through a convolutional neural network (CNN). Since the original image is expanded by a specific patch unit, the image can be restored by merging the output images. The neural network that converts the low resolution into high resolution uses a dense block to enhance and reuse the feature propagation of the previous stage and extracts the input image to learn more about the boundary of the image. You can use the Skip Connection to connect to the previous video. If you proceed to this point, you can get the images needed to diagnose diabetes and prognostic symptoms with iris and retinal images, and send the iris and retinal images to a remote database through the network. After compressing the image using the JPEG2000 library (S14), it can be transmitted over a network. In addition, user authentication may be performed through the iris image (S15).
신경망 학습 부(103)는 홍채 및 망막 영상 데이터를 저장하는 데이터베이스와 저장된 데이터로부터 학습하는 신경망 모델로 구성되어 있다. 데이터베이스는 여러 가지 종류가 있지만 안정성이 뛰어난 오라클 데이터베이스를 사용할 수 있다. 데이터베이스에 저장될 정보는 개인 정보 보호법에 따라 개인정보에 해당하는 바이오정보, 고유식별정보(주민등록번호, 여권번호, 운전면허번호, 외국인등록번호), 비밀번호가 암호화되어 저장되어야 한다. 홍채 및 망막 영상 데이터는 바이오정보에 해당하므로 암호화 후(S16) 저장해야한다. 데이터 저장 시 암호화 방식에는 응용 프로그램 자체 암호화, DB 서버 암호화, DBMS 자체 암호화, DBMS 암호화 기능 호출, 운영체제 암호화가 있는 데 암호화 방식마다 성능에 미치는 영향이 다르므로 구축 환경에 따라 암호화 방식의 특성, 장단점 및 제약사항 등을 고려하여 DB 암호화 방식을 선택해야 한다. 암호화 시에는 암호화 키를 설정하는 것이 매우 중요한데, 암호화 키는 홍채 및 망막 영상 데이터로부터 추출한 코드 값을 사용하고, 해당 암호화 키를 이용해 암호화한 후 데이터베이스에 저장한다. 그리고 저장된 홍채 및 망막 영상 데이터를 사용해 미리 만들어놓은 당뇨병 및 전조 증상 진단 인공지능 신경망을 학습할 수 있다(S17). 홍채 및 망막 영상을 통한 당뇨병 및 전조 증상 진단 인공지능 신경망은 당뇨병 전조 증상에 대해 분류(Classification)/검출(Detection)/분할(Segmentation)이 되도록 학습이 되어야 한다. 따라서 본 인공지능 신경망은 학습 시 더 정확한 분류를 위해 전조 증상을 분류하는 신경망 부분을 선행 학습(Pre-training)할 수 있다. 분류 부분에 사용할 인공 신경망이 전체 신경망에서 많은 부분을 차지하므로 이 부분을 최대한 경량화 시켜 모바일 상에서도 원활하게 수행될 수 있게 한다. 인공지능 신경망을 경량화하는 방법에는 여러 가지가 있다. 예를 들어 5 x 5 의 큰 필터 크기를 3 x 3 과 3 x 3 의 작은 필터로 나누어 합성곱 연산을 수행하면 기존 큰 필터를 통해 수행한 연산량의 20~30% 를 줄일 수 있는 인수분해(Factorization) 방법, 기존의 일반적인 컨볼루션(Convolution) 계층에서는 가로-세로(2차원)와 채널(1차원)에서 필터를 학습하고 각 필터는 채널간 상관성과 공간상의 상관성을 동시에 맵핑하게되어 많은 연산량을 요구하는데 이 과정을 효율적으로 처리하기 위해 채널간 상관성과 공간상 상관성을 따로따로 처리해서 기존 컨볼루션(Convolution) 보다 1/N+ 1/D_K 만큼 연산량이 감소하는 분리가능한 컨볼루션(Depthwise Separable Convolution) 방법과 기존의 일반적인 컨볼루션(Convolution) 계층에서의 공간상 상관성을 처리하지 않고 채널간 상관성만 처리해 출력 특징 맵(Feature Map)의 차원을 늘리거나 줄이는 데 사용하는 포인트와이즈 컨볼루션(Pointwise Convolution) 방법들을 조합해서 인공지능 신경망을 경량화 할 수 있다. 분류 부분에 대한 선행 학습(Pre-training)을 수행한 뒤 추출된 특징 맵을 가지고 전조 증상이 있을 만한 부분의 테두리 상자(Bounding Box)의 위치를 찾아내는 것을 학습할 수 있다. 추출된 테두리 상자(Bounding Box)의 크기가 다르기 때문에 일정한 크기로 맞추는 관심 영역 풀링(RoI Pooling) 작업을 수행하고, 합성곱 신경망(CNN: Convolutional Neural Network)을 거쳐 당뇨병 전조 증상에 대한 분류(Classification)/검출(Detection)/분할(Segmentation)을 학습할 수 있다. 전조 증상이 아닌 분류에 대해서는 학습 시 페널티를 부과해 더 정확한 분류(Classification)/검출(Detection)/분할(Segmentation)을 할 수 있도록 학습한다. The neural network learning unit 103 is composed of a database storing iris and retinal image data and a neural network model learning from the stored data. There are many different types of databases, but you can use Oracle's highly reliable database. The information to be stored in the database must be stored encrypted with bio information, unique identification information (resident registration number, passport number, driver's license number, alien registration number) and password corresponding to personal information according to the Personal Information Protection Act. Since the iris and retinal image data correspond to bioinformation, the iris and retinal image data should be stored after encryption (S16). Encryption methods for storing data include application self-encryption, DB server encryption, DBMS self-encryption, DBMS encryption function call, and operating system encryption. The performance impact of each encryption method differs depending on the deployment environment. DB encryption method should be selected in consideration of constraints. When encrypting, it is very important to set an encryption key. The encryption key uses a code value extracted from iris and retinal image data, encrypts it using the encryption key, and stores it in a database. In addition, using the stored iris and retinal image data, the artificial intelligence neural network for diagnosing diabetes and prognostic symptoms can be learned (S17). Diagnosis of Diabetes and Prognostic Symptoms through Iris and Retinal Imaging The AI neural network should be trained to be classified, detected, or segmented for diabetic precursor symptoms. Therefore, this artificial intelligence neural network can pre-train the neural network part that classifies the precursor symptoms for more accurate classification in learning. Since the artificial neural network used for the classification part takes up a large part of the entire neural network, this part is made as lightweight as possible so that it can be performed smoothly on mobile. There are many ways to lighten the AI neural network. For example, multiplying a large filter size of 5 x 5 into 3 x 3 and small filters of 3 x 3 and performing a multiplication can reduce the factorization by 20-30% of the computation performed by the existing large filter. Method, the conventional convolution layer learns filters in horizontal-vertical (two-dimensional) and channels (one-dimensional), and each filter simultaneously requires mapping and spatial correlation. Depthwise Separable Convolution method, which reduces the amount of computation by 1 / N + 1 / D_K compared to the conventional convolution, by processing the inter-channel and spatial correlation separately Instead of dealing with spatial correlation in the conventional convolution layer, only the correlation between channels is used to increase or decrease the dimension of the output feature map. Using a combination of pointwise convolution methods to reduce the artificial intelligence neural network. After performing pre-training on the classification part, we can learn to find the location of the bounding box of the probable part with the extracted feature map. Since the extracted bounding boxes are different sizes, ROI pooling is performed to fit a certain size, and the classification of diabetic prognostic symptoms is carried out through a convolutional neural network (CNN). Can learn / Detection / Segmentation. For classes that are not prognostic symptoms, students learn to penalize penalties for more accurate classification, detection, and segmentation.
질병 진단 부(104)는 신경망 학습 부(103)에서 학습된 인공지능 신경망으로 전 처리가 완료된 홍채 및 망막 영상을 사용해 당뇨병 및 전조 증상을 검출함으로써 당뇨병을 진단할 수 있다(S18). The disease diagnosis unit 104 may diagnose diabetes by detecting diabetes mellitus and prognostic symptoms using the iris and retinal images preprocessed with the artificial intelligence neural network learned by the neural network learning unit 103 (S18).
도 4는 본 발명의 실시예에 따른 스마트 폰 상에서 홍채 및 망막 영상을 통한 당뇨병 및 전조 증상 인공지능 진단 서비스의 시스템 구성도이다.4 is a system configuration diagram of diabetes and prognostic symptoms artificial intelligence diagnosis service through iris and retinal image on a smart phone according to an embodiment of the present invention.
도 4를 참조하면, 본 발명의 실시예에 따른 스마트 폰 상에서 홍채 및 망막 영상을 통한 당뇨병 및 전조 증상 인공지능 진단 시스템(200)은 사용자 부(201), 플랫폼 부(202), 보안 부(203), 서비스 부(204), 데이터 서버 부(205), 신경망 학습 서버 부(206)를 포함할 수 있다. 사용자 부(201)는 개인 또는 병원이 될 수 있고 그 밖에 홍채 및 망막을 통한 진단 서비스를 원하는 기관이 될 수 있다. 플랫폼 부(202)은 모바일 상에서 서비스가 되어야 하므로 안드로이드, IOS, WINDOWS 등이 될 수 있다. 보안 부(203)은 홍채 및 망막 영상을 통한 당뇨병 및 전조 증상 진단 서비스를 받기 위해 홍채 인식 모듈로 본인 인증을 받는 부분과 홍채 및 망막 영상 데이터를 암호화하는 부분으로 나누어질 수 있다. 서비스 부(204)는 학습된 인공지능 기반 질병 진단 신경망을 통한 당뇨병 및 전조 증상 진단 서비스, 홍채의 체질별 특징들을 수집된 홍채 데이터와 비교한 개인별 체질 진단 서비스, 추출된 전조 증상들을 토대로 발생할 가능성이 있는 합병증 진단 서비스, 체질 및 전조 증상 진단을 통한 개인별 식습관 관리 서비스들을 수행할 수 있다. 데이터 서버 부(205)는 인공지능 신경망이 학습에 필요한 홍채 및 망막 영상 데이터를 저장할 수 있다. 신경망 학습 서버 부(206)은 저장된 홍채 및 망막 영상 데이터를 통해 인공지능 신경망을 학습할 수 있다. 4, the diabetic and prognostic symptoms AI diagnosis system 200 through the iris and the retina image on the smart phone according to an embodiment of the present invention is a user unit 201, platform unit 202, security unit 203 ), A service unit 204, a data server unit 205, and a neural network learning server unit 206. The user unit 201 may be an individual or a hospital and may be an institution that desires diagnostic services through the iris and retina. The platform unit 202 may be Android, IOS, WINDOWS, etc., because it must be serviced on the mobile. The security unit 203 may be divided into a part for authenticating a person with an iris recognition module and a part for encrypting iris and retinal image data in order to receive diabetic and prognostic symptom diagnosis services through iris and retinal images. The service unit 204 is capable of diagnosing diabetes and prognostic symptoms through the learned AI-based disease diagnosis neural network, individual constitution diagnosis service comparing the iris constitution features with collected iris data, and probable occurrences based on the extracted prognostic symptoms. Complications diagnostic services, and personalized eating habits management services through the diagnosis of constitution and prognostic symptoms. The data server unit 205 may store iris and retinal image data necessary for the AI neural network to learn. The neural network learning server unit 206 may learn the artificial intelligence neural network through the stored iris and retinal image data.
도 5는 본 발명의 도 3에 도시된 홍채 및 망막 영상을 저 해상도에서 고 해상도로 높이는 이미지 고 해상도(Image Super Resolution) 인공지능 신경망(300)의 개략적인 블록도이다. 홍채 및 망막 영상의 해상도가 낮을 경우 질병 진단 시 참조할 데이터가 적어 상대적으로 정확도가 떨어지게 되므로 저 해상도의 홍채 및 망막 영상을 고 해상도로 높이는 작업이 필요한데, 이를 위해 인공지능 신경망을 사용할 수 있다. 입력으로 들어오는 저 해상도 홍채 및 망막 영상을 특정 패치(Patch) 크기로 영상을 분할한 뒤 분할한 영상을 입력으로 넣고 합성곱 신경망을 거쳐 재구성된 출력 이미지를 뽑아낸다. 여기에 일반적인 합성곱 신경망을 사용하면 출력되는 특징 맵의 크기가 감소되어 이미지 경계 근처에 있는 픽셀에 대한 정보를 최대한 활용할 수 없게 된다. 따라서 합성곱 연산 전에 제로 패딩(Zero Padding)을 추가해 모든 계층에서 특징 맵의 크기를 유지하도록 해서 이미지 경계 근처에 있는 픽셀들을 정확하게 예측할 수 있게 한다. 그리고 학습하는 과정에서 이전 단계의 특징들을 재학습하도록 하는 고 밀도 블록(Dense Block)을 사용해 기울기 사라짐(gradient vanishing) 현상을 감소시키고, Resnet 신경망 네트워크에서 사용된 스킵 연결(skip connection)을 사용해 학습 시 더 빠른 학습이 가능하고 입력 영상의 엣지 부분을 좀 더 잘 학습하도록 할 수 있다. 그리고 출력된 이미지들은 패치(Patch) 단위로 나뉘어져 있으므로 머지(Merge) 과정을 통해 하나의 고 해상도 영상으로 변환할 수 있다. FIG. 5 is a schematic block diagram of an Image Super Resolution artificial intelligence neural network 300 that raises the iris and retinal images shown in FIG. 3 from low resolution to high resolution. If the iris and retinal images have low resolution, there is less data to refer to when diagnosing a disease, so the accuracy of the iris and retinal images is relatively low. Therefore, it is necessary to raise the low resolution iris and retinal images to high resolution. The low resolution iris and retinal images coming into the input are divided into a specific patch size, and the divided images are input as inputs and the reconstructed output image is extracted through a multiplication neural network. In addition, the use of a generalized composite neural network reduces the size of the output feature map, making it impossible to make full use of information about pixels near the image boundary. Therefore, zero padding is added before the product of multiplication to maintain the size of the feature map in all layers so that pixels near the image boundary can be accurately predicted. In the course of learning, we use dense blocks that allow us to relearn the features of the previous stages, reducing gradient vanishing, and using the skip connections used in the Resnet neural network. This allows for faster learning and better learning the edges of the input image. Since the output images are divided into patch units, they can be converted into a single high resolution image through a merge process.
도 6은 본 발명의 도 3에 도시된 신경망 학습 부에서 홍채 및 망막 영상 데이터를 저장하기 위한 데이터베이스(400) 구조 블록도이다. 홍채 및 망막 영상 데이터를 데이터베이스에 저장하기 위해서는 다음과 같은 작업이 수행될 수 있다. 우선, 데이터베이스내의 서버 프로세스가 해당 SQL을 처리하기 위해 할당될 수 있다. 해당 서버프로세스는 SQL 에 대한 정보를 가지고 있는 라이브러리 캐시 내의 핸들러(Handler)들을 검색하는 데 핸들러(Handler)가 존재하면 바로 그 핸들러(Handler)를 이용하고, 존재하지 않으면 해당 SQL 문에 대한 하드파싱(Hard Parsing) 절차를 수행하게 된다. 하드파싱(Hard Parsing)은 구문 검사(SQL 철자 확인, SQL 문법 확인), 의미 검사(테이블/컬럼 존재 유무), 쿼리 변환(옵티마이저가 성능 향상을 목적으로 SQL 재 작성), 권한 확인, DML(Data Manipulation Language) 작업 시에 Lock Type 체크, 실행 계획 및 파싱 트리 생성, 로그 기록(DML 시 발생한 LOG 기록) 과정을 거친다. 그리고 데이터 버퍼 캐시 내의 특정 블록에 데이터를 저장하고, 커밋(Commit)이 수행되면 해당 블록의 데이터를 데이터 파일에 기록하게 된다. 이런 과정을 거쳐 홍채 및 망막 영상 데이터를 데이터베이스에 저장할 수 있다.FIG. 6 is a block diagram illustrating a structure of a database 400 for storing iris and retinal image data in the neural network learning unit illustrated in FIG. 3 of the present invention. In order to store iris and retinal image data in a database, the following operation may be performed. First, server processes in the database can be allocated to process the SQL. The server process uses the handler to find the handlers in the library cache that contain information about the SQL. If the handler exists, the server parses the SQL statement. Hard Parsing) procedure. Hard parsing includes syntax checking (SQL spelling and SQL grammar checking), semantic checking (table / column existence), query transformation (optimizer rewrites SQL for better performance), authorization checking, and DML (Data) During Manipulation Language), lock type check, execution plan, parsing tree creation, and log record (LOG record generated during DML) are processed. Data is stored in a specific block in the data buffer cache, and when a commit is performed, the data of the block is written to the data file. Through this process, iris and retinal image data can be stored in a database.
도 7은 본 발명의 도 4에 도시된 인공지능 기반 질병 진단 신경망의 개략적인 블록도이다. 본 발명의 도 4에 도시된 인공지능 기반 질병 진단 신경망은 질병 분류 부(501)와 질병 위치 검출 부(502)로 구성되고, 질병 분류 부(501)는 홍채 및 망막 영상으로부터 당뇨병 전조 증상(췌장부위 병소, 중성지방, 스트레스링 등)들을 분류하는 합성곱 신경망을 적용할 수 있다. 질병 분류 부(501)의 합성곱 신경망을 거치면서 전조 증상들에 대한 특징들을 추출하고 마지막 출력 층에서 출력된 특징 맵(Feature Map)을 질병 위치 검출 부(502)에서 처리할 수 있다. 질병 위치 검출 부(502)는 질병 분류 부(501)에서 나온 특징 맵(Feature Map)에 기초하여 전조 증상 부위의 검출 및 분할 작업을 수행할 수 있다. 특징 맵(Feature Map) 상에서 전조 증상에 대한 관심 영역 부분을 추출하기 위해 RPN(Region Proposal Network)을 거치게 되는데 미리 정해놓은 앵커 박스(anchor box)에 맞추어 관심 영역을 추출하게 된다. 여기에서 관심 영역은 홍채 및 망막 영상에서 전조 증상에 대한 검출 영역을 나타낼 수 있다. 추출한 관심 영역들의 크기가 다르므로 고정된 크기에서의 수행을 요구하는 합성곱 신경망에서는 사용될 수 없다. 따라서 관심 영역 풀링(RoI Pooling) 계층을 거쳐 서로 다른 크기의 관심 영역을 같은 크기로 변환 시킨다. 변환된 후 해당 관심 영역에 대한 전조 증상 분류/검출/분할 작업을 병렬적으로 수행해서 어떤 전조 증상이 어느 위치에서 검출되는지 홍채 및 망막 영상에 출력할 수 있다. 그리고 당뇨에 걸린 사람의 홍채 및 망막에 나타나는 전조 증상들을 토대로 최종적으로 신경망에서 나온 결과 값에 대해 당뇨에 걸릴 확률이 얼마나 될지 예측할 수 있다.7 is a schematic block diagram of the artificial intelligence based disease diagnosis neural network shown in FIG. 4 of the present invention. The AI-based disease diagnosis neural network shown in FIG. 4 of the present invention is composed of a disease classification unit 501 and a disease location detection unit 502, and the disease classification unit 501 is a diabetic precursor symptom (pancreas) from iris and retinal images. A multiplicative neural network can be used to classify site lesions, triglycerides, stress rings, etc.). The disease location detection unit 502 may extract the features for the prognostic symptoms while passing through the composite product neural network of the disease classification unit 501 and process the feature map output from the last output layer. The disease location detecting unit 502 may detect and segment the precursor symptom site based on a feature map from the disease classification unit 501. In order to extract a region of interest for prognostic symptoms on a feature map, the region is subjected to a Region Proposal Network (RPN). The region of interest is extracted according to a predetermined anchor box. Here, the region of interest may represent a detection region for prognostic symptoms in the iris and retinal images. Since the extracted regions of interest differ in size, they cannot be used in convolutional neural networks that require performance at a fixed size. Therefore, ROIs of different sizes are converted into the same size through the ROI pooling layer. After the conversion, the precursor symptom classification / detection / division of the corresponding region of interest may be performed in parallel to output to the iris and retinal images which precursor symptoms are detected at which positions. Based on the prognostic symptoms in the iris and retina of a person with diabetes, the predicted outcome of the neural network can be predicted.
도 8은 본 발명의 도 4에 도시된 서비스 부에서 당뇨병 및 전조 증상 진단 서비스 외에 추가적인 부가 서비스 구성도이다.8 is an additional service configuration diagram in addition to diabetes and prognostic symptoms diagnosis service in the service unit shown in FIG. 4 of the present invention.
도 8을 참조하면, 부가 서비스는 영상 촬영 부(601), 데이터 서버 부(602), 체질 진단 부(603), 질병 진단 부(604), 합병증 진단 부(605), 식습관 관리 부(606)를 이용하여 제공될 수 있다. 영상 촬영 부(601)는 사용자가 스마트 폰 전면에 부착된 홍채 인증 전용 렌즈를 이용해 홍채 및 망막을 촬영할 수 있다. 데이터 서버 부(602)는 촬영한 홍채 및 망막 영상 데이터를 암호화 해 저장할 수 있다. 체질 진단 부(603)는 데이터베이스 서버에 저장된 개인 홍채 및 망막 영상 데이터로부터 홍채 체질 특성과 비교해 태양인, 태음인, 소양인, 소음인으로 체질 진단을 수행할 수 있다. 질병 진단 부(604)는 촬영한 홍채 및 망막 영상 데이터를 사용해 당뇨병 및 전조 증상 진단을 수행할 수 있다. 합병증 진단 부(605)는 질병 진단 부(604)에서 나온 전조 증상과 관련된 합병증들을 진단할 수 있다. 식습관 관리 부(606)는 체질 진단 부(603)에서 진단한 체질(태양인, 태음인, 소양인, 소음인)과 질병 진단 부(604)에서 진단한 전조 증상들을 토대로 개인별 맞춤 식단을 제공할 수 있다.Referring to FIG. 8, the additional service includes an image capturing unit 601, a data server unit 602, a constitution diagnosis unit 603, a disease diagnosis unit 604, a complication diagnosis unit 605, and a eating habit management unit 606. It can be provided using. The image capturing unit 601 may allow the user to photograph the iris and the retina using an iris authentication dedicated lens attached to the front of the smartphone. The data server unit 602 may encrypt and store the photographed iris and retina image data. The constitution diagnosis unit 603 may perform constitution diagnosis by the sun person, Taein person, Soyangin person, and the noise person in comparison with the iris constitution property from the personal iris and retinal image data stored in the database server. The disease diagnosis unit 604 may diagnose diabetes and prognostic symptoms using the captured iris and retinal image data. The complication diagnosis unit 605 may diagnose complications associated with the prognostic symptoms from the disease diagnosis unit 604. The eating habit management unit 606 may provide a personalized diet based on the constitution diagnosed by the constitution diagnosis unit 603 (sun person, Taein person, Soyangin person, and noise person) and the prognostic symptoms diagnosed by the disease diagnosis unit 604.
도 9는 본 발명의 도 4에 도시된 보안 부에서 홍채 및 망막 영상 데이터 암호화 모듈의 데이터 저장 시 암호화 방식에 대한 개략도이다. 데이터 저장 시 암호화 방식은 응용 프로그램 자체 암호화(701), DB 서버 암호화(702), DBMS 자체 암호화(703), DBMS 암호화 기능 호출(704), 운영체제 암호화(705)가 있다. 응용 프로그램 자체 암호화(701)는 암ㆍ복호화 모듈이 API 라이브러리 형태로 각 어플리케이션 서버에 설치되어 응용프로그램내에서 암ㆍ복호화 모듈을 호출하는 방식으로 DB 서버에는 영향을 주지 않지만 구축 시 응용프로그램 전체 또는 일부 수정이 필요할 수 있다. DB 서버 암호화(702)는 암ㆍ복호화 모듈이 DB 서버에 설치되고 DBMS 에서 플러그인(Plug-in)으로 연결된 암ㆍ복호화 모듈을 호출하는 방식으로 응용프로그램의 수정이 거의 필요하지 않아 구현 용이성이 뛰어나지만, 기존 DB 스키마와 대응하는 뷰(View)를 생성하고 암호화할 테이블을 추가하는 작업이 필요하고 DB 서버에 부하가 발생할 수 있다. DBMS 자체 암호화(703)는 DBMS 에 내장되어 있는 암호화 기능을 이용하여 암ㆍ복호화 처리를 수행하는 방식으로 DBMS 커널 수준에서 처리되어 기존 응용 프로그램의 수정이나 DB 스키마의 변경이 거의 필요하지 않지만 DB 서버에 부하는 발생할 수 있다. DBMS 암호화 기능 호출(704)은 DBMS 가 자체적으로 암ㆍ복호화 기능을 수행하는 API를 제공하고 해당 함수를 사용하기 위해 응용프로그램에서 수행하는 방식으로 응용프로그램의 수정이 필요하고 DB 서버에 부하가 발생할 수 있다. 운영체제 암호화(705)는 OS 에서 발생하는 입출력 시스템 호출을 이용한 암ㆍ복호화 방식으로 응용프로그램이나 DB 스키마의 수정이 필요 없지만 DB 파일 전체를 암호화하기 위해 파일 서버 및 DB 서버에 부하가 발생할 수 있다.9 is a schematic diagram of an encryption method for storing data of an iris and retina image data encryption module in the security unit shown in FIG. 4 of the present invention. Encryption methods for storing data include application program encryption 701, DB server encryption 702, DBMS self encryption 703, DBMS encryption function call 704, and operating system encryption 705. Application self-encryption (701) is a method in which the encryption / decryption module is installed in each application server in the form of API library to call the encryption / decryption module within the application, but it does not affect the DB server. Modifications may be necessary. DB server encryption 702 is easy to implement because the encryption / decryption module is installed on the DB server and calls the encryption / decryption module connected to the plug-in from the DBMS. Therefore, it is necessary to create a view corresponding to the existing DB schema and add a table to encrypt, and there may be a load on the DB server. The DBMS self encryption (703) is processed at the DBMS kernel level by performing encryption / decryption processing using the encryption function built in the DBMS, so that modification of the existing application or modification of the DB schema is rarely required. Load can occur. The DBMS encryption function call 704 provides an API for the DBMS to perform its own encryption / decryption function, and the application needs to be modified in such a way that the application executes to use the function, and the DB server may be overloaded. have. The operating system encryption 705 is an encryption / decryption method using input / output system calls generated by the OS, but does not require modification of an application program or a DB schema, but may cause a load on the file server and the DB server to encrypt the entire DB file.
상술한 실시형태에 더하여, 본 발명은 당뇨병과 관련한 병변 영역의 위치 및 형상에 따른 당뇨병 가능성 및 당뇨병 진행 정도를 나타내는 빅데이터를 축적하고, 상기 빅데이터에 기초하여, 상기 병변 영역의 위치 및 형상에 따른 상기 당뇨병 가능성 및 당뇨병 진행 정도를 학습 및 결정하며, 상기 당뇨병 가능성 및 상기 당뇨병 진행 정도에 따라, 혈당검사, 경구 당 부하 검사 및 당화혈색소(HbA1c) 검사를 포함한 추가 검사가 필요함을 상기 사용자 단말을 통해 실시간으로 통지할 수 있다. 또한, 시간 경과에 따른 당뇨병 진행 정도가 최근 기하급수적으로 증가한 경우에도, 이러한 진행 경과를 사용자 단말을 통해 실시간으로 통지할 수 있다. 사용자 단말을 통한 실시간 통지는 팝업 또는 푸쉬 알람 등으로 구성될 수 있다.In addition to the above-described embodiment, the present invention accumulates big data indicating the possibility of diabetes and the degree of diabetes progression according to the position and shape of the lesion area associated with diabetes mellitus, and based on the big data, Learning and determining the possibility of diabetes mellitus and the progression of diabetes mellitus, and according to the possibility of diabetes mellitus and the degree of diabetes mellitus, an additional test including a blood glucose test, an oral glucose load test and a glycated hemoglobin (HbA1c) test is required. Notification can be made in real time. In addition, even when the degree of diabetes progressed exponentially in recent years, the progress of the diabetes may be notified in real time through the user terminal. The real time notification through the user terminal may be configured as a pop-up or push alarm.
한편, 상술한 방법은, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 코드를 저장하는 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함한다.Meanwhile, the above-described method may be written as a program executable on a computer, and may be implemented in a general-purpose digital computer which operates the program using a computer readable medium. In addition, the structure of the data used in the above-described method can be recorded on the computer-readable medium through various means. Computer-readable media that store executable computer code for carrying out the various methods of the present invention include, but are not limited to, magnetic storage media (eg, ROM, floppy disks, hard disks, etc.), optical reading media (eg, CD-ROMs, DVDs). Storage media).
본원 발명의 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that embodiments of the present invention can be implemented in a modified form without departing from the essential characteristics of the above description. Therefore, the disclosed methods should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the detailed description of the invention, and all differences within the equivalent scope should be construed as being included in the scope of the present invention.

Claims (10)

  1. 당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법으로서,As a method of artificially analyzing iris images and retinal images to diagnose diabetes and prognostic symptoms,
    사용자 단말에서, 사용자의 눈을 촬영한 촬상 영상을 획득하는 단계;Obtaining, at the user terminal, a captured image of the user's eyes;
    상기 사용자 단말에서, 관심 영역(Region of Interest)을 추출하기 위해 상기 촬상 영상을 전처리하는 단계;Preprocessing the captured image to extract a region of interest at the user terminal;
    상기 사용자 단말에서, 추출된 상기 관심 영역의 해상도를 확장시키는 단계;Expanding the resolution of the extracted region of interest at the user terminal;
    상기 사용자 단말에서, 서버로 전송될 상기 관심 영역에 대해, 데이터량을 감소시키기 위한 라이브러리를 이용하여 압축하는 단계;Compressing, at the user terminal, the library for reducing the amount of data for the region of interest to be transmitted to a server;
    상기 사용자 단말에서, 상기 홍채 영상을 통해 사용자 인증을 수행하는 단계;At the user terminal, performing user authentication through the iris image;
    상기 사용자 단말에서, 상기 서버에 저장될 상기 홍채 영상 및 상기 망막 영상의 데이터를 암호화하는 단계;Encrypting, at the user terminal, data of the iris image and the retina image to be stored in the server;
    상기 서버에서, 저장된 상기 데이터에 기초하여 상기 당뇨병 및 상기 전조 증상의 진단을 수행할 인공 신경망을 학습하는 단계; 및Learning, at the server, an artificial neural network to perform the diagnosis of the diabetes and the prognostic symptoms based on the stored data; And
    상기 사용자 단말에서, 학습된 상기 인공 신경망을 이용하여 당뇨병 발병 확률을 예측하는 단계를 포함하고,Predicting, at the user terminal, a probability of developing diabetes using the learned artificial neural network;
    상기 촬상 영상을 전처리하는 단계는, 상기 촬상 영상 중 상기 관심 영역으로 추출되지 않은 영역은 그레이처리해서 관심 영역만 추출하는 단계를 더 포함하고,The preprocessing of the captured image further includes graying out an area of the captured image that is not extracted to the region of interest, and extracting only the region of interest.
    상기 당뇨병 발병 확률을 예측하는 단계는, 상기 관심 영역 내의 병변의 위치 및 형상에 기초하여, 당뇨병의 종류를 예측하는 단계를 더 포함하는,Predicting the probability of developing diabetes further comprises the step of predicting the type of diabetes, based on the location and shape of the lesion in the region of interest,
    홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  2. 제1항에 있어서,The method of claim 1,
    상기 촬상 영상을 획득하는 단계는, 상기 사용자 단말에 부착 가능한 홍채 인증 전용 렌즈를 이용하여, 상기 홍채 영상 및 망막 영상을 추출하는 단계를 더 포함하는,The acquiring of the captured image may further include extracting the iris image and the retina image by using an iris authentication dedicated lens attachable to the user terminal.
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  3. 제1항에 있어서,The method of claim 1,
    상기 촬상 영상을 전처리하는 단계는,Preprocessing the captured image,
    상기 촬상 영상으로부터 홍채 영역 및 망막 영역을 포함하는 관심 영역을 추출하는 단계;Extracting a region of interest including an iris region and a retina region from the captured image;
    상기 관심 영역에서 상기 홍채 영역 및 상기 망막 영역의 회전율을 구하기 위한 축을 설정하는 단계;Setting an axis for obtaining rotation rates of the iris region and the retinal region in the region of interest;
    상기 관심 영역에서 상기 홍채 영역 및 상기 망막 영역만 추출하는 단계; 및Extracting only the iris region and the retina region from the region of interest; And
    상기 회전율에 기초하여, 상기 홍채 영역 및 상기 망막 영역을 재배치하는 단계를 더 포함하는,Further relocating the iris region and the retinal region based on the rotation rate;
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  4. 제3항에 있어서,The method of claim 3,
    상기 축을 설정하는 단계는, 눈꺼풀 분할(Segmentation) 수행 후 상기 회전율을 구하기 위한 축을 설정하는 단계를 더 포함하고,The setting of the axis may further include setting an axis for obtaining the rotation rate after performing eyelid segmentation.
    상기 홍채 영역 및 상기 망막 영역을 재배치하는 단계는, 상기 관심 영역이 수직 방향에 대해 기울어져 있는 경우, 상기 회전율을 이용하여 상기 관심 영역이 상기 수직 방향에 대해 0°가 되도록 회전 및 보간법을 통해 재배치하는 단계를 더 포함하는,The repositioning of the iris region and the retinal region may include repositioning through rotation and interpolation such that the region of interest is 0 ° with respect to the vertical direction using the rotation rate when the region of interest is inclined with respect to the vertical direction. Further comprising the step of,
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  5. 제1항에 있어서,The method of claim 1,
    상기 해상도를 확장시키는 단계는, 상기 관심 영역을 특정 패치(Patch) 크기로 분할한 후, 분할한 영상에 대해 합성곱 신경망을 적용하여, 상기 관심 영역의 해상도를 미리 설정된 해상도로 확장시키는 단계를 더 포함하고,The expanding of the resolution may include: dividing the region of interest into a specific patch size, and then applying a multiplicative neural network to the divided image to extend the resolution of the region of interest to a preset resolution. Including,
    상기 합성곱 신경망이 적용되기 전에, 제로 패딩(Zero padding)이 추가되고,Before the convolutional neural network is applied, zero padding is added,
    상기 합성곱 신경망이 적용될 때, 이전 단계의 특징들을 재학습하기 위한 고 밀도 블록(Dense Block)이 사용되며, 스킵 연결(Skip Connection)이 적용되는,When the convolutional neural network is applied, a dense block for re-learning the features of the previous step is used, and a skip connection is applied.
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  6. 제1항에 있어서,The method of claim 1,
    상기 암호화하는 단계는, 상기 서버에 저장될 상기 홍채 영상 및 상기 망막 영상의 상기 데이터로부터 추출된 코드 값을 암호화 키로 사용하여 암호화하는 단계를 더 포함하는,The encrypting step may further include encrypting a code value extracted from the data of the iris image and the retina image to be stored in the server as an encryption key.
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  7. 제1항에 있어서,The method of claim 1,
    상기 인공 신경망을 학습하는 단계는,Learning the artificial neural network,
    상기 홍채 영상 및 상기 망막 영상의 상기 데이터를 데이터베이스에 저장하는 단계;Storing the data of the iris image and the retina image in a database;
    저장된 상기 데이터에 대해, 상기 당뇨병 또는 상기 전조 증상의 진단을 위한 분류, 검출 및 분할을 병렬적으로 수행하도록 상기 인공 신경망을 이용하여 학습하는 단계를 더 포함하고,Learning on the stored data using the artificial neural network in parallel to perform classification, detection and segmentation for diagnosing the diabetes or prognostic symptoms,
    상기 인공 신경망은 인수분해(Factorization) 방법, 분리가능한 컨볼루션(Depthwise Separable Convolution) 방법 및 포인트와이즈 컨볼루션(Pointwise Convolution) 방법을 포함하는,The artificial neural network includes a factorization method, a detachable convolution method, and a pointwise convolution method.
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 인공 신경망을 이용하여 학습하는 단계는,Learning using the artificial neural network,
    상기 홍채 영상 및 상기 망막 영상의 상기 데이터를 분류하여, 상기 당뇨병 또는 상기 전조 증상에 대한 특징 맵(Feature Map)을 추출하는 단계;Classifying the data of the iris image and the retinal image and extracting a feature map for the diabetes or prognostic symptoms;
    상기 특징 맵에 대해 RPN(Region Proposal Network)을 적용하여, 미리 정해진 앵커 박스(Anchor Box)에 대응하는 관심 영역을 추출하는 단계;Extracting a region of interest corresponding to a predetermined anchor box by applying a region proposal network (RPN) to the feature map;
    상기 학습된 영역에 대해 풀링(Pooling)을 적용하여, 상이한 크기의 영역을 동일한 크기의 영역으로 변환시키는 단계; 및Applying pooling to the learned region to convert regions of different sizes into regions of the same size; And
    상기 동일한 크기의 영역에 기초하여 상기 당뇨병 또는 상기 전조 증상에 해당하는 부위를 분류, 검출 및 분할하는 단계를 더 포함하는,Further comprising classifying, detecting, and dividing a region corresponding to the diabetes or the prognostic symptoms based on the same size region;
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  9. 제1항에 있어서,The method of claim 1,
    상기 당뇨병 발병 확률을 예측하는 단계는, 상기 홍채 영상 및 상기 망막 영상의 상기 데이터에 대해 상기 인공 신경망을 적용하여, 상기 전조 증상으로부터 상기 당뇨병 발병 확률을 예측하는 단계를 더 포함하는,Predicting the probability of developing diabetes further comprises applying the artificial neural network to the data of the iris image and the retinal image to predict the probability of developing diabetes from the prognostic symptoms,
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
  10. 제1항에 있어서,The method of claim 1,
    상기 당뇨병 발병 확률을 예측하는 단계 이후에,After predicting the probability of developing diabetes,
    상기 사용자 단말에서, 개인별 체질 진단 서비스, 합병증 진단 서비스 및 식습관 관리 서비스를 제공하는 단계를 더 포함하는,In the user terminal, further comprising the step of providing a personal constitution diagnosis service, complication diagnosis service and eating habits management service,
    홍채 및 망막 영상을 인공지능으로 분석하는 방법.Method of artificially analyzing iris and retinal images.
PCT/KR2018/003806 2018-03-30 2018-03-30 Artificial intelligence analysis method of iris image and retinal image to diagnose diabetes and presymptom WO2019189971A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/003806 WO2019189971A1 (en) 2018-03-30 2018-03-30 Artificial intelligence analysis method of iris image and retinal image to diagnose diabetes and presymptom

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/003806 WO2019189971A1 (en) 2018-03-30 2018-03-30 Artificial intelligence analysis method of iris image and retinal image to diagnose diabetes and presymptom

Publications (1)

Publication Number Publication Date
WO2019189971A1 true WO2019189971A1 (en) 2019-10-03

Family

ID=68058214

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/003806 WO2019189971A1 (en) 2018-03-30 2018-03-30 Artificial intelligence analysis method of iris image and retinal image to diagnose diabetes and presymptom

Country Status (1)

Country Link
WO (1) WO2019189971A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853764A (en) * 2019-11-28 2020-02-28 成都中医药大学 Diabetes syndrome prediction system
CN111223579A (en) * 2019-12-16 2020-06-02 郑州大学第一附属医院 Remote medical image enhancement system and method based on artificial intelligence
CN113378794A (en) * 2021-07-09 2021-09-10 博奥生物集团有限公司 Information correlation method for elephant and symptom information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010067839A (en) * 2000-04-03 2001-07-13 박승열 A system and method for diagnosing the iris of the eyes and device for photographing the iris of the eyes
US20130053700A1 (en) * 2010-11-05 2013-02-28 Freedom Meditech, Inc. Algorithm for detection of diabetes
WO2014015378A1 (en) * 2012-07-24 2014-01-30 Nexel Pty Ltd. A mobile computing device, application server, computer readable storage medium and system for calculating a vitality indicia, detecting an environmental hazard, vision assistance and detecting disease
KR20160097786A (en) * 2015-02-10 2016-08-18 삼성전자주식회사 User terminal and providing method thereof
US20170124415A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Subcategory-aware convolutional neural networks for object detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010067839A (en) * 2000-04-03 2001-07-13 박승열 A system and method for diagnosing the iris of the eyes and device for photographing the iris of the eyes
US20130053700A1 (en) * 2010-11-05 2013-02-28 Freedom Meditech, Inc. Algorithm for detection of diabetes
WO2014015378A1 (en) * 2012-07-24 2014-01-30 Nexel Pty Ltd. A mobile computing device, application server, computer readable storage medium and system for calculating a vitality indicia, detecting an environmental hazard, vision assistance and detecting disease
KR20160097786A (en) * 2015-02-10 2016-08-18 삼성전자주식회사 User terminal and providing method thereof
US20170124415A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Subcategory-aware convolutional neural networks for object detection

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853764A (en) * 2019-11-28 2020-02-28 成都中医药大学 Diabetes syndrome prediction system
CN110853764B (en) * 2019-11-28 2023-11-14 成都中医药大学 Diabetes syndrome prediction system
CN111223579A (en) * 2019-12-16 2020-06-02 郑州大学第一附属医院 Remote medical image enhancement system and method based on artificial intelligence
CN113378794A (en) * 2021-07-09 2021-09-10 博奥生物集团有限公司 Information correlation method for elephant and symptom information

Similar Documents

Publication Publication Date Title
KR102058883B1 (en) Method of analyzing iris image and retina image for diagnosing diabetes and pre-symptom in artificial intelligence
CN108549854B (en) A kind of human face in-vivo detection method
WO2021139146A1 (en) Information recommendation method, device, computer-readable storage medium, and apparatus
Grother et al. Performance of iris recognition algorithms on standard images
US20230080098A1 (en) Object recognition using spatial and timing information of object images at diferent times
WO2019189971A1 (en) Artificial intelligence analysis method of iris image and retinal image to diagnose diabetes and presymptom
CN110489577B (en) Medical image management method and device, fundus image processing method and electronic equipment
Hatanaka et al. Automatic microaneurysms detection on retinal images using deep convolution neural network
CN112446860B (en) Automatic screening method for diabetic macular edema based on transfer learning
Asare et al. Iron deficiency anemia detection using machine learning models: A comparative study of fingernails, palm and conjunctiva of the eye images
US11721023B1 (en) Distinguishing a disease state from a non-disease state in an image
WO2019189972A1 (en) Method for analyzing iris image by artificial intelligence so as to diagnose dementia
WO2022085986A1 (en) Deep-learning-based fundus image classification device and method for diagnosis of ophthalmological diseases
Kshirsagar et al. Recognition of diabetic retinopathy with ground truth segmentation using fundus images and neural network algorithm
Atalay et al. Investigation of the role of convolutional neural network architectures in the diagnosis of glaucoma using color fundus photography
WO2020246676A1 (en) System for automatic diagnosis of uterine cervical cancer
WO2024005542A1 (en) Method and device for predicting disease through wrinkle detection
KR102036052B1 (en) Artificial intelligence-based apparatus that discriminates and converts medical image conformity of non-standardized skin image
CN108710901B (en) Deep learning-based spine deformity screening system and method
CN111820863A (en) Method for analyzing iris image and retina image by artificial intelligence technology
Wang et al. Diagnosis of cognitive and motor disorders levels in stroke patients through explainable machine learning based on MRI
Ranjan et al. Detection of cataract and its level based on deep learning using mobile application
KR20080109425A (en) Methods and system for extracting facial features and verifying sasang constitution through image recognition
KR102580279B1 (en) Method for providing the necessary information for a diagnosis of alzheimer's disease and apparatus for executing the method
Suwandi et al. A Systematic Literature Review: Diabetic Retinopathy Detection Using Deep Learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18911708

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18911708

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 21/04/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18911708

Country of ref document: EP

Kind code of ref document: A1