WO2021137454A1 - Artificial intelligence-based method and system for analyzing user medical information - Google Patents
Artificial intelligence-based method and system for analyzing user medical information Download PDFInfo
- Publication number
- WO2021137454A1 WO2021137454A1 PCT/KR2020/017506 KR2020017506W WO2021137454A1 WO 2021137454 A1 WO2021137454 A1 WO 2021137454A1 KR 2020017506 W KR2020017506 W KR 2020017506W WO 2021137454 A1 WO2021137454 A1 WO 2021137454A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user information
- artificial intelligence
- user
- sharer
- analysis
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H80/00—ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
Definitions
- the present disclosure relates to a method and apparatus for analyzing user medical information based on artificial intelligence. More specifically, the present invention relates to a method and apparatus for providing an analysis result of user medical information based on artificial intelligence to a user, and allowing a sharer selected by the user to check the analysis result.
- AI Artificial Intelligence
- machines such as computers, perform thinking, learning, and analysis that are possible with human intelligence.
- Recently, the technology to apply AI to the medical industry is increasing.
- An artificial neural network is one of the techniques for implementing machine learning.
- an artificial neural network consists of an input layer, a hidden layer, and an output layer.
- Each layer is composed of neurons, and neurons in each layer are connected to the outputs of neurons in the previous layer.
- the value obtained by adding a bias to the inner product of each output value of the neurons of the previous layer and the corresponding connection weight is applied to the activation function, which is generally non-linear. and pass the output value to the neurons of the next layer.
- CNNs Convolutional Neural Networks
- CNNs are attracting a lot of attention in the field of image recognition, overwhelming the performance of existing machine learning techniques.
- the structure of a convolutional neural network is almost the same as that of a general artificial neural network, and additional components include a convolutional layer and a pooling layer.
- a technical problem according to the present disclosure is to provide a method and system for analyzing user medical information based on artificial intelligence.
- Another technical task according to the present disclosure is to provide a method and system for providing a user medical information analysis result to a sharer based on artificial intelligence.
- a user information analysis system includes a user interface for receiving user information and an analysis request for the user information from a user, an artificial intelligence model storage for storing an artificial intelligence model, and the analysis request in response to the It may include an artificial intelligence model interface for receiving at least one or more artificial intelligence models from the artificial intelligence model storage to perform analysis on the user information, and a data space for storing the user information and analysis results on the user information.
- the artificial intelligence model interface additionally receives an artificial intelligence shared recommendation model from the artificial intelligence model storage, and the artificial intelligence shared recommendation model analyzes the user information A sharer recommendation list may be generated based on the result.
- the system further includes a sharer interface, wherein the user interface receives an input for selecting a sharer from the user based on the generated sharer recommendation list;
- the sharer interface may transmit an analysis result of the user information to the selected sharer.
- the artificial intelligence model interface uses the artificial intelligence sharing recommendation model to classify the user based on the analysis result, and the sharer recommendation list is the classification result can be generated based on
- the artificial intelligence model storage may receive an input related to storage of the artificial intelligence model, deletion and update of the stored artificial intelligence model.
- the sharer recommendation list may include a plurality of sharers.
- the plurality of sharers included in the sharer recommendation list may be included in the order of recommendation.
- the AI sharing recommendation model may generate the sharer recommendation list based on filtering information input from the user.
- the analysis result of the user information may be provided to the user through the user interface.
- the sharer interface may receive feedback on an analysis result of the user information from the selected sharer, and the feedback may be stored in the data space.
- the user information may include the user's medical information.
- the artificial intelligence model interface extracts a feature point for the user information using the received at least one or more artificial intelligence model, and the extracted feature point is the It may be shared between at least one or more AI models.
- a user information analysis method performed by a user information analysis system including a user interface, an artificial intelligence model repository, an artificial intelligence model interface, and a data space the user information and the information from the user through the user interface
- Receiving an analysis request for user information performing analysis on the user information requested for analysis through the AI model interface using at least one AI model stored in the AI model storage, and the user
- the method may include storing information and an analysis result of the user information in the data space.
- the method further comprises the step of additionally using an artificial intelligence sharing recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface, the artificial intelligence sharing The recommendation model may generate a sharer recommendation list based on an analysis result of the user information.
- the system further includes a sharer interface, wherein the method receives an input for selecting at least one sharer from the generated sharer recommendation list from the user to the sharer interface
- the method may further include the step of receiving the user information and transmitting the analysis result of the user information to the selected sharer through the sharer interface.
- the method further comprises the step of classifying the user based on the analysis result by using the artificial intelligence shared recommendation model through the artificial intelligence model interface, , the sharer recommendation list may be generated based on the classification result.
- the method may receive an input regarding at least one of the storage of the artificial intelligence model, the deletion and the update of the stored artificial intelligence model through the artificial intelligence model storage.
- the sharer recommendation list may include a plurality of sharers.
- the plurality of sharers included in the sharer recommendation list may be included in the order of recommendation.
- the AI sharing recommendation model may generate the sharer recommendation list based on filtering information input from the user.
- the method may further include providing an analysis result of the user information to the user through the user interface.
- the method includes: receiving a feedback on the analysis result of the user information from the selected sharer through the sharer interface; and storing the feedback in the data space It may include further steps.
- the user information may include the user's medical information.
- the performing of the analysis on the user information requested to be analyzed includes: extracting a feature point for the user information by using the at least one or more artificial intelligence models Including, the extracted feature points may be shared among the at least one or more artificial intelligence models.
- the user information analysis method includes user information from a user through the user interface and receiving an analysis request for the user information, receiving at least one or more artificial intelligence models from the artificial intelligence model storage in response to the analysis request through the artificial intelligence model interface to perform analysis on the user information and storing the user information and an analysis result for the user information through the data space.
- a method and system for analyzing user medical information based on artificial intelligence may be provided.
- a method and system for providing a user medical information analysis result to a sharer based on artificial intelligence may be provided.
- FIG. 1 is a diagram illustrating the configuration of an artificial intelligence-based user medical information analysis system according to an embodiment of the present disclosure.
- FIG. 2 is a diagram showing the configuration of a deep learning model learning apparatus for analyzing user medical information, according to an embodiment of the present disclosure.
- FIG. 3 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present disclosure.
- FIG. 4 is a diagram for explaining an embodiment of a convolutional neural network for generating a multi-channel feature map.
- FIG. 5 is a diagram for explaining an embodiment of a pooling technique.
- a component when a component is “connected”, “coupled” or “connected” to another component, it is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in the middle. may also include.
- a component when a component is said to "include” or “have” another component, it means that another component may be further included without excluding other components unless otherwise stated. .
- first, second, etc. are used only for the purpose of distinguishing one component from other components, and unless otherwise specified, the order or importance between the components is not limited. Accordingly, within the scope of the present invention, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is referred to as a first component in another embodiment. can also be called
- components that are distinguished from each other are for clearly explaining each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Accordingly, even if not specifically mentioned, such integrated or dispersed embodiments are also included in the scope of the present invention.
- components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment composed of a subset of components described in one embodiment is also included in the scope of the present invention. In addition, embodiments including other components in addition to the components described in various embodiments are also included in the scope of the present invention.
- units means a unit for processing at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.
- FIG. 1 is a diagram illustrating the configuration of an artificial intelligence-based user medical information analysis system according to an embodiment of the present disclosure.
- an artificial intelligence-based user medical information analysis system 100 includes a user interface 110 , a data space 111 , an artificial intelligence model interface 112 , and artificial intelligence. It may include a model repository 113 , a sharer interface 115 , and a visualization module 116 .
- the user 101 may transmit and/or receive information with the user medical information analysis system 100 through the user interface 110 .
- the user 101 may mean a user device.
- a user device may be a computing device that includes a memory, processor, display, and/or communication module.
- the user 101 may store user information in the data space 111 through the user interface 110 .
- the user 101 may view the stored user information through the user interface 110 .
- a visualization module 116 to be described later may be used to view user information stored in the data space 111 .
- the user 101 may modify or delete user information stored in the data space 111 .
- the user information may be personal information (eg, age, gender, occupation, address, current location, etc.) of the user 101, medical information (eg, diagnosis history and treatment history, medical image, etc.) have.
- the present invention is not necessarily limited thereto, and the user information may include various information necessary for performing the method for analyzing medical information according to the present invention.
- the user 101 may request the user medical information analysis system 100 to analyze the user information through the user interface 110 .
- the user 101 may select the visualization module 116 through the user interface 110 to check the artificial intelligence analysis result for the input user information.
- the user 101 may select the user information stored in the data space 111 and/or the analysis result of the user information.
- the selected user information and/or an analysis result of the user information may be transmitted to the visualization module 116 .
- the visualization module 116 may process the transmitted user information and/or the analysis result of the user information into a form that the user can view.
- the visualization module may transmit user information processed in a viewable form and/or an analysis result of user information to the user 101 through the user interface 110 .
- the user 101 may view, for example, the user information transmitted through a display provided in the user device and/or the analysis result of the user information.
- the visualization module 116 may be provided on the user 101 side.
- the user device may include a visualization module 116 .
- the user 101 may select user information stored in the data space 111 and/or an analysis result of the user information.
- the selected user information and/or the analysis result of the user information may be processed in a form that can be viewed by the user through the visualization module 116 located in the user device.
- the analysis result of the user information may be provided to the user 101 in the form of a report or a file as well as in the visualization module 116 .
- a user may download an analysis result of user information in the form of a document such as PDF, JPG, GIF, or the like.
- the present invention is not necessarily limited thereto, and the analysis result of the user information may be provided to the user through various forms.
- the artificial intelligence model storage 113 may individually store a plurality of artificial intelligence models.
- an artificial intelligence model suitable for analyzing the user information may be selected from the artificial intelligence model storage 113 and transmitted to the artificial intelligence model interface 112 .
- the transmitted artificial intelligence model may be single or plural.
- developer 104 may modify and/or delete the AI model stored in the AI model storage 113 , or add a new AI model.
- Developer 104 may refer to a developer device.
- a developer device may be a computing device that includes a memory, processor, display, and/or communication module.
- the artificial intelligence model interface 112 may perform analysis of user information by mounting a single or a plurality of artificial intelligence models received from the artificial intelligence model storage 113 .
- the analysis of user information may be performed by sequentially inputting user information into the artificial intelligence model.
- User information for analysis may be transmitted from the data space 111 . In this case, when the analysis of user information is completed, the mounted single or a plurality of artificial intelligence models may be deleted.
- the artificial intelligence model interface 112 uses an artificial neural network (eg, a convolutional neural network (CNN), etc.)
- CNN convolutional neural network
- the extracted feature points of the user medical image may be shared among AI models.
- the feature points extracted from one AI model can be used in another AI model.
- a detailed analysis method for a user medical image will be described later with reference to FIGS. 2 to 5 .
- the artificial intelligence analysis result analyzed in the artificial intelligence model interface 112 may be stored in the data space 111 .
- the user 101 may check the AI analysis result through the user interface 110 .
- the artificial intelligence model interface 112 may extract text from the corresponding voice information.
- the extracted text may be used for user information analysis.
- user medical information may be digitized.
- the artificial intelligence model interface 112 may classify users by synthesizing user information including digitized user medical information and text extracted from the user's voice information. For example, when the input user information indicates blood pressure below the normal range, the user who has input the corresponding information may be classified as a user with 'low blood pressure symptoms'. In addition, when the input user information is an image including a benign tumor having a shape similar to that of prostate cancer, the user who has input the corresponding information may be classified as a user having a risk of 'prostate cancer'.
- the artificial intelligence model interface 112 may generate a sharer recommendation list 102 including a single or a plurality of sharers by using the classified user information.
- Sharers included in the sharer recommendation list 102 may be included in the order of recommendation.
- the generated sharer recommendation list 102 may be filtered by reflecting the corresponding filter value.
- the user 101 may check the sharer recommendation list 102 generated through the user interface 110 .
- the artificial intelligence model interface 112 may create a hospital list by setting hospitals specializing in 'prostate cancer' as sharers. In this case, when the user inputs a filter value excluding a specific hospital through the user interface, the corresponding hospital may be removed from the created hospital list.
- the filter value of the sharer 103 may be reflected in the created sharer recommendation list 102 .
- the hospital may request removal of the corresponding hospital and/or change of the recommendation order from the generated sharer recommendation list.
- the user 101 may select a specific sharer 103 from the created sharer recommendation list 102 .
- the sharer 103 selected by the user 101 may access the visualization module 116 through the sharer interface 115 to check the user information input by the user 101 and the artificial intelligence analysis result of the user information. have.
- the sharer 103 may provide feedback such as correcting an image included in the artificial intelligence analysis result of the user information or inputting a new one through the sharer interface 115 .
- the sharer 103 may provide feedback by writing a supplementary opinion on the artificial intelligence analysis result of user information.
- the modified or newly input artificial intelligence analysis result may be stored in the data space 111 .
- the user may select hospital A.
- the selected hospital A may check the user medical image input by the user through the sharer interface.
- hospital A may check the AI analysis result of the user's medical image through the sharer interface.
- the data space 111 and the artificial intelligence model storage 113 may be implemented using cloud technology, but are not necessarily limited thereto.
- FIG. 2 is a diagram showing the configuration of a deep learning model learning apparatus for analyzing user medical information, according to an embodiment of the present disclosure.
- the deep learning model learning apparatus 20 may be an embodiment of an artificial intelligence model mounted on an artificial intelligence model interface.
- the deep learning model training apparatus 20 may include a feature extractor 21 , a context generator 22 , and a feature and context analyzer 23 .
- the deep learning model learning apparatus 20 extracts features of the user's medical image to be analyzed, generates context information based on the extracted features, and analyzes the analysis target image based on the extracted features and the generated context information. have.
- the deep learning model training apparatus 20 may classify an image or find a location of an object of interest by using the extracted feature and the generated context information.
- the input image of the deep learning model training apparatus 20 may be at least one medical image (MRI, CT, X-ray, etc.).
- the feature extractor 21 may analyze the input image to extract features of the image.
- the feature may be a local feature for each region of the image.
- the feature extraction unit 21 may extract features of the input image using a general convolutional neural network (CNN) technique or a pooling technique.
- the pooling technique may include at least one of a max pooling technique and an average pooling technique.
- the pooling technique referred to in the present disclosure is not limited to the max pooling technique or the average pooling technique, and includes any technique for obtaining a representative value of an image region of a predetermined size.
- the representative value used in the pooling technique may be at least one of a variance value, a standard deviation value, a mean value, a most frequent value, a minimum value, and a weighted average value, in addition to the maximum value and the average value.
- the convolutional neural network of the present disclosure may be used to extract features such as edges and line colors from input data (image), and may include a plurality of layers. Each layer may receive input data, process the input data of the corresponding layer, and generate output data.
- the convolutional neural network may output a feature map generated by convolving an input image or an input feature map with filter kernels as output data.
- the initial layers of a convolutional neural network may be operated to extract low-level features such as edges or gradients from the input.
- the next layers of the neural network can extract progressively more complex features such as eyes, noses, etc. A detailed operation of the convolutional neural network will be described later with reference to FIG. 4 .
- a convolutional neural network may include a pooling layer on which a pooling operation is performed in addition to a convolutional layer on which a convolution operation is performed.
- the pooling technique is a technique used to reduce the spatial size of data in the pooling layer.
- the pooling technique there are a max pooling technique that selects a maximum value in a corresponding region and an average pooling technique that selects an average value of the corresponding region.
- the max pooling technique is used in the image recognition field. used In the pooling technique, in general, the window size and interval (stride) of pooling are set to the same value.
- the stride refers to an interval to be moved when a filter is applied to input data, that is, an interval to which the filter is moved, and the stride may also be used to adjust the size of the output data. A detailed operation of the pooling technique will be described later with reference to FIG. 5 .
- the feature extraction unit 21 may apply filtering to the analysis target image as pre-processing for extracting features of the analysis target image.
- the filtering may be a Fast Fourier Transform (FFT), a histogram equalization, a motion artifact removal or noise removal, and the like.
- FFT Fast Fourier Transform
- the filtering of the present disclosure is not limited to the methods listed above, and may include all types of filtering capable of improving image quality.
- the context generator 22 may generate context information of the input image (analysis target image) by using the features of the input image extracted from the feature extractor 21 .
- the context information may be a representative value indicating all or a partial region of an image to be analyzed.
- the context information may be global context information of the input image.
- the context generating unit 22 may generate context information by applying a convolutional neural network technique or a pooling technique to the features extracted from the feature extracting unit 21 .
- the pooling technique may be, for example, an average pooling technique.
- the feature and context analyzer 23 may analyze the image based on the feature extracted by the feature extractor 21 and the context information generated by the context generator 22 .
- the feature and context analyzer 23 according to an embodiment concatenates the local features for each region of the image extracted by the feature extractor 21 and the global context reconstructed by the context generator 22 . It can be used to classify an input image or to find a location of an object of interest included in an input image by using them together. Since information at a specific two-dimensional position in the input image includes not only local feature information but also global context information, the feature and context analyzer 23 uses these information, so that the actual content is different but local feature information It is possible to more accurately recognize or classify input images similar to .
- the invention according to an embodiment of the present disclosure enables more accurate and efficient learning and image analysis by using global context information as well as local features used by general convolutional neural network techniques. do. From this point of view, the invention according to the present disclosure may be referred to as 'deep neural network through context analysis'.
- FIG. 3 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present disclosure.
- the feature extractor 21 may extract a feature from the input image 301 using the input image 301 and generate a feature image 302 including the extracted feature information.
- the extracted feature may be a feature of a local region of the input image.
- the input image 301 may include an input image of an image analysis apparatus or a feature map in each layer in a convolutional neural network model.
- the feature image 302 may include a feature map and/or feature vector obtained by applying a convolutional neural network technique and/or a pooling technique to the input image 301 .
- the context generator 22 may generate context information by applying a convolutional neural network technique and/or a pooling technique to the feature image 302 extracted by the feature extractor 21 .
- the context generator 22 may generate context information of various scales, such as an entire image, a quadrant region, a ninth region, and the like by variously adjusting the stride of the pooling. Referring to FIG.
- a full context information image 311 including context information for an image of the full image size, and a quadrant context information image including context information for a quadrant image of a size obtained by dividing the entire image into quarters ( 312) and a ninth segmented context information image 313 including context information on the nineth segmented image having a size obtained by dividing the entire image into nine equal parts may be obtained.
- the feature and context analyzer 23 may use both the feature image 302 and the context information images 311 , 312 , and 313 to more accurately analyze a specific region of the image to be analyzed.
- the feature extraction unit 21 may recognize the shape of the object based on the local feature, but may not be able to accurately identify and classify the object with only the shape of the object.
- the context generator 22 according to an embodiment of the present disclosure generates context information 311 , 312 , and 313 based on the analysis target image or the feature image 302 to more accurately identify and classify objects.
- the feature and context analyzer 23 may identify the object having the shape of the prostate cancer or benign tumor as “prostate cancer” by using the context information.
- the context information for the entire image, the context information for the quadrant image, and the context information for the ninth segment image are generated and utilized, but the size of the image from which the context information is extracted is It is not limited to this.
- context information about an image having a size other than the above-described size may be generated and utilized.
- FIG. 4 is a diagram for explaining an embodiment of a convolutional neural network for generating a multi-channel feature map.
- Image processing based on convolutional neural networks can be used in various fields.
- an image processing apparatus for object recognition of an image an image processing apparatus for image reconstruction, an image processing apparatus for semantic segmentation, and image processing for scene recognition It can be used for devices and the like.
- the input image 410 may be processed through the convolutional neural network 400 to output a feature map image.
- the output feature map image may be utilized in various fields described above.
- the convolutional neural network 400 may be processed through a plurality of layers 420 , 430 , and 440 , and each layer may output multi-channel feature map images 425 and 435 .
- the plurality of layers 420 , 430 , and 440 may extract features of an image by applying a filter of a predetermined size from the upper left to the lower right of the received data.
- the plurality of layers 420 , 430 , and 440 are mapped to one neuron in the upper left corner of the feature map by multiplying the upper left N ⁇ M pixel of the input data by a weight.
- the multiplied weight will also be N ⁇ M.
- the N ⁇ M may be, for example, 3 ⁇ 3, but is not limited thereto.
- the plurality of layers 420 , 430 , and 440 scan the input data from left to right and from top to bottom by k cells, multiplying them by weights, and map them to neurons of the feature map.
- the k column means a stride for moving the filter when performing convolution, and may be appropriately set to adjust the size of output data.
- k may be 1.
- the N ⁇ M weight is referred to as a filter or filter kernel. That is, the process of applying the filter in the plurality of layers 420 , 430 , and 440 is a process of performing a convolution operation with the filter kernel, and the result extracted as a result is a "feature map" or a "feature map” map image". Also, a layer on which a convolution operation is performed may be referred to as a convolution layer.
- multi-channel feature map means a set of feature maps corresponding to a plurality of channels, and may be, for example, a plurality of image data.
- the multi-channel feature maps may be an input in an arbitrary layer of a convolutional neural network, and may be an output according to a feature map operation result such as a convolution operation.
- the multi-channel feature maps 425 and 435 are generated by a plurality of layers 420 , 430 , 440 also referred to as “feature extraction layers” or “convolutional layers” of a convolutional neural network. do. Each layer may sequentially receive the multi-channel feature maps generated in the previous layer, and generate subsequent multi-channel feature maps as output.
- the L (L is an integer)-th layer 540 may receive the multi-channel feature maps generated in the L-1 th layer (not shown) to generate multi-channel feature maps (not shown).
- the feature maps 425 having K1 channels are outputs according to the feature map operation 420 in the layer 1 with respect to the input image 410 and the feature map operation 430 in the layer 2 ) is an input for
- the feature maps 435 having K2 channels are outputs according to the feature map operation 430 in the layer 2 for the input feature maps 425, and also the feature map operation in the layer 3 (not shown) input for
- the multi-channel feature maps 425 generated in the first layer 420 include feature maps corresponding to K1 (K1 is an integer) number of channels.
- the multi-channel feature maps 435 generated in the second layer 430 include feature maps corresponding to K2 (K2 is an integer) number of channels.
- K1 and K2 indicating the number of channels may correspond to the number of filter kernels used in the first layer 420 and the second layer 430 , respectively. That is, the number of multi-channel feature maps generated in the M-th layer (M is an integer greater than or equal to 1 L-1) may be the same as the number of filter kernels used in the M-th layer.
- FIG. 5 is a diagram for explaining an embodiment of a pooling technique.
- the window size of pooling is 2 ⁇ 2 and the stride is 2, and max pooling may be applied to the input image 510 to generate the output image 590 .
- a 2X2 window 510 is applied to the upper left corner of the input image 510 , and a representative value (here, the maximum value 4) is calculated among the values in the window 510 area, and the output image 590 is ) to the corresponding position 520 of the input.
- the window is moved by the stride, that is, by two, and the maximum value 3 among the values in the area of the window 530 is input to the corresponding position 540 of the output image 590 .
- the above process is repeated from the position below the stride from the left side of the input image again. That is, as shown in FIG. 5C , the maximum value 5 among the values in the window 550 region is input to the corresponding position 560 of the output image 590 .
- the window is moved by a stride, and the maximum value 2 among values in the area of the window 570 is input to the corresponding position 580 of the output image 590 .
- the above process is repeatedly performed until a window is located in the lower right area of the input image 510 , thereby generating the output image 590 to which the pooling is applied to the input image 510 .
- the deep learning-based model of the present disclosure includes a fully convolutional neural network (fully convolutional neural network), a convolutional neural network (convolutional neural network), and a recurrent neural network (recurrent neural network). ), a restricted Boltzmann machine (RBM), and at least one of a deep belief neural network (DBN), but is not limited thereto.
- machine learning methods other than deep learning may be included.
- it may include a hybrid model that combines deep learning and machine learning. For example, a feature of an image is extracted by applying a deep learning-based model, and a machine learning-based model may be applied when classifying or recognizing an image based on the extracted feature.
- the machine learning-based model may include, but is not limited to, a support vector machine (SVM), an AdaBoost, and the like.
- Exemplary methods of the present invention are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order if necessary.
- other steps may be included in addition to the illustrated steps, steps may be excluded from some steps, and/or other steps may be included except for some steps.
- various embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.
- ASICs Application Specific Integrated Circuits
- DSPs Digital Signal Processors
- DSPDs Digital Signal Processing Devices
- PLDs Programmable Logic Devices
- FPGAs Field Programmable Gate Arrays
- general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.
- the scope of the present invention includes software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause operation according to the method of various embodiments to be executed on a device or computer, and such software or and non-transitory computer-readable media in which instructions and the like are stored and executed on a device or computer.
- software or machine-executable instructions eg, operating system, application, firmware, program, etc.
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Disclosed are an artificial intelligence-based method and system for analyzing user medical information. A user information analysis system according to an embodiment of the present invention may comprise: a user interface which receives, from a user, user information and a request to analyze the user information; an artificial intelligence model storage which stores an artificial intelligence model; an artificial intelligence interface which receives at least one artificial intelligence model from the artificial intelligence model storage in response to the analysis request, and analyzes the user information; and a data space for storing the user information and the result of analyzing the user information.
Description
본 개시는 인공지능 기반의 사용자 의료정보 분석 방법 및 장치에 대한 것이다. 보다 구체적으로, 본 발명은 인공지능을 기반으로 한 사용자 의료 정보의 분석 결과 등을 사용자에게 제공하고, 사용자가 선택한 공유자가 해당 분석 결과를 확인할 수 있는 방법 및 장치에 대한 것이다.The present disclosure relates to a method and apparatus for analyzing user medical information based on artificial intelligence. More specifically, the present invention relates to a method and apparatus for providing an analysis result of user medical information based on artificial intelligence to a user, and allowing a sharer selected by the user to check the analysis result.
AI(Artificial Intelligence)는 인간의 지능으로 가능한 사고, 학습 및 분석 등을 컴퓨터 등의 기계가 수행하는 것을 의미한다. 최근 이러한 AI를 의료 산업에 접목하는 기술이 증가하고 있는 실정이다.AI (Artificial Intelligence) means that machines, such as computers, perform thinking, learning, and analysis that are possible with human intelligence. Recently, the technology to apply AI to the medical industry is increasing.
인공 신경망(Artificial Neural Network, ANN)은 기계 학습(machine learning)을 구현하는 기법들 중 하나이다.An artificial neural network (ANN) is one of the techniques for implementing machine learning.
일반적으로 인공 신경망은 입력 계층(input layer), 은닉 계층(hidden layer) 및 출력 계층(output layer)으로 이루어져 있다. 각 계층들은 뉴런(neuron)들로 구성되어 있으며, 각 계층의 뉴런들은 이전 계층의 뉴런들의 출력과 연결되어 있다. 이전 계층의 뉴런들의 각 출력 값과 그에 상응하는 연결 가중치(weight)를 내적(inner product)한 값에 바이어스(bias)를 더한 값을 일반적으로 비선형(non-linear)인 활성화 함수(activation function)에 넣고 그 출력 값을 다음 단계 계층의 뉴런들에게 전달한다. In general, an artificial neural network consists of an input layer, a hidden layer, and an output layer. Each layer is composed of neurons, and neurons in each layer are connected to the outputs of neurons in the previous layer. The value obtained by adding a bias to the inner product of each output value of the neurons of the previous layer and the corresponding connection weight is applied to the activation function, which is generally non-linear. and pass the output value to the neurons of the next layer.
합성곱 신경망(Convolutional Neural Network, CNN)은 영상 인식 분야에서 기존의 기계 학습 기법들의 성능을 압도하며 크게 주목받고 있다. 합성곱 신경망의 구조는 일반적인 인공 신경망의 구조와 거의 동일한데, 추가적인 구성요소로는 합성곱 계층(convolutional layer)와 통합 계층(pooling layer)이 있다.Convolutional Neural Networks (CNNs) are attracting a lot of attention in the field of image recognition, overwhelming the performance of existing machine learning techniques. The structure of a convolutional neural network is almost the same as that of a general artificial neural network, and additional components include a convolutional layer and a pooling layer.
한편, 현대 의학에서 의료 영상은 효과적인 질병의 진단 및 환자의 치료를 위해 매우 중요한 도구이다. 또한 영상 기술의 발달은 더욱 정교한 의료 영상 데이터 획득을 가능하게 하고 있다. 이러한 정교함의 대가로 데이터의 양이 점차 방대해지고 있어 의료 영상 데이터를 인간의 시각에 의존하여 분석하는 데 많은 어려움이 따르고 있다.Meanwhile, in modern medicine, medical imaging is a very important tool for effective disease diagnosis and patient treatment. In addition, the development of imaging technology makes it possible to acquire more sophisticated medical image data. In exchange for such sophistication, the amount of data is gradually increasing, and there are many difficulties in analyzing medical image data depending on the human perspective.
본 발명의 배경이 되는 기술은 대한민국 공개특허공보 제10-2018-0108501(2018.10.04 공개)에 개시되어 있다.The technology underlying the present invention is disclosed in Korean Patent Application Laid-Open No. 10-2018-0108501 (published on October 4, 2018).
본 개시에 따른 기술적 과제는 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템을 제공하는 것이다. A technical problem according to the present disclosure is to provide a method and system for analyzing user medical information based on artificial intelligence.
본 개시에 따른 다른 기술적 과제는 인공지능을 기반으로 사용자 의료정보 분석 결과를 공유자에 제공하는 방법 및 시스템을 제공하는 것이다.Another technical task according to the present disclosure is to provide a method and system for providing a user medical information analysis result to a sharer based on artificial intelligence.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템은, 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 사용자 인터페이스, 인공지능 모델을 저장하는 인공지능 모델 저장소, 상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 인공지능 모델 인터페이스 및 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 데이터 공간을 포함할 수 있다.A user information analysis system according to an embodiment of the present disclosure includes a user interface for receiving user information and an analysis request for the user information from a user, an artificial intelligence model storage for storing an artificial intelligence model, and the analysis request in response to the It may include an artificial intelligence model interface for receiving at least one or more artificial intelligence models from the artificial intelligence model storage to perform analysis on the user information, and a data space for storing the user information and analysis results on the user information.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 인터페이스는 상기 인공지능 모델 저장소로부터 인공지능 공유 추천 모델을 추가적으로 수신하고, 상기 인공지능 공유 추천 모델은 상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성할 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the artificial intelligence model interface additionally receives an artificial intelligence shared recommendation model from the artificial intelligence model storage, and the artificial intelligence shared recommendation model analyzes the user information A sharer recommendation list may be generated based on the result.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 시스템은 공유자 인터페이스를 더 포함하고, 상기 사용자 인터페이스는 상기 생성된 공유자 추천 리스트에 기초하여 상기 사용자로부터 공유자를 선택하는 입력을 수신하고, 상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과를 상기 선택된 공유자에게 송신할 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the system further includes a sharer interface, wherein the user interface receives an input for selecting a sharer from the user based on the generated sharer recommendation list; The sharer interface may transmit an analysis result of the user information to the selected sharer.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 인터페이스는 상기 인공지능 공유 추천 모델을 이용하여 상기 분석 결과에 기초하여 상기 사용자를 분류하고, 상기 공유자 추천 리스트는 상기 분류 결과에 기초하여 생성될 수 있다.In the user information analysis system according to an embodiment of the present disclosure, the artificial intelligence model interface uses the artificial intelligence sharing recommendation model to classify the user based on the analysis result, and the sharer recommendation list is the classification result can be generated based on
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 저장소는 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트에 관한 입력을 수신할 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the artificial intelligence model storage may receive an input related to storage of the artificial intelligence model, deletion and update of the stored artificial intelligence model.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 추천 리스트는 복수의 공유자를 포함할 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the sharer recommendation list may include a plurality of sharers.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the plurality of sharers included in the sharer recommendation list may be included in the order of recommendation.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성할 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the AI sharing recommendation model may generate the sharer recommendation list based on filtering information input from the user.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 사용자 정보에 대한 분석 결과는 상기 사용자 인터페이스를 통해 상기 사용자에게 제공될 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the analysis result of the user information may be provided to the user through the user interface.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하고 상기 피드백은 상기 데이터 공간에 저장될 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the sharer interface may receive feedback on an analysis result of the user information from the selected sharer, and the feedback may be stored in the data space.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 사용자 정보는 상기 사용자의 의료 정보를 포함할 수 있다. In the user information analysis system according to an embodiment of the present disclosure, the user information may include the user's medical information.
본 개시의 일 실시예에 따른 사용자 정보 분석 시스템이 있어서, 상기 인공지능 모델 인터페이스는, 상기 수신한 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하고, 상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유될 수 있다.In the user information analysis system according to an embodiment of the present disclosure, the artificial intelligence model interface extracts a feature point for the user information using the received at least one or more artificial intelligence model, and the extracted feature point is the It may be shared between at least one or more AI models.
본 개시의 다른 양상에 따른 사용자 인터페이스, 인공지능 모델 저장소, 인공지능 모델 인터페이스 및 데이터 공간을 포함하는 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법은, 상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계, 상기 인공지능 모델 저장소에 저장된 적어도 하나 이상의 인공지능 모델을 이용하여 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계 및 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 상기 데이터 공간에 저장하는 단계를 포함할 수 있다.A user information analysis method performed by a user information analysis system including a user interface, an artificial intelligence model repository, an artificial intelligence model interface, and a data space according to another aspect of the present disclosure, the user information and the information from the user through the user interface Receiving an analysis request for user information, performing analysis on the user information requested for analysis through the AI model interface using at least one AI model stored in the AI model storage, and the user The method may include storing information and an analysis result of the user information in the data space.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 더 포함하고, 상기 인공지능 공유 추천 모델은 상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성할 수 있다.In the user information analysis method according to an embodiment of the present disclosure, the method further comprises the step of additionally using an artificial intelligence sharing recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface, the artificial intelligence sharing The recommendation model may generate a sharer recommendation list based on an analysis result of the user information.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 시스템은 공유자 인터페이스를 더 포함하고, 상기 방법은 상기 생성된 공유자 추천 리스트로부터 적어도 하나의 공유자를 선택하는 입력을 상기 사용자로부터 상기 공유자 인터페이스를 통해 수신하는 단계 및 상기 사용자 정보에 대한 분석 결과를 상기 공유자 인터페이스를 통해 상기 선택된 공유자에게 송신하는 단계를 더 포함할 수 있다.In the user information analysis method according to an embodiment of the present disclosure, the system further includes a sharer interface, wherein the method receives an input for selecting at least one sharer from the generated sharer recommendation list from the user to the sharer interface The method may further include the step of receiving the user information and transmitting the analysis result of the user information to the selected sharer through the sharer interface.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 인터페이스를 통해 상기 인공지능 공유 추천 모델을 이용함으로써 상기 분석 결과에 기초하여 상기 사용자를 분류하는 단계를 더 포함하고, 상기 공유자 추천 리스트는 상기 분류 결과에 기초하여 생성될 수 있다.In the user information analysis method according to an embodiment of the present disclosure, the method further comprises the step of classifying the user based on the analysis result by using the artificial intelligence shared recommendation model through the artificial intelligence model interface, , the sharer recommendation list may be generated based on the classification result.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 저장소를 통해 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트 중 적어도 하나에 관한 입력을 수신할 수 있다.In the user information analysis method according to an embodiment of the present disclosure, the method may receive an input regarding at least one of the storage of the artificial intelligence model, the deletion and the update of the stored artificial intelligence model through the artificial intelligence model storage. can
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 공유자 추천 리스트는 복수의 공유자를 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present disclosure, the sharer recommendation list may include a plurality of sharers.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. In the user information analysis method according to an embodiment of the present disclosure, the plurality of sharers included in the sharer recommendation list may be included in the order of recommendation.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성할 수 있다.In the user information analysis method according to an embodiment of the present disclosure, the AI sharing recommendation model may generate the sharer recommendation list based on filtering information input from the user.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 사용자 인터페이스를 통해 상기 사용자 정보에 대한 분석 결과를 상기 사용자에게 제공하는 단계를 더 포함할 수 있다.In the user information analysis method according to an embodiment of the present disclosure, the method may further include providing an analysis result of the user information to the user through the user interface.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 공유자 인터페이스를 통해 상기 사용자 정보의 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하는 단계 및 상기 데이터 공간에 상기 피드백을 저장하는 단계를 더 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present disclosure, the method includes: receiving a feedback on the analysis result of the user information from the selected sharer through the sharer interface; and storing the feedback in the data space It may include further steps.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 사용자 정보는 상기 사용자의 의료 정보를 포함할 수 있다.In the user information analysis method according to an embodiment of the present disclosure, the user information may include the user's medical information.
본 개시의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계는, 상기 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하는 단계를 포함하고, 상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유될 수 있다.In the method for analyzing user information according to an embodiment of the present disclosure, the performing of the analysis on the user information requested to be analyzed includes: extracting a feature point for the user information by using the at least one or more artificial intelligence models Including, the extracted feature points may be shared among the at least one or more artificial intelligence models.
본 개시의 또 다른 양상에 따른 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법을 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 있어서, 상기 사용자 정보 분석 방법은 상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계, 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 단계 및 상기 데이터 공간을 통해 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 단계를 포함할 수 있다.In a computer-readable recording medium recording a program for performing a user information analysis method performed by a user information analysis system according to another aspect of the present disclosure, the user information analysis method includes user information from a user through the user interface and receiving an analysis request for the user information, receiving at least one or more artificial intelligence models from the artificial intelligence model storage in response to the analysis request through the artificial intelligence model interface to perform analysis on the user information and storing the user information and an analysis result for the user information through the data space.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the present disclosure are merely exemplary aspects of the detailed description of the invention that follows, and do not limit the scope of the invention.
본 개시에 따르면, 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템이 제공될 수 있다. According to the present disclosure, a method and system for analyzing user medical information based on artificial intelligence may be provided.
또한, 본 개시에 따르면, 인공지능을 기반으로 사용자 의료정보 분석 결과를 공유자에 제공하는 방법 및 시스템이 제공될 수 있다.Also, according to the present disclosure, a method and system for providing a user medical information analysis result to a sharer based on artificial intelligence may be provided.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention pertains from the description below. will be.
도 1은 본 개시의 일 실시예에 따른, 인공지능 기반의 사용자 의료정보 분석 시스템의 구성을 나타내는 도면이다.1 is a diagram illustrating the configuration of an artificial intelligence-based user medical information analysis system according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른, 사용자 의료정보 분석을 위한 딥러닝 모델 학습 장치의 구성을 나타내는 도면이다.2 is a diagram showing the configuration of a deep learning model learning apparatus for analyzing user medical information, according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른, 영상의 맥락 정보를 생성하고 분석하는 과정을 나타내는 도면이다.3 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present disclosure.
도 4는 다채널 특징맵을 생성하는 합성곱 신경망의 일 실시 예를 설명하기 위한 도면이다.4 is a diagram for explaining an embodiment of a convolutional neural network for generating a multi-channel feature map.
도 5는 풀링 기법의 일 실시 예를 설명하기 위한 도면이다.5 is a diagram for explaining an embodiment of a pooling technique.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 이 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein.
본 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the description of the present embodiment, if it is determined that a detailed description of a known configuration or function may obscure the gist of the present disclosure, a detailed description thereof will be omitted. And, in the drawings, parts not related to the description of the present invention are omitted, and similar reference numerals are attached to similar parts.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when a component is "connected", "coupled" or "connected" to another component, it is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in the middle. may also include. In addition, when a component is said to "include" or "have" another component, it means that another component may be further included without excluding other components unless otherwise stated. .
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 발명의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, terms such as first, second, etc. are used only for the purpose of distinguishing one component from other components, and unless otherwise specified, the order or importance between the components is not limited. Accordingly, within the scope of the present invention, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is referred to as a first component in another embodiment. can also be called
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 발명의 범위에 포함된다. In the present disclosure, components that are distinguished from each other are for clearly explaining each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Accordingly, even if not specifically mentioned, such integrated or dispersed embodiments are also included in the scope of the present invention.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment composed of a subset of components described in one embodiment is also included in the scope of the present invention. In addition, embodiments including other components in addition to the components described in various embodiments are also included in the scope of the present invention.
본 명세서에 기재된 "부", "모듈", "수단" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.As used herein, terms such as “unit”, “module”, “means” and the like mean a unit for processing at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.
이하, 첨부한 도면을 참조하여 본 개시에 따른 실시 예들에 대해서 설명한다.Hereinafter, embodiments according to the present disclosure will be described with reference to the accompanying drawings.
도 1은 본 개시의 일 실시예에 따른, 인공지능 기반의 사용자 의료정보 분석 시스템의 구성을 나타내는 도면이다.1 is a diagram illustrating the configuration of an artificial intelligence-based user medical information analysis system according to an embodiment of the present disclosure.
도 1을 참고하면, 본 발명의 일 실시예에 따른 인공지능 기반의 사용자 의료정보 분석 시스템(100)은, 사용자 인터페이스(110), 데이터 공간(111), 인공지능 모델 인터페이스(112), 인공지능 모델 저장소(113), 공유자 인터페이스(115) 및 가시화 모듈(116)을 포함할 수 있다. 그러나, 이는 예시적인 구성일 뿐, 도 1에 도시되지 않은 구성 요소가 추가되거나 도 1에 도시된 구성 요소 중 일부가 삭제될 수 있다. Referring to FIG. 1 , an artificial intelligence-based user medical information analysis system 100 according to an embodiment of the present invention includes a user interface 110 , a data space 111 , an artificial intelligence model interface 112 , and artificial intelligence. It may include a model repository 113 , a sharer interface 115 , and a visualization module 116 . However, this is only an exemplary configuration, and components not shown in FIG. 1 may be added or some of the components shown in FIG. 1 may be deleted.
사용자(101)는 사용자 인터페이스(110)를 통해 사용자 의료정보 분석 시스템(100)과 정보를 송신 및/또는 수신할 수 있다. 사용자(101)는 사용자 디바이스를 의미할 수 있다. 예컨대, 사용자 디바이스는 메모리, 프로세서, 디스플레이 및/또는 통신 모듈을 포함하는 컴퓨팅 장치일 수 있다.The user 101 may transmit and/or receive information with the user medical information analysis system 100 through the user interface 110 . The user 101 may mean a user device. For example, a user device may be a computing device that includes a memory, processor, display, and/or communication module.
예를 들어, 사용자(101)는 사용자 인터페이스(110)를 통해 사용자 정보를 데이터 공간(111)에 저장할 수 있다. 또한, 사용자(101)는 사용자 인터페이스(110)를 통해 저장한 사용자 정보를 열람할 수 있다. 데이터 공간(111)에 저장된 사용자 정보의 열람을 위해 후술하는 가시화 모듈(116)이 이용될 수 있다. 또한, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보를 수정하거나 삭제할 수 있다. 이때, 사용자 정보는, 사용자(101)의 개인 정보(예를 들어, 나이, 성별, 직업, 주소, 현재 위치 등), 의료 정보(예를 들어, 진단 이력 및 치료 이력, 의료 영상 등)일 수 있다. 그러나, 반드시 이에 한정되는 것은 아니며, 상기 사용자 정보는 본 발명에 따른 의료 정보 분석 방법의 수행에 필요한 다양한 정보를 포함할 수 있다. For example, the user 101 may store user information in the data space 111 through the user interface 110 . In addition, the user 101 may view the stored user information through the user interface 110 . A visualization module 116 to be described later may be used to view user information stored in the data space 111 . In addition, the user 101 may modify or delete user information stored in the data space 111 . In this case, the user information may be personal information (eg, age, gender, occupation, address, current location, etc.) of the user 101, medical information (eg, diagnosis history and treatment history, medical image, etc.) have. However, the present invention is not necessarily limited thereto, and the user information may include various information necessary for performing the method for analyzing medical information according to the present invention.
또한, 사용자(101)는 사용자 인터페이스(110)를 통해 사용자 의료정보 분석 시스템(100)으로 하여금 사용자 정보의 분석을 수행하도록 요청할 수 있다.Also, the user 101 may request the user medical information analysis system 100 to analyze the user information through the user interface 110 .
또한, 사용자(101)는 사용자 인터페이스(110)를 통해 가시화 모듈(116)을 선택하여 입력한 사용자 정보에 대한 인공지능 분석 결과를 확인할 수 있다. In addition, the user 101 may select the visualization module 116 through the user interface 110 to check the artificial intelligence analysis result for the input user information.
예컨대, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보 및/또는 사용자 정보의 분석 결과를 선택할 수 있다. 선택된 사용자 정보 및/또는 사용자 정보의 분석 결과는 가시화 모듈(116)로 전송될 수 있다. 가시화 모듈(116)은 전송된 사용자 정보 및/또는 사용자 정보의 분석 결과를 사용자가 열람할 수 있는 형태로 가공할 수 있다. 가시화 모듈은 열람 가능한 형태로 가공된 사용자 정보 및/또는 사용자 정보의 분석 결과를 사용자 인터페이스(110)를 통해 사용자(101)에게 전송할 수 있다. 사용자(101)는 예컨대, 사용자 디바이스에 구비된 디스플레이 등을 통해 전송된 사용자 정보 및/또는 사용자 정보의 분석 결과를 열람할 수 있다.For example, the user 101 may select the user information stored in the data space 111 and/or the analysis result of the user information. The selected user information and/or an analysis result of the user information may be transmitted to the visualization module 116 . The visualization module 116 may process the transmitted user information and/or the analysis result of the user information into a form that the user can view. The visualization module may transmit user information processed in a viewable form and/or an analysis result of user information to the user 101 through the user interface 110 . The user 101 may view, for example, the user information transmitted through a display provided in the user device and/or the analysis result of the user information.
다른 예로서, 가시화 모듈(116)은 사용자(101) 측에 구비될 수 있다. 예컨대, 사용자 디바이스는 가시화 모듈(116)을 포함할 수 있다. 예를 들어, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보 및/또는 사용자 정보의 분석 결과를 선택할 수 있다. 선택된 사용자 정보 및/또는 사용자 정보의 분석 결과는 사용자 디바이스 내에 위치한 가시화 모듈(116)을 통해 사용자가 열람 가능한 형태로 가공될 수 있다.As another example, the visualization module 116 may be provided on the user 101 side. For example, the user device may include a visualization module 116 . For example, the user 101 may select user information stored in the data space 111 and/or an analysis result of the user information. The selected user information and/or the analysis result of the user information may be processed in a form that can be viewed by the user through the visualization module 116 located in the user device.
다른 예로서, 사용자 정보의 분석 결과는 가시화 모듈(116)에서 뿐만 아니라 레포트 형태나 파일 형태로 사용자(101)에게 제공될 수 있다. 예를 들어, 사용자는 사용자 정보의 분석 결과를 PDF, JPG, GIF 등의 문서 형태로 다운로드 받을 수 있다. 그러나, 반드시 이에 제한되는 것은 아니며, 사용자 정보의 분석 결과는 다양한 형태를 통하여 사용자에게 제공될 수 있다.As another example, the analysis result of the user information may be provided to the user 101 in the form of a report or a file as well as in the visualization module 116 . For example, a user may download an analysis result of user information in the form of a document such as PDF, JPG, GIF, or the like. However, the present invention is not necessarily limited thereto, and the analysis result of the user information may be provided to the user through various forms.
인공지능 모델 저장소(113)는 다수의 인공지능 모델을 개별적으로 저장할 수 있다. 사용자(101)로부터 사용자 정보의 분석 요청이 있는 경우, 인공지능 모델 저장소(113)에서는 해당 사용자 정보 분석에 적합한 인공지능 모델이 선택되어 인공지능 모델 인터페이스(112)로 전송될 수 있다. 이때, 전송되는 인공지능 모델은 단일 또는 복수 개일 수 있다. The artificial intelligence model storage 113 may individually store a plurality of artificial intelligence models. When there is a request for analysis of user information from the user 101 , an artificial intelligence model suitable for analyzing the user information may be selected from the artificial intelligence model storage 113 and transmitted to the artificial intelligence model interface 112 . In this case, the transmitted artificial intelligence model may be single or plural.
또한, 개발자(104)는 인공지능 모델 저장소(113)에 저장된 인공지능 모델을 수정 및/또는 삭제하거나, 새로운 인공지능 모델을 추가할 수 있다. 개발자(104)는 개발자 디바이스를 의미할 수 있다. 예컨대, 개발자 디바이스는 메모리, 프로세서, 디스플레이 및/또는 통신 모듈을 포함하는 컴퓨팅 장치일 수 있다.In addition, the developer 104 may modify and/or delete the AI model stored in the AI model storage 113 , or add a new AI model. Developer 104 may refer to a developer device. For example, a developer device may be a computing device that includes a memory, processor, display, and/or communication module.
인공지능 모델 인터페이스(112)는 인공지능 모델 저장소(113)로부터 수신한 단일 또는 복수 개의 인공지능 모델을 장착하여 사용자 정보의 분석을 수행할 수 있다. 사용자 정보의 분석은, 사용자 정보가 인공지능 모델에 순차적으로 입력됨으로써 수행될 수 있다. 분석을 위한 사용자 정보는 데이터 공간(111)으로부터 전송될 수 있다. 이때, 사용자 정보의 분석이 완료된 경우, 장착된 단일 또는 복수개의 인공지능 모델은 삭제될 수 있다. The artificial intelligence model interface 112 may perform analysis of user information by mounting a single or a plurality of artificial intelligence models received from the artificial intelligence model storage 113 . The analysis of user information may be performed by sequentially inputting user information into the artificial intelligence model. User information for analysis may be transmitted from the data space 111 . In this case, when the analysis of user information is completed, the mounted single or a plurality of artificial intelligence models may be deleted.
예를 들어, 사용자(101)가 사용자 의료 영상에 대한 분석을 요청하는 경우, 인공지능 모델 인터페이스(112)에서는, 인공신경망(예를 들어, 합성곱 신경망(Convolutional Neural Network, CNN) 등)을 이용하여 사용자의 의료 영상 특징점을 추출할 수 있고, 사용자 의료 영상의 판독 결과를 도출할 수 있다. 추출된 사용자 의료 영상의 특징점은, 인공지능 모델 간에 공유될 수 있다. 즉, 한 인공지능 모델에서 추출한 특징점을 다른 인공지능 모델에서도 사용할 수 있다. 이때, 구체적인 사용자 의료 영상에 대한 분석 방법에 대하여는, 도 2 내지 도 5에 관한 설명에서 후술한다.For example, when the user 101 requests analysis of the user's medical image, the artificial intelligence model interface 112 uses an artificial neural network (eg, a convolutional neural network (CNN), etc.) Thus, it is possible to extract feature points of the user's medical image and to derive a reading result of the user's medical image. The extracted feature points of the user medical image may be shared among AI models. In other words, the feature points extracted from one AI model can be used in another AI model. In this case, a detailed analysis method for a user medical image will be described later with reference to FIGS. 2 to 5 .
또한, 인공지능 모델 인터페이스(112)에서 분석된 인공지능 분석 결과는 데이터 공간(111)에 저장될 수 있다. 이때, 사용자(101)는 사용자 인터페이스(110)를 통해 인공지능 분석 결과를 확인할 수 있다.In addition, the artificial intelligence analysis result analyzed in the artificial intelligence model interface 112 may be stored in the data space 111 . In this case, the user 101 may check the AI analysis result through the user interface 110 .
또한, 사용자 정보에 음성 정보가 포함되어 있는 경우, 인공지능 모델 인터페이스(112)에서는 해당 음성 정보로부터 텍스트를 추출해낼 수 있다. 추출된 텍스트는 사용자 정보 분석에 이용될 수 있다. 이때, 사용자 의료 정보들은 수치화 될 수 있다. In addition, when the user information includes voice information, the artificial intelligence model interface 112 may extract text from the corresponding voice information. The extracted text may be used for user information analysis. In this case, user medical information may be digitized.
인공지능 모델 인터페이스(112)에서는, 수치화 된 사용자 의료 정보, 사용자의 음성 정보로부터 추출된 텍스트를 포함한 사용자 정보를 종합하여 사용자를 분류할 수 있다. 예를 들어, 입력된 사용자 정보가 정상 범주 미만의 혈압을 나타내는 경우, 해당 정보를 입력한 사용자는 '저혈압 증상'이 있는 사용자로 분류될 수 있다. 또한, 입력된 사용자 정보가 전립선 암과 유사한 형태를 갖는 양성종양이 포함된 영상인 경우, 해당 정보를 입력한 사용자는 '전립선 암'위험이 있는 사용자로 분류될 수 있다. The artificial intelligence model interface 112 may classify users by synthesizing user information including digitized user medical information and text extracted from the user's voice information. For example, when the input user information indicates blood pressure below the normal range, the user who has input the corresponding information may be classified as a user with 'low blood pressure symptoms'. In addition, when the input user information is an image including a benign tumor having a shape similar to that of prostate cancer, the user who has input the corresponding information may be classified as a user having a risk of 'prostate cancer'.
인공지능 모델 인터페이스(112)에서는, 분류된 사용자 정보를 이용하여 단일 또는 복수의 공유자를 포함하는 공유자 추천 리스트(102)를 생성할 수 있다. 공유자 추천 리스트(102)에 포함되는 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. 이때, 사용자(101)가 사용자 인터페이스(110)을 통해 입력하는 필터 값이 존재할 경우, 생성된 공유자 추천 리스트(102)를 해당 필터 값을 반영하여 필터링할 수 있다. 이때, 사용자(101)는 사용자 인터페이스(110)를 통해 생성된 공유자 추천 리스트(102)를 확인할 수 있다. The artificial intelligence model interface 112 may generate a sharer recommendation list 102 including a single or a plurality of sharers by using the classified user information. Sharers included in the sharer recommendation list 102 may be included in the order of recommendation. In this case, if there is a filter value input by the user 101 through the user interface 110 , the generated sharer recommendation list 102 may be filtered by reflecting the corresponding filter value. In this case, the user 101 may check the sharer recommendation list 102 generated through the user interface 110 .
예를 들어, 사용자가 '전립선 암'위험이 있는 사용자로 분류된 경우, 인공지능 모델 인터페이스(112)에서는, '전립선 암'전문 병원들을 공유자로 설정하여 병원 리스트를 생성할 수 있다. 이때, 사용자가 사용자 인터페이스를 통해 특정 병원을 제외하는 필터 값을 입력한 경우, 해당 병원이 생성된 병원 리스트에서 제거될 수 있다. For example, when the user is classified as a user with a risk of 'prostate cancer', the artificial intelligence model interface 112 may create a hospital list by setting hospitals specializing in 'prostate cancer' as sharers. In this case, when the user inputs a filter value excluding a specific hospital through the user interface, the corresponding hospital may be removed from the created hospital list.
다른 실시예로, 생성된 공유자 추천 리스트(102)에 공유자(103)의 필터 값이 반영될 수 있다. 예를 들어, 특정 병원의 진료일 및/또는 진료 시간이 변경된 경우, 해당 병원은 생성된 공유자 추천 리스트에서 해당 병원의 제거 및/또는 추천 순서의 변경을 요청할 수 있다. In another embodiment, the filter value of the sharer 103 may be reflected in the created sharer recommendation list 102 . For example, when the treatment date and/or treatment time of a specific hospital is changed, the hospital may request removal of the corresponding hospital and/or change of the recommendation order from the generated sharer recommendation list.
사용자(101)는 생성된 공유자 추천 리스트(102)에서, 특정 공유자(103)를 선택할 수 있다. 이때, 사용자(101)에 의해 선택된 공유자(103)는, 공유자 인터페이스(115)를 통해 가시화 모듈(116)에 접속하여 사용자(101)가 입력한 사용자 정보 및 사용자 정보의 인공지능 분석 결과를 확인할 수 있다. 또한, 공유자(103)는, 공유자 인터페이스(115)를 통해 사용자 정보의 인공지능 분석 결과에 포함된 이미지를 수정하거나, 새로 입력하는 등의 피드백을 제공할 수 있다. 또한, 공유자(103)는, 사용자 정보의 인공지능 분석 결과에 대하여 보충의견을 작성하여 피드백을 제공할 수도 있다. 이때, 수정되거나 새로 입력된 인공지능 분석 결과는 데이터공간(111)에 저장될 수 있다. The user 101 may select a specific sharer 103 from the created sharer recommendation list 102 . In this case, the sharer 103 selected by the user 101 may access the visualization module 116 through the sharer interface 115 to check the user information input by the user 101 and the artificial intelligence analysis result of the user information. have. In addition, the sharer 103 may provide feedback such as correcting an image included in the artificial intelligence analysis result of the user information or inputting a new one through the sharer interface 115 . In addition, the sharer 103 may provide feedback by writing a supplementary opinion on the artificial intelligence analysis result of user information. In this case, the modified or newly input artificial intelligence analysis result may be stored in the data space 111 .
예를 들어, 생성된 공유자 추천 리스트가 A 병원, B 병원 및 C 병원을 포함하는 경우, 사용자는 A 병원을 선택할 수 있다. 이때, 선택된 A 병원은, 공유자 인터페이스를 통해 사용자가 입력한 사용자 의료 영상을 확인할 수 있다. 또한, A 병원은, 공유자 인터페이스를 통해 사용자 의료 영상의 인공지능 분석 결과를 확인할 수 있다. For example, when the generated sharer recommendation list includes hospital A, hospital B, and hospital C, the user may select hospital A. In this case, the selected hospital A may check the user medical image input by the user through the sharer interface. In addition, hospital A may check the AI analysis result of the user's medical image through the sharer interface.
본 발명의 일 실시예에 따른 데이터 공간(111), 인공지능 모델 저장소(113)는 클라우드 기술을 이용해 구현될 수 있으나, 반드시 이에 한정되는 것은 아니다. The data space 111 and the artificial intelligence model storage 113 according to an embodiment of the present invention may be implemented using cloud technology, but are not necessarily limited thereto.
이하 도 2 내지 도 5에서 사용자 정보에 대한 구체적인 분석 방법을 설명한다.Hereinafter, a detailed analysis method for user information will be described with reference to FIGS. 2 to 5 .
도 2는 본 개시의 일 실시예에 따른, 사용자 의료정보 분석을 위한 딥러닝 모델 학습 장치의 구성을 나타내는 도면이다. 2 is a diagram showing the configuration of a deep learning model learning apparatus for analyzing user medical information, according to an embodiment of the present disclosure.
딥러닝 모델 학습 장치(20)는, 인공지능 모델 인터페이스에 장착되는 인공지능 모델의 일 실시예일 수 있다. The deep learning model learning apparatus 20 may be an embodiment of an artificial intelligence model mounted on an artificial intelligence model interface.
도 2를 참조하면, 딥러닝 모델 학습 장치(20)는 특징 추출부(21), 맥락 생성부(22), 특징 및 맥락 분석부(23)을 포함할 수 있다. 다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 딥러닝 모델 학습 장치(20)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다.Referring to FIG. 2 , the deep learning model training apparatus 20 may include a feature extractor 21 , a context generator 22 , and a feature and context analyzer 23 . However, this only shows some components necessary to explain the present embodiment, and the components included in the deep learning model training apparatus 20 are not limited to the above-described example.
딥러닝 모델 학습 장치(20)는 분석 대상 사용자 의료 영상의 특징을 추출하고, 추출된 특징에 기초하여 맥락 정보를 생성하고, 추출된 특징 및 생성된 맥락 정보에 기초하여 분석 대상 영상을 분석할 수 있다. 예컨대, 딥러닝 모델 학습 장치(20)는 추출된 특징 및 생성된 맥락 정보를 이용하여 영상을 분류하거나 관심 객체의 위치를 찾아낼 수 있다.The deep learning model learning apparatus 20 extracts features of the user's medical image to be analyzed, generates context information based on the extracted features, and analyzes the analysis target image based on the extracted features and the generated context information. have. For example, the deep learning model training apparatus 20 may classify an image or find a location of an object of interest by using the extracted feature and the generated context information.
딥러닝 모델 학습 장치(20)의 입력 영상은 적어도 하나의 의료 영상(MRI, CT, X-ray 등)일 수 있다.The input image of the deep learning model training apparatus 20 may be at least one medical image (MRI, CT, X-ray, etc.).
특징 추출부(21)는 입력 영상을 분석하여 영상의 특징을 추출할 수 있다. 예컨대, 상기 특징은 영상의 각 영역마다의 국소적인 특징일 수 있다. 본 발명의 일 실시예에 따른 특징 추출부(21)는 일반적인 합성곱 신경망(Convolutional Neural Network, CNN) 기법 또는 풀링(pooling) 기법을 이용하여 입력 영상의 특징을 추출할 수 있다. 상기 풀링 기법은 맥스(max) 풀링 기법 및 평균(average) 풀링 기법 중 적어도 하나를 포함할 수 있다. 그러나, 본 개시에서 언급되는 풀링 기법은 맥스 풀링 기법 또는 평균 풀링 기법에 한정되지 않으며, 소정 크기의 영상 영역의 대표값을 획득하는 임의의 기법을 포함한다. 예컨대, 풀링 기법에 사용되는 대표값은 최대값 및 평균값 외에, 분산값, 표준 편차값, 중간값(mean value), 최빈값(most frequent value), 최소값 및 가중 평균값 중 적어도 하나일 수 있다.The feature extractor 21 may analyze the input image to extract features of the image. For example, the feature may be a local feature for each region of the image. The feature extraction unit 21 according to an embodiment of the present invention may extract features of the input image using a general convolutional neural network (CNN) technique or a pooling technique. The pooling technique may include at least one of a max pooling technique and an average pooling technique. However, the pooling technique referred to in the present disclosure is not limited to the max pooling technique or the average pooling technique, and includes any technique for obtaining a representative value of an image region of a predetermined size. For example, the representative value used in the pooling technique may be at least one of a variance value, a standard deviation value, a mean value, a most frequent value, a minimum value, and a weighted average value, in addition to the maximum value and the average value.
본 개시의 합성곱 신경망은 입력 데이터(영상)로부터 테두리, 선 색 등과 같은 특징들(features)을 추출하기 위해 이용될 수 있으며, 복수의 계층들(layers)을 포함할 수 있다. 각각의 계층은 입력 데이터를 수신하고, 해당 계층의 입력 데이터를 처리하여 출력 데이터를 생성할 수 있다. 합성곱 신경망은 입력된 영상 또는 입력된 특징맵(feature map)을 필터 커널들(filter kernels)과 컨볼루션하여 생성한 특징맵을 출력 데이터로서 출력할 수 있다. 합성곱 신경망의 초기 계층들은 입력으로부터 에지들 또는 그레디언트들과 같은 낮은 레벨의 특징들을 추출하도록 동작될 수 있다. 신경망의 다음 계층들은 눈, 코 등과 같은 점진적으로 더 복잡한 특징들을 추출할 수 있다. 합성곱 신경망의 구체적인 동작에 대해서는 도 4를 참고하여 후술한다.The convolutional neural network of the present disclosure may be used to extract features such as edges and line colors from input data (image), and may include a plurality of layers. Each layer may receive input data, process the input data of the corresponding layer, and generate output data. The convolutional neural network may output a feature map generated by convolving an input image or an input feature map with filter kernels as output data. The initial layers of a convolutional neural network may be operated to extract low-level features such as edges or gradients from the input. The next layers of the neural network can extract progressively more complex features such as eyes, noses, etc. A detailed operation of the convolutional neural network will be described later with reference to FIG. 4 .
합성곱 신경망은 컨볼루션 연산이 수행되는 합성곱 계층 외에도 풀링 연산이 수행되는 풀링 계층도 포함할 수 있다. 풀링 기법은 풀링 계층에서 데이터의 공간적 크기를 축소하는데 사용되는 기법이다. 구체적으로, 풀링 기법에는 해당 영역에서 최대값을 선택하는 맥스 풀링(max pooling) 기법과 해당 영역의 평균 값을 선택하는 평균 풀링(average pooling) 기법이 있으며, 이미지 인식 분야에서는 일반적으로 맥스 풀링 기법이 사용된다. 풀링 기법에서는 일반적으로 풀링의 윈도우 크기와 간격(스트라이드, stride)을 같은 값으로 설정한다. 여기서, 스트라이드란 입력 데이터에 필터를 적용할 때 이동할 간격을 조절하는 것, 즉 필터가 이동할 간격을 의미하며, 스트라이드 또한 출력 데이터의 크기를 조절하기 위해 사용될 수 있다. 풀링 기법의 구체적인 동작에 대해서는 도 5를 참고하여 후술한다.A convolutional neural network may include a pooling layer on which a pooling operation is performed in addition to a convolutional layer on which a convolution operation is performed. The pooling technique is a technique used to reduce the spatial size of data in the pooling layer. Specifically, in the pooling technique, there are a max pooling technique that selects a maximum value in a corresponding region and an average pooling technique that selects an average value of the corresponding region. In general, the max pooling technique is used in the image recognition field. used In the pooling technique, in general, the window size and interval (stride) of pooling are set to the same value. Here, the stride refers to an interval to be moved when a filter is applied to input data, that is, an interval to which the filter is moved, and the stride may also be used to adjust the size of the output data. A detailed operation of the pooling technique will be described later with reference to FIG. 5 .
본 개시의 일 실시예에 따른 특징 추출부(21)는 분석 대상 영상의 특징을 추출하기 위한 전처리(pre-processing)로서, 분석 대상 영상에 필터링을 적용할 수 있다. 상기 필터링은 고속 푸리에 변환(Fast Fourier Transform, FFT), 히스토그램 평활화(histogram equalization), 모션 아티팩트(motion artifact) 제거 또는 노이즈(noise) 제거 등일 수 있다. 그러나, 본 개시의 필터링은 상기 열거한 방법으로 제한되지 않으며, 영상의 품질을 개선할 수 있는 모든 형태의 필터링을 포함할 수 있다.The feature extraction unit 21 according to an embodiment of the present disclosure may apply filtering to the analysis target image as pre-processing for extracting features of the analysis target image. The filtering may be a Fast Fourier Transform (FFT), a histogram equalization, a motion artifact removal or noise removal, and the like. However, the filtering of the present disclosure is not limited to the methods listed above, and may include all types of filtering capable of improving image quality.
맥락 생성부(22)는 특징 추출부(21)로부터 추출된 입력 영상의 특징을 이용하여 입력 영상(분석 대상 영상)의 맥락 정보를 생성할 수 있다. 예컨대, 상기 맥락 정보는 분석 대상 영상의 전체 또는 일부 영역을 나타내는 대표값일 수 있다. 또한 상기 맥락 정보는 입력 영상의 전역적인 맥락 정보일 수 있다. 일 실시 예에 따른 맥락 생성부(22)는 합성곱 신경망 기법 또는 풀링 기법을 특징 추출부(21)로부터 추출된 특징에 적용하여 맥락 정보를 생성할 수 있다. 상기 풀링 기법은 예컨대, 평균 풀링(average pooling) 기법일 수 있다.The context generator 22 may generate context information of the input image (analysis target image) by using the features of the input image extracted from the feature extractor 21 . For example, the context information may be a representative value indicating all or a partial region of an image to be analyzed. Also, the context information may be global context information of the input image. The context generating unit 22 according to an embodiment may generate context information by applying a convolutional neural network technique or a pooling technique to the features extracted from the feature extracting unit 21 . The pooling technique may be, for example, an average pooling technique.
특징 및 맥락 분석부(23)는 특징 추출부(21)에서 추출된 특징 및 맥락 생성부(22)에서 생성된 맥락 정보에 기초하여 영상을 분석할 수 있다. 일 실시예에 따른 특징 및 맥락 분석부(23)는 특징 추출부(21)에서 추출된 영상의 각 영역마다의 국소적인 특징 및 맥락 생성부(22)에서 재구성된 전역적인 맥락을 결합(concatenate)하는 등의 방식으로 함께 사용하여, 입력 영상을 분류하거나 입력 영상에 포함된 관심 객체의 위치 등을 찾는데 이용할 수 있다. 입력 영상 내 특정 2차원 위치에서의 정보는 국소적인 특징 정보뿐만 아니라 전역적인 맥락 정보까지 포함하게 되므로, 특징 및 맥락 분석부(23)는 이들 정보를 이용함으로써, 실제 내용은 상이하지만 국소적인 특징 정보가 유사한 입력 영상들에 대해 보다 정확한 인식 또는 분류 등이 가능하게 된다. The feature and context analyzer 23 may analyze the image based on the feature extracted by the feature extractor 21 and the context information generated by the context generator 22 . The feature and context analyzer 23 according to an embodiment concatenates the local features for each region of the image extracted by the feature extractor 21 and the global context reconstructed by the context generator 22 . It can be used to classify an input image or to find a location of an object of interest included in an input image by using them together. Since information at a specific two-dimensional position in the input image includes not only local feature information but also global context information, the feature and context analyzer 23 uses these information, so that the actual content is different but local feature information It is possible to more accurately recognize or classify input images similar to .
전술한 바와 같이, 본 개시의 일 실시 예에 따른 발명은, 일반적인 합성곱 신경망 기법이 사용하는 국소적인 특징뿐만 아니라 전역적인 맥락 정보를 함께 사용함으로써, 보다 더 정확하고 효율적인 학습 및 영상 분석이 가능하게 된다. 이러한 관점에서 본 개시에 따른 발명을 '맥락 분석을 통한 심층 신경망'이라 할 수 있다.As described above, the invention according to an embodiment of the present disclosure enables more accurate and efficient learning and image analysis by using global context information as well as local features used by general convolutional neural network techniques. do. From this point of view, the invention according to the present disclosure may be referred to as 'deep neural network through context analysis'.
도 3은 본 개시의 일 실시예에 따른, 영상의 맥락 정보를 생성하고 분석하는 과정을 나타내는 도면이다.3 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present disclosure.
도 3을 참조하면, 특징 추출부(21)는 입력 영상(301)을 이용하여 입력 영상(301)으로부터 특징을 추출하고, 추출된 특징 정보를 포함하는 특징 영상(302)을 생성할 수 있다. 상기 추출된 특징은 입력 영상의 국소 영역에 대한 특징일 수 있다. 상기 입력 영상(301)은 영상 분석 장치의 입력 영상 또는 합성곱 신경망 모델 내의 각 계층에서의 특징 맵을 포함할 수 있다. 또한 상기 특징 영상(302)은 입력 영상(301)에 대해 합성곱 신경망 기법 및/또는 풀링 기법을 적용하여 획득된 특징맵 및/또는 특징 벡터를 포함할 수 있다.Referring to FIG. 3 , the feature extractor 21 may extract a feature from the input image 301 using the input image 301 and generate a feature image 302 including the extracted feature information. The extracted feature may be a feature of a local region of the input image. The input image 301 may include an input image of an image analysis apparatus or a feature map in each layer in a convolutional neural network model. Also, the feature image 302 may include a feature map and/or feature vector obtained by applying a convolutional neural network technique and/or a pooling technique to the input image 301 .
맥락 생성부(22)는 특징 추출부(21)에서 추출된 특징 영상(302)에 대해 합성곱 신경망 기법 및/또는 풀링 기법을 적용하여 맥락 정보를 생성할 수 있다. 예컨대, 맥락 생성부(22)는 풀링의 간격(stride)을 다양하게 조절함으로써 영상 전체, 4등분 영역, 9등분 영역 등의 다양한 크기(scale)의 맥락 정보를 생성할 수 있다. 도 3을 참조하면, 영상 전체 크기의 영상에 대한 맥락 정보를 포함하는 전체 맥락 정보 영상(311), 영상 전체를 4등분한 크기의 4등분 영상에 대한 맥락 정보를 포함하는 4등분 맥락 정보 영상(312) 및 영상 전체를 9등분한 크기의 9등분 영상에 대한 맥락 정보를 포함하는 9등분 맥락 정보 영상(313)이 획득될 수 있다.The context generator 22 may generate context information by applying a convolutional neural network technique and/or a pooling technique to the feature image 302 extracted by the feature extractor 21 . For example, the context generator 22 may generate context information of various scales, such as an entire image, a quadrant region, a ninth region, and the like by variously adjusting the stride of the pooling. Referring to FIG. 3 , a full context information image 311 including context information for an image of the full image size, and a quadrant context information image including context information for a quadrant image of a size obtained by dividing the entire image into quarters ( 312) and a ninth segmented context information image 313 including context information on the nineth segmented image having a size obtained by dividing the entire image into nine equal parts may be obtained.
특징 및 맥락 분석부(23)는 상기 특징 영상(302)과 상기 맥락 정보 영상(311, 312, 313)을 모두 이용하여 분석 대상 영상의 특정 영역에 대한 분석을 보다 정확히 수행할 수 있다.The feature and context analyzer 23 may use both the feature image 302 and the context information images 311 , 312 , and 313 to more accurately analyze a specific region of the image to be analyzed.
예컨대, 전립선 암과 유사한 형태를 갖는 양성종양이 포함된 영상이 입력 영상인 경우, 특징 추출부(21)가 추출한 국소적인 특징을 포함하는 특징 영상(302)으로부터는 상기 식별된 객체가 전립선 암인지 양성종양인지 정확히 판단할 수 없다. 즉, 특징 추출부(21)는 국소적인 특징에 기초하여 객체의 형상을 인식할 수 있으나, 해당 객체의 형상만 가지고는 정확히 객체를 식별하고 분류할 수 없는 경우가 있다.For example, when an image including a benign tumor having a shape similar to that of prostate cancer is an input image, from the feature image 302 including local features extracted by the feature extraction unit 21, whether the identified object is prostate cancer It is not possible to accurately determine whether it is a benign tumor. That is, the feature extraction unit 21 may recognize the shape of the object based on the local feature, but may not be able to accurately identify and classify the object with only the shape of the object.
본 개시의 일 실시 예에 따른 맥락 생성부(22)는 상기 분석 대상 영상 또는 상기 특징 영상(302)에 기초하여 맥락 정보(311, 312, 313)를 생성함으로써, 보다 정확히 객체를 식별하고 분류할 수 있다. The context generator 22 according to an embodiment of the present disclosure generates context information 311 , 312 , and 313 based on the analysis target image or the feature image 302 to more accurately identify and classify objects. can
본 개시의 일 실시 예에 따른 특징 및 맥락 분석부(23)는 상기 맥락 정보를 활용함으로써, 상기 전립선 암 또는 양성종양의 형상을 갖는 객체를 "전립선 암"으로 식별할 수 있다.The feature and context analyzer 23 according to an embodiment of the present disclosure may identify the object having the shape of the prostate cancer or benign tumor as “prostate cancer” by using the context information.
도 3을 참조하여 설명한 실시 예에서는 전체 영상에 대한 맥락 정보, 4등분 영상에 대한 맥락 정보, 9등분 영상에 대한 맥락 정보를 생성하고 활용하는 것에 대해 설명하였으나, 맥락 정보를 추출하는 영상의 크기는 이에 한정되지 않는다. 예컨대, 전술한 크기의 영상 이외의 크기를 갖는 영상에 대한 맥락 정보를 생성하고 활용할 수도 있다.In the embodiment described with reference to FIG. 3 , it has been described that the context information for the entire image, the context information for the quadrant image, and the context information for the ninth segment image are generated and utilized, but the size of the image from which the context information is extracted is It is not limited to this. For example, context information about an image having a size other than the above-described size may be generated and utilized.
한편, 본 개시의 일 실시 예에 따른 합성곱 신경망 기법 및 풀링에 대해서는 도 4 및 도 5를 참조하여 후술한다.Meanwhile, a convolutional neural network technique and pooling according to an embodiment of the present disclosure will be described later with reference to FIGS. 4 and 5 .
도 4는 다채널 특징맵을 생성하는 합성곱 신경망의 일 실시 예를 설명하기 위한 도면이다.4 is a diagram for explaining an embodiment of a convolutional neural network for generating a multi-channel feature map.
합성곱 신경망 기반의 영상 처리는 다양한 분야에 활용될 수 있다. 예컨대, 영상의 객체 인식(object recognition)을 위한 영상 처리 장치, 영상 복원(image reconstruction)을 위한 영상 처리 장치, 시맨틱 세그먼테이션(semantic segmentation)을 위한 영상 처리 장치, 장면 인식(scene recognition)을 위한 영상 처리 장치 등에 이용될 수 있다.Image processing based on convolutional neural networks can be used in various fields. For example, an image processing apparatus for object recognition of an image, an image processing apparatus for image reconstruction, an image processing apparatus for semantic segmentation, and image processing for scene recognition It can be used for devices and the like.
입력 영상(410)은 합성곱 신경망(400)을 통해 처리됨으로써 특징맵 영상을 출력할 수 있다. 출력된 특징맵 영상은 전술한 다양한 분야에 활용될 수 있다.The input image 410 may be processed through the convolutional neural network 400 to output a feature map image. The output feature map image may be utilized in various fields described above.
합성곱 신경망(400)은 복수의 계층들(420, 430, 440)을 통해 처리될 수 있으며, 각 계층은 다채널 특징맵 영상들(425, 435)을 출력할 수 있다. 일 실시예에 따른 복수의 계층들(420, 430, 440)은 입력받은 데이터의 좌측 상단으로부터 우측 하단까지 일정한 크기의 필터를 적용하여 영상의 특징을 추출할 수 있다. 예를 들어, 복수의 계층들(420, 430, 440)은 입력 데이터의 좌측 상단 NХM 픽셀에 가중치를 곱해서 특징맵의 좌측 상단의 한 뉴런에 매핑시킨다. 이 경우, 곱해지는 가중치도 N×M가 될 것이다. 상기 NХM은 예컨대, 3Х3일 수 있으나, 이에 한정되지 않는다. 이후, 동일한 과정으로, 복수의 계층들(420, 430, 440)은 입력 데이터를 좌측에서 우측으로, 그리고 상단에서 하단으로 k 칸씩 스캔하면서 가중치를 곱하여 특징맵의 뉴런에 매핑한다. 상기 k 칸은 합성곱 수행시 필터를 이동시킬 간격(stride)을 의미하며, 출력 데이터의 크기를 조절하기 위해 적절히 설정될 수 있다. 예컨대, k는 1일 수 있다. 상기 NХM 가중치는 필터 또는 필터 커널이라고 한다. 즉, 복수의 계층들(420, 430, 440)에서 필터를 적용하는 과정은 필터 커널과의 컨볼루션 연산을 수행하는 과정이며, 그 결과 추출된 결과물을 "특징맵(feature map)" 또는 "특징맵 영상"이라고 한다. 또한, 컨볼루션 연산이 수행된 계층을 합성곱 계층이라 할 수 있다.The convolutional neural network 400 may be processed through a plurality of layers 420 , 430 , and 440 , and each layer may output multi-channel feature map images 425 and 435 . According to an embodiment, the plurality of layers 420 , 430 , and 440 may extract features of an image by applying a filter of a predetermined size from the upper left to the lower right of the received data. For example, the plurality of layers 420 , 430 , and 440 are mapped to one neuron in the upper left corner of the feature map by multiplying the upper left NХM pixel of the input data by a weight. In this case, the multiplied weight will also be N×M. The NХM may be, for example, 3Х3, but is not limited thereto. Thereafter, in the same process, the plurality of layers 420 , 430 , and 440 scan the input data from left to right and from top to bottom by k cells, multiplying them by weights, and map them to neurons of the feature map. The k column means a stride for moving the filter when performing convolution, and may be appropriately set to adjust the size of output data. For example, k may be 1. The NХM weight is referred to as a filter or filter kernel. That is, the process of applying the filter in the plurality of layers 420 , 430 , and 440 is a process of performing a convolution operation with the filter kernel, and the result extracted as a result is a "feature map" or a "feature map" map image". Also, a layer on which a convolution operation is performed may be referred to as a convolution layer.
"다채널 특징맵(multiple-channel feature map)"의 용어는 복수의 채널에 대응하는 특징맵들의 세트를 의미하고, 예를 들어 복수의 영상 데이터일 수 있다. 다채널 특징맵들은 합성곱 신경망의 임의의 계층에서의 입력일 수 있고, 컨볼루션 연산 등의 특징맵 연산 결과에 따른 출력일 수 있다. 일 실시예에 따르면, 다채널 특징맵들(425, 435)은 합성곱 신경망의 "특징 추출 계층들" 또는 "컨볼루션 계층들"이라고도 불리는 복수의 계층들(420, 430, 440)에 의해 생성된다. 각각의 계층은 순차적으로 이전 계층에서 생성된 다채널 특징맵들을 수신하고, 출력으로서 그 다음의 다채널 특징맵들을 생성할 수 있다. 최종적으로 L(L은 정수)번째 계층(540)에서는 L-1번째 계층(미도시)에서 생성한 다채널 특징맵들을 수신하여 미도시의 다채널 특징맵들을 생성할 수 있다.The term “multi-channel feature map” means a set of feature maps corresponding to a plurality of channels, and may be, for example, a plurality of image data. The multi-channel feature maps may be an input in an arbitrary layer of a convolutional neural network, and may be an output according to a feature map operation result such as a convolution operation. According to an embodiment, the multi-channel feature maps 425 and 435 are generated by a plurality of layers 420 , 430 , 440 also referred to as “feature extraction layers” or “convolutional layers” of a convolutional neural network. do. Each layer may sequentially receive the multi-channel feature maps generated in the previous layer, and generate subsequent multi-channel feature maps as output. Finally, the L (L is an integer)-th layer 540 may receive the multi-channel feature maps generated in the L-1 th layer (not shown) to generate multi-channel feature maps (not shown).
도 4를 참조하면, 채널 K1개를 가지는 특징맵들(425)은 입력 영상(410)에 대해 계층 1에서의 특징맵 연산(420)에 따른 출력이고, 또한 계층 2에서의 특징맵 연산(430)을 위한 입력이 된다. 또한, 채널 K2개를 가지는 특징맵들(435)은 입력 특징맵들(425)에 대해 계층 2에서의 특징맵 연산(430)에 따른 출력이고, 또한 계층 3에서의 특징맵 연산(미도시)을 위한 입력이 된다.Referring to FIG. 4 , the feature maps 425 having K1 channels are outputs according to the feature map operation 420 in the layer 1 with respect to the input image 410 and the feature map operation 430 in the layer 2 ) is an input for In addition, the feature maps 435 having K2 channels are outputs according to the feature map operation 430 in the layer 2 for the input feature maps 425, and also the feature map operation in the layer 3 (not shown) input for
도 4를 참조하면, 첫 번째 계층(420)에서 생성된 다채널 특징맵들(425)은 K1(K1은 정수)개의 채널에 대응하는 특징맵들을 포함한다. 또한, 두 번째 계층(430)에서 생성된 다채널 특징맵들(435)은 K2(K2은 정수)개의 채널에 대응하는 특징맵들을 포함한다. 여기서, 채널의 개수를 나타내는 K1 및 K2는, 첫 번째 계층(420) 및 두 번째 계층(430)에서 각각 사용된 필터 커널의 개수와 대응될 수 있다. 즉, M(M은 1 이상 L-1 이하의 정수)번째 계층에서 생성된 다채널 특징맵들의 개수는 M번째 계층에서 사용된 필터 커널의 개수와 동일할 수 있다.Referring to FIG. 4 , the multi-channel feature maps 425 generated in the first layer 420 include feature maps corresponding to K1 (K1 is an integer) number of channels. In addition, the multi-channel feature maps 435 generated in the second layer 430 include feature maps corresponding to K2 (K2 is an integer) number of channels. Here, K1 and K2 indicating the number of channels may correspond to the number of filter kernels used in the first layer 420 and the second layer 430 , respectively. That is, the number of multi-channel feature maps generated in the M-th layer (M is an integer greater than or equal to 1 L-1) may be the same as the number of filter kernels used in the M-th layer.
도 5는 풀링 기법의 일 실시 예를 설명하기 위한 도면이다.5 is a diagram for explaining an embodiment of a pooling technique.
도 5에 도시된 바와 같이, 풀링의 윈도우 사이즈는 2Х2, 스트라이드는 2이며, 맥스 풀링을 입력 영상(510)에 적용하여 출력 영상(590)을 생성할 수 있다. As shown in FIG. 5 , the window size of pooling is 2Х2 and the stride is 2, and max pooling may be applied to the input image 510 to generate the output image 590 .
도 5의 (a)에서, 입력 영상(510)의 좌측 상단에 2X2 윈도우(510)를 적용하고, 윈도우(510) 영역 내의 값들 중 대표값(여기서는, 최대값 4)을 계산하여 출력 영상(590)의 대응 위치(520)에 입력한다.In FIG. 5A , a 2X2 window 510 is applied to the upper left corner of the input image 510 , and a representative value (here, the maximum value 4) is calculated among the values in the window 510 area, and the output image 590 is ) to the corresponding position 520 of the input.
이후, 도 5의 (b)에서, 스트라이드 만큼, 즉, 2만큼 윈도우를 이동하고, 윈도우(530) 영역 내의 값들 중 최대값 3을 출력 영상(590)의 대응 위치(540)에 입력한다.Thereafter, in FIG. 5B , the window is moved by the stride, that is, by two, and the maximum value 3 among the values in the area of the window 530 is input to the corresponding position 540 of the output image 590 .
더 이상 우측으로 윈도우를 이동시킬 없는 경우, 다시 입력 영상의 좌측에서 스트라이드 만큼 아래의 위치부터 상기 과정을 반복한다. 즉, 도 5의 (c)에 도시된 바와 같이, 윈도우(550) 영역 내의 값들 중 최대값 5를 출력 영상(590)의 대응 위치(560)에 입력한다.When it is no longer possible to move the window to the right, the above process is repeated from the position below the stride from the left side of the input image again. That is, as shown in FIG. 5C , the maximum value 5 among the values in the window 550 region is input to the corresponding position 560 of the output image 590 .
이후, 도 5의 (d)에 도시된 바와 같이, 스트라이드 만큼 윈도우를 이동하고, 윈도우(570) 영역 내의 값들 중 최대값 2를 출력 영상(590)의 대응 위치(580)에 입력한다.Thereafter, as shown in (d) of FIG. 5 , the window is moved by a stride, and the maximum value 2 among values in the area of the window 570 is input to the corresponding position 580 of the output image 590 .
상기 과정은 입력 영상(510)의 우측 하단 영역에 윈도우가 위치할 때까지 반복적으로 수행됨으로써, 입력 영상(510)에 풀링을 적용한 출력 영상(590)을 생성할 수 있다.The above process is repeatedly performed until a window is located in the lower right area of the input image 510 , thereby generating the output image 590 to which the pooling is applied to the input image 510 .
본 개시의 딥러닝 기반의 모델은 완전 합성곱 신경망(완전 컨볼루션 뉴럴 네트워크, fully convolutional neural network), 합성곱 신경망(컨볼루션 뉴럴 네트워크, convolutional neural network), 순환 신경망(회귀 뉴럴 네트워크, recurrent neural network), 제한 볼츠만 머신(restricted Boltzmann machine, RBM) 및 심층 신뢰 신경망(deep belief neural network, DBN) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. 또는, 딥러닝 이외의 머신 러닝 방법도 포함할 수 있다. 또는 딥러닝과 머신 러닝을 결합한 하이브리드 형태의 모델도 포함할 수 있다. 예컨대, 딥러닝 기반의 모델을 적용하여 영상의 특징을 추출하고, 상기 추출된 특징에 기초하여 영상을 분류하거나 인식할 때는 머신 러닝 기반의 모델을 적용할 수도 있다. 머신 러닝 기반의 모델은 서포트 벡터 머신(Support Vector Machine, SVM), 에이다부스트(AdaBoost) 등을 포함할 수 있으나, 이에 한정되지 않는다.The deep learning-based model of the present disclosure includes a fully convolutional neural network (fully convolutional neural network), a convolutional neural network (convolutional neural network), and a recurrent neural network (recurrent neural network). ), a restricted Boltzmann machine (RBM), and at least one of a deep belief neural network (DBN), but is not limited thereto. Alternatively, machine learning methods other than deep learning may be included. Alternatively, it may include a hybrid model that combines deep learning and machine learning. For example, a feature of an image is extracted by applying a deep learning-based model, and a machine learning-based model may be applied when classifying or recognizing an image based on the extracted feature. The machine learning-based model may include, but is not limited to, a support vector machine (SVM), an AdaBoost, and the like.
본 발명의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 발명에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Exemplary methods of the present invention are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order if necessary. In order to implement the method according to the present invention, other steps may be included in addition to the illustrated steps, steps may be excluded from some steps, and/or other steps may be included except for some steps.
본 발명의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 발명의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present invention do not list all possible combinations, but are intended to describe representative aspects of the present invention, and the details described in various embodiments may be applied independently or in combination of two or more.
또한, 본 발명의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.
본 발명의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present invention includes software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause operation according to the method of various embodiments to be executed on a device or computer, and such software or and non-transitory computer-readable media in which instructions and the like are stored and executed on a device or computer.
Claims (23)
- 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 사용자 인터페이스;a user interface for receiving user information and an analysis request for the user information from a user;인공지능 모델을 저장하는 인공지능 모델 저장소;an artificial intelligence model repository for storing artificial intelligence models;상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 인공지능 모델 인터페이스; 및an artificial intelligence model interface for receiving at least one artificial intelligence model from the artificial intelligence model storage in response to the analysis request and performing analysis on the user information; and상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 데이터 공간을 포함하고,and a data space for storing the user information and an analysis result for the user information,상기 인공지능 모델 인터페이스는,The artificial intelligence model interface,상기 인공지능 모델 저장소로부터 인공지능 공유 추천 모델을 추가적으로 수신하고,Receive additionally an artificial intelligence shared recommendation model from the artificial intelligence model storage,상기 인공지능 공유 추천 모델은,The AI sharing recommendation model is상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 시스템.A user information analysis system, characterized in that generating a sharer recommendation list based on the analysis result of the user information.
- 제1항에 있어서,According to claim 1,상기 시스템은 공유자 인터페이스를 더 포함하고,The system further comprises a sharer interface,상기 사용자 인터페이스는 상기 생성된 공유자 추천 리스트에 기초하여 상기 사용자로부터 공유자를 선택하는 입력을 수신하고,The user interface receives an input for selecting a sharer from the user based on the generated sharer recommendation list;상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과를 상기 선택된 공유자에게 송신하는 것을 특징으로 하는 사용자 정보 분석 시스템.The sharer interface transmits the analysis result of the user information to the selected sharer.
- 제1항에 있어서,According to claim 1,상기 인공지능 모델 인터페이스는,The artificial intelligence model interface,상기 인공지능 공유 추천 모델을 이용하여 상기 분석 결과에 기초하여 상기 사용자를 분류하고, Classifying the user based on the analysis result using the artificial intelligence sharing recommendation model,상기 공유자 추천 리스트는,The sharer recommendation list is상기 분류 결과에 기초하여 생성되는 것을 특징으로 하는 사용자 정보 분석 시스템.User information analysis system, characterized in that generated based on the classification result.
- 제1항에 있어서,According to claim 1,상기 인공지능 모델 저장소는,The artificial intelligence model storage,상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트에 관한 입력을 수신하는 것을 특징으로 하는 사용자 정보 분석 시스템.The user information analysis system, characterized in that receiving an input regarding the storage of the artificial intelligence model, the deletion and update of the stored artificial intelligence model.
- 제1항에 있어서,According to claim 1,상기 공유자 추천 리스트는 복수의 공유자를 포함하는 것을 특징으로 하는 사용자 정보 분석 시스템.The sharer recommendation list is a user information analysis system, characterized in that it includes a plurality of sharers.
- 제5항에 있어서,6. The method of claim 5,상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함되는 것을 특징으로 하는 사용자 정보 분석 시스템.The system for analyzing user information, characterized in that the plurality of sharers included in the sharer recommendation list are included in the order of recommendation.
- 제1항에 있어서,According to claim 1,상기 인공지능 공유 추천 모델은,The AI sharing recommendation model is상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 시스템.The user information analysis system, characterized in that generating the sharer recommendation list based on the filtering information input from the user.
- 제1항에 있어서,According to claim 1,상기 사용자 정보에 대한 분석 결과는 상기 사용자 인터페이스를 통해 상기 사용자에게 제공되는 것을 특징으로 하는 사용자 정보 분석 시스템.The user information analysis system, characterized in that the analysis result of the user information is provided to the user through the user interface.
- 제2항에 있어서,3. The method of claim 2,상기 공유자 인터페이스는,The sharer interface is상기 사용자 정보에 대한 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하고,Receive feedback on the analysis result of the user information from the selected sharer,상기 피드백은 상기 데이터 공간에 저장되는 것을 특징으로 하는 사용자 정보 분석 시스템.The user information analysis system, characterized in that the feedback is stored in the data space.
- 제1항에 있어서,According to claim 1,상기 사용자 정보는 상기 사용자의 의료 정보를 포함하는 것을 특징으로 하는 사용자 정보 분석 시스템.The user information is a user information analysis system, characterized in that it includes the user's medical information.
- 제1항에 있어서,According to claim 1,상기 인공지능 모델 인터페이스는,The artificial intelligence model interface,상기 수신한 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하고,extracting feature points for the user information using the received at least one or more artificial intelligence models;상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유되는 것을 특징으로 하는 사용자 정보 분석 시스템.The extracted feature point is a user information analysis system, characterized in that it is shared among the at least one or more artificial intelligence models.
- 사용자 인터페이스, 인공지능 모델 저장소, 인공지능 모델 인터페이스 및 데이터 공간을 포함하는 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법으로서,A user information analysis method performed by a user information analysis system comprising a user interface, an artificial intelligence model repository, an artificial intelligence model interface, and a data space, the method comprising:상기 방법은,The method is상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계;receiving user information and an analysis request for the user information from a user through the user interface;상기 인공지능 모델 저장소에 저장된 적어도 하나 이상의 인공지능 모델을 이용하여 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계; 및performing analysis on the user information requested for analysis through the artificial intelligence model interface using at least one artificial intelligence model stored in the artificial intelligence model storage; and상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 상기 데이터 공간에 저장하는 단계를 포함하고,Storing the user information and an analysis result for the user information in the data space,상기 방법은,The method is상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 포함하고,Using the artificial intelligence shared recommendation model stored in the artificial intelligence model storage additionally through the artificial intelligence model interface,상기 인공지능 공유 추천 모델은,The AI sharing recommendation model is상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 방법.A method for analyzing user information, characterized in that the sharer recommendation list is generated based on the analysis result of the user information.
- 제12항에 있어서,13. The method of claim 12,상기 시스템은 공유자 인터페이스를 더 포함하고,The system further comprises a sharer interface,상기 방법은,The method is상기 생성된 공유자 추천 리스트로부터 적어도 하나의 공유자를 선택하는 입력을 상기 사용자로부터 상기 공유자 인터페이스를 통해 수신하는 단계; 및receiving an input for selecting at least one sharer from the generated sharer recommendation list from the user through the sharer interface; and상기 사용자 정보에 대한 분석 결과를 상기 공유자 인터페이스를 통해 상기 선택된 공유자에게 송신하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.The method further comprising the step of transmitting the analysis result of the user information to the selected sharer through the sharer interface.
- 제12항에 있어서,13. The method of claim 12,상기 방법은, The method is상기 인공지능 모델 인터페이스를 통해 상기 인공지능 공유 추천 모델을 이용함으로써 상기 분석 결과에 기초하여 상기 사용자를 분류하는 단계를 더 포함하고,Classifying the user based on the analysis result by using the artificial intelligence shared recommendation model through the artificial intelligence model interface,상기 공유자 추천 리스트는,The sharer recommendation list is상기 분류 결과에 기초하여 생성되는 것을 특징으로 하는 사용자 정보 분석 방법.User information analysis method, characterized in that generated based on the classification result.
- 제12항에 있어서,13. The method of claim 12,상기 방법은,The method is상기 인공지능 모델 저장소를 통해 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트 중 적어도 하나에 관한 입력을 수신하는 것을 특징으로 하는 사용자 정보 분석 방법.The method for analyzing user information, characterized in that receiving an input regarding at least one of storing the artificial intelligence model, deleting and updating the stored artificial intelligence model through the artificial intelligence model storage.
- 제12항에 있어서,13. The method of claim 12,상기 공유자 추천 리스트는 복수의 공유자를 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.The sharer recommendation list includes a plurality of sharers.
- 제16항에 있어서,17. The method of claim 16,상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함되는 것을 특징으로 하는 사용자 정보 분석 방법.The method for analyzing user information, characterized in that the plurality of sharers included in the sharer recommendation list are included in the order of recommendation.
- 제12에 있어서,13. The method of claim 12,상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 방법.The artificial intelligence sharing recommendation model generates the sharer recommendation list based on the filtering information input from the user.
- 제12항에 있어서,13. The method of claim 12,상기 방법은,The method is상기 사용자 인터페이스를 통해 상기 사용자 정보에 대한 분석 결과를 상기 사용자에게 제공하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법. The user information analysis method further comprising the step of providing an analysis result of the user information to the user through the user interface.
- 제13항에 있어서,14. The method of claim 13,상기 방법은,The method is상기 공유자 인터페이스를 통해 상기 사용자 정보의 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하는 단계; 및receiving a feedback on the analysis result of the user information from the selected sharer through the sharer interface; and상기 데이터 공간에 상기 피드백을 저장하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.and storing the feedback in the data space.
- 제12항에 있어서,13. The method of claim 12,상기 사용자 정보는 상기 사용자의 의료 정보를 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.The user information is a user information analysis method, characterized in that it includes the user's medical information.
- 제12항에 있어서,13. The method of claim 12,상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계는,The step of analyzing the user information requested for analysis includes:상기 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하는 단계를 포함하고,extracting a feature point for the user information using the at least one artificial intelligence model,상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유되는 것을 특징으로 하는 사용자 정보 분석 방법.The extracted feature point is a user information analysis method, characterized in that it is shared among the at least one or more artificial intelligence models.
- 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법을 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체로서,As a computer-readable recording medium recording a program for performing a user information analysis method performed by a user information analysis system,상기 사용자 정보 분석 방법은,The user information analysis method,사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계;receiving user information and an analysis request for the user information from a user through a user interface;인공지능 모델 인터페이스를 통해 상기 분석 요청에 대응하여 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 단계; 및performing analysis on the user information by receiving at least one artificial intelligence model from an artificial intelligence model storage in response to the analysis request through an artificial intelligence model interface; and데이터 공간을 통해 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 단계를 포함하고,Storing the user information and an analysis result for the user information through a data space,상기 방법은,The method is상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 더 포함하고,Further comprising the step of additionally using the artificial intelligence shared recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface,상기 인공지능 공유 추천 모델은,The AI sharing recommendation model is상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium recording a program, characterized in that the sharer recommendation list is generated based on the analysis result of the user information.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190179064A KR102160390B1 (en) | 2019-12-31 | 2019-12-31 | Method and system for artificial intelligence based user medical information analysis |
KR10-2019-0179064 | 2019-12-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021137454A1 true WO2021137454A1 (en) | 2021-07-08 |
Family
ID=72661095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2020/017506 WO2021137454A1 (en) | 2019-12-31 | 2020-12-03 | Artificial intelligence-based method and system for analyzing user medical information |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102160390B1 (en) |
WO (1) | WO2021137454A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102160390B1 (en) * | 2019-12-31 | 2020-09-29 | (주)제이엘케이 | Method and system for artificial intelligence based user medical information analysis |
KR102410415B1 (en) * | 2021-06-23 | 2022-06-22 | 주식회사 셀타스퀘어 | Method and apparatus for providing intelligent pharmacovilgilance platform |
KR102589834B1 (en) * | 2021-12-28 | 2023-10-16 | 동의과학대학교 산학협력단 | Diffuser for early screening for dementia |
KR102656090B1 (en) * | 2021-12-29 | 2024-04-11 | 주식회사 커넥트시스템 | Sysyem and method for ai model integrated management and deployment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140126830A (en) * | 2013-04-23 | 2014-11-03 | 한국 한의학 연구원 | Apparatus and method for providing diagnosis information of cold-heat using anthropometric measures |
KR20160099804A (en) * | 2015-02-13 | 2016-08-23 | 주식회사 티플러스 | Shared method and apparatus of providing remote reading services |
KR20170062839A (en) * | 2015-11-30 | 2017-06-08 | 임욱빈 | diagnostics system for cell using Deep Neural Network learning, diagnostics management method of the same, and computer-readable recording medium for the same |
KR20180110310A (en) * | 2017-03-28 | 2018-10-10 | 한국전자통신연구원 | System and method for predicting and analysis stroke |
JP2019504402A (en) * | 2015-12-18 | 2019-02-14 | コグノア, インコーポレイテッド | Platforms and systems for digital personalized medicine |
KR102160390B1 (en) * | 2019-12-31 | 2020-09-29 | (주)제이엘케이 | Method and system for artificial intelligence based user medical information analysis |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102056847B1 (en) * | 2018-10-16 | 2019-12-17 | 김태희 | Remote cervical cancer screening system based on automatic cervix reading and clinical decision support system |
-
2019
- 2019-12-31 KR KR1020190179064A patent/KR102160390B1/en active IP Right Grant
-
2020
- 2020-12-03 WO PCT/KR2020/017506 patent/WO2021137454A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140126830A (en) * | 2013-04-23 | 2014-11-03 | 한국 한의학 연구원 | Apparatus and method for providing diagnosis information of cold-heat using anthropometric measures |
KR20160099804A (en) * | 2015-02-13 | 2016-08-23 | 주식회사 티플러스 | Shared method and apparatus of providing remote reading services |
KR20170062839A (en) * | 2015-11-30 | 2017-06-08 | 임욱빈 | diagnostics system for cell using Deep Neural Network learning, diagnostics management method of the same, and computer-readable recording medium for the same |
JP2019504402A (en) * | 2015-12-18 | 2019-02-14 | コグノア, インコーポレイテッド | Platforms and systems for digital personalized medicine |
KR20180110310A (en) * | 2017-03-28 | 2018-10-10 | 한국전자통신연구원 | System and method for predicting and analysis stroke |
KR102160390B1 (en) * | 2019-12-31 | 2020-09-29 | (주)제이엘케이 | Method and system for artificial intelligence based user medical information analysis |
Also Published As
Publication number | Publication date |
---|---|
KR102160390B1 (en) | 2020-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021137454A1 (en) | Artificial intelligence-based method and system for analyzing user medical information | |
US10810735B2 (en) | Method and apparatus for analyzing medical image | |
US10902588B2 (en) | Anatomical segmentation identifying modes and viewpoints with deep learning across modalities | |
US11900647B2 (en) | Image classification method, apparatus, and device, storage medium, and medical electronic device | |
WO2018174623A1 (en) | Apparatus and method for image analysis using virtual three-dimensional deep neural network | |
Kou et al. | Microaneurysms segmentation with a U-Net based on recurrent residual convolutional neural network | |
US11276164B2 (en) | Classifier trained with data of different granularity | |
WO2019143177A1 (en) | Method for reconstructing series of slice images and apparatus using same | |
WO2019132590A1 (en) | Method and device for transforming image | |
Sivakumar et al. | A novel method to detect bleeding frame and region in wireless capsule endoscopy video | |
WO2021034138A1 (en) | Dementia evaluation method and apparatus using same | |
WO2019132588A1 (en) | Image analysis device and method based on image feature and context | |
WO2019189972A1 (en) | Method for analyzing iris image by artificial intelligence so as to diagnose dementia | |
WO2021049784A2 (en) | Method for generalizing light intensity distribution of medical image using gan | |
WO2019124836A1 (en) | Method for mapping region of interest of first medical image onto second medical image, and device using same | |
US20220375610A1 (en) | Multi-Variable Heatmaps for Computer-Aided Diagnostic Models | |
WO2022231200A1 (en) | Training method for training artificial neural network for determining breast cancer lesion area, and computing system performing same | |
WO2022197044A1 (en) | Bladder lesion diagnosis method using neural network, and system thereof | |
Zhai et al. | Coronary artery vascular segmentation on limited data via pseudo-precise label | |
Pal et al. | A fully connected reproducible SE-UResNet for multiorgan chest radiographs segmentation | |
Sham et al. | Automatic reaction emotion estimation in a human–human dyadic setting using Deep Neural Networks | |
WO2020230972A1 (en) | Method for improving reproduction performance of trained deep neural network model and device using same | |
Li et al. | Feature pyramid based attention for cervical image classification | |
Pushpa | An efficient internet of things (iot)-enabled skin lesion detection model using hybrid feature extraction with extreme machine learning model | |
WO2023277644A1 (en) | Method for providing information required for oral disease diagnosis, and apparatus for performing same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20910823 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 07/12/2022) |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20910823 Country of ref document: EP Kind code of ref document: A1 |