KR102160390B1 - Method and system for artificial intelligence based user medical information analysis - Google Patents
Method and system for artificial intelligence based user medical information analysis Download PDFInfo
- Publication number
- KR102160390B1 KR102160390B1 KR1020190179064A KR20190179064A KR102160390B1 KR 102160390 B1 KR102160390 B1 KR 102160390B1 KR 1020190179064 A KR1020190179064 A KR 1020190179064A KR 20190179064 A KR20190179064 A KR 20190179064A KR 102160390 B1 KR102160390 B1 KR 102160390B1
- Authority
- KR
- South Korea
- Prior art keywords
- artificial intelligence
- user information
- user
- analysis
- sharer
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H80/00—ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
본 발명은 인공지능 기반의 사용자 의료정보 분석 방법 및 장치에 대한 것이다. 보다 구체적으로, 본 발명은 인공지능을 기반으로 한 사용자 의료 정보의 분석 결과 등을 사용자에게 제공하고, 사용자가 선택한 공유자가 해당 분석 결과를 확인할 수 있는 방법 및 장치에 대한 것이다.The present invention relates to a method and apparatus for analyzing user medical information based on artificial intelligence. More specifically, the present invention relates to a method and apparatus for providing a user with an analysis result of user medical information based on artificial intelligence, and allowing a sharer selected by the user to check the analysis result.
AI(Artificial Intelligence)는 인간의 지능으로 가능한 사고, 학습 및 분석 등을 컴퓨터 등의 기계가 수행하는 것을 의미한다. 최근 이러한 AI를 의료 산업에 접목하는 기술이 증가하고 있는 실정이다.AI (Artificial Intelligence) means that machines such as computers perform thinking, learning, and analysis that are possible with human intelligence. Recently, there is an increasing number of technologies that apply AI to the medical industry.
인공 신경망(Artificial Neural Network, ANN)은 기계 학습(machine learning)을 구현하는 기법들 중 하나이다.Artificial Neural Network (ANN) is one of the techniques for implementing machine learning.
일반적으로 인공 신경망은 입력 계층(input layer), 은닉 계층(hidden layer) 및 출력 계층(output layer)으로 이루어져 있다. 각 계층들은 뉴런(neuron)들로 구성되어 있으며, 각 계층의 뉴런들은 이전 계층의 뉴런들의 출력과 연결되어 있다. 이전 계층의 뉴런들의 각 출력 값과 그에 상응하는 연결 가중치(weight)를 내적(inner product)한 값에 바이어스(bias)를 더한 값을 일반적으로 비선형(non-linear)인 활성화 함수(activation function)에 넣고 그 출력 값을 다음 단계 계층의 뉴런들에게 전달한다. In general, an artificial neural network consists of an input layer, a hidden layer, and an output layer. Each layer is composed of neurons, and the neurons of each layer are connected to the outputs of the neurons of the previous layer. The value obtained by adding the bias to the inner product of each output value of the neurons of the previous layer and the corresponding connection weight is added to an activation function, which is generally non-linear. And pass the output to neurons in the next layer.
합성곱 신경망(Convolutional Neural Network, CNN)은 영상 인식 분야에서 기존의 기계 학습 기법들의 성능을 압도하며 크게 주목받고 있다. 합성곱 신경망의 구조는 일반적인 인공 신경망의 구조와 거의 동일한데, 추가적인 구성요소로는 합성곱 계층(convolutional layer)와 통합 계층(pooling layer)이 있다.Convolutional Neural Networks (CNNs) are attracting great attention as they dominate the performance of existing machine learning techniques in the field of image recognition. The structure of a convolutional neural network is almost the same as that of a general artificial neural network. Additional components include a convolutional layer and a pooling layer.
한편, 현대 의학에서 의료 영상은 효과적인 질병의 진단 및 환자의 치료를 위해 매우 중요한 도구이다. 또한 영상 기술의 발달은 더욱 정교한 의료 영상 데이터 획득을 가능하게 하고 있다. 이러한 정교함의 대가로 데이터의 양이 점차 방대해지고 있어 의료 영상 데이터를 인간의 시각에 의존하여 분석하는 데 많은 어려움이 따르고 있다.Meanwhile, in modern medicine, medical imaging is a very important tool for effective disease diagnosis and patient treatment. In addition, the development of imaging technology enables more sophisticated medical image data acquisition. In exchange for such sophistication, the amount of data is gradually becoming vast, and it is difficult to analyze medical image data depending on human vision.
본 발명의 배경이 되는 기술은 대한민국 공개특허공보 제10-2018-0108501(2018.10.04 공개)에 개시되어 있다.The technology behind the present invention is disclosed in Korean Patent Application Publication No. 10-2018-0108501 (published on October 4, 2018).
본 발명의 기술적 과제는 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템을 제공하는 것이다. An object of the present invention is to provide a method and system for analyzing user medical information based on artificial intelligence.
본 발명의 다른 기술적 과제는 인공지능을 기반으로 사용자 의료정보 분석 결과를 공유자에 제공하는 방법 및 시스템을 제공하는 것이다.Another technical problem of the present invention is to provide a method and system for providing a user medical information analysis result to a sharer based on artificial intelligence.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the following description. I will be able to.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템은, 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 사용자 인터페이스, 인공지능 모델을 저장하는 인공지능 모델 저장소, 상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 인공지능 모델 인터페이스 및 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 데이터 공간을 포함할 수 있다.The user information analysis system according to an embodiment of the present invention includes a user interface for receiving user information and an analysis request for the user information from a user, an artificial intelligence model storage storing an artificial intelligence model, and the analysis request It may include an artificial intelligence model interface for receiving at least one artificial intelligence model from the artificial intelligence model storage and performing analysis on the user information, and a data space for storing the user information and the analysis result of the user information.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 인터페이스는 상기 인공지능 모델 저장소로부터 인공지능 공유 추천 모델을 추가적으로 수신하고, 상기 인공지능 공유 추천 모델은 상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성할 수 있다. In the user information analysis system according to an embodiment of the present invention, the artificial intelligence model interface additionally receives an artificial intelligence sharing recommendation model from the artificial intelligence model storage, and the artificial intelligence sharing recommendation model analyzes the user information. Based on the result, a sharer recommendation list may be generated.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 시스템은 공유자 인터페이스를 더 포함하고, 상기 사용자 인터페이스는 상기 생성된 공유자 추천 리스트에 기초하여 상기 사용자로부터 공유자를 선택하는 입력을 수신하고, 상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과를 상기 선택된 공유자에게 송신할 수 있다. In the user information analysis system according to an embodiment of the present invention, the system further includes a sharer interface, and the user interface receives an input for selecting a sharer from the user based on the generated sharer recommendation list, The sharer interface may transmit an analysis result of the user information to the selected sharer.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 인터페이스는 상기 인공지능 공유 추천 모델을 이용하여 상기 분석 결과에 기초하여 상기 사용자를 분류하고, 상기 공유자 추천 리스트는 상기 분류 결과에 기초하여 생성될 수 있다.In the user information analysis system according to an embodiment of the present invention, the artificial intelligence model interface classifies the user based on the analysis result using the artificial intelligence sharing recommendation model, and the sharer recommendation list is the classification result Can be generated based on
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 저장소는 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트에 관한 입력을 수신할 수 있다. In the user information analysis system according to an embodiment of the present invention, the artificial intelligence model storage may receive an input regarding storage of the artificial intelligence model, deletion and update of the stored artificial intelligence model.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 추천 리스트는 복수의 공유자를 포함할 수 있다. In the user information analysis system according to an embodiment of the present invention, the sharer recommendation list may include a plurality of sharers.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. In the user information analysis system according to an embodiment of the present invention, the plurality of sharers included in the sharer recommendation list may be included in the order of recommendation in order of rapidity.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성할 수 있다. In the user information analysis system according to an embodiment of the present invention, the artificial intelligence sharing recommendation model may generate the sharer recommendation list based on filtering information input from the user.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 사용자 정보에 대한 분석 결과는 상기 사용자 인터페이스를 통해 상기 사용자에게 제공될 수 있다. In the user information analysis system according to an embodiment of the present invention, the analysis result of the user information may be provided to the user through the user interface.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하고 상기 피드백은 상기 데이터 공간에 저장될 수 있다. In the user information analysis system according to an embodiment of the present invention, the sharer interface may receive a feedback on the analysis result of the user information from the selected sharer, and the feedback may be stored in the data space.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 사용자 정보는 상기 사용자의 의료 정보를 포함할 수 있다. In the user information analysis system according to an embodiment of the present invention, the user information may include medical information of the user.
본 발명의 일 실시예에 따른 사용자 정보 분석 시스템이 있어서, 상기 인공지능 모델 인터페이스는, 상기 수신한 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하고, 상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유될 수 있다.In the user information analysis system according to an embodiment of the present invention, the artificial intelligence model interface extracts a feature point for the user information using the received at least one artificial intelligence model, and the extracted feature point is the It can be shared among at least one or more artificial intelligence models.
본 발명의 다른 양상에 따른 사용자 인터페이스, 인공지능 모델 저장소, 인공지능 모델 인터페이스 및 데이터 공간을 포함하는 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법은, 상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계, 상기 인공지능 모델 저장소에 저장된 적어도 하나 이상의 인공지능 모델을 이용하여 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계 및 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 상기 데이터 공간에 저장하는 단계를 포함할 수 있다.According to another aspect of the present invention, a user information analysis method performed by a user information analysis system including a user interface, an artificial intelligence model storage, an artificial intelligence model interface, and a data space includes user information and the user information from the user through the user interface. Receiving an analysis request for user information, performing analysis on the user information requested for analysis through the artificial intelligence model interface using at least one artificial intelligence model stored in the artificial intelligence model storage, and the user And storing information and an analysis result of the user information in the data space.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 더 포함하고, 상기 인공지능 공유 추천 모델은 상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성할 수 있다.In the user information analysis method according to an embodiment of the present invention, the method further comprises the step of additionally using an artificial intelligence sharing recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface, and the artificial intelligence sharing The recommendation model may generate a sharer recommendation list based on the analysis result of the user information.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 시스템은 공유자 인터페이스를 더 포함하고, 상기 방법은 상기 생성된 공유자 추천 리스트로부터 적어도 하나의 공유자를 선택하는 입력을 상기 사용자로부터 상기 공유자 인터페이스를 통해 수신하는 단계 및 상기 사용자 정보에 대한 분석 결과를 상기 공유자 인터페이스를 통해 상기 선택된 공유자에게 송신하는 단계를 더 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the system further includes a sharer interface, and the method receives an input for selecting at least one sharer from the generated sharer recommendation list from the user to the sharer interface. The method may further include receiving through the user information and transmitting the analysis result of the user information to the selected sharer through the sharer interface.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 인터페이스를 통해 상기 인공지능 공유 추천 모델을 이용함으로써 상기 분석 결과에 기초하여 상기 사용자를 분류하는 단계를 더 포함하고, 상기 공유자 추천 리스트는 상기 분류 결과에 기초하여 생성될 수 있다.In the user information analysis method according to an embodiment of the present invention, the method further comprises the step of classifying the user based on the analysis result by using the artificial intelligence sharing recommendation model through the artificial intelligence model interface, , The sharer recommendation list may be generated based on the classification result.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 저장소를 통해 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트 중 적어도 하나에 관한 입력을 수신할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the method may receive an input regarding at least one of storage of the artificial intelligence model, deletion of the stored artificial intelligence model, and updating through the artificial intelligence model storage. I can.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 공유자 추천 리스트는 복수의 공유자를 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the sharer recommendation list may include a plurality of sharers.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. In the method for analyzing user information according to an embodiment of the present invention, the plurality of sharers included in the sharer recommendation list may be included in the order of recommendation in order of rapidity.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the artificial intelligence sharing recommendation model may generate the sharer recommendation list based on filtering information input from the user.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 사용자 인터페이스를 통해 상기 사용자 정보에 대한 분석 결과를 상기 사용자에게 제공하는 단계를 더 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the method may further include providing an analysis result of the user information to the user through the user interface.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 공유자 인터페이스를 통해 상기 사용자 정보의 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하는 단계 및 상기 데이터 공간에 상기 피드백을 저장하는 단계를 더 포함할 수 있다.In the user information analysis method according to an embodiment of the present invention, the method includes receiving a feedback on a result of analysis of the user information from the selected sharer through the sharer interface, and storing the feedback in the data space. It may further include a step.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 사용자 정보는 상기 사용자의 의료 정보를 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the user information may include medical information of the user.
본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계는, 상기 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하는 단계를 포함하고, 상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유될 수 있다.In the user information analysis method according to an embodiment of the present invention, the performing of analysis on the user information requested for analysis comprises: extracting feature points for the user information using the at least one artificial intelligence model Including, the extracted feature points may be shared between the at least one or more artificial intelligence models.
본 발명의 또 다른 양상에 따른 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법을 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 있어서, 상기 사용자 정보 분석 방법은 상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계, 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 단계 및 상기 데이터 공간을 통해 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 단계를 포함할 수 있다.In a computer-readable recording medium recording a program for performing a user information analysis method performed by a user information analysis system according to another aspect of the present invention, the user information analysis method includes user information from a user through the user interface. And receiving an analysis request for the user information, receiving at least one artificial intelligence model from the artificial intelligence model storage in response to the analysis request through the artificial intelligence model interface, and performing analysis on the user information. And storing the user information and an analysis result of the user information through the data space.
본 발명에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the present invention are merely exemplary aspects of the detailed description of the present invention to be described later, and do not limit the scope of the present invention.
본 발명에 따르면, 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템이 제공될 수 있다. According to the present invention, a method and system for analyzing user medical information based on artificial intelligence can be provided.
또한, 본 발명에 따르면, 인공지능을 기반으로 사용자 의료정보 분석 결과를 공유자에 제공하는 방법 및 시스템이 제공될 수 있다.In addition, according to the present invention, a method and system for providing a user medical information analysis result to a sharer based on artificial intelligence can be provided.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those of ordinary skill in the art from the following description. will be.
도 1은 본 발명의 일 실시예에 따른, 인공지능 기반의 사용자 의료정보 분석 시스템의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른, 사용자 의료정보 분석을 위한 딥러닝 모델 학습 장치의 구성을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른, 영상의 맥락 정보를 생성하고 분석하는 과정을 나타내는 도면이다.
도 4는 다채널 특징맵을 생성하는 합성곱 신경망의 일 실시 예를 설명하기 위한 도면이다.
도 5는 풀링 기법의 일 실시 예를 설명하기 위한 도면이다.1 is a diagram showing the configuration of an artificial intelligence-based user medical information analysis system according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of an apparatus for learning a deep learning model for analyzing user medical information according to an embodiment of the present invention.
3 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present invention.
4 is a diagram for describing an embodiment of a convolutional neural network generating a multi-channel feature map.
5 is a diagram for describing an embodiment of a pooling technique.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms, and is not limited to the embodiments described herein.
본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing an embodiment of the present invention, if it is determined that a detailed description of a known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In the drawings, parts not related to the description of the present invention are omitted, and similar reference numerals are attached to similar parts.
본 발명에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present invention, when a component is "connected", "coupled" or "connected" with another component, this is not only a direct connection relationship, but an indirect connection relationship in which another component exists in the middle. It can also include. In addition, when a certain component "includes" or "have" another component, it means that other components may be further included rather than excluding other components unless otherwise stated. .
본 발명에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 발명의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present invention, terms such as first and second are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of the components unless otherwise noted. Accordingly, within the scope of the present invention, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is a first component in another embodiment. It can also be called.
본 발명에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 발명의 범위에 포함된다. In the present invention, components that are distinguished from each other are intended to clearly describe each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not stated otherwise, such integrated or distributed embodiments are also included in the scope of the present invention.
본 발명에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다. In the present invention, the components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment comprising a subset of components described in the embodiment is also included in the scope of the present invention. In addition, embodiments including other components in addition to the components described in the various embodiments are included in the scope of the present invention.
본 발명의 명세서에 기재된 "??부", "??모듈", "??수단" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Terms such as "?? unit", "?? module", "?? means" described in the specification of the present invention mean a unit that processes at least one function or operation, which is hardware or software or hardware and software. It can be implemented in combination.
이하, 첨부한 도면을 참조하여 본 발명의 실시 예들에 대해서 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른, 인공지능 기반의 사용자 의료정보 분석 시스템의 구성을 나타내는 도면이다.1 is a diagram showing the configuration of an artificial intelligence-based user medical information analysis system according to an embodiment of the present invention.
도 1을 참고하면, 본 발명의 일 실시예에 따른 인공지능 기반의 사용자 의료정보 분석 시스템(100)은, 사용자 인터페이스(110), 데이터 공간(111), 인공지능 모델 인터페이스(112), 인공지능 모델 저장소(113), 공유자 인터페이스(115) 및 가시화 모듈(116)을 포함할 수 있다. 그러나, 이는 예시적인 구성일 뿐, 도 1에 도시되지 않은 구성 요소가 추가되거나 도 1에 도시된 구성 요소 중 일부가 삭제될 수 있다. Referring to FIG. 1, an artificial intelligence-based user medical
사용자(101)는 사용자 인터페이스(110)를 통해 사용자 의료정보 분석 시스템(100)과 정보를 송신 및/또는 수신할 수 있다. 사용자(101)는 사용자 디바이스를 의미할 수 있다. 예컨대, 사용자 디바이스는 메모리, 프로세서, 디스플레이 및/또는 통신 모듈을 포함하는 컴퓨팅 장치일 수 있다.The
예를 들어, 사용자(101)는 사용자 인터페이스(110)를 통해 사용자 정보를 데이터 공간(111)에 저장할 수 있다. 또한, 사용자(101)는 사용자 인터페이스(110)를 통해 저장한 사용자 정보를 열람할 수 있다. 데이터 공간(111)에 저장된 사용자 정보의 열람을 위해 후술하는 가시화 모듈(116)이 이용될 수 있다. 또한, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보를 수정하거나 삭제할 수 있다. 이때, 사용자 정보는, 사용자(101)의 개인 정보(예를 들어, 나이, 성별, 직업, 주소, 현재 위치 등), 의료 정보(예를 들어, 진단 이력 및 치료 이력, 의료 영상 등)일 수 있다. 그러나, 반드시 이에 한정되는 것은 아니며, 상기 사용자 정보는 본 발명에 따른 의료 정보 분석 방법의 수행에 필요한 다양한 정보를 포함할 수 있다. For example, the
또한, 사용자(101)는 사용자 인터페이스(110)를 통해 사용자 의료정보 분석 시스템(100)으로 하여금 사용자 정보의 분석을 수행하도록 요청할 수 있다.In addition, the
또한, 사용자(101)는 사용자 인터페이스(110)를 통해 가시화 모듈(116)을 선택하여 입력한 사용자 정보에 대한 인공지능 분석 결과를 확인할 수 있다. In addition, the
예컨대, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보 및/또는 사용자 정보의 분석 결과를 선택할 수 있다. 선택된 사용자 정보 및/또는 사용자 정보의 분석 결과는 가시화 모듈(116)로 전송될 수 있다. 가시화 모듈(116)은 전송된 사용자 정보 및/또는 사용자 정보의 분석 결과를 사용자가 열람할 수 있는 형태로 가공할 수 있다. 가시화 모듈은 열람 가능한 형태로 가공된 사용자 정보 및/또는 사용자 정보의 분석 결과를 사용자 인터페이스(110)를 통해 사용자(101)에게 전송할 수 있다. 사용자(101)는 예컨대, 사용자 디바이스에 구비된 디스플레이 등을 통해 전송된 사용자 정보 및/또는 사용자 정보의 분석 결과를 열람할 수 있다.For example, the
다른 예로서, 가시화 모듈(116)은 사용자(101) 측에 구비될 수 있다. 예컨대, 사용자 디바이스는 가시화 모듈(116)을 포함할 수 있다. 예를 들어, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보 및/또는 사용자 정보의 분석 결과를 선택할 수 있다. 선택된 사용자 정보 및/또는 사용자 정보의 분석 결과는 사용자 디바이스 내에 위치한 가시화 모듈(116)을 통해 사용자가 열람 가능한 형태로 가공될 수 있다.As another example, the
다른 예로서, 사용자 정보의 분석 결과는 가시화 모듈(116)에서 뿐만 아니라 레포트 형태나 파일 형태로 사용자(101)에게 제공될 수 있다. 예를 들어, 사용자는 사용자 정보의 분석 결과를 PDF, JPG, GIF 등의 문서 형태로 다운로드 받을 수 있다. 그러나, 반드시 이에 제한되는 것은 아니며, 사용자 정보의 분석 결과는 다양한 형태를 통하여 사용자에게 제공될 수 있다.As another example, the analysis result of user information may be provided to the
인공지능 모델 저장소(113)는 다수의 인공지능 모델을 개별적으로 저장할 수 있다. 사용자(101)로부터 사용자 정보의 분석 요청이 있는 경우, 인공지능 모델 저장소(113)에서는 해당 사용자 정보 분석에 적합한 인공지능 모델이 선택되어 인공지능 모델 인터페이스(112)로 전송될 수 있다. 이때, 전송되는 인공지능 모델은 단일 또는 복수 개일 수 있다. The artificial
또한, 개발자(104)는 인공지능 모델 저장소(113)에 저장된 인공지능 모델을 수정 및/또는 삭제하거나, 새로운 인공지능 모델을 추가할 수 있다. 개발자(104)는 개발자 디바이스를 의미할 수 있다. 예컨대, 개발자 디바이스는 메모리, 프로세서, 디스플레이 및/또는 통신 모듈을 포함하는 컴퓨팅 장치일 수 있다.In addition, the
인공지능 모델 인터페이스(112)는 인공지능 모델 저장소(113)로부터 수신한 단일 또는 복수 개의 인공지능 모델을 장착하여 사용자 정보의 분석을 수행할 수 있다. 사용자 정보의 분석은, 사용자 정보가 인공지능 모델에 순차적으로 입력됨으로써 수행될 수 있다. 분석을 위한 사용자 정보는 데이터 공간(111)으로부터 전송될 수 있다. 이때, 사용자 정보의 분석이 완료된 경우, 장착된 단일 또는 복수개의 인공지능 모델은 삭제될 수 있다. The artificial
예를 들어, 사용자(101)가 사용자 의료 영상에 대한 분석을 요청하는 경우, 인공지능 모델 인터페이스(112)에서는, 인공신경망(예를 들어, 합성곱 신경망(Convolutional Neural Network, CNN) 등)을 이용하여 사용자의 의료 영상 특징점을 추출할 수 있고, 사용자 의료 영상의 판독 결과를 도출할 수 있다. 추출된 사용자 의료 영상의 특징점은, 인공지능 모델 간에 공유될 수 있다. 즉, 한 인공지능 모델에서 추출한 특징점을 다른 인공지능 모델에서도 사용할 수 있다. 이때, 구체적인 사용자 의료 영상에 대한 분석 방법에 대하여는, 도 2 내지 도 5에 관한 설명에서 후술한다.For example, when the
또한, 인공지능 모델 인터페이스(112)에서 분석된 인공지능 분석 결과는 데이터 공간(111)에 저장될 수 있다. 이때, 사용자(101)는 사용자 인터페이스(110)를 통해 인공지능 분석 결과를 확인할 수 있다.In addition, the artificial intelligence analysis result analyzed by the artificial
또한, 사용자 정보에 음성 정보가 포함되어 있는 경우, 인공지능 모델 인터페이스(112)에서는 해당 음성 정보로부터 텍스트를 추출해낼 수 있다. 추출된 텍스트는 사용자 정보 분석에 이용될 수 있다. 이때, 사용자 의료 정보들은 수치화 될 수 있다. In addition, when voice information is included in the user information, the artificial
인공지능 모델 인터페이스(112)에서는, 수치화 된 사용자 의료 정보, 사용자의 음성 정보로부터 추출된 텍스트를 포함한 사용자 정보를 종합하여 사용자를 분류할 수 있다. 예를 들어, 입력된 사용자 정보가 정상 범주 미만의 혈압을 나타내는 경우, 해당 정보를 입력한 사용자는 '저혈압 증상'이 있는 사용자로 분류될 수 있다. 또한, 입력된 사용자 정보가 전립선 암과 유사한 형태를 갖는 양성종양이 포함된 영상인 경우, 해당 정보를 입력한 사용자는 '전립선 암'위험이 있는 사용자로 분류될 수 있다. In the artificial
인공지능 모델 인터페이스(112)에서는, 분류된 사용자 정보를 이용하여 단일 또는 복수의 공유자를 포함하는 공유자 추천 리스트(102)를 생성할 수 있다. 공유자 추천 리스트(102)에 포함되는 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. 이때, 사용자(101)가 사용자 인터페이스(110)을 통해 입력하는 필터 값이 존재할 경우, 생성된 공유자 추천 리스트(102)를 해당 필터 값을 반영하여 필터링할 수 있다. 이때, 사용자(101)는 사용자 인터페이스(110)를 통해 생성된 공유자 추천 리스트(102)를 확인할 수 있다. In the artificial
예를 들어, 사용자가 '전립선 암'위험이 있는 사용자로 분류된 경우, 인공지능 모델 인터페이스(112)에서는, '전립선 암'전문 병원들을 공유자로 설정하여 병원 리스트를 생성할 수 있다. 이때, 사용자가 사용자 인터페이스를 통해 특정 병원을 제외하는 필터 값을 입력한 경우, 해당 병원이 생성된 병원 리스트에서 제거될 수 있다. For example, when the user is classified as a user at risk of'prostate cancer', the artificial
다른 실시예로, 생성된 공유자 추천 리스트(102)에 공유자(103)의 필터 값이 반영될 수 있다. 예를 들어, 특정 병원의 진료일 및/또는 진료 시간이 변경된 경우, 해당 병원은 생성된 공유자 추천 리스트에서 해당 병원의 제거 및/또는 추천 순서의 변경을 요청할 수 있다. In another embodiment, the filter value of the
사용자(101)는 생성된 공유자 추천 리스트(102)에서, 특정 공유자(103)를 선택할 수 있다. 이때, 사용자(101)에 의해 선택된 공유자(103)는, 공유자 인터페이스(115)를 통해 가시화 모듈(116)에 접속하여 사용자(101)가 입력한 사용자 정보 및 사용자 정보의 인공지능 분석 결과를 확인할 수 있다. 또한, 공유자(103)는, 공유자 인터페이스(115)를 통해 사용자 정보의 인공지능 분석 결과에 포함된 이미지를 수정하거나, 새로 입력하는 등의 피드백을 제공할 수 있다. 또한, 공유자(103)는, 사용자 정보의 인공지능 분석 결과에 대하여 보충의견을 작성하여 피드백을 제공할 수도 있다. 이때, 수정되거나 새로 입력된 인공지능 분석 결과는 데이터공간(111)에 저장될 수 있다. The
예를 들어, 생성된 공유자 추천 리스트가 A 병원, B 병원 및 C 병원을 포함하는 경우, 사용자는 A 병원을 선택할 수 있다. 이때, 선택된 A 병원은, 공유자 인터페이스를 통해 사용자가 입력한 사용자 의료 영상을 확인할 수 있다. 또한, A 병원은, 공유자 인터페이스를 통해 사용자 의료 영상의 인공지능 분석 결과를 확인할 수 있다. For example, when the generated sharer recommendation list includes hospital A, hospital B, and hospital C, the user may select hospital A. At this time, the selected hospital A may check the user medical image input by the user through the sharer interface. In addition, Hospital A may check the result of artificial intelligence analysis of the user's medical image through the sharer interface.
본 발명의 일 실시예에 따른 데이터 공간(111), 인공지능 모델 저장소(113)는 클라우드 기술을 이용해 구현될 수 있으나, 반드시 이에 한정되는 것은 아니다. The
이하 도 2 내지 도 5에서 사용자 정보에 대한 구체적인 분석 방법을 설명한다.Hereinafter, a detailed analysis method for user information will be described in FIGS. 2 to 5.
도 2는 본 발명의 일 실시예에 따른, 사용자 의료정보 분석을 위한 딥러닝 모델 학습 장치의 구성을 나타내는 도면이다. 2 is a diagram illustrating a configuration of an apparatus for learning a deep learning model for analyzing user medical information according to an embodiment of the present invention.
딥러닝 모델 학습 장치(20)는, 인공지능 모델 인터페이스에 장착되는 인공지능 모델의 일 실시예일 수 있다. The deep learning
도 2를 참조하면, 딥러닝 모델 학습 장치(20)는 특징 추출부(21), 맥락 생성부(22), 특징 및 맥락 분석부(23)을 포함할 수 있다. 다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 딥러닝 모델 학습 장치(20)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다.Referring to FIG. 2, the deep learning
딥러닝 모델 학습 장치(20)는 분석 대상 사용자 의료 영상의 특징을 추출하고, 추출된 특징에 기초하여 맥락 정보를 생성하고, 추출된 특징 및 생성된 맥락 정보에 기초하여 분석 대상 영상을 분석할 수 있다. 예컨대, 딥러닝 모델 학습 장치(20)는 추출된 특징 및 생성된 맥락 정보를 이용하여 영상을 분류하거나 관심 객체의 위치를 찾아낼 수 있다.The deep learning
딥러닝 모델 학습 장치(20)의 입력 영상은 적어도 하나의 의료 영상(MRI, CT, X-ray 등)일 수 있다.The input image of the deep learning
특징 추출부(21)는 입력 영상을 분석하여 영상의 특징을 추출할 수 있다. 예컨대, 상기 특징은 영상의 각 영역마다의 국소적인 특징일 수 있다. 본 발명의 일 실시예에 따른 특징 추출부(21)는 일반적인 합성곱 신경망(Convolutional Neural Network, CNN) 기법 또는 풀링(pooling) 기법을 이용하여 입력 영상의 특징을 추출할 수 있다. 상기 풀링 기법은 맥스(max) 풀링 기법 및 평균(average) 풀링 기법 중 적어도 하나를 포함할 수 있다. 그러나, 본 개시에서 언급되는 풀링 기법은 맥스 풀링 기법 또는 평균 풀링 기법에 한정되지 않으며, 소정 크기의 영상 영역의 대표값을 획득하는 임의의 기법을 포함한다. 예컨대, 풀링 기법에 사용되는 대표값은 최대값 및 평균값 외에, 분산값, 표준 편차값, 중간값(mean value), 최빈값(most frequent value), 최소값 및 가중 평균값 중 적어도 하나일 수 있다.The
본 개시의 합성곱 신경망은 입력 데이터(영상)로부터 테두리, 선 색 등과 같은 특징들(features)을 추출하기 위해 이용될 수 있으며, 복수의 계층들(layers)을 포함할 수 있다. 각각의 계층은 입력 데이터를 수신하고, 해당 계층의 입력 데이터를 처리하여 출력 데이터를 생성할 수 있다. 합성곱 신경망은 입력된 영상 또는 입력된 특징맵(feature map)을 필터 커널들(filter kernels)과 컨볼루션하여 생성한 특징맵을 출력 데이터로서 출력할 수 있다. 합성곱 신경망의 초기 계층들은 입력으로부터 에지들 또는 그레디언트들과 같은 낮은 레벨의 특징들을 추출하도록 동작될 수 있다. 신경망의 다음 계층들은 눈, 코 등과 같은 점진적으로 더 복잡한 특징들을 추출할 수 있다. 합성곱 신경망의 구체적인 동작에 대해서는 도 4를 참고하여 후술한다.The convolutional neural network of the present disclosure may be used to extract features such as borders, line colors, and the like from input data (images), and may include a plurality of layers. Each layer may receive input data and may generate output data by processing the input data of the layer. The convolutional neural network may output an input image or a feature map generated by convolving an input feature map with filter kernels as output data. The initial layers of the convolutional neural network can be operated to extract low-level features such as edges or gradients from the input. The next layers of the neural network can gradually extract more complex features such as eyes, nose, etc. A detailed operation of the convolutional neural network will be described later with reference to FIG. 4.
합성곱 신경망은 컨볼루션 연산이 수행되는 합성곱 계층 외에도 풀링 연산이 수행되는 풀링 계층도 포함할 수 있다. 풀링 기법은 풀링 계층에서 데이터의 공간적 크기를 축소하는데 사용되는 기법이다. 구체적으로, 풀링 기법에는 해당 영역에서 최대값을 선택하는 맥스 풀링(max pooling) 기법과 해당 영역의 평균 값을 선택하는 평균 풀링(average pooling) 기법이 있으며, 이미지 인식 분야에서는 일반적으로 맥스 풀링 기법이 사용된다. 풀링 기법에서는 일반적으로 풀링의 윈도우 크기와 간격(스트라이드, stride)을 같은 값으로 설정한다. 여기서, 스트라이드란 입력 데이터에 필터를 적용할 때 이동할 간격을 조절하는 것, 즉 필터가 이동할 간격을 의미하며, 스트라이드 또한 출력 데이터의 크기를 조절하기 위해 사용될 수 있다. 풀링 기법의 구체적인 동작에 대해서는 도 5를 참고하여 후술한다.The convolutional neural network may include a pooling layer in which a pooling operation is performed in addition to a convolutional layer in which a convolution operation is performed. The pooling technique is a technique used to reduce the spatial size of data in the pooling layer. Specifically, the pooling technique includes a max pooling technique that selects a maximum value in a corresponding domain and an average pooling technique that selects an average value of the domain. In the image recognition field, the max pooling technique is generally used. Used. In the pooling technique, generally, the pooling window size and interval (stride) are set to the same value. Here, the stride refers to an interval to be moved when a filter is applied to input data, that is, an interval to which the filter is moved, and stride may also be used to adjust the size of output data. A detailed operation of the pooling technique will be described later with reference to FIG. 5.
본 개시의 일 실시예에 따른 특징 추출부(21)는 분석 대상 영상의 특징을 추출하기 위한 전처리(pre-processing)로서, 분석 대상 영상에 필터링을 적용할 수 있다. 상기 필터링은 고속 푸리에 변환(Fast Fourier Transform, FFT), 히스토그램 평활화(histogram equalization), 모션 아티팩트(motion artifact) 제거 또는 노이즈(noise) 제거 등일 수 있다. 그러나, 본 개시의 필터링은 상기 열거한 방법으로 제한되지 않으며, 영상의 품질을 개선할 수 있는 모든 형태의 필터링을 포함할 수 있다.The
맥락 생성부(22)는 특징 추출부(21)로부터 추출된 입력 영상의 특징을 이용하여 입력 영상(분석 대상 영상)의 맥락 정보를 생성할 수 있다. 예컨대, 상기 맥락 정보는 분석 대상 영상의 전체 또는 일부 영역을 나타내는 대표값일 수 있다. 또한 상기 맥락 정보는 입력 영상의 전역적인 맥락 정보일 수 있다. 일 실시 예에 따른 맥락 생성부(22)는 합성곱 신경망 기법 또는 풀링 기법을 특징 추출부(21)로부터 추출된 특징에 적용하여 맥락 정보를 생성할 수 있다. 상기 풀링 기법은 예컨대, 평균 풀링(average pooling) 기법일 수 있다.The
특징 및 맥락 분석부(23)는 특징 추출부(21)에서 추출된 특징 및 맥락 생성부(22)에서 생성된 맥락 정보에 기초하여 영상을 분석할 수 있다. 일 실시예에 따른 특징 및 맥락 분석부(23)는 특징 추출부(21)에서 추출된 영상의 각 영역마다의 국소적인 특징 및 맥락 생성부(22)에서 재구성된 전역적인 맥락을 결합(concatenate)하는 등의 방식으로 함께 사용하여, 입력 영상을 분류하거나 입력 영상에 포함된 관심 객체의 위치 등을 찾는데 이용할 수 있다. 입력 영상 내 특정 2차원 위치에서의 정보는 국소적인 특징 정보뿐만 아니라 전역적인 맥락 정보까지 포함하게 되므로, 특징 및 맥락 분석부(23)는 이들 정보를 이용함으로써, 실제 내용은 상이하지만 국소적인 특징 정보가 유사한 입력 영상들에 대해 보다 정확한 인식 또는 분류 등이 가능하게 된다. The feature and
전술한 바와 같이, 본 개시의 일 실시 예에 따른 발명은, 일반적인 합성곱 신경망 기법이 사용하는 국소적인 특징뿐만 아니라 전역적인 맥락 정보를 함께 사용함으로써, 보다 더 정확하고 효율적인 학습 및 영상 분석이 가능하게 된다. 이러한 관점에서 본 개시에 따른 발명을 '맥락 분석을 통한 심층 신경망'이라 할 수 있다.As described above, the invention according to an embodiment of the present disclosure enables more accurate and efficient learning and image analysis by using global context information as well as local features used by a general convolutional neural network technique. do. From this point of view, the invention according to the present disclosure may be referred to as a'deep neural network through context analysis'.
도 3은 본 발명의 일 실시예에 따른, 영상의 맥락 정보를 생성하고 분석하는 과정을 나타내는 도면이다.3 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present invention.
도 3을 참조하면, 특징 추출부(21)는 입력 영상(301)을 이용하여 입력 영상(301)으로부터 특징을 추출하고, 추출된 특징 정보를 포함하는 특징 영상(302)을 생성할 수 있다. 상기 추출된 특징은 입력 영상의 국소 영역에 대한 특징일 수 있다. 상기 입력 영상(301)은 영상 분석 장치의 입력 영상 또는 합성곱 신경망 모델 내의 각 계층에서의 특징 맵을 포함할 수 있다. 또한 상기 특징 영상(302)은 입력 영상(301)에 대해 합성곱 신경망 기법 및/또는 풀링 기법을 적용하여 획득된 특징맵 및/또는 특징 벡터를 포함할 수 있다.Referring to FIG. 3, the
맥락 생성부(22)는 특징 추출부(21)에서 추출된 특징 영상(302)에 대해 합성곱 신경망 기법 및/또는 풀링 기법을 적용하여 맥락 정보를 생성할 수 있다. 예컨대, 맥락 생성부(22)는 풀링의 간격(stride)을 다양하게 조절함으로써 영상 전체, 4등분 영역, 9등분 영역 등의 다양한 크기(scale)의 맥락 정보를 생성할 수 있다. 도 3을 참조하면, 영상 전체 크기의 영상에 대한 맥락 정보를 포함하는 전체 맥락 정보 영상(311), 영상 전체를 4등분한 크기의 4등분 영상에 대한 맥락 정보를 포함하는 4등분 맥락 정보 영상(312) 및 영상 전체를 9등분한 크기의 9등분 영상에 대한 맥락 정보를 포함하는 9등분 맥락 정보 영상(313)이 획득될 수 있다.The
특징 및 맥락 분석부(23)는 상기 특징 영상(302)과 상기 맥락 정보 영상(311, 312, 313)을 모두 이용하여 분석 대상 영상의 특정 영역에 대한 분석을 보다 정확히 수행할 수 있다.The feature and
예컨대, 전립선 암과 유사한 형태를 갖는 양성종양이 포함된 영상이 입력 영상인 경우, 특징 추출부(21)가 추출한 국소적인 특징을 포함하는 특징 영상(302)으로부터는 상기 식별된 객체가 전립선 암인지 양성종양인지 정확히 판단할 수 없다. 즉, 특징 추출부(21)는 국소적인 특징에 기초하여 객체의 형상을 인식할 수 있으나, 해당 객체의 형상만 가지고는 정확히 객체를 식별하고 분류할 수 없는 경우가 있다.For example, when an image containing a benign tumor having a form similar to that of prostate cancer is an input image, from the
본 개시의 일 실시 예에 따른 맥락 생성부(22)는 상기 분석 대상 영상 또는 상기 특징 영상(302)에 기초하여 맥락 정보(311, 312, 313)를 생성함으로써, 보다 정확히 객체를 식별하고 분류할 수 있다. The
본 개시의 일 실시 예에 따른 특징 및 맥락 분석부(23)는 상기 맥락 정보를 활용함으로써, 상기 전립선 암 또는 양성종양의 형상을 갖는 객체를 "전립선 암"으로 식별할 수 있다.The feature and
도 3을 참조하여 설명한 실시 예에서는 전체 영상에 대한 맥락 정보, 4등분 영상에 대한 맥락 정보, 9등분 영상에 대한 맥락 정보를 생성하고 활용하는 것에 대해 설명하였으나, 맥락 정보를 추출하는 영상의 크기는 이에 한정되지 않는다. 예컨대, 전술한 크기의 영상 이외의 크기를 갖는 영상에 대한 맥락 정보를 생성하고 활용할 수도 있다.In the embodiment described with reference to FIG. 3, it has been described that context information for the entire image, context information for a quadrant image, and context information for a 9 segment image are generated and utilized, but the size of the image for extracting the context information is It is not limited to this. For example, context information for an image having a size other than the above-described image may be generated and utilized.
한편, 본 개시의 일 실시 예에 따른 합성곱 신경망 기법 및 풀링에 대해서는 도 4 및 도 5를 참조하여 후술한다.Meanwhile, a convolutional neural network technique and pooling according to an embodiment of the present disclosure will be described later with reference to FIGS. 4 and 5.
도 4는 다채널 특징맵을 생성하는 합성곱 신경망의 일 실시 예를 설명하기 위한 도면이다.4 is a diagram for describing an embodiment of a convolutional neural network generating a multi-channel feature map.
합성곱 신경망 기반의 영상 처리는 다양한 분야에 활용될 수 있다. 예컨대, 영상의 객체 인식(object recognition)을 위한 영상 처리 장치, 영상 복원(image reconstruction)을 위한 영상 처리 장치, 시맨틱 세그먼테이션(semantic segmentation)을 위한 영상 처리 장치, 장면 인식(scene recognition)을 위한 영상 처리 장치 등에 이용될 수 있다.Image processing based on convolutional neural networks can be used in various fields. For example, an image processing device for object recognition of an image, an image processing device for image reconstruction, an image processing device for semantic segmentation, and image processing for scene recognition It can be used for devices and the like.
입력 영상(410)은 합성곱 신경망(400)을 통해 처리됨으로써 특징맵 영상을 출력할 수 있다. 출력된 특징맵 영상은 전술한 다양한 분야에 활용될 수 있다.The
합성곱 신경망(400)은 복수의 계층들(420, 430, 440)을 통해 처리될 수 있으며, 각 계층은 다채널 특징맵 영상들(425, 435)을 출력할 수 있다. 일 실시예에 따른 복수의 계층들(420, 430, 440)은 입력받은 데이터의 좌측 상단으로부터 우측 하단까지 일정한 크기의 필터를 적용하여 영상의 특징을 추출할 수 있다. 예를 들어, 복수의 계층들(420, 430, 440)은 입력 데이터의 좌측 상단 NХM 픽셀에 가중치를 곱해서 특징맵의 좌측 상단의 한 뉴런에 매핑시킨다. 이 경우, 곱해지는 가중치도 N×M가 될 것이다. 상기 NХM은 예컨대, 3Х3일 수 있으나, 이에 한정되지 않는다. 이후, 동일한 과정으로, 복수의 계층들(420, 430, 440)은 입력 데이터를 좌측에서 우측으로, 그리고 상단에서 하단으로 k 칸씩 스캔하면서 가중치를 곱하여 특징맵의 뉴런에 매핑한다. 상기 k 칸은 합성곱 수행시 필터를 이동시킬 간격(stride)을 의미하며, 출력 데이터의 크기를 조절하기 위해 적절히 설정될 수 있다. 예컨대, k는 1일 수 있다. 상기 NХM 가중치는 필터 또는 필터 커널이라고 한다. 즉, 복수의 계층들(420, 430, 440)에서 필터를 적용하는 과정은 필터 커널과의 컨볼루션 연산을 수행하는 과정이며, 그 결과 추출된 결과물을 "특징맵(feature map)" 또는 "특징맵 영상"이라고 한다. 또한, 컨볼루션 연산이 수행된 계층을 합성곱 계층이라 할 수 있다.The convolutional neural network 400 may be processed through a plurality of
"다채널 특징맵(multiple-channel feature map)"의 용어는 복수의 채널에 대응하는 특징맵들의 세트를 의미하고, 예를 들어 복수의 영상 데이터일 수 있다. 다채널 특징맵들은 합성곱 신경망의 임의의 계층에서의 입력일 수 있고, 컨볼루션 연산 등의 특징맵 연산 결과에 따른 출력일 수 있다. 일 실시예에 따르면, 다채널 특징맵들(425, 435)은 합성곱 신경망의 "특징 추출 계층들" 또는 "컨볼루션 계층들"이라고도 불리는 복수의 계층들(420, 430, 440)에 의해 생성된다. 각각의 계층은 순차적으로 이전 계층에서 생성된 다채널 특징맵들을 수신하고, 출력으로서 그 다음의 다채널 특징맵들을 생성할 수 있다. 최종적으로 L(L은 정수)번째 계층(540)에서는 L-1번째 계층(미도시)에서 생성한 다채널 특징맵들을 수신하여 미도시의 다채널 특징맵들을 생성할 수 있다.The term “multiple-channel feature map” refers to a set of feature maps corresponding to a plurality of channels, and may be, for example, a plurality of image data. The multi-channel feature maps may be inputs from an arbitrary layer of the convolutional neural network, and may be outputs according to a result of feature map calculations such as convolution operations. According to an embodiment, the multi-channel feature maps 425, 435 are generated by a plurality of
도 4를 참조하면, 채널 K1개를 가지는 특징맵들(425)은 입력 영상(410)에 대해 계층 1에서의 특징맵 연산(420)에 따른 출력이고, 또한 계층 2에서의 특징맵 연산(430)을 위한 입력이 된다. 또한, 채널 K2개를 가지는 특징맵들(435)은 입력 특징맵들(425)에 대해 계층 2에서의 특징맵 연산(430)에 따른 출력이고, 또한 계층 3에서의 특징맵 연산(미도시)을 위한 입력이 된다.Referring to FIG. 4, feature maps 425 having K1 channels are output according to
도 4를 참조하면, 첫 번째 계층(420)에서 생성된 다채널 특징맵들(425)은 K1(K1은 정수)개의 채널에 대응하는 특징맵들을 포함한다. 또한, 두 번째 계층(430)에서 생성된 다채널 특징맵들(435)은 K2(K2은 정수)개의 채널에 대응하는 특징맵들을 포함한다. 여기서, 채널의 개수를 나타내는 K1 및 K2는, 첫 번째 계층(420) 및 두 번째 계층(430)에서 각각 사용된 필터 커널의 개수와 대응될 수 있다. 즉, M(M은 1 이상 L-1 이하의 정수)번째 계층에서 생성된 다채널 특징맵들의 개수는 M번째 계층에서 사용된 필터 커널의 개수와 동일할 수 있다.Referring to FIG. 4, multi-channel feature maps 425 generated in a
도 5는 풀링 기법의 일 실시 예를 설명하기 위한 도면이다.5 is a diagram for describing an embodiment of a pooling technique.
도 5에 도시된 바와 같이, 풀링의 윈도우 사이즈는 2Х2, 스트라이드는 2이며, 맥스 풀링을 입력 영상(510)에 적용하여 출력 영상(590)을 생성할 수 있다. As shown in FIG. 5, the window size of the pooling is 2Х2 and the stride is 2, and the
도 5의 (a)에서, 입력 영상(510)의 좌측 상단에 2Υ2 윈도우(510)를 적용하고, 윈도우(510) 영역 내의 값들 중 대표값(여기서는, 최대값 4)을 계산하여 출력 영상(590)의 대응 위치(520)에 입력한다.In (a) of FIG. 5, a
이후, 도 5의 (b)에서, 스트라이드 만큼, 즉, 2만큼 윈도우를 이동하고, 윈도우(530) 영역 내의 값들 중 최대값 3을 출력 영상(590)의 대응 위치(540)에 입력한다.Thereafter, in FIG. 5B, the window is moved by the stride, that is, by 2, and the
더 이상 우측으로 윈도우를 이동시킬 없는 경우, 다시 입력 영상의 좌측에서 스트라이드 만큼 아래의 위치부터 상기 과정을 반복한다. 즉, 도 5의 (c)에 도시된 바와 같이, 윈도우(550) 영역 내의 값들 중 최대값 5를 출력 영상(590)의 대응 위치(560)에 입력한다.When it is no longer possible to move the window to the right, the above process is repeated again from the position below the stride from the left side of the input image. That is, as shown in (c) of FIG. 5, the
이후, 도 5의 (d)에 도시된 바와 같이, 스트라이드 만큼 윈도우를 이동하고, 윈도우(570) 영역 내의 값들 중 최대값 2를 출력 영상(590)의 대응 위치(580)에 입력한다.Thereafter, as shown in (d) of FIG. 5, the window is moved by the stride, and the
상기 과정은 입력 영상(510)의 우측 하단 영역에 윈도우가 위치할 때까지 반복적으로 수행됨으로써, 입력 영상(510)에 풀링을 적용한 출력 영상(590)을 생성할 수 있다.The above process is repeatedly performed until a window is positioned in the lower right area of the
본 개시의 딥러닝 기반의 모델은 완전 합성곱 신경망(완전 컨볼루션 뉴럴 네트워크, fully convolutional neural network), 합성곱 신경망(컨볼루션 뉴럴 네트워크, convolutional neural network), 순환 신경망(회귀 뉴럴 네트워크, recurrent neural network), 제한 볼츠만 머신(restricted Boltzmann machine, RBM) 및 심층 신뢰 신경망(deep belief neural network, DBN) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. 또는, 딥러닝 이외의 머신 러닝 방법도 포함할 수 있다. 또는 딥러닝과 머신 러닝을 결합한 하이브리드 형태의 모델도 포함할 수 있다. 예컨대, 딥러닝 기반의 모델을 적용하여 영상의 특징을 추출하고, 상기 추출된 특징에 기초하여 영상을 분류하거나 인식할 때는 머신 러닝 기반의 모델을 적용할 수도 있다. 머신 러닝 기반의 모델은 서포트 벡터 머신(Support Vector Machine, SVM), 에이다부스트(AdaBoost) 등을 포함할 수 있으나, 이에 한정되지 않는다.The deep learning-based model of the present disclosure is a fully convolutional neural network (a fully convolutional neural network), a convolutional neural network (convolutional neural network), a recurrent neural network (recurrent neural network). ), a restricted Boltzmann machine (RBM), and a deep belief neural network (DBN), but is not limited thereto. Alternatively, machine learning methods other than deep learning may also be included. Alternatively, a hybrid model that combines deep learning and machine learning may be included. For example, a deep learning-based model may be applied to extract features of an image, and a machine learning-based model may be applied when classifying or recognizing an image based on the extracted features. The machine learning-based model may include, but is not limited to, a support vector machine (SVM), AdaBoost, and the like.
본 발명의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 발명에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.The exemplary methods of the present invention are expressed as a series of operations for clarity of explanation, but this is not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order if necessary. In order to implement the method according to the present invention, it is also possible to include other steps in addition to the illustrated steps, to include other steps excluding some steps, or to include additional other steps excluding some steps.
본 발명의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 발명의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present invention are not listed in all possible combinations, but are intended to describe representative aspects of the present invention, and matters described in the various embodiments may be applied independently or may be applied in combination of two or more.
또한, 본 발명의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, or the like.
본 발명의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present invention is software or machine-executable instructions (e.g., operating systems, applications, firmware, programs, etc.) that allow an operation according to the method of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium (non-transitory computer-readable medium) which stores instructions and the like and is executable on a device or a computer.
Claims (25)
인공지능 모델을 저장하는 인공지능 모델 저장소;
상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 인공지능 모델 인터페이스; 및
상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 데이터 공간을 포함하고,
상기 인공지능 모델 인터페이스는,
상기 인공지능 모델 저장소로부터 인공지능 공유 추천 모델을 추가적으로 수신하고,
상기 인공지능 공유 추천 모델은,
상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 시스템.
A user interface for receiving user information and an analysis request for the user information from a user;
An artificial intelligence model storage that stores an artificial intelligence model;
An artificial intelligence model interface for receiving at least one artificial intelligence model from the artificial intelligence model storage in response to the analysis request and performing analysis on the user information; And
And a data space for storing the user information and an analysis result of the user information,
The artificial intelligence model interface,
Further receiving an artificial intelligence sharing recommendation model from the artificial intelligence model repository,
The artificial intelligence sharing recommendation model,
A user information analysis system, characterized in that for generating a sharer recommendation list based on the analysis result of the user information.
상기 시스템은 공유자 인터페이스를 더 포함하고,
상기 사용자 인터페이스는 상기 생성된 공유자 추천 리스트에 기초하여 상기 사용자로부터 공유자를 선택하는 입력을 수신하고,
상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과를 상기 선택된 공유자에게 송신하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The system further includes a sharer interface,
The user interface receives an input for selecting a sharer from the user based on the generated sharer recommendation list,
The user information analysis system, wherein the sharer interface transmits the analysis result of the user information to the selected sharer.
상기 인공지능 모델 인터페이스는,
상기 인공지능 공유 추천 모델을 이용하여 상기 분석 결과에 기초하여 상기 사용자를 분류하고,
상기 공유자 추천 리스트는,
상기 분류 결과에 기초하여 생성되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The artificial intelligence model interface,
Classify the user based on the analysis result using the artificial intelligence sharing recommendation model,
The sharer recommendation list,
User information analysis system, characterized in that generated based on the classification result.
상기 인공지능 모델 저장소는,
상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트에 관한 입력을 수신하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The artificial intelligence model repository,
The user information analysis system, characterized in that receiving an input for storing the artificial intelligence model and deleting and updating the stored artificial intelligence model.
상기 공유자 추천 리스트는 복수의 공유자를 포함하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The user information analysis system, characterized in that the sharer recommendation list includes a plurality of sharers.
상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 6,
The user information analysis system, characterized in that the plurality of sharers included in the sharer recommendation list are included in order of recommendation in order of rapidity.
상기 인공지능 공유 추천 모델은,
상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The artificial intelligence sharing recommendation model,
And generating the sharer recommendation list based on the filtering information input by the user.
상기 사용자 정보에 대한 분석 결과는 상기 사용자 인터페이스를 통해 상기 사용자에게 제공되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
User information analysis system, characterized in that the analysis result of the user information is provided to the user through the user interface.
상기 공유자 인터페이스는,
상기 사용자 정보에 대한 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하고,
상기 피드백은 상기 데이터 공간에 저장되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 3,
The sharer interface,
Receiving feedback on the analysis result of the user information from the selected sharer,
The user information analysis system, characterized in that the feedback is stored in the data space.
상기 사용자 정보는 상기 사용자의 의료 정보를 포함하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The user information analysis system, characterized in that the user information includes medical information of the user.
상기 인공지능 모델 인터페이스는,
상기 수신한 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하고,
상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The artificial intelligence model interface,
Extracting feature points for the user information using the received at least one artificial intelligence model,
The user information analysis system, characterized in that the extracted feature points are shared among the at least one artificial intelligence model.
상기 방법은,
상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계;
상기 인공지능 모델 저장소에 저장된 적어도 하나 이상의 인공지능 모델을 이용하여 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계; 및
상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 상기 데이터 공간에 저장하는 단계를 포함하고,
상기 방법은,
상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 더 포함하고,
상기 인공지능 공유 추천 모델은,
상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 방법.
A user information analysis method performed by a user information analysis system including a user interface, an artificial intelligence model storage, an artificial intelligence model interface, and a data space,
The above method,
Receiving user information and a request for analysis of the user information from a user through the user interface;
Analyzing the user information requested for analysis through the artificial intelligence model interface by using at least one artificial intelligence model stored in the artificial intelligence model storage; And
Storing the user information and an analysis result of the user information in the data space,
The above method,
Further comprising the step of additionally using the artificial intelligence sharing recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface,
The artificial intelligence sharing recommendation model,
And generating a sharer recommendation list based on the analysis result of the user information.
상기 시스템은 공유자 인터페이스를 더 포함하고,
상기 방법은,
상기 생성된 공유자 추천 리스트로부터 적어도 하나의 공유자를 선택하는 입력을 상기 사용자로부터 상기 공유자 인터페이스를 통해 수신하는 단계; 및
상기 사용자 정보에 대한 분석 결과를 상기 공유자 인터페이스를 통해 상기 선택된 공유자에게 송신하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The system further includes a sharer interface,
The above method,
Receiving an input for selecting at least one sharer from the generated sharer recommendation list from the user through the sharer interface; And
And transmitting the analysis result of the user information to the selected sharer through the sharer interface.
상기 방법은,
상기 인공지능 모델 인터페이스를 통해 상기 인공지능 공유 추천 모델을 이용함으로써 상기 분석 결과에 기초하여 상기 사용자를 분류하는 단계를 더 포함하고,
상기 공유자 추천 리스트는,
상기 분류 결과에 기초하여 생성되는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The above method,
Classifying the user based on the analysis result by using the artificial intelligence sharing recommendation model through the artificial intelligence model interface,
The sharer recommendation list,
User information analysis method, characterized in that generated based on the classification result.
상기 방법은,
상기 인공지능 모델 저장소를 통해 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트 중 적어도 하나에 관한 입력을 수신하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The above method,
And receiving an input regarding at least one of storage of the artificial intelligence model, deletion and update of the stored artificial intelligence model through the artificial intelligence model storage.
상기 공유자 추천 리스트는 복수의 공유자를 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The user information analysis method, characterized in that the sharer recommendation list includes a plurality of sharers.
상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함되는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 18,
The user information analysis method, characterized in that the plurality of sharers included in the sharer recommendation list are included in order of recommendation in order of rapidity.
상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The artificial intelligence sharing recommendation model generates the sharer recommendation list based on filtering information input from the user.
상기 방법은,
상기 사용자 인터페이스를 통해 상기 사용자 정보에 대한 분석 결과를 상기 사용자에게 제공하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The above method,
And providing an analysis result of the user information to the user through the user interface.
상기 방법은,
상기 공유자 인터페이스를 통해 상기 사용자 정보의 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하는 단계; 및
상기 데이터 공간에 상기 피드백을 저장하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 15,
The above method,
Receiving a feedback on the analysis result of the user information from the selected sharer through the sharer interface; And
And storing the feedback in the data space.
상기 사용자 정보는 상기 사용자의 의료 정보를 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The user information analysis method, characterized in that the user information includes the user's medical information.
상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계는,
상기 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하는 단계를 포함하고,
상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유되는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The step of performing analysis on the user information requested for analysis,
Including the step of extracting feature points for the user information using the at least one artificial intelligence model,
The user information analysis method, characterized in that the extracted feature points are shared among the at least one artificial intelligence model.
상기 사용자 정보 분석 방법은,
사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계;
인공지능 모델 인터페이스를 통해 상기 분석 요청에 대응하여 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 단계; 및
데이터 공간을 통해 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 단계를 포함하고,
상기 방법은,
상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 더 포함하고,
상기 인공지능 공유 추천 모델은,
상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium recording a program for performing a user information analysis method performed by a user information analysis system,
The user information analysis method,
Receiving user information and a request for analysis of the user information from a user through a user interface;
Performing an analysis on the user information by receiving at least one artificial intelligence model from an artificial intelligence model storage in response to the analysis request through an artificial intelligence model interface; And
Storing the user information and an analysis result of the user information through a data space,
The above method,
Further comprising the step of additionally using the artificial intelligence sharing recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface,
The artificial intelligence sharing recommendation model,
A computer-readable recording medium recording a program, characterized in that generating a list of recommending sharers based on the analysis result of the user information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190179064A KR102160390B1 (en) | 2019-12-31 | 2019-12-31 | Method and system for artificial intelligence based user medical information analysis |
PCT/KR2020/017506 WO2021137454A1 (en) | 2019-12-31 | 2020-12-03 | Artificial intelligence-based method and system for analyzing user medical information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190179064A KR102160390B1 (en) | 2019-12-31 | 2019-12-31 | Method and system for artificial intelligence based user medical information analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102160390B1 true KR102160390B1 (en) | 2020-09-29 |
Family
ID=72661095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190179064A KR102160390B1 (en) | 2019-12-31 | 2019-12-31 | Method and system for artificial intelligence based user medical information analysis |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102160390B1 (en) |
WO (1) | WO2021137454A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021137454A1 (en) * | 2019-12-31 | 2021-07-08 | (주)제이엘케이 | Artificial intelligence-based method and system for analyzing user medical information |
WO2022270768A1 (en) * | 2021-06-23 | 2022-12-29 | 주식회사 셀타스퀘어 | Method and apparatus for providing intelligent pharmacovigilance platform |
KR20230100439A (en) * | 2021-12-28 | 2023-07-05 | 동의과학대학교산학협력단 | Diffuser for early screening for dementia |
WO2023128418A1 (en) * | 2021-12-29 | 2023-07-06 | 주식회사 커넥트시스템 | System and method for integrally managing and distributing artificial intelligence models |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180110310A (en) * | 2017-03-28 | 2018-10-10 | 한국전자통신연구원 | System and method for predicting and analysis stroke |
JP2019504402A (en) * | 2015-12-18 | 2019-02-14 | コグノア, インコーポレイテッド | Platforms and systems for digital personalized medicine |
KR102056847B1 (en) * | 2018-10-16 | 2019-12-17 | 김태희 | Remote cervical cancer screening system based on automatic cervix reading and clinical decision support system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101462341B1 (en) * | 2013-04-23 | 2014-11-21 | 한국 한의학 연구원 | Apparatus and method for providing diagnosis information of cold-heat using anthropometric measures |
KR20160099804A (en) * | 2015-02-13 | 2016-08-23 | 주식회사 티플러스 | Shared method and apparatus of providing remote reading services |
KR101822404B1 (en) * | 2015-11-30 | 2018-01-26 | 임욱빈 | diagnostics system for cell using Deep Neural Network learning |
KR102160390B1 (en) * | 2019-12-31 | 2020-09-29 | (주)제이엘케이 | Method and system for artificial intelligence based user medical information analysis |
-
2019
- 2019-12-31 KR KR1020190179064A patent/KR102160390B1/en active IP Right Grant
-
2020
- 2020-12-03 WO PCT/KR2020/017506 patent/WO2021137454A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019504402A (en) * | 2015-12-18 | 2019-02-14 | コグノア, インコーポレイテッド | Platforms and systems for digital personalized medicine |
KR20180110310A (en) * | 2017-03-28 | 2018-10-10 | 한국전자통신연구원 | System and method for predicting and analysis stroke |
KR102056847B1 (en) * | 2018-10-16 | 2019-12-17 | 김태희 | Remote cervical cancer screening system based on automatic cervix reading and clinical decision support system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021137454A1 (en) * | 2019-12-31 | 2021-07-08 | (주)제이엘케이 | Artificial intelligence-based method and system for analyzing user medical information |
WO2022270768A1 (en) * | 2021-06-23 | 2022-12-29 | 주식회사 셀타스퀘어 | Method and apparatus for providing intelligent pharmacovigilance platform |
KR20230100439A (en) * | 2021-12-28 | 2023-07-05 | 동의과학대학교산학협력단 | Diffuser for early screening for dementia |
KR102589834B1 (en) * | 2021-12-28 | 2023-10-16 | 동의과학대학교 산학협력단 | Diffuser for early screening for dementia |
WO2023128418A1 (en) * | 2021-12-29 | 2023-07-06 | 주식회사 커넥트시스템 | System and method for integrally managing and distributing artificial intelligence models |
Also Published As
Publication number | Publication date |
---|---|
WO2021137454A1 (en) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102160390B1 (en) | Method and system for artificial intelligence based user medical information analysis | |
US10482603B1 (en) | Medical image segmentation using an integrated edge guidance module and object segmentation network | |
Kesav et al. | Efficient and low complex architecture for detection and classification of Brain Tumor using RCNN with Two Channel CNN | |
Jiang et al. | Medical image semantic segmentation based on deep learning | |
US10496884B1 (en) | Transformation of textbook information | |
JP6623265B2 (en) | Detection of nodules with reduced false positives | |
US10853449B1 (en) | Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis | |
US20190065897A1 (en) | Medical image analysis method, medical image analysis system and storage medium | |
Fidon et al. | Generalized wasserstein dice score, distributionally robust deep learning, and ranger for brain tumor segmentation: BraTS 2020 challenge | |
US20180130203A1 (en) | Automated skin lesion segmentation using deep side layers | |
US10692602B1 (en) | Structuring free text medical reports with forced taxonomies | |
KR20210048523A (en) | Image processing method, apparatus, electronic device and computer-readable storage medium | |
CN113728335A (en) | Method and system for classification and visualization of 3D images | |
Mukhlif et al. | An extensive review of state-of-the-art transfer learning techniques used in medical imaging: Open issues and challenges | |
CN111226258A (en) | Signal conversion system and signal conversion method | |
US11705245B2 (en) | System and methods for mammalian transfer learning | |
CN113256592B (en) | Training method, system and device of image feature extraction model | |
US20240054638A1 (en) | Automatic annotation of condition features in medical images | |
Gao et al. | Joint disc and cup segmentation based on recurrent fully convolutional network | |
AU2021408159A9 (en) | Automatic annotation of condition features in medical images | |
Ogiela et al. | Natural user interfaces in medical image analysis | |
Costa et al. | Adversarial synthesis of retinal images from vessel trees | |
Koziński et al. | Learning to segment 3D linear structures using only 2D annotations | |
Khan et al. | A novel fusion of genetic grey wolf optimization and kernel extreme learning machines for precise diabetic eye disease classification | |
Patil et al. | A Review on Disease Prediction using Image Processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |