KR102160390B1 - Method and system for artificial intelligence based user medical information analysis - Google Patents

Method and system for artificial intelligence based user medical information analysis Download PDF

Info

Publication number
KR102160390B1
KR102160390B1 KR1020190179064A KR20190179064A KR102160390B1 KR 102160390 B1 KR102160390 B1 KR 102160390B1 KR 1020190179064 A KR1020190179064 A KR 1020190179064A KR 20190179064 A KR20190179064 A KR 20190179064A KR 102160390 B1 KR102160390 B1 KR 102160390B1
Authority
KR
South Korea
Prior art keywords
artificial intelligence
user information
user
analysis
sharer
Prior art date
Application number
KR1020190179064A
Other languages
Korean (ko)
Inventor
김원태
강신욱
이명재
김동민
Original Assignee
(주)제이엘케이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제이엘케이 filed Critical (주)제이엘케이
Priority to KR1020190179064A priority Critical patent/KR102160390B1/en
Application granted granted Critical
Publication of KR102160390B1 publication Critical patent/KR102160390B1/en
Priority to PCT/KR2020/017506 priority patent/WO2021137454A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Disclosed are an artificial intelligence-based user medical information analysis method and a system thereof. A user information analysis system according to an embodiment of the present invention comprises: a user interface for receiving, from a user, user information and a request for analysis of the user information; an artificial intelligence model storage for storing an artificial intelligence model; an artificial intelligence model interface which receives at least one artificial intelligence model from the artificial intelligence model storage in response to the analysis request and performs the analysis on the user information; and a data space for storing the user information and an analysis result of the user information. According to the present invention, the analysis result of the user medical information is provided to a sharer based on artificial intelligence.

Description

인공지능 기반의 사용자 의료정보 분석 방법 및 시스템 {METHOD AND SYSTEM FOR ARTIFICIAL INTELLIGENCE BASED USER MEDICAL INFORMATION ANALYSIS}Artificial intelligence-based user medical information analysis method and system {METHOD AND SYSTEM FOR ARTIFICIAL INTELLIGENCE BASED USER MEDICAL INFORMATION ANALYSIS}

본 발명은 인공지능 기반의 사용자 의료정보 분석 방법 및 장치에 대한 것이다. 보다 구체적으로, 본 발명은 인공지능을 기반으로 한 사용자 의료 정보의 분석 결과 등을 사용자에게 제공하고, 사용자가 선택한 공유자가 해당 분석 결과를 확인할 수 있는 방법 및 장치에 대한 것이다.The present invention relates to a method and apparatus for analyzing user medical information based on artificial intelligence. More specifically, the present invention relates to a method and apparatus for providing a user with an analysis result of user medical information based on artificial intelligence, and allowing a sharer selected by the user to check the analysis result.

AI(Artificial Intelligence)는 인간의 지능으로 가능한 사고, 학습 및 분석 등을 컴퓨터 등의 기계가 수행하는 것을 의미한다. 최근 이러한 AI를 의료 산업에 접목하는 기술이 증가하고 있는 실정이다.AI (Artificial Intelligence) means that machines such as computers perform thinking, learning, and analysis that are possible with human intelligence. Recently, there is an increasing number of technologies that apply AI to the medical industry.

인공 신경망(Artificial Neural Network, ANN)은 기계 학습(machine learning)을 구현하는 기법들 중 하나이다.Artificial Neural Network (ANN) is one of the techniques for implementing machine learning.

일반적으로 인공 신경망은 입력 계층(input layer), 은닉 계층(hidden layer) 및 출력 계층(output layer)으로 이루어져 있다. 각 계층들은 뉴런(neuron)들로 구성되어 있으며, 각 계층의 뉴런들은 이전 계층의 뉴런들의 출력과 연결되어 있다. 이전 계층의 뉴런들의 각 출력 값과 그에 상응하는 연결 가중치(weight)를 내적(inner product)한 값에 바이어스(bias)를 더한 값을 일반적으로 비선형(non-linear)인 활성화 함수(activation function)에 넣고 그 출력 값을 다음 단계 계층의 뉴런들에게 전달한다. In general, an artificial neural network consists of an input layer, a hidden layer, and an output layer. Each layer is composed of neurons, and the neurons of each layer are connected to the outputs of the neurons of the previous layer. The value obtained by adding the bias to the inner product of each output value of the neurons of the previous layer and the corresponding connection weight is added to an activation function, which is generally non-linear. And pass the output to neurons in the next layer.

합성곱 신경망(Convolutional Neural Network, CNN)은 영상 인식 분야에서 기존의 기계 학습 기법들의 성능을 압도하며 크게 주목받고 있다. 합성곱 신경망의 구조는 일반적인 인공 신경망의 구조와 거의 동일한데, 추가적인 구성요소로는 합성곱 계층(convolutional layer)와 통합 계층(pooling layer)이 있다.Convolutional Neural Networks (CNNs) are attracting great attention as they dominate the performance of existing machine learning techniques in the field of image recognition. The structure of a convolutional neural network is almost the same as that of a general artificial neural network. Additional components include a convolutional layer and a pooling layer.

한편, 현대 의학에서 의료 영상은 효과적인 질병의 진단 및 환자의 치료를 위해 매우 중요한 도구이다. 또한 영상 기술의 발달은 더욱 정교한 의료 영상 데이터 획득을 가능하게 하고 있다. 이러한 정교함의 대가로 데이터의 양이 점차 방대해지고 있어 의료 영상 데이터를 인간의 시각에 의존하여 분석하는 데 많은 어려움이 따르고 있다.Meanwhile, in modern medicine, medical imaging is a very important tool for effective disease diagnosis and patient treatment. In addition, the development of imaging technology enables more sophisticated medical image data acquisition. In exchange for such sophistication, the amount of data is gradually becoming vast, and it is difficult to analyze medical image data depending on human vision.

본 발명의 배경이 되는 기술은 대한민국 공개특허공보 제10-2018-0108501(2018.10.04 공개)에 개시되어 있다.The technology behind the present invention is disclosed in Korean Patent Application Publication No. 10-2018-0108501 (published on October 4, 2018).

본 발명의 기술적 과제는 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템을 제공하는 것이다. An object of the present invention is to provide a method and system for analyzing user medical information based on artificial intelligence.

본 발명의 다른 기술적 과제는 인공지능을 기반으로 사용자 의료정보 분석 결과를 공유자에 제공하는 방법 및 시스템을 제공하는 것이다.Another technical problem of the present invention is to provide a method and system for providing a user medical information analysis result to a sharer based on artificial intelligence.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the following description. I will be able to.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템은, 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 사용자 인터페이스, 인공지능 모델을 저장하는 인공지능 모델 저장소, 상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 인공지능 모델 인터페이스 및 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 데이터 공간을 포함할 수 있다.The user information analysis system according to an embodiment of the present invention includes a user interface for receiving user information and an analysis request for the user information from a user, an artificial intelligence model storage storing an artificial intelligence model, and the analysis request It may include an artificial intelligence model interface for receiving at least one artificial intelligence model from the artificial intelligence model storage and performing analysis on the user information, and a data space for storing the user information and the analysis result of the user information.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 인터페이스는 상기 인공지능 모델 저장소로부터 인공지능 공유 추천 모델을 추가적으로 수신하고, 상기 인공지능 공유 추천 모델은 상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성할 수 있다. In the user information analysis system according to an embodiment of the present invention, the artificial intelligence model interface additionally receives an artificial intelligence sharing recommendation model from the artificial intelligence model storage, and the artificial intelligence sharing recommendation model analyzes the user information. Based on the result, a sharer recommendation list may be generated.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 시스템은 공유자 인터페이스를 더 포함하고, 상기 사용자 인터페이스는 상기 생성된 공유자 추천 리스트에 기초하여 상기 사용자로부터 공유자를 선택하는 입력을 수신하고, 상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과를 상기 선택된 공유자에게 송신할 수 있다. In the user information analysis system according to an embodiment of the present invention, the system further includes a sharer interface, and the user interface receives an input for selecting a sharer from the user based on the generated sharer recommendation list, The sharer interface may transmit an analysis result of the user information to the selected sharer.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 인터페이스는 상기 인공지능 공유 추천 모델을 이용하여 상기 분석 결과에 기초하여 상기 사용자를 분류하고, 상기 공유자 추천 리스트는 상기 분류 결과에 기초하여 생성될 수 있다.In the user information analysis system according to an embodiment of the present invention, the artificial intelligence model interface classifies the user based on the analysis result using the artificial intelligence sharing recommendation model, and the sharer recommendation list is the classification result Can be generated based on

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 모델 저장소는 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트에 관한 입력을 수신할 수 있다. In the user information analysis system according to an embodiment of the present invention, the artificial intelligence model storage may receive an input regarding storage of the artificial intelligence model, deletion and update of the stored artificial intelligence model.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 추천 리스트는 복수의 공유자를 포함할 수 있다. In the user information analysis system according to an embodiment of the present invention, the sharer recommendation list may include a plurality of sharers.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. In the user information analysis system according to an embodiment of the present invention, the plurality of sharers included in the sharer recommendation list may be included in the order of recommendation in order of rapidity.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성할 수 있다. In the user information analysis system according to an embodiment of the present invention, the artificial intelligence sharing recommendation model may generate the sharer recommendation list based on filtering information input from the user.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 사용자 정보에 대한 분석 결과는 상기 사용자 인터페이스를 통해 상기 사용자에게 제공될 수 있다. In the user information analysis system according to an embodiment of the present invention, the analysis result of the user information may be provided to the user through the user interface.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하고 상기 피드백은 상기 데이터 공간에 저장될 수 있다. In the user information analysis system according to an embodiment of the present invention, the sharer interface may receive a feedback on the analysis result of the user information from the selected sharer, and the feedback may be stored in the data space.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템에 있어서, 상기 사용자 정보는 상기 사용자의 의료 정보를 포함할 수 있다. In the user information analysis system according to an embodiment of the present invention, the user information may include medical information of the user.

본 발명의 일 실시예에 따른 사용자 정보 분석 시스템이 있어서, 상기 인공지능 모델 인터페이스는, 상기 수신한 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하고, 상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유될 수 있다.In the user information analysis system according to an embodiment of the present invention, the artificial intelligence model interface extracts a feature point for the user information using the received at least one artificial intelligence model, and the extracted feature point is the It can be shared among at least one or more artificial intelligence models.

본 발명의 다른 양상에 따른 사용자 인터페이스, 인공지능 모델 저장소, 인공지능 모델 인터페이스 및 데이터 공간을 포함하는 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법은, 상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계, 상기 인공지능 모델 저장소에 저장된 적어도 하나 이상의 인공지능 모델을 이용하여 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계 및 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 상기 데이터 공간에 저장하는 단계를 포함할 수 있다.According to another aspect of the present invention, a user information analysis method performed by a user information analysis system including a user interface, an artificial intelligence model storage, an artificial intelligence model interface, and a data space includes user information and the user information from the user through the user interface. Receiving an analysis request for user information, performing analysis on the user information requested for analysis through the artificial intelligence model interface using at least one artificial intelligence model stored in the artificial intelligence model storage, and the user And storing information and an analysis result of the user information in the data space.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 더 포함하고, 상기 인공지능 공유 추천 모델은 상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성할 수 있다.In the user information analysis method according to an embodiment of the present invention, the method further comprises the step of additionally using an artificial intelligence sharing recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface, and the artificial intelligence sharing The recommendation model may generate a sharer recommendation list based on the analysis result of the user information.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 시스템은 공유자 인터페이스를 더 포함하고, 상기 방법은 상기 생성된 공유자 추천 리스트로부터 적어도 하나의 공유자를 선택하는 입력을 상기 사용자로부터 상기 공유자 인터페이스를 통해 수신하는 단계 및 상기 사용자 정보에 대한 분석 결과를 상기 공유자 인터페이스를 통해 상기 선택된 공유자에게 송신하는 단계를 더 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the system further includes a sharer interface, and the method receives an input for selecting at least one sharer from the generated sharer recommendation list from the user to the sharer interface. The method may further include receiving through the user information and transmitting the analysis result of the user information to the selected sharer through the sharer interface.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 인터페이스를 통해 상기 인공지능 공유 추천 모델을 이용함으로써 상기 분석 결과에 기초하여 상기 사용자를 분류하는 단계를 더 포함하고, 상기 공유자 추천 리스트는 상기 분류 결과에 기초하여 생성될 수 있다.In the user information analysis method according to an embodiment of the present invention, the method further comprises the step of classifying the user based on the analysis result by using the artificial intelligence sharing recommendation model through the artificial intelligence model interface, , The sharer recommendation list may be generated based on the classification result.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 인공지능 모델 저장소를 통해 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트 중 적어도 하나에 관한 입력을 수신할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the method may receive an input regarding at least one of storage of the artificial intelligence model, deletion of the stored artificial intelligence model, and updating through the artificial intelligence model storage. I can.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 공유자 추천 리스트는 복수의 공유자를 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the sharer recommendation list may include a plurality of sharers.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. In the method for analyzing user information according to an embodiment of the present invention, the plurality of sharers included in the sharer recommendation list may be included in the order of recommendation in order of rapidity.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the artificial intelligence sharing recommendation model may generate the sharer recommendation list based on filtering information input from the user.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 사용자 인터페이스를 통해 상기 사용자 정보에 대한 분석 결과를 상기 사용자에게 제공하는 단계를 더 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the method may further include providing an analysis result of the user information to the user through the user interface.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 방법은 상기 공유자 인터페이스를 통해 상기 사용자 정보의 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하는 단계 및 상기 데이터 공간에 상기 피드백을 저장하는 단계를 더 포함할 수 있다.In the user information analysis method according to an embodiment of the present invention, the method includes receiving a feedback on a result of analysis of the user information from the selected sharer through the sharer interface, and storing the feedback in the data space. It may further include a step.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 사용자 정보는 상기 사용자의 의료 정보를 포함할 수 있다.In the method for analyzing user information according to an embodiment of the present invention, the user information may include medical information of the user.

본 발명의 일 실시예에 따른 사용자 정보 분석 방법에 있어서, 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계는, 상기 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하는 단계를 포함하고, 상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유될 수 있다.In the user information analysis method according to an embodiment of the present invention, the performing of analysis on the user information requested for analysis comprises: extracting feature points for the user information using the at least one artificial intelligence model Including, the extracted feature points may be shared between the at least one or more artificial intelligence models.

본 발명의 또 다른 양상에 따른 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법을 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 있어서, 상기 사용자 정보 분석 방법은 상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계, 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 단계 및 상기 데이터 공간을 통해 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 단계를 포함할 수 있다.In a computer-readable recording medium recording a program for performing a user information analysis method performed by a user information analysis system according to another aspect of the present invention, the user information analysis method includes user information from a user through the user interface. And receiving an analysis request for the user information, receiving at least one artificial intelligence model from the artificial intelligence model storage in response to the analysis request through the artificial intelligence model interface, and performing analysis on the user information. And storing the user information and an analysis result of the user information through the data space.

본 발명에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the present invention are merely exemplary aspects of the detailed description of the present invention to be described later, and do not limit the scope of the present invention.

본 발명에 따르면, 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템이 제공될 수 있다. According to the present invention, a method and system for analyzing user medical information based on artificial intelligence can be provided.

또한, 본 발명에 따르면, 인공지능을 기반으로 사용자 의료정보 분석 결과를 공유자에 제공하는 방법 및 시스템이 제공될 수 있다.In addition, according to the present invention, a method and system for providing a user medical information analysis result to a sharer based on artificial intelligence can be provided.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those of ordinary skill in the art from the following description. will be.

도 1은 본 발명의 일 실시예에 따른, 인공지능 기반의 사용자 의료정보 분석 시스템의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른, 사용자 의료정보 분석을 위한 딥러닝 모델 학습 장치의 구성을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른, 영상의 맥락 정보를 생성하고 분석하는 과정을 나타내는 도면이다.
도 4는 다채널 특징맵을 생성하는 합성곱 신경망의 일 실시 예를 설명하기 위한 도면이다.
도 5는 풀링 기법의 일 실시 예를 설명하기 위한 도면이다.
1 is a diagram showing the configuration of an artificial intelligence-based user medical information analysis system according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of an apparatus for learning a deep learning model for analyzing user medical information according to an embodiment of the present invention.
3 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present invention.
4 is a diagram for describing an embodiment of a convolutional neural network generating a multi-channel feature map.
5 is a diagram for describing an embodiment of a pooling technique.

이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms, and is not limited to the embodiments described herein.

본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing an embodiment of the present invention, if it is determined that a detailed description of a known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In the drawings, parts not related to the description of the present invention are omitted, and similar reference numerals are attached to similar parts.

본 발명에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present invention, when a component is "connected", "coupled" or "connected" with another component, this is not only a direct connection relationship, but an indirect connection relationship in which another component exists in the middle. It can also include. In addition, when a certain component "includes" or "have" another component, it means that other components may be further included rather than excluding other components unless otherwise stated. .

본 발명에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 발명의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present invention, terms such as first and second are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of the components unless otherwise noted. Accordingly, within the scope of the present invention, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is a first component in another embodiment. It can also be called.

본 발명에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 발명의 범위에 포함된다. In the present invention, components that are distinguished from each other are intended to clearly describe each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not stated otherwise, such integrated or distributed embodiments are also included in the scope of the present invention.

본 발명에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들을 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 발명의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 발명의 범위에 포함된다. In the present invention, the components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment comprising a subset of components described in the embodiment is also included in the scope of the present invention. In addition, embodiments including other components in addition to the components described in the various embodiments are included in the scope of the present invention.

본 발명의 명세서에 기재된 "??부", "??모듈", "??수단" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Terms such as "?? unit", "?? module", "?? means" described in the specification of the present invention mean a unit that processes at least one function or operation, which is hardware or software or hardware and software. It can be implemented in combination.

이하, 첨부한 도면을 참조하여 본 발명의 실시 예들에 대해서 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른, 인공지능 기반의 사용자 의료정보 분석 시스템의 구성을 나타내는 도면이다.1 is a diagram showing the configuration of an artificial intelligence-based user medical information analysis system according to an embodiment of the present invention.

도 1을 참고하면, 본 발명의 일 실시예에 따른 인공지능 기반의 사용자 의료정보 분석 시스템(100)은, 사용자 인터페이스(110), 데이터 공간(111), 인공지능 모델 인터페이스(112), 인공지능 모델 저장소(113), 공유자 인터페이스(115) 및 가시화 모듈(116)을 포함할 수 있다. 그러나, 이는 예시적인 구성일 뿐, 도 1에 도시되지 않은 구성 요소가 추가되거나 도 1에 도시된 구성 요소 중 일부가 삭제될 수 있다. Referring to FIG. 1, an artificial intelligence-based user medical information analysis system 100 according to an embodiment of the present invention includes a user interface 110, a data space 111, an artificial intelligence model interface 112, and an artificial intelligence. It may include a model repository 113, a sharer interface 115 and a visualization module 116. However, this is only an exemplary configuration, and components not shown in FIG. 1 may be added or some of the components shown in FIG. 1 may be deleted.

사용자(101)는 사용자 인터페이스(110)를 통해 사용자 의료정보 분석 시스템(100)과 정보를 송신 및/또는 수신할 수 있다. 사용자(101)는 사용자 디바이스를 의미할 수 있다. 예컨대, 사용자 디바이스는 메모리, 프로세서, 디스플레이 및/또는 통신 모듈을 포함하는 컴퓨팅 장치일 수 있다.The user 101 may transmit and/or receive information with the user medical information analysis system 100 through the user interface 110. The user 101 may refer to a user device. For example, the user device may be a computing device including a memory, a processor, a display, and/or a communication module.

예를 들어, 사용자(101)는 사용자 인터페이스(110)를 통해 사용자 정보를 데이터 공간(111)에 저장할 수 있다. 또한, 사용자(101)는 사용자 인터페이스(110)를 통해 저장한 사용자 정보를 열람할 수 있다. 데이터 공간(111)에 저장된 사용자 정보의 열람을 위해 후술하는 가시화 모듈(116)이 이용될 수 있다. 또한, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보를 수정하거나 삭제할 수 있다. 이때, 사용자 정보는, 사용자(101)의 개인 정보(예를 들어, 나이, 성별, 직업, 주소, 현재 위치 등), 의료 정보(예를 들어, 진단 이력 및 치료 이력, 의료 영상 등)일 수 있다. 그러나, 반드시 이에 한정되는 것은 아니며, 상기 사용자 정보는 본 발명에 따른 의료 정보 분석 방법의 수행에 필요한 다양한 정보를 포함할 수 있다. For example, the user 101 may store user information in the data space 111 through the user interface 110. In addition, the user 101 may view stored user information through the user interface 110. The visualization module 116 described later may be used to view user information stored in the data space 111. In addition, the user 101 may modify or delete user information stored in the data space 111. At this time, the user information may be personal information of the user 101 (eg, age, gender, occupation, address, current location, etc.), medical information (eg, diagnosis history and treatment history, medical images, etc.) have. However, the present invention is not limited thereto, and the user information may include various pieces of information necessary for performing the medical information analysis method according to the present invention.

또한, 사용자(101)는 사용자 인터페이스(110)를 통해 사용자 의료정보 분석 시스템(100)으로 하여금 사용자 정보의 분석을 수행하도록 요청할 수 있다.In addition, the user 101 may request the user medical information analysis system 100 to analyze user information through the user interface 110.

또한, 사용자(101)는 사용자 인터페이스(110)를 통해 가시화 모듈(116)을 선택하여 입력한 사용자 정보에 대한 인공지능 분석 결과를 확인할 수 있다. In addition, the user 101 may select the visualization module 116 through the user interface 110 and check the result of artificial intelligence analysis of the input user information.

예컨대, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보 및/또는 사용자 정보의 분석 결과를 선택할 수 있다. 선택된 사용자 정보 및/또는 사용자 정보의 분석 결과는 가시화 모듈(116)로 전송될 수 있다. 가시화 모듈(116)은 전송된 사용자 정보 및/또는 사용자 정보의 분석 결과를 사용자가 열람할 수 있는 형태로 가공할 수 있다. 가시화 모듈은 열람 가능한 형태로 가공된 사용자 정보 및/또는 사용자 정보의 분석 결과를 사용자 인터페이스(110)를 통해 사용자(101)에게 전송할 수 있다. 사용자(101)는 예컨대, 사용자 디바이스에 구비된 디스플레이 등을 통해 전송된 사용자 정보 및/또는 사용자 정보의 분석 결과를 열람할 수 있다.For example, the user 101 may select user information stored in the data space 111 and/or an analysis result of the user information. The selected user information and/or the analysis result of the user information may be transmitted to the visualization module 116. The visualization module 116 may process the transmitted user information and/or the analysis result of the user information into a form that can be viewed by a user. The visualization module may transmit user information processed in a form that can be viewed and/or an analysis result of the user information to the user 101 through the user interface 110. The user 101 may view, for example, user information transmitted through a display provided in the user device and/or an analysis result of the user information.

다른 예로서, 가시화 모듈(116)은 사용자(101) 측에 구비될 수 있다. 예컨대, 사용자 디바이스는 가시화 모듈(116)을 포함할 수 있다. 예를 들어, 사용자(101)는 데이터 공간(111)에 저장된 사용자 정보 및/또는 사용자 정보의 분석 결과를 선택할 수 있다. 선택된 사용자 정보 및/또는 사용자 정보의 분석 결과는 사용자 디바이스 내에 위치한 가시화 모듈(116)을 통해 사용자가 열람 가능한 형태로 가공될 수 있다.As another example, the visualization module 116 may be provided on the user 101 side. For example, the user device may include a visualization module 116. For example, the user 101 may select user information stored in the data space 111 and/or an analysis result of the user information. The selected user information and/or the analysis result of the user information may be processed into a form that a user can read through the visualization module 116 located in the user device.

다른 예로서, 사용자 정보의 분석 결과는 가시화 모듈(116)에서 뿐만 아니라 레포트 형태나 파일 형태로 사용자(101)에게 제공될 수 있다. 예를 들어, 사용자는 사용자 정보의 분석 결과를 PDF, JPG, GIF 등의 문서 형태로 다운로드 받을 수 있다. 그러나, 반드시 이에 제한되는 것은 아니며, 사용자 정보의 분석 결과는 다양한 형태를 통하여 사용자에게 제공될 수 있다.As another example, the analysis result of user information may be provided to the user 101 in the form of a report or a file as well as in the visualization module 116. For example, the user can download the analysis result of user information in a document format such as PDF, JPG, or GIF. However, it is not necessarily limited thereto, and the analysis result of the user information may be provided to the user through various forms.

인공지능 모델 저장소(113)는 다수의 인공지능 모델을 개별적으로 저장할 수 있다. 사용자(101)로부터 사용자 정보의 분석 요청이 있는 경우, 인공지능 모델 저장소(113)에서는 해당 사용자 정보 분석에 적합한 인공지능 모델이 선택되어 인공지능 모델 인터페이스(112)로 전송될 수 있다. 이때, 전송되는 인공지능 모델은 단일 또는 복수 개일 수 있다. The artificial intelligence model storage 113 may individually store a plurality of artificial intelligence models. When there is a request for analysis of user information from the user 101, an artificial intelligence model suitable for analysis of the user information may be selected from the artificial intelligence model storage 113 and transmitted to the artificial intelligence model interface 112. In this case, there may be a single or a plurality of transmitted artificial intelligence models.

또한, 개발자(104)는 인공지능 모델 저장소(113)에 저장된 인공지능 모델을 수정 및/또는 삭제하거나, 새로운 인공지능 모델을 추가할 수 있다. 개발자(104)는 개발자 디바이스를 의미할 수 있다. 예컨대, 개발자 디바이스는 메모리, 프로세서, 디스플레이 및/또는 통신 모듈을 포함하는 컴퓨팅 장치일 수 있다.In addition, the developer 104 may modify and/or delete the artificial intelligence model stored in the artificial intelligence model storage 113, or add a new artificial intelligence model. Developer 104 may mean a developer device. For example, the developer device may be a computing device including a memory, a processor, a display, and/or a communication module.

인공지능 모델 인터페이스(112)는 인공지능 모델 저장소(113)로부터 수신한 단일 또는 복수 개의 인공지능 모델을 장착하여 사용자 정보의 분석을 수행할 수 있다. 사용자 정보의 분석은, 사용자 정보가 인공지능 모델에 순차적으로 입력됨으로써 수행될 수 있다. 분석을 위한 사용자 정보는 데이터 공간(111)으로부터 전송될 수 있다. 이때, 사용자 정보의 분석이 완료된 경우, 장착된 단일 또는 복수개의 인공지능 모델은 삭제될 수 있다. The artificial intelligence model interface 112 may perform analysis of user information by mounting a single or a plurality of artificial intelligence models received from the artificial intelligence model storage 113. Analysis of user information may be performed by sequentially inputting user information into an artificial intelligence model. User information for analysis may be transmitted from the data space 111. In this case, when the analysis of the user information is completed, the installed single or multiple artificial intelligence models may be deleted.

예를 들어, 사용자(101)가 사용자 의료 영상에 대한 분석을 요청하는 경우, 인공지능 모델 인터페이스(112)에서는, 인공신경망(예를 들어, 합성곱 신경망(Convolutional Neural Network, CNN) 등)을 이용하여 사용자의 의료 영상 특징점을 추출할 수 있고, 사용자 의료 영상의 판독 결과를 도출할 수 있다. 추출된 사용자 의료 영상의 특징점은, 인공지능 모델 간에 공유될 수 있다. 즉, 한 인공지능 모델에서 추출한 특징점을 다른 인공지능 모델에서도 사용할 수 있다. 이때, 구체적인 사용자 의료 영상에 대한 분석 방법에 대하여는, 도 2 내지 도 5에 관한 설명에서 후술한다.For example, when the user 101 requests analysis of the user's medical image, the artificial intelligence model interface 112 uses an artificial neural network (eg, a convolutional neural network (CNN), etc.). Accordingly, a feature point of the user's medical image can be extracted, and a reading result of the user's medical image can be derived. Feature points of the extracted user medical images may be shared among artificial intelligence models. In other words, feature points extracted from one artificial intelligence model can be used in other artificial intelligence models. In this case, a detailed method of analyzing the user medical image will be described later in the description of FIGS. 2 to 5.

또한, 인공지능 모델 인터페이스(112)에서 분석된 인공지능 분석 결과는 데이터 공간(111)에 저장될 수 있다. 이때, 사용자(101)는 사용자 인터페이스(110)를 통해 인공지능 분석 결과를 확인할 수 있다.In addition, the artificial intelligence analysis result analyzed by the artificial intelligence model interface 112 may be stored in the data space 111. In this case, the user 101 may check the artificial intelligence analysis result through the user interface 110.

또한, 사용자 정보에 음성 정보가 포함되어 있는 경우, 인공지능 모델 인터페이스(112)에서는 해당 음성 정보로부터 텍스트를 추출해낼 수 있다. 추출된 텍스트는 사용자 정보 분석에 이용될 수 있다. 이때, 사용자 의료 정보들은 수치화 될 수 있다. In addition, when voice information is included in the user information, the artificial intelligence model interface 112 may extract text from the voice information. The extracted text can be used for user information analysis. At this time, user medical information may be converted into numerical values.

인공지능 모델 인터페이스(112)에서는, 수치화 된 사용자 의료 정보, 사용자의 음성 정보로부터 추출된 텍스트를 포함한 사용자 정보를 종합하여 사용자를 분류할 수 있다. 예를 들어, 입력된 사용자 정보가 정상 범주 미만의 혈압을 나타내는 경우, 해당 정보를 입력한 사용자는 '저혈압 증상'이 있는 사용자로 분류될 수 있다. 또한, 입력된 사용자 정보가 전립선 암과 유사한 형태를 갖는 양성종양이 포함된 영상인 경우, 해당 정보를 입력한 사용자는 '전립선 암'위험이 있는 사용자로 분류될 수 있다. In the artificial intelligence model interface 112, the user may be classified by synthesizing user information including text extracted from the user's voice information and the user's medical information that has been digitized. For example, if the input user information indicates a blood pressure below the normal category, the user who has entered the information may be classified as a user with'hypotension symptoms'. In addition, when the input user information is an image including a benign tumor having a form similar to that of prostate cancer, the user who has input the information may be classified as a user at risk of'prostate cancer'.

인공지능 모델 인터페이스(112)에서는, 분류된 사용자 정보를 이용하여 단일 또는 복수의 공유자를 포함하는 공유자 추천 리스트(102)를 생성할 수 있다. 공유자 추천 리스트(102)에 포함되는 공유자는 추천 순서가 빠른 순으로 포함될 수 있다. 이때, 사용자(101)가 사용자 인터페이스(110)을 통해 입력하는 필터 값이 존재할 경우, 생성된 공유자 추천 리스트(102)를 해당 필터 값을 반영하여 필터링할 수 있다. 이때, 사용자(101)는 사용자 인터페이스(110)를 통해 생성된 공유자 추천 리스트(102)를 확인할 수 있다. In the artificial intelligence model interface 112, a sharer recommendation list 102 including a single or a plurality of sharers may be generated using the classified user information. Sharers included in the sharer recommendation list 102 may be included in the order of recommendation in order of rapidity. In this case, when there is a filter value input by the user 101 through the user interface 110, the generated sharer recommendation list 102 may be filtered by reflecting the filter value. In this case, the user 101 may check the sharer recommendation list 102 generated through the user interface 110.

예를 들어, 사용자가 '전립선 암'위험이 있는 사용자로 분류된 경우, 인공지능 모델 인터페이스(112)에서는, '전립선 암'전문 병원들을 공유자로 설정하여 병원 리스트를 생성할 수 있다. 이때, 사용자가 사용자 인터페이스를 통해 특정 병원을 제외하는 필터 값을 입력한 경우, 해당 병원이 생성된 병원 리스트에서 제거될 수 있다. For example, when the user is classified as a user at risk of'prostate cancer', the artificial intelligence model interface 112 may create a hospital list by setting'prostate cancer' specialized hospitals as sharers. In this case, when the user inputs a filter value excluding a specific hospital through the user interface, the hospital may be removed from the hospital list in which the hospital was created.

다른 실시예로, 생성된 공유자 추천 리스트(102)에 공유자(103)의 필터 값이 반영될 수 있다. 예를 들어, 특정 병원의 진료일 및/또는 진료 시간이 변경된 경우, 해당 병원은 생성된 공유자 추천 리스트에서 해당 병원의 제거 및/또는 추천 순서의 변경을 요청할 수 있다. In another embodiment, the filter value of the sharer 103 may be reflected in the generated sharer recommendation list 102. For example, when the treatment day and/or treatment time of a specific hospital is changed, the hospital may request removal of the hospital and/or change of the order of recommendation from the generated sharer recommendation list.

사용자(101)는 생성된 공유자 추천 리스트(102)에서, 특정 공유자(103)를 선택할 수 있다. 이때, 사용자(101)에 의해 선택된 공유자(103)는, 공유자 인터페이스(115)를 통해 가시화 모듈(116)에 접속하여 사용자(101)가 입력한 사용자 정보 및 사용자 정보의 인공지능 분석 결과를 확인할 수 있다. 또한, 공유자(103)는, 공유자 인터페이스(115)를 통해 사용자 정보의 인공지능 분석 결과에 포함된 이미지를 수정하거나, 새로 입력하는 등의 피드백을 제공할 수 있다. 또한, 공유자(103)는, 사용자 정보의 인공지능 분석 결과에 대하여 보충의견을 작성하여 피드백을 제공할 수도 있다. 이때, 수정되거나 새로 입력된 인공지능 분석 결과는 데이터공간(111)에 저장될 수 있다. The user 101 may select a specific sharer 103 from the generated sharer recommendation list 102. At this time, the sharer 103 selected by the user 101 may access the visualization module 116 through the sharer interface 115 to check the user information input by the user 101 and the result of artificial intelligence analysis of the user information. have. In addition, the sharer 103 may provide feedback such as correcting or newly inputting an image included in the result of artificial intelligence analysis of user information through the sharer interface 115. In addition, the sharer 103 may provide feedback by writing a supplementary opinion on the result of artificial intelligence analysis of user information. In this case, the modified or newly inputted artificial intelligence analysis result may be stored in the data space 111.

예를 들어, 생성된 공유자 추천 리스트가 A 병원, B 병원 및 C 병원을 포함하는 경우, 사용자는 A 병원을 선택할 수 있다. 이때, 선택된 A 병원은, 공유자 인터페이스를 통해 사용자가 입력한 사용자 의료 영상을 확인할 수 있다. 또한, A 병원은, 공유자 인터페이스를 통해 사용자 의료 영상의 인공지능 분석 결과를 확인할 수 있다. For example, when the generated sharer recommendation list includes hospital A, hospital B, and hospital C, the user may select hospital A. At this time, the selected hospital A may check the user medical image input by the user through the sharer interface. In addition, Hospital A may check the result of artificial intelligence analysis of the user's medical image through the sharer interface.

본 발명의 일 실시예에 따른 데이터 공간(111), 인공지능 모델 저장소(113)는 클라우드 기술을 이용해 구현될 수 있으나, 반드시 이에 한정되는 것은 아니다. The data space 111 and the artificial intelligence model storage 113 according to an embodiment of the present invention may be implemented using cloud technology, but are not limited thereto.

이하 도 2 내지 도 5에서 사용자 정보에 대한 구체적인 분석 방법을 설명한다.Hereinafter, a detailed analysis method for user information will be described in FIGS. 2 to 5.

도 2는 본 발명의 일 실시예에 따른, 사용자 의료정보 분석을 위한 딥러닝 모델 학습 장치의 구성을 나타내는 도면이다. 2 is a diagram illustrating a configuration of an apparatus for learning a deep learning model for analyzing user medical information according to an embodiment of the present invention.

딥러닝 모델 학습 장치(20)는, 인공지능 모델 인터페이스에 장착되는 인공지능 모델의 일 실시예일 수 있다. The deep learning model learning apparatus 20 may be an embodiment of an artificial intelligence model mounted on an artificial intelligence model interface.

도 2를 참조하면, 딥러닝 모델 학습 장치(20)는 특징 추출부(21), 맥락 생성부(22), 특징 및 맥락 분석부(23)을 포함할 수 있다. 다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 딥러닝 모델 학습 장치(20)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다.Referring to FIG. 2, the deep learning model training apparatus 20 may include a feature extracting unit 21, a context generating unit 22, and a feature and context analyzing unit 23. However, this is only showing some components necessary for describing the present embodiment, and components included in the deep learning model learning apparatus 20 are not limited to the above-described examples.

딥러닝 모델 학습 장치(20)는 분석 대상 사용자 의료 영상의 특징을 추출하고, 추출된 특징에 기초하여 맥락 정보를 생성하고, 추출된 특징 및 생성된 맥락 정보에 기초하여 분석 대상 영상을 분석할 수 있다. 예컨대, 딥러닝 모델 학습 장치(20)는 추출된 특징 및 생성된 맥락 정보를 이용하여 영상을 분류하거나 관심 객체의 위치를 찾아낼 수 있다.The deep learning model training apparatus 20 may extract features of the user medical image to be analyzed, generate context information based on the extracted features, and analyze the analysis target image based on the extracted features and the generated context information. have. For example, the deep learning model learning apparatus 20 may classify an image or find a location of an object of interest using the extracted features and generated context information.

딥러닝 모델 학습 장치(20)의 입력 영상은 적어도 하나의 의료 영상(MRI, CT, X-ray 등)일 수 있다.The input image of the deep learning model learning apparatus 20 may be at least one medical image (MRI, CT, X-ray, etc.).

특징 추출부(21)는 입력 영상을 분석하여 영상의 특징을 추출할 수 있다. 예컨대, 상기 특징은 영상의 각 영역마다의 국소적인 특징일 수 있다. 본 발명의 일 실시예에 따른 특징 추출부(21)는 일반적인 합성곱 신경망(Convolutional Neural Network, CNN) 기법 또는 풀링(pooling) 기법을 이용하여 입력 영상의 특징을 추출할 수 있다. 상기 풀링 기법은 맥스(max) 풀링 기법 및 평균(average) 풀링 기법 중 적어도 하나를 포함할 수 있다. 그러나, 본 개시에서 언급되는 풀링 기법은 맥스 풀링 기법 또는 평균 풀링 기법에 한정되지 않으며, 소정 크기의 영상 영역의 대표값을 획득하는 임의의 기법을 포함한다. 예컨대, 풀링 기법에 사용되는 대표값은 최대값 및 평균값 외에, 분산값, 표준 편차값, 중간값(mean value), 최빈값(most frequent value), 최소값 및 가중 평균값 중 적어도 하나일 수 있다.The feature extraction unit 21 may analyze the input image and extract features of the image. For example, the feature may be a local feature for each area of an image. The feature extraction unit 21 according to an embodiment of the present invention may extract features of an input image using a general convolutional neural network (CNN) technique or a pooling technique. The pooling technique may include at least one of a max pooling technique and an average pooling technique. However, the pooling technique referred to in the present disclosure is not limited to the max pooling technique or the average pooling technique, and includes any technique for obtaining a representative value of an image region of a predetermined size. For example, the representative value used in the pooling technique may be at least one of a variance value, a standard deviation value, a mean value, a most frequent value, a minimum value, and a weighted average value, in addition to the maximum value and the average value.

본 개시의 합성곱 신경망은 입력 데이터(영상)로부터 테두리, 선 색 등과 같은 특징들(features)을 추출하기 위해 이용될 수 있으며, 복수의 계층들(layers)을 포함할 수 있다. 각각의 계층은 입력 데이터를 수신하고, 해당 계층의 입력 데이터를 처리하여 출력 데이터를 생성할 수 있다. 합성곱 신경망은 입력된 영상 또는 입력된 특징맵(feature map)을 필터 커널들(filter kernels)과 컨볼루션하여 생성한 특징맵을 출력 데이터로서 출력할 수 있다. 합성곱 신경망의 초기 계층들은 입력으로부터 에지들 또는 그레디언트들과 같은 낮은 레벨의 특징들을 추출하도록 동작될 수 있다. 신경망의 다음 계층들은 눈, 코 등과 같은 점진적으로 더 복잡한 특징들을 추출할 수 있다. 합성곱 신경망의 구체적인 동작에 대해서는 도 4를 참고하여 후술한다.The convolutional neural network of the present disclosure may be used to extract features such as borders, line colors, and the like from input data (images), and may include a plurality of layers. Each layer may receive input data and may generate output data by processing the input data of the layer. The convolutional neural network may output an input image or a feature map generated by convolving an input feature map with filter kernels as output data. The initial layers of the convolutional neural network can be operated to extract low-level features such as edges or gradients from the input. The next layers of the neural network can gradually extract more complex features such as eyes, nose, etc. A detailed operation of the convolutional neural network will be described later with reference to FIG. 4.

합성곱 신경망은 컨볼루션 연산이 수행되는 합성곱 계층 외에도 풀링 연산이 수행되는 풀링 계층도 포함할 수 있다. 풀링 기법은 풀링 계층에서 데이터의 공간적 크기를 축소하는데 사용되는 기법이다. 구체적으로, 풀링 기법에는 해당 영역에서 최대값을 선택하는 맥스 풀링(max pooling) 기법과 해당 영역의 평균 값을 선택하는 평균 풀링(average pooling) 기법이 있으며, 이미지 인식 분야에서는 일반적으로 맥스 풀링 기법이 사용된다. 풀링 기법에서는 일반적으로 풀링의 윈도우 크기와 간격(스트라이드, stride)을 같은 값으로 설정한다. 여기서, 스트라이드란 입력 데이터에 필터를 적용할 때 이동할 간격을 조절하는 것, 즉 필터가 이동할 간격을 의미하며, 스트라이드 또한 출력 데이터의 크기를 조절하기 위해 사용될 수 있다. 풀링 기법의 구체적인 동작에 대해서는 도 5를 참고하여 후술한다.The convolutional neural network may include a pooling layer in which a pooling operation is performed in addition to a convolutional layer in which a convolution operation is performed. The pooling technique is a technique used to reduce the spatial size of data in the pooling layer. Specifically, the pooling technique includes a max pooling technique that selects a maximum value in a corresponding domain and an average pooling technique that selects an average value of the domain. In the image recognition field, the max pooling technique is generally used. Used. In the pooling technique, generally, the pooling window size and interval (stride) are set to the same value. Here, the stride refers to an interval to be moved when a filter is applied to input data, that is, an interval to which the filter is moved, and stride may also be used to adjust the size of output data. A detailed operation of the pooling technique will be described later with reference to FIG. 5.

본 개시의 일 실시예에 따른 특징 추출부(21)는 분석 대상 영상의 특징을 추출하기 위한 전처리(pre-processing)로서, 분석 대상 영상에 필터링을 적용할 수 있다. 상기 필터링은 고속 푸리에 변환(Fast Fourier Transform, FFT), 히스토그램 평활화(histogram equalization), 모션 아티팩트(motion artifact) 제거 또는 노이즈(noise) 제거 등일 수 있다. 그러나, 본 개시의 필터링은 상기 열거한 방법으로 제한되지 않으며, 영상의 품질을 개선할 수 있는 모든 형태의 필터링을 포함할 수 있다.The feature extraction unit 21 according to an embodiment of the present disclosure is a pre-processing for extracting features of an analysis target image, and may apply filtering to an analysis target image. The filtering may be Fast Fourier Transform (FFT), histogram equalization, motion artifact removal, or noise removal. However, the filtering of the present disclosure is not limited to the above-described methods, and may include any type of filtering capable of improving image quality.

맥락 생성부(22)는 특징 추출부(21)로부터 추출된 입력 영상의 특징을 이용하여 입력 영상(분석 대상 영상)의 맥락 정보를 생성할 수 있다. 예컨대, 상기 맥락 정보는 분석 대상 영상의 전체 또는 일부 영역을 나타내는 대표값일 수 있다. 또한 상기 맥락 정보는 입력 영상의 전역적인 맥락 정보일 수 있다. 일 실시 예에 따른 맥락 생성부(22)는 합성곱 신경망 기법 또는 풀링 기법을 특징 추출부(21)로부터 추출된 특징에 적용하여 맥락 정보를 생성할 수 있다. 상기 풀링 기법은 예컨대, 평균 풀링(average pooling) 기법일 수 있다.The context generator 22 may generate context information of the input image (analysis target image) by using the features of the input image extracted from the feature extractor 21. For example, the context information may be a representative value indicating the entire or partial area of the image to be analyzed. Further, the context information may be global context information of the input image. The context generator 22 according to an embodiment may generate context information by applying a convolutional neural network technique or a pooling technique to a feature extracted from the feature extractor 21. The pooling technique may be, for example, an average pooling technique.

특징 및 맥락 분석부(23)는 특징 추출부(21)에서 추출된 특징 및 맥락 생성부(22)에서 생성된 맥락 정보에 기초하여 영상을 분석할 수 있다. 일 실시예에 따른 특징 및 맥락 분석부(23)는 특징 추출부(21)에서 추출된 영상의 각 영역마다의 국소적인 특징 및 맥락 생성부(22)에서 재구성된 전역적인 맥락을 결합(concatenate)하는 등의 방식으로 함께 사용하여, 입력 영상을 분류하거나 입력 영상에 포함된 관심 객체의 위치 등을 찾는데 이용할 수 있다. 입력 영상 내 특정 2차원 위치에서의 정보는 국소적인 특징 정보뿐만 아니라 전역적인 맥락 정보까지 포함하게 되므로, 특징 및 맥락 분석부(23)는 이들 정보를 이용함으로써, 실제 내용은 상이하지만 국소적인 특징 정보가 유사한 입력 영상들에 대해 보다 정확한 인식 또는 분류 등이 가능하게 된다. The feature and context analysis unit 23 may analyze an image based on the feature extracted by the feature extraction unit 21 and context information generated by the context generation unit 22. The feature and context analysis unit 23 according to an embodiment concatenates a local feature for each region of an image extracted by the feature extraction unit 21 and a global context reconstructed by the context generator 22 It can be used together in such a way as to classify the input image or find the location of an object of interest included in the input image. Since the information at a specific two-dimensional position in the input image includes not only local feature information but also global context information, the feature and context analysis unit 23 uses these information, so that the actual content is different but local feature information. It is possible to more accurately recognize or classify input images that have similar input images.

전술한 바와 같이, 본 개시의 일 실시 예에 따른 발명은, 일반적인 합성곱 신경망 기법이 사용하는 국소적인 특징뿐만 아니라 전역적인 맥락 정보를 함께 사용함으로써, 보다 더 정확하고 효율적인 학습 및 영상 분석이 가능하게 된다. 이러한 관점에서 본 개시에 따른 발명을 '맥락 분석을 통한 심층 신경망'이라 할 수 있다.As described above, the invention according to an embodiment of the present disclosure enables more accurate and efficient learning and image analysis by using global context information as well as local features used by a general convolutional neural network technique. do. From this point of view, the invention according to the present disclosure may be referred to as a'deep neural network through context analysis'.

도 3은 본 발명의 일 실시예에 따른, 영상의 맥락 정보를 생성하고 분석하는 과정을 나타내는 도면이다.3 is a diagram illustrating a process of generating and analyzing context information of an image according to an embodiment of the present invention.

도 3을 참조하면, 특징 추출부(21)는 입력 영상(301)을 이용하여 입력 영상(301)으로부터 특징을 추출하고, 추출된 특징 정보를 포함하는 특징 영상(302)을 생성할 수 있다. 상기 추출된 특징은 입력 영상의 국소 영역에 대한 특징일 수 있다. 상기 입력 영상(301)은 영상 분석 장치의 입력 영상 또는 합성곱 신경망 모델 내의 각 계층에서의 특징 맵을 포함할 수 있다. 또한 상기 특징 영상(302)은 입력 영상(301)에 대해 합성곱 신경망 기법 및/또는 풀링 기법을 적용하여 획득된 특징맵 및/또는 특징 벡터를 포함할 수 있다.Referring to FIG. 3, the feature extractor 21 may extract a feature from the input image 301 using the input image 301 and generate a feature image 302 including the extracted feature information. The extracted feature may be a feature of a local region of the input image. The input image 301 may include an input image of an image analysis device or a feature map of each layer in a convolutional neural network model. In addition, the feature image 302 may include a feature map and/or feature vector obtained by applying a convolutional neural network technique and/or a pooling technique to the input image 301.

맥락 생성부(22)는 특징 추출부(21)에서 추출된 특징 영상(302)에 대해 합성곱 신경망 기법 및/또는 풀링 기법을 적용하여 맥락 정보를 생성할 수 있다. 예컨대, 맥락 생성부(22)는 풀링의 간격(stride)을 다양하게 조절함으로써 영상 전체, 4등분 영역, 9등분 영역 등의 다양한 크기(scale)의 맥락 정보를 생성할 수 있다. 도 3을 참조하면, 영상 전체 크기의 영상에 대한 맥락 정보를 포함하는 전체 맥락 정보 영상(311), 영상 전체를 4등분한 크기의 4등분 영상에 대한 맥락 정보를 포함하는 4등분 맥락 정보 영상(312) 및 영상 전체를 9등분한 크기의 9등분 영상에 대한 맥락 정보를 포함하는 9등분 맥락 정보 영상(313)이 획득될 수 있다.The context generator 22 may generate context information by applying a convolutional neural network technique and/or a pooling technique to the feature image 302 extracted by the feature extractor 21. For example, the context generator 22 may generate context information of various scales, such as the entire image, a quadrant area, and a 9 equal area, by variously adjusting the pooling stride. Referring to FIG. 3, an entire context information image 311 including context information for an image of the entire image size, and a fourth context information image including context information for an image of a size that is divided into quarters ( 312) and a 9-section context information image 313 including context information for a 9-section image having a size obtained by dividing the entire image into 9 sections may be obtained.

특징 및 맥락 분석부(23)는 상기 특징 영상(302)과 상기 맥락 정보 영상(311, 312, 313)을 모두 이용하여 분석 대상 영상의 특정 영역에 대한 분석을 보다 정확히 수행할 수 있다.The feature and context analysis unit 23 may more accurately perform analysis on a specific region of the analysis target image using both the feature image 302 and the context information images 311, 312, 313.

예컨대, 전립선 암과 유사한 형태를 갖는 양성종양이 포함된 영상이 입력 영상인 경우, 특징 추출부(21)가 추출한 국소적인 특징을 포함하는 특징 영상(302)으로부터는 상기 식별된 객체가 전립선 암인지 양성종양인지 정확히 판단할 수 없다. 즉, 특징 추출부(21)는 국소적인 특징에 기초하여 객체의 형상을 인식할 수 있으나, 해당 객체의 형상만 가지고는 정확히 객체를 식별하고 분류할 수 없는 경우가 있다.For example, when an image containing a benign tumor having a form similar to that of prostate cancer is an input image, from the feature image 302 including the local feature extracted by the feature extraction unit 21, whether the identified object is prostate cancer It is not possible to accurately determine if it is a benign tumor. That is, although the feature extraction unit 21 can recognize the shape of the object based on the local feature, there are cases in which it is not possible to accurately identify and classify the object using only the shape of the object.

본 개시의 일 실시 예에 따른 맥락 생성부(22)는 상기 분석 대상 영상 또는 상기 특징 영상(302)에 기초하여 맥락 정보(311, 312, 313)를 생성함으로써, 보다 정확히 객체를 식별하고 분류할 수 있다. The context generation unit 22 according to an embodiment of the present disclosure generates context information 311, 312, 313 based on the analysis target image or the feature image 302, thereby more accurately identifying and classifying objects. I can.

본 개시의 일 실시 예에 따른 특징 및 맥락 분석부(23)는 상기 맥락 정보를 활용함으로써, 상기 전립선 암 또는 양성종양의 형상을 갖는 객체를 "전립선 암"으로 식별할 수 있다.The feature and context analysis unit 23 according to an embodiment of the present disclosure may identify the object having the shape of the prostate cancer or benign tumor as "prostate cancer" by using the context information.

도 3을 참조하여 설명한 실시 예에서는 전체 영상에 대한 맥락 정보, 4등분 영상에 대한 맥락 정보, 9등분 영상에 대한 맥락 정보를 생성하고 활용하는 것에 대해 설명하였으나, 맥락 정보를 추출하는 영상의 크기는 이에 한정되지 않는다. 예컨대, 전술한 크기의 영상 이외의 크기를 갖는 영상에 대한 맥락 정보를 생성하고 활용할 수도 있다.In the embodiment described with reference to FIG. 3, it has been described that context information for the entire image, context information for a quadrant image, and context information for a 9 segment image are generated and utilized, but the size of the image for extracting the context information is It is not limited to this. For example, context information for an image having a size other than the above-described image may be generated and utilized.

한편, 본 개시의 일 실시 예에 따른 합성곱 신경망 기법 및 풀링에 대해서는 도 4 및 도 5를 참조하여 후술한다.Meanwhile, a convolutional neural network technique and pooling according to an embodiment of the present disclosure will be described later with reference to FIGS. 4 and 5.

도 4는 다채널 특징맵을 생성하는 합성곱 신경망의 일 실시 예를 설명하기 위한 도면이다.4 is a diagram for describing an embodiment of a convolutional neural network generating a multi-channel feature map.

합성곱 신경망 기반의 영상 처리는 다양한 분야에 활용될 수 있다. 예컨대, 영상의 객체 인식(object recognition)을 위한 영상 처리 장치, 영상 복원(image reconstruction)을 위한 영상 처리 장치, 시맨틱 세그먼테이션(semantic segmentation)을 위한 영상 처리 장치, 장면 인식(scene recognition)을 위한 영상 처리 장치 등에 이용될 수 있다.Image processing based on convolutional neural networks can be used in various fields. For example, an image processing device for object recognition of an image, an image processing device for image reconstruction, an image processing device for semantic segmentation, and image processing for scene recognition It can be used for devices and the like.

입력 영상(410)은 합성곱 신경망(400)을 통해 처리됨으로써 특징맵 영상을 출력할 수 있다. 출력된 특징맵 영상은 전술한 다양한 분야에 활용될 수 있다.The input image 410 may be processed through the convolutional neural network 400 to output a feature map image. The output feature map image can be used in various fields described above.

합성곱 신경망(400)은 복수의 계층들(420, 430, 440)을 통해 처리될 수 있으며, 각 계층은 다채널 특징맵 영상들(425, 435)을 출력할 수 있다. 일 실시예에 따른 복수의 계층들(420, 430, 440)은 입력받은 데이터의 좌측 상단으로부터 우측 하단까지 일정한 크기의 필터를 적용하여 영상의 특징을 추출할 수 있다. 예를 들어, 복수의 계층들(420, 430, 440)은 입력 데이터의 좌측 상단 NХM 픽셀에 가중치를 곱해서 특징맵의 좌측 상단의 한 뉴런에 매핑시킨다. 이 경우, 곱해지는 가중치도 N×M가 될 것이다. 상기 NХM은 예컨대, 3Х3일 수 있으나, 이에 한정되지 않는다. 이후, 동일한 과정으로, 복수의 계층들(420, 430, 440)은 입력 데이터를 좌측에서 우측으로, 그리고 상단에서 하단으로 k 칸씩 스캔하면서 가중치를 곱하여 특징맵의 뉴런에 매핑한다. 상기 k 칸은 합성곱 수행시 필터를 이동시킬 간격(stride)을 의미하며, 출력 데이터의 크기를 조절하기 위해 적절히 설정될 수 있다. 예컨대, k는 1일 수 있다. 상기 NХM 가중치는 필터 또는 필터 커널이라고 한다. 즉, 복수의 계층들(420, 430, 440)에서 필터를 적용하는 과정은 필터 커널과의 컨볼루션 연산을 수행하는 과정이며, 그 결과 추출된 결과물을 "특징맵(feature map)" 또는 "특징맵 영상"이라고 한다. 또한, 컨볼루션 연산이 수행된 계층을 합성곱 계층이라 할 수 있다.The convolutional neural network 400 may be processed through a plurality of layers 420, 430, and 440, and each layer may output multi-channel feature map images 425 and 435. The plurality of layers 420, 430, and 440 according to an embodiment may extract features of an image by applying a filter having a predetermined size from an upper left to a lower right of the input data. For example, the plurality of layers 420, 430, and 440 multiply the upper left NХM pixel of the input data by a weight and map it to one neuron at the upper left of the feature map. In this case, the weight to be multiplied will also be N×M. The NХM may be, for example, 3Х3, but is not limited thereto. Thereafter, in the same process, the plurality of layers 420, 430, and 440 scan the input data from left to right and from top to bottom by k spaces, multiplying the weights, and map them to neurons in the feature map. The k field denotes a stride to move the filter when performing convolution, and may be appropriately set to adjust the size of output data. For example, k may be 1. The NХM weight is called a filter or filter kernel. That is, the process of applying a filter in a plurality of layers (420, 430, 440) is a process of performing a convolution operation with the filter kernel, and the extracted result is converted into a "feature map" or a "feature map" It is called "map image". Also, the layer on which the convolution operation is performed may be referred to as a convolutional layer.

"다채널 특징맵(multiple-channel feature map)"의 용어는 복수의 채널에 대응하는 특징맵들의 세트를 의미하고, 예를 들어 복수의 영상 데이터일 수 있다. 다채널 특징맵들은 합성곱 신경망의 임의의 계층에서의 입력일 수 있고, 컨볼루션 연산 등의 특징맵 연산 결과에 따른 출력일 수 있다. 일 실시예에 따르면, 다채널 특징맵들(425, 435)은 합성곱 신경망의 "특징 추출 계층들" 또는 "컨볼루션 계층들"이라고도 불리는 복수의 계층들(420, 430, 440)에 의해 생성된다. 각각의 계층은 순차적으로 이전 계층에서 생성된 다채널 특징맵들을 수신하고, 출력으로서 그 다음의 다채널 특징맵들을 생성할 수 있다. 최종적으로 L(L은 정수)번째 계층(540)에서는 L-1번째 계층(미도시)에서 생성한 다채널 특징맵들을 수신하여 미도시의 다채널 특징맵들을 생성할 수 있다.The term “multiple-channel feature map” refers to a set of feature maps corresponding to a plurality of channels, and may be, for example, a plurality of image data. The multi-channel feature maps may be inputs from an arbitrary layer of the convolutional neural network, and may be outputs according to a result of feature map calculations such as convolution operations. According to an embodiment, the multi-channel feature maps 425, 435 are generated by a plurality of layers 420, 430, 440, which are also called "feature extraction layers" or "convolutional layers" of a convolutional neural network. do. Each layer may sequentially receive the multi-channel feature maps generated in the previous layer, and generate subsequent multi-channel feature maps as outputs. Finally, the L (L is an integer)-th layer 540 may receive multi-channel feature maps generated in the L-1-th layer (not shown) to generate multi-channel feature maps (not shown).

도 4를 참조하면, 채널 K1개를 가지는 특징맵들(425)은 입력 영상(410)에 대해 계층 1에서의 특징맵 연산(420)에 따른 출력이고, 또한 계층 2에서의 특징맵 연산(430)을 위한 입력이 된다. 또한, 채널 K2개를 가지는 특징맵들(435)은 입력 특징맵들(425)에 대해 계층 2에서의 특징맵 연산(430)에 따른 출력이고, 또한 계층 3에서의 특징맵 연산(미도시)을 위한 입력이 된다.Referring to FIG. 4, feature maps 425 having K1 channels are output according to feature map operation 420 in layer 1 for input image 410, and feature map operation 430 in layer 2 It becomes an input for ). In addition, the feature maps 435 having K2 channels are output according to the feature map operation 430 in layer 2 for the input feature maps 425, and feature map operation in layer 3 (not shown). Becomes the input for

도 4를 참조하면, 첫 번째 계층(420)에서 생성된 다채널 특징맵들(425)은 K1(K1은 정수)개의 채널에 대응하는 특징맵들을 포함한다. 또한, 두 번째 계층(430)에서 생성된 다채널 특징맵들(435)은 K2(K2은 정수)개의 채널에 대응하는 특징맵들을 포함한다. 여기서, 채널의 개수를 나타내는 K1 및 K2는, 첫 번째 계층(420) 및 두 번째 계층(430)에서 각각 사용된 필터 커널의 개수와 대응될 수 있다. 즉, M(M은 1 이상 L-1 이하의 정수)번째 계층에서 생성된 다채널 특징맵들의 개수는 M번째 계층에서 사용된 필터 커널의 개수와 동일할 수 있다.Referring to FIG. 4, multi-channel feature maps 425 generated in a first layer 420 include feature maps corresponding to K1 (K1 is an integer) number of channels. In addition, the multi-channel feature maps 435 generated in the second layer 430 include feature maps corresponding to K2 (K2 is an integer) number of channels. Here, K1 and K2 representing the number of channels may correspond to the number of filter kernels used in the first layer 420 and the second layer 430, respectively. That is, the number of multi-channel feature maps generated in the M-th layer (M is an integer of 1 or more and L-1 or less) may be the same as the number of filter kernels used in the M-th layer.

도 5는 풀링 기법의 일 실시 예를 설명하기 위한 도면이다.5 is a diagram for describing an embodiment of a pooling technique.

도 5에 도시된 바와 같이, 풀링의 윈도우 사이즈는 2Х2, 스트라이드는 2이며, 맥스 풀링을 입력 영상(510)에 적용하여 출력 영상(590)을 생성할 수 있다. As shown in FIG. 5, the window size of the pooling is 2Х2 and the stride is 2, and the output image 590 may be generated by applying max pooling to the input image 510.

도 5의 (a)에서, 입력 영상(510)의 좌측 상단에 2Υ2 윈도우(510)를 적용하고, 윈도우(510) 영역 내의 값들 중 대표값(여기서는, 최대값 4)을 계산하여 출력 영상(590)의 대응 위치(520)에 입력한다.In (a) of FIG. 5, a 2Υ2 window 510 is applied to the upper left of the input image 510, and a representative value (here, the maximum value 4) among values in the window 510 is calculated, and the output image 590 ) In the corresponding position 520.

이후, 도 5의 (b)에서, 스트라이드 만큼, 즉, 2만큼 윈도우를 이동하고, 윈도우(530) 영역 내의 값들 중 최대값 3을 출력 영상(590)의 대응 위치(540)에 입력한다.Thereafter, in FIG. 5B, the window is moved by the stride, that is, by 2, and the maximum value 3 of the values in the window 530 area is input to the corresponding position 540 of the output image 590.

더 이상 우측으로 윈도우를 이동시킬 없는 경우, 다시 입력 영상의 좌측에서 스트라이드 만큼 아래의 위치부터 상기 과정을 반복한다. 즉, 도 5의 (c)에 도시된 바와 같이, 윈도우(550) 영역 내의 값들 중 최대값 5를 출력 영상(590)의 대응 위치(560)에 입력한다.When it is no longer possible to move the window to the right, the above process is repeated again from the position below the stride from the left side of the input image. That is, as shown in (c) of FIG. 5, the maximum value 5 of the values in the window 550 area is input to the corresponding position 560 of the output image 590.

이후, 도 5의 (d)에 도시된 바와 같이, 스트라이드 만큼 윈도우를 이동하고, 윈도우(570) 영역 내의 값들 중 최대값 2를 출력 영상(590)의 대응 위치(580)에 입력한다.Thereafter, as shown in (d) of FIG. 5, the window is moved by the stride, and the maximum value 2 of the values in the window 570 area is input to the corresponding position 580 of the output image 590.

상기 과정은 입력 영상(510)의 우측 하단 영역에 윈도우가 위치할 때까지 반복적으로 수행됨으로써, 입력 영상(510)에 풀링을 적용한 출력 영상(590)을 생성할 수 있다.The above process is repeatedly performed until a window is positioned in the lower right area of the input image 510, thereby generating an output image 590 in which pooling is applied to the input image 510.

본 개시의 딥러닝 기반의 모델은 완전 합성곱 신경망(완전 컨볼루션 뉴럴 네트워크, fully convolutional neural network), 합성곱 신경망(컨볼루션 뉴럴 네트워크, convolutional neural network), 순환 신경망(회귀 뉴럴 네트워크, recurrent neural network), 제한 볼츠만 머신(restricted Boltzmann machine, RBM) 및 심층 신뢰 신경망(deep belief neural network, DBN) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. 또는, 딥러닝 이외의 머신 러닝 방법도 포함할 수 있다. 또는 딥러닝과 머신 러닝을 결합한 하이브리드 형태의 모델도 포함할 수 있다. 예컨대, 딥러닝 기반의 모델을 적용하여 영상의 특징을 추출하고, 상기 추출된 특징에 기초하여 영상을 분류하거나 인식할 때는 머신 러닝 기반의 모델을 적용할 수도 있다. 머신 러닝 기반의 모델은 서포트 벡터 머신(Support Vector Machine, SVM), 에이다부스트(AdaBoost) 등을 포함할 수 있으나, 이에 한정되지 않는다.The deep learning-based model of the present disclosure is a fully convolutional neural network (a fully convolutional neural network), a convolutional neural network (convolutional neural network), a recurrent neural network (recurrent neural network). ), a restricted Boltzmann machine (RBM), and a deep belief neural network (DBN), but is not limited thereto. Alternatively, machine learning methods other than deep learning may also be included. Alternatively, a hybrid model that combines deep learning and machine learning may be included. For example, a deep learning-based model may be applied to extract features of an image, and a machine learning-based model may be applied when classifying or recognizing an image based on the extracted features. The machine learning-based model may include, but is not limited to, a support vector machine (SVM), AdaBoost, and the like.

본 발명의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 발명에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.The exemplary methods of the present invention are expressed as a series of operations for clarity of explanation, but this is not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order if necessary. In order to implement the method according to the present invention, it is also possible to include other steps in addition to the illustrated steps, to include other steps excluding some steps, or to include additional other steps excluding some steps.

본 발명의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 발명의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present invention are not listed in all possible combinations, but are intended to describe representative aspects of the present invention, and matters described in the various embodiments may be applied independently or may be applied in combination of two or more.

또한, 본 발명의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, or the like.

본 발명의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present invention is software or machine-executable instructions (e.g., operating systems, applications, firmware, programs, etc.) that allow an operation according to the method of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium (non-transitory computer-readable medium) which stores instructions and the like and is executable on a device or a computer.

Claims (25)

사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 사용자 인터페이스;
인공지능 모델을 저장하는 인공지능 모델 저장소;
상기 분석 요청에 대응하여 상기 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 인공지능 모델 인터페이스; 및
상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 데이터 공간을 포함하고,
상기 인공지능 모델 인터페이스는,
상기 인공지능 모델 저장소로부터 인공지능 공유 추천 모델을 추가적으로 수신하고,
상기 인공지능 공유 추천 모델은,
상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 시스템.
A user interface for receiving user information and an analysis request for the user information from a user;
An artificial intelligence model storage that stores an artificial intelligence model;
An artificial intelligence model interface for receiving at least one artificial intelligence model from the artificial intelligence model storage in response to the analysis request and performing analysis on the user information; And
And a data space for storing the user information and an analysis result of the user information,
The artificial intelligence model interface,
Further receiving an artificial intelligence sharing recommendation model from the artificial intelligence model repository,
The artificial intelligence sharing recommendation model,
A user information analysis system, characterized in that for generating a sharer recommendation list based on the analysis result of the user information.
삭제delete 제1항에 있어서,
상기 시스템은 공유자 인터페이스를 더 포함하고,
상기 사용자 인터페이스는 상기 생성된 공유자 추천 리스트에 기초하여 상기 사용자로부터 공유자를 선택하는 입력을 수신하고,
상기 공유자 인터페이스는 상기 사용자 정보에 대한 분석 결과를 상기 선택된 공유자에게 송신하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The system further includes a sharer interface,
The user interface receives an input for selecting a sharer from the user based on the generated sharer recommendation list,
The user information analysis system, wherein the sharer interface transmits the analysis result of the user information to the selected sharer.
제1항에 있어서,
상기 인공지능 모델 인터페이스는,
상기 인공지능 공유 추천 모델을 이용하여 상기 분석 결과에 기초하여 상기 사용자를 분류하고,
상기 공유자 추천 리스트는,
상기 분류 결과에 기초하여 생성되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The artificial intelligence model interface,
Classify the user based on the analysis result using the artificial intelligence sharing recommendation model,
The sharer recommendation list,
User information analysis system, characterized in that generated based on the classification result.
제1항에 있어서,
상기 인공지능 모델 저장소는,
상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트에 관한 입력을 수신하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The artificial intelligence model repository,
The user information analysis system, characterized in that receiving an input for storing the artificial intelligence model and deleting and updating the stored artificial intelligence model.
제1항에 있어서,
상기 공유자 추천 리스트는 복수의 공유자를 포함하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The user information analysis system, characterized in that the sharer recommendation list includes a plurality of sharers.
제6항에 있어서,
상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 6,
The user information analysis system, characterized in that the plurality of sharers included in the sharer recommendation list are included in order of recommendation in order of rapidity.
제1항에 있어서,
상기 인공지능 공유 추천 모델은,
상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The artificial intelligence sharing recommendation model,
And generating the sharer recommendation list based on the filtering information input by the user.
제1항에 있어서,
상기 사용자 정보에 대한 분석 결과는 상기 사용자 인터페이스를 통해 상기 사용자에게 제공되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
User information analysis system, characterized in that the analysis result of the user information is provided to the user through the user interface.
제3항에 있어서,
상기 공유자 인터페이스는,
상기 사용자 정보에 대한 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하고,
상기 피드백은 상기 데이터 공간에 저장되는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 3,
The sharer interface,
Receiving feedback on the analysis result of the user information from the selected sharer,
The user information analysis system, characterized in that the feedback is stored in the data space.
제1항에 있어서,
상기 사용자 정보는 상기 사용자의 의료 정보를 포함하는 것을 특징으로 하는 사용자 정보 분석 시스템.
The method of claim 1,
The user information analysis system, characterized in that the user information includes medical information of the user.
제1항에 있어서,
상기 인공지능 모델 인터페이스는,
상기 수신한 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하고,
상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유되는 것을 특징으로 하는 사용자 정보 분석 시스템.

The method of claim 1,
The artificial intelligence model interface,
Extracting feature points for the user information using the received at least one artificial intelligence model,
The user information analysis system, characterized in that the extracted feature points are shared among the at least one artificial intelligence model.

사용자 인터페이스, 인공지능 모델 저장소, 인공지능 모델 인터페이스 및 데이터 공간을 포함하는 사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법으로서,
상기 방법은,
상기 사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계;
상기 인공지능 모델 저장소에 저장된 적어도 하나 이상의 인공지능 모델을 이용하여 상기 인공지능 모델 인터페이스를 통해 상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계; 및
상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 상기 데이터 공간에 저장하는 단계를 포함하고,
상기 방법은,
상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 더 포함하고,
상기 인공지능 공유 추천 모델은,
상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 방법.
A user information analysis method performed by a user information analysis system including a user interface, an artificial intelligence model storage, an artificial intelligence model interface, and a data space,
The above method,
Receiving user information and a request for analysis of the user information from a user through the user interface;
Analyzing the user information requested for analysis through the artificial intelligence model interface by using at least one artificial intelligence model stored in the artificial intelligence model storage; And
Storing the user information and an analysis result of the user information in the data space,
The above method,
Further comprising the step of additionally using the artificial intelligence sharing recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface,
The artificial intelligence sharing recommendation model,
And generating a sharer recommendation list based on the analysis result of the user information.
삭제delete 제13항에 있어서,
상기 시스템은 공유자 인터페이스를 더 포함하고,
상기 방법은,
상기 생성된 공유자 추천 리스트로부터 적어도 하나의 공유자를 선택하는 입력을 상기 사용자로부터 상기 공유자 인터페이스를 통해 수신하는 단계; 및
상기 사용자 정보에 대한 분석 결과를 상기 공유자 인터페이스를 통해 상기 선택된 공유자에게 송신하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The system further includes a sharer interface,
The above method,
Receiving an input for selecting at least one sharer from the generated sharer recommendation list from the user through the sharer interface; And
And transmitting the analysis result of the user information to the selected sharer through the sharer interface.
제13항에 있어서,
상기 방법은,
상기 인공지능 모델 인터페이스를 통해 상기 인공지능 공유 추천 모델을 이용함으로써 상기 분석 결과에 기초하여 상기 사용자를 분류하는 단계를 더 포함하고,
상기 공유자 추천 리스트는,
상기 분류 결과에 기초하여 생성되는 것을 특징으로 하는 사용자 정보 분석 방법.

The method of claim 13,
The above method,
Classifying the user based on the analysis result by using the artificial intelligence sharing recommendation model through the artificial intelligence model interface,
The sharer recommendation list,
User information analysis method, characterized in that generated based on the classification result.

제13항에 있어서,
상기 방법은,
상기 인공지능 모델 저장소를 통해 상기 인공지능 모델의 저장, 상기 저장된 인공지능 모델의 삭제 및 업데이트 중 적어도 하나에 관한 입력을 수신하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The above method,
And receiving an input regarding at least one of storage of the artificial intelligence model, deletion and update of the stored artificial intelligence model through the artificial intelligence model storage.
제13항에 있어서,
상기 공유자 추천 리스트는 복수의 공유자를 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The user information analysis method, characterized in that the sharer recommendation list includes a plurality of sharers.
제18항에 있어서,
상기 공유자 추천 리스트에 포함되는 상기 복수의 공유자는 추천 순서가 빠른 순으로 포함되는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 18,
The user information analysis method, characterized in that the plurality of sharers included in the sharer recommendation list are included in order of recommendation in order of rapidity.
제13에 있어서,
상기 인공지능 공유 추천 모델은 상기 사용자로부터 입력된 필터링 정보에 기초하여 상기 공유자 추천 리스트를 생성하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The artificial intelligence sharing recommendation model generates the sharer recommendation list based on filtering information input from the user.
제13항에 있어서,
상기 방법은,
상기 사용자 인터페이스를 통해 상기 사용자 정보에 대한 분석 결과를 상기 사용자에게 제공하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The above method,
And providing an analysis result of the user information to the user through the user interface.
제15항에 있어서,
상기 방법은,
상기 공유자 인터페이스를 통해 상기 사용자 정보의 분석 결과에 대한 피드백을 상기 선택된 공유자로부터 수신하는 단계; 및
상기 데이터 공간에 상기 피드백을 저장하는 단계를 더 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 15,
The above method,
Receiving a feedback on the analysis result of the user information from the selected sharer through the sharer interface; And
And storing the feedback in the data space.
제13항에 있어서,
상기 사용자 정보는 상기 사용자의 의료 정보를 포함하는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The user information analysis method, characterized in that the user information includes the user's medical information.
제13항에 있어서,
상기 분석 요청된 사용자 정보에 대한 분석을 수행하는 단계는,
상기 적어도 하나 이상의 인공지능 모델을 이용하여 상기 사용자 정보에 대한 특징점을 추출하는 단계를 포함하고,
상기 추출된 특징점은 상기 적어도 하나 이상의 인공지능 모델 간에 공유되는 것을 특징으로 하는 사용자 정보 분석 방법.
The method of claim 13,
The step of performing analysis on the user information requested for analysis,
Including the step of extracting feature points for the user information using the at least one artificial intelligence model,
The user information analysis method, characterized in that the extracted feature points are shared among the at least one artificial intelligence model.
사용자 정보 분석 시스템에 의해 수행되는 사용자 정보 분석 방법을 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체로서,
상기 사용자 정보 분석 방법은,
사용자 인터페이스를 통해 사용자로부터 사용자 정보 및 상기 사용자 정보에 대한 분석 요청을 수신하는 단계;
인공지능 모델 인터페이스를 통해 상기 분석 요청에 대응하여 인공지능 모델 저장소로부터 적어도 하나 이상의 인공지능 모델을 수신하여 상기 사용자 정보에 대한 분석을 수행하는 단계; 및
데이터 공간을 통해 상기 사용자 정보 및 상기 사용자 정보에 대한 분석 결과를 저장하는 단계를 포함하고,
상기 방법은,
상기 인공지능 모델 인터페이스를 통해 상기 인공지능 모델 저장소에 저장된 인공지능 공유 추천 모델을 추가적으로 이용하는 단계를 더 포함하고,
상기 인공지능 공유 추천 모델은,
상기 사용자 정보에 대한 분석 결과에 기초하여 공유자 추천 리스트를 생성하는 것을 특징으로 하는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium recording a program for performing a user information analysis method performed by a user information analysis system,
The user information analysis method,
Receiving user information and a request for analysis of the user information from a user through a user interface;
Performing an analysis on the user information by receiving at least one artificial intelligence model from an artificial intelligence model storage in response to the analysis request through an artificial intelligence model interface; And
Storing the user information and an analysis result of the user information through a data space,
The above method,
Further comprising the step of additionally using the artificial intelligence sharing recommendation model stored in the artificial intelligence model storage through the artificial intelligence model interface,
The artificial intelligence sharing recommendation model,
A computer-readable recording medium recording a program, characterized in that generating a list of recommending sharers based on the analysis result of the user information.
KR1020190179064A 2019-12-31 2019-12-31 Method and system for artificial intelligence based user medical information analysis KR102160390B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190179064A KR102160390B1 (en) 2019-12-31 2019-12-31 Method and system for artificial intelligence based user medical information analysis
PCT/KR2020/017506 WO2021137454A1 (en) 2019-12-31 2020-12-03 Artificial intelligence-based method and system for analyzing user medical information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190179064A KR102160390B1 (en) 2019-12-31 2019-12-31 Method and system for artificial intelligence based user medical information analysis

Publications (1)

Publication Number Publication Date
KR102160390B1 true KR102160390B1 (en) 2020-09-29

Family

ID=72661095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190179064A KR102160390B1 (en) 2019-12-31 2019-12-31 Method and system for artificial intelligence based user medical information analysis

Country Status (2)

Country Link
KR (1) KR102160390B1 (en)
WO (1) WO2021137454A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021137454A1 (en) * 2019-12-31 2021-07-08 (주)제이엘케이 Artificial intelligence-based method and system for analyzing user medical information
WO2022270768A1 (en) * 2021-06-23 2022-12-29 주식회사 셀타스퀘어 Method and apparatus for providing intelligent pharmacovigilance platform
KR20230100439A (en) * 2021-12-28 2023-07-05 동의과학대학교산학협력단 Diffuser for early screening for dementia
WO2023128418A1 (en) * 2021-12-29 2023-07-06 주식회사 커넥트시스템 System and method for integrally managing and distributing artificial intelligence models

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180110310A (en) * 2017-03-28 2018-10-10 한국전자통신연구원 System and method for predicting and analysis stroke
JP2019504402A (en) * 2015-12-18 2019-02-14 コグノア, インコーポレイテッド Platforms and systems for digital personalized medicine
KR102056847B1 (en) * 2018-10-16 2019-12-17 김태희 Remote cervical cancer screening system based on automatic cervix reading and clinical decision support system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101462341B1 (en) * 2013-04-23 2014-11-21 한국 한의학 연구원 Apparatus and method for providing diagnosis information of cold-heat using anthropometric measures
KR20160099804A (en) * 2015-02-13 2016-08-23 주식회사 티플러스 Shared method and apparatus of providing remote reading services
KR101822404B1 (en) * 2015-11-30 2018-01-26 임욱빈 diagnostics system for cell using Deep Neural Network learning
KR102160390B1 (en) * 2019-12-31 2020-09-29 (주)제이엘케이 Method and system for artificial intelligence based user medical information analysis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019504402A (en) * 2015-12-18 2019-02-14 コグノア, インコーポレイテッド Platforms and systems for digital personalized medicine
KR20180110310A (en) * 2017-03-28 2018-10-10 한국전자통신연구원 System and method for predicting and analysis stroke
KR102056847B1 (en) * 2018-10-16 2019-12-17 김태희 Remote cervical cancer screening system based on automatic cervix reading and clinical decision support system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021137454A1 (en) * 2019-12-31 2021-07-08 (주)제이엘케이 Artificial intelligence-based method and system for analyzing user medical information
WO2022270768A1 (en) * 2021-06-23 2022-12-29 주식회사 셀타스퀘어 Method and apparatus for providing intelligent pharmacovigilance platform
KR20230100439A (en) * 2021-12-28 2023-07-05 동의과학대학교산학협력단 Diffuser for early screening for dementia
KR102589834B1 (en) * 2021-12-28 2023-10-16 동의과학대학교 산학협력단 Diffuser for early screening for dementia
WO2023128418A1 (en) * 2021-12-29 2023-07-06 주식회사 커넥트시스템 System and method for integrally managing and distributing artificial intelligence models

Also Published As

Publication number Publication date
WO2021137454A1 (en) 2021-07-08

Similar Documents

Publication Publication Date Title
KR102160390B1 (en) Method and system for artificial intelligence based user medical information analysis
US10482603B1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
Kesav et al. Efficient and low complex architecture for detection and classification of Brain Tumor using RCNN with Two Channel CNN
Jiang et al. Medical image semantic segmentation based on deep learning
US10496884B1 (en) Transformation of textbook information
JP6623265B2 (en) Detection of nodules with reduced false positives
US10853449B1 (en) Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
US20190065897A1 (en) Medical image analysis method, medical image analysis system and storage medium
Fidon et al. Generalized wasserstein dice score, distributionally robust deep learning, and ranger for brain tumor segmentation: BraTS 2020 challenge
US20180130203A1 (en) Automated skin lesion segmentation using deep side layers
US10692602B1 (en) Structuring free text medical reports with forced taxonomies
KR20210048523A (en) Image processing method, apparatus, electronic device and computer-readable storage medium
CN113728335A (en) Method and system for classification and visualization of 3D images
Mukhlif et al. An extensive review of state-of-the-art transfer learning techniques used in medical imaging: Open issues and challenges
CN111226258A (en) Signal conversion system and signal conversion method
US11705245B2 (en) System and methods for mammalian transfer learning
CN113256592B (en) Training method, system and device of image feature extraction model
US20240054638A1 (en) Automatic annotation of condition features in medical images
Gao et al. Joint disc and cup segmentation based on recurrent fully convolutional network
AU2021408159A9 (en) Automatic annotation of condition features in medical images
Ogiela et al. Natural user interfaces in medical image analysis
Costa et al. Adversarial synthesis of retinal images from vessel trees
Koziński et al. Learning to segment 3D linear structures using only 2D annotations
Khan et al. A novel fusion of genetic grey wolf optimization and kernel extreme learning machines for precise diabetic eye disease classification
Patil et al. A Review on Disease Prediction using Image Processing

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant