KR102186486B1 - Method, apparatus and computer program for detecting medical event generation using image analysis based on artificial intelligence - Google Patents

Method, apparatus and computer program for detecting medical event generation using image analysis based on artificial intelligence Download PDF

Info

Publication number
KR102186486B1
KR102186486B1 KR1020190171436A KR20190171436A KR102186486B1 KR 102186486 B1 KR102186486 B1 KR 102186486B1 KR 1020190171436 A KR1020190171436 A KR 1020190171436A KR 20190171436 A KR20190171436 A KR 20190171436A KR 102186486 B1 KR102186486 B1 KR 102186486B1
Authority
KR
South Korea
Prior art keywords
biometric information
event
image
artificial intelligence
data
Prior art date
Application number
KR1020190171436A
Other languages
Korean (ko)
Inventor
김용환
Original Assignee
주식회사 슈파스
김용환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 슈파스, 김용환 filed Critical 주식회사 슈파스
Priority to KR1020190171436A priority Critical patent/KR102186486B1/en
Priority to KR1020200162421A priority patent/KR20210080208A/en
Application granted granted Critical
Publication of KR102186486B1 publication Critical patent/KR102186486B1/en
Priority to KR1020210170175A priority patent/KR102531993B1/en
Priority to KR1020210170174A priority patent/KR102494310B1/en
Priority to KR1020210170172A priority patent/KR102494308B1/en
Priority to KR1020210170173A priority patent/KR102494309B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Cardiology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method, a device, and a computer program for detecting event generation through image analysis based on artificial intelligence. According to various embodiments of the present invention, in a method performed by a computing device, the method for detecting event generation through image analysis based on artificial intelligence comprises the steps of: collecting visualized biometric information data; using the visualized biometric information data to generate a biometric information image; analyzing the biometric information image; and detecting event generation for a user in accordance with an analysis result of the biometric information image.

Description

인공지능 기반의 이미지 분석을 통한 의학적 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR DETECTING MEDICAL EVENT GENERATION USING IMAGE ANALYSIS BASED ON ARTIFICIAL INTELLIGENCE}A method, device, and computer program for detecting the occurrence of medical events through artificial intelligence-based image analysis {METHOD, APPARATUS AND COMPUTER PROGRAM FOR DETECTING MEDICAL EVENT GENERATION USING IMAGE ANALYSIS BASED ON ARTIFICIAL INTELLIGENCE}

본 발명의 다양한 실시예는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램에 관한 것이다. Various embodiments of the present invention relate to a method, an apparatus, and a computer program for detecting event occurrence through image analysis based on artificial intelligence.

중환자실은 환자의 생존, 사망에 큰 영향을 미치며, 국내 의료비의 25%를 차지하는 중요한 보건의료체에도 중환자 전담 의료인의 부족, 병원/지역 간 질 편차, 환자 이송 중 높은 사망률 등 진료의 질과 효율성 측면에서 매우 낙후된 상황이다.The intensive care unit has a great influence on the survival and death of patients, and the quality and efficiency of care, such as the lack of dedicated intensive care personnel in the major health care facilities, which account for 25% of domestic medical expenses, the gap between hospitals/regions, and the high mortality rate during patient transfer. It is a very backward situation.

2018년 5월 22일 한국일보 기사에 의하면, 건강보험심사평가원이 지난 2016년 발표한 ‘2014년(1차)중환자실 적정성 평가결과’에 따르면, 우리나라 중환자실 전담전문의 1인당 중환자실 평균 병상수는 무려 44.7병상에 달하고, 상급종합 병원은 40.4병상, 종합병원은 48.9병상이다. 이와 같이 전담전문의의 1인당 평균 병상수가 높다보니 중환자실에 입원한 환자가 전문의 얼굴조차 보기 힘들다는 문제가 있다.According to an article in the Hankook Ilbo on May 22, 2018, according to the 2014 (1st) intensive care unit adequacy evaluation result published by the Health Insurance Review and Assessment Service in 2016, the average bed of intensive care unit per person in Korea's intensive care unit The number of hospitals is as high as 44.7 beds, 40.4 beds in a general hospital and 48.9 beds in a general hospital. As the average number of beds per person of a dedicated specialist is high, there is a problem that it is difficult for patients admitted to the intensive care unit to even see a specialist's face.

이렇다 보니 패혈증 등을 조기에 발견하지 못해 사망하는 일도 잇따르는 현실이고 심평원 조사에 따르면 우리나라 중환자실에 입원한 성인 환자 평균 사망률은 16.9%로 상급병원은 14.3%, 종합병원은 17.4%에 달한다.As a result, there are cases of death due to not being able to detect sepsis at an early stage, and according to the Simpyeongwon survey, the average mortality rate of adult patients admitted to the intensive care unit in Korea is 16.9%, 14.3% in advanced hospitals and 17.4% in general hospitals.

중환자실은 생명 유지를 위한 필수 기능인 호흡과 심장 박동 등에 매우 큰 문제를 가지고 있는 환자들을 위한 곳이고, 24시간 주7일 365일 집중적인 치료를 받는 곳이며, 언제든 달라질 수 있는 집중 돌봄 환자들의 상태 변화를 놓치지 않기 위해서는 환자들의 생체 데이터를 실시간으로 측정, 분석해야 한다.The intensive care unit is for patients with very big problems such as breathing and heartbeat, which are essential functions for life maintenance, and is a place where intensive care is received 24 hours a day, 7 days a week, and changes in the state of intensive care patients that can change at any time. In order not to miss, the patient's biometric data must be measured and analyzed in real time.

그러나, 각 의료기기들에서 생성되는 데이터는 종류도 많고 형식도 다양하고 생성되는 데이터의 양도 방대하여, 대규모의 복잡한 데이터 속에서 가치 있는 정보를 추출하기 어렵다는 문제가 있다.However, there is a problem in that it is difficult to extract valuable information from large-scale, complex data, as the data generated by each medical device has many types and formats, and the amount of data generated is vast.

한국등록특허 제10-1070389호(2011.09.28)Korean Patent Registration No. 10-1070389 (2011.09.28)

본 발명이 해결하고자 하는 과제는 환자의 생체 정보를 측정하는 방대한 데이터를 분석하여 환자에게 발생되는 각종 이벤트와 이벤트 발생 가능성을 감지함으로써, 환자의 상태 변화에 대한 실시간 정보를 제공하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램을 제공하는 것이다.The problem to be solved by the present invention is an artificial intelligence-based image that provides real-time information on changes in the patient's condition by analyzing a vast amount of data that measures the patient's biometric information and detecting various events and events occurring in the patient. It is to provide a method, apparatus, and computer program for detecting event occurrence through analysis.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함할 수 있다.The method for detecting event occurrence through image analysis based on artificial intelligence according to an embodiment of the present invention for solving the above-described problem is a method performed by a computing device, comprising the steps of: collecting visualized biometric information data, the It may include generating a biometric information image using the visualized biometric information data, analyzing the biometric information image, and detecting the occurrence of an event for the user according to the analysis result of the biometric information image.

상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함할 수 있고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법을 수행할 수 있다.An apparatus for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention for solving the above-described problems includes a memory storing one or more instructions and a processor executing the one or more instructions stored in the memory. The processor may include, by executing the one or more instructions, collecting visualized biometric information data, generating a biometric information image using the visualized biometric information data, and analyzing the biometric information image. It is possible to perform an event occurrence detection method through image analysis based on artificial intelligence, including the step and detecting the occurrence of an event for the user according to the analysis result of the biometric information image.

상술한 과제를 해결하기 위한 본 발명으 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 컴퓨터프로그램은, 하드웨어인 컴퓨터와 결합되어, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장될 수 있다.The computer program for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention for solving the above-described problem is combined with a computer that is hardware to collect visualized biometric information data, the visualization An artificial intelligence-based comprising generating a biometric information image using the biometric information data, analyzing the biometric information image, and detecting the occurrence of an event for the user according to the analysis result of the biometric information image. It may be stored in a computer-readable recording medium so that the event occurrence detection method through image analysis can be performed.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

본 발명이 해결하고자 하는 과제는 환자의 생체 정보를 측정하는 방대한 데이터를 분석하여 환자에게 발생되는 각종 이벤트와 이벤트 발생 가능성을 감지함으로써, 환자의 상태 변화에 대한 실시간 정보를 제공한다는 이점이 있다.The problem to be solved by the present invention has the advantage of providing real-time information on a change in a patient's state by analyzing a vast amount of data measuring biometric information of a patient to detect various events and events occurring in the patient.

또한, 환자의 위험 징후를 정확히 예측하기 위해서 환자들 상태를 24시 간 365일 실시간 모니터링 하고 인공지능 기반의 예측을 수행하여 이상 징후가 나타나면 담당 간호사 등에게 즉시 알람을 보내 사전에 대처하도록 함과 동시에 시각화 기능을 갖추어 경과를 한눈에 파악할 수 있도록 한다.In addition, in order to accurately predict the patient's risk signs, the patient's condition is monitored in real time for 24 hours a day, 365 days a year, and artificial intelligence-based prediction is performed. It is equipped with a visualization function so that the progress can be grasped at a glance.

또한, 간호 인력의 환자 활력 정보에 대한 수작업 입력 등을 제거하고 환자 데이터의 실시간 처리를 보장함으로써 상대적으로 취약한 노령 중환자 진료의 질 향상에 기여할 수 있다.In addition, it is possible to contribute to the improvement of the quality of care for elderly critically ill patients who are relatively vulnerable by eliminating manual input of patient vitality information by nursing personnel and ensuring real-time processing of patient data.

또한, 중증환자의 입원 기간 단축 효과를 달성 가능함에 따라 국가 전체적인 중증환자 의료비용 감소가 가능하다는 이점이 있다.In addition, as it is possible to achieve the effect of shortening the hospitalization period for severely ill patients, there is an advantage in that it is possible to reduce the medical cost for severely ill patients throughout the country.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템의 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치의 하드웨어 구성도이다.
도 3은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법의 순서도이다.
도 4는 다양한 실시예에서, 이벤트 발생 감지 장치가 생체 정보 데이터를 이미지화하는 구성을 도시한 도면이다.
도 5는 다양한 실시예에서, 이벤트 발생 감지 장치가 제1 인공지능 모델 및 제2 인공지능 모델을 학습하는 과정을 도시한 도면이다.
도 6은 다양한 실시예에서, 인공지능 모델을 이용하여 이벤트 발생 감지 방법의 순서도이다.
1 is a block diagram of an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention.
2 is a hardware configuration diagram of a device for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.
3 is a flowchart of a method of detecting an event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.
FIG. 4 is a diagram illustrating a configuration in which an event occurrence detection device images biometric information data in various embodiments.
FIG. 5 is a diagram illustrating a process of learning a first artificial intelligence model and a second artificial intelligence model by an event detection device according to various embodiments.
6 is a flowchart of a method of detecting occurrence of an event using an artificial intelligence model in various embodiments.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer refers to all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and an application running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.

도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템의 구성도이다.1 is a block diagram of an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템은 이벤트 발생 감지 장치(100), 사용자 단말(200) 및 외부 서버(300)를 포함할 수 있다.Referring to FIG. 1, an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention may include an event occurrence detection device 100, a user terminal 200, and an external server 300. have.

여기서, 도 1에 도시된 인공지능 기반 이미지 분석을 통한 이벤트 발생 감지 시스템은 일 실시예에 따른 것이고, 그 구성요소가 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.Here, the event occurrence detection system through artificial intelligence-based image analysis illustrated in FIG. 1 is according to an exemplary embodiment, and its components are not limited to the exemplary embodiment illustrated in FIG. 1, and may be added, changed, or It can be deleted.

일 실시예에서, 이벤트 발생 감지 장치(100)는 사용자로부터 감지되는 생체 정보 데이터를 수집할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 사용자의 신체의 적어도 일부에 설치되며 사용자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡수 센서 등)로부터 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인(Vital sign) 데이터를 수집할 수 있다. In an embodiment, the event occurrence detection device 100 may collect biometric information data sensed from a user. For example, the event occurrence detection device 100 is installed on at least a part of the user's body, and the blood pressure from a plurality of sensors (eg, a blood pressure sensor, a body temperature sensor, a pulse sensor, a respiratory rate sensor, etc.) Vital sign data including at least one of data, body temperature data, pulse data, and respiratory rate data may be collected.

다양한 실시예에서, 이벤트 발생 감지 장치(100)는 외부로부터 생체 정보 데이터를 수집하되, 그래프와 같이 시각화된 생체 정보 데이터를 수집할 수 있다.In various embodiments, the event occurrence detection device 100 may collect biometric information data from outside, but collect biometric information data visualized like a graph.

다양한 실시예에서, 이벤트 발생 감지 장치(100)는 외부로부터 스칼라 형태의 생체 정보 데이터를 수집할 수 있다. 그러나, 이에 한정되지 않고, 사용자의 생체 정보를 나타내는 다양한 형태의 데이터를 수집할 수 있다.In various embodiments, the event occurrence detection device 100 may collect scalar biometric information data from the outside. However, the present invention is not limited thereto, and various types of data representing the user's biometric information may be collected.

일 실시예에서, 이벤트 발생 감지 장치(100)는 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 실시간으로 수집되는 그래프 형태의 생체 정보 데이터를 기 설정된 주기마다 캡쳐(Capture)하여 생체 정보 이미지를 생성할 수 있다. In an embodiment, the event occurrence detection device 100 may generate a biometric information image using the visualized biometric information data. For example, the event occurrence detection device 100 may generate a biometric information image by capturing biometric information data in the form of a graph collected in real time at each preset period.

다양한 실시예에서, 외부로부터 수집되는 생체 정보 데이터가 스칼라 형태인 경우, 스칼라 형태의 생체 정보 데이터를 그래프 형태로 시각화 하고, 시각화된 생체 정보 데이터를 캡쳐하여 생체 정보 이미지를 생성할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, when the biometric information data collected from the outside is in a scalar form, the biometric information data in the scalar form may be visualized in a graph form, and the biometric information image may be generated by capturing the visualized biometric information data. However, it is not limited thereto.

일 실시예에서, 이벤트 발생 감지 장치(100)는 생체 정보 이미지를 분석하여 사용자에 대한 이벤트 발생 감지를 판단할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 이미지 분석 모델을 이용하여 생체 정보 이미지를 분석함으로써, 사용자에 대한 이벤트 발생 감지를 판단할 수 있다.In an embodiment, the event occurrence detection device 100 may determine the detection of an event occurrence for the user by analyzing the biometric information image. For example, the event occurrence detection device 100 may determine detection of an event occurrence for a user by analyzing a biometric information image using an image analysis model.

여기서, 이미지 분석 모델은 특정 이미지와 특정 이미지가 가리키는 정보를 학습 데이터로써 기 학습된 인공지능 모델(예: 제1 인공지능 모델 및 제2 인공지능 모델)일 수 있다. 그러나, 이에 한정되지 않는다.Here, the image analysis model may be an artificial intelligence model (for example, a first artificial intelligence model and a second artificial intelligence model) that has previously learned a specific image and information indicated by the specific image as training data. However, it is not limited thereto.

또한, 여기서 이벤트는 사용자로부터 발생되는 이상 상태를 의미한다. 예를 들어, 이벤트는 저혈량성 쇼크, 심인성 쇼크, 폐쇄성 쇼크 및 분배성 쇼크 중 어느 하나 이상을 포함할 수 있다.In addition, the event here means an abnormal state generated by a user. For example, the event may include any one or more of hypovolemic shock, psychogenic shock, obstructive shock, and distributive shock.

일 실시예에서, 이벤트 발생 감지 장치(100)는 사용자의 생체 정보 데이터, 생체 정보 이미지, 이벤트 발생 여부 등과 같은 이벤트와 관련된 정보를 출력하는 사용자 인터페이스(User interface, UI)를 제공할 수 있다.In an embodiment, the event occurrence detection device 100 may provide a user interface (UI) that outputs event-related information such as a user's biometric information data, a biometric information image, and whether an event has occurred.

일 실시예에서, 사용자 단말(200)은 사용자 단말(200)의 적어도 일부분에 디스플레이를 포함할 수 있으며, 네트워크(400)를 통해 이벤트 발생 감지 장치(100)로부터 제공되는 각종 정보(예: 이벤트 발생 여부에 대한 정보 및 이벤트 발생 가능성에 대한 정보)를 출력할 수 있다. 예를 들어, 사용자 단말(200)은 이벤트 발생 감지 장치(100)로부터 제공되는 UI(예; 사용자의 생체 정보 및 이벤트 발생과 관련된 정보를 출력하는 UI)를 출력할 수 있으며, UI를 통해 이벤트 발생 감지 장치(100)로부터 제공되는 각종 정보를 출력할 수 있다.In one embodiment, the user terminal 200 may include a display on at least a portion of the user terminal 200, and various information (e.g., event occurrence) provided from the device 100 for detecting event occurrence through the network 400 Information on whether or not and information on the possibility of event occurrence) can be output. For example, the user terminal 200 may output a UI provided from the event occurrence detection device 100 (e.g., a UI that outputs user's biometric information and information related to event occurrence), and an event occurs through the UI. Various types of information provided from the sensing device 100 may be output.

다양한 실시예에서, 사용자 단말(200)은 스마트폰, 태블릿 PC, 노트북 데스크탑 및 키오스크 중 적어도 하나를 포함할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the user terminal 200 may include at least one of a smartphone, a tablet PC, a laptop desktop, and a kiosk. However, it is not limited thereto.

일 실시예에서, 외부 서버(300)는 네트워크(400)를 통해 이벤트 발생 감지 장치(100)와 유무선 연결될 수 있으며, 이벤트 발생 감지 장치(100)로부터 각종 정보(예: 이벤트 발생 여부에 대한 정보 및 이벤트 발생 가능성에 대한 정보)를 제공받아 저장할 수 있다.In one embodiment, the external server 300 may be wired or wirelessly connected to the event occurrence detection device 100 through the network 400, and various types of information (eg, information on whether an event occurs, and Information on the possibility of event occurrence) can be provided and stored.

여기서, 도 1에 도시된 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템은 이벤트 발생 감지 장치(100)에서 생성되는 각종 데이터가 외부 서버(300)에 저장되는 형태로 기재되어 있으나, 이에 한정되지 않고, 이벤트 발생 감지 장치(100)가 별도의 저장 장치를 구비하여 별도로 구비된 저장장치에 각종 데이터를 저장할 수 있다.Here, the event occurrence detection system through image analysis based on artificial intelligence shown in FIG. 1 is described in a form in which various data generated by the event occurrence detection device 100 are stored in the external server 300, but is not limited thereto. Instead, the event occurrence detection device 100 may include a separate storage device to store various types of data in a separate storage device.

다양한 실시예에서, 외부 서버(300)는 환자와 관련된 다양한 정보(예: 환자의 신상 정보, 환자의 질병 정보 등)를 저장할 수 있고, 저장된 환자와 관련된 데이터 중 어느 하나 이상의 데이터를 이벤트 발생 감지 장치(100)로 제공할 수 있다. 예를 들어, 외부 서버(300)는 병원 서버일 수 있으며, 이벤트 발생 감지 장치(100)로부터 특정 환자에 대한 정보 요청을 수신하는 경우, 특정 환자와 관련된 다양한 정보를 선택하여 이벤트 발생 감지 장치(100)로 제공할 수 있다. 이하, 도 2를 참조하여, 이벤트 발생 감지 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.In various embodiments, the external server 300 may store a variety of patient-related information (eg, patient's personal information, patient's disease information, etc.), and store any one or more of the stored patient-related data as an event occurrence detection device. It can be provided as (100). For example, the external server 300 may be a hospital server, and when receiving a request for information about a specific patient from the event detection device 100, the device 100 for detecting event occurrence by selecting various information related to a specific patient. ) Can be provided. Hereinafter, a hardware configuration of the event occurrence detection device 100 will be described with reference to FIG. 2.

도 2는 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치의 하드웨어 구성도이다.2 is a hardware configuration diagram of a device for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.

도 2를 참조하면, 본 발명의 다른 실시예에 따른 이벤트 발생 감지 장치(100)(이하, "컴퓨팅 장치(100)")는 프로세서(110) 및 메모리(120)를 포함할 수 있다. 다양한 실시예에서, 컴퓨팅 장치(100)는 네트워크 인터페이스(또는 통신 인터페이스)(미도시), 스토리지(미도시), 버스(bus)(미도시)를 더 포함할 수 있다.Referring to FIG. 2, an event occurrence detection device 100 (hereinafter, "computing device 100") according to another embodiment of the present invention may include a processor 110 and a memory 120. In various embodiments, the computing device 100 may further include a network interface (or communication interface) (not shown), a storage (not shown), and a bus (not shown).

일 실시예에서, 프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어할 수 있다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.In one embodiment, the processor 110 may control the overall operation of each component of the computing device 100. The processor 110 may be configured to include a CPU (Central Processing Unit), MPU (Micro Processor Unit), MCU (Micro Controller Unit), or any type of processor well known in the technical field of the present invention.

다양한 실시예에서, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 다양한 실시예에서, 프로세서(110)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예: 버스(bus) 등)를 포함할 수 있다.In various embodiments, the processor 110 may perform an operation on at least one application or program for executing the method according to the embodiments of the present invention. In various embodiments, the processor 110 includes one or more cores (not shown) and a graphic processing unit (not shown), and/or a connection path (eg, a bus) for transmitting and receiving signals with other components. can do.

다양한 실시예에서, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In various embodiments, the processor 110 temporarily and/or permanently stores a signal (or data) processed inside the processor 110, and a RAM (Random Access Memory, not shown) and a ROM (ROM). -Only Memory, not shown) may further be included. In addition, the processor 110 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, RAM, and ROM.

일 실시예에서, 프로세서(110)는 메모리(120)에 저장된 하나 이상의 인스트럭션(instruction)을 실행함으로써, 도 3 내지 8과 관련하여 설명될 방법(인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법)을 수행할 수 있다. 예를 들어, 프로세서(110)는 메모리(120)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 시각화된 생체 정보 데이터를 수집하는 동작, 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 동작, 생체 정보 이미지를 분석하는 동작 및 생체 정보 이미지의 분석 결과에 따라 사용자에 대한 이벤트 발생을 감지하는 동작을 수행할 수 있다. In one embodiment, the processor 110 executes one or more instructions stored in the memory 120, so that a method to be described with reference to FIGS. 3 to 8 (a method of detecting event occurrence through image analysis based on artificial intelligence) Can be done. For example, the processor 110 executes one or more instructions stored in the memory 120 to collect visualized biometric information data, an operation of generating a biometric information image using the visualized biometric information data, and biometric information. An operation of analyzing an image and an operation of detecting occurrence of an event for a user may be performed according to an analysis result of the biometric information image.

일 실시예에서, 메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장할 수 있다. 메모리(120)에는 프로세서(110)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(120)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.In one embodiment, the memory 120 may store various types of data, commands, and/or information. The memory 120 may store programs (one or more instructions) for processing and controlling the processor 110. Programs stored in the memory 120 may be divided into a plurality of modules according to functions.

다양한 실시예에서, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수 있다. In various embodiments, steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 이하, 도 3 내지 8을 참조하여, 컴퓨팅 장치(100)가 수행하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법에 대하여 설명하도록 한다.Components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a computer that is hardware. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++ , Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors. Hereinafter, a method of detecting the occurrence of an event through image analysis based on artificial intelligence performed by the computing device 100 will be described with reference to FIGS. 3 to 8.

도 3은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법의 순서도이다.3 is a flowchart of a method of detecting an event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.

도 3을 참조하면, S110 단계에서, 컴퓨팅 장치(100)는 외부로부터 생체 정보 데이터를 수집할 수 있다. 예를 들어, 예를 들어, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡 센서)로부터 생성된 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 수집할 수 있다.Referring to FIG. 3, in step S110, the computing device 100 may collect biometric information data from the outside. For example, for example, the computing device 100 may include blood pressure data, body temperature data, and pulse data generated from a plurality of sensors (eg, blood pressure sensor, body temperature sensor, pulse sensor, and breathing sensor) that detect biometric information of a patient. And it is possible to collect vital signs data including at least one data of the respiratory rate data.

다양한 실시예에서, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡 센서)로부터 생성된 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 시각화 하여 출력하는 생체 정보 출력 장치(예: 중환자실의 Bed-side 모니터링 장치)로부터 시각화된 바이탈 사인 데이터를 수집할 수 있다.In various embodiments, the computing device 100 includes blood pressure data, body temperature data, pulse data, and respiratory rate generated from a plurality of sensors (eg, blood pressure sensor, body temperature sensor, pulse sensor, and respiration sensor) for detecting biometric information of a patient. Visualized vital sign data may be collected from a biometric information output device (eg, a bed-side monitoring device in an intensive care unit) that visualizes and outputs vital sign data including at least one of the data.

다양한 실시예에서, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서로부터 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 직접 수집하고, 직접 수집한 바이탈 사인 데이터를 그래프 형태로 시각화 할 수 있다.In various embodiments, the computing device 100 directly collects vital sign data including at least one of blood pressure data, body temperature data, pulse data, and respiratory rate data from a plurality of sensors for sensing biometric information of a patient, Vital sign data collected directly can be visualized in the form of a graph.

다양한 실시예에서, 컴퓨팅 장치(100)는 외부로부터 수집되는 생체 정보 데이터에 대하여 이상치 분석(Outlier analysis)(예: 정형화된 이상치 패턴이 있는 경우, 이상치를 제거, 마할라노비스 거리 등 표준편차를 이용한 필터를 사용하여 노이즈를 제거)을 수행할 수 있고, 후술되는 S120 단계에서 이상치 분석을 통해 노이즈가 제거된 생체 정보 데이터만을 이용하여 생체 정보 이미지를 생성할 수 있다.In various embodiments, the computing device 100 analyzes outliers on biometric information data collected from outside (e.g., when there is a standardized outlier pattern, removes outliers, and uses standard deviations such as Mahalanobis distance). Noise removal using a filter) may be performed, and a biometric information image may be generated using only the biometric information data from which noise has been removed through an outlier analysis in step S120 to be described later.

S120 단계에서, 컴퓨팅 장치(100)는 S110 단계에서 수집한 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다.In step S120, the computing device 100 may generate a biometric information image using the visualized biometric information data collected in step S110.

다양한 실시예에서, 컴퓨팅 장치(100)는 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하고, 생체 정보 이미지를 기 설정된 시간 단위로 분할하여 이미지 분석 모델의 학습을 위한 복수의 단위 생체 정보 이미지를 생성할 수 있다. 이하, 도 4를 참조하여, 컴퓨팅 장치(100)가 수행하는 생체 정보 이미지 생성 방법에 대하여 설명하도록 한다.In various embodiments, the computing device 100 generates a biometric information image using the visualized biometric information data, divides the biometric information image into preset time units, and provides a plurality of unit biometric information images for learning an image analysis model. Can be created. Hereinafter, a method of generating a biometric information image performed by the computing device 100 will be described with reference to FIG. 4.

도 4는 다양한 실시예에서, 이벤트 발생 감지 장치가 생체 정보 데이터를 이미지화하는 구성을 도시한 도면이다.FIG. 4 is a diagram illustrating a configuration in which an event occurrence detection device images biometric information data in various embodiments.

도 4를 참조하면, 다양한 실시예에서, 컴퓨팅(100) 장치는 외부로부터 수집한 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있고, 생체 정보 이미지를 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.Referring to FIG. 4, in various embodiments, the computing 100 device may generate a biometric information image using biometric information data collected from the outside, and generate a plurality of unit biometric information images by dividing the biometric information image. can do.

먼저, 컴퓨팅 장치(100)는 외부로부터 그래프 형태로 시각화된 생체 정보 데이터(예: 바이탈 사인 데이터)를 수집하거나, 외부로부터 스칼라 형태의 생체 정보 데이터를 수집하고 수집한 스칼라 형태의 생체 정보 데이터를 그래프 형태로 시각화하여 시각화된 생체 정보 데이터를 생성할 수 있다.First, the computing device 100 collects biometric information data (eg, vital sign data) visualized in a graph form from the outside, or collects biometric information data in a scalar form from the outside and graphs the collected biometric information data in a scalar form. Visualized biometric data can be created by visualizing it in a form.

다양한 실시예에서 컴퓨팅 장치(100)는 기 설정된 제1 주기(T) 마다 사용자의 생체 정보 데이터를 수집할 수 있다.In various embodiments, the computing device 100 may collect the user's biometric information data every preset first period T.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 센서 각각으로부터 생체 정보 데이터가 감지되는 주기가 서로 상이한 경우, 복수의 센서 각각에 설정된 생체 정보 데이터 감지 주기 중 가장 짧은 주기를 가지는 센서를 기준으로 생체 정보 데이터를 수집할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, when the periods in which the biometric information data is detected from each of the plurality of sensors are different from each other, the computing device 100 may use the sensor having the shortest period among biometric information data detection periods set for each of the plurality of sensors. Information data can be collected. However, it is not limited thereto.

이후, 컴퓨팅 장치(100)는 그래프 형태로 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 실시간으로 수집되는 그래프 형태의 생체 정보 데이터를 기 설정된 제2 주기마다 캡쳐(Capture)하여 생체 정보 이미지를 생성할 수 있다.Thereafter, the computing device 100 may generate a biometric information image using biometric information data visualized in a graph form. For example, the computing device 100 may generate a biometric information image by capturing biometric information data in the form of a graph collected in real time at every preset second period.

여기서, 컴퓨팅 장치(100)는 제2 주기를 제1 주기와 동일하게 설정하거나 제1 주기보다 짧게 설정할 수 있으나, 이에 한정되지 않는다.Here, the computing device 100 may set the second period equal to or shorter than the first period, but is not limited thereto.

이후, 컴퓨팅 장치(100)는 캡쳐하여 생성된 생체 정보 이미지를 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.Then, the computing device 100 may generate a plurality of unit biometric information images by dividing the captured biometric information image.

다양한 실시예에서, 컴퓨팅 장치(100)는 기 설정된 시간 단위를 기준으로 생체 정보 이미지를 분할함으로써, 복수의 단위 생체 정보 이미지를 생성할 수 있다.In various embodiments, the computing device 100 may generate a plurality of unit biometric information images by dividing the biometric information image based on a preset time unit.

다양한 실시예에서, 컴퓨팅 장치(100)는 기 설정된 개수로 생체 정보 이미지를 분할함으로써, 복수의 단위 생체 정보 이미지를 생성할 수 있다.In various embodiments, the computing device 100 may generate a plurality of unit biometric information images by dividing the biometric information images by a preset number.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부 및 이벤트 발생 가능성에 기초하여 복수의 단위 생체 정보 이미지 각각의 시간 단위를 조절하거나, 둘 이상의 단위 생체 정보 이미지를 하나로 결합할 수 있다.In various embodiments, the computing device 100 may adjust a time unit of each of a plurality of unit biometric information images or combine two or more unit biometric information images into one based on whether an event occurs and a possibility of an event.

여기서, 컴퓨팅 장치(100)는 이미지 분석 모델에서 수행되는 이미지 분석의 입력 값으로써, 복수의 단위 생체 정보 이미지를 이용할 수 있으며, 이미지 분석 이후에는 이미지 분석 모델의 학습을 위한 학습 데이터로써 이용할 수 있다. 그러나, 이에 한정되지 않는다.Here, the computing device 100 may use a plurality of unit biometric information images as input values of image analysis performed in the image analysis model, and may be used as training data for learning the image analysis model after image analysis. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 생체 정보 데이터(예: 그래프 형태의 바이탈 사인 데이터)를 이용하여 생체 정보 이미지를 생성하되, 생체 정보 데이터의 종류에 따라 서로 상이한 형태 및 패턴으로 시각화하거나 서로 상이한 색상으로 시각화 하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 생체 정보 데이터가 혈압 데이터인 경우, 최저 혈압 값과 최고 혈압 값을 나타내는 막대 그래프 형태로 시각화할 수 있고, 생체 정보 데이터가 체온 데이터인 경우, 감지 시점의 체온 값을 꺾은 선 그래프 형태로 시각화할 수 있다.In various embodiments, the computing device 100 generates a biometric information image using a plurality of biometric information data (eg, vital sign data in the form of a graph), but visualizes it in different shapes and patterns according to the type of biometric information data. Alternatively, biometric information images can be created by visualizing them in different colors. For example, when the biometric information data is blood pressure data, the computing device 100 may visualize it in the form of a bar graph indicating the minimum blood pressure value and the maximum blood pressure value, and when the biometric information data is body temperature data, the body temperature at the time of detection Values can be visualized in the form of a line graph.

또한, 컴퓨팅 장치(100)는 복수의 생체 정보를 꺾은 선 그래프 형태로 시각화 하되, 혈압 값을 파란색으로 설정하고, 체온 값을 빨간색으로 설정하며, 맥박수 값을 주황색으로 설정할 수 있다.즉, 컴퓨팅 장치(100)는 생체 정보 데이터의 종류별로 상이하게 시각화 하거나 색상의 차이를 둠으로써, 생체 정보 데이터별로 수치의 변화, 패턴의 변화를 확인할 수 있을 뿐만 아니라 각각의 생체 정보 데이터 간의 상관관계를 확인할 수 있으며, 이를 이용하여 이벤트 발생 여부와 이벤트 발생 가능성을 판단하는데 활용할 수 있다.In addition, the computing device 100 may visualize a plurality of biometric information in the form of a broken line graph, but set the blood pressure value to blue, the body temperature value to red, and the pulse rate value to orange. That is, the computing device By visualizing differently for each type of biometric data or by making a difference in color, (100) not only can check the change in numerical values and patterns for each biometric data, but also check the correlation between each biometric data. In this case, it can be used to determine whether an event has occurred and whether an event has occurred.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 생체 정보 데이터(예: 그래프 형태의 바이탈 사인 데이터)를 이용하여 생체 정보 이미지를 생성하되, 각각의 생체 정보 데이터를 개별적으로 이용하여 각각의 생체 정보 데이터에 대응되는 복수의 생체 정보 이미지를 생성할 수 있다.In various embodiments, the computing device 100 generates a biometric information image using a plurality of biometric information data (eg, vital sign data in the form of a graph), but individually uses each biometric information data. A plurality of biometric information images corresponding to the data may be generated.

다시 도 3을 참조하면, S130 단계에서, 컴퓨팅 장치(100)는 S120 단계에서 생성된 생체 정보 이미지에 대하여 이미지 분석을 수행할 수 있다.Referring back to FIG. 3, in step S130, the computing device 100 may perform image analysis on the biometric information image generated in step S120.

다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지 자체를 이미지 분석하거나, 생체 정보 이미지를 분할함으로써 생성된 복수의 단위 생체 정보 이미지 각각에 대하여 이미지 분석할 수 있다.In various embodiments, the computing device 100 may image-analyze the biometric information image itself or perform image analysis on each of a plurality of unit biometric information images generated by dividing the biometric information image.

다양한 실시예에서, 컴퓨팅 장치(100)는 기 학습된 인공지능 모델을 이용하여 생체 정보 이미지를 분석하되, 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류에 따라 인공지능 모델을 선택적으로 이용할 수 있다.In various embodiments, the computing device 100 analyzes the biometric information image using a previously learned artificial intelligence model, but can selectively use the artificial intelligence model according to the type of analysis result to be derived by analyzing the biometric information image. have.

예를 들어, 컴퓨팅 장치(100)는 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류가 이벤트 발생 여부인 경우, 기 학습된 제1 인공지능 모델을 이용하여 생체 신호 이미지 및 복수의 단위 생체 정보 이미지를 이미지 분석할 수 있다. 여기서, 기 학습된 제1 인공지능 모델은 이벤트의 발생 여부가 레이블링(Labeling)된 복수의 생체 신호 이미지를 학습데이터로써 학습한 모델을 의미할 수 있다.For example, when the type of the analysis result to be derived by analyzing the biometric information image is whether or not an event occurs, the computing device 100 uses a previously learned first artificial intelligence model to provide a biosignal image and a plurality of unit biometric information. Images can be image analyzed. Here, the pre-trained first artificial intelligence model may refer to a model in which a plurality of biosignal images labeled as whether or not an event occurs is learned as training data.

다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류가 이벤트 발생 가능성인 경우, 기 학습된 제2 인공지능 모델을 이용하여 생체 신호 이미지 및 복수의 단위 생체 정보 이미지를 이미지 분석할 수 있다. 여기서, 이벤트가 발생된 제1 시점을 기준으로, 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 학습한 모델을 의미할 수 있다.In various embodiments, when the type of the analysis result to be derived by analyzing the biometric information image is an event possibility, the computing device 100 uses a previously learned second artificial intelligence model to determine the biosignal image and a plurality of unit biometrics. Image analysis of information images. Here, it may refer to a model in which the biometric information image at a second point in time before a predetermined time before the first point in time is learned as training data based on a first point in time when an event occurs.

여기서, 제1 인공지능 모델과 제2 인공지능 모델은 서로 다른 학습 데이터(예: 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지)를 이용하여 학습된 모델인 것으로 기재되어 있으나, 이에 한정되지 않고, 하나의 인공지능 모델(예: CNN모델, NN 모델, RNN 모델)이 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지를 모두 학습하여, 하나의 인공지능 모델이 제1 인공지능 모델과 제2 인공지능 모델의 기능을 모두 수행할 수 있다. Here, the first artificial intelligence model and the second artificial intelligence model are models that are trained using different learning data (e.g., a plurality of biosignal images labeled with the occurrence of an event, and biometric information images before the event). Although described, but is not limited to this, one artificial intelligence model (eg, CNN model, NN model, RNN model) learns all of the biosignal images labeled with the occurrence of an event, and biometric information images before the event Thus, one artificial intelligence model can perform both the functions of the first artificial intelligence model and the second artificial intelligence model.

여기서, 제1 인공지능 모델과 제2 인공지능 모델은 서로 다른 학습 데이터(예: 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지)를 이용하여 학습된 모델인 것으로 기재되어 있으나, 이에 한정되지 않고, 하나의 인공지능 모델(예: CNN모델, NN 모델, RNN 모델)이 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지를 모두 학습하여, 하나의 인공지능 모델이 제1 인공지능 모델과 제2 인공지능 모델의 기능을 모두 수행할 수 있다. 이하, 도 5를 참조하여 컴퓨팅 장치(100)가 제1 인공지능 모델과 제2 인공지능 모델을 학습하는 과정을 설명하도록 한다.Here, the first artificial intelligence model and the second artificial intelligence model are models that are trained using different learning data (e.g., a plurality of biosignal images labeled with the occurrence of an event, and biometric information images before the event). Although described, but is not limited to this, one artificial intelligence model (eg, CNN model, NN model, RNN model) learns all of the biosignal images labeled with the occurrence of an event, and biometric information images before the event Thus, one artificial intelligence model can perform both the functions of the first artificial intelligence model and the second artificial intelligence model. Hereinafter, a process of learning the first artificial intelligence model and the second artificial intelligence model by the computing device 100 will be described with reference to FIG. 5.

다양한 실시예에서, 컴퓨팅 장치(100)는 외부로부터 스칼라 형태로 생체 정보 데이터가 수집되는 경우, 스칼라 형태의 생체 정보 데이터를 학습 데이터로써 기 학습된 제3 인공지능 모델을 이용하여 생체 정보 데이터를 분석할 수 있다.In various embodiments, when biometric information data is collected in a scalar form from the outside, the computing device 100 analyzes the biometric information data using a third artificial intelligence model that has previously learned the biometric information data in the scalar form as training data. can do.

다양한 실시예에서, 컴퓨팅 장치(100)는 S120 단계에서 생성된 생체 정보 이미지를 분석하되, 생체 정보 이미지에 포함된 생체 정보 데이터의 시각화 형태 및 색상에 기초하여 해당 생체 정보 데이터의 종류를 판단하고, 판단된 생체 정보 데이터의 종류에 따라 서로 다른 인공지능 모델을 적용하여 이미지를 분석할 수 있다.In various embodiments, the computing device 100 analyzes the biometric information image generated in step S120, but determines the type of the biometric information data based on the visualization form and color of the biometric information data included in the biometric information image, The image can be analyzed by applying different artificial intelligence models according to the determined type of biometric data.

도 5는 다양한 실시예에서, 이벤트 발생 감지 장치가 제1 인공지능 모델 및 제2 인공지능 모델을 학습하는 과정을 도시한 도면이다.FIG. 5 is a diagram illustrating a process of learning a first artificial intelligence model and a second artificial intelligence model by an event detection device according to various embodiments.

다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지 및 복수의 단위 생체 정보 이미지를 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다.In various embodiments, the computing device 100 may train the first artificial intelligence model and the second artificial intelligence model by using the biometric information image and a plurality of unit biometric information images.

먼저, 컴퓨팅 장치(100)는 생체 정보 이미지를 기 설정된 시간 단위로 분할하거나, 기 설정된 개수로 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.First, the computing device 100 may generate a plurality of unit biometric information images by dividing the biometric information image by a preset time unit or by dividing it by a preset number.

이후, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 학습 데이터로써 사용할 단위 생체 정보 이미지를 선택할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 이미지 분석을 통해 이벤트가 발생된 것으로 판단되는 시점을 포함하는 단위 생체 정보 이미지와 이벤트가 발생된 시점을 기준으로 이벤트바 발생된 시점 이전의 단위 생체 정보 이미지를 학습 데이터로써 선택할 수 있다.Thereafter, the computing device 100 may select a unit biometric information image to be used as learning data from among the plurality of unit biometric information images. For example, the computing device 100 includes a unit biometric information image including a time point at which an event is determined to have occurred through image analysis among a plurality of unit biometric information images and a time point at which the event bar is generated based on the time point at which the event occurs The previous unit biometric information image can be selected as training data.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 사용자 단말(200)로 제공할 수 있으며, UI를 통해 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받을 수 있다.In various embodiments, the computing device 100 may provide a UI for selecting a biometric information image related to an event from among a plurality of unit biometric information images to the user terminal 200. An image of biometric information related to an event can be selected.

이후, 컴퓨팅 장치(100)는 학습 데이터로써 선택한 단위 생체 정보 이미지에 대하여 레이블링을 수행할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 학습 데이터로써 선택한 단위 생체 정보 이미지 각각의 정답을 레이블링(예: 이벤트가 발생된 시점을 포함하는 단위 생체 정보 이미지를 class 1로 레이블링하고, 이벤트 발생과 관련 없는 단위 생체 정보 이미지를 class 0으로 레이블링)할 수 있다.Thereafter, the computing device 100 may label the selected unit biometric information image as the training data. For example, the computing device 100 labels the correct answer of each of the selected unit biometric information images as learning data (eg, labels the unit biometric information image including the time when the event occurs as class 1, and is not related to the occurrence of the event). The unit biometric information image can be labeled as class 0).

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 통해 사용자로부터 이벤트와 관련된 생체 정보 이미지에 대한 레이블링을 직접 입력받을 수 있다. 예를 들어, 컴퓨팅 장치(100)는 전문의의 단말로 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 제공할 수 있으며, 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받음과 동시에 선택받은 생체 정보 이미지의 레이블링 정보를 함께 입력받을 수 있다.In various embodiments, the computing device 100 may directly receive labeling for an event-related biometric information image from a user through a UI through which an event-related biometric information image is selected. For example, the computing device 100 may provide a UI through which a biometric information image related to an event is selected by a terminal of a specialist, and the biometric information image related to the event is selected from among a plurality of unit biometric information images. Labeling information of the biometric information image may be input together.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트가 발생된 시점을 포함하는 단위 생체 정보 이미지에 대하여 이벤트의 발생 원인과 이벤트의 종류에 따라 서로 다르게 레이블링을 할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may label the unit biometric information image including the time point at which the event occurs differently according to the cause of the event and the type of the event. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 사용자의 생체 정보 이미지에 기초하여 이벤트가 발생되는 것으로 판단된 경우, 이벤트가 발생된 시점으로부터 소정의 시간 이전의 생체 정보 이미지들에 대하여 자동적으로 레이블링을 수행할 수 있다. 이때, 컴퓨팅 장치(100)는 이벤트 발생 시점으로부터 몇시간 이전의 생체 정보인지를 가리키는 정보도 함께 레이블링할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 이벤트 발생 시점으로부터 6시간 전, 12시간 전, 24시간 전의 생체 정보 이미지를 서로 다른 클래스로 레이블링할 수 있다.In various embodiments, when it is determined that an event occurs based on the user's biometric information image, the computing device 100 automatically labels biometric information images before a predetermined time from the time when the event occurs. can do. In this case, the computing device 100 may also label information indicating how many hours before the event occurs biometric information. For example, the computing device 100 may label biometric information images 6 hours ago, 12 hours ago, and 24 hours before the event occurrence time in different classes.

이후, 컴퓨팅 장치(100)는 레이블링된 단위 생체 정보 이미지를 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 지도학습(Supervised Learning) 시킬 수 있다. 예를 들어, 컴퓨팅 장치(100)를 레이블링 결과에 따라 획득된 학습 데이터(이벤트와 관련된 생체 정보 이미지)를 이용하여 지도학습 함으로써, 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다. 그러나, 이에 한정되지 않고, 생체 정보 이미지를 이용하여 인공지능 모델을 학습시키는 다양한 방법이 적용될 수 있다.Thereafter, the computing device 100 may perform supervised learning of the first artificial intelligence model and the second artificial intelligence model by using the labeled unit biometric information image. For example, a first artificial intelligence model and a second artificial intelligence model may be trained by supervising the computing device 100 using learning data (biometric information image related to an event) acquired according to a labeling result. However, the present invention is not limited thereto, and various methods of learning an artificial intelligence model using biometric information images may be applied.

다시 도 3을 참조하면, S140 단계에서, 컴퓨팅 장치(100)는 S130 단계에서 수행한 이미지 분석을 통해 도출된 분석 결과를 이용하여 이벤트 발생을 감지할 수 있다. 이하, 도 6을 참조하여, 컴퓨팅 장치(100)가 수행하는 이벤트 발생 감지 방법에 대하여 설명하도록 한다.Referring back to FIG. 3, in step S140, the computing device 100 may detect the occurrence of an event using an analysis result derived through image analysis performed in step S130. Hereinafter, a method of detecting occurrence of an event performed by the computing device 100 will be described with reference to FIG. 6.

도 6은 다양한 실시예에서, 인공지능 모델을 이용하여 이벤트 발생 감지 방법의 순서도이다.6 is a flowchart of a method of detecting occurrence of an event using an artificial intelligence model in various embodiments.

도 6을 참조하면, S210 단계에서, 컴퓨팅 장치(100)는 S130 단계에서 수행한 이미지 분석을 통해 도출된 분석 결과를 이용하여 이벤트 발생 여부를 판단할 수 있다. Referring to FIG. 6, in step S210, the computing device 100 may determine whether an event occurs using an analysis result derived through image analysis performed in step S130.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부를 판단하고자 하는 생체 정보 이미지를 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지를 학습데이터로써 기 학습한 제1 인공지능 모델에 입력하고, 제1 인공지능 모델을 이용하여 도출된 분석 결과에 기초하여 이벤트의 발생 여부를 판단할 수 있다.In various embodiments, the computing device 100 inputs a biometric information image for determining whether an event occurs, into a pre-learned first artificial intelligence model, a plurality of biosignal images labeled with the occurrence of an event, and It is possible to determine whether an event occurs based on the analysis result derived using the first artificial intelligence model.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부를 판단하고자 하는 생체 정보 이미지와 이벤트가 발생된 경우에 감지되는 생체 정보 이미지를 비교함으로써, 이벤트 발생 여부를 판단할 수 있다.In various embodiments, the computing device 100 may determine whether an event has occurred by comparing a biometric information image for determining whether an event has occurred with a biometric information image detected when the event has occurred.

S220 단계에서, 컴퓨팅 장치(100)는 S210 단계를 거쳐 이벤트가 발생된 것으로 판단되는 경우, 이벤트가 발생된 원인을 판단할 수 있다.In step S220, if it is determined that the event has occurred through step S210, the computing device 100 may determine the cause of the event.

다양한 실시예에서, 컴퓨팅 장치(100)는 제1 인공지능 모델을 이용하여 이벤트가 발생된 원인을 판단할 수 있다. In various embodiments, the computing device 100 may determine the cause of the event using the first artificial intelligence model.

예를 들어, 컴퓨팅 장치(100)는 제1 인공지능 모델을 통해 도출된 분석 결과에 따라 이벤트가 발생된 것으로 판단되는 것에 응답하여, 복수의 단위 생체 정보 이미지 각각을 분석한 분석 결과로부터 생체 정보 이미지의 이미지 패턴을 검출할 수 있다.For example, in response to determining that an event has occurred according to the analysis result derived through the first artificial intelligence model, the computing device 100 may analyze the biometric information image from the analysis result obtained by analyzing each of the plurality of unit biometric information images. The image pattern of can be detected.

이후, 컴퓨팅 장치(100)는 검출된 이미지 패턴을 이용하여 발생된 이벤트의 종류 및 원인을 판단할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 검출된 이미지 패턴이 제1 패턴을 가지는 경우, 발생된 이벤트가 저혈량성 쇼크인 것으로 판단할 수 있고, 제2 패턴을 가지는 경우, 발생된 이벤트가 심인성 쇼크인 것으로 판단할 수 있다. 그러나, 이에 한정되지 않는다.Thereafter, the computing device 100 may determine the type and cause of the generated event using the detected image pattern. For example, when the detected image pattern has a first pattern, the computing device 100 may determine that the generated event is a hypovolemic shock, and when it has a second pattern, the generated event is a psychogenic shock. It can be determined to be. However, it is not limited thereto.

S230 단계에서, 컴퓨팅 장치(100)는 S210 단계를 거쳐 이벤트가 발생되지 않은 것으로 판단되는 경우, 이벤트 발생 가능성을 판단할 수 있다.In step S230, when it is determined that the event has not occurred through step S210, the computing device 100 may determine the possibility of occurrence of the event.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 가능성을 판단하고자 하는 생체 정보 이미지를 이벤트가 발생된 제1 시점을 기준으로, 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 기 학습한 제2 인공지능 모델에 입력하고, 제2 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 이벤트의 발생 가능성을 판단할 수 있다. 여기서, S210 단계 내지 S230 단계는 도 3의 S140 단계에 대응될 수 있다.In various embodiments, the computing device 100 uses a biometric information image for determining the possibility of occurrence of an event, based on a first time point at which the event occurs, and a biometric information image at a second time point before the first time point. As training data, the possibility of occurrence of an event may be determined based on an analysis result analyzed using the second artificial intelligence model and inputting it into the previously learned second artificial intelligence model. Here, steps S210 to S230 may correspond to steps S140 of FIG. 3.

다양한 실시예에서, 컴퓨팅 장치(100)는 사용자의 생체 정보 이미지를 분석함으로써 이벤트 발생 가능성을 판단하되, 판단된 이벤트 발생 가능성이 기준 값 이상인 경우, 이벤트 발생 위험군으로 분류할 수 있다. 이후, 컴퓨팅 장치(100)는 이벤트 발생 위험군으로 분류된 사용자에 대하여 생체 정보 데이터 수집 및 생체 정보 이미지를 생성하는 주기를 짧게 설정함으로써, 보다 빈번하게 사용자의 상태를 모니터링할 수 있다.In various embodiments, the computing device 100 determines the probability of occurrence of an event by analyzing the user's biometric information image, but when the determined probability of occurrence of an event is greater than or equal to a reference value, the computing device 100 may classify it into an event occurrence risk group. Thereafter, the computing device 100 may monitor the user's state more frequently by setting a shorter period of collecting biometric information data and generating biometric information images for the user classified as an event risk group.

다양한 실시예에서, 컴퓨팅 장치(100)는 위험군으로 분류된 사용자에 대한 생체 정보 이미지와 해당 사용자의 실제 이벤트 발생 여부를 학습 데이터로 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다. 이를 통해, 컴퓨팅 장치(100)는 인공지능 모델을 이용하여 이벤트 발생 가능성에 따른 실제 이벤트 발생 여부를 판단할 수 있다.In various embodiments, the computing device 100 may train the first artificial intelligence model and the second artificial intelligence model by using the biometric information image of a user classified as a risk group and whether an actual event of the corresponding user occurs as learning data. have. Through this, the computing device 100 may determine whether an actual event occurs according to the likelihood of occurrence of the event using the artificial intelligence model.

다양한 실시예에서, 컴퓨팅 장치(100)는 사용자와 관련된 정보, 사용자의 생체 정보 데이터 및 사용자에 대한 이벤트 발생 여부를 시각화하여 하나의 화면으로 구성하여 출력하는 사용자 인터페이스(User interface, UI)를 제공할 수 있다. 이를 통해, 컴퓨팅 장치(100)는 환자에 대한 정보와 상태 정보를 한눈에 볼 수 있는 대시보드를 제공함으로써, 환자의 상태를 모니터링하는 사용자가 보다 용이하게 환자의 상태를 모니터링하고, 이벤트 발생에 따라 빠르게 대처할 수 있도록 유도할 수 있다.In various embodiments, the computing device 100 may provide a user interface (UI) that visualizes user-related information, user's biometric information data, and whether an event has occurred for the user, and configures and outputs a single screen. I can. Through this, the computing device 100 provides a dashboard for viewing patient information and status information at a glance, so that a user who monitors the patient's condition can more easily monitor the patient's condition, and You can induce them to respond quickly.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트가 발생되는 경우, UI를 통해 이벤트 발생 여부와 발생된 이벤트와 관련된 정보를 안내하는 안내 메시지 및 경고 신호를 출력할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 생체 정보 이미지에 대한 이미지 분석을 통해 이벤트가 발생된 것으로 판단되는 경우, UI를 통해 이벤트와 관련된 정보를 안내하는 안내 메시지와 음성 형태의 경고 신호를 함께 출력함으로써, 환자의 상태를 실시간으로 모니터링하는 사용자가 이벤트 발생 여부를 빠르게 인지할 수 있도록 할 수 있다.In various embodiments, when an event occurs, the computing device 100 may output a guide message and a warning signal for guiding whether the event occurs and information related to the generated event through the UI. For example, when it is determined that an event has occurred through image analysis of the biometric information image, the computing device 100 outputs a guide message for guiding information related to the event and a warning signal in the form of a voice through the UI. , It is possible to enable a user who monitors the patient's condition in real time to quickly recognize whether an event has occurred.

다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지를 통해 판단된 이벤트의 종류에 기초하여, 경고 신호가 출력되는 형태를 설정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 이벤트의 종류에 따라 출력되는 음성 데이터의 종류를 설정(예: 이벤트가 저혈량성 쇼크인 경우 제1 음성 데이터를 출력하고, 심인성 쇼크인 경우 제2 음성 데이터를 출력)하거나, 음성 데이터의 출력 시간을 설정할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may set a form in which a warning signal is output based on the type of an event determined through the biometric information image. For example, the computing device 100 sets the type of voice data to be output according to the type of event (e.g., when the event is hypovolemic shock, outputs first voice data, and in case of psychogenic shock, second voice data) Output) or set the output time of audio data. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 사용자에 대한 정보와 복수의 사용자 각각에 대한 생체 정보 및 이벤트와 관련된 정보를 출력하는 UI를 제공할 수 있으며, UI를 통해 특정 사용자에 대한 정보 요청이 입력되는 경우, 특정 사용자에 대한 정보와 특정 사용자에 대한 생체 정보 및 이벤트와 관련된 정보만을 하나의 화면으로 구성하여 UI를 통해 출력할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 특정 사용자에 대한 정보와 특정 사용자에 대한 생체 정보 및 이벤트와 관련된 정보만을 하나의 화면으로 구성하여 팝업창 형태로 출력할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may provide a UI that outputs information about a plurality of users, biometric information about each of the plurality of users, and information related to an event, and requests information for a specific user through the UI. When this is input, only information about a specific user, biometric information about a specific user, and information related to an event may be configured as a single screen and output through the UI. For example, the computing device 100 may configure only information on a specific user, biometric information on a specific user, and information related to an event as a single screen and output in the form of a pop-up window. However, it is not limited thereto.

전술한 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은 도면에 도시된 순서도를 참조하여 설명하였다. 간단한 설명을 위해 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은 일련의 블록들로 도시하여 설명하였으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 본 명세서에 도시되고 시술된 것과 상이한 순서로 수행되거나 또는 동시에 수행될 수 있다. 또한, 본 명세서 및 도면에 기재되지 않은 새로운 블록이 추가되거나, 일부 블록이 삭제 또는 변경된 상태로 수행될 수 있다.The above-described method of detecting event occurrence through image analysis based on artificial intelligence has been described with reference to the flowchart shown in the drawings. For the sake of simplicity, the method of detecting event occurrence through image analysis based on artificial intelligence has been described as a series of blocks, but the present invention is not limited to the order of the blocks, and some blocks are shown and described in this specification. It may be performed in a different order or may be performed simultaneously. In addition, a new block not described in the specification and drawings may be added, or some blocks may be deleted or changed.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

100 : 이벤트 발생 감지 장치(컴퓨팅 장치)
200 : 사용자 단말
300 : 외부 서버
400 : 네트워크
100: event occurrence detection device (computing device)
200: user terminal
300: external server
400: network

Claims (10)

컴퓨팅 장치에 의해 수행되는 방법에 있어서,
사용자의 생체 정보를 그래프 형태로 시각화하여 출력하는 생체 정보 출력 장치로부터 상기 그래프 형태로 시각화된 생체 정보 데이터를 수집하는 단계;
상기 그래프 형태로 시각화된 생체 정보 데이터를 기 설정된 주기마다 캡쳐(Capture)하여 생체 정보 이미지를 생성하는 단계;
상기 생체 정보 이미지를 분석하는 단계; 및
상기 생체 정보 이미지의 분석 결과에 따라 검출된 이미지 패턴에 기초하여 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하며,
상기 이벤트 발생을 감지하는 단계는,
상기 이벤트가 발생된 제1 시점을 기준으로, 상기 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 기 학습한 제2 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 상기 사용자에 대한 이벤트 발생 가능성을 판단하는 단계를 포함하고,
상기 생체 정보 이미지를 생성하는 단계는,
상기 이벤트 발생 가능성이 기준 값 이상인 경우, 상기 사용자를 이벤트 발생 위험군으로 분류하고 상기 그래프 형태로 시각화된 생체 정보 데이터를 캡쳐하는 주기가 짧아지도록 조절하는 단계를 포함하며,
상기 이벤트 발생을 감지하는 단계는,
상기 이벤트 발생 위험군으로 분류된 사용자의 생체 정보 이미지와 상기 사용자의 실제 이벤트 발생 여부를 학습 데이터로 하여 상기 제2 인공지능 모델을 학습시키고, 상기 학습된 제2 인공지능 모델을 이용하여 복수의 사용자 각각의 이벤트 발생 가능성에 따른 실제 이벤트 발생 여부를 판단하는 단계를 더 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
In the method performed by the computing device,
Collecting biometric information data visualized in the graph form from a biometric information output device that visualizes and outputs the user's biometric information in a graph form;
Generating a biometric information image by capturing the biometric information data visualized in the form of a graph at every preset period;
Analyzing the biometric information image; And
And detecting occurrence of an event for the user based on an image pattern detected according to an analysis result of the biometric information image,
The step of detecting the occurrence of the event,
Based on the first time point at which the event occurs, the biometric information image at a second time point before a predetermined time before the first time point is analyzed using a second artificial intelligence model previously learned as training data. Including the step of determining the possibility of occurrence of an event for the user based on
The step of generating the biometric information image,
When the likelihood of occurrence of the event is greater than or equal to a reference value, classifying the user into an event occurrence risk group and adjusting a period of capturing the biometric information data visualized in the graph form to be shortened,
The step of detecting the occurrence of the event,
The second artificial intelligence model is trained by using the biometric information image of the user classified into the event occurrence risk group and whether the user actually occurs as learning data, and each of a plurality of users using the learned second artificial intelligence model Further comprising the step of determining whether an actual event occurs according to the possibility of occurrence of
A method of detecting event occurrence through image analysis based on artificial intelligence.
삭제delete 제1항에 있어서,
상기 생체 정보 이미지를 분석하는 단계는,
상기 생체 정보 이미지를 기 설정된 시간 단위로 분할하여 복수의 단위 생체 정보 이미지를 생성하는 단계; 및
이미지 분석 모델을 이용하여 상기 복수의 단위 생체 정보 이미지 각각에 대한 이미지 분석을 수행하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
Analyzing the biometric information image,
Dividing the biometric information image into a predetermined time unit to generate a plurality of unit biometric information images; And
Comprising the step of performing image analysis for each of the plurality of unit biometric information images using an image analysis model,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제3항에 있어서,
상기 이벤트 발생을 감지하는 단계는,
상기 분석 결과에 따라 상기 이벤트가 발생된 것으로 판단되는 것에 응답하여, 상기 복수의 단위 생체 정보 이미지 각각을 분석한 분석 결과로부터 상기 생체 정보 이미지의 이미지 패턴을 검출하는 단계; 및
상기 검출된 이미지 패턴을 이용하여 상기 발생된 이벤트의 종류 및 원인을 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 3,
The step of detecting the occurrence of the event,
In response to determining that the event has occurred according to the analysis result, detecting an image pattern of the biometric information image from an analysis result of analyzing each of the plurality of unit biometric information images; And
Including the step of determining the type and cause of the generated event using the detected image pattern,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제1항에 있어서,
상기 생체 정보 이미지를 분석하는 단계는,
상기 이벤트의 발생 여부가 레이블링(Labeling)된 복수의 생체 신호 이미지를 학습데이터로써 기 학습한 제1 인공지능 모델을 이용하여 상기 생체 신호 이미지를 분석하는 단계를 포함하며,
상기 이벤트 발생을 감지하는 단계는,
상기 제1 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 상기 이벤트의 발생 여부와 발생 원인을 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
Analyzing the biometric information image,
Analyzing the biosignal image using a first artificial intelligence model that has previously learned a plurality of biosignal images labeled as whether or not the event has occurred, as learning data,
The step of detecting the occurrence of the event,
Comprising the step of determining whether or not the event occurs and a cause of occurrence based on the analysis result analyzed using the first artificial intelligence model,
A method of detecting event occurrence through image analysis based on artificial intelligence.
삭제delete 제1항에 있어서,
상기 사용자와 관련된 정보, 상기 사용자의 생체 정보 데이터 및 상기 사용자에 대한 이벤트 발생 여부를 시각화하여 하나의 화면으로 구성하여 출력하는 사용자 인터페이스(User interface, UI)를 제공하는 단계를 더 포함하며,
상기 UI를 제공하는 단계는,
상기 이벤트가 발생되는 경우, 상기 UI를 통해 상기 이벤트 발생 여부와 상기 발생된 이벤트와 관련된 정보를 안내하는 안내 메시지 및 경고 신호를 출력하는 단계를 더 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
The step of providing a user interface (UI) for visualizing the user-related information, the user's biometric information data, and whether an event for the user has occurred, and configuring and outputting a single screen,
Providing the UI,
When the event occurs, further comprising the step of outputting a guide message and a warning signal for guiding whether the event has occurred and information related to the generated event through the UI,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제1항에 있어서,
상기 그래프 형태로 시각화된 생체 정보 데이터를 수집하는 단계는,
상기 사용자의 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인(Vital sign) 데이터를 시각화하여 출력하는 상기 생체 정보 출력 장치로부터 시각화된 바이탈 사인 데이터를 수집하는 단계를 포함하며,
상기 이벤트 발생을 감지하는 단계는,
상기 시각화된 바이탈 사인 데이터를 분석하여 사용자에 대한 저혈량성 쇼크, 심인성 쇼크, 폐쇄성 쇼크 및 분배성 쇼크 중 어느 하나 이상의 발생 여부를 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
Collecting the biometric information data visualized in the form of a graph,
Collecting visualized vital sign data from the biometric information output device for visualizing and outputting vital sign data including at least one of the user's blood pressure data, body temperature data, pulse data, and respiratory rate data Including,
The step of detecting the occurrence of the event,
Analyzing the visualized vital sign data to determine whether or not any one or more of hypovolemic shock, psychogenic shock, obstructive shock, and distributive shock to the user occurs,
A method of detecting event occurrence through image analysis based on artificial intelligence.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.
A memory for storing one or more instructions; And
And a processor that executes the one or more instructions stored in the memory,
The processor executes the one or more instructions,
An apparatus for performing the method of claim 1.
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program combined with a computer as hardware and stored in a recording medium readable by a computer to perform the method of claim 1.
KR1020190171436A 2019-12-20 2019-12-20 Method, apparatus and computer program for detecting medical event generation using image analysis based on artificial intelligence KR102186486B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020190171436A KR102186486B1 (en) 2019-12-20 2019-12-20 Method, apparatus and computer program for detecting medical event generation using image analysis based on artificial intelligence
KR1020200162421A KR20210080208A (en) 2019-12-20 2020-11-27 Method, apparatus and computer program for detecting event generation using image analysis based on artificial intelligence
KR1020210170175A KR102531993B1 (en) 2019-12-20 2021-12-01 Method for analyzing biometric image through image analysis model and method for predicting shock occurrence using the same
KR1020210170174A KR102494310B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for determining the possibility of shock occurrence through the analysis of visualized vital sign data
KR1020210170172A KR102494308B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for predicting shock occurrence using image analysis model based on artificial intelligence
KR1020210170173A KR102494309B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for detecting shock occurrence through biometric image analysis of artificial intelligence model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190171436A KR102186486B1 (en) 2019-12-20 2019-12-20 Method, apparatus and computer program for detecting medical event generation using image analysis based on artificial intelligence

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200162421A Division KR20210080208A (en) 2019-12-20 2020-11-27 Method, apparatus and computer program for detecting event generation using image analysis based on artificial intelligence

Publications (1)

Publication Number Publication Date
KR102186486B1 true KR102186486B1 (en) 2020-12-03

Family

ID=73779541

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020190171436A KR102186486B1 (en) 2019-12-20 2019-12-20 Method, apparatus and computer program for detecting medical event generation using image analysis based on artificial intelligence
KR1020200162421A KR20210080208A (en) 2019-12-20 2020-11-27 Method, apparatus and computer program for detecting event generation using image analysis based on artificial intelligence
KR1020210170175A KR102531993B1 (en) 2019-12-20 2021-12-01 Method for analyzing biometric image through image analysis model and method for predicting shock occurrence using the same
KR1020210170174A KR102494310B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for determining the possibility of shock occurrence through the analysis of visualized vital sign data
KR1020210170173A KR102494309B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for detecting shock occurrence through biometric image analysis of artificial intelligence model
KR1020210170172A KR102494308B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for predicting shock occurrence using image analysis model based on artificial intelligence

Family Applications After (5)

Application Number Title Priority Date Filing Date
KR1020200162421A KR20210080208A (en) 2019-12-20 2020-11-27 Method, apparatus and computer program for detecting event generation using image analysis based on artificial intelligence
KR1020210170175A KR102531993B1 (en) 2019-12-20 2021-12-01 Method for analyzing biometric image through image analysis model and method for predicting shock occurrence using the same
KR1020210170174A KR102494310B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for determining the possibility of shock occurrence through the analysis of visualized vital sign data
KR1020210170173A KR102494309B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for detecting shock occurrence through biometric image analysis of artificial intelligence model
KR1020210170172A KR102494308B1 (en) 2019-12-20 2021-12-01 Method, apparatus and computer program for predicting shock occurrence using image analysis model based on artificial intelligence

Country Status (1)

Country Link
KR (6) KR102186486B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210149016A (en) * 2019-12-20 2021-12-08 주식회사 슈파스 Method, apparatus and computer program for predicting shock occurrence using image analysis model based on artificial intelligence

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230064391A (en) * 2021-11-03 2023-05-10 홍석우 System for providing biosignal visualization service using pan cancer diagnostic kit employing glucose metabolism-related gene microarray chip
KR20240116213A (en) 2023-01-20 2024-07-29 사회복지법인 삼성생명공익재단 Method and apparatus for analyzing risk of mortality in patients with cardiogenic shock

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101070389B1 (en) 2010-12-30 2011-10-06 김용중 System for monitoring patient condition
KR20180079208A (en) * 2016-12-30 2018-07-10 서울대학교산학협력단 Apparatus and method for predicting disease risk of metabolic disease
JP2019097830A (en) * 2017-11-30 2019-06-24 パラマウントベッド株式会社 Abnormality determination device, program
JP2019097828A (en) * 2017-11-30 2019-06-24 パラマウントベッド株式会社 Abnormality notification device, program and abnormality notification method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102186486B1 (en) * 2019-12-20 2020-12-03 주식회사 슈파스 Method, apparatus and computer program for detecting medical event generation using image analysis based on artificial intelligence

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101070389B1 (en) 2010-12-30 2011-10-06 김용중 System for monitoring patient condition
KR20180079208A (en) * 2016-12-30 2018-07-10 서울대학교산학협력단 Apparatus and method for predicting disease risk of metabolic disease
JP2019097830A (en) * 2017-11-30 2019-06-24 パラマウントベッド株式会社 Abnormality determination device, program
JP2019097828A (en) * 2017-11-30 2019-06-24 パラマウントベッド株式会社 Abnormality notification device, program and abnormality notification method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210149016A (en) * 2019-12-20 2021-12-08 주식회사 슈파스 Method, apparatus and computer program for predicting shock occurrence using image analysis model based on artificial intelligence
KR20210150340A (en) * 2019-12-20 2021-12-10 주식회사 슈파스 Method, apparatus and computer program for determining the possibility of shock occurrence through the analysis of visualized vital sign data
KR20210151742A (en) * 2019-12-20 2021-12-14 주식회사 슈파스 Method, apparatus and computer program for detecting shock occurrence through biometric image analysis of artificial intelligence model
KR102494309B1 (en) * 2019-12-20 2023-02-07 주식회사 슈파스 Method, apparatus and computer program for detecting shock occurrence through biometric image analysis of artificial intelligence model
KR102494310B1 (en) * 2019-12-20 2023-02-07 주식회사 슈파스 Method, apparatus and computer program for determining the possibility of shock occurrence through the analysis of visualized vital sign data
KR102494308B1 (en) * 2019-12-20 2023-02-07 주식회사 슈파스 Method, apparatus and computer program for predicting shock occurrence using image analysis model based on artificial intelligence

Also Published As

Publication number Publication date
KR102494309B1 (en) 2023-02-07
KR102531993B1 (en) 2023-05-15
KR20210150340A (en) 2021-12-10
KR102494310B1 (en) 2023-02-07
KR20210080208A (en) 2021-06-30
KR102494308B1 (en) 2023-02-07
KR20210151742A (en) 2021-12-14
KR20210151743A (en) 2021-12-14
KR20210149016A (en) 2021-12-08

Similar Documents

Publication Publication Date Title
CN111863236B (en) Medical machine composition data and corresponding event generation
AU2022201530B2 (en) Apparatus, systems and methods for predicting, screening and monitoring of encephalopathy/delirium
KR102494308B1 (en) Method, apparatus and computer program for predicting shock occurrence using image analysis model based on artificial intelligence
CN107595243B (en) Disease evaluation method and terminal equipment
WO2020121308A9 (en) Systems and methods for diagnosing a stroke condition
EP3769312A1 (en) Systems and methods for personalized medication therapy management
KR20070009478A (en) 3d anatomical visualization of physiological signals for online monitoring
KR102151497B1 (en) Method, System and Computer-Readable Medium for Prescreening Brain Disorders of a User
CN113168916A (en) Patient monitoring system and method with severity prediction and visualization of medical conditions
US20230079951A1 (en) System for configuring patient monitoring
CA2866969C (en) Method and system for determining hrv and rrv and use to identify potential condition onset
Buza et al. Process: projection-based classification of electroencephalograph signals
KR20210050424A (en) Deep learning computer vision-based emergency patient shock signs discovery system
US20160228067A1 (en) System and method for intelligent monitoring of patient vital signs
Hugueny et al. Novelty detection with extreme value theory in vital-sign monitoring
US20240172990A1 (en) Prepartum and postpartum monitoring and related recommended medical treatments
JP2019504404A (en) Behavioral learning clinical support
TWI809612B (en) Fall Assessment Risk Warning System
US20220189181A1 (en) Determining a relative cognitive capability of a subject
Shehab et al. Developing an AI Model That Relies on Mobile Health Devices to Track Heart Activity
Khan et al. Explainable fuzzy deep learning for prediction of epileptic seizures using EEG
UWAMARIYA IoT-Based remote health monitoring system for infected people
EP3624135A1 (en) Triggering an alert for a subject
JP2022123802A (en) Detection of health-related initial symptom by using digital biomarker and ai

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
A107 Divisional application of patent
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]