KR20210050424A - Deep learning computer vision-based emergency patient shock signs discovery system - Google Patents

Deep learning computer vision-based emergency patient shock signs discovery system Download PDF

Info

Publication number
KR20210050424A
KR20210050424A KR1020200053048A KR20200053048A KR20210050424A KR 20210050424 A KR20210050424 A KR 20210050424A KR 1020200053048 A KR1020200053048 A KR 1020200053048A KR 20200053048 A KR20200053048 A KR 20200053048A KR 20210050424 A KR20210050424 A KR 20210050424A
Authority
KR
South Korea
Prior art keywords
biometric information
event
image
data
artificial intelligence
Prior art date
Application number
KR1020200053048A
Other languages
Korean (ko)
Inventor
김용환
Original Assignee
주식회사 슈파스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 슈파스 filed Critical 주식회사 슈파스
Publication of KR20210050424A publication Critical patent/KR20210050424A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • A61B5/747Arrangements for interactive communication between patient and care services, e.g. by using a telephone network in case of emergency, i.e. alerting emergency services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Fuzzy Systems (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Business, Economics & Management (AREA)
  • Critical Care (AREA)
  • Emergency Management (AREA)
  • Emergency Medicine (AREA)
  • Nursing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Disclosed are a method, a device, and a computer program for detecting event occurrence through image analysis based on artificial intelligence. According to various embodiments of the present invention, in the method performed by a computing device, the method for detecting event occurrence through image analysis based on artificial intelligence comprises the steps of: collecting visualized biometric information data; using the visualized biometric information data to generate a biometric information image; analyzing the biometric information image; and detecting event occurrence for a user in accordance with an analysis result of the biometric information image.

Description

딥러닝 컴퓨터 비전 기반 응급환자 쇼크 징후 발견 시스템 {DEEP LEARNING COMPUTER VISION-BASED EMERGENCY PATIENT SHOCK SIGNS DISCOVERY SYSTEM}Deep Learning Computer Vision-based Emergency Patient Shock Signs Discovery System {DEEP LEARNING COMPUTER VISION-BASED EMERGENCY PATIENT SHOCK SIGNS DISCOVERY SYSTEM}

본 발명의 다양한 실시예는 딥러닝 컴퓨터 비전 기반 응급환자 쇼크 징후 발견 시스템에 관한 것이다. Various embodiments of the present invention relate to a deep learning computer vision-based emergency patient shock symptom detection system.

중환자실은 환자의 생존, 사망에 큰 영향을 미치며, 국내 의료비의 25%를 차지하는 중요한 보건의료체에도 중환자 전담 의료인의 부족, 병원/지역 간 질 편차, 환자 이송 중 높은 사망률 등 진료의 질과 효율성 측면에서 매우 낙후된 상황이다.The intensive care unit has a great influence on the survival and death of patients, and the quality and efficiency of treatment, such as the lack of dedicated intensive care personnel, hospital/regional interdifferentiation, and high mortality during patient transfer, even in important health care institutions that account for 25% of domestic medical expenses. It is a very lagging situation in.

2018년 5월 22일 한국일보 기사에 의하면, 건강보험심사평가원이 지난 2016년 발표한 ‘2014년(1차)중환자실 적정성 평가결과’에 따르면, 우리나라 중환자실 전담전문의 1인당 중환자실 평균 병상수는 무려 44.7병상에 달하고, 상급종합 병원은 40.4병상, 종합병원은 48.9병상이다. 이와 같이 전담전문의의 1인당 평균 병상수가 높다보니 중환자실에 입원한 환자가 전문의 얼굴조차 보기 힘들다는 문제가 있다.According to an article in the Hankook Ilbo on May 22, 2018, according to the '2014 (1st) intensive care unit adequacy evaluation result' released by the Health Insurance Review and Assessment Service in 2016, average beds in the intensive care unit per person dedicated to the intensive care unit in Korea The number of hospitals is as high as 44.7 beds, 40.4 beds in a general hospital and 48.9 beds in a general hospital. As the average number of beds per person of a dedicated specialist is high, there is a problem that it is difficult for patients admitted to the intensive care unit to even see a specialist's face.

이렇다 보니 패혈증 등을 조기에 발견하지 못해 사망하는 일도 잇따르는 현실이고 심평원 조사에 따르면 우리나라 중환자실에 입원한 성인 환자 평균 사망률은 16.9%로 상급병원은 14.3%, 종합병원은 17.4%에 달한다.As such, deaths due to not being able to detect sepsis at an early stage are also a successive reality, and according to the Simpyeongwon survey, the average mortality rate of adult patients admitted to the intensive care unit in Korea is 16.9%, 14.3% for senior hospitals and 17.4% for general hospitals.

중환자실은 생명 유지를 위한 필수 기능인 호흡과 심장 박동 등에 매우 큰 문제를 가지고 있는 환자들을 위한 곳이고, 24시간 주7일 365일 집중적인 치료를 받는 곳이며, 언제든 달라질 수 있는 집중 돌봄 환자들의 상태 변화를 놓치지 않기 위해서는 환자들의 생체 데이터를 실시간으로 측정, 분석해야 한다.The intensive care unit is for patients with very big problems such as breathing and heartbeat, which are essential functions for life maintenance, and is a place where intensive care is received 24 hours a day, 7 days a week, and changes in the state of intensive care patients that can change at any time. In order not to miss, the patient's biometric data must be measured and analyzed in real time.

그러나, 각 의료기기들에서 생성되는 데이터는 종류도 많고 형식도 다양하고 생성되는 데이터의 양도 방대하여, 대규모의 복잡한 데이터 속에서 가치 있는 정보를 추출하기 어렵다는 문제가 있다.However, there is a problem in that it is difficult to extract valuable information from large-scale, complex data, as the data generated by each medical device has many types and formats, and the amount of data generated is vast.

또한, 응급환자에게 발생할 수 있는 다양한 쇼크 중 아나필락시스(Anaphylaxis) 쇼크의 경우는 알레르기 반응이 몸 전체에 급격히 일어나 기관지 주변의 근육을 수축시켜 호흡 곤란을 유발하고 말초혈관을 느슨하게 만들어 혈압을 급격히 떨어뜨려 의식을 잃게 하며 또한 심장에 부담을 주어 심장을 멎게 만들어 수 분 안에 사망으로 이어질 수 있는 매우 위험한 쇼크 중의 하나이다. 따라서, 이러한 쇼크를 사전에 정확히 예측할 수 있도록 하는 시스템의 개발이 요구된다.In addition, in the case of anaphylaxis shock, among various shocks that can occur in emergency patients, an allergic reaction occurs rapidly throughout the body, contracting the muscles around the bronchi, causing breathing difficulties, loosening peripheral blood vessels, and sharply lowering blood pressure. It is one of the very dangerous shocks that can cause you to lose weight and also put a strain on your heart, stopping the heart, and leading to death within minutes. Therefore, there is a need to develop a system capable of accurately predicting such a shock in advance.

또한, 응급 및 병원 현장에서 발생하는 환자감시장치(Patient monitor)의 위양성 경보음(False Alarm)이 일으키는 심각성이 주목된다. 정확한 생리학적 위험을 나타내는 데이터가 아님에도 발생하는 경보음을 일컫는 위양성 경보음은 현대의학을 활용하는 전 세계 응급 및 병원 현장에서 오랫동안 응급환자 대응에 심각한 문제가 되어오고 있다. 이러한 위양성 경보음은 의료진의 경보음에 대한 경각심을 낮추는 결과를 낳게 하여 의료인의 즉각적인 처치가 필요한 심각한 상황에서도 일어날 수 있기에, 환자안전에 큰 문제가 될 수 있다. 따라서, 이러한 이상 징후를 사전에 정확히 감지할 수 있는 기술의 개발이 요구된다.In addition, attention is paid to the severity of false alarms of patient monitors occurring in emergency and hospital sites. The false-positive alarm sound, which refers to an alarm sound that occurs even though data indicating an exact physiological risk, has been a serious problem in responding to emergency patients for a long time in emergency and hospital sites around the world using modern medicine. Such false-positive alarm sounds can result in lowering the alertness of the medical staff to the alarm sounds, and can occur even in serious situations requiring immediate medical attention, which can be a major problem for patient safety. Therefore, there is a need to develop a technology capable of accurately detecting such abnormal symptoms in advance.

한국등록특허 제10-1070389호(2011.09.28)Korean Patent Registration No. 10-1070389 (2011.09.28)

본 발명이 해결하고자 하는 과제는 환자의 생체 정보를 측정하는 방대한 데이터를 분석하여 환자에게 발생되는 각종 이벤트와 이벤트 발생 가능성을 감지함으로써, 환자의 상태 변화에 대한 실시간 정보를 제공하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램을 제공하는 것이다.The problem to be solved by the present invention is an artificial intelligence-based image that provides real-time information on changes in the patient's condition by analyzing a vast amount of data that measures patient's biometric information and detecting various events and events occurring in the patient. It is to provide a method, an apparatus, and a computer program for detecting event occurrence through analysis.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함할 수 있다.The method for detecting event occurrence through image analysis based on artificial intelligence according to an embodiment of the present invention for solving the above-described problem is a method performed by a computing device, comprising the steps of: collecting visualized biometric information data, the Generating a biometric information image using the visualized biometric information data, analyzing the biometric information image, and detecting the occurrence of an event for the user according to the analysis result of the biometric information image.

상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함할 수 있고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법을 수행할 수 있다.An apparatus for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention for solving the above-described problem includes a memory for storing one or more instructions and a processor for executing the one or more instructions stored in the memory. The processor may include, by executing the one or more instructions, collecting visualized biometric information data, generating a biometric information image using the visualized biometric information data, and analyzing the biometric information image. The method of detecting the occurrence of an event through image analysis based on artificial intelligence including the step of detecting the occurrence of an event for the user according to the step and the analysis result of the biometric information image may be performed.

상술한 과제를 해결하기 위한 본 발명으 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 컴퓨터프로그램은, 하드웨어인 컴퓨터와 결합되어, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장될 수 있다.The computer program for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention for solving the above-described problems is combined with a computer that is hardware to collect visualized biometric information data, the visualization Generating a biometric information image using the biometric information data, analyzing the biometric information image, and detecting the occurrence of an event for the user according to the analysis result of the biometric information image. It may be stored in a computer-readable recording medium so that the event occurrence detection method through image analysis can be performed.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

본 발명이 해결하고자 하는 과제는 환자의 생체 정보를 측정하는 방대한 데이터를 분석하여 환자에게 발생되는 각종 이벤트와 이벤트 발생 가능성을 감지함으로써, 환자의 상태 변화에 대한 실시간 정보를 제공한다는 이점이 있다.The problem to be solved by the present invention has the advantage of providing real-time information on a change in a patient's state by analyzing a vast amount of data measuring biometric information of a patient and detecting various events and events occurring in the patient.

또한, 환자의 위험 징후를 정확히 예측하기 위해서 환자들 상태를 24시 간 365일 실시간 모니터링 하고 인공지능 기반의 예측을 수행하여 이상 징후가 나타나면 담당 간호사 등에게 즉시 알람을 보내 사전에 대처하도록 함과 동시에 시각화 기능을 갖추어 경과를 한눈에 파악할 수 있도록 한다.In addition, in order to accurately predict the patient's risk signs, the patient's condition is monitored in real time 24 hours a day, 365 days a year, and artificial intelligence-based prediction is performed. When abnormal signs appear, an alarm is immediately sent to the nurse in charge to respond in advance. It is equipped with a visualization function so that the progress can be grasped at a glance.

또한, 간호 인력의 환자 활력 정보에 대한 수작업 입력 등을 제거하고 환자 데이터의 실시간 처리를 보장함으로써 상대적으로 취약한 노령 중환자 진료의 질 향상에 기여할 수 있다.In addition, it is possible to contribute to the improvement of the quality of care for elderly critically ill patients who are relatively vulnerable by eliminating manual input of patient vitality information by nursing personnel and ensuring real-time processing of patient data.

또한, 중증환자의 입원 기간 단축 효과를 달성 가능함에 따라 국가 전체적인 중증환자 의료비용 감소가 가능하다는 이점이 있다.In addition, as it is possible to achieve the effect of shortening the hospitalization period for severely ill patients, there is an advantage in that it is possible to reduce medical costs for severely ill patients throughout the country.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템의 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치의 하드웨어 구성도이다.
도 3은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법의 순서도이다.
도 4는 다양한 실시예에서, 이벤트 발생 감지 장치가 생체 정보 데이터를 이미지화하는 구성을 도시한 도면이다.
도 5는 다양한 실시예에서, 이벤트 발생 감지 장치가 제1 인공지능 모델 및 제2 인공지능 모델을 학습하는 과정을 도시한 도면이다.
도 6은 다양한 실시예에서, 인공지능 모델을 이용하여 이벤트 발생 감지 방법의 순서도이다.
1 is a block diagram of an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention.
2 is a hardware configuration diagram of a device for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.
3 is a flowchart of a method for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.
FIG. 4 is a diagram illustrating a configuration in which an event occurrence detection device images biometric information data according to various embodiments of the present disclosure.
5 is a diagram illustrating a process in which an event detection device learns a first artificial intelligence model and a second artificial intelligence model, according to various embodiments.
6 is a flowchart of a method of detecting occurrence of an event using an artificial intelligence model in various embodiments.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and "and/or" includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "modules" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to the orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer means all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in the corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and application running on each device, and is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.

도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템의 구성도이다.1 is a block diagram of an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템은 이벤트 발생 감지 장치(100), 사용자 단말(200) 및 외부 서버(300)를 포함할 수 있다.Referring to FIG. 1, an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention may include an event occurrence detection device 100, a user terminal 200, and an external server 300. have.

여기서, 도 1에 도시된 인공지능 기반 이미지 분석을 통한 이벤트 발생 감지 시스템은 일 실시예에 따른 것이고, 그 구성요소가 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.Here, the event occurrence detection system through artificial intelligence-based image analysis shown in FIG. 1 is according to an embodiment, and its components are not limited to the embodiment shown in FIG. It can be deleted.

일 실시예에서, 이벤트 발생 감지 장치(100)는 사용자로부터 감지되는 생체 정보 데이터를 수집할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 사용자의 신체의 적어도 일부에 설치되며 사용자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡수 센서 등)로부터 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인(Vital sign) 데이터를 수집할 수 있다. In an embodiment, the event occurrence detection device 100 may collect biometric information data sensed from a user. For example, the event occurrence detection device 100 is installed on at least a part of the user's body, and the blood pressure from a plurality of sensors (eg, blood pressure sensor, body temperature sensor, pulse sensor, respiratory rate sensor, etc.) that detects the user's biometric information. Vital sign data including at least one of data, body temperature data, pulse data, and respiratory rate data may be collected.

다양한 실시예에서, 이벤트 발생 감지 장치(100)는 외부로부터 생체 정보 데이터를 수집하되, 그래프와 같이 시각화된 생체 정보 데이터를 수집할 수 있다.In various embodiments, the event occurrence detection device 100 may collect biometric information data from the outside, but collect biometric information data visualized like a graph.

다양한 실시예에서, 이벤트 발생 감지 장치(100)는 외부로부터 스칼라 형태의 생체 정보 데이터를 수집할 수 있다. 그러나, 이에 한정되지 않고, 사용자의 생체 정보를 나타내는 다양한 형태의 데이터를 수집할 수 있다.In various embodiments, the event occurrence detection device 100 may collect biometric information data in a scalar form from the outside. However, the present invention is not limited thereto, and various types of data representing the user's biometric information may be collected.

일 실시예에서, 이벤트 발생 감지 장치(100)는 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 실시간으로 수집되는 그래프 형태의 생체 정보 데이터를 기 설정된 주기마다 캡쳐(Capture)하여 생체 정보 이미지를 생성할 수 있다. In an embodiment, the event occurrence detection device 100 may generate a biometric information image using the visualized biometric information data. For example, the event occurrence detection device 100 may generate a biometric information image by capturing biometric information data in the form of a graph collected in real time at each preset period.

다양한 실시예에서, 외부로부터 수집되는 생체 정보 데이터가 스칼라 형태인 경우, 스칼라 형태의 생체 정보 데이터를 그래프 형태로 시각화 하고, 시각화된 생체 정보 데이터를 캡쳐하여 생체 정보 이미지를 생성할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, when the biometric information data collected from the outside is in a scalar form, the biometric information data in the scalar form may be visualized in a graph form, and the biometric information image may be generated by capturing the visualized biometric information data. However, it is not limited thereto.

다양한 실시예에서, 환자감시장치(Patient Monitor)로부터 획득되는 각종 생체 데이터를 기 설정된 형태나 규칙에 기반하여 생체 정보 이미지를 생성할 수 있다. 환자감시장치는 아날로그 신호를 모니터에 표시하는 방식으로, 파형의 형태로부터 의료진의 전문지식에 의해 환자의 상태를 파악하는 보조도구이다.In various embodiments, a biometric information image may be generated based on a predetermined form or rule of various biometric data acquired from a patient monitor. Patient monitoring is a method of displaying an analog signal on a monitor, and is an auxiliary tool that grasps the patient's condition from the shape of the waveform based on the expert knowledge of the medical staff.

일 실시 예에서, 환자감시장치로부터 획득된 생체 데이터를 기 설정된 규칙에 기반하여 기 설정된 형태의 그래프로 표현하는 생체 정보 이미지를 생성할 수 있으나, 이에 제한되는 것은 아니다.In an embodiment, a biometric information image that expresses the biometric data acquired from the patient monitoring device as a graph in a predetermined form based on a predetermined rule may be generated, but the present invention is not limited thereto.

단, 기존에 이용되는 환자감시장치는 아날로그 전압 신호를 화면에 디스플레이할 뿐으로, 측정값이 화면에는 표시가 되나 디지털화된 데이터가 수집되지는 못하는 것이 일반적이다. 따라서 각 화면이 지나고 나면 정보가 사라지므로, 매번 의료인력이 눈으로 확인해야 하는 문제점이 있다.However, conventional patient monitoring devices only display analog voltage signals on the screen, and measurement values are displayed on the screen, but digitized data cannot be collected. Therefore, since the information disappears after each screen passes, there is a problem that medical personnel must visually check each time.

이에 따라 24시간 매번 확인이 불가능하고, 잠깐의 위기 신호가 발생해도 이를 놓칠 수 있는 단점이 있다. 따라서 아날로그 기기인 환자감시장치의 화면을 카메라로 촬영하여 표시된 모든 정보를 활용하여 환자의 상태를 자동으로 디지털화 하는 기술의 도입이 요구된다.Accordingly, there is a disadvantage that it is impossible to check every 24 hours, and even if a brief crisis signal occurs, it can be missed. Therefore, it is required to introduce a technology that automatically digitizes the patient's condition using all information displayed by photographing the screen of a patient monitoring device, which is an analog device, with a camera.

일 실시 예에서, 생체 정보 이미지는 환자감시장치의 화면을 촬영한 이미지에 기반하여 획득될 수도 있다. 예를 들어, 기존에 환자감시장치에서 이용되는 아날로그 화면을 촬영한 이미지 혹은 해당 이미지를 보정 및 전처리한 결과가 생체 정보 이미지로 활용될 수 있다. 다른 예로, 기존에 환자감시장치에서 이용되는 아날로그 화면을 촬영한 이미지로부터 환자의 생체 데이터가 추출될 수 있다. 추출된 생체 데이터는 가공되어 생체 정보 이미지를 생성하는 데 활용될 수 있다. 예를 들어, 호흡이나 맥박 등 주기적인 신호는 그 진폭과 주기를 파악하고, 숫자로 나타난 정보는 표시된 값을 수치로 변환할 수 있으나, 이에 제한되는 것은 아니다.In an embodiment, the biometric information image may be obtained based on an image photographed on the screen of the patient monitoring device. For example, an image of an analog screen used in a conventional patient monitoring device or a result of correcting and pre-processing the image may be used as a biometric information image. As another example, biometric data of a patient may be extracted from an image taken of an analog screen used in a conventional patient monitoring device. The extracted biometric data can be processed and used to generate biometric information images. For example, a periodic signal such as respiration or pulse may determine its amplitude and period, and information indicated as a number may convert the displayed value into a numerical value, but is not limited thereto.

예를 들어, 파형 분석은 일반 영상처리 기술과 인공신경망의 CNN(Convolutional Neural Network) 및 Fourier Transform의 변형인 FFT(Fast Fourier Transform)를 융합하여 사용될 수 있다. 또한, 이미지 분석은 인공신경망 중 CNN계열이 활용될 수 있으나, 이에 제한되는 것은 아니다.For example, waveform analysis can be used by fusion of a general image processing technology and a Convolutional Neural Network (CNN) of an artificial neural network and a Fast Fourier Transform (FFT), which is a transformation of Fourier Transform. In addition, the CNN series among artificial neural networks may be used for image analysis, but the present invention is not limited thereto.

또한, 촬영되는 화면 이미지에서 불필요한 정보가 많으므로 이 정보를 제거하기 위해 AE(Auto Encoder) 기법을 도입하여 노이즈를 제거하는 필터를 개발할 수 있다. AE는 정보를 축소했다가 다시 복원하는 과정으로 나뉘는데, 축소하는 과정에서 노이즈 정보를 제거한다. 노이즈가 많지 않을 경우, 본 단계는 생략될 수 있다.In addition, since there is a lot of unnecessary information in the captured screen image, it is possible to develop a filter that removes noise by introducing an AE (Auto Encoder) technique to remove this information. AE is divided into a process of reducing information and then restoring it. In the process of reducing, noise information is removed. If there is not much noise, this step may be omitted.

숫자나 문자와 같은 글자 부분은 OCR(Optical Character Recognition) 기법을 사용하되, 고정된 폰트가 있는 경우 이에 기반하여 정확도를 더욱 높일 수 있다.For character parts such as numbers and letters, OCR (Optical Character Recognition) is used, but if there is a fixed font, accuracy can be further improved based on this.

또한, 이 과정에서 딥러닝 컴퓨터 비전으로 실시간으로 영상을 분석하는 시스템이 적용될 수 있다. 카메라를 통해 환자감시장치를 촬영함에 있어서, 촬영하는 주기 및 이에 기반하여 데이터를 수집하는 주기를 설정해야 할 수 있다. 또한 촬영되는 화면에서 파형과 문자 이외의 이미지에서 정보를 추출할 수 있어야 하며, 도표나 텍스트가 항상 고정된 위치에서 동일한 형태로 표현되지 않거나, 제작사별로 그 형태가 상이한 경우 이를 판단할 수 있어야 한다.Also, in this process, a system that analyzes images in real time with deep learning computer vision can be applied. When photographing patient monitoring values through a camera, it may be necessary to set a period of photographing and a period of collecting data based thereon. In addition, information must be able to be extracted from images other than waveforms and texts on the screen being photographed, and it must be possible to determine when diagrams or texts are not always expressed in the same form at a fixed location, or if the form is different for each manufacturer.

일 실시예에서, 이벤트 발생 감지 장치(100)는 생체 정보 이미지를 분석하여 사용자에 대한 이벤트 발생 감지를 판단할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 이미지 분석 모델을 이용하여 생체 정보 이미지를 분석함으로써, 사용자에 대한 이벤트 발생 감지를 판단할 수 있다.In an embodiment, the event occurrence detection device 100 may determine the detection of an event occurrence for a user by analyzing the biometric information image. For example, the event occurrence detection device 100 may determine detection of an event occurrence for a user by analyzing a biometric information image using an image analysis model.

여기서, 이미지 분석 모델은 특정 이미지와 특정 이미지가 가리키는 정보를 학습 데이터로써 기 학습된 인공지능 모델(예: 제1 인공지능 모델 및 제2 인공지능 모델)일 수 있다. 그러나, 이에 한정되지 않는다.Here, the image analysis model may be an artificial intelligence model (eg, a first artificial intelligence model and a second artificial intelligence model) that has been previously trained using a specific image and information indicated by the specific image as training data. However, it is not limited thereto.

또한, 여기서 이벤트는 사용자로부터 발생되는 이상 상태를 의미한다. 예를 들어, 이벤트는 저혈량성 쇼크, 심인성 쇼크, 폐쇄성 쇼크 및 분배성 쇼크 중 어느 하나 이상을 포함할 수 있다.In addition, the event here means an abnormal state generated by the user. For example, the event may include any one or more of hypovolemic shock, psychogenic shock, obstructive shock, and distributive shock.

일 실시예에서, 이벤트 발생 감지 장치(100)는 사용자의 생체 정보 데이터, 생체 정보 이미지, 이벤트 발생 여부 등과 같은 이벤트와 관련된 정보를 출력하는 사용자 인터페이스(User interface, UI)를 제공할 수 있다.In an embodiment, the event occurrence detection device 100 may provide a user interface (UI) that outputs information related to an event, such as a user's biometric information data, a biometric information image, and whether an event has occurred.

일 실시예에서, 사용자 단말(200)은 사용자 단말(200)의 적어도 일부분에 디스플레이를 포함할 수 있으며, 네트워크(400)를 통해 이벤트 발생 감지 장치(100)로부터 제공되는 각종 정보(예: 이벤트 발생 여부에 대한 정보 및 이벤트 발생 가능성에 대한 정보)를 출력할 수 있다. 예를 들어, 사용자 단말(200)은 이벤트 발생 감지 장치(100)로부터 제공되는 UI(예; 사용자의 생체 정보 및 이벤트 발생과 관련된 정보를 출력하는 UI)를 출력할 수 있으며, UI를 통해 이벤트 발생 감지 장치(100)로부터 제공되는 각종 정보를 출력할 수 있다.In one embodiment, the user terminal 200 may include a display on at least a portion of the user terminal 200, and various information (eg, event occurrence) provided from the event occurrence detection device 100 through the network 400 Information on whether or not and information on the possibility of event occurrence) can be output. For example, the user terminal 200 may output a UI provided from the event occurrence detection device 100 (e.g., a UI that outputs user's biometric information and information related to event occurrence), and an event occurs through the UI. Various types of information provided from the sensing device 100 may be output.

다양한 실시예에서, 사용자 단말(200)은 스마트폰, 태블릿 PC, 노트북 데스크탑 및 키오스크 중 적어도 하나를 포함할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the user terminal 200 may include at least one of a smartphone, a tablet PC, a notebook desktop, and a kiosk. However, it is not limited thereto.

일 실시예에서, 외부 서버(300)는 네트워크(400)를 통해 이벤트 발생 감지 장치(100)와 유무선 연결될 수 있으며, 이벤트 발생 감지 장치(100)로부터 각종 정보(예: 이벤트 발생 여부에 대한 정보 및 이벤트 발생 가능성에 대한 정보)를 제공받아 저장할 수 있다.In one embodiment, the external server 300 may be wired or wirelessly connected to the event occurrence detection device 100 through the network 400, and various information (eg, information on whether an event occurs, and Information on the possibility of event occurrence) can be provided and stored.

여기서, 도 1에 도시된 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템은 이벤트 발생 감지 장치(100)에서 생성되는 각종 데이터가 외부 서버(300)에 저장되는 형태로 기재되어 있으나, 이에 한정되지 않고, 이벤트 발생 감지 장치(100)가 별도의 저장 장치를 구비하여 별도로 구비된 저장장치에 각종 데이터를 저장할 수 있다.Here, the event occurrence detection system through image analysis based on artificial intelligence illustrated in FIG. 1 is described in a form in which various data generated by the event occurrence detection device 100 are stored in the external server 300, but is not limited thereto. Instead, the event occurrence detection device 100 may include a separate storage device to store various types of data in a separately provided storage device.

다양한 실시예에서, 외부 서버(300)는 환자와 관련된 다양한 정보(예: 환자의 신상 정보, 환자의 질병 정보 등)를 저장할 수 있고, 저장된 환자와 관련된 데이터 중 어느 하나 이상의 데이터를 이벤트 발생 감지 장치(100)로 제공할 수 있다. 예를 들어, 외부 서버(300)는 병원 서버일 수 있으며, 이벤트 발생 감지 장치(100)로부터 특정 환자에 대한 정보 요청을 수신하는 경우, 특정 환자와 관련된 다양한 정보를 선택하여 이벤트 발생 감지 장치(100)로 제공할 수 있다. 이하, 도 2를 참조하여, 이벤트 발생 감지 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.In various embodiments, the external server 300 may store a variety of patient-related information (eg, patient's personal information, patient's disease information, etc.), and store any one or more of the stored patient-related data as an event occurrence detection device. It can be provided as (100). For example, the external server 300 may be a hospital server, and when receiving a request for information on a specific patient from the event occurrence detection device 100, the event occurrence detection device 100 selects various information related to a specific patient. ) Can be provided. Hereinafter, a hardware configuration of the event occurrence detection device 100 will be described with reference to FIG. 2.

도 2는 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치의 하드웨어 구성도이다.2 is a hardware configuration diagram of a device for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.

도 2를 참조하면, 본 발명의 다른 실시예에 따른 이벤트 발생 감지 장치(100)(이하, "컴퓨팅 장치(100)")는 프로세서(110) 및 메모리(120)를 포함할 수 있다. 다양한 실시예에서, 컴퓨팅 장치(100)는 네트워크 인터페이스(또는 통신 인터페이스)(미도시), 스토리지(미도시), 버스(bus)(미도시)를 더 포함할 수 있다.Referring to FIG. 2, an event occurrence detection device 100 (hereinafter, "computing device 100") according to another embodiment of the present invention may include a processor 110 and a memory 120. In various embodiments, the computing device 100 may further include a network interface (or communication interface) (not shown), a storage (not shown), and a bus (not shown).

일 실시예에서, 프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어할 수 있다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.In one embodiment, the processor 110 may control the overall operation of each component of the computing device 100. The processor 110 may be configured to include a central processing unit (CPU), a micro processor unit (MPU), a micro controller unit (MCU), or any type of processor well known in the art.

다양한 실시예에서, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 다양한 실시예에서, 프로세서(110)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예: 버스(bus) 등)를 포함할 수 있다.In various embodiments, the processor 110 may perform an operation on at least one application or program for executing the method according to the embodiments of the present invention. In various embodiments, the processor 110 includes one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals with other components. can do.

다양한 실시예에서, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In various embodiments, the processor 110 temporarily and/or permanently stores a signal (or data) processed inside the processor 110. -Only Memory, not shown) may be further included. In addition, the processor 110 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, RAM, and ROM.

일 실시예에서, 프로세서(110)는 메모리(120)에 저장된 하나 이상의 인스트럭션(instruction)을 실행함으로써, 도 3 내지 8과 관련하여 설명될 방법(인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법)을 수행할 수 있다. 예를 들어, 프로세서(110)는 메모리(120)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 시각화된 생체 정보 데이터를 수집하는 동작, 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 동작, 생체 정보 이미지를 분석하는 동작 및 생체 정보 이미지의 분석 결과에 따라 사용자에 대한 이벤트 발생을 감지하는 동작을 수행할 수 있다. In one embodiment, the processor 110 executes one or more instructions stored in the memory 120, so that a method to be described with reference to FIGS. 3 to 8 (a method of detecting event occurrence through image analysis based on artificial intelligence) You can do it. For example, the processor 110 executes one or more instructions stored in the memory 120 to collect visualized biometric information data, an operation of generating a biometric information image using the visualized biometric information data, and biometric information. An operation of analyzing an image and an operation of detecting the occurrence of an event for a user may be performed according to an analysis result of the biometric information image.

일 실시예에서, 메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장할 수 있다. 메모리(120)에는 프로세서(110)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(120)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.In one embodiment, the memory 120 may store various types of data, commands, and/or information. The memory 120 may store programs (one or more instructions) for processing and controlling the processor 110. Programs stored in the memory 120 may be divided into a plurality of modules according to functions.

다양한 실시예에서, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수 있다. In various embodiments, steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 이하, 도 3 내지 8을 참조하여, 컴퓨팅 장치(100)가 수행하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법에 대하여 설명하도록 한다.Components of the present invention may be implemented as a program (or application) and stored in a medium to be executed by being combined with a computer that is hardware. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++. , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors. Hereinafter, a method of detecting event occurrence through artificial intelligence-based image analysis performed by the computing device 100 will be described with reference to FIGS. 3 to 8.

도 3은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법의 순서도이다.3 is a flowchart of a method for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.

도 3을 참조하면, S110 단계에서, 컴퓨팅 장치(100)는 외부로부터 생체 정보 데이터를 수집할 수 있다. 예를 들어, 예를 들어, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡 센서)로부터 생성된 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 수집할 수 있다.Referring to FIG. 3, in step S110, the computing device 100 may collect biometric information data from the outside. For example, for example, the computing device 100 may include blood pressure data, body temperature data, and pulse data generated from a plurality of sensors (eg, blood pressure sensor, body temperature sensor, pulse sensor, and breathing sensor) that detect biometric information of a patient. And it is possible to collect vital sign data including at least one data of the respiratory rate data.

다양한 실시예에서, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡 센서)로부터 생성된 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 시각화 하여 출력하는 생체 정보 출력 장치(예: 중환자실의 Bed-side 모니터링 장치)로부터 시각화된 바이탈 사인 데이터를 수집할 수 있다.In various embodiments, the computing device 100 includes blood pressure data, body temperature data, pulse data, and respiratory rate generated from a plurality of sensors (eg, blood pressure sensor, body temperature sensor, pulse sensor, and respiration sensor) for detecting biometric information of a patient. Visualized vital sign data may be collected from a biometric information output device (eg, a bed-side monitoring device in an intensive care unit) that visualizes and outputs vital sign data including at least one of the data.

다양한 실시예에서, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서로부터 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 직접 수집하고, 직접 수집한 바이탈 사인 데이터를 그래프 형태로 시각화 할 수 있다.In various embodiments, the computing device 100 directly collects vital sign data including at least one of blood pressure data, body temperature data, pulse data, and respiratory rate data from a plurality of sensors for sensing biometric information of a patient, Vital sign data collected directly can be visualized in the form of a graph.

다양한 실시예에서, 컴퓨팅 장치(100)는 외부로부터 수집되는 생체 정보 데이터에 대하여 이상치 분석(Outlier analysis)(예: 정형화된 이상치 패턴이 있는 경우, 이상치를 제거, 마할라노비스 거리 등 표준편차를 이용한 필터를 사용하여 노이즈를 제거)을 수행할 수 있고, 후술되는 S120 단계에서 이상치 분석을 통해 노이즈가 제거된 생체 정보 데이터만을 이용하여 생체 정보 이미지를 생성할 수 있다.In various embodiments, the computing device 100 analyzes outliers on biometric information data collected from outside (e.g., when there is a standardized outlier pattern, removes outliers, and uses standard deviations such as Mahalanobis distance). Using a filter to remove noise) may be performed, and a biometric information image may be generated using only the biometric information data from which noise has been removed through an outlier analysis in step S120 to be described later.

S120 단계에서, 컴퓨팅 장치(100)는 S110 단계에서 수집한 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다.In step S120, the computing device 100 may generate a biometric information image by using the visualized biometric information data collected in step S110.

다양한 실시예에서, 컴퓨팅 장치(100)는 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하고, 생체 정보 이미지를 기 설정된 시간 단위로 분할하여 이미지 분석 모델의 학습을 위한 복수의 단위 생체 정보 이미지를 생성할 수 있다. 이하, 도 4를 참조하여, 컴퓨팅 장치(100)가 수행하는 생체 정보 이미지 생성 방법에 대하여 설명하도록 한다.In various embodiments, the computing device 100 generates a biometric information image using the visualized biometric information data, divides the biometric information image into a preset time unit, and provides a plurality of unit biometric information images for learning an image analysis model. Can be created. Hereinafter, a method of generating a biometric information image performed by the computing device 100 will be described with reference to FIG. 4.

도 4는 다양한 실시예에서, 이벤트 발생 감지 장치가 생체 정보 데이터를 이미지화하는 구성을 도시한 도면이다.FIG. 4 is a diagram illustrating a configuration in which an event occurrence detection device images biometric information data according to various embodiments of the present disclosure.

도 4를 참조하면, 다양한 실시예에서, 컴퓨팅(100) 장치는 외부로부터 수집한 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있고, 생체 정보 이미지를 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.Referring to FIG. 4, in various embodiments, the computing 100 device may generate a biometric information image using biometric information data collected from the outside, and generate a plurality of unit biometric information images by dividing the biometric information image. can do.

먼저, 컴퓨팅 장치(100)는 외부로부터 그래프 형태로 시각화된 생체 정보 데이터(예: 바이탈 사인 데이터)를 수집하거나, 외부로부터 스칼라 형태의 생체 정보 데이터를 수집하고 수집한 스칼라 형태의 생체 정보 데이터를 그래프 형태로 시각화하여 시각화된 생체 정보 데이터를 생성할 수 있다.First, the computing device 100 collects biometric information data (eg, vital sign data) visualized in a graph form from the outside, or collects biometric information data in a scalar form from the outside and graphs the collected biometric information data in a scalar form. It is possible to create visualized biometric information data by visualizing it in a form.

다양한 실시예에서 컴퓨팅 장치(100)는 기 설정된 제1 주기(T) 마다 사용자의 생체 정보 데이터를 수집할 수 있다.In various embodiments, the computing device 100 may collect the user's biometric information data every preset first period T.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 센서 각각으로부터 생체 정보 데이터가 감지되는 주기가 서로 상이한 경우, 복수의 센서 각각에 설정된 생체 정보 데이터 감지 주기 중 가장 짧은 주기를 가지는 센서를 기준으로 생체 정보 데이터를 수집할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, when the periods in which the biometric information data is detected from each of the plurality of sensors are different from each other, the computing device 100 is Information data can be collected. However, it is not limited thereto.

이후, 컴퓨팅 장치(100)는 그래프 형태로 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 실시간으로 수집되는 그래프 형태의 생체 정보 데이터를 기 설정된 제2 주기마다 캡쳐(Capture)하여 생체 정보 이미지를 생성할 수 있다.Thereafter, the computing device 100 may generate a biometric information image by using the biometric information data visualized in the form of a graph. For example, the computing device 100 may generate a biometric information image by capturing biometric information data in a graph form collected in real time at every preset second period.

여기서, 컴퓨팅 장치(100)는 제2 주기를 제1 주기와 동일하게 설정하거나 제1 주기보다 짧게 설정할 수 있으나, 이에 한정되지 않는다.Here, the computing device 100 may set the second period equal to or shorter than the first period, but is not limited thereto.

이후, 컴퓨팅 장치(100)는 캡쳐하여 생성된 생체 정보 이미지를 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.Thereafter, the computing device 100 may generate a plurality of unit biometric information images by dividing the captured biometric information image.

다양한 실시예에서, 컴퓨팅 장치(100)는 기 설정된 시간 단위를 기준으로 생체 정보 이미지를 분할함으로써, 복수의 단위 생체 정보 이미지를 생성할 수 있다.In various embodiments, the computing device 100 may generate a plurality of unit biometric information images by dividing the biometric information image based on a preset time unit.

다양한 실시예에서, 컴퓨팅 장치(100)는 기 설정된 개수로 생체 정보 이미지를 분할함으로써, 복수의 단위 생체 정보 이미지를 생성할 수 있다.In various embodiments, the computing device 100 may generate a plurality of unit biometric information images by dividing the biometric information images by a preset number.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부 및 이벤트 발생 가능성에 기초하여 복수의 단위 생체 정보 이미지 각각의 시간 단위를 조절하거나, 둘 이상의 단위 생체 정보 이미지를 하나로 결합할 수 있다.In various embodiments, the computing device 100 may adjust a time unit of each of a plurality of unit biometric information images or combine two or more unit biometric information images into one based on whether an event has occurred and an event possibility.

여기서, 컴퓨팅 장치(100)는 이미지 분석 모델에서 수행되는 이미지 분석의 입력 값으로써, 복수의 단위 생체 정보 이미지를 이용할 수 있으며, 이미지 분석 이후에는 이미지 분석 모델의 학습을 위한 학습 데이터로써 이용할 수 있다. 그러나, 이에 한정되지 않는다.Here, the computing device 100 may use a plurality of unit biometric information images as input values of image analysis performed in the image analysis model, and may be used as training data for learning the image analysis model after image analysis. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 생체 정보 데이터(예: 그래프 형태의 바이탈 사인 데이터)를 이용하여 생체 정보 이미지를 생성하되, 생체 정보 데이터의 종류에 따라 서로 상이한 형태 및 패턴으로 시각화하거나 서로 상이한 색상으로 시각화 하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 생체 정보 데이터가 혈압 데이터인 경우, 최저 혈압 값과 최고 혈압 값을 나타내는 막대 그래프 형태로 시각화할 수 있고, 생체 정보 데이터가 체온 데이터인 경우, 감지 시점의 체온 값을 꺾은 선 그래프 형태로 시각화할 수 있다.In various embodiments, the computing device 100 generates a biometric information image using a plurality of biometric information data (eg, vital sign data in the form of a graph), but visualizes it in different shapes and patterns according to the type of biometric information data. Alternatively, biometric information images can be created by visualizing them in different colors. For example, when the biometric information data is blood pressure data, the computing device 100 may visualize it in the form of a bar graph indicating the minimum blood pressure value and the maximum blood pressure value, and when the biometric information data is body temperature data, the body temperature at the time of detection Values can be visualized in the form of a line graph.

또한, 컴퓨팅 장치(100)는 복수의 생체 정보를 꺾은 선 그래프 형태로 시각화 하되, 혈압 값을 파란색으로 설정하고, 체온 값을 빨간색으로 설정하며, 맥박수 값을 주황색으로 설정할 수 있다.즉, 컴퓨팅 장치(100)는 생체 정보 데이터의 종류별로 상이하게 시각화 하거나 색상의 차이를 둠으로써, 생체 정보 데이터별로 수치의 변화, 패턴의 변화를 확인할 수 있을 뿐만 아니라 각각의 생체 정보 데이터 간의 상관관계를 확인할 수 있으며, 이를 이용하여 이벤트 발생 여부와 이벤트 발생 가능성을 판단하는데 활용할 수 있다.In addition, the computing device 100 may visualize a plurality of biometric information in the form of a broken line graph, but set the blood pressure value to blue, the body temperature value to red, and the pulse rate value to orange. That is, the computing device By visualizing differently for each type of biometric data or by making a difference in color, (100) not only can check the change in numerical value and pattern for each biometric data, but also check the correlation between each biometric data. In this case, it can be used to determine whether an event has occurred and whether an event has occurred.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 생체 정보 데이터(예: 그래프 형태의 바이탈 사인 데이터)를 이용하여 생체 정보 이미지를 생성하되, 각각의 생체 정보 데이터를 개별적으로 이용하여 각각의 생체 정보 데이터에 대응되는 복수의 생체 정보 이미지를 생성할 수 있다.In various embodiments, the computing device 100 generates a biometric information image using a plurality of biometric information data (eg, vital sign data in the form of a graph), but individually uses each biometric information data. A plurality of biometric information images corresponding to the data may be generated.

다시 도 3을 참조하면, S130 단계에서, 컴퓨팅 장치(100)는 S120 단계에서 생성된 생체 정보 이미지에 대하여 이미지 분석을 수행할 수 있다.Referring back to FIG. 3, in step S130, the computing device 100 may perform image analysis on the biometric information image generated in step S120.

다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지 자체를 이미지 분석하거나, 생체 정보 이미지를 분할함으로써 생성된 복수의 단위 생체 정보 이미지 각각에 대하여 이미지 분석할 수 있다.In various embodiments, the computing device 100 may image-analyze the biometric information image itself, or perform image analysis on each of a plurality of unit biometric information images generated by dividing the biometric information image.

다양한 실시예에서, 컴퓨팅 장치(100)는 기 학습된 인공지능 모델을 이용하여 생체 정보 이미지를 분석하되, 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류에 따라 인공지능 모델을 선택적으로 이용할 수 있다.In various embodiments, the computing device 100 analyzes the biometric information image using a previously learned artificial intelligence model, but can selectively use the artificial intelligence model according to the type of analysis result to be derived by analyzing the biometric information image. have.

예를 들어, 컴퓨팅 장치(100)는 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류가 이벤트 발생 여부인 경우, 기 학습된 제1 인공지능 모델을 이용하여 생체 신호 이미지 및 복수의 단위 생체 정보 이미지를 이미지 분석할 수 있다. 여기서, 기 학습된 제1 인공지능 모델은 이벤트의 발생 여부가 레이블링(Labeling)된 복수의 생체 신호 이미지를 학습데이터로써 학습한 모델을 의미할 수 있다.For example, when the type of the analysis result to be derived by analyzing the biometric information image is whether an event occurs, the computing device 100 uses a previously learned first artificial intelligence model to provide a biosignal image and a plurality of unit biometric information. Images can be image-analyzed. Here, the pre-trained first artificial intelligence model may refer to a model obtained by learning a plurality of biosignal images labeled as whether or not an event occurs as training data.

다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류가 이벤트 발생 가능성인 경우, 기 학습된 제2 인공지능 모델을 이용하여 생체 신호 이미지 및 복수의 단위 생체 정보 이미지를 이미지 분석할 수 있다. 여기서, 이벤트가 발생된 제1 시점을 기준으로, 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 학습한 모델을 의미할 수 있다.In various embodiments, when the type of the analysis result to be derived by analyzing the biometric information image is the likelihood of occurrence of an event, the computing device 100 uses a previously learned second artificial intelligence model to determine the biosignal image and a plurality of unit biometrics. The information image can be image-analyzed. Here, it may refer to a model in which the biometric information image at a second point in time before a predetermined time before the first point in time is learned as training data based on the first point in time when the event occurs.

여기서, 제1 인공지능 모델과 제2 인공지능 모델은 서로 다른 학습 데이터(예: 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지)를 이용하여 학습된 모델인 것으로 기재되어 있으나, 이에 한정되지 않고, 하나의 인공지능 모델(예: CNN모델, NN 모델, RNN 모델)이 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지를 모두 학습하여, 하나의 인공지능 모델이 제1 인공지능 모델과 제2 인공지능 모델의 기능을 모두 수행할 수 있다. Here, the first artificial intelligence model and the second artificial intelligence model are models that are trained using different learning data (e.g., a plurality of biosignal images labeled with the occurrence of an event, and biometric information images prior to the occurrence of the event). Although described, but is not limited to this, one artificial intelligence model (eg, CNN model, NN model, RNN model) learns all of the biosignal images labeled with the occurrence of an event, and biometric information images prior to the occurrence of the event. Thus, one artificial intelligence model can perform both the functions of the first artificial intelligence model and the second artificial intelligence model.

여기서, 제1 인공지능 모델과 제2 인공지능 모델은 서로 다른 학습 데이터(예: 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지)를 이용하여 학습된 모델인 것으로 기재되어 있으나, 이에 한정되지 않고, 하나의 인공지능 모델(예: CNN모델, NN 모델, RNN 모델)이 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지를 모두 학습하여, 하나의 인공지능 모델이 제1 인공지능 모델과 제2 인공지능 모델의 기능을 모두 수행할 수 있다. 이하, 도 5를 참조하여 컴퓨팅 장치(100)가 제1 인공지능 모델과 제2 인공지능 모델을 학습하는 과정을 설명하도록 한다.Here, the first artificial intelligence model and the second artificial intelligence model are models that are trained using different learning data (e.g., a plurality of biosignal images labeled with the occurrence of an event, and biometric information images prior to the occurrence of the event). Although described, but is not limited to this, one artificial intelligence model (eg, CNN model, NN model, RNN model) learns all of the biosignal images labeled with the occurrence of an event, and biometric information images prior to the occurrence of the event. Thus, one artificial intelligence model can perform both the functions of the first artificial intelligence model and the second artificial intelligence model. Hereinafter, a process of learning the first artificial intelligence model and the second artificial intelligence model by the computing device 100 will be described with reference to FIG. 5.

다양한 실시예에서, 컴퓨팅 장치(100)는 외부로부터 스칼라 형태로 생체 정보 데이터가 수집되는 경우, 스칼라 형태의 생체 정보 데이터를 학습 데이터로써 기 학습된 제3 인공지능 모델을 이용하여 생체 정보 데이터를 분석할 수 있다.In various embodiments, when biometric information data is collected in a scalar form from the outside, the computing device 100 analyzes the biometric information data using a third artificial intelligence model that has been previously learned from the scalar biometric information data as training data. can do.

다양한 실시예에서, 컴퓨팅 장치(100)는 S120 단계에서 생성된 생체 정보 이미지를 분석하되, 생체 정보 이미지에 포함된 생체 정보 데이터의 시각화 형태 및 색상에 기초하여 해당 생체 정보 데이터의 종류를 판단하고, 판단된 생체 정보 데이터의 종류에 따라 서로 다른 인공지능 모델을 적용하여 이미지를 분석할 수 있다.In various embodiments, the computing device 100 analyzes the biometric information image generated in step S120, but determines the type of the biometric information data based on the visualization form and color of the biometric information data included in the biometric information image, The image can be analyzed by applying different artificial intelligence models according to the determined type of biometric data.

도 5는 다양한 실시예에서, 이벤트 발생 감지 장치가 제1 인공지능 모델 및 제2 인공지능 모델을 학습하는 과정을 도시한 도면이다.5 is a diagram illustrating a process of learning a first artificial intelligence model and a second artificial intelligence model by an event detection device according to various embodiments.

다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지 및 복수의 단위 생체 정보 이미지를 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다.In various embodiments, the computing device 100 may train the first artificial intelligence model and the second artificial intelligence model by using the biometric information image and a plurality of unit biometric information images.

먼저, 컴퓨팅 장치(100)는 생체 정보 이미지를 기 설정된 시간 단위로 분할하거나, 기 설정된 개수로 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.First, the computing device 100 may generate a plurality of unit biometric information images by dividing the biometric information image by a preset time unit or by dividing the biometric information image by a preset number.

이후, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 학습 데이터로써 사용할 단위 생체 정보 이미지를 선택할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 이미지 분석을 통해 이벤트가 발생된 것으로 판단되는 시점을 포함하는 단위 생체 정보 이미지와 이벤트가 발생된 시점을 기준으로 이벤트바 발생된 시점 이전의 단위 생체 정보 이미지를 학습 데이터로써 선택할 수 있다.Thereafter, the computing device 100 may select a unit biometric information image to be used as learning data from among the plurality of unit biometric information images. For example, the computing device 100 includes a unit biometric information image including a time point at which an event is determined to have occurred through image analysis among a plurality of unit biometric information images and a time point at which the event bar is generated based on the time point at which the event occurs. The previous unit biometric information image can be selected as training data.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 사용자 단말(200)로 제공할 수 있으며, UI를 통해 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받을 수 있다.In various embodiments, the computing device 100 may provide a UI for selecting a biometric information image related to an event from among a plurality of unit biometric information images to the user terminal 200. An image of biometric information related to an event can be selected.

이후, 컴퓨팅 장치(100)는 학습 데이터로써 선택한 단위 생체 정보 이미지에 대하여 레이블링을 수행할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 학습 데이터로써 선택한 단위 생체 정보 이미지 각각의 정답을 레이블링(예: 이벤트가 발생된 시점을 포함하는 단위 생체 정보 이미지를 class 1로 레이블링하고, 이벤트 발생과 관련 없는 단위 생체 정보 이미지를 class 0으로 레이블링)할 수 있다.Thereafter, the computing device 100 may label the selected unit biometric information image as the training data. For example, the computing device 100 labels the correct answer of each of the selected unit biometric information images as learning data (eg, labels the unit biometric information image including the time when the event occurs, as class 1, and is not related to the occurrence of the event). The unit biometric information image can be labeled as class 0).

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 통해 사용자로부터 이벤트와 관련된 생체 정보 이미지에 대한 레이블링을 직접 입력받을 수 있다. 예를 들어, 컴퓨팅 장치(100)는 전문의의 단말로 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 제공할 수 있으며, 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받음과 동시에 선택받은 생체 정보 이미지의 레이블링 정보를 함께 입력받을 수 있다.In various embodiments, the computing device 100 may directly receive labeling for an event-related biometric information image from a user through a UI through which an event-related biometric information image is selected. For example, the computing device 100 may provide a UI through which a biometric information image related to an event is selected by a terminal of a specialist, and the biometric information image related to an event is selected from among a plurality of unit biometric information images and is selected at the same time. Labeling information of the biometric information image may be input together.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트가 발생된 시점을 포함하는 단위 생체 정보 이미지에 대하여 이벤트의 발생 원인과 이벤트의 종류에 따라 서로 다르게 레이블링을 할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may label a unit biometric information image including a time point at which the event occurs differently according to the cause of the event and the type of the event. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 사용자의 생체 정보 이미지에 기초하여 이벤트가 발생되는 것으로 판단된 경우, 이벤트가 발생된 시점으로부터 소정의 시간 이전의 생체 정보 이미지들에 대하여 자동적으로 레이블링을 수행할 수 있다. 이때, 컴퓨팅 장치(100)는 이벤트 발생 시점으로부터 몇시간 이전의 생체 정보인지를 가리키는 정보도 함께 레이블링할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 이벤트 발생 시점으로부터 6시간 전, 12시간 전, 24시간 전의 생체 정보 이미지를 서로 다른 클래스로 레이블링할 수 있다.In various embodiments, when it is determined that an event occurs based on the user's biometric information image, the computing device 100 automatically labels biometric information images before a predetermined time from the time when the event occurs. can do. In this case, the computing device 100 may also label information indicating how many hours before the event occurs biometric information. For example, the computing device 100 may label biometric information images 6 hours ago, 12 hours ago, and 24 hours before the event occurrence time in different classes.

이후, 컴퓨팅 장치(100)는 레이블링된 단위 생체 정보 이미지를 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 지도학습(Supervised Learning) 시킬 수 있다. 예를 들어, 컴퓨팅 장치(100)를 레이블링 결과에 따라 획득된 학습 데이터(이벤트와 관련된 생체 정보 이미지)를 이용하여 지도학습 함으로써, 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다. 그러나, 이에 한정되지 않고, 생체 정보 이미지를 이용하여 인공지능 모델을 학습시키는 다양한 방법이 적용될 수 있다.Thereafter, the computing device 100 may supervised learning the first artificial intelligence model and the second artificial intelligence model using the labeled unit biometric information image. For example, a first artificial intelligence model and a second artificial intelligence model may be trained by supervising the computing device 100 using learning data (biometric information image related to an event) acquired according to a labeling result. However, the present invention is not limited thereto, and various methods of learning an artificial intelligence model using biometric information images may be applied.

다시 도 3을 참조하면, S140 단계에서, 컴퓨팅 장치(100)는 S130 단계에서 수행한 이미지 분석을 통해 도출된 분석 결과를 이용하여 이벤트 발생을 감지할 수 있다. 이하, 도 6을 참조하여, 컴퓨팅 장치(100)가 수행하는 이벤트 발생 감지 방법에 대하여 설명하도록 한다.Referring back to FIG. 3, in step S140, the computing device 100 may detect the occurrence of an event using an analysis result derived through image analysis performed in step S130. Hereinafter, a method of detecting occurrence of an event performed by the computing device 100 will be described with reference to FIG. 6.

도 6은 다양한 실시예에서, 인공지능 모델을 이용하여 이벤트 발생 감지 방법의 순서도이다.6 is a flowchart of a method of detecting occurrence of an event using an artificial intelligence model in various embodiments.

도 6을 참조하면, S210 단계에서, 컴퓨팅 장치(100)는 S130 단계에서 수행한 이미지 분석을 통해 도출된 분석 결과를 이용하여 이벤트 발생 여부를 판단할 수 있다. Referring to FIG. 6, in step S210, the computing device 100 may determine whether an event has occurred using an analysis result derived through image analysis performed in step S130.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부를 판단하고자 하는 생체 정보 이미지를 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지를 학습데이터로써 기 학습한 제1 인공지능 모델에 입력하고, 제1 인공지능 모델을 이용하여 도출된 분석 결과에 기초하여 이벤트의 발생 여부를 판단할 수 있다.In various embodiments, the computing device 100 inputs a biometric information image for determining whether an event occurs, into a pre-learned first artificial intelligence model, a plurality of biosignal images labeled with the occurrence of an event, and It is possible to determine whether an event has occurred based on the analysis result derived using the first artificial intelligence model.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부를 판단하고자 하는 생체 정보 이미지와 이벤트가 발생된 경우에 감지되는 생체 정보 이미지를 비교함으로써, 이벤트 발생 여부를 판단할 수 있다.In various embodiments, the computing device 100 may determine whether an event occurs by comparing a biometric information image for determining whether an event occurs with a biometric information image detected when the event occurs.

S220 단계에서, 컴퓨팅 장치(100)는 S210 단계를 거쳐 이벤트가 발생된 것으로 판단되는 경우, 이벤트가 발생된 원인을 판단할 수 있다.In step S220, when it is determined that the event has occurred through step S210, the computing device 100 may determine the cause of the event.

다양한 실시예에서, 컴퓨팅 장치(100)는 제1 인공지능 모델을 이용하여 이벤트가 발생된 원인을 판단할 수 있다. In various embodiments, the computing device 100 may determine the cause of the event using the first artificial intelligence model.

예를 들어, 컴퓨팅 장치(100)는 제1 인공지능 모델을 통해 도출된 분석 결과에 따라 이벤트가 발생된 것으로 판단되는 것에 응답하여, 복수의 단위 생체 정보 이미지 각각을 분석한 분석 결과로부터 생체 정보 이미지의 이미지 패턴을 검출할 수 있다.For example, in response to determining that an event has occurred according to the analysis result derived through the first artificial intelligence model, the computing device 100 may analyze the biometric information image from the analysis result obtained by analyzing each of the plurality of unit biometric information images. The image pattern of can be detected.

이후, 컴퓨팅 장치(100)는 검출된 이미지 패턴을 이용하여 발생된 이벤트의 종류 및 원인을 판단할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 검출된 이미지 패턴이 제1 패턴을 가지는 경우, 발생된 이벤트가 저혈량성 쇼크인 것으로 판단할 수 있고, 제2 패턴을 가지는 경우, 발생된 이벤트가 심인성 쇼크인 것으로 판단할 수 있다. 그러나, 이에 한정되지 않는다.Thereafter, the computing device 100 may determine the type and cause of the event generated by using the detected image pattern. For example, when the detected image pattern has a first pattern, the computing device 100 may determine that the generated event is a hypovolemic shock, and when it has a second pattern, the generated event is a psychogenic shock. It can be determined to be. However, it is not limited thereto.

S230 단계에서, 컴퓨팅 장치(100)는 S210 단계를 거쳐 이벤트가 발생되지 않은 것으로 판단되는 경우, 이벤트 발생 가능성을 판단할 수 있다.In step S230, when it is determined that the event has not occurred through step S210, the computing device 100 may determine the possibility of occurrence of the event.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 가능성을 판단하고자 하는 생체 정보 이미지를 이벤트가 발생된 제1 시점을 기준으로, 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 기 학습한 제2 인공지능 모델에 입력하고, 제2 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 이벤트의 발생 가능성을 판단할 수 있다. 여기서, S210 단계 내지 S230 단계는 도 3의 S140 단계에 대응될 수 있다.In various embodiments, the computing device 100 uses the biometric information image for determining the possibility of occurrence of the event, based on the first time point at which the event occurs, and the biometric information image at a second time point before the first time point. As training data, the possibility of occurrence of an event may be determined based on the analysis result analyzed using the second artificial intelligence model, and inputting it into the previously learned second artificial intelligence model. Here, steps S210 to S230 may correspond to steps S140 of FIG. 3.

다양한 실시예에서, 컴퓨팅 장치(100)는 사용자의 생체 정보 이미지를 분석함으로써 이벤트 발생 가능성을 판단하되, 판단된 이벤트 발생 가능성이 기준 값 이상인 경우, 이벤트 발생 위험군으로 분류할 수 있다. 이후, 컴퓨팅 장치(100)는 이벤트 발생 위험군으로 분류된 사용자에 대하여 생체 정보 데이터 수집 및 생체 정보 이미지를 생성하는 주기를 짧게 설정함으로써, 보다 빈번하게 사용자의 상태를 모니터링할 수 있다.In various embodiments, the computing device 100 determines the likelihood of occurrence of an event by analyzing a user's biometric information image, but when the determined likelihood of occurrence of an event is greater than or equal to a reference value, the computing device 100 may classify it into an event occurrence risk group. Thereafter, the computing device 100 may monitor the user's state more frequently by setting a short period of collecting biometric information data and generating biometric information images for the user classified as the risk group of event occurrence.

다양한 실시예에서, 컴퓨팅 장치(100)는 위험군으로 분류된 사용자에 대한 생체 정보 이미지와 해당 사용자의 실제 이벤트 발생 여부를 학습 데이터로 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다. 이를 통해, 컴퓨팅 장치(100)는 인공지능 모델을 이용하여 이벤트 발생 가능성에 따른 실제 이벤트 발생 여부를 판단할 수 있다.In various embodiments, the computing device 100 may train the first artificial intelligence model and the second artificial intelligence model by using the biometric information image of a user classified as a risk group and whether an actual event of the corresponding user occurs as learning data. have. Through this, the computing device 100 may determine whether an actual event occurs according to the likelihood of occurrence of the event using the artificial intelligence model.

다양한 실시예에서, 컴퓨팅 장치(100)는 사용자와 관련된 정보, 사용자의 생체 정보 데이터 및 사용자에 대한 이벤트 발생 여부를 시각화하여 하나의 화면으로 구성하여 출력하는 사용자 인터페이스(User interface, UI)를 제공할 수 있다. 이를 통해, 컴퓨팅 장치(100)는 환자에 대한 정보와 상태 정보를 한눈에 볼 수 있는 대시보드를 제공함으로써, 환자의 상태를 모니터링하는 사용자가 보다 용이하게 환자의 상태를 모니터링하고, 이벤트 발생에 따라 빠르게 대처할 수 있도록 유도할 수 있다.In various embodiments, the computing device 100 may provide a user interface (UI) that visualizes user-related information, user's biometric information data, and whether an event has occurred for the user, and configures and outputs a single screen. I can. Through this, the computing device 100 provides a dashboard for viewing patient information and status information at a glance, so that a user who monitors the patient's condition more easily monitors the patient's condition, and according to the occurrence of an event. You can induce them to respond quickly.

다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트가 발생되는 경우, UI를 통해 이벤트 발생 여부와 발생된 이벤트와 관련된 정보를 안내하는 안내 메시지 및 경고 신호를 출력할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 생체 정보 이미지에 대한 이미지 분석을 통해 이벤트가 발생된 것으로 판단되는 경우, UI를 통해 이벤트와 관련된 정보를 안내하는 안내 메시지와 음성 형태의 경고 신호를 함께 출력함으로써, 환자의 상태를 실시간으로 모니터링하는 사용자가 이벤트 발생 여부를 빠르게 인지할 수 있도록 할 수 있다.In various embodiments, when an event occurs, the computing device 100 may output a guide message and a warning signal for guiding whether an event has occurred and information related to the generated event through a UI. For example, when it is determined that an event has occurred through image analysis of the biometric information image, the computing device 100 outputs a guide message for guiding information related to the event and a warning signal in the form of a voice through the UI. , It is possible to enable a user who monitors the patient's condition in real time to quickly recognize whether an event has occurred.

다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지를 통해 판단된 이벤트의 종류에 기초하여, 경고 신호가 출력되는 형태를 설정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 이벤트의 종류에 따라 출력되는 음성 데이터의 종류를 설정(예: 이벤트가 저혈량성 쇼크인 경우 제1 음성 데이터를 출력하고, 심인성 쇼크인 경우 제2 음성 데이터를 출력)하거나, 음성 데이터의 출력 시간을 설정할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may set a form in which a warning signal is output based on the type of an event determined through the biometric information image. For example, the computing device 100 sets the type of voice data to be output according to the type of the event (e.g., when the event is a hypovolemic shock, it outputs the first voice data, and in the case of a psychogenic shock, the second voice data) Output) or set the output time of the audio data. However, it is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 사용자에 대한 정보와 복수의 사용자 각각에 대한 생체 정보 및 이벤트와 관련된 정보를 출력하는 UI를 제공할 수 있으며, UI를 통해 특정 사용자에 대한 정보 요청이 입력되는 경우, 특정 사용자에 대한 정보와 특정 사용자에 대한 생체 정보 및 이벤트와 관련된 정보만을 하나의 화면으로 구성하여 UI를 통해 출력할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 특정 사용자에 대한 정보와 특정 사용자에 대한 생체 정보 및 이벤트와 관련된 정보만을 하나의 화면으로 구성하여 팝업창 형태로 출력할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the computing device 100 may provide a UI for outputting information on a plurality of users, biometric information for each of the plurality of users, and information related to an event, and request information for a specific user through the UI. When this is input, only information about a specific user, biometric information about a specific user, and information related to an event may be configured as a single screen and output through the UI. For example, the computing device 100 may configure only information on a specific user, biometric information on a specific user, and information related to an event as a single screen and output in the form of a pop-up window. However, it is not limited thereto.

전술한 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은 도면에 도시된 순서도를 참조하여 설명하였다. 간단한 설명을 위해 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은 일련의 블록들로 도시하여 설명하였으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 본 명세서에 도시되고 시술된 것과 상이한 순서로 수행되거나 또는 동시에 수행될 수 있다. 또한, 본 명세서 및 도면에 기재되지 않은 새로운 블록이 추가되거나, 일부 블록이 삭제 또는 변경된 상태로 수행될 수 있다.The above-described method of detecting event occurrence through image analysis based on artificial intelligence has been described with reference to the flowchart shown in the drawings. For the sake of simplicity, the method of detecting event occurrence through image analysis based on artificial intelligence has been described as a series of blocks, but the present invention is not limited to the order of the blocks, and some blocks are shown and described in this specification. It may be performed in a different order or may be performed simultaneously. In addition, new blocks not described in the specification and drawings may be added, or some blocks may be deleted or changed.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You will be able to understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

100 : 이벤트 발생 감지 장치(컴퓨팅 장치)
200 : 사용자 단말
300 : 외부 서버
400 : 네트워크
100: event occurrence detection device (computing device)
200: user terminal
300: external server
400: network

Claims (10)

컴퓨팅 장치에 의해 수행되는 방법에 있어서,
시각화된 생체 정보 데이터를 수집하는 단계;
상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계;
상기 생체 정보 이미지를 분석하는 단계; 및
상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
In the method performed by the computing device,
Collecting visualized biometric information data;
Generating a biometric information image using the visualized biometric information data;
Analyzing the biometric information image; And
Including the step of detecting the occurrence of an event for the user according to the analysis result of the biometric information image,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제1항에 있어서,
상기 생체 정보 이미지를 생성하는 단계는,
실시간으로 수집되는 그래프 형태의 생체 정보 데이터를 기 설정된 주기마다 캡쳐(Capture)하여 상기 생체 정보 이미지를 생성하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
Generating the biometric information image,
Comprising the step of generating the biometric information image by capturing the biometric information data in the form of a graph collected in real time at each preset period,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제1항에 있어서,
상기 생체 정보 이미지를 분석하는 단계는,
상기 생체 정보 이미지를 기 설정된 시간 단위로 분할하여 복수의 단위 생체 정보 이미지를 생성하는 단계; 및
이미지 분석 모델을 이용하여 상기 복수의 단위 생체 정보 이미지 각각에 대한 이미지 분석을 수행하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
Analyzing the biometric information image,
Dividing the biometric information image into a predetermined time unit to generate a plurality of unit biometric information images; And
Comprising the step of performing image analysis on each of the plurality of unit biometric information images using an image analysis model,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제3항에 있어서,
상기 이벤트 발생 여부를 판단하는 단계는,
상기 분석 결과에 따라 상기 이벤트가 발생된 것으로 판단되는 것에 응답하여, 상기 복수의 단위 생체 정보 이미지 각각을 분석한 분석 결과로부터 상기 생체 정보 이미지의 이미지 패턴을 검출하는 단계; 및
상기 검출된 이미지 패턴을 이용하여 상기 발생된 이벤트의 종류 및 원인을 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 3,
The step of determining whether the event has occurred,
In response to determining that the event has occurred according to the analysis result, detecting an image pattern of the biometric information image from an analysis result obtained by analyzing each of the plurality of unit biometric information images; And
Including the step of determining the type and cause of the generated event using the detected image pattern,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제1항에 있어서,
상기 생체 신호 이미지를 분석하는 단계는,
상기 이벤트의 발생 여부가 레이블링(Labeling)된 복수의 생체 신호 이미지를 학습데이터로써 기 학습한 제1 인공지능 모델을 이용하여 상기 생체 신호 이미지를 분석하는 단계를 포함하며,
상기 이벤트 발생 여부를 판단하는 단계는,
상기 제1 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 상기 이벤트의 발생 여부와 발생 원인을 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
Analyzing the biosignal image,
Analyzing the biosignal image using a first artificial intelligence model that has previously learned a plurality of biosignal images labeled as to whether or not the event has occurred, as learning data,
The step of determining whether the event has occurred,
Including the step of determining whether or not the event occurs and a cause of occurrence based on the analysis result analyzed using the first artificial intelligence model,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제1항에 있어서,
상기 생체 신호 이미지를 분석하는 단계는,
상기 이벤트가 발생된 제1 시점을 기준으로, 상기 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 기 학습한 제2 인공지능 모델을 이용하여 상기 생체 신호 이미지를 분석하는 단계를 포함하며,
상기 이벤트 발생 여부를 판단하는 단계는,
상기 제2 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 상기 사용자에 대한 이벤트 발생 가능성을 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
Analyzing the biosignal image,
Based on the first time point at which the event occurs, the biosignal image is obtained by using a second artificial intelligence model that has previously learned the biometric information image at a second time point before a predetermined time before the first time point as training data. Comprising the step of analyzing,
The step of determining whether the event has occurred,
Including the step of determining the possibility of occurrence of an event for the user based on the analysis result analyzed using the second artificial intelligence model,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제1항에 있어서,
상기 사용자와 관련된 정보, 상기 사용자의 생체 정보 데이터 및 상기 사용자에 대한 이벤트 발생 여부를 시각화하여 하나의 화면으로 구성하여 출력하는 사용자 인터페이스(User interface, UI)를 제공하는 단계를 더 포함하며,
상기 UI를 제공하는 단계는,
상기 이벤트가 발생되는 경우, 상기 UI를 통해 상기 이벤트 발생 여부와 상기 발생된 이벤트와 관련된 정보를 안내하는 안내 메시지 및 상기 경고 신호를 출력하는 단계를 더 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
Providing a user interface (UI) for visualizing the user-related information, the user's biometric information data, and whether an event for the user has occurred, and configuring and outputting a single screen,
Providing the UI,
When the event occurs, further comprising the step of outputting the warning signal and a guide message for guiding whether the event has occurred and information related to the generated event through the UI,
A method of detecting event occurrence through image analysis based on artificial intelligence.
제1항에 있어서,
상기 생체 정보 데이터는,
상기 사용자의 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인(Vital sign) 데이터를 포함하며,
상기 이벤트 발생 여부를 판단하는 단계는,
상기 이미지화된 바이탈 사인 데이터를 분석하여 사용자에 대한 저혈량성 쇼크, 심인성 쇼크, 폐쇄성 쇼크 및 분배성 쇼크 중 어느 하나 이상의 발생 여부를 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.
The method of claim 1,
The biometric information data,
Including vital sign data including at least one of the user's blood pressure data, body temperature data, pulse data, and respiratory rate data,
The step of determining whether the event has occurred,
Analyzing the imaged vital sign data to determine whether or not any one or more of hypovolemic shock, psychogenic shock, obstructive shock, and distributive shock to the user has occurred,
A method of detecting event occurrence through image analysis based on artificial intelligence.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.
A memory for storing one or more instructions; And
A processor that executes the one or more instructions stored in the memory,
The processor executes the one or more instructions,
An apparatus for performing the method of claim 1.
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program combined with a computer as hardware and stored in a recording medium readable by a computer to perform the method of claim 1.
KR1020200053048A 2019-10-28 2020-05-02 Deep learning computer vision-based emergency patient shock signs discovery system KR20210050424A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190134189 2019-10-28
KR1020190134189 2019-10-28

Publications (1)

Publication Number Publication Date
KR20210050424A true KR20210050424A (en) 2021-05-07

Family

ID=75916730

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200053048A KR20210050424A (en) 2019-10-28 2020-05-02 Deep learning computer vision-based emergency patient shock signs discovery system

Country Status (1)

Country Link
KR (1) KR20210050424A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101070389B1 (en) 2010-12-30 2011-10-06 김용중 System for monitoring patient condition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101070389B1 (en) 2010-12-30 2011-10-06 김용중 System for monitoring patient condition

Similar Documents

Publication Publication Date Title
KR102494310B1 (en) Method, apparatus and computer program for determining the possibility of shock occurrence through the analysis of visualized vital sign data
AU2022201530B2 (en) Apparatus, systems and methods for predicting, screening and monitoring of encephalopathy/delirium
US11051768B1 (en) Determining when to emit an alarm
JP2009538706A (en) Displaying trends and trends predicted from mitigation
WO2020121308A9 (en) Systems and methods for diagnosing a stroke condition
US20220148728A1 (en) System and method for analyzing stress of user and managing individual mental health, using hmd device having biosignal sensors mounted therein
US20200178903A1 (en) Patient monitoring system and method having severity prediction and visualization for a medical condition
JP2022037153A (en) Electrocardiogram analysis device, electrocardiogram analysis method, and program
Rescio et al. Ambient and wearable system for workers’ stress evaluation
US20220165393A1 (en) System for the detection and management of mental, emotional, and behavioral disorders
KR20210050424A (en) Deep learning computer vision-based emergency patient shock signs discovery system
US20210290178A1 (en) Brain injury monitoring with recovery trajectory
CN116570246A (en) Epileptic monitoring and remote alarm system
JP7519365B2 (en) Determining the relative cognitive abilities of subjects
KR102515982B1 (en) Apparatus for deciding occurrence of delirium and method for deciding occurrence of delirium using the same
WO2018158704A1 (en) Work management apparatus, method, and program
JPWO2019186955A1 (en) Biometric information estimation device, biometric information estimation method, and biometric information estimation program
JP6975016B2 (en) Condition change discriminator
CN113349746A (en) Vital sign monitoring alarm system
TWI809612B (en) Fall Assessment Risk Warning System
US20240115213A1 (en) Diagnosing and tracking stroke with sensor-based assessments of neurological deficits
Yamsanwar et al. Semi-invasive system for detecting and monitoring dementia patients
WO2018158702A1 (en) Production management apparatus, method, and program
JP2019504404A (en) Behavioral learning clinical support
Shehab et al. Developing an AI Model That Relies on Mobile Health Devices to Track Heart Activity