KR20210050424A - Deep learning computer vision-based emergency patient shock signs discovery system - Google Patents
Deep learning computer vision-based emergency patient shock signs discovery system Download PDFInfo
- Publication number
- KR20210050424A KR20210050424A KR1020200053048A KR20200053048A KR20210050424A KR 20210050424 A KR20210050424 A KR 20210050424A KR 1020200053048 A KR1020200053048 A KR 1020200053048A KR 20200053048 A KR20200053048 A KR 20200053048A KR 20210050424 A KR20210050424 A KR 20210050424A
- Authority
- KR
- South Korea
- Prior art keywords
- biometric information
- event
- image
- data
- artificial intelligence
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7282—Event detection, e.g. detecting unique waveforms indicative of a medical condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/746—Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
- A61B5/747—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network in case of emergency, i.e. alerting emergency services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G06N3/0427—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Fuzzy Systems (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Business, Economics & Management (AREA)
- Critical Care (AREA)
- Emergency Management (AREA)
- Emergency Medicine (AREA)
- Nursing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
본 발명의 다양한 실시예는 딥러닝 컴퓨터 비전 기반 응급환자 쇼크 징후 발견 시스템에 관한 것이다. Various embodiments of the present invention relate to a deep learning computer vision-based emergency patient shock symptom detection system.
중환자실은 환자의 생존, 사망에 큰 영향을 미치며, 국내 의료비의 25%를 차지하는 중요한 보건의료체에도 중환자 전담 의료인의 부족, 병원/지역 간 질 편차, 환자 이송 중 높은 사망률 등 진료의 질과 효율성 측면에서 매우 낙후된 상황이다.The intensive care unit has a great influence on the survival and death of patients, and the quality and efficiency of treatment, such as the lack of dedicated intensive care personnel, hospital/regional interdifferentiation, and high mortality during patient transfer, even in important health care institutions that account for 25% of domestic medical expenses. It is a very lagging situation in.
2018년 5월 22일 한국일보 기사에 의하면, 건강보험심사평가원이 지난 2016년 발표한 ‘2014년(1차)중환자실 적정성 평가결과’에 따르면, 우리나라 중환자실 전담전문의 1인당 중환자실 평균 병상수는 무려 44.7병상에 달하고, 상급종합 병원은 40.4병상, 종합병원은 48.9병상이다. 이와 같이 전담전문의의 1인당 평균 병상수가 높다보니 중환자실에 입원한 환자가 전문의 얼굴조차 보기 힘들다는 문제가 있다.According to an article in the Hankook Ilbo on May 22, 2018, according to the '2014 (1st) intensive care unit adequacy evaluation result' released by the Health Insurance Review and Assessment Service in 2016, average beds in the intensive care unit per person dedicated to the intensive care unit in Korea The number of hospitals is as high as 44.7 beds, 40.4 beds in a general hospital and 48.9 beds in a general hospital. As the average number of beds per person of a dedicated specialist is high, there is a problem that it is difficult for patients admitted to the intensive care unit to even see a specialist's face.
이렇다 보니 패혈증 등을 조기에 발견하지 못해 사망하는 일도 잇따르는 현실이고 심평원 조사에 따르면 우리나라 중환자실에 입원한 성인 환자 평균 사망률은 16.9%로 상급병원은 14.3%, 종합병원은 17.4%에 달한다.As such, deaths due to not being able to detect sepsis at an early stage are also a successive reality, and according to the Simpyeongwon survey, the average mortality rate of adult patients admitted to the intensive care unit in Korea is 16.9%, 14.3% for senior hospitals and 17.4% for general hospitals.
중환자실은 생명 유지를 위한 필수 기능인 호흡과 심장 박동 등에 매우 큰 문제를 가지고 있는 환자들을 위한 곳이고, 24시간 주7일 365일 집중적인 치료를 받는 곳이며, 언제든 달라질 수 있는 집중 돌봄 환자들의 상태 변화를 놓치지 않기 위해서는 환자들의 생체 데이터를 실시간으로 측정, 분석해야 한다.The intensive care unit is for patients with very big problems such as breathing and heartbeat, which are essential functions for life maintenance, and is a place where intensive care is received 24 hours a day, 7 days a week, and changes in the state of intensive care patients that can change at any time. In order not to miss, the patient's biometric data must be measured and analyzed in real time.
그러나, 각 의료기기들에서 생성되는 데이터는 종류도 많고 형식도 다양하고 생성되는 데이터의 양도 방대하여, 대규모의 복잡한 데이터 속에서 가치 있는 정보를 추출하기 어렵다는 문제가 있다.However, there is a problem in that it is difficult to extract valuable information from large-scale, complex data, as the data generated by each medical device has many types and formats, and the amount of data generated is vast.
또한, 응급환자에게 발생할 수 있는 다양한 쇼크 중 아나필락시스(Anaphylaxis) 쇼크의 경우는 알레르기 반응이 몸 전체에 급격히 일어나 기관지 주변의 근육을 수축시켜 호흡 곤란을 유발하고 말초혈관을 느슨하게 만들어 혈압을 급격히 떨어뜨려 의식을 잃게 하며 또한 심장에 부담을 주어 심장을 멎게 만들어 수 분 안에 사망으로 이어질 수 있는 매우 위험한 쇼크 중의 하나이다. 따라서, 이러한 쇼크를 사전에 정확히 예측할 수 있도록 하는 시스템의 개발이 요구된다.In addition, in the case of anaphylaxis shock, among various shocks that can occur in emergency patients, an allergic reaction occurs rapidly throughout the body, contracting the muscles around the bronchi, causing breathing difficulties, loosening peripheral blood vessels, and sharply lowering blood pressure. It is one of the very dangerous shocks that can cause you to lose weight and also put a strain on your heart, stopping the heart, and leading to death within minutes. Therefore, there is a need to develop a system capable of accurately predicting such a shock in advance.
또한, 응급 및 병원 현장에서 발생하는 환자감시장치(Patient monitor)의 위양성 경보음(False Alarm)이 일으키는 심각성이 주목된다. 정확한 생리학적 위험을 나타내는 데이터가 아님에도 발생하는 경보음을 일컫는 위양성 경보음은 현대의학을 활용하는 전 세계 응급 및 병원 현장에서 오랫동안 응급환자 대응에 심각한 문제가 되어오고 있다. 이러한 위양성 경보음은 의료진의 경보음에 대한 경각심을 낮추는 결과를 낳게 하여 의료인의 즉각적인 처치가 필요한 심각한 상황에서도 일어날 수 있기에, 환자안전에 큰 문제가 될 수 있다. 따라서, 이러한 이상 징후를 사전에 정확히 감지할 수 있는 기술의 개발이 요구된다.In addition, attention is paid to the severity of false alarms of patient monitors occurring in emergency and hospital sites. The false-positive alarm sound, which refers to an alarm sound that occurs even though data indicating an exact physiological risk, has been a serious problem in responding to emergency patients for a long time in emergency and hospital sites around the world using modern medicine. Such false-positive alarm sounds can result in lowering the alertness of the medical staff to the alarm sounds, and can occur even in serious situations requiring immediate medical attention, which can be a major problem for patient safety. Therefore, there is a need to develop a technology capable of accurately detecting such abnormal symptoms in advance.
본 발명이 해결하고자 하는 과제는 환자의 생체 정보를 측정하는 방대한 데이터를 분석하여 환자에게 발생되는 각종 이벤트와 이벤트 발생 가능성을 감지함으로써, 환자의 상태 변화에 대한 실시간 정보를 제공하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램을 제공하는 것이다.The problem to be solved by the present invention is an artificial intelligence-based image that provides real-time information on changes in the patient's condition by analyzing a vast amount of data that measures patient's biometric information and detecting various events and events occurring in the patient. It is to provide a method, an apparatus, and a computer program for detecting event occurrence through analysis.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함할 수 있다.The method for detecting event occurrence through image analysis based on artificial intelligence according to an embodiment of the present invention for solving the above-described problem is a method performed by a computing device, comprising the steps of: collecting visualized biometric information data, the Generating a biometric information image using the visualized biometric information data, analyzing the biometric information image, and detecting the occurrence of an event for the user according to the analysis result of the biometric information image.
상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함할 수 있고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법을 수행할 수 있다.An apparatus for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention for solving the above-described problem includes a memory for storing one or more instructions and a processor for executing the one or more instructions stored in the memory. The processor may include, by executing the one or more instructions, collecting visualized biometric information data, generating a biometric information image using the visualized biometric information data, and analyzing the biometric information image. The method of detecting the occurrence of an event through image analysis based on artificial intelligence including the step of detecting the occurrence of an event for the user according to the step and the analysis result of the biometric information image may be performed.
상술한 과제를 해결하기 위한 본 발명으 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 컴퓨터프로그램은, 하드웨어인 컴퓨터와 결합되어, 시각화된 생체 정보 데이터를 수집하는 단계, 상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계, 상기 생체 정보 이미지를 분석하는 단계 및 상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장될 수 있다.The computer program for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention for solving the above-described problems is combined with a computer that is hardware to collect visualized biometric information data, the visualization Generating a biometric information image using the biometric information data, analyzing the biometric information image, and detecting the occurrence of an event for the user according to the analysis result of the biometric information image. It may be stored in a computer-readable recording medium so that the event occurrence detection method through image analysis can be performed.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.
본 발명이 해결하고자 하는 과제는 환자의 생체 정보를 측정하는 방대한 데이터를 분석하여 환자에게 발생되는 각종 이벤트와 이벤트 발생 가능성을 감지함으로써, 환자의 상태 변화에 대한 실시간 정보를 제공한다는 이점이 있다.The problem to be solved by the present invention has the advantage of providing real-time information on a change in a patient's state by analyzing a vast amount of data measuring biometric information of a patient and detecting various events and events occurring in the patient.
또한, 환자의 위험 징후를 정확히 예측하기 위해서 환자들 상태를 24시 간 365일 실시간 모니터링 하고 인공지능 기반의 예측을 수행하여 이상 징후가 나타나면 담당 간호사 등에게 즉시 알람을 보내 사전에 대처하도록 함과 동시에 시각화 기능을 갖추어 경과를 한눈에 파악할 수 있도록 한다.In addition, in order to accurately predict the patient's risk signs, the patient's condition is monitored in real time 24 hours a day, 365 days a year, and artificial intelligence-based prediction is performed. When abnormal signs appear, an alarm is immediately sent to the nurse in charge to respond in advance. It is equipped with a visualization function so that the progress can be grasped at a glance.
또한, 간호 인력의 환자 활력 정보에 대한 수작업 입력 등을 제거하고 환자 데이터의 실시간 처리를 보장함으로써 상대적으로 취약한 노령 중환자 진료의 질 향상에 기여할 수 있다.In addition, it is possible to contribute to the improvement of the quality of care for elderly critically ill patients who are relatively vulnerable by eliminating manual input of patient vitality information by nursing personnel and ensuring real-time processing of patient data.
또한, 중증환자의 입원 기간 단축 효과를 달성 가능함에 따라 국가 전체적인 중증환자 의료비용 감소가 가능하다는 이점이 있다.In addition, as it is possible to achieve the effect of shortening the hospitalization period for severely ill patients, there is an advantage in that it is possible to reduce medical costs for severely ill patients throughout the country.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템의 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치의 하드웨어 구성도이다.
도 3은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법의 순서도이다.
도 4는 다양한 실시예에서, 이벤트 발생 감지 장치가 생체 정보 데이터를 이미지화하는 구성을 도시한 도면이다.
도 5는 다양한 실시예에서, 이벤트 발생 감지 장치가 제1 인공지능 모델 및 제2 인공지능 모델을 학습하는 과정을 도시한 도면이다.
도 6은 다양한 실시예에서, 인공지능 모델을 이용하여 이벤트 발생 감지 방법의 순서도이다.1 is a block diagram of an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention.
2 is a hardware configuration diagram of a device for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.
3 is a flowchart of a method for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.
FIG. 4 is a diagram illustrating a configuration in which an event occurrence detection device images biometric information data according to various embodiments of the present disclosure.
5 is a diagram illustrating a process in which an event detection device learns a first artificial intelligence model and a second artificial intelligence model, according to various embodiments.
6 is a flowchart of a method of detecting occurrence of an event using an artificial intelligence model in various embodiments.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and "and/or" includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "modules" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to the orientation.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer means all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in the corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and application running on each device, and is not limited thereto.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.
도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템의 구성도이다.1 is a block diagram of an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템은 이벤트 발생 감지 장치(100), 사용자 단말(200) 및 외부 서버(300)를 포함할 수 있다.Referring to FIG. 1, an event occurrence detection system through image analysis based on artificial intelligence according to an embodiment of the present invention may include an event
여기서, 도 1에 도시된 인공지능 기반 이미지 분석을 통한 이벤트 발생 감지 시스템은 일 실시예에 따른 것이고, 그 구성요소가 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.Here, the event occurrence detection system through artificial intelligence-based image analysis shown in FIG. 1 is according to an embodiment, and its components are not limited to the embodiment shown in FIG. It can be deleted.
일 실시예에서, 이벤트 발생 감지 장치(100)는 사용자로부터 감지되는 생체 정보 데이터를 수집할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 사용자의 신체의 적어도 일부에 설치되며 사용자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡수 센서 등)로부터 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인(Vital sign) 데이터를 수집할 수 있다. In an embodiment, the event
다양한 실시예에서, 이벤트 발생 감지 장치(100)는 외부로부터 생체 정보 데이터를 수집하되, 그래프와 같이 시각화된 생체 정보 데이터를 수집할 수 있다.In various embodiments, the event
다양한 실시예에서, 이벤트 발생 감지 장치(100)는 외부로부터 스칼라 형태의 생체 정보 데이터를 수집할 수 있다. 그러나, 이에 한정되지 않고, 사용자의 생체 정보를 나타내는 다양한 형태의 데이터를 수집할 수 있다.In various embodiments, the event
일 실시예에서, 이벤트 발생 감지 장치(100)는 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 실시간으로 수집되는 그래프 형태의 생체 정보 데이터를 기 설정된 주기마다 캡쳐(Capture)하여 생체 정보 이미지를 생성할 수 있다. In an embodiment, the event
다양한 실시예에서, 외부로부터 수집되는 생체 정보 데이터가 스칼라 형태인 경우, 스칼라 형태의 생체 정보 데이터를 그래프 형태로 시각화 하고, 시각화된 생체 정보 데이터를 캡쳐하여 생체 정보 이미지를 생성할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, when the biometric information data collected from the outside is in a scalar form, the biometric information data in the scalar form may be visualized in a graph form, and the biometric information image may be generated by capturing the visualized biometric information data. However, it is not limited thereto.
다양한 실시예에서, 환자감시장치(Patient Monitor)로부터 획득되는 각종 생체 데이터를 기 설정된 형태나 규칙에 기반하여 생체 정보 이미지를 생성할 수 있다. 환자감시장치는 아날로그 신호를 모니터에 표시하는 방식으로, 파형의 형태로부터 의료진의 전문지식에 의해 환자의 상태를 파악하는 보조도구이다.In various embodiments, a biometric information image may be generated based on a predetermined form or rule of various biometric data acquired from a patient monitor. Patient monitoring is a method of displaying an analog signal on a monitor, and is an auxiliary tool that grasps the patient's condition from the shape of the waveform based on the expert knowledge of the medical staff.
일 실시 예에서, 환자감시장치로부터 획득된 생체 데이터를 기 설정된 규칙에 기반하여 기 설정된 형태의 그래프로 표현하는 생체 정보 이미지를 생성할 수 있으나, 이에 제한되는 것은 아니다.In an embodiment, a biometric information image that expresses the biometric data acquired from the patient monitoring device as a graph in a predetermined form based on a predetermined rule may be generated, but the present invention is not limited thereto.
단, 기존에 이용되는 환자감시장치는 아날로그 전압 신호를 화면에 디스플레이할 뿐으로, 측정값이 화면에는 표시가 되나 디지털화된 데이터가 수집되지는 못하는 것이 일반적이다. 따라서 각 화면이 지나고 나면 정보가 사라지므로, 매번 의료인력이 눈으로 확인해야 하는 문제점이 있다.However, conventional patient monitoring devices only display analog voltage signals on the screen, and measurement values are displayed on the screen, but digitized data cannot be collected. Therefore, since the information disappears after each screen passes, there is a problem that medical personnel must visually check each time.
이에 따라 24시간 매번 확인이 불가능하고, 잠깐의 위기 신호가 발생해도 이를 놓칠 수 있는 단점이 있다. 따라서 아날로그 기기인 환자감시장치의 화면을 카메라로 촬영하여 표시된 모든 정보를 활용하여 환자의 상태를 자동으로 디지털화 하는 기술의 도입이 요구된다.Accordingly, there is a disadvantage that it is impossible to check every 24 hours, and even if a brief crisis signal occurs, it can be missed. Therefore, it is required to introduce a technology that automatically digitizes the patient's condition using all information displayed by photographing the screen of a patient monitoring device, which is an analog device, with a camera.
일 실시 예에서, 생체 정보 이미지는 환자감시장치의 화면을 촬영한 이미지에 기반하여 획득될 수도 있다. 예를 들어, 기존에 환자감시장치에서 이용되는 아날로그 화면을 촬영한 이미지 혹은 해당 이미지를 보정 및 전처리한 결과가 생체 정보 이미지로 활용될 수 있다. 다른 예로, 기존에 환자감시장치에서 이용되는 아날로그 화면을 촬영한 이미지로부터 환자의 생체 데이터가 추출될 수 있다. 추출된 생체 데이터는 가공되어 생체 정보 이미지를 생성하는 데 활용될 수 있다. 예를 들어, 호흡이나 맥박 등 주기적인 신호는 그 진폭과 주기를 파악하고, 숫자로 나타난 정보는 표시된 값을 수치로 변환할 수 있으나, 이에 제한되는 것은 아니다.In an embodiment, the biometric information image may be obtained based on an image photographed on the screen of the patient monitoring device. For example, an image of an analog screen used in a conventional patient monitoring device or a result of correcting and pre-processing the image may be used as a biometric information image. As another example, biometric data of a patient may be extracted from an image taken of an analog screen used in a conventional patient monitoring device. The extracted biometric data can be processed and used to generate biometric information images. For example, a periodic signal such as respiration or pulse may determine its amplitude and period, and information indicated as a number may convert the displayed value into a numerical value, but is not limited thereto.
예를 들어, 파형 분석은 일반 영상처리 기술과 인공신경망의 CNN(Convolutional Neural Network) 및 Fourier Transform의 변형인 FFT(Fast Fourier Transform)를 융합하여 사용될 수 있다. 또한, 이미지 분석은 인공신경망 중 CNN계열이 활용될 수 있으나, 이에 제한되는 것은 아니다.For example, waveform analysis can be used by fusion of a general image processing technology and a Convolutional Neural Network (CNN) of an artificial neural network and a Fast Fourier Transform (FFT), which is a transformation of Fourier Transform. In addition, the CNN series among artificial neural networks may be used for image analysis, but the present invention is not limited thereto.
또한, 촬영되는 화면 이미지에서 불필요한 정보가 많으므로 이 정보를 제거하기 위해 AE(Auto Encoder) 기법을 도입하여 노이즈를 제거하는 필터를 개발할 수 있다. AE는 정보를 축소했다가 다시 복원하는 과정으로 나뉘는데, 축소하는 과정에서 노이즈 정보를 제거한다. 노이즈가 많지 않을 경우, 본 단계는 생략될 수 있다.In addition, since there is a lot of unnecessary information in the captured screen image, it is possible to develop a filter that removes noise by introducing an AE (Auto Encoder) technique to remove this information. AE is divided into a process of reducing information and then restoring it. In the process of reducing, noise information is removed. If there is not much noise, this step may be omitted.
숫자나 문자와 같은 글자 부분은 OCR(Optical Character Recognition) 기법을 사용하되, 고정된 폰트가 있는 경우 이에 기반하여 정확도를 더욱 높일 수 있다.For character parts such as numbers and letters, OCR (Optical Character Recognition) is used, but if there is a fixed font, accuracy can be further improved based on this.
또한, 이 과정에서 딥러닝 컴퓨터 비전으로 실시간으로 영상을 분석하는 시스템이 적용될 수 있다. 카메라를 통해 환자감시장치를 촬영함에 있어서, 촬영하는 주기 및 이에 기반하여 데이터를 수집하는 주기를 설정해야 할 수 있다. 또한 촬영되는 화면에서 파형과 문자 이외의 이미지에서 정보를 추출할 수 있어야 하며, 도표나 텍스트가 항상 고정된 위치에서 동일한 형태로 표현되지 않거나, 제작사별로 그 형태가 상이한 경우 이를 판단할 수 있어야 한다.Also, in this process, a system that analyzes images in real time with deep learning computer vision can be applied. When photographing patient monitoring values through a camera, it may be necessary to set a period of photographing and a period of collecting data based thereon. In addition, information must be able to be extracted from images other than waveforms and texts on the screen being photographed, and it must be possible to determine when diagrams or texts are not always expressed in the same form at a fixed location, or if the form is different for each manufacturer.
일 실시예에서, 이벤트 발생 감지 장치(100)는 생체 정보 이미지를 분석하여 사용자에 대한 이벤트 발생 감지를 판단할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 이미지 분석 모델을 이용하여 생체 정보 이미지를 분석함으로써, 사용자에 대한 이벤트 발생 감지를 판단할 수 있다.In an embodiment, the event
여기서, 이미지 분석 모델은 특정 이미지와 특정 이미지가 가리키는 정보를 학습 데이터로써 기 학습된 인공지능 모델(예: 제1 인공지능 모델 및 제2 인공지능 모델)일 수 있다. 그러나, 이에 한정되지 않는다.Here, the image analysis model may be an artificial intelligence model (eg, a first artificial intelligence model and a second artificial intelligence model) that has been previously trained using a specific image and information indicated by the specific image as training data. However, it is not limited thereto.
또한, 여기서 이벤트는 사용자로부터 발생되는 이상 상태를 의미한다. 예를 들어, 이벤트는 저혈량성 쇼크, 심인성 쇼크, 폐쇄성 쇼크 및 분배성 쇼크 중 어느 하나 이상을 포함할 수 있다.In addition, the event here means an abnormal state generated by the user. For example, the event may include any one or more of hypovolemic shock, psychogenic shock, obstructive shock, and distributive shock.
일 실시예에서, 이벤트 발생 감지 장치(100)는 사용자의 생체 정보 데이터, 생체 정보 이미지, 이벤트 발생 여부 등과 같은 이벤트와 관련된 정보를 출력하는 사용자 인터페이스(User interface, UI)를 제공할 수 있다.In an embodiment, the event
일 실시예에서, 사용자 단말(200)은 사용자 단말(200)의 적어도 일부분에 디스플레이를 포함할 수 있으며, 네트워크(400)를 통해 이벤트 발생 감지 장치(100)로부터 제공되는 각종 정보(예: 이벤트 발생 여부에 대한 정보 및 이벤트 발생 가능성에 대한 정보)를 출력할 수 있다. 예를 들어, 사용자 단말(200)은 이벤트 발생 감지 장치(100)로부터 제공되는 UI(예; 사용자의 생체 정보 및 이벤트 발생과 관련된 정보를 출력하는 UI)를 출력할 수 있으며, UI를 통해 이벤트 발생 감지 장치(100)로부터 제공되는 각종 정보를 출력할 수 있다.In one embodiment, the
다양한 실시예에서, 사용자 단말(200)은 스마트폰, 태블릿 PC, 노트북 데스크탑 및 키오스크 중 적어도 하나를 포함할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the
일 실시예에서, 외부 서버(300)는 네트워크(400)를 통해 이벤트 발생 감지 장치(100)와 유무선 연결될 수 있으며, 이벤트 발생 감지 장치(100)로부터 각종 정보(예: 이벤트 발생 여부에 대한 정보 및 이벤트 발생 가능성에 대한 정보)를 제공받아 저장할 수 있다.In one embodiment, the
여기서, 도 1에 도시된 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 시스템은 이벤트 발생 감지 장치(100)에서 생성되는 각종 데이터가 외부 서버(300)에 저장되는 형태로 기재되어 있으나, 이에 한정되지 않고, 이벤트 발생 감지 장치(100)가 별도의 저장 장치를 구비하여 별도로 구비된 저장장치에 각종 데이터를 저장할 수 있다.Here, the event occurrence detection system through image analysis based on artificial intelligence illustrated in FIG. 1 is described in a form in which various data generated by the event
다양한 실시예에서, 외부 서버(300)는 환자와 관련된 다양한 정보(예: 환자의 신상 정보, 환자의 질병 정보 등)를 저장할 수 있고, 저장된 환자와 관련된 데이터 중 어느 하나 이상의 데이터를 이벤트 발생 감지 장치(100)로 제공할 수 있다. 예를 들어, 외부 서버(300)는 병원 서버일 수 있으며, 이벤트 발생 감지 장치(100)로부터 특정 환자에 대한 정보 요청을 수신하는 경우, 특정 환자와 관련된 다양한 정보를 선택하여 이벤트 발생 감지 장치(100)로 제공할 수 있다. 이하, 도 2를 참조하여, 이벤트 발생 감지 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.In various embodiments, the
도 2는 본 발명의 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 장치의 하드웨어 구성도이다.2 is a hardware configuration diagram of a device for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.
도 2를 참조하면, 본 발명의 다른 실시예에 따른 이벤트 발생 감지 장치(100)(이하, "컴퓨팅 장치(100)")는 프로세서(110) 및 메모리(120)를 포함할 수 있다. 다양한 실시예에서, 컴퓨팅 장치(100)는 네트워크 인터페이스(또는 통신 인터페이스)(미도시), 스토리지(미도시), 버스(bus)(미도시)를 더 포함할 수 있다.Referring to FIG. 2, an event occurrence detection device 100 (hereinafter, "
일 실시예에서, 프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어할 수 있다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.In one embodiment, the
다양한 실시예에서, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 다양한 실시예에서, 프로세서(110)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예: 버스(bus) 등)를 포함할 수 있다.In various embodiments, the
다양한 실시예에서, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In various embodiments, the
일 실시예에서, 프로세서(110)는 메모리(120)에 저장된 하나 이상의 인스트럭션(instruction)을 실행함으로써, 도 3 내지 8과 관련하여 설명될 방법(인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법)을 수행할 수 있다. 예를 들어, 프로세서(110)는 메모리(120)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 시각화된 생체 정보 데이터를 수집하는 동작, 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 동작, 생체 정보 이미지를 분석하는 동작 및 생체 정보 이미지의 분석 결과에 따라 사용자에 대한 이벤트 발생을 감지하는 동작을 수행할 수 있다. In one embodiment, the
일 실시예에서, 메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장할 수 있다. 메모리(120)에는 프로세서(110)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(120)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.In one embodiment, the
다양한 실시예에서, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수 있다. In various embodiments, steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 이하, 도 3 내지 8을 참조하여, 컴퓨팅 장치(100)가 수행하는 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법에 대하여 설명하도록 한다.Components of the present invention may be implemented as a program (or application) and stored in a medium to be executed by being combined with a computer that is hardware. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++. , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors. Hereinafter, a method of detecting event occurrence through artificial intelligence-based image analysis performed by the
도 3은 본 발명의 또 다른 실시예에 따른 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법의 순서도이다.3 is a flowchart of a method for detecting event occurrence through image analysis based on artificial intelligence according to another embodiment of the present invention.
도 3을 참조하면, S110 단계에서, 컴퓨팅 장치(100)는 외부로부터 생체 정보 데이터를 수집할 수 있다. 예를 들어, 예를 들어, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡 센서)로부터 생성된 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 수집할 수 있다.Referring to FIG. 3, in step S110, the
다양한 실시예에서, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서(예: 혈압 센서, 체온 센서, 맥박 센서 및 호흡 센서)로부터 생성된 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 시각화 하여 출력하는 생체 정보 출력 장치(예: 중환자실의 Bed-side 모니터링 장치)로부터 시각화된 바이탈 사인 데이터를 수집할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 환자의 생체 정보를 감지하는 복수의 센서로부터 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인 데이터를 직접 수집하고, 직접 수집한 바이탈 사인 데이터를 그래프 형태로 시각화 할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 외부로부터 수집되는 생체 정보 데이터에 대하여 이상치 분석(Outlier analysis)(예: 정형화된 이상치 패턴이 있는 경우, 이상치를 제거, 마할라노비스 거리 등 표준편차를 이용한 필터를 사용하여 노이즈를 제거)을 수행할 수 있고, 후술되는 S120 단계에서 이상치 분석을 통해 노이즈가 제거된 생체 정보 데이터만을 이용하여 생체 정보 이미지를 생성할 수 있다.In various embodiments, the
S120 단계에서, 컴퓨팅 장치(100)는 S110 단계에서 수집한 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다.In step S120, the
다양한 실시예에서, 컴퓨팅 장치(100)는 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하고, 생체 정보 이미지를 기 설정된 시간 단위로 분할하여 이미지 분석 모델의 학습을 위한 복수의 단위 생체 정보 이미지를 생성할 수 있다. 이하, 도 4를 참조하여, 컴퓨팅 장치(100)가 수행하는 생체 정보 이미지 생성 방법에 대하여 설명하도록 한다.In various embodiments, the
도 4는 다양한 실시예에서, 이벤트 발생 감지 장치가 생체 정보 데이터를 이미지화하는 구성을 도시한 도면이다.FIG. 4 is a diagram illustrating a configuration in which an event occurrence detection device images biometric information data according to various embodiments of the present disclosure.
도 4를 참조하면, 다양한 실시예에서, 컴퓨팅(100) 장치는 외부로부터 수집한 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있고, 생체 정보 이미지를 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.Referring to FIG. 4, in various embodiments, the
먼저, 컴퓨팅 장치(100)는 외부로부터 그래프 형태로 시각화된 생체 정보 데이터(예: 바이탈 사인 데이터)를 수집하거나, 외부로부터 스칼라 형태의 생체 정보 데이터를 수집하고 수집한 스칼라 형태의 생체 정보 데이터를 그래프 형태로 시각화하여 시각화된 생체 정보 데이터를 생성할 수 있다.First, the
다양한 실시예에서 컴퓨팅 장치(100)는 기 설정된 제1 주기(T) 마다 사용자의 생체 정보 데이터를 수집할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 센서 각각으로부터 생체 정보 데이터가 감지되는 주기가 서로 상이한 경우, 복수의 센서 각각에 설정된 생체 정보 데이터 감지 주기 중 가장 짧은 주기를 가지는 센서를 기준으로 생체 정보 데이터를 수집할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, when the periods in which the biometric information data is detected from each of the plurality of sensors are different from each other, the
이후, 컴퓨팅 장치(100)는 그래프 형태로 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 실시간으로 수집되는 그래프 형태의 생체 정보 데이터를 기 설정된 제2 주기마다 캡쳐(Capture)하여 생체 정보 이미지를 생성할 수 있다.Thereafter, the
여기서, 컴퓨팅 장치(100)는 제2 주기를 제1 주기와 동일하게 설정하거나 제1 주기보다 짧게 설정할 수 있으나, 이에 한정되지 않는다.Here, the
이후, 컴퓨팅 장치(100)는 캡쳐하여 생성된 생체 정보 이미지를 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.Thereafter, the
다양한 실시예에서, 컴퓨팅 장치(100)는 기 설정된 시간 단위를 기준으로 생체 정보 이미지를 분할함으로써, 복수의 단위 생체 정보 이미지를 생성할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 기 설정된 개수로 생체 정보 이미지를 분할함으로써, 복수의 단위 생체 정보 이미지를 생성할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부 및 이벤트 발생 가능성에 기초하여 복수의 단위 생체 정보 이미지 각각의 시간 단위를 조절하거나, 둘 이상의 단위 생체 정보 이미지를 하나로 결합할 수 있다.In various embodiments, the
여기서, 컴퓨팅 장치(100)는 이미지 분석 모델에서 수행되는 이미지 분석의 입력 값으로써, 복수의 단위 생체 정보 이미지를 이용할 수 있으며, 이미지 분석 이후에는 이미지 분석 모델의 학습을 위한 학습 데이터로써 이용할 수 있다. 그러나, 이에 한정되지 않는다.Here, the
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 생체 정보 데이터(예: 그래프 형태의 바이탈 사인 데이터)를 이용하여 생체 정보 이미지를 생성하되, 생체 정보 데이터의 종류에 따라 서로 상이한 형태 및 패턴으로 시각화하거나 서로 상이한 색상으로 시각화 하여 생체 정보 이미지를 생성할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 생체 정보 데이터가 혈압 데이터인 경우, 최저 혈압 값과 최고 혈압 값을 나타내는 막대 그래프 형태로 시각화할 수 있고, 생체 정보 데이터가 체온 데이터인 경우, 감지 시점의 체온 값을 꺾은 선 그래프 형태로 시각화할 수 있다.In various embodiments, the
또한, 컴퓨팅 장치(100)는 복수의 생체 정보를 꺾은 선 그래프 형태로 시각화 하되, 혈압 값을 파란색으로 설정하고, 체온 값을 빨간색으로 설정하며, 맥박수 값을 주황색으로 설정할 수 있다.즉, 컴퓨팅 장치(100)는 생체 정보 데이터의 종류별로 상이하게 시각화 하거나 색상의 차이를 둠으로써, 생체 정보 데이터별로 수치의 변화, 패턴의 변화를 확인할 수 있을 뿐만 아니라 각각의 생체 정보 데이터 간의 상관관계를 확인할 수 있으며, 이를 이용하여 이벤트 발생 여부와 이벤트 발생 가능성을 판단하는데 활용할 수 있다.In addition, the
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 생체 정보 데이터(예: 그래프 형태의 바이탈 사인 데이터)를 이용하여 생체 정보 이미지를 생성하되, 각각의 생체 정보 데이터를 개별적으로 이용하여 각각의 생체 정보 데이터에 대응되는 복수의 생체 정보 이미지를 생성할 수 있다.In various embodiments, the
다시 도 3을 참조하면, S130 단계에서, 컴퓨팅 장치(100)는 S120 단계에서 생성된 생체 정보 이미지에 대하여 이미지 분석을 수행할 수 있다.Referring back to FIG. 3, in step S130, the
다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지 자체를 이미지 분석하거나, 생체 정보 이미지를 분할함으로써 생성된 복수의 단위 생체 정보 이미지 각각에 대하여 이미지 분석할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 기 학습된 인공지능 모델을 이용하여 생체 정보 이미지를 분석하되, 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류에 따라 인공지능 모델을 선택적으로 이용할 수 있다.In various embodiments, the
예를 들어, 컴퓨팅 장치(100)는 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류가 이벤트 발생 여부인 경우, 기 학습된 제1 인공지능 모델을 이용하여 생체 신호 이미지 및 복수의 단위 생체 정보 이미지를 이미지 분석할 수 있다. 여기서, 기 학습된 제1 인공지능 모델은 이벤트의 발생 여부가 레이블링(Labeling)된 복수의 생체 신호 이미지를 학습데이터로써 학습한 모델을 의미할 수 있다.For example, when the type of the analysis result to be derived by analyzing the biometric information image is whether an event occurs, the
다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지를 분석함으로써 도출하고자 하는 분석 결과의 종류가 이벤트 발생 가능성인 경우, 기 학습된 제2 인공지능 모델을 이용하여 생체 신호 이미지 및 복수의 단위 생체 정보 이미지를 이미지 분석할 수 있다. 여기서, 이벤트가 발생된 제1 시점을 기준으로, 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 학습한 모델을 의미할 수 있다.In various embodiments, when the type of the analysis result to be derived by analyzing the biometric information image is the likelihood of occurrence of an event, the
여기서, 제1 인공지능 모델과 제2 인공지능 모델은 서로 다른 학습 데이터(예: 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지)를 이용하여 학습된 모델인 것으로 기재되어 있으나, 이에 한정되지 않고, 하나의 인공지능 모델(예: CNN모델, NN 모델, RNN 모델)이 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지를 모두 학습하여, 하나의 인공지능 모델이 제1 인공지능 모델과 제2 인공지능 모델의 기능을 모두 수행할 수 있다. Here, the first artificial intelligence model and the second artificial intelligence model are models that are trained using different learning data (e.g., a plurality of biosignal images labeled with the occurrence of an event, and biometric information images prior to the occurrence of the event). Although described, but is not limited to this, one artificial intelligence model (eg, CNN model, NN model, RNN model) learns all of the biosignal images labeled with the occurrence of an event, and biometric information images prior to the occurrence of the event. Thus, one artificial intelligence model can perform both the functions of the first artificial intelligence model and the second artificial intelligence model.
여기서, 제1 인공지능 모델과 제2 인공지능 모델은 서로 다른 학습 데이터(예: 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지)를 이용하여 학습된 모델인 것으로 기재되어 있으나, 이에 한정되지 않고, 하나의 인공지능 모델(예: CNN모델, NN 모델, RNN 모델)이 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지, 이벤트 발생 이전의 생체 정보 이미지를 모두 학습하여, 하나의 인공지능 모델이 제1 인공지능 모델과 제2 인공지능 모델의 기능을 모두 수행할 수 있다. 이하, 도 5를 참조하여 컴퓨팅 장치(100)가 제1 인공지능 모델과 제2 인공지능 모델을 학습하는 과정을 설명하도록 한다.Here, the first artificial intelligence model and the second artificial intelligence model are models that are trained using different learning data (e.g., a plurality of biosignal images labeled with the occurrence of an event, and biometric information images prior to the occurrence of the event). Although described, but is not limited to this, one artificial intelligence model (eg, CNN model, NN model, RNN model) learns all of the biosignal images labeled with the occurrence of an event, and biometric information images prior to the occurrence of the event. Thus, one artificial intelligence model can perform both the functions of the first artificial intelligence model and the second artificial intelligence model. Hereinafter, a process of learning the first artificial intelligence model and the second artificial intelligence model by the
다양한 실시예에서, 컴퓨팅 장치(100)는 외부로부터 스칼라 형태로 생체 정보 데이터가 수집되는 경우, 스칼라 형태의 생체 정보 데이터를 학습 데이터로써 기 학습된 제3 인공지능 모델을 이용하여 생체 정보 데이터를 분석할 수 있다.In various embodiments, when biometric information data is collected in a scalar form from the outside, the
다양한 실시예에서, 컴퓨팅 장치(100)는 S120 단계에서 생성된 생체 정보 이미지를 분석하되, 생체 정보 이미지에 포함된 생체 정보 데이터의 시각화 형태 및 색상에 기초하여 해당 생체 정보 데이터의 종류를 판단하고, 판단된 생체 정보 데이터의 종류에 따라 서로 다른 인공지능 모델을 적용하여 이미지를 분석할 수 있다.In various embodiments, the
도 5는 다양한 실시예에서, 이벤트 발생 감지 장치가 제1 인공지능 모델 및 제2 인공지능 모델을 학습하는 과정을 도시한 도면이다.5 is a diagram illustrating a process of learning a first artificial intelligence model and a second artificial intelligence model by an event detection device according to various embodiments.
다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지 및 복수의 단위 생체 정보 이미지를 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다.In various embodiments, the
먼저, 컴퓨팅 장치(100)는 생체 정보 이미지를 기 설정된 시간 단위로 분할하거나, 기 설정된 개수로 분할하여 복수의 단위 생체 정보 이미지를 생성할 수 있다.First, the
이후, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 학습 데이터로써 사용할 단위 생체 정보 이미지를 선택할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 이미지 분석을 통해 이벤트가 발생된 것으로 판단되는 시점을 포함하는 단위 생체 정보 이미지와 이벤트가 발생된 시점을 기준으로 이벤트바 발생된 시점 이전의 단위 생체 정보 이미지를 학습 데이터로써 선택할 수 있다.Thereafter, the
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 사용자 단말(200)로 제공할 수 있으며, UI를 통해 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받을 수 있다.In various embodiments, the
이후, 컴퓨팅 장치(100)는 학습 데이터로써 선택한 단위 생체 정보 이미지에 대하여 레이블링을 수행할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 학습 데이터로써 선택한 단위 생체 정보 이미지 각각의 정답을 레이블링(예: 이벤트가 발생된 시점을 포함하는 단위 생체 정보 이미지를 class 1로 레이블링하고, 이벤트 발생과 관련 없는 단위 생체 정보 이미지를 class 0으로 레이블링)할 수 있다.Thereafter, the
다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 통해 사용자로부터 이벤트와 관련된 생체 정보 이미지에 대한 레이블링을 직접 입력받을 수 있다. 예를 들어, 컴퓨팅 장치(100)는 전문의의 단말로 이벤트와 관련된 생체 정보 이미지를 선택받는 UI를 제공할 수 있으며, 복수의 단위 생체 정보 이미지 중 이벤트와 관련된 생체 정보 이미지를 선택받음과 동시에 선택받은 생체 정보 이미지의 레이블링 정보를 함께 입력받을 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트가 발생된 시점을 포함하는 단위 생체 정보 이미지에 대하여 이벤트의 발생 원인과 이벤트의 종류에 따라 서로 다르게 레이블링을 할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 사용자의 생체 정보 이미지에 기초하여 이벤트가 발생되는 것으로 판단된 경우, 이벤트가 발생된 시점으로부터 소정의 시간 이전의 생체 정보 이미지들에 대하여 자동적으로 레이블링을 수행할 수 있다. 이때, 컴퓨팅 장치(100)는 이벤트 발생 시점으로부터 몇시간 이전의 생체 정보인지를 가리키는 정보도 함께 레이블링할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 이벤트 발생 시점으로부터 6시간 전, 12시간 전, 24시간 전의 생체 정보 이미지를 서로 다른 클래스로 레이블링할 수 있다.In various embodiments, when it is determined that an event occurs based on the user's biometric information image, the
이후, 컴퓨팅 장치(100)는 레이블링된 단위 생체 정보 이미지를 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 지도학습(Supervised Learning) 시킬 수 있다. 예를 들어, 컴퓨팅 장치(100)를 레이블링 결과에 따라 획득된 학습 데이터(이벤트와 관련된 생체 정보 이미지)를 이용하여 지도학습 함으로써, 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다. 그러나, 이에 한정되지 않고, 생체 정보 이미지를 이용하여 인공지능 모델을 학습시키는 다양한 방법이 적용될 수 있다.Thereafter, the
다시 도 3을 참조하면, S140 단계에서, 컴퓨팅 장치(100)는 S130 단계에서 수행한 이미지 분석을 통해 도출된 분석 결과를 이용하여 이벤트 발생을 감지할 수 있다. 이하, 도 6을 참조하여, 컴퓨팅 장치(100)가 수행하는 이벤트 발생 감지 방법에 대하여 설명하도록 한다.Referring back to FIG. 3, in step S140, the
도 6은 다양한 실시예에서, 인공지능 모델을 이용하여 이벤트 발생 감지 방법의 순서도이다.6 is a flowchart of a method of detecting occurrence of an event using an artificial intelligence model in various embodiments.
도 6을 참조하면, S210 단계에서, 컴퓨팅 장치(100)는 S130 단계에서 수행한 이미지 분석을 통해 도출된 분석 결과를 이용하여 이벤트 발생 여부를 판단할 수 있다. Referring to FIG. 6, in step S210, the
다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부를 판단하고자 하는 생체 정보 이미지를 이벤트의 발생 여부가 레이블링된 복수의 생체 신호 이미지를 학습데이터로써 기 학습한 제1 인공지능 모델에 입력하고, 제1 인공지능 모델을 이용하여 도출된 분석 결과에 기초하여 이벤트의 발생 여부를 판단할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 여부를 판단하고자 하는 생체 정보 이미지와 이벤트가 발생된 경우에 감지되는 생체 정보 이미지를 비교함으로써, 이벤트 발생 여부를 판단할 수 있다.In various embodiments, the
S220 단계에서, 컴퓨팅 장치(100)는 S210 단계를 거쳐 이벤트가 발생된 것으로 판단되는 경우, 이벤트가 발생된 원인을 판단할 수 있다.In step S220, when it is determined that the event has occurred through step S210, the
다양한 실시예에서, 컴퓨팅 장치(100)는 제1 인공지능 모델을 이용하여 이벤트가 발생된 원인을 판단할 수 있다. In various embodiments, the
예를 들어, 컴퓨팅 장치(100)는 제1 인공지능 모델을 통해 도출된 분석 결과에 따라 이벤트가 발생된 것으로 판단되는 것에 응답하여, 복수의 단위 생체 정보 이미지 각각을 분석한 분석 결과로부터 생체 정보 이미지의 이미지 패턴을 검출할 수 있다.For example, in response to determining that an event has occurred according to the analysis result derived through the first artificial intelligence model, the
이후, 컴퓨팅 장치(100)는 검출된 이미지 패턴을 이용하여 발생된 이벤트의 종류 및 원인을 판단할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 검출된 이미지 패턴이 제1 패턴을 가지는 경우, 발생된 이벤트가 저혈량성 쇼크인 것으로 판단할 수 있고, 제2 패턴을 가지는 경우, 발생된 이벤트가 심인성 쇼크인 것으로 판단할 수 있다. 그러나, 이에 한정되지 않는다.Thereafter, the
S230 단계에서, 컴퓨팅 장치(100)는 S210 단계를 거쳐 이벤트가 발생되지 않은 것으로 판단되는 경우, 이벤트 발생 가능성을 판단할 수 있다.In step S230, when it is determined that the event has not occurred through step S210, the
다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트 발생 가능성을 판단하고자 하는 생체 정보 이미지를 이벤트가 발생된 제1 시점을 기준으로, 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 기 학습한 제2 인공지능 모델에 입력하고, 제2 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 이벤트의 발생 가능성을 판단할 수 있다. 여기서, S210 단계 내지 S230 단계는 도 3의 S140 단계에 대응될 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 사용자의 생체 정보 이미지를 분석함으로써 이벤트 발생 가능성을 판단하되, 판단된 이벤트 발생 가능성이 기준 값 이상인 경우, 이벤트 발생 위험군으로 분류할 수 있다. 이후, 컴퓨팅 장치(100)는 이벤트 발생 위험군으로 분류된 사용자에 대하여 생체 정보 데이터 수집 및 생체 정보 이미지를 생성하는 주기를 짧게 설정함으로써, 보다 빈번하게 사용자의 상태를 모니터링할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 위험군으로 분류된 사용자에 대한 생체 정보 이미지와 해당 사용자의 실제 이벤트 발생 여부를 학습 데이터로 이용하여 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다. 이를 통해, 컴퓨팅 장치(100)는 인공지능 모델을 이용하여 이벤트 발생 가능성에 따른 실제 이벤트 발생 여부를 판단할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 사용자와 관련된 정보, 사용자의 생체 정보 데이터 및 사용자에 대한 이벤트 발생 여부를 시각화하여 하나의 화면으로 구성하여 출력하는 사용자 인터페이스(User interface, UI)를 제공할 수 있다. 이를 통해, 컴퓨팅 장치(100)는 환자에 대한 정보와 상태 정보를 한눈에 볼 수 있는 대시보드를 제공함으로써, 환자의 상태를 모니터링하는 사용자가 보다 용이하게 환자의 상태를 모니터링하고, 이벤트 발생에 따라 빠르게 대처할 수 있도록 유도할 수 있다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 이벤트가 발생되는 경우, UI를 통해 이벤트 발생 여부와 발생된 이벤트와 관련된 정보를 안내하는 안내 메시지 및 경고 신호를 출력할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 생체 정보 이미지에 대한 이미지 분석을 통해 이벤트가 발생된 것으로 판단되는 경우, UI를 통해 이벤트와 관련된 정보를 안내하는 안내 메시지와 음성 형태의 경고 신호를 함께 출력함으로써, 환자의 상태를 실시간으로 모니터링하는 사용자가 이벤트 발생 여부를 빠르게 인지할 수 있도록 할 수 있다.In various embodiments, when an event occurs, the
다양한 실시예에서, 컴퓨팅 장치(100)는 생체 정보 이미지를 통해 판단된 이벤트의 종류에 기초하여, 경고 신호가 출력되는 형태를 설정할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 이벤트의 종류에 따라 출력되는 음성 데이터의 종류를 설정(예: 이벤트가 저혈량성 쇼크인 경우 제1 음성 데이터를 출력하고, 심인성 쇼크인 경우 제2 음성 데이터를 출력)하거나, 음성 데이터의 출력 시간을 설정할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 사용자에 대한 정보와 복수의 사용자 각각에 대한 생체 정보 및 이벤트와 관련된 정보를 출력하는 UI를 제공할 수 있으며, UI를 통해 특정 사용자에 대한 정보 요청이 입력되는 경우, 특정 사용자에 대한 정보와 특정 사용자에 대한 생체 정보 및 이벤트와 관련된 정보만을 하나의 화면으로 구성하여 UI를 통해 출력할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 특정 사용자에 대한 정보와 특정 사용자에 대한 생체 정보 및 이벤트와 관련된 정보만을 하나의 화면으로 구성하여 팝업창 형태로 출력할 수 있다. 그러나, 이에 한정되지 않는다.In various embodiments, the
전술한 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은 도면에 도시된 순서도를 참조하여 설명하였다. 간단한 설명을 위해 인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법은 일련의 블록들로 도시하여 설명하였으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 본 명세서에 도시되고 시술된 것과 상이한 순서로 수행되거나 또는 동시에 수행될 수 있다. 또한, 본 명세서 및 도면에 기재되지 않은 새로운 블록이 추가되거나, 일부 블록이 삭제 또는 변경된 상태로 수행될 수 있다.The above-described method of detecting event occurrence through image analysis based on artificial intelligence has been described with reference to the flowchart shown in the drawings. For the sake of simplicity, the method of detecting event occurrence through image analysis based on artificial intelligence has been described as a series of blocks, but the present invention is not limited to the order of the blocks, and some blocks are shown and described in this specification. It may be performed in a different order or may be performed simultaneously. In addition, new blocks not described in the specification and drawings may be added, or some blocks may be deleted or changed.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You will be able to understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.
100 : 이벤트 발생 감지 장치(컴퓨팅 장치)
200 : 사용자 단말
300 : 외부 서버
400 : 네트워크100: event occurrence detection device (computing device)
200: user terminal
300: external server
400: network
Claims (10)
시각화된 생체 정보 데이터를 수집하는 단계;
상기 시각화된 생체 정보 데이터를 이용하여 생체 정보 이미지를 생성하는 단계;
상기 생체 정보 이미지를 분석하는 단계; 및
상기 생체 정보 이미지의 분석 결과에 따라 상기 사용자에 대한 이벤트 발생을 감지하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.In the method performed by the computing device,
Collecting visualized biometric information data;
Generating a biometric information image using the visualized biometric information data;
Analyzing the biometric information image; And
Including the step of detecting the occurrence of an event for the user according to the analysis result of the biometric information image,
A method of detecting event occurrence through image analysis based on artificial intelligence.
상기 생체 정보 이미지를 생성하는 단계는,
실시간으로 수집되는 그래프 형태의 생체 정보 데이터를 기 설정된 주기마다 캡쳐(Capture)하여 상기 생체 정보 이미지를 생성하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.The method of claim 1,
Generating the biometric information image,
Comprising the step of generating the biometric information image by capturing the biometric information data in the form of a graph collected in real time at each preset period,
A method of detecting event occurrence through image analysis based on artificial intelligence.
상기 생체 정보 이미지를 분석하는 단계는,
상기 생체 정보 이미지를 기 설정된 시간 단위로 분할하여 복수의 단위 생체 정보 이미지를 생성하는 단계; 및
이미지 분석 모델을 이용하여 상기 복수의 단위 생체 정보 이미지 각각에 대한 이미지 분석을 수행하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.The method of claim 1,
Analyzing the biometric information image,
Dividing the biometric information image into a predetermined time unit to generate a plurality of unit biometric information images; And
Comprising the step of performing image analysis on each of the plurality of unit biometric information images using an image analysis model,
A method of detecting event occurrence through image analysis based on artificial intelligence.
상기 이벤트 발생 여부를 판단하는 단계는,
상기 분석 결과에 따라 상기 이벤트가 발생된 것으로 판단되는 것에 응답하여, 상기 복수의 단위 생체 정보 이미지 각각을 분석한 분석 결과로부터 상기 생체 정보 이미지의 이미지 패턴을 검출하는 단계; 및
상기 검출된 이미지 패턴을 이용하여 상기 발생된 이벤트의 종류 및 원인을 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.The method of claim 3,
The step of determining whether the event has occurred,
In response to determining that the event has occurred according to the analysis result, detecting an image pattern of the biometric information image from an analysis result obtained by analyzing each of the plurality of unit biometric information images; And
Including the step of determining the type and cause of the generated event using the detected image pattern,
A method of detecting event occurrence through image analysis based on artificial intelligence.
상기 생체 신호 이미지를 분석하는 단계는,
상기 이벤트의 발생 여부가 레이블링(Labeling)된 복수의 생체 신호 이미지를 학습데이터로써 기 학습한 제1 인공지능 모델을 이용하여 상기 생체 신호 이미지를 분석하는 단계를 포함하며,
상기 이벤트 발생 여부를 판단하는 단계는,
상기 제1 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 상기 이벤트의 발생 여부와 발생 원인을 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.The method of claim 1,
Analyzing the biosignal image,
Analyzing the biosignal image using a first artificial intelligence model that has previously learned a plurality of biosignal images labeled as to whether or not the event has occurred, as learning data,
The step of determining whether the event has occurred,
Including the step of determining whether or not the event occurs and a cause of occurrence based on the analysis result analyzed using the first artificial intelligence model,
A method of detecting event occurrence through image analysis based on artificial intelligence.
상기 생체 신호 이미지를 분석하는 단계는,
상기 이벤트가 발생된 제1 시점을 기준으로, 상기 제1 시점보다 소정의 시간 이전의 제2 시점에서의 생체 정보 이미지를 학습 데이터로써 기 학습한 제2 인공지능 모델을 이용하여 상기 생체 신호 이미지를 분석하는 단계를 포함하며,
상기 이벤트 발생 여부를 판단하는 단계는,
상기 제2 인공지능 모델을 이용하여 분석한 분석 결과에 기초하여 상기 사용자에 대한 이벤트 발생 가능성을 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.The method of claim 1,
Analyzing the biosignal image,
Based on the first time point at which the event occurs, the biosignal image is obtained by using a second artificial intelligence model that has previously learned the biometric information image at a second time point before a predetermined time before the first time point as training data. Comprising the step of analyzing,
The step of determining whether the event has occurred,
Including the step of determining the possibility of occurrence of an event for the user based on the analysis result analyzed using the second artificial intelligence model,
A method of detecting event occurrence through image analysis based on artificial intelligence.
상기 사용자와 관련된 정보, 상기 사용자의 생체 정보 데이터 및 상기 사용자에 대한 이벤트 발생 여부를 시각화하여 하나의 화면으로 구성하여 출력하는 사용자 인터페이스(User interface, UI)를 제공하는 단계를 더 포함하며,
상기 UI를 제공하는 단계는,
상기 이벤트가 발생되는 경우, 상기 UI를 통해 상기 이벤트 발생 여부와 상기 발생된 이벤트와 관련된 정보를 안내하는 안내 메시지 및 상기 경고 신호를 출력하는 단계를 더 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.The method of claim 1,
Providing a user interface (UI) for visualizing the user-related information, the user's biometric information data, and whether an event for the user has occurred, and configuring and outputting a single screen,
Providing the UI,
When the event occurs, further comprising the step of outputting the warning signal and a guide message for guiding whether the event has occurred and information related to the generated event through the UI,
A method of detecting event occurrence through image analysis based on artificial intelligence.
상기 생체 정보 데이터는,
상기 사용자의 혈압 데이터, 체온 데이터, 맥박 데이터 및 호흡수 데이터 중 적어도 하나의 데이터를 포함하는 바이탈 사인(Vital sign) 데이터를 포함하며,
상기 이벤트 발생 여부를 판단하는 단계는,
상기 이미지화된 바이탈 사인 데이터를 분석하여 사용자에 대한 저혈량성 쇼크, 심인성 쇼크, 폐쇄성 쇼크 및 분배성 쇼크 중 어느 하나 이상의 발생 여부를 판단하는 단계를 포함하는,
인공지능 기반의 이미지 분석을 통한 이벤트 발생 감지 방법.The method of claim 1,
The biometric information data,
Including vital sign data including at least one of the user's blood pressure data, body temperature data, pulse data, and respiratory rate data,
The step of determining whether the event has occurred,
Analyzing the imaged vital sign data to determine whether or not any one or more of hypovolemic shock, psychogenic shock, obstructive shock, and distributive shock to the user has occurred,
A method of detecting event occurrence through image analysis based on artificial intelligence.
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.A memory for storing one or more instructions; And
A processor that executes the one or more instructions stored in the memory,
The processor executes the one or more instructions,
An apparatus for performing the method of claim 1.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190134189 | 2019-10-28 | ||
KR1020190134189 | 2019-10-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210050424A true KR20210050424A (en) | 2021-05-07 |
Family
ID=75916730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200053048A KR20210050424A (en) | 2019-10-28 | 2020-05-02 | Deep learning computer vision-based emergency patient shock signs discovery system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210050424A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101070389B1 (en) | 2010-12-30 | 2011-10-06 | 김용중 | System for monitoring patient condition |
-
2020
- 2020-05-02 KR KR1020200053048A patent/KR20210050424A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101070389B1 (en) | 2010-12-30 | 2011-10-06 | 김용중 | System for monitoring patient condition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102494310B1 (en) | Method, apparatus and computer program for determining the possibility of shock occurrence through the analysis of visualized vital sign data | |
AU2022201530B2 (en) | Apparatus, systems and methods for predicting, screening and monitoring of encephalopathy/delirium | |
US11051768B1 (en) | Determining when to emit an alarm | |
JP2009538706A (en) | Displaying trends and trends predicted from mitigation | |
WO2020121308A9 (en) | Systems and methods for diagnosing a stroke condition | |
US20220148728A1 (en) | System and method for analyzing stress of user and managing individual mental health, using hmd device having biosignal sensors mounted therein | |
US20200178903A1 (en) | Patient monitoring system and method having severity prediction and visualization for a medical condition | |
JP2022037153A (en) | Electrocardiogram analysis device, electrocardiogram analysis method, and program | |
Rescio et al. | Ambient and wearable system for workers’ stress evaluation | |
US20220165393A1 (en) | System for the detection and management of mental, emotional, and behavioral disorders | |
KR20210050424A (en) | Deep learning computer vision-based emergency patient shock signs discovery system | |
US20210290178A1 (en) | Brain injury monitoring with recovery trajectory | |
CN116570246A (en) | Epileptic monitoring and remote alarm system | |
JP7519365B2 (en) | Determining the relative cognitive abilities of subjects | |
KR102515982B1 (en) | Apparatus for deciding occurrence of delirium and method for deciding occurrence of delirium using the same | |
WO2018158704A1 (en) | Work management apparatus, method, and program | |
JPWO2019186955A1 (en) | Biometric information estimation device, biometric information estimation method, and biometric information estimation program | |
JP6975016B2 (en) | Condition change discriminator | |
CN113349746A (en) | Vital sign monitoring alarm system | |
TWI809612B (en) | Fall Assessment Risk Warning System | |
US20240115213A1 (en) | Diagnosing and tracking stroke with sensor-based assessments of neurological deficits | |
Yamsanwar et al. | Semi-invasive system for detecting and monitoring dementia patients | |
WO2018158702A1 (en) | Production management apparatus, method, and program | |
JP2019504404A (en) | Behavioral learning clinical support | |
Shehab et al. | Developing an AI Model That Relies on Mobile Health Devices to Track Heart Activity |