KR102470111B1 - Treatment method of emergency patient during transforting by vehicle - Google Patents
Treatment method of emergency patient during transforting by vehicle Download PDFInfo
- Publication number
- KR102470111B1 KR102470111B1 KR1020200123291A KR20200123291A KR102470111B1 KR 102470111 B1 KR102470111 B1 KR 102470111B1 KR 1020200123291 A KR1020200123291 A KR 1020200123291A KR 20200123291 A KR20200123291 A KR 20200123291A KR 102470111 B1 KR102470111 B1 KR 102470111B1
- Authority
- KR
- South Korea
- Prior art keywords
- emergency
- information
- emergency patient
- unit
- vehicle
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/20—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/40—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
Abstract
차량 내부의 베드 상면에 눕혀지는 응급환자를 감지하여 동작 이벤트를 발생하는 제1단계; 상기 동작 이벤트에 따라 차량 내부에 설치된 의료보조모듈의 작동을 On으로 전환하는 제2단계; 상기 의료보조모듈을 통해 응급환자의 얼굴을 인식하여 신원을 파악하는 제3단계; 상기 의료보조모듈을 통해 응급환자의 과거 의료기록을 딥러닝 방식의 인공지능 기술을 사용하여 분석한 이후, 주의할 필요성이 높은 1) 알레르기 관련 약물에 대한 제1정보 및 2) 응급의학 관련 제2정보를 형성하는 제4단계; 및 상기 제1정보 및 상기 제2정보를 응급 기관 내의 서버로 전송하는 제5단계;를 포함하는 차량 이송 중 응급 환자의 조치 방법을 제공한다.A first step of generating an action event by detecting an emergency patient lying on the upper surface of the bed inside the vehicle; a second step of switching an operation of a medical assistance module installed inside the vehicle to On according to the operation event; A third step of recognizing the face of the emergency patient through the medical assistance module to determine the identity; After analyzing the past medical records of emergency patients through the medical assistance module using deep-learning artificial intelligence technology, there is a high need for attention: 1) first information on allergy-related drugs and 2) second emergency medicine-related a fourth step of forming information; And a fifth step of transmitting the first information and the second information to a server in an emergency institution; provides a method of taking care of an emergency patient during transport including a vehicle.
Description
본 발명은 차량을 통한 응급 환자의 이송 과정에서 구조자가 응급 조치를 위해 응급 환자에 대한 신원을 확인하고, 응급 조치에 필요한 의학 정보를 제공받는 응급 환자의 조치 방법에 관한 것이다.The present invention relates to a method for taking care of an emergency patient in which a rescuer identifies the emergency patient in the process of transporting the emergency patient through a vehicle and receives medical information necessary for the emergency treatment.
일상에서 사건, 사고는 계속적으로 증가하는 추세에 있다. 이런 급박한 상황에서 응급 환자는 119의 구급 차량, 민간 업체에서 운영하는 응급 차량 등을 이용할 수 있다. 최근 이런 응급 환자에 대해, 신속하고 적절한 조치를 취할 수 있는 응급 구조를 위한 원격 의료 시스템이 도입되고 있다. 그러나, 이런 시스템은 구급 대원 등이 카메라 장비를 통해 실시간 촬영되는 영상을 의료진에게 전송하고, 이를 토대로 의료진과 소통하여 적절한 응급 조치를 취하도록 한다.Incidents and accidents in daily life are constantly increasing. In such an urgent situation, emergency patients can use 119 ambulance vehicles and emergency vehicles operated by private companies. Recently, a remote medical system for emergency rescue that can take prompt and appropriate measures for such an emergency patient has been introduced. However, in this system, paramedics and the like transmit images captured in real time through camera equipment to medical staff, and based on this, communicate with medical staff to take appropriate emergency measures.
그러나, 종래 원격 의료 시스템은 구급 대원 등과 의료진 사이의 커뮤니케이션 과정이 각 종 문제점으로 원활하게 운영되기 어렵다는 문제점이 있었다. 예를 들어, 원격 의료의 경우, 추후 응급 조치에 따른 책임 소재에 대한 논란 문제, 의료진 등에 대한 비용 지급 문제, 원격 의료 시스템에 투입되는 의료진의 부족 문제 등이 있었다.However, the conventional remote medical system has a problem in that it is difficult to smoothly operate the communication process between paramedics and medical staff due to various problems. For example, in the case of telemedicine, there were issues such as controversy over responsibility for emergency measures later, payment of expenses to medical staff, and shortage of medical staff to be put into the remote medical system.
또한, 구조 대원과 응급 환자 사이의 의사 소통이 어려운 경우, 응급 조치를 취함에 있어, 응급 환자에 대한 정보의 부족으로 보다 적절한 응급 조치를 취하는 것이 어렵다는 문제점이 있었다. 또한, 구조 대원이 응급 의학에 대한 지식, 경험의 부족으로 적절한 다양한 응급 상황에서 적절한 조치를 취하지 못하는 문제점이 있었다.In addition, when it is difficult to communicate between rescuers and emergency patients, there is a problem in that it is difficult to take more appropriate emergency measures due to lack of information on emergency patients in taking emergency measures. In addition, there was a problem in that rescuers could not take appropriate measures in various emergency situations due to lack of knowledge and experience in emergency medicine.
본 발명의 실시예는 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 응급 차량을 통해 이송 중인 중증 응급 환자에 대한 신속한 응급 조치 방법을 제공하고자 한다. 특히, 응급 환자에 대한 신원을 과거 데이터 기반으로 용이하게 파악하고, 그에 따라 약물의 투여 등의 응급 조치에 있어 구조자에게 적절한 정보를 제공하고자 한다.Embodiments of the present invention have been made to solve the above problems, and to provide a rapid first aid method for a severe emergency patient being transported through an emergency vehicle. In particular, it is intended to easily identify an emergency patient based on past data, and accordingly provide appropriate information to a rescuer in emergency measures such as drug administration.
이송 중인 응급 차량 내에서 응급 환자에 대한 신원 파악과, 응급 환자에 적합한 응급 의학 관련 정보, 알레르기 관련 약물에 대한 정보를 제공하고자 한다. 구조자가 응급 상황에서 응급 환자에 대해 적절한 응급 조치를 취할 수 있도록 한다.It is intended to provide identification of the emergency patient in the emergency vehicle, emergency medicine-related information suitable for the emergency patient, and information on allergy-related drugs. To enable rescuers to take appropriate first aid measures for emergency patients in emergency situations.
본 발명의 실시예는 상기와 같은 과제를 해결하고자, 차량 내부의 베드 상면에 눕혀지는 응급환자를 감지하여 동작 이벤트를 발생하는 제1단계; 상기 동작 이벤트에 따라 차량 내부에 설치된 의료보조모듈의 작동을 On으로 전환하는 제2단계; 상기 의료보조모듈을 통해 응급환자의 얼굴을 인식하여 신원을 파악하는 제3단계; 상기 의료보조모듈을 통해 응급환자의 과거 의료기록을 딥러닝 방식의 인공지능 기술을 사용하여 분석한 이후, 주의할 필요성이 높은 1) 알레르기 관련 약물에 대한 제1정보 및 2) 응급의학 관련 제2정보를 형성하는 제4단계; 및 상기 제1정보 및 상기 제2정보를 응급 기관 내의 서버로 전송하는 제5단계;를 포함하는 차량 이송 중 응급 환자의 조치 방법을 제공한다.An embodiment of the present invention to solve the above problems, a first step of generating an operation event by detecting an emergency patient lying on the upper surface of the bed inside the vehicle; a second step of switching an operation of a medical assistance module installed inside the vehicle to On according to the operation event; A third step of recognizing the face of the emergency patient through the medical assistance module to determine the identity; After analyzing the past medical records of emergency patients through the medical assistance module using deep-learning artificial intelligence technology, there is a high need for attention: 1) first information on allergy-related drugs and 2) second emergency medicine-related a fourth step of forming information; And a fifth step of transmitting the first information and the second information to a server in an emergency institution; provides a method of taking care of an emergency patient during transport including a vehicle.
제1단계에서, 상기 베드에는 압전센서가 설치되는 것이 바람직하다.In the first step, it is preferable that a piezoelectric sensor is installed on the bed.
상기 의료보조모듈은 상기 차량에 고정 설치되는 하우징부; 상기 하우징부 외부에 설치되며, 설치 각도가 조절되는 카메라부; 상기 하우징부 외부에 설치되며, 상기 카메라부를 통해 추출되는 응급환자의 얼굴 특징을 더 부가하는 적외선센서부; 및 상기 하우징부 외부에 설치되며, 상기 응급환자의 얼굴 특징에 대한 3차원 정보를 제공하는 초음파센서부;를 포함하는 것이 바람직하다.The medical auxiliary module includes a housing part fixedly installed in the vehicle; a camera unit installed outside the housing unit and having an adjustable installation angle; an infrared sensor unit installed outside the housing unit and further adding facial features of the emergency patient extracted through the camera unit; and an ultrasonic sensor unit installed outside the housing unit and providing three-dimensional information on facial features of the emergency patient.
상기 의료보조모듈은 상기 카메라부, 상기 적외선센서부 및 상기 초음파센서부에서 전송되는 데이터를 각각 수신하여, 응급환자의 얼굴 특징에 관한 데이터를 생성하는 얼굴특징생성부;를 더 포함하는 것이 바람직하다.Preferably, the medical assistance module further includes a facial feature generation unit configured to receive data transmitted from the camera unit, the infrared sensor unit, and the ultrasonic sensor unit, respectively, and generate data on facial characteristics of the emergency patient. .
제3단계에서, 신원을 파악하는 것은 응급환자에 대한 얼굴 중 적어도 하나 이상으로 분할되는 관심영역 내의 얼굴 특징과, 이에 대응하여 미리 저장된 응급환자의 얼굴에 대한 관심영역 태그를 각각 비교하는 방법으로 이루어지는 것이 바람직하다.In the third step, identification is performed by comparing facial features in the region of interest segmented into at least one of the faces of the emergency patient and corresponding ROI tags for the face of the emergency patient stored in advance. it is desirable
제5단계에서, 상기 제1정보 및 상기 제2정보는 상기 의료보조모듈과 전기적으로 연결되는 무선송수신부를 통해 미리 설정되는 구조자의 단말기 및 상기 서버로 전송되며,In step 5, the first information and the second information are transmitted to a preset terminal of a rescuer and the server through a wireless transceiver electrically connected to the medical assistance module,
상기 단말기에는 상기 무선송수신부와 미리 동기화된 전용 앱이 설치되어 상기 제1정보 및 상기 제2정보를 키워드 단위로 수신 받는 것이 바람직하다.It is preferable that a dedicated app pre-synchronized with the wireless transmission/reception unit is installed in the terminal to receive the first information and the second information in keyword units.
이상에서 살펴본 바와 같은 본 발명의 과제해결 수단에 의하면 다음과 같은 사항을 포함하는 다양한 효과를 기대할 수 있다. 다만, 본 발명이 하기와 같은 효과를 모두 발휘해야 성립되는 것은 아니다.According to the problem solving means of the present invention as described above, various effects including the following can be expected. However, the present invention is not established when all of the following effects are exhibited.
본 발명의 일 실시예에 따른 차량 이송 중 응급 환자의 조치 방법은 응급 차량을 통해 이송 중인 중증 응급 환자에 대한 신속한 응급 조치 방법을 제공한다. 또한, 응급 환자에 대한 신원을 과거 데이터 기반으로 용이하게 파악하고, 그에 따라 약물의 투여 등 응급 조치를 취함에 있어 구조자에게 적절한 정보를 제공할 수 있다.A method of taking an emergency patient while transporting a vehicle according to an embodiment of the present invention provides a quick first aid method for a severe emergency patient being transported through an emergency vehicle. In addition, the identity of the emergency patient can be easily identified based on past data, and accordingly, appropriate information can be provided to rescuers in taking emergency measures such as drug administration.
이송 중인 응급 차량 내에서 응급 환자에 대한 신원 파악과, 응급 환자에 적합한 응급 의학 관련 정보, 알레르기 관련 약물에 대한 정보를 제공할 수 있다. 이를 기반으로, 구조자가 응급 상황에서 응급 환자에 대해 적절한 응급 조치를 취할 수 있다.In an emergency vehicle that is being transported, identification of an emergency patient, emergency medicine-related information suitable for an emergency patient, and information on allergy-related drugs can be provided. Based on this, rescuers can take appropriate emergency measures for emergency patients in emergency situations.
도 1은 본 발명의 일 실시예에 따른 차량 이송 중 응급 환자의 조치 방법에 대한 순서도.
도 2는 도 1의 조치 방법을 수행하는 의료보조모듈 등의 구성요소 사이의 관계를 도시한 개략적 구성도.
도 3은 도 1의 관심영역에 대한 예시도.
도 4는 도 3의 콧등에 대한 밝기 정보와 입술에 대한 밝기 정보를 보여주는 도면.1 is a flow chart of a method of taking an emergency patient during transportation according to an embodiment of the present invention.
Figure 2 is a schematic configuration diagram showing the relationship between components such as a medical auxiliary module that performs the action method of Figure 1;
3 is an exemplary view of the region of interest of FIG. 1;
FIG. 4 is a view showing brightness information about the bridge of the nose and brightness information about the lips of FIG. 3;
이하, 본 발명을 설명함에 있어서 관련된 공지 기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Hereinafter, in the description of the present invention, detailed descriptions thereof will be omitted if it is determined that the related known functions may unnecessarily obscure the subject matter of the present invention as obvious matters to those skilled in the art. Terms used in this application are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
이하, 도면을 참조하여 본 발명의 구체적인 실시예를 상세히 설명한다.Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 사운드 맵 장치에 대한 사시도이고, 도 2는 도 1의 분해 사시도이며, 도 3은 버튼부가 결합되는 상태를 보여주는 단면도이고, 도 4는 도 1의 사운드모듈의 개략적 구성을 보여주는 도면이며, 도 5는 다른 실시예에 따른 전면보드부에 대한 분해 사시도이다.1 is a perspective view of a sound map device according to an embodiment of the present invention, FIG. 2 is an exploded perspective view of FIG. 1, FIG. 3 is a cross-sectional view showing a state in which a button unit is coupled, and FIG. 4 is a sound module of FIG. 1 A view showing a schematic configuration of, Figure 5 is an exploded perspective view of the front board according to another embodiment.
도 1 내지 도 5를 참조하면, 본 발명의 일 실시예에 따른 차량 이송 중 응급 환자의 조치 방법은 제1단계(s10) 내지 제5단계(s50)를 포함한다. 먼저, 제1단계(s10)는 차량 내부의 베드 상면에 눕혀지는 응급환자를 감지하여 동작 이벤트를 발생하는 단계이다. 차량은 응급 구조차인 앰뷸런스인 것이 바람직하다. 차량 내부에는 응급환자가 눕혀지는 베드가 배치되어 있다. 한편, 베드의 하면에는 압전센서(100)가 적어도 하나 이상 부착되어 있다. 즉, 베드에는 압전센서(100)가 설치되어 응급환자를 감지할 수 있다. 압전센서(100)는 얇은 패치형으로 응급환자의 심박수, 호흡수 등을 측정할 수 있다. 압전센서(100)는 응급환자의 상반신이 놓이는 베드의 a영역(110)과 대향하는 베드의 하면에 형성될 수 있다.Referring to FIGS. 1 to 5 , a method for taking care of an emergency patient during vehicle transportation according to an embodiment of the present invention includes a first step (s10) to a fifth step (s50). First, the first step (s10) is a step of generating an operation event by detecting an emergency patient lying on the upper surface of the bed inside the vehicle. The vehicle is preferably an ambulance, which is an emergency rescue vehicle. Inside the vehicle, there is a bed on which emergency patients lie down. Meanwhile, at least one
여기서, a영역(110)은 베드를 세로 방향으로 균등하게 3등분(제1영역, 제2영역 및 제3영역)할 때, 제1영역과 제2영역의 경계를 포함하는 영역을 의미한다. 압전센서(100)는 측정 신호가 미약한 경우, 이를 증폭할 수 있다. 압전센서(100)는 응급환자의 생체 신호가 급격하게 변동하는 경우, 경고 신호를 생성한 후, 압전센서(100)와 전기적으로 연결되는 스피커부(미도시)를 통해 출력할 수 있다.Here, area a 110 refers to an area including a boundary between the first area and the second area when the bed is equally divided into three parts (first area, second area, and third area) in the vertical direction. When the measurement signal is weak, the
제1단계에서, 압전센서(100)를 통해 응급환자에 해당되는 신호 파형을 검출하면, 의료보조모듈(200)의 작동 상태를 On으로 전환하는 동작 이벤트를 발생할 수 있다.In the first step, when a signal waveform corresponding to an emergency patient is detected through the
그 다음, 제2단계(s20)는 동작 이벤트에 따라 차량 내부에 설치된 의료보조모듈(200)의 작동을 On으로 전환하는 단계이다. 이 때, 의료보조모듈(200)은 작동 Off 상태에서 작동 On 상태로 전환된다.Then, the second step (s20) is a step of switching the operation of the
다음으로, 제3단계(s30)는 의료보조모듈(200)을 통해 응급환자의 얼굴을 인식하여 신원을 파악하는 단계이다. 일 실시예에 따른 의료보조모듈(200)은 차량 내부 중 특히 천장면에 고정 설치되는 것이 바람직하다. 구체적으로, 의료보조모듈(200)은 하우징부(210), 카메라부(212), 적외선센서부(214), 초음파센서부(216), 얼굴특징생성부(210), 데이터베이스부(220), 인공지능처리부(230) 등을 포함할 수 있다. 하우징부(210)는 의료보조모듈(200)의 몸체를 이루는 것으로, 의료보조모듈(200)이 차량에 고정 설치되도록 한다.Next, the third step (s30) is a step of identifying the identity of the emergency patient by recognizing the face of the emergency patient through the
카메라부(212)는 하우징부(210) 외부에 설치되며 설치 각도가 조절된다. 카메라부(212)는 응급환자의 얼굴 인식을 위한 용도를 갖는다. 카메라부(212)는 응급환자에 대한 이미지 또는 영상을 촬영한 후, 응급환자에 대한 얼굴 특징을 추출한다. 얼굴 특징은 얼굴 중 적어도 하나 이상으로 분할되는 관심영역(r) 내의 얼굴 특징일 수 있다. 여기서, 관심영역(r)은 사용자의 얼굴 중 코(r1)인 것이 바람직하다. 관심영역(r)은 예를 들어, 콧등에서 측정되는 복수 개의 밝기 정보(a1 내지 a6)일 수 있다. 밝기 정보는 숫자로 표현될 수 있다. 또한, 콧등에 대한 밝기 정보(a1 내지 a6)는 행렬의 형태로 배열될 수 있다.The
관심영역(r)은 얼굴 피부에서 돌출되는 코의 각 부위를 포함할 수 있다. 한편, 관심영역(r)은 복수 개의 서브관심영역으로 구분될 수 있다. 구체적으로, 서브관심영역은 콧망울의 모양, 코끝의 형상, 콧등의 형상 등 코의 어느 일 부위를 포커싱한 보다 좁은 영역이다. 각 서브관심영역에 대한 얼굴 특징은 미리 설정된 복수 개의 항목 중 어느 하나를 선택하는 방법으로 특정될 수 있다. 이와 달리, 얼굴 특징은 콧등의 폭과 길이, 콧구멍 사이의 간격 등을 수치화된 값으로 특정될 수 있다.The region of interest (r) may include each part of the nose protruding from the facial skin. Meanwhile, the region of interest r may be divided into a plurality of sub regions of interest. Specifically, the sub-region of interest is a narrower area in which a certain part of the nose, such as the shape of the nasal tip, the shape of the tip of the nose, and the shape of the bridge of the nose, is focused. Facial features for each sub-region of interest may be specified by selecting one of a plurality of preset items. Alternatively, the facial features may be specified as digitized values such as the width and length of the bridge of the nose, the distance between the nostrils, and the like.
한편, 관심영역(r)은 3차원 공간으로 형성될 수도 있다. 예를 들어, 관심영역(r)은 코의 어느 일 측면을 포함할 수 있다. 구체적으로, 입술과 코끝 사이를 연결하는 직선과 지면과 이루는 각도(r6) 등을 측정하여 사용자의 얼굴 특징을 특정할 수 있다.Meanwhile, the region of interest r may be formed in a 3D space. For example, the region of interest (r) may include one side of the nose. Specifically, the facial features of the user may be specified by measuring a straight line connecting the lips and the tip of the nose and an angle r6 formed with the ground.
또한, 관심영역(r)은 입술(r2)일 수 있다. 예를 들어, 관심영역(r)은 입술을 따라 배치되는 복수 개의 개소에서 측정되는 밝기일 수 있다. 이 때, 얼굴 특징은 입술에서 측정되는 복수 개의 밝기 정보(b1 내지 b6, c1 내지 c6)일 수 있다. 밝기 정보는 숫자로 표현될 수 있다. 또한, 입술에 대한 밝기 정보(b1 내지 b6, c1 내지 c6)는 행렬의 형태로 배열될 수 있다. 또한, 관심영역(r)이 입술인 경우, 입술에서 윗입술과 아랫입술의 두께, 윗입술의 M자 라인의 모양 등에 대한 얼굴 특징을 추출하여 사용자에 대한 얼굴 인식에 이용할 수 있다.Also, the region of interest r may be the lips r2. For example, the region of interest r may be brightness measured at a plurality of points disposed along the lips. In this case, the facial features may be a plurality of pieces of brightness information (b1 to b6, c1 to c6) measured from the lips. Brightness information may be expressed in numbers. Also, the brightness information b1 to b6 and c1 to c6 for the lips may be arranged in a matrix form. In addition, when the region of interest r is the lips, facial features such as the thickness of the upper and lower lips, the shape of the M-shaped line of the upper lip, etc. may be extracted from the lips and used for face recognition of the user.
또한, 관심영역(r)은 사용자의 미간 거리(r3), 눈썹의 짙음 정도(r4), 얼굴(예를 들어, 얼굴 중 볼 부분)의 명암 정도(r5), 코와 입(입술) 사이의 거리, 얼굴의 비율 등 다양한 부위의 얼굴 특징을 더 포함할 수 있다. 얼굴 특징은 미리 저장되는 복수 개의 항목 중 어느 하나가 선택되도록 한다. 또한, 얼굴 특징은 수치화된 값으로 특정될 수 있다.In addition, the region of interest (r) is the distance between the user's eyebrows (r3), the degree of darkness of the eyebrows (r4), the degree of contrast (r5) of the face (for example, the cheek part of the face), and the distance between the nose and the mouth (lips). Facial features of various parts such as distance and face ratio may be further included. As for the facial features, one of a plurality of pre-stored items is selected. Also, facial features may be specified as numerical values.
카메라부(212)는 응급환자에 대한 관심영역(r) 내의 얼굴 특징을 추출할 수 있다. 이 때, 카메라부(212)를 통한 이미지 프로세싱은 다음과 같다. 카메라부(212)는 사용자의 얼굴 전면에 대한 인식을 한다. 카메라부(212)는 관심영역(r)에 포커싱을 두고, 이를 확대하여 이미지를 촬상하거나 또는 영상을 촬영할 수 있다.The
한편, 영상의 경우 예를 들어, 관심영역(r) 중 얼굴 특징을 가장 잘 반영하는 어느 일 프레임을 추출하여 이를 이미지화할 수 있다. 이 때, 인공지능처리부(230)는 얼굴 인식 뿐만 아니라, 복수 개의 이미지 또는 영상에서 최적의 이미지를 추출하기 위해 인공지능(AI) 기술 분야 중 딥러닝 방식이 적용된 컨볼루션 신경망을 이용할 수 있다. 컨볼루션 신경망은 일정 크기의 필터를 사용하여 복수 개의 이미지 중 어느 특정 이미지를 정확하게 추출할 수 있다. 이와 달리, 이미지를 촬상하는 경우, 카메라부(212)는 수 초 간격으로 복수 회의 이미지 프레임을 획득할 수 있다. 마찬가지로, 인공지능처리부(230)는 최적의 이미지를 추출하기 위해 딥러닝 방식이 적용된 알고리즘을 이용할 수 있다.Meanwhile, in the case of an image, for example, a frame that best reflects facial features among the region of interest (r) may be extracted and imaged. At this time, the artificial
한편, 카메라부(212)는 응급환자의 얼굴 위치에 따라 카메라부(212)가 향하는 면의 각도를 조절할 수 있다. 카메라부(212)는 일정 각도 범위 이내에서 회동 가능하여, 얼굴 인식에 적합한 각도에 맞게 조절될 수 있다.Meanwhile, the
적외선센서부(214)는 하우징부(210) 외부에 설치되며, 카메라부(212)를 통해 추출되는 응급환자의 얼굴 특징을 더 부가하는 역할을 한다. 적외선센서부(214)는 적외선을 발생시키는 발광부와 이를 감지하는 수광부를 포함한다. 적외선센서부(214)는 특히 빛이 없거나, 부족한 경우 사물의 형태를 구별시킬 수 있다. 응급환자는 스스로 발열하고 있어 스스로 적외선을 방출한다. 즉, 온도가 높을수록 붉은 색으로 나타나는 점, 온도에 따라 파장이 달라지는 점 등을 이용하여 응급환자의 얼굴 특징을 더 부가할 수 있다.The
초음파센서부(216)는 외부에 설치되며, 응급환자의 얼굴 특징에 대한 3차원 정보를 제공한다. 초음파센서부(216)는 초음파를 발생하여 예를 들어, 코의 높이 등 얼굴의 입체적 형상에 관한 데이터를 측정할 수 있다. 초음파센서부(216)는 통상의 기술자에게 공지된 기술을 통해 제작 가능하며, 특히 거리 측정에 사용되는 초음파거리계 등을 채택할 수 있다.The
얼굴특징생성부(210)는 카메라부(212), 적외선센서부(214) 및 초음파센서부(216)에서 전송되는 데이터를 각각 수신하여, 응급환자의 얼굴 특징에 관한 데이터를 생성하는 역할을 한다. 예를 들어, 코의 높이에 관한 얼굴 특징에 있어, 초음파센서부(216)에서 측정되는 데이터가 카메라부(212) 및 적외선센서부(214)를 통해 측정되는 데이터와 오차를 발생시키는 경우, 얼굴특징생성부(210)는 얼굴의 크기 등에 관한 정보를 추가하고, 초음파센서부(216)를 통한 데이터를 보정 계수로 활용하여 코의 높이에 관한 데이터를 특정할 수 있다. 얼굴특징생성부(210)는 얼굴 특징을 3차원 정보를 제공하는 데이터로 변환한다. 얼굴특징생성부(210)는 얼굴 특징에 관한 데이터의 보다 정확한 생성을 위해 인공지능처리부(230)를 통한 딥러닝 방식이 적용된 알고리즘을 이용할 수 있다.The facial
무선송수신부(240)는 의료보조모듈(200)과 전기적으로 연결될 수 있다. 일 실시예에 따른 무선송수신부(240)는 의료보조모듈(200)의 내측면 또는 외측면에 설치될 수 있다. 무선송수신부(240)는 미리 설정되는 단말기(400)와 전기적 신호를 주고 받는다. 여기서, 단말기(400)는 미리 지정된 특정인 예를 들어, 구조자의 스마트폰을 포함한다. 무선송수신부(240)는 와이파이, 블루투스, 지그비 등의 근거리 무선 통신 네트워크를 사용하여 신호를 전송할 수 있다.The
데이터베이스부(220)는 어느 일 응급 기관(대형병원 등) 또는 어느 특정 응급 기관에 등록된 환자에 관한 개인정보, 과거 의료기록 등을 저장하고 있다. 또한, 데이터베이스부(220)는 응급환자의 얼굴에 대한 관심영역 태그를 미리 저정할 수 있다. 제3단계에서 응급환자의 신원을 파악하는 것은 응급환자에 대한 얼굴 중 적어도 하나 이상으로 분할되는 관심영역(r) 내의 얼굴 특징과, 이에 대응하여 미리 저장된 응급환자의 얼굴에 대한 관심영역 태그를 각각 비교하는 방법으로 이루어진다.The
한편, 데이터베이스부(220)는 얼굴특징생성부(210)를 통해 생성되는 응급환자의 얼굴 특징에 관한 데이터를 저장할 수 있다. 이는 추후 응급환자의 얼굴 인식을 위한 데이터로 사용될 수 있다.Meanwhile, the
다음으로, 제4단계(s40)는 의료보조모듈(200)을 통해 응급환자의 과거 의료기록을 딥러닝 방식의 인공지능 기술을 사용하여 분석한 이후, 주의할 필요성이 높은 1) 알레르기 관련 약물에 대한 제1정보 및 2) 응급의학 관련 제2정보를 형성하는 단계이다. 여기서, 제1정보 및 제2정보는 데이터베이스부(220)에 저장되어 있는 응급환자에 대한 개인정보, 의료기록을 인공지능처리부(230)의 딥러닝이 적용된 알고리즘을 통해 형성할 수 있다. 이 때, 제1정보 및 제2정보는 키워드 단위로 형성되는 것이 바람직하다. 키워드는 차량 이송 중 응급 환자의 조치에 있어, 핵심적 내용을 신속하게 전달시킬 수 있다.Next, in the fourth step (s40), after analyzing the past medical records of emergency patients through the
이를 위해, 데이터베이스부(220)에는 알레르기 유발 원인, 알레르기 증상에 따른 주의 약물에 대한 정보, 알레르기 관련 기타 의학 정보를 저장하고 있는 알레르기데이터부(221)와 응급환자에게 특히 빈번하게 발생하는 증상에 대한 대처법 등 의학 정보를 저장하고 있는 응급의학 관련 정보를 저장하고 있는 응급의학데이터부(222)를 포함할 수 있다.To this end, the
제5단계(s50)는 제1정보 및 상기 제2정보를 응급 기관 내의 서버(300)로 전송하는 단계이다. 구체적으로, 제5단계에서 제1정보 및 제2정보는 의료보조모듈(200)과 전기적으로 연결되는 무선송수신부(240)를 통해 미리 설정되는 구조자의 단말기(400) 및 서버(300)로 전송되며, 단말기(400)에는 무선송수신부(240)와 미리 동기화된 전용 앱이 설치되어 제1정보 및 제2정보를 키워드 단위로 수신 받을 수 있다.A fifth step (s50) is a step of transmitting the first information and the second information to the
무선송수신부(240)는 구조자의 단말기(400)에 키워드 단위로 전송함에 따라, 의학 지식이 상대적으로 부족한 구조자도 신속한 응급 대처가 가능하도록 한다. 구조자는 차량을 통한 이송 중 발생하는 응급 상황에서 적절한 응급 조치를 취함에 있어, 응급환자에 따른 주의사항을 확인할 수 있고, 약물 사용의 경우 응급환자에 안전한 약물을 선택할 수 있다. 이를 위해, 구조자의 단말기(400)에는 전용 앱이 설치되어야 한다.As the wireless transmission/
한편, 무선송수신부(240)는 응급 기관 내의 서버(300)에 제1정보 및 제2정보를 전송하는데, 이에 대한 피드백으로 응급 기관은 제1정보 및 제2정보에 대응하여 응급 조치를 보충하는 추가적인 제3정보를 의료보조모듈(200)에 전송할 수 있다.On the other hand, the
본 발명의 일 실시예에 따른 차량 이송 중 응급 환자의 조치 방법은 응급 차량을 통해 이송 중인 중증 응급 환자에 대한 신속한 응급 조치 방법을 제공한다. 또한, 응급 환자에 대한 신원을 과거 데이터 기반으로 용이하게 파악하고, 그에 따라 약물의 투여 등 응급 조치를 취함에 있어 구조자에게 적절한 정보를 제공할 수 있다.A method of taking an emergency patient while transporting a vehicle according to an embodiment of the present invention provides a quick first aid method for a severe emergency patient being transported through an emergency vehicle. In addition, the identity of the emergency patient can be easily identified based on past data, and accordingly, appropriate information can be provided to rescuers in taking emergency measures such as drug administration.
이상에서는 본 발명의 바람직한 실시예를 예시적으로 설명하였으나, 본 발명의 범위는 이와 같은 특정 실시예에만 한정되는 것은 아니며, 특허청구범위에 기재된 범주 내에서 적절하게 변경 가능한 것이다.In the above, preferred embodiments of the present invention have been described by way of example, but the scope of the present invention is not limited only to these specific embodiments, and can be appropriately changed within the scope described in the claims.
100 : 압전센서 110 : a영역
200 : 의료보조모듈 205 : 하우징부
210 : 얼굴특징생성부 212 : 카메라부
214 : 적외선센서부 216 : 초음파센서부
220 : 데이터베이스부
221 : 알레르기데이터부 222 : 응급의학데이터부
230 : 인공지능처리부 240 : 무선송수신부
300 : 서버 400 : 단말기
r, r1, r2, r3, r4, r5, r6 : 관심영역
a1 내지 a6 : 콧등에 대한 밝기 정보
b1 내지 b6, c1 내지 c6 : 입술에 대한 밝기 정보100: piezoelectric sensor 110: area a
200: medical auxiliary module 205: housing part
210: facial feature generating unit 212: camera unit
214: infrared sensor unit 216: ultrasonic sensor unit
220: database unit
221: allergy data department 222: emergency medical data department
230: artificial intelligence processing unit 240: wireless transmission and reception unit
300: server 400: terminal
r, r1, r2, r3, r4, r5, r6: region of interest
a1 to a6: brightness information for the bridge of the nose
b1 to b6, c1 to c6: brightness information for lips
Claims (6)
상기 압전센서는 상기 베드의 상면 중 응급환자의 상반신이 놓이는 a영역과 대향하는 상기 베드의 하면에 설치되고,
상기 의료보조모듈은 카메라부; 상기 카메라부를 통해 추출되는 응급환자의 얼굴 특징을 더 부가하는 적외선센서부; 상기 응급환자의 얼굴 특징에 대한 3차원 정보를 제공하는 초음파센서부; 및 상기 카메라부, 상기 적외선센서부 및 상기 초음파센서부에서 전송되는 데이터를 각각 수신하여, 응급환자의 얼굴 특징에 관한 데이터를 생성하는 얼굴특징생성부;를 포함하며,
제5단계 이후에, 응급 기관은 상기 제1정보 및 상기 제2정보에 대응하여 응급 조치를 보충하는 제3정보를 상기 의료보조모듈에 전송하고,
상기 얼굴특징생성부는 상기 초음파센서부에서 측정되는 데이터가 상기 카메라부 및 상기 적외선센서부를 통해 측정되는 데이터와 오차를 발생시키는 경우, 상기 초음파센서부를 통한 데이터를 보정 계수로 사용하며,
제3단계에서, 신원을 파악하는 것은 응급환자에 대한 얼굴 중 적어도 하나 이상으로 분할되는 관심영역 내의 얼굴 특징과, 미리 저장된 응급환자의 얼굴에 대한 관심영역 태그를 각각 비교하는 방법으로 이루어지며, 얼굴 특징은 입술에서 측정되는 복수 개의 밝기 정보이며, 밝기 정보는 행렬 형태로 배열되며 숫자로 표현되고,
상기 a영역은 상기 베드를 세로 방향으로 균등하게 3등분 할 때, 제1영역과 제2영역의 경계를 포함하는 영역인 차량 이송 중 응급 환자의 조치 방법.
A first step of generating an action event by detecting an emergency patient lying on an upper surface of a bed inside the vehicle through a piezoelectric sensor installed on the bed; a second step of switching an operation of a medical assistance module installed inside the vehicle to On according to the operation event; A third step of recognizing the face of the emergency patient through the medical assistance module to determine the identity; After analyzing the past medical records of emergency patients through the medical assistance module using deep-learning artificial intelligence technology, there is a high need for attention: 1) first information on allergy-related drugs and 2) second emergency medicine-related A fourth step of forming information in keyword units; And a fifth step of transmitting the first information and the second information to a server in an emergency institution through the medical assistance module;
The piezoelectric sensor is installed on the lower surface of the bed facing the area a where the upper body of the emergency patient is placed among the upper surfaces of the bed,
The medical auxiliary module includes a camera unit; an infrared sensor unit to further add facial features of the emergency patient extracted through the camera unit; an ultrasonic sensor unit providing three-dimensional information on facial features of the emergency patient; and a facial feature generation unit configured to receive data transmitted from the camera unit, the infrared sensor unit, and the ultrasonic sensor unit, respectively, and generate data on facial characteristics of the emergency patient.
After the fifth step, the emergency agency transmits third information for supplementing emergency measures corresponding to the first information and the second information to the medical assistance module,
The facial feature generating unit uses the data through the ultrasonic sensor unit as a correction coefficient when the data measured by the ultrasonic sensor unit generates an error with the data measured through the camera unit and the infrared sensor unit,
In the third step, identification is performed by comparing facial features in the ROI segmented into at least one of the faces of the emergency patient and ROI tags for the face of the emergency patient stored in advance, respectively. The feature is a plurality of brightness information measured from the lips, and the brightness information is arranged in a matrix form and expressed in numbers,
The area a is an area including a boundary between the first area and the second area when the bed is equally divided into thirds in the longitudinal direction.
상기 의료보조모듈은
상기 카메라부, 상기 적외선센서부 및 상기 초음파센서부가 상기 차량에 고정 설치되는 하우징부 외부에 설치되는 차량 이송 중 응급 환자의 조치 방법.
According to claim 1,
The medical assistance module is
A method of taking an emergency patient while transporting a vehicle in which the camera unit, the infrared sensor unit, and the ultrasonic sensor unit are installed outside a housing unit fixedly installed in the vehicle.
제5단계에서, 상기 제1정보 및 상기 제2정보는 상기 의료보조모듈과 전기적으로 연결되는 무선송수신부를 통해 미리 설정되는 구조자의 단말기 및 상기 서버로 전송되며,
상기 단말기에는 상기 무선송수신부와 미리 동기화된 전용 앱이 설치되어 상기 제1정보 및 상기 제2정보를 키워드 단위로 수신 받는 차량 이송 중 응급 환자의 조치 방법.According to claim 1,
In step 5, the first information and the second information are transmitted to a preset terminal of a rescuer and the server through a wireless transceiver electrically connected to the medical assistance module,
The terminal is installed with a dedicated app synchronized with the wireless transmission/reception unit in advance to receive the first information and the second information in keyword units.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190140963 | 2019-11-06 | ||
KR20190140963 | 2019-11-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210054978A KR20210054978A (en) | 2021-05-14 |
KR102470111B1 true KR102470111B1 (en) | 2022-11-23 |
Family
ID=75915605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200123291A KR102470111B1 (en) | 2019-11-06 | 2020-09-23 | Treatment method of emergency patient during transforting by vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102470111B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022107093A (en) * | 2021-01-08 | 2022-07-21 | 日本電気株式会社 | Ambulance crew support device, ambulance crew support system, ambulance crew support method and computer program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101222397B1 (en) | 2010-06-08 | 2013-01-16 | 삼성에스디아이 주식회사 | Battery pack |
KR20130118512A (en) * | 2012-04-20 | 2013-10-30 | 경희대학교 산학협력단 | System and method for monitoring the health of a patient using face recognition technology |
KR20180049499A (en) * | 2016-11-03 | 2018-05-11 | 장혜경 | activity monitoring system based internet of things |
US10452813B2 (en) * | 2016-11-17 | 2019-10-22 | Terarecon, Inc. | Medical image identification and interpretation |
KR20190106483A (en) | 2018-03-09 | 2019-09-18 | 국립중앙의료원 | Server and method for managing emergency patient using tag and mobile device |
KR20200041726A (en) | 2018-10-13 | 2020-04-22 | 노우석 | Emergency-Patient-Transfer-System |
-
2020
- 2020-09-23 KR KR1020200123291A patent/KR102470111B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20210054978A (en) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7450167B2 (en) | Biological information detection device | |
Sathyanarayana et al. | Vision-based patient monitoring: a comprehensive review of algorithms and technologies | |
CN103748591B (en) | data management system and method | |
Hu et al. | Synergetic use of thermal and visible imaging techniques for contactless and unobtrusive breathing measurement | |
CN106580294B (en) | Physiological signal remote monitoring system based on multi-mode imaging technology and application | |
JP2021045600A (en) | Biological information detection device | |
US11355232B2 (en) | Automated personnel identification and location, and automated procedure monitoring | |
KR101849955B1 (en) | Convalescence care system using smart mirror | |
CN106599802B (en) | Intelligent corridor monitoring system based on cloud technology | |
US20190081945A1 (en) | Portable Device with Thermal Sensor | |
US20190362133A1 (en) | Monitoring system | |
KR20120140486A (en) | Apparatus and method for providing guiding service in portable terminal | |
KR102470111B1 (en) | Treatment method of emergency patient during transforting by vehicle | |
US10987008B2 (en) | Device, method and computer program product for continuous monitoring of vital signs | |
TW201837901A (en) | Emotion recognition device and emotion recognition program | |
CN108882853A (en) | Measurement physiological parameter is triggered in time using visual context | |
JP6579411B1 (en) | Monitoring system and monitoring method for care facility or hospital | |
KR20200056660A (en) | Pain monitoring method and apparatus using tiny motion in facial image | |
KR20180049470A (en) | Emergency transport control smart system using NFC tag identification band and beacon | |
WO2020241034A1 (en) | Monitoring system and monitoring method | |
Saleh et al. | Face Recognition-Based Smart Glass for Alzheimer’s Patients | |
EP3706035A1 (en) | Device, system and method for tracking and/or de-identification of faces in video data | |
Saranya et al. | Raspberry Pi based smart walking stick for visually impaired person | |
Pabianiaa et al. | Face recognition system for electronic medical record to access out-patient information | |
KR102341788B1 (en) | Apparatus, method, computer-readable storage medium and computer program for providing health care service |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |