KR102470111B1 - Treatment method of emergency patient during transforting by vehicle - Google Patents

Treatment method of emergency patient during transforting by vehicle Download PDF

Info

Publication number
KR102470111B1
KR102470111B1 KR1020200123291A KR20200123291A KR102470111B1 KR 102470111 B1 KR102470111 B1 KR 102470111B1 KR 1020200123291 A KR1020200123291 A KR 1020200123291A KR 20200123291 A KR20200123291 A KR 20200123291A KR 102470111 B1 KR102470111 B1 KR 102470111B1
Authority
KR
South Korea
Prior art keywords
emergency
information
emergency patient
unit
vehicle
Prior art date
Application number
KR1020200123291A
Other languages
Korean (ko)
Other versions
KR20210054978A (en
Inventor
류정탁
김창종
Original Assignee
대구대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대구대학교 산학협력단 filed Critical 대구대학교 산학협력단
Publication of KR20210054978A publication Critical patent/KR20210054978A/en
Application granted granted Critical
Publication of KR102470111B1 publication Critical patent/KR102470111B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices

Abstract

차량 내부의 베드 상면에 눕혀지는 응급환자를 감지하여 동작 이벤트를 발생하는 제1단계; 상기 동작 이벤트에 따라 차량 내부에 설치된 의료보조모듈의 작동을 On으로 전환하는 제2단계; 상기 의료보조모듈을 통해 응급환자의 얼굴을 인식하여 신원을 파악하는 제3단계; 상기 의료보조모듈을 통해 응급환자의 과거 의료기록을 딥러닝 방식의 인공지능 기술을 사용하여 분석한 이후, 주의할 필요성이 높은 1) 알레르기 관련 약물에 대한 제1정보 및 2) 응급의학 관련 제2정보를 형성하는 제4단계; 및 상기 제1정보 및 상기 제2정보를 응급 기관 내의 서버로 전송하는 제5단계;를 포함하는 차량 이송 중 응급 환자의 조치 방법을 제공한다.A first step of generating an action event by detecting an emergency patient lying on the upper surface of the bed inside the vehicle; a second step of switching an operation of a medical assistance module installed inside the vehicle to On according to the operation event; A third step of recognizing the face of the emergency patient through the medical assistance module to determine the identity; After analyzing the past medical records of emergency patients through the medical assistance module using deep-learning artificial intelligence technology, there is a high need for attention: 1) first information on allergy-related drugs and 2) second emergency medicine-related a fourth step of forming information; And a fifth step of transmitting the first information and the second information to a server in an emergency institution; provides a method of taking care of an emergency patient during transport including a vehicle.

Figure 112020101449892-pat00001
Figure 112020101449892-pat00001

Description

차량 이송 중 응급 환자의 조치 방법{TREATMENT METHOD OF EMERGENCY PATIENT DURING TRANSFORTING BY VEHICLE}How to take action for emergency patients during vehicle transport {TREATMENT METHOD OF EMERGENCY PATIENT DURING TRANSFORTING BY VEHICLE}

본 발명은 차량을 통한 응급 환자의 이송 과정에서 구조자가 응급 조치를 위해 응급 환자에 대한 신원을 확인하고, 응급 조치에 필요한 의학 정보를 제공받는 응급 환자의 조치 방법에 관한 것이다.The present invention relates to a method for taking care of an emergency patient in which a rescuer identifies the emergency patient in the process of transporting the emergency patient through a vehicle and receives medical information necessary for the emergency treatment.

일상에서 사건, 사고는 계속적으로 증가하는 추세에 있다. 이런 급박한 상황에서 응급 환자는 119의 구급 차량, 민간 업체에서 운영하는 응급 차량 등을 이용할 수 있다. 최근 이런 응급 환자에 대해, 신속하고 적절한 조치를 취할 수 있는 응급 구조를 위한 원격 의료 시스템이 도입되고 있다. 그러나, 이런 시스템은 구급 대원 등이 카메라 장비를 통해 실시간 촬영되는 영상을 의료진에게 전송하고, 이를 토대로 의료진과 소통하여 적절한 응급 조치를 취하도록 한다.Incidents and accidents in daily life are constantly increasing. In such an urgent situation, emergency patients can use 119 ambulance vehicles and emergency vehicles operated by private companies. Recently, a remote medical system for emergency rescue that can take prompt and appropriate measures for such an emergency patient has been introduced. However, in this system, paramedics and the like transmit images captured in real time through camera equipment to medical staff, and based on this, communicate with medical staff to take appropriate emergency measures.

그러나, 종래 원격 의료 시스템은 구급 대원 등과 의료진 사이의 커뮤니케이션 과정이 각 종 문제점으로 원활하게 운영되기 어렵다는 문제점이 있었다. 예를 들어, 원격 의료의 경우, 추후 응급 조치에 따른 책임 소재에 대한 논란 문제, 의료진 등에 대한 비용 지급 문제, 원격 의료 시스템에 투입되는 의료진의 부족 문제 등이 있었다.However, the conventional remote medical system has a problem in that it is difficult to smoothly operate the communication process between paramedics and medical staff due to various problems. For example, in the case of telemedicine, there were issues such as controversy over responsibility for emergency measures later, payment of expenses to medical staff, and shortage of medical staff to be put into the remote medical system.

또한, 구조 대원과 응급 환자 사이의 의사 소통이 어려운 경우, 응급 조치를 취함에 있어, 응급 환자에 대한 정보의 부족으로 보다 적절한 응급 조치를 취하는 것이 어렵다는 문제점이 있었다. 또한, 구조 대원이 응급 의학에 대한 지식, 경험의 부족으로 적절한 다양한 응급 상황에서 적절한 조치를 취하지 못하는 문제점이 있었다.In addition, when it is difficult to communicate between rescuers and emergency patients, there is a problem in that it is difficult to take more appropriate emergency measures due to lack of information on emergency patients in taking emergency measures. In addition, there was a problem in that rescuers could not take appropriate measures in various emergency situations due to lack of knowledge and experience in emergency medicine.

대한민국 등록특허 제10-1222397호 (2013. 1. 8. 등록)Republic of Korea Patent No. 10-1222397 (registered on January 8, 2013) 대한민국 공개특허 제10-2019-0106483호 (2019. 9. 18. 공개)Republic of Korea Patent Publication No. 10-2019-0106483 (published on September 18, 2019) 대한민국 공개특허 제10-2020-0041726호 (2020. 4. 22. 공개)Republic of Korea Patent Publication No. 10-2020-0041726 (published on April 22, 2020)

본 발명의 실시예는 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 응급 차량을 통해 이송 중인 중증 응급 환자에 대한 신속한 응급 조치 방법을 제공하고자 한다. 특히, 응급 환자에 대한 신원을 과거 데이터 기반으로 용이하게 파악하고, 그에 따라 약물의 투여 등의 응급 조치에 있어 구조자에게 적절한 정보를 제공하고자 한다.Embodiments of the present invention have been made to solve the above problems, and to provide a rapid first aid method for a severe emergency patient being transported through an emergency vehicle. In particular, it is intended to easily identify an emergency patient based on past data, and accordingly provide appropriate information to a rescuer in emergency measures such as drug administration.

이송 중인 응급 차량 내에서 응급 환자에 대한 신원 파악과, 응급 환자에 적합한 응급 의학 관련 정보, 알레르기 관련 약물에 대한 정보를 제공하고자 한다. 구조자가 응급 상황에서 응급 환자에 대해 적절한 응급 조치를 취할 수 있도록 한다.It is intended to provide identification of the emergency patient in the emergency vehicle, emergency medicine-related information suitable for the emergency patient, and information on allergy-related drugs. To enable rescuers to take appropriate first aid measures for emergency patients in emergency situations.

본 발명의 실시예는 상기와 같은 과제를 해결하고자, 차량 내부의 베드 상면에 눕혀지는 응급환자를 감지하여 동작 이벤트를 발생하는 제1단계; 상기 동작 이벤트에 따라 차량 내부에 설치된 의료보조모듈의 작동을 On으로 전환하는 제2단계; 상기 의료보조모듈을 통해 응급환자의 얼굴을 인식하여 신원을 파악하는 제3단계; 상기 의료보조모듈을 통해 응급환자의 과거 의료기록을 딥러닝 방식의 인공지능 기술을 사용하여 분석한 이후, 주의할 필요성이 높은 1) 알레르기 관련 약물에 대한 제1정보 및 2) 응급의학 관련 제2정보를 형성하는 제4단계; 및 상기 제1정보 및 상기 제2정보를 응급 기관 내의 서버로 전송하는 제5단계;를 포함하는 차량 이송 중 응급 환자의 조치 방법을 제공한다.An embodiment of the present invention to solve the above problems, a first step of generating an operation event by detecting an emergency patient lying on the upper surface of the bed inside the vehicle; a second step of switching an operation of a medical assistance module installed inside the vehicle to On according to the operation event; A third step of recognizing the face of the emergency patient through the medical assistance module to determine the identity; After analyzing the past medical records of emergency patients through the medical assistance module using deep-learning artificial intelligence technology, there is a high need for attention: 1) first information on allergy-related drugs and 2) second emergency medicine-related a fourth step of forming information; And a fifth step of transmitting the first information and the second information to a server in an emergency institution; provides a method of taking care of an emergency patient during transport including a vehicle.

제1단계에서, 상기 베드에는 압전센서가 설치되는 것이 바람직하다.In the first step, it is preferable that a piezoelectric sensor is installed on the bed.

상기 의료보조모듈은 상기 차량에 고정 설치되는 하우징부; 상기 하우징부 외부에 설치되며, 설치 각도가 조절되는 카메라부; 상기 하우징부 외부에 설치되며, 상기 카메라부를 통해 추출되는 응급환자의 얼굴 특징을 더 부가하는 적외선센서부; 및 상기 하우징부 외부에 설치되며, 상기 응급환자의 얼굴 특징에 대한 3차원 정보를 제공하는 초음파센서부;를 포함하는 것이 바람직하다.The medical auxiliary module includes a housing part fixedly installed in the vehicle; a camera unit installed outside the housing unit and having an adjustable installation angle; an infrared sensor unit installed outside the housing unit and further adding facial features of the emergency patient extracted through the camera unit; and an ultrasonic sensor unit installed outside the housing unit and providing three-dimensional information on facial features of the emergency patient.

상기 의료보조모듈은 상기 카메라부, 상기 적외선센서부 및 상기 초음파센서부에서 전송되는 데이터를 각각 수신하여, 응급환자의 얼굴 특징에 관한 데이터를 생성하는 얼굴특징생성부;를 더 포함하는 것이 바람직하다.Preferably, the medical assistance module further includes a facial feature generation unit configured to receive data transmitted from the camera unit, the infrared sensor unit, and the ultrasonic sensor unit, respectively, and generate data on facial characteristics of the emergency patient. .

제3단계에서, 신원을 파악하는 것은 응급환자에 대한 얼굴 중 적어도 하나 이상으로 분할되는 관심영역 내의 얼굴 특징과, 이에 대응하여 미리 저장된 응급환자의 얼굴에 대한 관심영역 태그를 각각 비교하는 방법으로 이루어지는 것이 바람직하다.In the third step, identification is performed by comparing facial features in the region of interest segmented into at least one of the faces of the emergency patient and corresponding ROI tags for the face of the emergency patient stored in advance. it is desirable

제5단계에서, 상기 제1정보 및 상기 제2정보는 상기 의료보조모듈과 전기적으로 연결되는 무선송수신부를 통해 미리 설정되는 구조자의 단말기 및 상기 서버로 전송되며,In step 5, the first information and the second information are transmitted to a preset terminal of a rescuer and the server through a wireless transceiver electrically connected to the medical assistance module,

상기 단말기에는 상기 무선송수신부와 미리 동기화된 전용 앱이 설치되어 상기 제1정보 및 상기 제2정보를 키워드 단위로 수신 받는 것이 바람직하다.It is preferable that a dedicated app pre-synchronized with the wireless transmission/reception unit is installed in the terminal to receive the first information and the second information in keyword units.

이상에서 살펴본 바와 같은 본 발명의 과제해결 수단에 의하면 다음과 같은 사항을 포함하는 다양한 효과를 기대할 수 있다. 다만, 본 발명이 하기와 같은 효과를 모두 발휘해야 성립되는 것은 아니다.According to the problem solving means of the present invention as described above, various effects including the following can be expected. However, the present invention is not established when all of the following effects are exhibited.

본 발명의 일 실시예에 따른 차량 이송 중 응급 환자의 조치 방법은 응급 차량을 통해 이송 중인 중증 응급 환자에 대한 신속한 응급 조치 방법을 제공한다. 또한, 응급 환자에 대한 신원을 과거 데이터 기반으로 용이하게 파악하고, 그에 따라 약물의 투여 등 응급 조치를 취함에 있어 구조자에게 적절한 정보를 제공할 수 있다.A method of taking an emergency patient while transporting a vehicle according to an embodiment of the present invention provides a quick first aid method for a severe emergency patient being transported through an emergency vehicle. In addition, the identity of the emergency patient can be easily identified based on past data, and accordingly, appropriate information can be provided to rescuers in taking emergency measures such as drug administration.

이송 중인 응급 차량 내에서 응급 환자에 대한 신원 파악과, 응급 환자에 적합한 응급 의학 관련 정보, 알레르기 관련 약물에 대한 정보를 제공할 수 있다. 이를 기반으로, 구조자가 응급 상황에서 응급 환자에 대해 적절한 응급 조치를 취할 수 있다.In an emergency vehicle that is being transported, identification of an emergency patient, emergency medicine-related information suitable for an emergency patient, and information on allergy-related drugs can be provided. Based on this, rescuers can take appropriate emergency measures for emergency patients in emergency situations.

도 1은 본 발명의 일 실시예에 따른 차량 이송 중 응급 환자의 조치 방법에 대한 순서도.
도 2는 도 1의 조치 방법을 수행하는 의료보조모듈 등의 구성요소 사이의 관계를 도시한 개략적 구성도.
도 3은 도 1의 관심영역에 대한 예시도.
도 4는 도 3의 콧등에 대한 밝기 정보와 입술에 대한 밝기 정보를 보여주는 도면.
1 is a flow chart of a method of taking an emergency patient during transportation according to an embodiment of the present invention.
Figure 2 is a schematic configuration diagram showing the relationship between components such as a medical auxiliary module that performs the action method of Figure 1;
3 is an exemplary view of the region of interest of FIG. 1;
FIG. 4 is a view showing brightness information about the bridge of the nose and brightness information about the lips of FIG. 3;

이하, 본 발명을 설명함에 있어서 관련된 공지 기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Hereinafter, in the description of the present invention, detailed descriptions thereof will be omitted if it is determined that the related known functions may unnecessarily obscure the subject matter of the present invention as obvious matters to those skilled in the art. Terms used in this application are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하, 도면을 참조하여 본 발명의 구체적인 실시예를 상세히 설명한다.Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 사운드 맵 장치에 대한 사시도이고, 도 2는 도 1의 분해 사시도이며, 도 3은 버튼부가 결합되는 상태를 보여주는 단면도이고, 도 4는 도 1의 사운드모듈의 개략적 구성을 보여주는 도면이며, 도 5는 다른 실시예에 따른 전면보드부에 대한 분해 사시도이다.1 is a perspective view of a sound map device according to an embodiment of the present invention, FIG. 2 is an exploded perspective view of FIG. 1, FIG. 3 is a cross-sectional view showing a state in which a button unit is coupled, and FIG. 4 is a sound module of FIG. 1 A view showing a schematic configuration of, Figure 5 is an exploded perspective view of the front board according to another embodiment.

도 1 내지 도 5를 참조하면, 본 발명의 일 실시예에 따른 차량 이송 중 응급 환자의 조치 방법은 제1단계(s10) 내지 제5단계(s50)를 포함한다. 먼저, 제1단계(s10)는 차량 내부의 베드 상면에 눕혀지는 응급환자를 감지하여 동작 이벤트를 발생하는 단계이다. 차량은 응급 구조차인 앰뷸런스인 것이 바람직하다. 차량 내부에는 응급환자가 눕혀지는 베드가 배치되어 있다. 한편, 베드의 하면에는 압전센서(100)가 적어도 하나 이상 부착되어 있다. 즉, 베드에는 압전센서(100)가 설치되어 응급환자를 감지할 수 있다. 압전센서(100)는 얇은 패치형으로 응급환자의 심박수, 호흡수 등을 측정할 수 있다. 압전센서(100)는 응급환자의 상반신이 놓이는 베드의 a영역(110)과 대향하는 베드의 하면에 형성될 수 있다.Referring to FIGS. 1 to 5 , a method for taking care of an emergency patient during vehicle transportation according to an embodiment of the present invention includes a first step (s10) to a fifth step (s50). First, the first step (s10) is a step of generating an operation event by detecting an emergency patient lying on the upper surface of the bed inside the vehicle. The vehicle is preferably an ambulance, which is an emergency rescue vehicle. Inside the vehicle, there is a bed on which emergency patients lie down. Meanwhile, at least one piezoelectric sensor 100 is attached to the lower surface of the bed. That is, the piezoelectric sensor 100 is installed on the bed to detect an emergency patient. The piezoelectric sensor 100 is in the form of a thin patch and can measure the heart rate and respiratory rate of emergency patients. The piezoelectric sensor 100 may be formed on the lower surface of the bed facing the area a 110 of the bed where the upper body of the emergency patient is placed.

여기서, a영역(110)은 베드를 세로 방향으로 균등하게 3등분(제1영역, 제2영역 및 제3영역)할 때, 제1영역과 제2영역의 경계를 포함하는 영역을 의미한다. 압전센서(100)는 측정 신호가 미약한 경우, 이를 증폭할 수 있다. 압전센서(100)는 응급환자의 생체 신호가 급격하게 변동하는 경우, 경고 신호를 생성한 후, 압전센서(100)와 전기적으로 연결되는 스피커부(미도시)를 통해 출력할 수 있다.Here, area a 110 refers to an area including a boundary between the first area and the second area when the bed is equally divided into three parts (first area, second area, and third area) in the vertical direction. When the measurement signal is weak, the piezoelectric sensor 100 may amplify it. The piezoelectric sensor 100 may generate a warning signal when the vital signs of the emergency patient fluctuate rapidly, and then output the warning signal through a speaker unit (not shown) electrically connected to the piezoelectric sensor 100 .

제1단계에서, 압전센서(100)를 통해 응급환자에 해당되는 신호 파형을 검출하면, 의료보조모듈(200)의 작동 상태를 On으로 전환하는 동작 이벤트를 발생할 수 있다.In the first step, when a signal waveform corresponding to an emergency patient is detected through the piezoelectric sensor 100, an operation event for switching the operating state of the medical assistance module 200 to On may occur.

그 다음, 제2단계(s20)는 동작 이벤트에 따라 차량 내부에 설치된 의료보조모듈(200)의 작동을 On으로 전환하는 단계이다. 이 때, 의료보조모듈(200)은 작동 Off 상태에서 작동 On 상태로 전환된다.Then, the second step (s20) is a step of switching the operation of the medical assistance module 200 installed inside the vehicle to On according to the operation event. At this time, the medical auxiliary module 200 is switched from an operation off state to an operation on state.

다음으로, 제3단계(s30)는 의료보조모듈(200)을 통해 응급환자의 얼굴을 인식하여 신원을 파악하는 단계이다. 일 실시예에 따른 의료보조모듈(200)은 차량 내부 중 특히 천장면에 고정 설치되는 것이 바람직하다. 구체적으로, 의료보조모듈(200)은 하우징부(210), 카메라부(212), 적외선센서부(214), 초음파센서부(216), 얼굴특징생성부(210), 데이터베이스부(220), 인공지능처리부(230) 등을 포함할 수 있다. 하우징부(210)는 의료보조모듈(200)의 몸체를 이루는 것으로, 의료보조모듈(200)이 차량에 고정 설치되도록 한다.Next, the third step (s30) is a step of identifying the identity of the emergency patient by recognizing the face of the emergency patient through the medical assistance module 200. It is preferable that the medical auxiliary module 200 according to an embodiment is fixedly installed on the inside of the vehicle, particularly on the ceiling surface. Specifically, the medical auxiliary module 200 includes a housing unit 210, a camera unit 212, an infrared sensor unit 214, an ultrasonic sensor unit 216, a facial feature generator 210, a database unit 220, An artificial intelligence processing unit 230 and the like may be included. The housing part 210 constitutes the body of the medical auxiliary module 200 and allows the medical auxiliary module 200 to be fixedly installed in the vehicle.

카메라부(212)는 하우징부(210) 외부에 설치되며 설치 각도가 조절된다. 카메라부(212)는 응급환자의 얼굴 인식을 위한 용도를 갖는다. 카메라부(212)는 응급환자에 대한 이미지 또는 영상을 촬영한 후, 응급환자에 대한 얼굴 특징을 추출한다. 얼굴 특징은 얼굴 중 적어도 하나 이상으로 분할되는 관심영역(r) 내의 얼굴 특징일 수 있다. 여기서, 관심영역(r)은 사용자의 얼굴 중 코(r1)인 것이 바람직하다. 관심영역(r)은 예를 들어, 콧등에서 측정되는 복수 개의 밝기 정보(a1 내지 a6)일 수 있다. 밝기 정보는 숫자로 표현될 수 있다. 또한, 콧등에 대한 밝기 정보(a1 내지 a6)는 행렬의 형태로 배열될 수 있다.The camera unit 212 is installed outside the housing unit 210 and the installation angle is adjusted. The camera unit 212 has a purpose for recognizing the face of an emergency patient. The camera unit 212 captures an image or video of the emergency patient and then extracts facial features of the emergency patient. The facial features may be facial features within the ROI (r) divided into at least one of the faces. Here, the region of interest r is preferably the nose r1 of the user's face. The region of interest r may be, for example, a plurality of pieces of brightness information a1 to a6 measured on the bridge of the nose. Brightness information may be expressed in numbers. Also, the brightness information a1 to a6 for the bridge of the nose may be arranged in a matrix form.

관심영역(r)은 얼굴 피부에서 돌출되는 코의 각 부위를 포함할 수 있다. 한편, 관심영역(r)은 복수 개의 서브관심영역으로 구분될 수 있다. 구체적으로, 서브관심영역은 콧망울의 모양, 코끝의 형상, 콧등의 형상 등 코의 어느 일 부위를 포커싱한 보다 좁은 영역이다. 각 서브관심영역에 대한 얼굴 특징은 미리 설정된 복수 개의 항목 중 어느 하나를 선택하는 방법으로 특정될 수 있다. 이와 달리, 얼굴 특징은 콧등의 폭과 길이, 콧구멍 사이의 간격 등을 수치화된 값으로 특정될 수 있다.The region of interest (r) may include each part of the nose protruding from the facial skin. Meanwhile, the region of interest r may be divided into a plurality of sub regions of interest. Specifically, the sub-region of interest is a narrower area in which a certain part of the nose, such as the shape of the nasal tip, the shape of the tip of the nose, and the shape of the bridge of the nose, is focused. Facial features for each sub-region of interest may be specified by selecting one of a plurality of preset items. Alternatively, the facial features may be specified as digitized values such as the width and length of the bridge of the nose, the distance between the nostrils, and the like.

한편, 관심영역(r)은 3차원 공간으로 형성될 수도 있다. 예를 들어, 관심영역(r)은 코의 어느 일 측면을 포함할 수 있다. 구체적으로, 입술과 코끝 사이를 연결하는 직선과 지면과 이루는 각도(r6) 등을 측정하여 사용자의 얼굴 특징을 특정할 수 있다.Meanwhile, the region of interest r may be formed in a 3D space. For example, the region of interest (r) may include one side of the nose. Specifically, the facial features of the user may be specified by measuring a straight line connecting the lips and the tip of the nose and an angle r6 formed with the ground.

또한, 관심영역(r)은 입술(r2)일 수 있다. 예를 들어, 관심영역(r)은 입술을 따라 배치되는 복수 개의 개소에서 측정되는 밝기일 수 있다. 이 때, 얼굴 특징은 입술에서 측정되는 복수 개의 밝기 정보(b1 내지 b6, c1 내지 c6)일 수 있다. 밝기 정보는 숫자로 표현될 수 있다. 또한, 입술에 대한 밝기 정보(b1 내지 b6, c1 내지 c6)는 행렬의 형태로 배열될 수 있다. 또한, 관심영역(r)이 입술인 경우, 입술에서 윗입술과 아랫입술의 두께, 윗입술의 M자 라인의 모양 등에 대한 얼굴 특징을 추출하여 사용자에 대한 얼굴 인식에 이용할 수 있다.Also, the region of interest r may be the lips r2. For example, the region of interest r may be brightness measured at a plurality of points disposed along the lips. In this case, the facial features may be a plurality of pieces of brightness information (b1 to b6, c1 to c6) measured from the lips. Brightness information may be expressed in numbers. Also, the brightness information b1 to b6 and c1 to c6 for the lips may be arranged in a matrix form. In addition, when the region of interest r is the lips, facial features such as the thickness of the upper and lower lips, the shape of the M-shaped line of the upper lip, etc. may be extracted from the lips and used for face recognition of the user.

또한, 관심영역(r)은 사용자의 미간 거리(r3), 눈썹의 짙음 정도(r4), 얼굴(예를 들어, 얼굴 중 볼 부분)의 명암 정도(r5), 코와 입(입술) 사이의 거리, 얼굴의 비율 등 다양한 부위의 얼굴 특징을 더 포함할 수 있다. 얼굴 특징은 미리 저장되는 복수 개의 항목 중 어느 하나가 선택되도록 한다. 또한, 얼굴 특징은 수치화된 값으로 특정될 수 있다.In addition, the region of interest (r) is the distance between the user's eyebrows (r3), the degree of darkness of the eyebrows (r4), the degree of contrast (r5) of the face (for example, the cheek part of the face), and the distance between the nose and the mouth (lips). Facial features of various parts such as distance and face ratio may be further included. As for the facial features, one of a plurality of pre-stored items is selected. Also, facial features may be specified as numerical values.

카메라부(212)는 응급환자에 대한 관심영역(r) 내의 얼굴 특징을 추출할 수 있다. 이 때, 카메라부(212)를 통한 이미지 프로세싱은 다음과 같다. 카메라부(212)는 사용자의 얼굴 전면에 대한 인식을 한다. 카메라부(212)는 관심영역(r)에 포커싱을 두고, 이를 확대하여 이미지를 촬상하거나 또는 영상을 촬영할 수 있다.The camera unit 212 may extract facial features within the region of interest r for the emergency patient. At this time, image processing through the camera unit 212 is as follows. The camera unit 212 recognizes the front of the user's face. The camera unit 212 may focus on the region of interest r and capture an image or image by enlarging it.

한편, 영상의 경우 예를 들어, 관심영역(r) 중 얼굴 특징을 가장 잘 반영하는 어느 일 프레임을 추출하여 이를 이미지화할 수 있다. 이 때, 인공지능처리부(230)는 얼굴 인식 뿐만 아니라, 복수 개의 이미지 또는 영상에서 최적의 이미지를 추출하기 위해 인공지능(AI) 기술 분야 중 딥러닝 방식이 적용된 컨볼루션 신경망을 이용할 수 있다. 컨볼루션 신경망은 일정 크기의 필터를 사용하여 복수 개의 이미지 중 어느 특정 이미지를 정확하게 추출할 수 있다. 이와 달리, 이미지를 촬상하는 경우, 카메라부(212)는 수 초 간격으로 복수 회의 이미지 프레임을 획득할 수 있다. 마찬가지로, 인공지능처리부(230)는 최적의 이미지를 추출하기 위해 딥러닝 방식이 적용된 알고리즘을 이용할 수 있다.Meanwhile, in the case of an image, for example, a frame that best reflects facial features among the region of interest (r) may be extracted and imaged. At this time, the artificial intelligence processing unit 230 may use a convolutional neural network to which a deep learning method is applied in the field of artificial intelligence (AI) technology in order to extract an optimal image from a plurality of images or videos as well as face recognition. A convolutional neural network can accurately extract a specific image from among a plurality of images by using a filter having a certain size. In contrast, when capturing an image, the camera unit 212 may acquire a plurality of image frames at intervals of several seconds. Similarly, the artificial intelligence processing unit 230 may use an algorithm applied with a deep learning method to extract an optimal image.

한편, 카메라부(212)는 응급환자의 얼굴 위치에 따라 카메라부(212)가 향하는 면의 각도를 조절할 수 있다. 카메라부(212)는 일정 각도 범위 이내에서 회동 가능하여, 얼굴 인식에 적합한 각도에 맞게 조절될 수 있다.Meanwhile, the camera unit 212 may adjust the angle of the surface toward which the camera unit 212 faces according to the position of the emergency patient's face. The camera unit 212 is rotatable within a certain angular range and can be adjusted to an angle suitable for face recognition.

적외선센서부(214)는 하우징부(210) 외부에 설치되며, 카메라부(212)를 통해 추출되는 응급환자의 얼굴 특징을 더 부가하는 역할을 한다. 적외선센서부(214)는 적외선을 발생시키는 발광부와 이를 감지하는 수광부를 포함한다. 적외선센서부(214)는 특히 빛이 없거나, 부족한 경우 사물의 형태를 구별시킬 수 있다. 응급환자는 스스로 발열하고 있어 스스로 적외선을 방출한다. 즉, 온도가 높을수록 붉은 색으로 나타나는 점, 온도에 따라 파장이 달라지는 점 등을 이용하여 응급환자의 얼굴 특징을 더 부가할 수 있다.The infrared sensor unit 214 is installed outside the housing unit 210 and serves to further add facial features of the emergency patient extracted through the camera unit 212 . The infrared sensor unit 214 includes a light emitting unit that generates infrared rays and a light receiving unit that senses them. The infrared sensor unit 214 can discriminate the shape of an object, especially when there is no light or insufficient light. Emergency patients are self-heating and emit infrared rays themselves. That is, the facial features of the emergency patient can be further added by using the fact that a red color appears as the temperature increases and that the wavelength changes according to the temperature.

초음파센서부(216)는 외부에 설치되며, 응급환자의 얼굴 특징에 대한 3차원 정보를 제공한다. 초음파센서부(216)는 초음파를 발생하여 예를 들어, 코의 높이 등 얼굴의 입체적 형상에 관한 데이터를 측정할 수 있다. 초음파센서부(216)는 통상의 기술자에게 공지된 기술을 통해 제작 가능하며, 특히 거리 측정에 사용되는 초음파거리계 등을 채택할 수 있다.The ultrasonic sensor unit 216 is installed outside and provides three-dimensional information about the facial features of the emergency patient. The ultrasonic sensor unit 216 may generate ultrasonic waves to measure data related to the three-dimensional shape of the face, such as the height of the nose. The ultrasonic sensor unit 216 can be manufactured through a technique known to those skilled in the art, and in particular, an ultrasonic distance meter used for distance measurement can be adopted.

얼굴특징생성부(210)는 카메라부(212), 적외선센서부(214) 및 초음파센서부(216)에서 전송되는 데이터를 각각 수신하여, 응급환자의 얼굴 특징에 관한 데이터를 생성하는 역할을 한다. 예를 들어, 코의 높이에 관한 얼굴 특징에 있어, 초음파센서부(216)에서 측정되는 데이터가 카메라부(212) 및 적외선센서부(214)를 통해 측정되는 데이터와 오차를 발생시키는 경우, 얼굴특징생성부(210)는 얼굴의 크기 등에 관한 정보를 추가하고, 초음파센서부(216)를 통한 데이터를 보정 계수로 활용하여 코의 높이에 관한 데이터를 특정할 수 있다. 얼굴특징생성부(210)는 얼굴 특징을 3차원 정보를 제공하는 데이터로 변환한다. 얼굴특징생성부(210)는 얼굴 특징에 관한 데이터의 보다 정확한 생성을 위해 인공지능처리부(230)를 통한 딥러닝 방식이 적용된 알고리즘을 이용할 수 있다.The facial feature generating unit 210 receives data transmitted from the camera unit 212, the infrared sensor unit 214, and the ultrasonic sensor unit 216, respectively, and serves to generate data on the facial characteristics of the emergency patient. . For example, in the case of facial features related to the height of the nose, when the data measured by the ultrasonic sensor unit 216 and the data measured through the camera unit 212 and the infrared sensor unit 214 generate an error, the face The feature generator 210 may add information about the size of the face and the like, and may specify data about the height of the nose by using data through the ultrasonic sensor 216 as a correction coefficient. The facial feature generator 210 converts facial features into data providing 3D information. The facial feature generating unit 210 may use an algorithm applied with a deep learning method through the artificial intelligence processing unit 230 to more accurately generate data on facial features.

무선송수신부(240)는 의료보조모듈(200)과 전기적으로 연결될 수 있다. 일 실시예에 따른 무선송수신부(240)는 의료보조모듈(200)의 내측면 또는 외측면에 설치될 수 있다. 무선송수신부(240)는 미리 설정되는 단말기(400)와 전기적 신호를 주고 받는다. 여기서, 단말기(400)는 미리 지정된 특정인 예를 들어, 구조자의 스마트폰을 포함한다. 무선송수신부(240)는 와이파이, 블루투스, 지그비 등의 근거리 무선 통신 네트워크를 사용하여 신호를 전송할 수 있다.The wireless transceiver 240 may be electrically connected to the medical auxiliary module 200 . The wireless transceiver 240 according to an embodiment may be installed on an inner or outer surface of the medical assistance module 200 . The wireless transmission/reception unit 240 transmits and receives electrical signals with the preset terminal 400 . Here, the terminal 400 includes a predetermined specific person, for example, a rescuer's smart phone. The wireless transceiver 240 may transmit signals using a short-range wireless communication network such as Wi-Fi, Bluetooth, or ZigBee.

데이터베이스부(220)는 어느 일 응급 기관(대형병원 등) 또는 어느 특정 응급 기관에 등록된 환자에 관한 개인정보, 과거 의료기록 등을 저장하고 있다. 또한, 데이터베이스부(220)는 응급환자의 얼굴에 대한 관심영역 태그를 미리 저정할 수 있다. 제3단계에서 응급환자의 신원을 파악하는 것은 응급환자에 대한 얼굴 중 적어도 하나 이상으로 분할되는 관심영역(r) 내의 얼굴 특징과, 이에 대응하여 미리 저장된 응급환자의 얼굴에 대한 관심영역 태그를 각각 비교하는 방법으로 이루어진다.The database unit 220 stores personal information, past medical records, and the like about a patient registered in a certain emergency institution (large hospital, etc.) or a particular emergency institution. In addition, the database unit 220 may pre-store a ROI tag for the emergency patient's face. In step 3, identification of the emergency patient includes facial features in the region of interest (r) segmented into at least one of the faces of the emergency patient and corresponding ROI tags for the face of the emergency patient stored in advance. done in a comparative way.

한편, 데이터베이스부(220)는 얼굴특징생성부(210)를 통해 생성되는 응급환자의 얼굴 특징에 관한 데이터를 저장할 수 있다. 이는 추후 응급환자의 얼굴 인식을 위한 데이터로 사용될 수 있다.Meanwhile, the database unit 220 may store data on the facial features of the emergency patient generated through the facial feature generating unit 210 . This can be used as data for recognizing the face of an emergency patient in the future.

다음으로, 제4단계(s40)는 의료보조모듈(200)을 통해 응급환자의 과거 의료기록을 딥러닝 방식의 인공지능 기술을 사용하여 분석한 이후, 주의할 필요성이 높은 1) 알레르기 관련 약물에 대한 제1정보 및 2) 응급의학 관련 제2정보를 형성하는 단계이다. 여기서, 제1정보 및 제2정보는 데이터베이스부(220)에 저장되어 있는 응급환자에 대한 개인정보, 의료기록을 인공지능처리부(230)의 딥러닝이 적용된 알고리즘을 통해 형성할 수 있다. 이 때, 제1정보 및 제2정보는 키워드 단위로 형성되는 것이 바람직하다. 키워드는 차량 이송 중 응급 환자의 조치에 있어, 핵심적 내용을 신속하게 전달시킬 수 있다.Next, in the fourth step (s40), after analyzing the past medical records of emergency patients through the medical assistance module 200 using deep learning artificial intelligence technology, 1) allergy-related drugs that require attention This is a step of forming first information and 2) second information related to emergency medicine. Here, the first information and the second information may form personal information and medical records for emergency patients stored in the database unit 220 through an algorithm applied with deep learning of the artificial intelligence processing unit 230 . At this time, it is preferable that the first information and the second information are formed in keyword units. Keywords can quickly deliver key contents in the emergency patient's actions during vehicle transportation.

이를 위해, 데이터베이스부(220)에는 알레르기 유발 원인, 알레르기 증상에 따른 주의 약물에 대한 정보, 알레르기 관련 기타 의학 정보를 저장하고 있는 알레르기데이터부(221)와 응급환자에게 특히 빈번하게 발생하는 증상에 대한 대처법 등 의학 정보를 저장하고 있는 응급의학 관련 정보를 저장하고 있는 응급의학데이터부(222)를 포함할 수 있다.To this end, the database unit 220 includes an allergy data unit 221 that stores allergy-causing causes, information on drugs to be noted according to allergic symptoms, and other medical information related to allergies, and information about symptoms that occur particularly frequently in emergency patients. It may include an emergency medicine data unit 222 that stores information related to emergency medicine that stores medical information such as coping methods.

제5단계(s50)는 제1정보 및 상기 제2정보를 응급 기관 내의 서버(300)로 전송하는 단계이다. 구체적으로, 제5단계에서 제1정보 및 제2정보는 의료보조모듈(200)과 전기적으로 연결되는 무선송수신부(240)를 통해 미리 설정되는 구조자의 단말기(400) 및 서버(300)로 전송되며, 단말기(400)에는 무선송수신부(240)와 미리 동기화된 전용 앱이 설치되어 제1정보 및 제2정보를 키워드 단위로 수신 받을 수 있다.A fifth step (s50) is a step of transmitting the first information and the second information to the server 300 in the emergency institution. Specifically, in the fifth step, the first information and the second information are transmitted to the rescuer's terminal 400 and the server 300 that are set in advance through the wireless transceiver 240 electrically connected to the medical assistance module 200. In addition, a dedicated app synchronized with the wireless transmission/reception unit 240 is installed in the terminal 400 to receive the first information and the second information in keyword units.

무선송수신부(240)는 구조자의 단말기(400)에 키워드 단위로 전송함에 따라, 의학 지식이 상대적으로 부족한 구조자도 신속한 응급 대처가 가능하도록 한다. 구조자는 차량을 통한 이송 중 발생하는 응급 상황에서 적절한 응급 조치를 취함에 있어, 응급환자에 따른 주의사항을 확인할 수 있고, 약물 사용의 경우 응급환자에 안전한 약물을 선택할 수 있다. 이를 위해, 구조자의 단말기(400)에는 전용 앱이 설치되어야 한다.As the wireless transmission/reception unit 240 transmits keywords to the rescuer's terminal 400 in units of keywords, even a rescuer with relatively little medical knowledge can quickly respond to an emergency. Rescuers can check precautions according to emergency patients in taking appropriate first aid measures in an emergency situation that occurs during transport through a vehicle, and can select drugs that are safe for emergency patients in case of drug use. To this end, a dedicated app must be installed on the terminal 400 of the rescuer.

한편, 무선송수신부(240)는 응급 기관 내의 서버(300)에 제1정보 및 제2정보를 전송하는데, 이에 대한 피드백으로 응급 기관은 제1정보 및 제2정보에 대응하여 응급 조치를 보충하는 추가적인 제3정보를 의료보조모듈(200)에 전송할 수 있다.On the other hand, the wireless transceiver 240 transmits the first information and the second information to the server 300 in the emergency agency, and as feedback thereto, the emergency agency responds to the first information and the second information to supplement emergency measures. Additional third information may be transmitted to the medical assistance module 200 .

본 발명의 일 실시예에 따른 차량 이송 중 응급 환자의 조치 방법은 응급 차량을 통해 이송 중인 중증 응급 환자에 대한 신속한 응급 조치 방법을 제공한다. 또한, 응급 환자에 대한 신원을 과거 데이터 기반으로 용이하게 파악하고, 그에 따라 약물의 투여 등 응급 조치를 취함에 있어 구조자에게 적절한 정보를 제공할 수 있다.A method of taking an emergency patient while transporting a vehicle according to an embodiment of the present invention provides a quick first aid method for a severe emergency patient being transported through an emergency vehicle. In addition, the identity of the emergency patient can be easily identified based on past data, and accordingly, appropriate information can be provided to rescuers in taking emergency measures such as drug administration.

이상에서는 본 발명의 바람직한 실시예를 예시적으로 설명하였으나, 본 발명의 범위는 이와 같은 특정 실시예에만 한정되는 것은 아니며, 특허청구범위에 기재된 범주 내에서 적절하게 변경 가능한 것이다.In the above, preferred embodiments of the present invention have been described by way of example, but the scope of the present invention is not limited only to these specific embodiments, and can be appropriately changed within the scope described in the claims.

100 : 압전센서 110 : a영역
200 : 의료보조모듈 205 : 하우징부
210 : 얼굴특징생성부 212 : 카메라부
214 : 적외선센서부 216 : 초음파센서부
220 : 데이터베이스부
221 : 알레르기데이터부 222 : 응급의학데이터부
230 : 인공지능처리부 240 : 무선송수신부
300 : 서버 400 : 단말기
r, r1, r2, r3, r4, r5, r6 : 관심영역
a1 내지 a6 : 콧등에 대한 밝기 정보
b1 내지 b6, c1 내지 c6 : 입술에 대한 밝기 정보
100: piezoelectric sensor 110: area a
200: medical auxiliary module 205: housing part
210: facial feature generating unit 212: camera unit
214: infrared sensor unit 216: ultrasonic sensor unit
220: database unit
221: allergy data department 222: emergency medical data department
230: artificial intelligence processing unit 240: wireless transmission and reception unit
300: server 400: terminal
r, r1, r2, r3, r4, r5, r6: region of interest
a1 to a6: brightness information for the bridge of the nose
b1 to b6, c1 to c6: brightness information for lips

Claims (6)

차량 내부의 베드 상면에 눕혀지는 응급환자를 상기 베드에 설치되는 압전센서를 통해 감지하여 동작 이벤트를 발생하는 제1단계; 상기 동작 이벤트에 따라 차량 내부에 설치된 의료보조모듈의 작동을 On으로 전환하는 제2단계; 상기 의료보조모듈을 통해 응급환자의 얼굴을 인식하여 신원을 파악하는 제3단계; 상기 의료보조모듈을 통해 응급환자의 과거 의료기록을 딥러닝 방식의 인공지능 기술을 사용하여 분석한 이후, 주의할 필요성이 높은 1) 알레르기 관련 약물에 대한 제1정보 및 2) 응급의학 관련 제2정보를 키워드 단위로 형성하는 제4단계; 및 상기 의료보조모듈을 통해 상기 제1정보 및 상기 제2정보를 응급 기관 내의 서버로 전송하는 제5단계;를 포함하며,
상기 압전센서는 상기 베드의 상면 중 응급환자의 상반신이 놓이는 a영역과 대향하는 상기 베드의 하면에 설치되고,
상기 의료보조모듈은 카메라부; 상기 카메라부를 통해 추출되는 응급환자의 얼굴 특징을 더 부가하는 적외선센서부; 상기 응급환자의 얼굴 특징에 대한 3차원 정보를 제공하는 초음파센서부; 및 상기 카메라부, 상기 적외선센서부 및 상기 초음파센서부에서 전송되는 데이터를 각각 수신하여, 응급환자의 얼굴 특징에 관한 데이터를 생성하는 얼굴특징생성부;를 포함하며,
제5단계 이후에, 응급 기관은 상기 제1정보 및 상기 제2정보에 대응하여 응급 조치를 보충하는 제3정보를 상기 의료보조모듈에 전송하고,
상기 얼굴특징생성부는 상기 초음파센서부에서 측정되는 데이터가 상기 카메라부 및 상기 적외선센서부를 통해 측정되는 데이터와 오차를 발생시키는 경우, 상기 초음파센서부를 통한 데이터를 보정 계수로 사용하며,
제3단계에서, 신원을 파악하는 것은 응급환자에 대한 얼굴 중 적어도 하나 이상으로 분할되는 관심영역 내의 얼굴 특징과, 미리 저장된 응급환자의 얼굴에 대한 관심영역 태그를 각각 비교하는 방법으로 이루어지며, 얼굴 특징은 입술에서 측정되는 복수 개의 밝기 정보이며, 밝기 정보는 행렬 형태로 배열되며 숫자로 표현되고,
상기 a영역은 상기 베드를 세로 방향으로 균등하게 3등분 할 때, 제1영역과 제2영역의 경계를 포함하는 영역인 차량 이송 중 응급 환자의 조치 방법.
A first step of generating an action event by detecting an emergency patient lying on an upper surface of a bed inside the vehicle through a piezoelectric sensor installed on the bed; a second step of switching an operation of a medical assistance module installed inside the vehicle to On according to the operation event; A third step of recognizing the face of the emergency patient through the medical assistance module to determine the identity; After analyzing the past medical records of emergency patients through the medical assistance module using deep-learning artificial intelligence technology, there is a high need for attention: 1) first information on allergy-related drugs and 2) second emergency medicine-related A fourth step of forming information in keyword units; And a fifth step of transmitting the first information and the second information to a server in an emergency institution through the medical assistance module;
The piezoelectric sensor is installed on the lower surface of the bed facing the area a where the upper body of the emergency patient is placed among the upper surfaces of the bed,
The medical auxiliary module includes a camera unit; an infrared sensor unit to further add facial features of the emergency patient extracted through the camera unit; an ultrasonic sensor unit providing three-dimensional information on facial features of the emergency patient; and a facial feature generation unit configured to receive data transmitted from the camera unit, the infrared sensor unit, and the ultrasonic sensor unit, respectively, and generate data on facial characteristics of the emergency patient.
After the fifth step, the emergency agency transmits third information for supplementing emergency measures corresponding to the first information and the second information to the medical assistance module,
The facial feature generating unit uses the data through the ultrasonic sensor unit as a correction coefficient when the data measured by the ultrasonic sensor unit generates an error with the data measured through the camera unit and the infrared sensor unit,
In the third step, identification is performed by comparing facial features in the ROI segmented into at least one of the faces of the emergency patient and ROI tags for the face of the emergency patient stored in advance, respectively. The feature is a plurality of brightness information measured from the lips, and the brightness information is arranged in a matrix form and expressed in numbers,
The area a is an area including a boundary between the first area and the second area when the bed is equally divided into thirds in the longitudinal direction.
삭제delete 제1항에 있어서,
상기 의료보조모듈은
상기 카메라부, 상기 적외선센서부 및 상기 초음파센서부가 상기 차량에 고정 설치되는 하우징부 외부에 설치되는 차량 이송 중 응급 환자의 조치 방법.
According to claim 1,
The medical assistance module is
A method of taking an emergency patient while transporting a vehicle in which the camera unit, the infrared sensor unit, and the ultrasonic sensor unit are installed outside a housing unit fixedly installed in the vehicle.
삭제delete 삭제delete 제1항에 있어서,
제5단계에서, 상기 제1정보 및 상기 제2정보는 상기 의료보조모듈과 전기적으로 연결되는 무선송수신부를 통해 미리 설정되는 구조자의 단말기 및 상기 서버로 전송되며,
상기 단말기에는 상기 무선송수신부와 미리 동기화된 전용 앱이 설치되어 상기 제1정보 및 상기 제2정보를 키워드 단위로 수신 받는 차량 이송 중 응급 환자의 조치 방법.
According to claim 1,
In step 5, the first information and the second information are transmitted to a preset terminal of a rescuer and the server through a wireless transceiver electrically connected to the medical assistance module,
The terminal is installed with a dedicated app synchronized with the wireless transmission/reception unit in advance to receive the first information and the second information in keyword units.
KR1020200123291A 2019-11-06 2020-09-23 Treatment method of emergency patient during transforting by vehicle KR102470111B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190140963 2019-11-06
KR20190140963 2019-11-06

Publications (2)

Publication Number Publication Date
KR20210054978A KR20210054978A (en) 2021-05-14
KR102470111B1 true KR102470111B1 (en) 2022-11-23

Family

ID=75915605

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200123291A KR102470111B1 (en) 2019-11-06 2020-09-23 Treatment method of emergency patient during transforting by vehicle

Country Status (1)

Country Link
KR (1) KR102470111B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022107093A (en) * 2021-01-08 2022-07-21 日本電気株式会社 Ambulance crew support device, ambulance crew support system, ambulance crew support method and computer program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101222397B1 (en) 2010-06-08 2013-01-16 삼성에스디아이 주식회사 Battery pack
KR20130118512A (en) * 2012-04-20 2013-10-30 경희대학교 산학협력단 System and method for monitoring the health of a patient using face recognition technology
KR20180049499A (en) * 2016-11-03 2018-05-11 장혜경 activity monitoring system based internet of things
US10452813B2 (en) * 2016-11-17 2019-10-22 Terarecon, Inc. Medical image identification and interpretation
KR20190106483A (en) 2018-03-09 2019-09-18 국립중앙의료원 Server and method for managing emergency patient using tag and mobile device
KR20200041726A (en) 2018-10-13 2020-04-22 노우석 Emergency-Patient-Transfer-System

Also Published As

Publication number Publication date
KR20210054978A (en) 2021-05-14

Similar Documents

Publication Publication Date Title
JP7450167B2 (en) Biological information detection device
Sathyanarayana et al. Vision-based patient monitoring: a comprehensive review of algorithms and technologies
CN103748591B (en) data management system and method
Hu et al. Synergetic use of thermal and visible imaging techniques for contactless and unobtrusive breathing measurement
CN106580294B (en) Physiological signal remote monitoring system based on multi-mode imaging technology and application
JP2021045600A (en) Biological information detection device
US11355232B2 (en) Automated personnel identification and location, and automated procedure monitoring
KR101849955B1 (en) Convalescence care system using smart mirror
CN106599802B (en) Intelligent corridor monitoring system based on cloud technology
US20190081945A1 (en) Portable Device with Thermal Sensor
US20190362133A1 (en) Monitoring system
KR20120140486A (en) Apparatus and method for providing guiding service in portable terminal
KR102470111B1 (en) Treatment method of emergency patient during transforting by vehicle
US10987008B2 (en) Device, method and computer program product for continuous monitoring of vital signs
TW201837901A (en) Emotion recognition device and emotion recognition program
CN108882853A (en) Measurement physiological parameter is triggered in time using visual context
JP6579411B1 (en) Monitoring system and monitoring method for care facility or hospital
KR20200056660A (en) Pain monitoring method and apparatus using tiny motion in facial image
KR20180049470A (en) Emergency transport control smart system using NFC tag identification band and beacon
WO2020241034A1 (en) Monitoring system and monitoring method
Saleh et al. Face Recognition-Based Smart Glass for Alzheimer’s Patients
EP3706035A1 (en) Device, system and method for tracking and/or de-identification of faces in video data
Saranya et al. Raspberry Pi based smart walking stick for visually impaired person
Pabianiaa et al. Face recognition system for electronic medical record to access out-patient information
KR102341788B1 (en) Apparatus, method, computer-readable storage medium and computer program for providing health care service

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)