KR20200104758A - Method and apparatus for determining a dangerous situation and managing the safety of the user - Google Patents

Method and apparatus for determining a dangerous situation and managing the safety of the user Download PDF

Info

Publication number
KR20200104758A
KR20200104758A KR1020190023514A KR20190023514A KR20200104758A KR 20200104758 A KR20200104758 A KR 20200104758A KR 1020190023514 A KR1020190023514 A KR 1020190023514A KR 20190023514 A KR20190023514 A KR 20190023514A KR 20200104758 A KR20200104758 A KR 20200104758A
Authority
KR
South Korea
Prior art keywords
user
information
surrounding environment
signal
risk level
Prior art date
Application number
KR1020190023514A
Other languages
Korean (ko)
Inventor
구요한
Original Assignee
구요한
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구요한 filed Critical 구요한
Priority to KR1020190023514A priority Critical patent/KR20200104758A/en
Publication of KR20200104758A publication Critical patent/KR20200104758A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0211Combination with medical sensor, e.g. for measuring heart rate, temperature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0222Message structure or message content, e.g. message protocol
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0236Threshold setting

Abstract

According to one disclosure, provided is a method for determining a dangerous situation of a user through first danger determination which has analyzed a bio-signal of a user and second danger determination which has analyzed surrounding environment information, and managing the safety. The method comprises the steps of: sensing a bio-signal of a user by using at least one sensor every predetermined period; matching a surrounding environment of the user with any one of a plurality of state groups classified in accordance with the activity attribute of the user, when the change in the bio-signal of the user exceeds a threshold value; determining a danger level for the surrounding environment based on setting information of the matched state group and the bio-signal of the user; and transmitting a notification message to a terminal of a guardian in accordance with the determined danger level.

Description

위험 상황을 판단하고, 사용자의 안전을 관리하는 방법 및 장치{METHOD AND APPARATUS FOR DETERMINING A DANGEROUS SITUATION AND MANAGING THE SAFETY OF THE USER}METHOD AND APPARATUS FOR DETERMINING A DANGEROUS SITUATION AND MANAGING THE SAFETY OF THE USER}

일 개시에 따라, 사용자의 생체 신호 및 사용자의 현재 주변 환경을 분석하여 사용자가 위험한 상황에 처해 있는지 여부를 판단하고, 사용자의 상태가 위험 상황이라고 판단되는 경우 보호자의 단말로 알림을 전송하는 방법 및 장치가 개시된다. According to the start of the day, a method of analyzing the user's biosignal and the user's current surrounding environment to determine whether the user is in a dangerous situation, and transmitting a notification to the guardian's terminal when the user's state is determined to be a dangerous situation; and The device is started.

최근 보육시설에서 빈번히 일어나는 아동 폭행 및 정신적 학대사건으로 인해 피해 아동과 부모들의 상처가 더 커지고 있다. 특히, 폭행 및 학대 사건으로 인해 피해를 받은 아동들은 외상 후 스트레스 장애에 시달리고 있어 심리적으로 치료가 필요한 상황이다.In recent years, child abuse and mental abuse cases frequently occur in childcare facilities, leading to greater injuries to children and their parents. In particular, children who have been damaged by assault and abuse cases are suffering from post-traumatic stress disorder and need psychological treatment.

하지만, 보육시설에 아이를 맡기는 대부분의 부모가 맞벌이기 때문에 따로 시간을 내어 아이와 함께 심리 상담소에 방문하거나 지속적으로 전문가의 심리치료를 받는 등에 대한 부분에서 어려움이 생길 수 있다.However, since most parents who entrust their children to child care facilities are double-income, difficulties may arise in areas such as taking a separate time to visit a psychological counseling center with the child or continuously receiving psychological treatment from experts.

또한, 부모가 아이의 상태에 대해 직접 인식하지 못한다면 아이는 그대로 방치되어 추후에 더 큰 심리 장애를 일으킬 수 있어, 시간과 공간적으로 자유롭고 손쉽게 아이의 신체 상태 및 정서 상태를 파악함으로써 아동 학대를 예측하고 대처할 수 있는 시스템이 필요하다.In addition, if parents are not directly aware of the child's condition, the child is left as it is and may cause a greater psychological disorder in the future.Therefore, it is possible to predict child abuse by grasping the child's physical condition and emotional condition easily and freely in time and space. You need a system that can cope with it.

또한, 의료 기술의 발전은 기대 수명의 연장과 함께 고령화 사회를 초래하고 있다. 이에 따라 노인 건강에 대한 중요성이 높아지고 있다. 고령화 사회가 도래하면서 혼자 사는 독거노인들이 점점 증가하고 있다. 이처럼 혼자 살고 있는 독거노인들은 갑작스럽게 건강에 이상이 생기는 위급 상황이 발생하는 경우, 누군가의 도움을 받을 수 없기 때문에 이들의 안전을 위한 모니터링 시스템이 개발되고 있다. In addition, advances in medical technology are leading to an aging society with an extended life expectancy. Accordingly, the importance of the elderly's health is increasing. With the advent of an aging society, the number of elderly living alone living alone is increasing. As such, in the case of an emergency that causes abnormal health problems, the elderly living alone cannot get help from someone, so a monitoring system is being developed for their safety.

그러나, 기존의 시스템은 사용자의 직접적인 요청을 통해야만 위험상황을 보호자에게 알릴 수 있거나, 단순히 사용자의 생체적 특징만을 이용하여 위험상황을 판단하는 것은 한계가 존재하였기 때문에, 상황에 따라 사용자의 위험여부를 정확하게 판단하고, 보호자에게 알릴 수 있는 위험 상황 관리 시스템의 니즈가 증가하고 있다.However, in the existing system, the risk situation can be notified to the guardian only through a direct request of the user, or there is a limit to determining the risk situation using only the user's biometric characteristics. There is an increasing need for a risk situation management system that can accurately judge the situation and notify the guardian.

대한민국 특허공개번호 제 10-2016-0161073호(2018.06.08 공개)Korean Patent Publication No. 10-2016-0161073 (published on June 8, 2018) 대한민국 등록특허공보 제 10-1677642호(2016.11.18 공고)Korean Registered Patent Publication No. 10-1677642 (announced on November 18, 2016)

일 개시에 따른 기술적 과제는 사용자의 생체 신호의 변화에 따라 위험 상황인지 여부를 1차적으로 판단하고, 사용자의 활동속성을 고려하여 현재 사용자의 상태를 결정한 후 사용자가 현재 위험 상황에 처해있는 지, 위험 상황에 처해 있다면 위험 레벨은 어느 정도 인지 여부를 결정하여 보호자의 단말로 알리는 사용자의 위험 상황을 판단하고, 안전을 관리하는 방법 및 장치를 제공함에 있다.The technical task according to the start of the day is to determine whether the user is in a dangerous situation based on a change in the user's bio-signal, determine the current state of the user in consideration of the user's activity attributes, and whether the user is currently in a dangerous situation, The objective is to provide a method and apparatus for determining a user's dangerous situation, which is notified to a guardian's terminal by determining the level of risk, if in a dangerous situation, and managing safety.

제 1 실시예에 따른 위험 상황을 판단하고 사용자의 안전을 관리하는 방법은, 기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하는 단계, 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 카메라를 구동하여 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득하는 단계, 적어도 하나의 이미지를 분석하여, 사용자의 주변 환경을 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하는 단계, 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 적어도 하나의 이미지에 포함된 주변 환경에 대한 위험 레벨을 정하는 단계 및 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송하는 단계를 포함할 수 있다.A method of determining a risk situation and managing a user's safety according to the first embodiment includes sensing a user's biosignal using at least one sensor every predetermined period, and the change of the user's biosignal determines a threshold value. In case of deviation, the step of acquiring at least one image of the user's surrounding environment by driving the camera, analyzing the at least one image, and any one of a plurality of state groups classified according to the user's activity attribute Matching to a state group of, determining a risk level for the surrounding environment included in at least one image based on the setting information of the matched state group and the user's biosignal, and to the guardian's terminal according to the determined risk level. It may include transmitting a notification message.

제 2 실시예에 따른 위험 상황을 판단하고 사용자의 안전을 관리하는 장치는, 사용자 및 사용자의 주변 환경을 촬영하는 카메라, 프로세서, 및 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리를 포함하고, 프로세서는, 명령어들을 실행함으로써, 기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고, 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 카메라를 구동하여 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득하고, 적어도 하나의 이미지를 분석하여, 사용자의 주변 환경을 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고, 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 적어도 하나의 이미지에 포함된 주변 환경에 대한 위험 레벨을 정하고, 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송할 수 있다.An apparatus for determining a dangerous situation and managing user safety according to the second embodiment includes a camera for photographing a user and a user's surrounding environment, a processor, and a memory storing instructions executable by the processor, and the processor is , By executing commands, the user's bio-signal is sensed using at least one sensor every predetermined period, and when the change in the user's bio-signal exceeds the threshold value, the camera is driven to at least one of the user's surroundings. And the user's surrounding environment is matched to any one of a plurality of state groups classified according to the user's activity attribute by acquiring an image of and analyzing at least one image, and setting information of the matched state group and the user Based on the biosignal of, the risk level for the surrounding environment included in at least one image may be determined, and a notification message may be transmitted to the terminal of the guardian according to the determined risk level.

일 개시에 의하여 본 발명은 판단 능력이 떨어지는 유아 또는 노인의 육체적, 정신적 학대 여부를 빅데이터를 이용하여 판단함으로써, 유아 또는 노인의 학대를 예방할 수 있다.According to one disclosure, the present invention can prevent abuse of infants or the elderly by determining whether physical or mental abuse of infants or seniors with low judgment ability using big data.

일 개시에 의하여, 2차적인 위험 상황 판단에 따라 사용자의 생체 신호의 변화만으로는 확인할 수 없는 위험 상황을 정확하게 판단할 수 있다.By initiation, it is possible to accurately determine a dangerous situation that cannot be confirmed only by a change in the user's bio-signal according to the secondary risk situation determination.

일 개시에 의하여, 우선적으로 사용자의 장치에서 획득한 사용자 및 사용자 주변의 영상을 이용하고, 위험 상황에 레벨에 따라 IoT 서비스를 통해 CCTV 영상을 획득하여 보호자에게 제공함으로써 보호자로 하여금 위험 상황을 보다 명확하게 알 수 있도록 한다. 또한, 보호자는 획득한 영상 및 이미지를 증거 자료로서 사용할 수 있는 효과가 있다. By the start of the day, by first using the image of the user and the user's surroundings acquired from the user's device, and by providing the CCTV image to the guardian through the IoT service according to the level of the danger situation, the guardian can make the danger situation more clear To be able to know. In addition, there is an effect that the guardian can use the acquired images and images as evidence.

또한, 사용자의 평상시 행동 패턴을 모니터링하여 상태 그룹의 세팅 정보를 업데이트함으로써, 사용자의 활동에 맞는 위험 상황 여부를 판단을 수행할 수 있다.In addition, by monitoring the user's usual behavior pattern and updating the setting information of the state group, it is possible to determine whether a risk situation is suitable for the user's activity.

도 1은 일 실시예에 따른 위험 상황 분석 장치의 작동을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 사용자의 위험상황을 판단하고, 안전을 관리하는 방법을 설명하기 위한 순서도이다.
도 3은 일 실시예에 따른 위험 상황 분석 장치에서 다른 장치로 사용자의 위험 상황을 알리는 방법을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 위험 상황 분석 장치의 주요 구성을 나타내는 도면이다.
도 5는 일 실시예에 따른 웨어러블 장치 형태의 위험 상황 분석 장치에서 보호자 단말로 위험 상황에 대한 알림 메시지를 전송하는 내용을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 모바일 단말 형태의 위험 상황 분석 장치에서 사용자의 생체 신호를 감지하고 위험 상황을 분석하는 내용을 설명하기 위한 도면이다.
도 7을 일 실시예에 따른 의류에 장착된 센싱부를 이용하여 사용자의 위험 상황을 판단하는 특징을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 양말에 장착된 센싱부를 이용하여 사용자의 위험 상황을 판단하는 내용을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 사용자의 생체신호를 분석하는 내용을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 사용자 주변의 CCTV 장치를 이용하여 사용자의 주변 환경의 영상을 획득하는 내용을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 위험 상황 분석 장치의 상세 구성을 설명하기 위한 도면이다.
1 is a view for explaining the operation of a dangerous situation analysis apparatus according to an embodiment.
2 is a flowchart illustrating a method of determining a user's risk situation and managing safety according to an exemplary embodiment.
3 is a diagram for explaining a method of informing a user of a dangerous situation to another device in a dangerous situation analysis apparatus according to an exemplary embodiment.
4 is a diagram illustrating a main configuration of an apparatus for analyzing a dangerous situation according to an exemplary embodiment.
FIG. 5 is a diagram for explaining contents of transmitting a notification message about a dangerous situation from a risk situation analysis device in the form of a wearable device to a guardian terminal according to an embodiment.
FIG. 6 is a diagram for explaining content of detecting a user's bio-signal and analyzing a dangerous situation in the apparatus for analyzing a dangerous situation in the form of a mobile terminal according to an exemplary embodiment.
7 is a view for explaining a characteristic of determining a user's risk situation using a sensing unit mounted on a clothing according to an exemplary embodiment.
8 is a view for explaining content of determining a user's risk situation by using a sensing unit mounted on a socks according to an embodiment.
9 is a diagram for explaining content of analyzing a user's bio-signal according to an exemplary embodiment.
10 is a diagram for explaining contents of acquiring an image of a user's surrounding environment by using a CCTV device around a user according to an exemplary embodiment.
11 is a diagram for describing a detailed configuration of an apparatus for analyzing a dangerous situation according to an exemplary embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명의 일 실시예에 대해 구체적으로 설명하기로 한다. The terms used in the present specification will be briefly described, and an embodiment of the present invention will be described in detail.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. Terms used in the present specification have selected general terms that are currently widely used as possible while considering functions in the present invention, but this may vary depending on the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present specification should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, terms such as "... unit" and "module" described in the specification mean units that process at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .

본 명세서에서, “위험 상황을 판단하고 사용자의 안전을 관리하는 장치(100)”는 위험 상황 판단 장치(100)로 설명하도록 한다. In this specification, the “device 100 that determines a dangerous situation and manages the safety of a user” will be described as the device 100 for determining a dangerous situation.

본 명세서에서, “사용자”는 유아, 노인, 어린이, 장애인 등과 같이 위험 상황에 대한 판단 능력이 떨어지는 사람을 의미하며, 나아가, 위험 상황 분석 장치를 사용하는 모든 사람을 의미할 수 있다.In the present specification, “user” refers to a person whose ability to judge a dangerous situation is low, such as an infant, an elderly person, a child, or a disabled person, and further, may refer to anyone who uses the risk situation analysis device.

본 명세서에서, “보호자”는 사용자의 안전을 관리하는 사람으로서, 사용자의 위험 상황 판단 장치로부터 위험 상황에 대한 알림 메시지를 수신할 수 있도록 미리 등록된 사용자를 의미한다. 나아가, 경찰, 소방서, 병원 등과 같은 공공기관을 포함할 수 있다.In the present specification, "guardian" refers to a person who manages the safety of the user, and means a user registered in advance so as to receive a notification message about a dangerous situation from the user's risk situation determination device. Furthermore, it may include public institutions such as police, fire departments, hospitals, and the like.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

도 1은 일 실시예에 따른 위험 상황 분석 장치의 작동을 설명하기 위한 도면이다. 1 is a view for explaining the operation of a dangerous situation analysis apparatus according to an embodiment.

일 개시에 의하여 위험 상황 분석 장치(100)는 주기적으로 사용자의 생체신호를 감지하고, 사용자의 생체 신호의 변화에 따라 현재 사용자의 상태에 대하여 상세한 분석을 수행할 수 있다. 나아가, 위험 상황 분석 장치(100)는 사용자의 생체 신호의 급격한 변화가 일어나는 경우 현재 사용자의 활동상태가 무엇인지 결정한 후, 주변 상황에 대한 분석을 통해 현재 사용자가 위험 상황에 처해 있는지 여부를 판단할 수 있다. 또한, 위험 상황 분석 장치(100)는 사용자의 생체 신호 및 주변 상황의 정황을 분석하여 사용자의 위험 레벨을 결정할 수 있다. 또한, 위험 상황 분석 장치(100)는 사용자의 위험 상황에 대한 내용을 보호자의 단말(200)로 알림으로써 보호자로 하여금 보다 명확하게 사용자의 안전을 관리할 수 있도록 해준다.By initiation, the apparatus 100 for analyzing a dangerous situation may periodically detect a user's bio-signal and perform detailed analysis on a current user's state according to a change in the user's bio-signal. Furthermore, when a sudden change in the user's bio-signal occurs, the dangerous situation analysis apparatus 100 determines what the current user's activity is, and then determines whether the current user is in a dangerous situation through analysis of the surrounding situation. I can. In addition, the danger situation analysis apparatus 100 may determine the user's risk level by analyzing the user's bio-signal and the context of the surrounding situation. In addition, the dangerous situation analysis apparatus 100 notifies the user's dangerous situation to the guardian's terminal 200 so that the guardian can more clearly manage the user's safety.

예를 들어, 도 1의 (a)를 살펴보면, 사용자인 아동이 선생님으로부터 심한 꾸지람을 받아 심각한 정신적 스트레스를 받고 있는 상황이다. 위험 상황 분석 장치(100)는 사용자의 심장 박동수, 혈압 변화량, 땀 배출량 등의 생체 신호를 획득하고, 이를 분석하여 사용자가 현재 심각한 스트레스 상태라고 판단할 수 있다. 일 개시에 의하여 위험 상황 분석 장치(100)는 카메라 또는 녹음장치를 구동하여 사용자의 주변 환경에 대한 정보를 획득할 수 있다. 위험 상황 분석 장치(100)는 현재 사용자가 일상 활동임을 판단할 수 있으며, 영상에 포함된 다른 사람으로부터 구타, 학대, 폭언 등을 듣고 있다고 판단할 수 있다. 다음으로, 위험 상황 분석 장치(100)는 사용자의 일상 활동에서의 위험 레벨이 3이라고 판단하고, 이를 보호자의 단말(200)로 전송함으로써 보호자로 하여금 조치를 취하게 할 수 있다. 또한, 보호자의 단말(200)로 알림 메시지와 함께 주변 환경에 대한 이미지(201)를 전송함으로써 보다 명확하게 사용자의 상황을 공유할 수 있다.For example, looking at (a) of FIG. 1, a child, a user, is severely scolded by a teacher and is under serious mental stress. The dangerous situation analysis apparatus 100 may determine that the user is currently in a severe stress state by acquiring bio-signals such as the user's heart rate, blood pressure change amount, and sweat discharge. According to an initiation, the apparatus 100 for analyzing a dangerous situation may acquire information about a user's surrounding environment by driving a camera or a recording device. The dangerous situation analysis apparatus 100 may determine that the current user is a daily activity, and may determine that the user is being beaten, abused, or is receiving abusive speech from another person included in the image. Next, the dangerous situation analysis apparatus 100 may determine that the risk level in the user's daily activities is 3, and transmit it to the guardian's terminal 200 to cause the guardian to take action. In addition, by transmitting the image 201 of the surrounding environment together with a notification message to the guardian's terminal 200, the user's situation can be more clearly shared.

사용자의 위험 레벨은 연령, 병변, 성별 등의 정보를 이용하여 자동으로 정해질 수 있으며, 사용자 또는 보호자의 설정으로 정해질 수 있다. 이하에서 상세히 설명한다.The user's risk level may be automatically determined using information such as age, lesion, and gender, and may be set by the user or guardian. It will be described in detail below.

도 1의(b)를 살펴보면, 사용자(10)가 수면 중 침대에서 낙상한 것을 확인할 수 있다. 위험 상황 분석 장치(100)는 사용자의 생체 신호의 변화 및 주변 환경 정보를 이용하여 사용자가 수면 상태에서 침대에서 낙상하였다고 판단할 수 있다. 이때, 위험 상황 분석 장치(100)는 사용자(10)의 다음 행동 및 생체 신호의 변화를 지속적으로 분석함으로써 사용자의 위험 레벨을 시간에 따라 판단할 수 있다. 예를 들어, 사용자(10)의 생체 신호가 다시 안정적으로 변하거나, 주변 환경에 대한 영상에서 사용자의 신음소리 등이 들리지 않는다면 사용자(10)의 위험 레벨이 높지 않다고 판단할 수 있다. 위험 상황 분석 장치(100)는 위험 상황에 대한 알림 메시지(202) 및 사용자(10)의 실시간 상태에 대한 메시지(203)를 보호자의 단말(200)로 전송함으로써 사용자(10)의 안전 상태를 관리할 수 있다.Looking at (b) of FIG. 1, it can be seen that the user 10 fell in bed while sleeping. The apparatus 100 for analyzing a dangerous situation may determine that the user fell from bed while sleeping by using the change in the user's bio-signal and information on the surrounding environment. In this case, the danger situation analysis apparatus 100 may determine the risk level of the user according to time by continuously analyzing the next action of the user 10 and the change in the biosignal. For example, if the biosignal of the user 10 is stably changed again, or if the user's moaning sound is not heard in the image of the surrounding environment, it may be determined that the risk level of the user 10 is not high. The danger situation analysis apparatus 100 manages the safety status of the user 10 by transmitting a notification message 202 about a danger situation and a message 203 about the real time status of the user 10 to the guardian's terminal 200 can do.

도 2는 일 실시예에 따른 사용자의 위험상황을 판단하고, 안전을 관리하는 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of determining a user's risk situation and managing safety according to an exemplary embodiment.

일 개시에 따른 블록 201에서 위험 상황 분석 장치(100)는 기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱할 수 있다. In block 201 according to the start of the day, the apparatus 100 for analyzing a dangerous situation may sense a biosignal of a user by using at least one sensor every predetermined period.

일 개시에 의하여, 기 정해진 주기는 사용자가 직접 정할 수 있으며, 위험 상황이 발생한 경우 생체 신호를 센싱하는 주기가 더 짧아지도록 설정할 수 있다.By initiation, a predetermined period may be directly determined by the user, and when a dangerous situation occurs, a period for sensing a bio-signal may be set to be shorter.

일 개시에 의하여, 사용자의 생체 신호는 사용자의 육체적, 정신적 상태를 판단하는 지표값으로서 사용될 수 있다. 일 개시에 의하여 생체 신호는 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보 등을 포함할 수 있으며, 센싱 장치를 이용하여 측정할 수 있는 모든 생체 신호를 포함할 수 있다.By initiation, the user's biosignal may be used as an index value for determining the user's physical and mental state. By initiation, the biosignal may include body temperature information, sweat emission information, skin characteristic information, heart rate information, blood pressure information, etc. of the user, and may include all biosignals that can be measured using a sensing device. .

일 개시에 따른 블록 202에서 위험 상황 분석 장치(100)는 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 카메라를 구동하여 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득할 수 있다.In block 202 according to the start of the day, when the change in the user's bio-signal exceeds the threshold value, the apparatus 100 may drive the camera to obtain at least one image of the user's surrounding environment.

일 개시에 의하여, 위험 상황 분석 장치(100)는 주기적으로 획득한 사용자의 생체 신호를 이용하여 사용자의 활동 유형에 따른 생체 신호의 평균값을 생성할 수 있다. 또는 위험 상황 분석 장치(100)는 사용자 또는 보호자에 의하여 입력된 생체 신호의 정상 범위 및 임계값을 저장할 수 있다.By initiation, the apparatus 100 for analyzing a dangerous situation may generate an average value of the biosignal according to the user's activity type by using the periodically acquired biosignal of the user. Alternatively, the danger situation analysis apparatus 100 may store a normal range and a threshold value of a biosignal input by a user or a guardian.

위험 상황 분석 장치(100)는 사용자의 생체 신호가 미리 정해진 임계값을 벗어나는 경우, 사용자가 위험 상황에 직면했다는 1차 판단을 할 수 있다. 즉, 위험 상황 분석 장치(100)는 사용자의 개입 없이도 사용자의 생체 신호만을 분석함으로써 사용자의 위험 여부를 1차적으로 판단할 수 있다. When the user's biometric signal exceeds a predetermined threshold, the dangerous situation analysis apparatus 100 may make a primary determination that the user has encountered a dangerous situation. That is, the danger situation analysis apparatus 100 may primarily determine whether the user is in danger by analyzing only the user's biosignal without the user's intervention.

위험 상황 분석 장치(100)는 보다 명확한 사용자의 상태를 파악하기 위하여 카메라를 구동하여 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득할 수 있다. 또한, 위험 상황 분석 장치(100)는 카메라를 이용하여 주변 환경의 영상을 획득할 수 있음은 당연하다.The apparatus 100 for analyzing a dangerous situation may acquire at least one image of the user's surrounding environment by driving a camera in order to determine the user's state more clearly. In addition, it is natural that the apparatus 100 for analyzing a dangerous situation may acquire an image of a surrounding environment using a camera.

일 개시에 따른 블록 203에서 위험 상황 분석 장치(100)는 적어도 하나의 이미지를 분석하여, 사용자의 주변 환경을 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭할 수 있다.In block 203 according to the start of the day, the apparatus 100 for analyzing a dangerous situation may analyze at least one image and match the user's surrounding environment to any one of the plurality of state groups classified according to the user's activity attribute. have.

일 개시에 의하여 위험 상황 분석 장치(100)는 사용자 및 사용자의 주변 환경을 촬영한 이미지를 분석함으로써 사용자가 현재 어떤 활동을 수행하고 있는지 여부를 분석할 수 있다. 일 개시에 의하여 위험 상황 분석 장치(100)는 빅데이터를 이용하여 인공지능 학습을 통해 사용자의 이미지를 분석하여 사용자의 활동을 결정할 수 있다.At the beginning, the apparatus 100 for analyzing a dangerous situation may analyze what kind of activity the user is currently performing by analyzing an image photographed of the user and the user's surrounding environment. At the start of the day, the apparatus 100 for analyzing a dangerous situation may determine a user's activity by analyzing a user's image through artificial intelligence learning using big data.

위험 상황 분석 장치(100)는 사용자의 활동 속성을 미리 복수개의 상태 그룹으로 분류할 수 있다. 예를 들어, 상태 그룹은 운동, 수면, 일상, 학습 등을 포함할 수 있으며, 상태 그룹은 한정되지 않는다.The dangerous situation analysis apparatus 100 may classify the user's activity attribute into a plurality of state groups in advance. For example, the state group may include exercise, sleep, daily life, learning, and the like, and the state group is not limited.

일 개시에 의하여 상태 그룹은 복수의 객체를 관찰함으로써 획득된 객체의 프로파일 정보에 의하여 분류될 수 있다. 일 개시에 의하여 상태 그룹은 복수개의 객체 프로파일 정보 중 어느 하나의 프로파일 정보를 기준에 의하여 분류될 수 있다. 일 개시에 의하여 그룹은 복수개의 프로파일 정보를 조합하여 얻어진 기준에 의하여 분류될 수 있다. According to one disclosure, the state group may be classified according to profile information of an object obtained by observing a plurality of objects. According to one disclosure, the state group may be classified based on any one profile information among a plurality of object profile information. According to one disclosure, groups may be classified according to criteria obtained by combining a plurality of profile information.

예를 들어, 상태 그룹은 연령대를 기준으로 10세를 기준으로 복수의 그룹으로 형성될 수 있다. 예를 들어, 0세부터 10세까지는 유아 그룹, 71세부터 90세까지를 노인 그룹으로 정의할 수 있다. 또한, 다른 예로서, 그룹은 복수개의 프로파일 정보에 가중치를 두어 계산한 값에 의하여 분류될 수 있다. 예를 들어, 70대, 남성, 허리가 굽은 외형 등의 객체 프로파일 특성을 기준으로 “허리 디스크가 있는 노인 남성 그룹”을 결정할 수 있다. For example, the state group may be formed into a plurality of groups based on the age of 10 based on the age group. For example, 0 to 10 years old can be defined as an infant group, and 71 to 90 years old can be defined as an elderly group. In addition, as another example, groups may be classified according to a value calculated by assigning weights to a plurality of profile information. For example, a “group of elderly men with a waist disc” may be determined based on object profile characteristics such as 70s, men, and a curved waist.

보다 구체적으로 사용자가 연령이 0세 이상 10세 이하의 아동인 경우, 복수개의 상태 그룹은 운동 상태 그룹, 수면 상태 그룹, 식사 상태 그룹, 휴식 상태 그룹 및 학습 상태 그룹을 포함할 수 있으며, 복수개의 상태 그룹의 세팅 정보는 상기 아동의 활동을 모니터링한 데이터에 기초하여 정해질 수 있다.More specifically, when the user is a child aged 0 to 10 years, the plurality of state groups may include an exercise state group, a sleep state group, a meal state group, a rest state group, and a learning state group. The setting information of the state group may be determined based on data for monitoring the activity of the child.

또한, 사용자는 연령이 65세 이상의 노인인 경우 복수개의 상태 그룹은 운동 상태 그룹, 수면 상태 그룹, 식사 상태 그룹, 휴식 상태 그룹 및 학습 상태 그룹을 포함하고, 복수개의 상태 그룹의 세팅 정보는 노인의 연령 및 병력 정보에 기초하여 학습된 데이터에 기초하여 정해질 수 있다.In addition, when the user is an elderly person aged 65 years or older, the plurality of state groups include an exercise state group, a sleep state group, a meal state group, a rest state group, and a learning state group, and the setting information of the plurality of state groups is It may be determined based on data learned based on age and medical history information.

일 개시에 따른 복수개의 상태 그룹을 결정하는 방법은 제한되지 않는다. 일개시에 의하여 복수개의 상태 그룹은 인공지능에 의한 학습모델에 의하여 분류될 수 있다. 일 개시에 의하여 복수개의 상태 그룹은 사용자에 의하여 입력된 분류 기준에 의하여 분류될 수 있다. A method of determining a plurality of state groups according to one disclosure is not limited. According to one initiation, a plurality of state groups may be classified according to a learning model by artificial intelligence. According to an initiation, a plurality of state groups may be classified according to a classification criterion input by a user.

위험 상황 분석 장치(100)는 유사한 활동속성을 갖는 복수의 사용자에 대한 프로파일 정보를 이용하여 상태 그룹을 생성할 수 있으며, 상태 그룹에 매칭되는 주변 환경의 위험 레벨을 판단하기 위한 세팅 정보를 결정할 수 있다. 이때, 프로파일 정보는 성별, 연령, 병변, 평소 활동량, 연령별 언어 사용 정보, 보행속도, 활동 패턴, 보폭, 보조기구 장착여부, 스트레스 지수, 정신적 공감 능력, 감정 표현 능력을 포함할 수 있다. 또한, 세팅 정보는 상태 그룹을 생성하기 위하여 이용된 복수의 사용자에 대한 프로파일 정보의 평균 정보를 의미할 수 있다.The dangerous situation analysis apparatus 100 may create a state group using profile information for a plurality of users having similar activity attributes, and determine setting information for determining the risk level of the surrounding environment matching the state group. have. At this time, the profile information may include gender, age, lesion, usual activity amount, age-specific language use information, walking speed, activity pattern, stride length, whether or not an assistive device is installed, stress index, mental empathy ability, emotional expression ability. In addition, the setting information may mean average information of profile information for a plurality of users used to create a state group.

일 개시에 따른 블록 204에서 위험 상황 분석 장치(100)는 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 적어도 하나의 이미지에 포함된 주변 환경에 대한 위험 레벨을 결정할 수 있다.In block 204 according to the start, the apparatus 100 for analyzing a dangerous situation may determine a risk level for the surrounding environment included in the at least one image based on setting information of the matched state group and a biosignal of the user.

따라서, 위험 상황 분석 장치(100)는 사용자의 생체 신호와 사용자의 현재 활동 및 평상시 활동 습관에 비추어 사용자의 위험 여부를 정확하게 모니터링할 수 있다는 효과가 있다. 즉, 1차적인 사용자의 생체 신호를 이용한 위험 여부 판단 후, 2차적인 주변 환경 분석을 통해 사용자의 위험 상태 여부를 판단할 수 있다.Accordingly, the danger situation analysis apparatus 100 has an effect that it is possible to accurately monitor whether or not the user is in danger in the light of the user's bio-signal, the user's current activity, and the usual activity habit. That is, after determining whether there is a risk using the first user's biometric signal, it is possible to determine whether the user is in a dangerous state through secondary analysis of the surrounding environment.

위험 상황 분석 장치(100)는 주변 환경에 포함된 적어도 하나의 이미지를 분석하여, 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 대한 정보를 시간의 흐름에 따라 획득할 수 있으며, 인물 및 사물의 움직임의 변화에 대한 정보에 대응하는 사용자의 생체 신호의 변화를 분석하여 주변 환경에 대한 위험 레벨을 결정할 수 있다.The dangerous situation analysis apparatus 100 may analyze at least one image included in the surrounding environment to obtain information on a change in movement of a person and an object included in the surrounding environment over time. The risk level for the surrounding environment may be determined by analyzing the change in the user's bio-signal corresponding to the information on the change in movement of the user.

일 개시에 따른 블록 205에서 위험 상황 분석 장치(100)는 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송할 수 있다. In block 205 according to an initiation, the apparatus 100 for analyzing a danger situation may transmit a notification message to the terminal of the guardian according to the determined danger level.

이때, 보호자의 단말은 사용자의 상태를 확인할 수 있도록 권한을 받은 미리 등록된 사용자일 수 있다. 또한, 보호자의 단말은 사용자와 관련된 국가 센터, 경찰서, 소방서, 병원, 그 밖의 공공기관의 서버 등을 포함할 수 있다.In this case, the guardian's terminal may be a pre-registered user who has been authorized to check the user's status. In addition, the guardian's terminal may include a server of a national center, a police station, a fire station, a hospital, and other public institutions related to the user.

도 3은 일 실시예에 따른 위험 상황 분석 장치에서 다른 장치로 사용자의 위험 상황을 알리는 방법을 설명하기 위한 도면이다.3 is a diagram for explaining a method of informing a user of a dangerous situation to another device in a dangerous situation analysis apparatus according to an exemplary embodiment.

일 개시에 의한 위험 상황 분석 장치(100)는 사용자의 몸에 부착 또는 근접한 전자 장치를 의미할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 웨어러블 디바이스를 포함할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 액세서리 형 장치(예컨대, 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈), 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형 장치(예: 전자 의복), 신체 부착형 장치(예컨대, 스킨 패드(skin pad)), 또는 생체 이식형 장치(예: implantable circuit) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.The apparatus 100 for analyzing a danger situation according to an initiation may mean an electronic device attached to or close to a user's body. For example, the danger situation analysis apparatus 100 may include a wearable device. For example, the risk situation analysis device 100 includes an accessory type device (eg, a watch, a ring, a bracelet, an anklet, a necklace, glasses, contact lenses), a head-mounted-device (HMD), and a fabric. Or, it may include at least one of a clothing-integrated device (eg, electronic clothing), a body-attached device (eg, a skin pad), or a living body implantable device (eg, an implantable circuit), but is limited thereto. no.

또한, 사용자는 복수 개의 웨어러블 디바이스들을 착용할 수 있으며, 복수 개의 웨어러블 디바이스들은 직접 사용자의 생체 정보를 측정할 수 있다. 또한, 위험 상황 분석 장치(100)는 복수개의 웨어러블 디바이스들로부터 사용자의 현재 상태에 대한 정보를 획득할 수 있다.Also, a user may wear a plurality of wearable devices, and the plurality of wearable devices may directly measure the user's biometric information. In addition, the danger situation analysis apparatus 100 may obtain information on a current state of a user from a plurality of wearable devices.

위험 상황 분석 장치(100)는 보호자의 단말(200) 및 다른 서버(300)와 통신할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 사용자의 위험 상황의 레벨에 따라 보호자의 단말(200) 및 다른 서버(300)중 적어도 하나로 사용자의 상태에 대한 알림 메시지를 전송할 수 있다.The dangerous situation analysis apparatus 100 may communicate with the guardian's terminal 200 and other servers 300. For example, the danger situation analysis apparatus 100 may transmit a notification message about the user's status to at least one of the guardian's terminal 200 and another server 300 according to the level of the user's risk situation.

보호자의 단말(200)은 사용자가 미리 등록한 장치이거나, 다른 사용자의 장치일 수 있다. 일 개시에 의하여 보호자의 단말(200)은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 카메라, 네비게이션, 타블렛 컴퓨터(tablet computer), 이북(e-book) 단말기, 스마트 워치(Smart watch) 등을 포함할 수 있다.The guardian's terminal 200 may be a device previously registered by the user or may be another user's device. By the beginning, the guardian's terminal 200 includes a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a camera, a navigation device, and a tablet. It may include a computer (tablet computer), an e-book (e-book) terminal, a smart watch (Smart watch), and the like.

서버(300)는 사용자의 상태를 관리하는 양육 기관, 병원, 요양원, 유치원, 경찰서, 소방서 등의 서버를 포함할 수 있으며, 나아가, 사용자의 상태를 관리하고 위험 상황을 분석하기 위한 서버를 포함할 수 있다. The server 300 may include a server such as a nursing institution, a hospital, a nursing home, a kindergarten, a police station, a fire station, etc. that manages the user's state, and further includes a server for managing the user's state and analyzing the risk situation. I can.

도 4는 일 실시예에 따른 위험 상황 분석 장치의 주요 구성을 나타내는 도면이다.4 is a diagram illustrating a main configuration of an apparatus for analyzing a dangerous situation according to an exemplary embodiment.

위험 상황 분석 장치(100)는 카메라(1610), 메모리(1700), 통신부(1500) 및 제어부(1300)를 포함할 수 있다. The dangerous situation analysis apparatus 100 may include a camera 1610, a memory 1700, a communication unit 1500, and a control unit 1300.

일 개시에 의하여, 카메라(1610)는 사용자 및 사용자의 주변 환경의 영상을 촬영할 수 있다. 카메라(1610)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 예를 들어, 카메라(1610)에 의해 촬영된 이미지는 이벤트가 발생하였는지를 결정하기 위한 정보로 활용될 수 있다.At the beginning, the camera 1610 may capture images of the user and the user's surrounding environment. The camera 1610 may obtain an image frame such as a still image or a video through an image sensor in a video call mode or a photographing mode. The image captured through the image sensor may be processed by the controller 1300 or a separate image processing unit (not shown). For example, an image captured by the camera 1610 may be used as information for determining whether an event has occurred.

일 개시에 의하여, 메모리(1700) 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 본 발명의 장치로 입력되거나 또는 장치에서 출력되는 데이터를 저장할 수도 있다. 메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 여기서, 복수 개의 모듈들은 하드웨어가 아닌 소프트웨어로서, 기능적으로 동작하는 모듈이다.According to one disclosure, a program for processing and controlling the memory 1700 and the controller 1300 may be stored, and data input to or output from the device of the present invention may be stored. Programs stored in the memory 1700 may be classified into a plurality of modules according to their functions. Here, the plurality of modules are software, not hardware, and functionally operated modules.

일 개시에 의하여 통신부(1500)는 위험 상황 분석 장치(100)와 보호자의 단말 또는 다른 장치와 데이터를 송수신할 수 있다. 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다. 다른 장치는 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다.According to an initiation, the communication unit 1500 may transmit/receive data between the danger situation analysis apparatus 100 and the guardian's terminal or other devices. The communication unit 1500 may include a short range communication unit 1510, a mobile communication unit 1520, and a broadcast reception unit 1530. The other device may be a computing device or a sensing device, but is not limited thereto.

일 개시에 의하여 제어부(1300)는 프로세서와 혼용되어 설명될 수 있으며, 프로세서와 동일한 의미이다. 일 개시에 의하여 제어부(1300)는 명령어들을 실행함으로써, 기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고, 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 카메라를 구동하여 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득하고, 적어도 하나의 이미지를 분석하여, 사용자의 주변 환경을 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고, 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 적어도 하나의 이미지에 포함된 주변 환경에 대한 위험 레벨을 정하고, 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송할 수 있다.According to one disclosure, the controller 1300 may be described as being mixed with a processor, and has the same meaning as a processor. At the start of the day, the controller 1300 senses the user's biosignal using at least one sensor at a predetermined period by executing commands, and when the change of the user's biosignal exceeds the threshold, drives the camera. Acquires at least one image of the user's surrounding environment, analyzes at least one image, matches the user's surrounding environment to any one of a plurality of state groups classified according to the user's activity attribute, and matches A risk level for the surrounding environment included in at least one image may be determined based on the setting information of the set status group and the user's biosignal, and a notification message may be transmitted to the guardian's terminal according to the determined risk level.

도 5는 일 실시예에 따른 웨어러블 장치 형태의 위험 상황 분석 장치에서 보호자 단말로 위험 상황에 대한 알림 메시지를 전송하는 내용을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining contents of transmitting a notification message about a dangerous situation from a risk situation analysis device in the form of a wearable device to a guardian terminal according to an embodiment.

일 개시에 의하여, 위험 상황 분석 장치(100)는 사용자의 손목에 장착되는 웨어러블 밴드 형태일 수 있다. 일 실시예일 뿐, 위험 상황 분석 장치(100)는 다른 형태의 전자 장치를 포함할 수 있다.According to one disclosure, the apparatus 100 for analyzing a dangerous situation may be in the form of a wearable band mounted on a user's wrist. As an example, the apparatus 100 for analyzing a dangerous situation may include other types of electronic devices.

위험 상황 분석 장치(100)는 센서를 이용하여 사용자의 생체 신호를 획득할 수 있다. 예를 들어, 사용자의 체온을 측정하는 온도 센서, 사용자의 땀 배출량을 측정하는 습도 센서, 사용자의 피부 특성을 측정하는 반사 광학 센서, 사용자의 심장 박동을 측정하는 심박 센서, 사용자의 혈압을 측정하는 혈압 센서, 사용자의 신체 내의 임피던스 신호를 측정하는 임피던스 센서 및 사용자의 활동을 측정하는 동작 센서 중 적어도 하나를 이용하여 사용자의 생체 신호를 센싱할 수 있다.The apparatus 100 for analyzing a dangerous situation may acquire a user's biosignal using a sensor. For example, a temperature sensor that measures the user's body temperature, a humidity sensor that measures the user's sweat output, a reflective optical sensor that measures the user's skin characteristics, a heart rate sensor that measures the user's heart rate, and the user's blood pressure. The biosignal of the user may be sensed using at least one of a blood pressure sensor, an impedance sensor that measures an impedance signal in the user's body, and a motion sensor that measures a user's activity.

위험 상황 분석 장치(100)는 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보, 임피던스 정보 및 활동 정보 중 적어도 하나를 고려하여, 실시간으로 사용자의 생체 신호 정보를 생성할 수 있다.The dangerous situation analysis device 100 may generate the user's biosignal information in real time by considering at least one of the user's body temperature information, sweat emission information, skin characteristic information, heart rate information, blood pressure information, impedance information, and activity information. I can.

일 개시에 의하여, 위험 상황 분석 장치(100)는 사용자의 생체 신호의 정보의 급격한 변화가 발생한 경우, 사용자의 주변 환경 정보를 획득하여 사용자의 활동 속성을 판단할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 사용자가 운동 상태라고 판단할 수 있으며, 밤시간에 운동 중 심장 박동 수가 급격히 증가했음을 확인할 수 있다. According to an initiation, the apparatus 100 for analyzing a dangerous situation may determine the user's activity attribute by acquiring information about the user's surrounding environment when a sudden change in information of the user's bio-signal occurs. For example, the risk situation analysis apparatus 100 may determine that the user is in an exercise state, and may confirm that the heart rate during exercise at night time has rapidly increased.

위험 상황 분석 장치(100)는 사용자의 심장 박동수의 급격한 증가 및 밤의 온도, 늦은 시간 등의 주변 환경 정보를 통해 사용자의 위험 레벨을 결정할 수 있다. 일 개시에 의하여 위험 상황 분석 장치(100)는 사용자의 위험 레벨에 따른 알림 메시지를 보호자의 단말(200)로 전송할 수 있다. 또는, 공공기관 서버, 경찰서 서버, 병원 서버, 소방서 서버 등으로 전송할 수 있다.The apparatus 100 for analyzing a risk situation may determine a risk level of the user through information about a user's heart rate and surrounding environment such as a temperature at night and a late time. By initiation, the apparatus 100 for analyzing a dangerous situation may transmit a notification message according to the user's risk level to the terminal 200 of the guardian. Alternatively, it can be transmitted to a public institution server, a police station server, a hospital server, a fire station server, or the like.

또한, 위험 상황 분석 장치(100)는 결정된 위험 레벨에 따라 보호자의 단말로 다른 형태의 알림 메시지를 전송할 수 있다.In addition, the apparatus 100 for analyzing a dangerous situation may transmit a different type of notification message to the guardian's terminal according to the determined risk level.

일 개시에 의하여 위험 상황 분석 장치(100)는 주변 환경에 포함된 적어도 하나의 이미지를 분석하여, 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 대한 정보를 시간의 흐름에 따라 획득할 수 있다. 또한, 인물 및 사물의 움직임의 변화에 대한 정보에 대응하는 사용자의 생체 신호의 변화를 분석하여 주변 환경에 대한 위험 레벨을 결정할 수 있다.At the beginning of the day, the apparatus 100 for analyzing a dangerous situation may analyze at least one image included in the surrounding environment, and obtain information on a change in movement of a person and an object included in the surrounding environment over time. . In addition, a risk level for a surrounding environment may be determined by analyzing a change in a user's bio-signal corresponding to information on a change in movement of a person and an object.

나아가, 위험 상황 분석 장치(100)는 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 따라, 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보 및 활동 정보의 심장 박동수가 임계 값보다 빠르게 변화하는 경우, 주변 환경에 대한 위험 레벨을 상향 조정할 수 있다. 또는, 주변 환경에 포함된 인물 및 사물의 움직임, 사용자의 생체 신호 정보에 따라서 주변 환경에 대한 위험 레벨을 하향 조정할 수도 있다.Furthermore, the apparatus 100 for analyzing risk situations may include user's body temperature information, sweat emission information, skin characteristic information, heart rate information, blood pressure information, and heart rate of activity information according to changes in movements of people and objects included in the surrounding environment. If is faster than the threshold value, the risk level for the surrounding environment can be adjusted upward. Alternatively, the risk level for the surrounding environment may be lowered according to the movement of people and objects included in the surrounding environment, and biosignal information of the user.

일 개시에 의하여, 주변 환경에 대한 위험 레벨을 정하는 것은 인공지능(AI) 엔진에 의해 구동되는 학습 네트워크 모델에 의해 수행될 수 있다. 인공지능 엔진은 주변 환경, 사용자의 식별 정보 및 생체 정보, 활동 속성에 따른 상태 그룹의 정보를 고려하여 주변 환경에 대한 위험 레벨을 결정할 수 있다.By way of initiation, determining the risk level for the surrounding environment may be performed by a learning network model driven by an artificial intelligence (AI) engine. The artificial intelligence engine may determine the risk level for the surrounding environment in consideration of the surrounding environment, user identification and biometric information, and state group information according to activity attributes.

예를 들어, 위험 상황 분석 장치(100)는 위험 레벨이 1인 경우, 위험 상황에 대한 정보를 포함하는 제 1 알림 정보를 전송할 수 있다. 이때, 위험 상황에 대한 정보는 급격한 변화가 발생한 사용자의 생체 정보, 사용자의 현재 활동에 대한 정보를 포함하며, 제 1 알림 정보는 텍스트 정보일 수 있다.For example, when the danger level is 1, the danger situation analysis apparatus 100 may transmit first notification information including information about the danger situation. In this case, the information on the dangerous situation includes biometric information of a user in which a sudden change has occurred, and information on a current activity of the user, and the first notification information may be text information.

위험 레벨이 2인 경우, 제 1 알림 정보 및 위험 상황에 대한 주변 환경에 대한 이미지를 포함하는 제 2 알림 정보를 전송할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 텍스트 정보 및 현재 사용자의 주변 환경 및 현재 사용자의 영상을 포함하는 제 2 알림 정보를 전송할 수 있다. When the danger level is 2, the first notification information and the second notification information including an image of the surrounding environment for the dangerous situation may be transmitted. For example, the danger situation analysis apparatus 100 may transmit text information and second notification information including the current user's surrounding environment and the current user's image.

위험 레벨이 3인 경우, 보호자의 단말로 제 2 알림 정보 및 위험 상황에 대한 영상을 포함하는 제 3 알림 정보를 전송할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 제 2 알림 정보 외에, 현재 사용자 주변의 영상을 실시간으로 전송할 수 있다. 또는, 사용자의 생체 신호가 급격히 변화한 시점에서의 영상을 전송할 수 있다.When the risk level is 3, the second notification information and third notification information including an image of a dangerous situation may be transmitted to the guardian's terminal. For example, in addition to the second notification information, the danger situation analysis apparatus 100 may transmit an image around the current user in real time. Alternatively, an image at a time point at which the user's bio-signal rapidly changes may be transmitted.

위험 레벨이 4인 경우, 제 3 알림 정보를 전송함과 동시에 보호자의 단말로 영상 통화를 시도할 수 있다. 위험 상황 분석 장치(100)는 보호자의 단말 외에, 공공기관, 경찰서, 병원 등의 연락처로 전화통화를 시도할 수 있다. When the risk level is 4, a video call may be attempted to the guardian's terminal while transmitting the third notification information. The danger situation analysis apparatus 100 may attempt to make a phone call to a contact information such as a public institution, a police station, or a hospital in addition to the guardian's terminal.

도 6은 일 실시예에 따른 모바일 단말 형태의 위험 상황 분석 장치에서 사용자의 생체 신호를 감지하고 위험 상황을 분석하는 내용을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining content of detecting a user's bio-signal and analyzing a dangerous situation in the apparatus for analyzing a dangerous situation in the form of a mobile terminal according to an embodiment.

일 개시에 의하여, 위험 상황 분석 장치(100-b)는 모바일 단말의 형태일 수 있으며, 사용자와 근접한 위치에서 사용자(100)의 생체 신호를 획득할 수 있다. 또한, 위험 상황 분석 장치(100-b)는 사용자(100)에게 직접적으로 부착된 별개의 센서부를 이용하여 사용자(100)의 생체 신호를 획득할 수 있다.According to one disclosure, the danger situation analysis apparatus 100-b may be in the form of a mobile terminal, and may acquire a biosignal of the user 100 at a location close to the user. In addition, the danger situation analysis apparatus 100-b may acquire a biosignal of the user 100 by using a separate sensor unit directly attached to the user 100.

예를 들어, 위험 상황 분석 장치(100-b)는 사용자의 체온을 측정하는 온도 센서, 사용자의 땀 배출량을 측정하는 습도 센서, 사용자의 피부 특성을 측정하는 반사 광학 센서, 사용자의 심장 박동을 측정하는 심박 센서, 사용자의 혈압을 측정하는 혈압 센서, 사용자의 신체 내의 임피던스 신호를 측정하는 임피던스 센서 및 사용자의 활동을 측정하는 동작 센서등을 이용하여 사용자의 생체 신호를 획득할 수 있다.For example, the danger situation analysis device 100-b is a temperature sensor that measures the user's body temperature, a humidity sensor that measures the user's sweat discharge, a reflective optical sensor that measures the user's skin characteristics, and measures the user's heart rate. The biosignal of the user may be obtained using a heart rate sensor that measures the user's blood pressure, a blood pressure sensor that measures the user's blood pressure, an impedance sensor that measures an impedance signal in the user's body, and a motion sensor that measures the user's activity.

또한, 위험 상황 분석 장치(100-b)는 사용자의 몸에 부착된 별개의 센서부, 예를 들어 사용자의 피부의 온도를 온도 센서부, 사용자의 떨림을 측정하는 동작 센서부, 사용자의 심장 박동수를 검출하는 심박 센서부 등으로부터 생체 신호를 수신할 수 있다.In addition, the danger situation analysis apparatus 100-b includes a separate sensor unit attached to the user's body, for example, a temperature sensor unit that measures the temperature of the user's skin, a motion sensor unit that measures the user's vibration, and the user's heart rate. It is possible to receive a bio-signal from a heart rate sensor unit or the like that detects.

도 7을 일 실시예에 따른 의류에 장착된 센싱부를 이용하여 사용자의 위험 상황을 판단하는 특징을 설명하기 위한 도면이다.7 is a view for explaining a characteristic of determining a user's risk situation using a sensing unit mounted on a clothing according to an exemplary embodiment.

예를 들어, 센싱부(701)는 사용자가 주로 착용하는 의류에 장착될 수 있다. 센싱부(701)는 사용자의 심장 박동수를 측정하기 위한 복수개의 센서들을 포함할 수 있으며, 복수개의 센서들은 사용자의 심장 근처에 위치하도록 배열될 수 있다. 센싱부(701)는 사용자의 심장 박동수를 주기적으로, 가장 근접한 위치에서 측정할 수 있어 정확한 심장 박동수를 센싱할 수 있는 장점이 있다. 센싱부(701)는 사용자의 심장 박동수를 측정한 값을 위험 상황 분석 장치(100)로 전송할 수 있다.For example, the sensing unit 701 may be mounted on clothing mainly worn by the user. The sensing unit 701 may include a plurality of sensors for measuring the user's heart rate, and the plurality of sensors may be arranged to be located near the user's heart. The sensing unit 701 has an advantage of being able to sense an accurate heart rate since it can periodically measure the user's heart rate at the nearest position. The sensing unit 701 may transmit the measured value of the user's heart rate to the risk situation analysis apparatus 100.

도 8은 일 실시예에 따른 양말에 장착된 센싱부를 이용하여 사용자의 위험 상황을 판단하는 내용을 설명하기 위한 도면이다.8 is a view for explaining content of determining a user's risk situation by using a sensing unit mounted on a socks according to an embodiment.

예를 들어, 센싱부(801)는 사용자의 양말에 장착되어, 사용자의 동작, 피부의 온도, 압력, 습도 등을 센싱할 수 있다. 센싱부(801)는 복수개의 센서(802)를 포함할 수 있으며, 복수개의 센서(802)들은 각각 다른 신호를 센싱하는 신호일 수 있다. 예를 들어 센싱부(801)는 사용자의 보행에 따라 지면을 압박하는 힘을 측정하여 위험 상황 분석 장치(100)로 전송할 수 있다. 위험 상황 분석 장치(100)는 획득한 사용자의 센싱 신호를 분석할 수 있다.For example, the sensing unit 801 may be mounted on a user's socks and sense a user's motion, skin temperature, pressure, humidity, and the like. The sensing unit 801 may include a plurality of sensors 802, and the plurality of sensors 802 may be signals for sensing different signals, respectively. For example, the sensing unit 801 may measure a force pressing the ground according to the user's walking and transmit it to the danger situation analysis apparatus 100. The danger situation analysis apparatus 100 may analyze the acquired sensing signal of the user.

도 9는 일 실시예에 따른 사용자의 생체신호를 분석하는 내용을 설명하기 위한 도면이다.9 is a diagram for explaining content of analyzing a user's bio-signal according to an exemplary embodiment.

일 개시에 의하여, 위험 상황 분석 장치(100)는 생체신호를 이용하여 사용자의 현재 상태의 특징을 추출할 수 있다. 생체신호로부터 특징을 추출하는 일반적인 장치는 생체신호의 2차 미분신호에서 로컬 최소 지점(local minimum point)을 탐색하고, 로컬 최소 지점에 해당하는 시간(T1,T2,T3)과, 그 시간(T1,T2,T3)에 대응하는 전체 생체신호의 진폭(P1,P2,P3)을 특징점(characteristic point)으로 획득할 수 있다. By initiation, the apparatus 100 for analyzing a dangerous situation may extract a feature of the user's current state by using a bio-signal. A typical device for extracting features from a bio-signal searches for a local minimum point in the second derivative signal of the bio-signal, and the time corresponding to the local minimum point (T 1 , T 2 , T 3 ), and The amplitudes (P1, P2, P3) of the entire bio-signal corresponding to the time (T 1 , T 2 , T 3 ) may be obtained as a characteristic point.

또한, 위험 상황 분석 장치(100)는 획득된 특징점들을 이용하여 생체정보 검출을 위한 특징을 추출할 수 있다. 이때, 로컬 최소 지점은 2차 미분신호의 일부 구간을 관찰했을 때 신호가 감소하다가 특정 지점을 중심으로 다시 증가하는 형태, 즉, 아래로 볼록한 형태를 가지는 지점을 의미한다.In addition, the danger situation analysis apparatus 100 may extract a feature for detecting biometric information by using the acquired feature points. In this case, the local minimum point refers to a point in which the signal decreases when a partial section of the second derivative signal is observed and then increases again around a specific point, that is, a point having a downward convex shape.

도 10은 일 실시예에 따른 사용자 주변의 CCTV 장치를 이용하여 사용자의 주변 환경의 영상을 획득하는 내용을 설명하기 위한 도면이다.10 is a diagram for explaining contents of acquiring an image of a user's surrounding environment by using a CCTV device around a user according to an exemplary embodiment.

위험 상황 분석 장치(100)는 앞서 설명한 절차에 따라 결정된 사용자의 현재 상태의 위험 레벨에 따라, 사용자가 위치한 곳의 CCTV(1001)로부터 사용자의 모습이 포함된 적어도 하나의 CCTV 이미지를 획득할 수 있다. 이때, CCTV(1001)는 위험 상황 분석 장치(100)와 미리 통신할 수 있도록 권한을 획득한 것일 수 있다. 또는, 위험 상황 분석 장치(100)는 공공기관, 건물 등의 서버에 요청함으로써, 사용자가 위치한 곳의 CCTV로부터 사용자를 포함하는 영상을 획득할 수 있다.The dangerous situation analysis apparatus 100 may acquire at least one CCTV image including the user's appearance from the CCTV 1001 where the user is located according to the risk level of the current state of the user determined according to the procedure described above. . In this case, the CCTV 1001 may have acquired authority to communicate with the dangerous situation analysis apparatus 100 in advance. Alternatively, the dangerous situation analysis apparatus 100 may obtain an image including the user from the CCTV in which the user is located by requesting a server such as a public institution or a building.

위험 상황 분석 장치(100)는 적어도 하나의 CCTV 이미지를 분석하여, 주변 환경에 대한 위험 레벨을 수정할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 사용자와 주변 환경을 동시에 촬영한 영상으로부터 사용자가 안전한 상태인지, 위험한 상태인지 여부를 판단하고, 위험 레벨을 변경할 수 있다.The dangerous situation analysis apparatus 100 may analyze at least one CCTV image and correct a risk level for the surrounding environment. For example, the apparatus 100 for analyzing a dangerous situation may determine whether the user is in a safe state or a dangerous state from an image captured at the same time of the user and the surrounding environment, and may change the risk level.

한편, 일 실시예에 의하면, 위험 상황 분석 장치(1000)는 딥러닝 모델을 이용하여 정지 영상을 분석하기 전에, 정지 영상에 포함된 객체의 형상 또는 크기를 보상할 수 있다. 예를 들어, 위험 상황 분석 장치(1000)는 CCTV(1001)가 설치된 각도 및 위치 중 적어도 하나를 고려하여, 적어도 하나의 이미지에 포함된 객체의 형상 또는 크기를 보상하고, 형상 또는 크기가 보상된 객체의 자세와 기 정의된 자세를 비교할 수 있다. Meanwhile, according to an embodiment, the apparatus 1000 for analyzing a dangerous situation may compensate for the shape or size of an object included in the still image before analyzing the still image using the deep learning model. For example, the danger situation analysis apparatus 1000 compensates for the shape or size of an object included in at least one image, in consideration of at least one of the angle and position in which the CCTV 1001 is installed, and the shape or size is compensated. You can compare the posture of the object with a predefined posture.

예를 들어, 낙상과 관련된 자세의 객체를 포함하는 객체 이미지가 검출된 경우, 위험 상황 분석 장치(1000)는 사용자(10)의 상태가 낙상 상태인지 정확히 파악하기 위해, 일련의 이미지들(예컨대, 일정 기간 누적된 프레임들)을 분석하여, 객체의 제 1 움직임 변화에 대한 정보를 획득할 수 있다. 예를 들어, 사용자(10)가 침대에서 떨어져 바닥에 누워있는 이미지(예컨대, 제 n 프레임)가 검출된 경우, 위험 상황 분석 장치(1000)는 일정 기간 누적된 이미지들(예컨대, 제 n-10 프레임 ~ 제 n+10 프레임)을 분석하여 사용자(10)가 침대에서부터 바닥까지 떨어지는 움직임의 변화를 검출할 수 있다. 또한, 위험 상황 분석 장치(1000)는 바닥에 몸이 닿은 뒤의 객체의 움직임 변화를 검출할 수도 있다.For example, when an object image including an object in a posture related to a fall is detected, the danger situation analysis apparatus 1000 may include a series of images (for example, in order to accurately determine whether the state of the user 10 is a fall state). Frames accumulated for a certain period of time) may be analyzed to obtain information on a first motion change of the object. For example, when an image of the user 10 lying on the floor away from the bed (eg, the nth frame) is detected, the danger situation analysis apparatus 1000 may use the accumulated images (eg, n-10th frame). Frame ~ n+10th frame) can be analyzed to detect a change in movement of the user 10 falling from the bed to the floor. In addition, the danger situation analysis apparatus 1000 may detect a change in movement of an object after the body touches the floor.

일 개시에 의한 위험 상황 분석 장치(1000)는 매칭된 그룹의 세팅 정보에 기초하여, 객체 이미지에 포함된 객체의 상황이 위험 상황인지 결정할 수 있다. 위험 상황 분석 장치(1000)는 객체가 매칭된 그룹의 세팅 정보 및 객체의 움직임 변화에 대한 정보에 기초하여, 객체의 상태가 낙상 상태인지 결정할 수 있다. The apparatus 1000 for analyzing a dangerous situation according to an initiation may determine whether the situation of the object included in the object image is a dangerous situation based on the setting information of the matched group. The apparatus 1000 for analyzing a dangerous situation may determine whether the state of the object is a fall state, based on the setting information of the group to which the object is matched and the information on the movement change of the object.

일 실시예에 의하면, 객체의 움직임 변화와 기 저장된 낙상을 나타내는 움직임 변화 사이의 유사도가 임계 값(예컨대, 90%)보다 큰 경우, 위험 상황 분석 장치(1000)는 객체의 상태를 낙상 상태로 결정할 수 있다. According to an embodiment, when the similarity between a change in motion of an object and a change in motion indicating a previously stored fall is greater than a threshold value (eg, 90%), the risk situation analysis apparatus 1000 determines the state of the object as a fall state. I can.

일 실시예에 의하여 “기 저장된 낙상을 나타내는 움직임 변화”는 객체가 매칭된 그룹의 세팅 정보에 따라 설정될 수 있다. 일 실시예에 의하여, 낙상을 나타내는 움직임은 사용자의 프로파일 정보에 따라 결정될 수 있다. 예를 들어, 80대 노인의 낙상을 나타내는 넘어지는 속도, 넘어지는 모양, 팔다리의 형태 등의 움직임 변화는 10대 아이의 움직임 변화와 상이하게 설정될 수 있다.According to an embodiment, the “movement change indicating a previously stored fall” may be set according to setting information of a group to which an object is matched. According to an embodiment, the motion indicating the fall may be determined according to the user's profile information. For example, movement changes such as falling speed, falling shape, and shape of limbs indicating a fall of an elderly person in their 80s may be set differently from the movement change of a teenager.

반면, 객체의 움직임 변화와 기 저장된 낙상을 나타내는 움직임 변화 사이의 유사도가 임계 값(예컨대, 90%) 이하인 경우, 위험 상황 분석 장치(1000)는 객체의 상태를 낙상 상태가 아니라고 결정할 수 있다. On the other hand, when the similarity between the movement change of the object and the movement change indicating a previously stored fall is less than or equal to a threshold value (eg, 90%), the danger situation analysis apparatus 1000 may determine that the state of the object is not a fall state.

예를 들어, 사용자(10)의 움직임 변화가 낙상에 따른 움직임 패턴과 유사한 경우(예컨대, 사용자(10)가 침대에서 바닥으로 떨어진 후 더 이상 움직이지 못하는 경우), 위험 상황 분석 장치(1000)는 사용자(10)의 상태를 낙상 상태로 결정할 수 있다. 하지만, 사용자(10)의 움직임 변화가 낙상에 따른 움직임 패턴과 상이한 경우(예컨대, 객체가 침대에서 내려올 때 미끄러지면서 바닥에 엉덩이와 손바닥이 닿았지만 곧바로 일어나서 걸어간 경우), 위험 상황 분석 장치(1000)는 사용자(10)의 상태를 낙상 상태가 아니라고 결정할 수 있다.For example, if the change in movement of the user 10 is similar to a movement pattern according to a fall (for example, when the user 10 is no longer moving after falling from the bed to the floor), the risk situation analysis device 1000 The state of the user 10 may be determined as a fall state. However, when the movement change of the user 10 is different from the movement pattern according to the fall (e.g., when the object slides down from the bed and touches the buttocks and palms on the floor, but immediately stands up and walks), the risk situation analysis device 1000 ) May determine that the state of the user 10 is not a fall state.

따라서, 보다 객관적으로 촬영된 사용자의 영상을 보호자의 단말로 전송함으로써, 보호자로 하여금 명확하게 사용자의 안전 여부를 판단할 수 있도록 도울 수 있다. 나아가, 촬영된 영상은 추후 증거자료로서 활용될 수 있다.Therefore, by transmitting the image of the user more objectively captured to the guardian's terminal, it is possible to help the guardian to clearly determine whether the user is safe. Furthermore, the captured image can be used as evidence later.

도 11을 일 실시예에 따른 위험 상황 분석 장치의 상세 구성을 설명하기 위한 도면이다.11 is a diagram illustrating a detailed configuration of an apparatus for analyzing a dangerous situation according to an exemplary embodiment.

도 11에 도시된 바와 같이, 일 실시예에 따른 위험 상황 분석 장치(100)는 제어부(1300), 통신부(1500), 카메라(1610) 및 메모리(1700)를 포함할 수 있다. 그러나, 도 18에 도시된 구성 요소 모두가 위험 상황 분석 장치(100)의 필수 구성 요소인 것은 아니다. 도 11에 도시된 구성 요소보다 많은 구성 요소에 의해 위험 상황 분석 장치(100)가 구현될 수도 있고, 도 11에 도시된 구성 요소보다 적은 구성 요소에 의해 위험 상황 분석 장치(100)가 구현될 수도 있다.As shown in FIG. 11, the apparatus 100 for analyzing a dangerous situation according to an embodiment may include a control unit 1300, a communication unit 1500, a camera 1610, and a memory 1700. However, not all of the components shown in FIG. 18 are essential components of the apparatus 100 for analyzing a dangerous situation. The danger situation analysis apparatus 100 may be implemented by more components than the components shown in FIG. 11, or the danger situation analysis apparatus 100 may be implemented by fewer components than the components shown in FIG. 11. have.

예를 들어, 도 11에 도시된 바와 같이, 일 실시예에 따른 위험 상황 분석 장치(100)는, 제어부(1300), 통신부(1500), 및 메모리(1700) 이외에 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 및 A/V 입력부(1600)를 더 포함할 수도 있다. For example, as shown in FIG. 11, the apparatus 100 for analyzing a dangerous situation according to an embodiment includes a user input unit 1100, an output unit in addition to the control unit 1300, the communication unit 1500, and the memory 1700. It may further include 1200, a sensing unit 1400, and an A/V input unit 1600.

예를 들어, 일 실시예에 따른 위험 상황 분석 장치(100)는 제어부(1300), 사용자 입력부(1100) 및 메모리(1700)를 기본적으로 포함할 수 있고, 일 실시예에 따른 위험 상황 분석 장치(100)는 제어부(1300), 통신부(1500), 및 메모리(1700) 이외에 통신부(1500), 출력부(1200), 센싱부(1400), 및 A/V 입력부(1600) 중 적어도 하나를 더 포함하는 위험 상황 분석 장치(100) 일 수 있다.For example, the apparatus 100 for analyzing a dangerous situation according to an embodiment may basically include a control unit 1300, a user input unit 1100, and a memory 1700, and the apparatus for analyzing a dangerous situation according to an embodiment ( 100) further includes at least one of a communication unit 1500, an output unit 1200, a sensing unit 1400, and an A/V input unit 1600 in addition to the control unit 1300, the communication unit 1500, and the memory 1700. It may be a dangerous situation analysis device 100.

사용자 입력부(1100)는, 사용자가 위험 상황 분석 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit 1100 refers to a means for a user to input data for controlling the dangerous situation analysis apparatus 100. For example, the user input unit 1100 includes a key pad, a dome switch, a touch pad (contact type capacitance method, pressure type resistive film method, infrared detection method, surface ultrasonic conduction method, integral type). Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.

사용자 입력부(1100)는, 위험 상황 분석 장치(100)에 설치된 모듈의 동작을 제어하는 사용자 입력하기 위한 사용자 입력을 수신할 수 있다.The user input unit 1100 may receive a user input for controlling an operation of a module installed in the dangerous situation analysis apparatus 100.

출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다. 일 실시예에서, 출력부(1200)는 오디오, 비디오, 및/또는 진동 형태로 알림 메시지를 출력할 수 있다.The output unit 1200 may output an audio signal, a video signal, or a vibration signal, and the output unit 1200 may include a display unit 1210, an audio output unit 1220, and a vibration motor 1230. have. In an embodiment, the output unit 1200 may output a notification message in the form of audio, video, and/or vibration.

디스플레이부(1210)는 위험 상황 분석 장치(100)에서 처리되는 정보를 표시 출력한다. The display 1210 displays and outputs information processed by the dangerous situation analysis apparatus 100.

음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 위험 상황 분석 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 예를 들어, 음향 출력부(1220)는 이벤트가 발생하였음을 알리기 위한 경보음을 출력할 수 있다.The sound output unit 1220 outputs audio data received from the communication unit 1500 or stored in the memory 1700. In addition, the sound output unit 1220 outputs sound signals related to functions (eg, a call signal reception sound, a message reception sound, and a notification sound) performed by the dangerous situation analysis apparatus 100. For example, the sound output unit 1220 may output an alarm sound for notifying that an event has occurred.

제어부(1300)는, 통상적으로 위험 상황 분석 장치(100)의 전반적인 동작을 제어한다. 일 개시에 의하여 제어부는 프로세서라고도 칭한다. 예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다. 또한, 제어부(1300)는 메모리(1700)에 저장된 프로그램들을 실행함으로써, 위험 상황 분석 장치(100)의 기능을 수행할 수 있다. 제어부(1300)는 적어도 하나의 프로세서를 구비할 수 있다. 제어부(1300)는 그 기능 및 역할에 따라, 복수의 프로세서들을 포함하거나, 통합된 형태의 하나의 프로세서를 포함할 수 있다. 일 실시예에서, 제어부(1300)는 메모리(1700)에 저장된 적어도 하나의 프로그램을 실행함으로써 알림 메시지를 제공하도록 하는 적어도 하나의 프로세서를 포함할 수 있다.The controller 1300 generally controls the overall operation of the apparatus 100 for analyzing a dangerous situation. According to one disclosure, the control unit is also referred to as a processor. For example, by executing programs stored in the memory 1700, the control unit 1300, the user input unit 1100, the output unit 1200, the sensing unit 1400, the communication unit 1500, the A/V input unit 1600 ) And so on. In addition, the controller 1300 may perform a function of the dangerous situation analysis apparatus 100 by executing programs stored in the memory 1700. The control unit 1300 may include at least one processor. The controller 1300 may include a plurality of processors or may include one integrated processor according to its function and role. In an embodiment, the controller 1300 may include at least one processor to provide a notification message by executing at least one program stored in the memory 1700.

센싱부(1400)는, 위험 상황 분석 장치(100)의 상태, 사용자의 상태 또는 위험 상황 분석 장치(100) 주변의 상태를 감지하고, 감지된 정보를 제어부(1300)로 전달할 수 있다. The sensing unit 1400 may detect a state of the dangerous situation analysis apparatus 100, a user's state, or a state around the dangerous situation analysis apparatus 100, and transmit the detected information to the control unit 1300.

센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(RGB sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit 1400 includes a magnetic sensor 1410, an acceleration sensor 1420, a temperature/humidity sensor 1430, an infrared sensor 1440, a gyroscope sensor 1450, and a position sensor. (For example, a GPS) 1460, an atmospheric pressure sensor 1470, a proximity sensor 1480, and an RGB sensor 1490 may be included, but the present invention is not limited thereto. Since the function of each sensor can be intuitively inferred by a person skilled in the art from its name, detailed description will be omitted.

통신부(1500)는, 위험 상황 분석 장치(100)가 다른 장치(100-2) 및 다른 서버(300)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다. 다른 사용자 장치는 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. The communication unit 1500 may include one or more components that allow the dangerous situation analysis device 100 to communicate with the other device 100-2 and the other server 300. For example, the communication unit 1500 may include a short range communication unit 1510, a mobile communication unit 1520, and a broadcast reception unit 1530. The other user device may be a computing device or a sensing device, but is not limited thereto.

근거리 통신부(1500)(short-range wireless communication unit)(1510)는, 블루투스 통신부(1500), BLE(Bluetooth Low Energy) 통신부(1500), 근거리 무선 통신부(1500)(Near Field Communication unit), WLAN(와이파이) 통신부(1500), 지그비(Zigbee) 통신부(1500), 적외선(IrDA, infrared Data Association) 통신부(1500), WFD(Wi-Fi Direct) 통신부(1500), UWB(ultra wideband) 통신부(1500), Ant+ 통신부(1500) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. Short-range wireless communication unit 1500 (short-range wireless communication unit) 1510, Bluetooth communication unit 1500, BLE (Bluetooth Low Energy) communication unit 1500, short-range wireless communication unit 1500 (Near Field Communication unit), WLAN ( Wi-Fi) communication unit 1500, Zigbee communication unit 1500, infrared data association (IrDA) communication unit 1500, Wi-Fi Direct (WFD) communication unit 1500, ultra wideband (UWB) communication unit 1500 , Ant+ communication unit 1500, etc. may be included, but is not limited thereto.

이동 통신부(1500)(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication units 1500 and 1520 transmit and receive wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include a voice call signal, a video call signal, or various types of data according to transmission/reception of text/multimedia messages.

방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 위험 상황 분석 장치(100)이 방송 수신부(1530)를 포함하지 않을 수도 있다.The broadcast receiver 1530 receives a broadcast signal and/or broadcast-related information from outside through a broadcast channel. Broadcast channels may include satellite channels and terrestrial channels. Depending on implementation examples, the apparatus 100 for analyzing a dangerous situation may not include the broadcast receiving unit 1530.

일 실시예에서, 통신부(1500)는 위험 상황 분석 장치(100)에 설치된 카메라로부터 복수의 프레임(frame)들을 포함하는 비디오 시퀀스를 수신할 수 있다. 일 실시예에서, 통신부(1500)는 위험 상황 분석 장치(100)에 설치된 모듈의 동작을 제어하기 위한 명령을 위험 상황 분석 장치(100)에 설치된 모듈에게 전송할 수 있다. In an embodiment, the communication unit 1500 may receive a video sequence including a plurality of frames from a camera installed in the dangerous situation analysis apparatus 100. In an embodiment, the communication unit 1500 may transmit a command for controlling an operation of a module installed in the apparatus 100 for analyzing a dangerous situation to a module installed in the apparatus 100 for analyzing a dangerous situation.

A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 예를 들어, 카메라(1610)에 의해 촬영된 이미지는 이벤트가 발생하였는지를 결정하기 위한 정보로 활용될 수 있다.The A/V (Audio/Video) input unit 1600 is for inputting an audio signal or a video signal, and may include a camera 1610 and a microphone 1620. The camera 1610 may obtain an image frame such as a still image or a video through an image sensor in a video call mode or a photographing mode. The image captured through the image sensor may be processed by the controller 1300 or a separate image processing unit (not shown). For example, an image captured by the camera 1610 may be used as information for determining whether an event has occurred.

마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 장치 또는 사용자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)은 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 1620 receives an external sound signal and processes it as electrical voice data. For example, the microphone 1620 may receive an acoustic signal from an external device or a user. The microphone 1620 may use various noise removal algorithms for removing noise generated in a process of receiving an external sound signal.

메모리(1700)는, 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 위험 상황 분석 장치(100)로 입력되거나 위험 상황 분석 장치(100)로부터 출력되는 데이터를 저장할 수도 있다. The memory 1700 may store a program for processing and control of the controller 1300, and may store data input to the dangerous situation analysis apparatus 100 or output from the dangerous situation analysis apparatus 100.

메모리(1700)는 플래시 메모리(1700) 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(1700)(예를 들어 SD 또는 XD 메모리(1700) 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리(1700), 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 1700 is a flash memory 1700 type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), a card type memory 1700 (for example, SD or XD memory (1700), RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read- Only Memory), a magnetic memory 1700, a magnetic disk, and an optical disk.

메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 여기서, 복수 개의 모듈들은 하드웨어가 아닌 소프트웨어로서, 기능적으로 동작하는 모듈을 의미하며, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다. Programs stored in the memory 1700 can be classified into a plurality of modules according to their functions. Here, the plurality of modules are software, not hardware, meaning modules that operate functionally. For example, a UI module ( 1710), a touch screen module 1720, a notification module 1730, and the like.

UI 모듈(1710)은, 애플리케이션 별로 위험 상황 분석 장치(100)과 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1300)로 전달할 수 있다. 일 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 1710 may provide a specialized UI, a GUI, etc. linked with the apparatus 100 for analyzing a dangerous situation for each application. The touch screen module 1720 may detect a user's touch gesture on the touch screen and transmit information on the touch gesture to the controller 1300. The touch screen module 1720 according to an embodiment may recognize and analyze a touch code. The touch screen module 1720 may be configured as separate hardware including a controller.

알림 모듈(1730)은 이벤트의 발생을 알리기 위한 신호를 발생할 수 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The notification module 1730 may generate a signal for notifying the occurrence of an event. The notification module 1730 may output a notification signal in the form of a video signal through the display unit 1210, may output a notification signal in the form of an audio signal through the sound output unit 1220, and the vibration motor 1230 It is also possible to output a notification signal in the form of a vibration signal through.

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (11)

기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하는 단계;
상기 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 상기 사용자의 주변 환경을 상기 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하는 단계;
상기 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 상기 주변 환경에 대한 위험 레벨을 결정하는 단계;및
상기 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송하는 단계를 포함하는,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
Sensing a user's bio-signal using at least one sensor every predetermined period;
Matching the surrounding environment of the user with any one of a plurality of state groups classified according to the user's activity attribute when the change in the user's bio-signal exceeds the threshold value;
Determining a risk level for the surrounding environment based on the matched state group setting information and a user's bio-signal; And
Including the step of transmitting a notification message to the terminal of the guardian according to the determined risk level,
How to determine risk situations and manage user safety.
제 1 항에 있어서,
상기 주변 환경에 대한 위험 레벨을 정하는 단계는,
카메라를 구동하여 상기 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득하는 단계;
상기 주변 환경에 포함된 적어도 하나의 이미지를 분석하여, 상기 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 대한 정보를 시간의 흐름에 따라 획득하는 단계; 및
상기 인물 및 사물의 움직임의 변화에 대한 정보에 대응하는 사용자의 생체 신호의 변화를 분석하여 상기 주변 환경에 대한 위험 레벨을 결정하는 단계를 포함하는,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 1,
The step of determining the risk level for the surrounding environment,
Driving a camera to obtain at least one image of the user's surrounding environment;
Analyzing at least one image included in the surrounding environment and acquiring information on a change in movement of a person and an object included in the surrounding environment over time; And
Including the step of determining a risk level for the surrounding environment by analyzing a change in the user's bio-signal corresponding to the information on the change in the movement of the person and the object,
How to determine risk situations and manage user safety.
제 2 항에 있어서,
상기 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 따라, 상기 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보 및 활동 정보의 심장 박동수가 임계 값보다 빠르게 변화하는 경우, 상기 주변 환경에 대한 위험 레벨을 상향 조정하는 단계를 포함하는,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 2,
When the heart rate of the user's body temperature information, sweat emission information, skin characteristic information, heart rate information, blood pressure information, and activity information changes faster than a threshold value according to a change in movement of people and objects included in the surrounding environment , Comprising the step of increasing the risk level for the surrounding environment,
How to determine risk situations and manage user safety.
제 1 항에 있어서,
유사한 활동속성을 갖는 복수의 사용자에 대한 프로파일 정보를 이용하여 상태 그룹을 생성하는 단계;및
상기 상태 그룹에 매칭되는 주변 환경의 위험 레벨을 판단하기 위한 세팅 정보를 결정하는 단계;를 더 포함하며,
상기 프로파일 정보는 성별, 연령, 병변, 평소 활동량, 연령별 언어 사용 정보, 보행속도, 활동 패턴, 보폭, 보조기구 장착여부, 스트레스 지수, 정신적 공감 능력, 감정 표현 능력을 포함하고,
상기 세팅 정보는 상기 상태 그룹을 생성하기 위하여 이용된 복수의 사용자에 대한 프로파일 정보의 평균 정보인 것인,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 1,
Creating a state group by using profile information for a plurality of users having similar activity attributes; And
Determining setting information for determining a risk level of the surrounding environment matching the state group; and
The profile information includes gender, age, lesion, usual activity amount, age-specific language use information, walking speed, activity pattern, stride length, whether or not an assistive device is installed, stress index, mental empathy ability, emotional expression ability,
The setting information is average information of profile information for a plurality of users used to create the state group,
How to determine risk situations and manage user safety.
제 1 항에 있어서,
상기 결정된 위험 레벨에 따라, 상기 사용자가 위치한 곳의 CCTV로부터 상기 사용자의 모습이 포함된 적어도 하나의 CCTV 이미지를 획득하는 단계;및
상기 적어도 하나의 CCTV 이미지를 분석하여, 상기 주변 환경에 대한 위험 레벨을 수정하는 단계를 더 포함하는,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 1,
Acquiring at least one CCTV image including the appearance of the user from the CCTV in which the user is located according to the determined risk level; And
Analyzing the at least one CCTV image, further comprising the step of correcting the risk level for the surrounding environment,
How to determine risk situations and manage user safety.
제 1 항에 있어서,
상기 사용자의 생체 신호를 센싱하는 단계는,
상기 사용자의 체온을 측정하는 온도 센서, 상기 사용자의 땀 배출량을 측정하는 습도 센서, 상기 사용자의 피부 특성을 측정하는 반사 광학 센서, 상기 사용자의 심장 박동을 측정하는 심박 센서, 상기 사용자의 혈압을 측정하는 혈압 센서, 상기 사용자의 신체 내의 임피던스 신호를 측정하는 임피던스 센서 및 상기 사용자의 활동을 측정하는 동작 센서 중 적어도 하나를 이용하여 사용자의 생체 신호를 센싱하는 단계; 및
상기 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보, 임피던스 정보 및 활동 정보 중 적어도 하나를 고려하여, 실시간으로 사용자의 생체 신호 정보를 생성하는 단계를 포함하는,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 1,
The step of sensing the user's bio-signal,
A temperature sensor that measures the user's body temperature, a humidity sensor that measures the user's sweat discharge, a reflective optical sensor that measures the user's skin characteristics, a heart rate sensor that measures the user's heart rate, and the user's blood pressure. Sensing a biosignal of a user using at least one of a blood pressure sensor, an impedance sensor measuring an impedance signal in the user's body, and a motion sensor measuring an activity of the user; And
In consideration of at least one of the user's body temperature information, sweat emission information, skin characteristic information, heart rate information, blood pressure information, impedance information, and activity information, generating bio-signal information of the user in real time,
How to determine risk situations and manage user safety.
제 1 항에 있어서,
상기 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송하는 단계는,
상기 위험 레벨이 1인 경우, 위험 상황에 대한 정보를 포함하는 제 1 알림 정보를 전송하고,
상기 위험 레벨이 2인 경우, 상기 제 1 알림 정보 및 위험 상황에 대한 주변 환경에 대한 이미지를 포함하는 제 2 알림 정보를 전송하고,
상기 위험 레벨이 3인 경우, 상기 보호자의 단말로 제 2 알림 정보 및 위험 상황에 대한 영상을 포함하는 제 3 알림 정보를 전송하고,
상기 위험 레벨이 4인 경우, 상기 제 3 알림 정보를 전송함과 동시에 상기 보호자의 단말로 영상 통화를 시도하는 것인,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 1,
Transmitting a notification message to the guardian's terminal according to the determined risk level,
When the risk level is 1, first notification information including information on a dangerous situation is transmitted,
When the danger level is 2, transmitting the first notification information and second notification information including an image of the surrounding environment for the dangerous situation,
When the risk level is 3, transmitting second notification information and third notification information including an image of a dangerous situation to the guardian's terminal,
When the risk level is 4, transmitting the third notification information and attempting a video call to the guardian's terminal at the same time,
How to determine risk situations and manage user safety.
제 1 항에 있어서,
상기 주변 환경에 대한 위험 레벨을 정하는 단계는,
인공지능(AI) 엔진에 의해 구동되는 학습 네트워크 모델에 의해 수행되는,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 1,
The step of determining the risk level for the surrounding environment,
Performed by a learning network model driven by an artificial intelligence (AI) engine,
How to determine risk situations and manage user safety.
제 1 항에 있어서,
상기 사용자는 연령이 0세 이상 10세 이하의 아동으로서,
상기 복수개의 상태 그룹은 운동 상태 그룹, 수면 상태 그룹, 식사 상태 그룹, 휴식 상태 그룹 및 학습 상태 그룹을 포함하고,
상기 복수개의 상태 그룹의 세팅 정보는 상기 아동의 활동을 모니터링한 데이터에 기초하여 정해지는 것인,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 1,
The user is a child aged 0 to 10 years,
The plurality of state groups include an exercise state group, a sleep state group, a meal state group, a rest state group, and a learning state group,
The setting information of the plurality of state groups is determined based on data for monitoring the activity of the child,
How to determine risk situations and manage user safety.
제 1 항에 있어서,
상기 사용자는 연령이 65세 이상의 노인으로서,
상기 복수개의 상태 그룹은 운동 상태 그룹, 수면 상태 그룹, 식사 상태 그룹, 휴식 상태 그룹 및 학습 상태 그룹을 포함하고,
상기 복수개의 상태 그룹의 세팅 정보는 상기 노인의 연령 및 병력 정보에 기초하여 학습된 데이터에 기초하여 정해지는 것인,
위험 상황을 판단하고 사용자의 안전을 관리하는 방법.
The method of claim 1,
The user is an elderly person over 65 years of age,
The plurality of state groups include an exercise state group, a sleep state group, a meal state group, a rest state group, and a learning state group,
The setting information of the plurality of state groups is determined based on data learned based on the age and medical history information of the elderly,
How to determine risk situations and manage user safety.
프로세서; 및
상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리; 를 포함하고, 상기 프로세서는,
상기 명령어들을 실행함으로써,
기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고,
상기 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 상기 사용자의 주변 환경을 상기 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고,
상기 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 상기 주변 환경에 대한 위험 레벨을 정하고,
상기 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송하는,
위험 상황을 판단하고 사용자의 안전을 관리하는 장치.
Processor; And
A memory storing instructions executable by the processor; Including, the processor,
By executing the above commands,
Sensing the user's bio-signal using at least one sensor every predetermined period,
When the change in the user's biometric signal exceeds the threshold value, the user's surrounding environment is matched to any one of a plurality of state groups classified according to the user's activity attribute,
Based on the setting information of the matched state group and the user's biosignal, a risk level for the surrounding environment is determined,
Transmitting a notification message to the guardian's terminal according to the determined risk level,
A device that judges dangerous situations and manages the safety of users.
KR1020190023514A 2019-02-27 2019-02-27 Method and apparatus for determining a dangerous situation and managing the safety of the user KR20200104758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190023514A KR20200104758A (en) 2019-02-27 2019-02-27 Method and apparatus for determining a dangerous situation and managing the safety of the user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190023514A KR20200104758A (en) 2019-02-27 2019-02-27 Method and apparatus for determining a dangerous situation and managing the safety of the user

Publications (1)

Publication Number Publication Date
KR20200104758A true KR20200104758A (en) 2020-09-04

Family

ID=72471190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190023514A KR20200104758A (en) 2019-02-27 2019-02-27 Method and apparatus for determining a dangerous situation and managing the safety of the user

Country Status (1)

Country Link
KR (1) KR20200104758A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114098719A (en) * 2021-11-30 2022-03-01 歌尔科技有限公司 Action detection method and device and wearable device
WO2022097805A1 (en) * 2020-11-04 2022-05-12 한국전자기술연구원 Method, device, and system for detecting abnormal event
CN117130016A (en) * 2023-10-26 2023-11-28 深圳市麦微智能电子有限公司 Personal safety monitoring system, method, device and medium based on Beidou satellite
WO2023243863A1 (en) * 2022-06-13 2023-12-21 Samsung Electronics Co., Ltd. Method and system for mitigating physical risks in an iot environment
CN117435523A (en) * 2023-12-21 2024-01-23 北京中超伟业信息安全技术股份有限公司 Automatic storage medium destroying method based on data sensitivity level identification

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101677642B1 (en) 2014-05-27 2016-11-18 엘지전자 주식회사 Smart band and emergency state monitoring method using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101677642B1 (en) 2014-05-27 2016-11-18 엘지전자 주식회사 Smart band and emergency state monitoring method using the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097805A1 (en) * 2020-11-04 2022-05-12 한국전자기술연구원 Method, device, and system for detecting abnormal event
CN114098719A (en) * 2021-11-30 2022-03-01 歌尔科技有限公司 Action detection method and device and wearable device
WO2023243863A1 (en) * 2022-06-13 2023-12-21 Samsung Electronics Co., Ltd. Method and system for mitigating physical risks in an iot environment
CN117130016A (en) * 2023-10-26 2023-11-28 深圳市麦微智能电子有限公司 Personal safety monitoring system, method, device and medium based on Beidou satellite
CN117130016B (en) * 2023-10-26 2024-02-06 深圳市麦微智能电子有限公司 Personal safety monitoring system, method, device and medium based on Beidou satellite
CN117435523A (en) * 2023-12-21 2024-01-23 北京中超伟业信息安全技术股份有限公司 Automatic storage medium destroying method based on data sensitivity level identification
CN117435523B (en) * 2023-12-21 2024-03-19 北京中超伟业信息安全技术股份有限公司 Automatic storage medium destroying method based on data sensitivity level identification

Similar Documents

Publication Publication Date Title
KR20200104759A (en) System for determining a dangerous situation and managing the safety of the user
US20220101710A1 (en) Method and system to improve accuracy of fall detection using multi-sensor fusion
US11024142B2 (en) Event detector for issuing a notification responsive to occurrence of an event
KR20200104758A (en) Method and apparatus for determining a dangerous situation and managing the safety of the user
US10602964B2 (en) Location, activity, and health compliance monitoring using multidimensional context analysis
US10319209B2 (en) Method and system for motion analysis and fall prevention
El-Bendary et al. Fall detection and prevention for the elderly: A review of trends and challenges
US11382511B2 (en) Method and system to reduce infrastructure costs with simplified indoor location and reliable communications
KR102204265B1 (en) Smart wearable devices and methods for acquisition of sensorial information from wearable devices to activate functions in other devices
US20220054092A1 (en) Eyewear with health assessment, risk monitoring and recovery assistance
CN107209807B (en) Wearable equipment of pain management
CN112842258A (en) Methods, processors, and computer-readable media for event prevention and prediction
Estudillo-Valderrama et al. Design and implementation of a distributed fall detection system—personal server
US20190228633A1 (en) Fall Warning For A User
US11800996B2 (en) System and method of detecting falls of a subject using a wearable sensor
US20160135738A1 (en) Monitoring treatment compliance using passively captured task performance patterns
CN109152557A (en) The system and method for early detection for transient ischemic attack
Fallahzadeh et al. Toward personalized and context-aware prompting for smartphone-based intervention
KR20200056660A (en) Pain monitoring method and apparatus using tiny motion in facial image
KR102171742B1 (en) Senior care system and method therof
US20230389880A1 (en) Non-obtrusive gait monitoring methods and systems for reducing risk of falling
KR102188076B1 (en) method and apparatus for using IoT technology to monitor elderly caregiver
KR102551856B1 (en) Electronic device for predicting emotional state of protected person using walking support device based on deep learning based prediction model and method for operation thereof
US20230210372A1 (en) Passive assistive alerts using artificial intelligence assistants
Sasaki et al. Estimating symptoms caused by CIPN using mobile and wearable devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal