KR20200104759A - 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템 - Google Patents

위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템 Download PDF

Info

Publication number
KR20200104759A
KR20200104759A KR1020190023515A KR20190023515A KR20200104759A KR 20200104759 A KR20200104759 A KR 20200104759A KR 1020190023515 A KR1020190023515 A KR 1020190023515A KR 20190023515 A KR20190023515 A KR 20190023515A KR 20200104759 A KR20200104759 A KR 20200104759A
Authority
KR
South Korea
Prior art keywords
user
information
surrounding environment
safety
state
Prior art date
Application number
KR1020190023515A
Other languages
English (en)
Inventor
구요한
Original Assignee
구요한
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구요한 filed Critical 구요한
Priority to KR1020190023515A priority Critical patent/KR20200104759A/ko
Publication of KR20200104759A publication Critical patent/KR20200104759A/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0211Combination with medical sensor, e.g. for measuring heart rate, temperature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0222Message structure or message content, e.g. message protocol
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0236Threshold setting
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0241Data exchange details, e.g. data protocol

Abstract

기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고, 센싱된 정보를 서버로 전송하는 웨어러블 디바이스 및 상기 웨어러블 디바이스로부터 수신된 센서 정보에 기초하여 상기 사용자의 상태를 모니터링하되, 상기 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 상기 사용자의 주변 환경을 상기 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고, 상기 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 상기 주변 환경에 대한 위험 레벨을 결정하고, 상기 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송하는 서버를 포함하는, 위험 상황을 판단하고 사용자의 안전을 관리하는 시스템이 개시된다.

Description

위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템 {SYSTEM FOR DETERMINING A DANGEROUS SITUATION AND MANAGING THE SAFETY OF THE USER}
일 개시에 따라, 사용자의 생체 신호 및 사용자의 현재 주변 환경을 분석하여 사용자가 위험한 상황에 처해 있는지 여부를 판단하고, 사용자의 상태가 위험 상황이라고 판단되는 경우 보호자의 단말로 알림을 전송하는 시스템이 개시된다.
최근 보육시설에서 빈번히 일어나는 아동 폭행 및 정신적 학대사건으로 인해 피해 아동과 부모들의 상처가 더 커지고 있다. 특히, 폭행 및 학대 사건으로 인해 피해를 받은 아동들은 외상 후 스트레스 장애에 시달리고 있어 심리적으로 치료가 필요한 상황이다.
하지만, 보육시설에 아이를 맡기는 대부분의 부모가 맞벌이기 때문에 따로 시간을 내어 아이와 함께 심리 상담소에 방문하거나 지속적으로 전문가의 심리치료를 받는 등에 대한 부분에서 어려움이 생길 수 있다.
또한, 부모가 아이의 상태에 대해 직접 인식하지 못한다면 아이는 그대로 방치되어 추후에 더 큰 심리 장애를 일으킬 수 있어, 시간과 공간적으로 자유롭고 손쉽게 아이의 신체 상태 및 정서 상태를 파악함으로써 아동 학대를 예측하고 대처할 수 있는 시스템이 필요하다.
또한, 의료 기술의 발전은 기대 수명의 연장과 함께 고령화 사회를 초래하고 있다. 이에 따라 노인 건강에 대한 중요성이 높아지고 있다. 고령화 사회가 도래하면서 혼자 사는 독거노인들이 점점 증가하고 있다. 이처럼 혼자 살고 있는 독거노인들은 갑작스럽게 건강에 이상이 생기는 위급 상황이 발생하는 경우, 누군가의 도움을 받을 수 없기 때문에 이들의 안전을 위한 모니터링 시스템이 개발되고 있다.
그러나, 기존의 시스템은 사용자의 직접적인 요청을 통해야만 위험상황을 보호자에게 알릴 수 있거나, 단순히 사용자의 생체적 특징만을 이용하여 위험상황을 판단하는 것은 한계가 존재하였기 때문에, 상황에 따라 사용자의 위험여부를 정확하게 판단하고, 보호자에게 알릴 수 있는 위험 상황 관리 시스템의 니즈가 증가하고 있다.
대한민국 특허공개번호 제 10-2016-0161073호(2018.06.08 공개) 대한민국 등록특허공보 제 10-1677642호(2016.11.18 공고)
일 개시에 따른 기술적 과제는 사용자의 생체 신호의 변화에 따라 위험 상황인지 여부를 1차적으로 판단하고, 사용자의 활동속성을 고려하여 현재 사용자의 상태를 결정한 후 사용자가 현재 위험 상황에 처해있는 지, 위험 상황에 처해 있다면 위험 레벨은 어느 정도 인지 여부를 결정하여 보호자의 단말로 알리는 사용자의 위험 상황을 판단하고, 안전을 관리하는 시스템을 제공함에 있다.
제 1 실시예에 따른 위험 상황을 판단하고 사용자의 안전을 관리하는 시스템은, 기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고, 센싱된 정보를 서버로 전송하는 웨어러블 디바이스 및 상기 웨어러블 디바이스로부터 수신된 센서 정보에 기초하여 상기 사용자의 상태를 모니터링하되, 상기 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 상기 사용자의 주변 환경을 상기 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고, 상기 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 상기 주변 환경에 대한 위험 레벨을 결정하고, 상기 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송하는 서버를 포함한다.
제 2 실시예에 따른 위험 상황을 판단하고 사용자의 안전을 관리하는 시스템은, 하나 이상의 프로세서 및 상기 하나 이상의 프로세서 각각에 의해 실행 가능한 명령어들을 저장하는 하나 이상의 메모리를 포함하고, 상기 하나 이상의 프로세서는, 상기 명령어들을 실행함으로써, 상기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고, 상기 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 상기 사용자의 주변 환경을 상기 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고, 상기 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 상기 주변 환경에 대한 위험 레벨을 정하고, 상기 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송한다.
일 개시에 의하여 본 발명은 판단 능력이 떨어지는 유아 또는 노인의 육체적, 정신적 학대 여부를 빅데이터를 이용하여 판단함으로써, 유아 또는 노인의 학대를 예방할 수 있다.
일 개시에 의하여, 2차적인 위험 상황 판단에 따라 사용자의 생체 신호의 변화만으로는 확인할 수 없는 위험 상황을 정확하게 판단할 수 있다.
일 개시에 의하여, 우선적으로 사용자의 장치에서 획득한 사용자 및 사용자 주변의 영상을 이용하고, 위험 상황에 레벨에 따라 IoT 서비스를 통해 CCTV 영상을 획득하여 보호자에게 제공함으로써 보호자로 하여금 위험 상황을 보다 명확하게 알 수 있도록 한다. 또한, 보호자는 획득한 영상 및 이미지를 증거 자료로서 사용할 수 있는 효과가 있다.
또한, 사용자의 평상시 행동 패턴을 모니터링하여 상태 그룹의 세팅 정보를 업데이트함으로써, 사용자의 활동에 맞는 위험 상황 여부를 판단을 수행할 수 있다.
도 1은 일 실시예에 따른 위험 상황 분석 장치의 작동을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 사용자의 위험상황을 판단하고, 안전을 관리하는 방법을 설명하기 위한 순서도이다.
도 3은 일 실시예에 따른 위험 상황 분석 장치에서 다른 장치로 사용자의 위험 상황을 알리는 방법을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 위험 상황 분석 장치의 주요 구성을 나타내는 도면이다.
도 5는 일 실시예에 따른 웨어러블 장치 형태의 위험 상황 분석 장치에서 보호자 단말로 위험 상황에 대한 알림 메시지를 전송하는 내용을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 모바일 단말 형태의 위험 상황 분석 장치에서 사용자의 생체 신호를 감지하고 위험 상황을 분석하는 내용을 설명하기 위한 도면이다.
도 7을 일 실시예에 따른 의류에 장착된 센싱부를 이용하여 사용자의 위험 상황을 판단하는 특징을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 양말에 장착된 센싱부를 이용하여 사용자의 위험 상황을 판단하는 내용을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 사용자의 생체신호를 분석하는 내용을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 사용자 주변의 CCTV 장치를 이용하여 사용자의 주변 환경의 영상을 획득하는 내용을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 위험 상황 분석 장치의 상세 구성을 설명하기 위한 도면이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명의 일 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 명세서에서, “위험 상황을 판단하고 사용자의 안전을 관리하는 장치(100)”는 위험 상황 판단 장치(100)로 설명하도록 한다.
본 명세서에서, “사용자”는 유아, 노인, 어린이, 장애인 등과 같이 위험 상황에 대한 판단 능력이 떨어지는 사람을 의미하며, 나아가, 위험 상황 분석 장치를 사용하는 모든 사람을 의미할 수 있다.
본 명세서에서, “보호자”는 사용자의 안전을 관리하는 사람으로서, 사용자의 위험 상황 판단 장치로부터 위험 상황에 대한 알림 메시지를 수신할 수 있도록 미리 등록된 사용자를 의미한다. 나아가, 경찰, 소방서, 병원 등과 같은 공공기관을 포함할 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시예에 따른 위험 상황 분석 장치의 작동을 설명하기 위한 도면이다.
일 개시에 의하여 위험 상황 분석 장치(100)는 주기적으로 사용자의 생체신호를 감지하고, 사용자의 생체 신호의 변화에 따라 현재 사용자의 상태에 대하여 상세한 분석을 수행할 수 있다. 나아가, 위험 상황 분석 장치(100)는 사용자의 생체 신호의 급격한 변화가 일어나는 경우 현재 사용자의 활동상태가 무엇인지 결정한 후, 주변 상황에 대한 분석을 통해 현재 사용자가 위험 상황에 처해 있는지 여부를 판단할 수 있다. 또한, 위험 상황 분석 장치(100)는 사용자의 생체 신호 및 주변 상황의 정황을 분석하여 사용자의 위험 레벨을 결정할 수 있다. 또한, 위험 상황 분석 장치(100)는 사용자의 위험 상황에 대한 내용을 보호자의 단말(200)로 알림으로써 보호자로 하여금 보다 명확하게 사용자의 안전을 관리할 수 있도록 해준다.
예를 들어, 도 1의 (a)를 살펴보면, 사용자인 아동이 선생님으로부터 심한 꾸지람을 받아 심각한 정신적 스트레스를 받고 있는 상황이다. 위험 상황 분석 장치(100)는 사용자의 심장 박동수, 혈압 변화량, 땀 배출량 등의 생체 신호를 획득하고, 이를 분석하여 사용자가 현재 심각한 스트레스 상태라고 판단할 수 있다. 일 개시에 의하여 위험 상황 분석 장치(100)는 카메라 또는 녹음장치를 구동하여 사용자의 주변 환경에 대한 정보를 획득할 수 있다. 위험 상황 분석 장치(100)는 현재 사용자가 일상 활동임을 판단할 수 있으며, 영상에 포함된 다른 사람으로부터 구타, 학대, 폭언 등을 듣고 있다고 판단할 수 있다. 다음으로, 위험 상황 분석 장치(100)는 사용자의 일상 활동에서의 위험 레벨이 3이라고 판단하고, 이를 보호자의 단말(200)로 전송함으로써 보호자로 하여금 조치를 취하게 할 수 있다. 또한, 보호자의 단말(200)로 알림 메시지와 함께 주변 환경에 대한 이미지(201)를 전송함으로써 보다 명확하게 사용자의 상황을 공유할 수 있다.
사용자의 위험 레벨은 연령, 병변, 성별 등의 정보를 이용하여 자동으로 정해질 수 있으며, 사용자 또는 보호자의 설정으로 정해질 수 있다. 이하에서 상세히 설명한다.
도 1의(b)를 살펴보면, 사용자(10)가 수면 중 침대에서 낙상한 것을 확인할 수 있다. 위험 상황 분석 장치(100)는 사용자의 생체 신호의 변화 및 주변 환경 정보를 이용하여 사용자가 수면 상태에서 침대에서 낙상하였다고 판단할 수 있다. 이때, 위험 상황 분석 장치(100)는 사용자(10)의 다음 행동 및 생체 신호의 변화를 지속적으로 분석함으로써 사용자의 위험 레벨을 시간에 따라 판단할 수 있다. 예를 들어, 사용자(10)의 생체 신호가 다시 안정적으로 변하거나, 주변 환경에 대한 영상에서 사용자의 신음소리 등이 들리지 않는다면 사용자(10)의 위험 레벨이 높지 않다고 판단할 수 있다. 위험 상황 분석 장치(100)는 위험 상황에 대한 알림 메시지(202) 및 사용자(10)의 실시간 상태에 대한 메시지(203)를 보호자의 단말(200)로 전송함으로써 사용자(10)의 안전 상태를 관리할 수 있다.
도 2는 일 실시예에 따른 사용자의 위험상황을 판단하고, 안전을 관리하는 방법을 설명하기 위한 순서도이다.
일 개시에 따른 블록 201에서 위험 상황 분석 장치(100)는 기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱할 수 있다.
일 개시에 의하여, 기 정해진 주기는 사용자가 직접 정할 수 있으며, 위험 상황이 발생한 경우 생체 신호를 센싱하는 주기가 더 짧아지도록 설정할 수 있다.
일 개시에 의하여, 사용자의 생체 신호는 사용자의 육체적, 정신적 상태를 판단하는 지표값으로서 사용될 수 있다. 일 개시에 의하여 생체 신호는 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보 등을 포함할 수 있으며, 센싱 장치를 이용하여 측정할 수 있는 모든 생체 신호를 포함할 수 있다.
일 개시에 따른 블록 202에서 위험 상황 분석 장치(100)는 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 카메라를 구동하여 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득할 수 있다.
일 개시에 의하여, 위험 상황 분석 장치(100)는 주기적으로 획득한 사용자의 생체 신호를 이용하여 사용자의 활동 유형에 따른 생체 신호의 평균값을 생성할 수 있다. 또는 위험 상황 분석 장치(100)는 사용자 또는 보호자에 의하여 입력된 생체 신호의 정상 범위 및 임계값을 저장할 수 있다.
위험 상황 분석 장치(100)는 사용자의 생체 신호가 미리 정해진 임계값을 벗어나는 경우, 사용자가 위험 상황에 직면했다는 1차 판단을 할 수 있다. 즉, 위험 상황 분석 장치(100)는 사용자의 개입 없이도 사용자의 생체 신호만을 분석함으로써 사용자의 위험 여부를 1차적으로 판단할 수 있다.
위험 상황 분석 장치(100)는 보다 명확한 사용자의 상태를 파악하기 위하여 카메라를 구동하여 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득할 수 있다. 또한, 위험 상황 분석 장치(100)는 카메라를 이용하여 주변 환경의 영상을 획득할 수 있음은 당연하다.
일 개시에 따른 블록 203에서 위험 상황 분석 장치(100)는 적어도 하나의 이미지를 분석하여, 사용자의 주변 환경을 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭할 수 있다.
일 개시에 의하여 위험 상황 분석 장치(100)는 사용자 및 사용자의 주변 환경을 촬영한 이미지를 분석함으로써 사용자가 현재 어떤 활동을 수행하고 있는지 여부를 분석할 수 있다. 일 개시에 의하여 위험 상황 분석 장치(100)는 빅데이터를 이용하여 인공지능 학습을 통해 사용자의 이미지를 분석하여 사용자의 활동을 결정할 수 있다.
위험 상황 분석 장치(100)는 사용자의 활동 속성을 미리 복수개의 상태 그룹으로 분류할 수 있다. 예를 들어, 상태 그룹은 운동, 수면, 일상, 학습 등을 포함할 수 있으며, 상태 그룹은 한정되지 않는다.
일 개시에 의하여 상태 그룹은 복수의 객체를 관찰함으로써 획득된 객체의 프로파일 정보에 의하여 분류될 수 있다. 일 개시에 의하여 상태 그룹은 복수개의 객체 프로파일 정보 중 어느 하나의 프로파일 정보를 기준에 의하여 분류될 수 있다. 일 개시에 의하여 그룹은 복수개의 프로파일 정보를 조합하여 얻어진 기준에 의하여 분류될 수 있다.
예를 들어, 상태 그룹은 연령대를 기준으로 10세를 기준으로 복수의 그룹으로 형성될 수 있다. 예를 들어, 0세부터 10세까지는 유아 그룹, 71세부터 90세까지를 노인 그룹으로 정의할 수 있다. 또한, 다른 예로서, 그룹은 복수개의 프로파일 정보에 가중치를 두어 계산한 값에 의하여 분류될 수 있다. 예를 들어, 70대, 남성, 허리가 굽은 외형 등의 객체 프로파일 특성을 기준으로 “허리 디스크가 있는 노인 남성 그룹”을 결정할 수 있다.
보다 구체적으로 사용자가 연령이 0세 이상 10세 이하의 아동인 경우, 복수개의 상태 그룹은 운동 상태 그룹, 수면 상태 그룹, 식사 상태 그룹, 휴식 상태 그룹 및 학습 상태 그룹을 포함할 수 있으며, 복수개의 상태 그룹의 세팅 정보는 상기 아동의 활동을 모니터링한 데이터에 기초하여 정해질 수 있다.
또한, 사용자는 연령이 65세 이상의 노인인 경우 복수개의 상태 그룹은 운동 상태 그룹, 수면 상태 그룹, 식사 상태 그룹, 휴식 상태 그룹 및 학습 상태 그룹을 포함하고, 복수개의 상태 그룹의 세팅 정보는 노인의 연령 및 병력 정보에 기초하여 학습된 데이터에 기초하여 정해질 수 있다.
일 개시에 따른 복수개의 상태 그룹을 결정하는 방법은 제한되지 않는다. 일개시에 의하여 복수개의 상태 그룹은 인공지능에 의한 학습모델에 의하여 분류될 수 있다. 일 개시에 의하여 복수개의 상태 그룹은 사용자에 의하여 입력된 분류 기준에 의하여 분류될 수 있다.
위험 상황 분석 장치(100)는 유사한 활동속성을 갖는 복수의 사용자에 대한 프로파일 정보를 이용하여 상태 그룹을 생성할 수 있으며, 상태 그룹에 매칭되는 주변 환경의 위험 레벨을 판단하기 위한 세팅 정보를 결정할 수 있다. 이때, 프로파일 정보는 성별, 연령, 병변, 평소 활동량, 연령별 언어 사용 정보, 보행속도, 활동 패턴, 보폭, 보조기구 장착여부, 스트레스 지수, 정신적 공감 능력, 감정 표현 능력을 포함할 수 있다. 또한, 세팅 정보는 상태 그룹을 생성하기 위하여 이용된 복수의 사용자에 대한 프로파일 정보의 평균 정보를 의미할 수 있다.
일 개시에 따른 블록 204에서 위험 상황 분석 장치(100)는 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 적어도 하나의 이미지에 포함된 주변 환경에 대한 위험 레벨을 결정할 수 있다.
따라서, 위험 상황 분석 장치(100)는 사용자의 생체 신호와 사용자의 현재 활동 및 평상시 활동 습관에 비추어 사용자의 위험 여부를 정확하게 모니터링할 수 있다는 효과가 있다. 즉, 1차적인 사용자의 생체 신호를 이용한 위험 여부 판단 후, 2차적인 주변 환경 분석을 통해 사용자의 위험 상태 여부를 판단할 수 있다.
위험 상황 분석 장치(100)는 주변 환경에 포함된 적어도 하나의 이미지를 분석하여, 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 대한 정보를 시간의 흐름에 따라 획득할 수 있으며, 인물 및 사물의 움직임의 변화에 대한 정보에 대응하는 사용자의 생체 신호의 변화를 분석하여 주변 환경에 대한 위험 레벨을 결정할 수 있다.
일 개시에 따른 블록 205에서 위험 상황 분석 장치(100)는 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송할 수 있다.
이때, 보호자의 단말은 사용자의 상태를 확인할 수 있도록 권한을 받은 미리 등록된 사용자일 수 있다. 또한, 보호자의 단말은 사용자와 관련된 국가 센터, 경찰서, 소방서, 병원, 그 밖의 공공기관의 서버 등을 포함할 수 있다.
도 3은 일 실시예에 따른 위험 상황 분석 장치에서 다른 장치로 사용자의 위험 상황을 알리는 방법을 설명하기 위한 도면이다.
일 개시에 의한 위험 상황 분석 장치(100)는 사용자의 몸에 부착 또는 근접한 전자 장치를 의미할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 웨어러블 디바이스를 포함할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 액세서리 형 장치(예컨대, 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈), 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형 장치(예: 전자 의복), 신체 부착형 장치(예컨대, 스킨 패드(skin pad)), 또는 생체 이식형 장치(예: implantable circuit) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
또한, 사용자는 복수 개의 웨어러블 디바이스들을 착용할 수 있으며, 복수 개의 웨어러블 디바이스들은 직접 사용자의 생체 정보를 측정할 수 있다. 또한, 위험 상황 분석 장치(100)는 복수개의 웨어러블 디바이스들로부터 사용자의 현재 상태에 대한 정보를 획득할 수 있다.
위험 상황 분석 장치(100)는 보호자의 단말(200) 및 다른 서버(300)와 통신할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 사용자의 위험 상황의 레벨에 따라 보호자의 단말(200) 및 다른 서버(300)중 적어도 하나로 사용자의 상태에 대한 알림 메시지를 전송할 수 있다.
보호자의 단말(200)은 사용자가 미리 등록한 장치이거나, 다른 사용자의 장치일 수 있다. 일 개시에 의하여 보호자의 단말(200)은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 카메라, 네비게이션, 타블렛 컴퓨터(tablet computer), 이북(e-book) 단말기, 스마트 워치(Smart watch) 등을 포함할 수 있다.
서버(300)는 사용자의 상태를 관리하는 양육 기관, 병원, 요양원, 유치원, 경찰서, 소방서 등의 서버를 포함할 수 있으며, 나아가, 사용자의 상태를 관리하고 위험 상황을 분석하기 위한 서버를 포함할 수 있다.
일 실시 예에서, 개시된 실시 예에 따른 위험 상황 분석방법은 서버에 의하여 수행되고, 웨어러블 디바이스는 센서 정보를 수집하거나 일부를 처리하여 서버로 전송하는 역할을 수행할 수도 있다. 즉, 개시된 실시 예에 따른 위험 상황 분석방법의 적어도 일부 또는 전부가 서버 혹은 웨어러블 디바이스에 의하여 수행될 수 있으며, 그 주체는 제한되지 않는다.
도 4는 일 실시예에 따른 위험 상황 분석 장치의 주요 구성을 나타내는 도면이다.
위험 상황 분석 장치(100)는 카메라(1610), 메모리(1700), 통신부(1500) 및 제어부(1300)를 포함할 수 있다.
일 개시에 의하여, 카메라(1610)는 사용자 및 사용자의 주변 환경의 영상을 촬영할 수 있다. 카메라(1610)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 예를 들어, 카메라(1610)에 의해 촬영된 이미지는 이벤트가 발생하였는지를 결정하기 위한 정보로 활용될 수 있다.
일 개시에 의하여, 메모리(1700) 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 본 발명의 장치로 입력되거나 또는 장치에서 출력되는 데이터를 저장할 수도 있다. 메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 여기서, 복수 개의 모듈들은 하드웨어가 아닌 소프트웨어로서, 기능적으로 동작하는 모듈이다.
일 개시에 의하여 통신부(1500)는 위험 상황 분석 장치(100)와 보호자의 단말 또는 다른 장치와 데이터를 송수신할 수 있다. 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다. 다른 장치는 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다.
일 개시에 의하여 제어부(1300)는 프로세서와 혼용되어 설명될 수 있으며, 프로세서와 동일한 의미이다. 일 개시에 의하여 제어부(1300)는 명령어들을 실행함으로써, 기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고, 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 카메라를 구동하여 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득하고, 적어도 하나의 이미지를 분석하여, 사용자의 주변 환경을 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고, 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 적어도 하나의 이미지에 포함된 주변 환경에 대한 위험 레벨을 정하고, 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송할 수 있다.
도 5는 일 실시예에 따른 웨어러블 장치 형태의 위험 상황 분석 장치에서 보호자 단말로 위험 상황에 대한 알림 메시지를 전송하는 내용을 설명하기 위한 도면이다.
일 개시에 의하여, 위험 상황 분석 장치(100)는 사용자의 손목에 장착되는 웨어러블 밴드 형태일 수 있다. 일 실시예일 뿐, 위험 상황 분석 장치(100)는 다른 형태의 전자 장치를 포함할 수 있다.
위험 상황 분석 장치(100)는 센서를 이용하여 사용자의 생체 신호를 획득할 수 있다. 예를 들어, 사용자의 체온을 측정하는 온도 센서, 사용자의 땀 배출량을 측정하는 습도 센서, 사용자의 피부 특성을 측정하는 반사 광학 센서, 사용자의 심장 박동을 측정하는 심박 센서, 사용자의 혈압을 측정하는 혈압 센서, 사용자의 신체 내의 임피던스 신호를 측정하는 임피던스 센서 및 사용자의 활동을 측정하는 동작 센서 중 적어도 하나를 이용하여 사용자의 생체 신호를 센싱할 수 있다.
위험 상황 분석 장치(100)는 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보, 임피던스 정보 및 활동 정보 중 적어도 하나를 고려하여, 실시간으로 사용자의 생체 신호 정보를 생성할 수 있다.
일 개시에 의하여, 위험 상황 분석 장치(100)는 사용자의 생체 신호의 정보의 급격한 변화가 발생한 경우, 사용자의 주변 환경 정보를 획득하여 사용자의 활동 속성을 판단할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 사용자가 운동 상태라고 판단할 수 있으며, 밤시간에 운동 중 심장 박동 수가 급격히 증가했음을 확인할 수 있다.
위험 상황 분석 장치(100)는 사용자의 심장 박동수의 급격한 증가 및 밤의 온도, 늦은 시간 등의 주변 환경 정보를 통해 사용자의 위험 레벨을 결정할 수 있다. 일 개시에 의하여 위험 상황 분석 장치(100)는 사용자의 위험 레벨에 따른 알림 메시지를 보호자의 단말(200)로 전송할 수 있다. 또는, 공공기관 서버, 경찰서 서버, 병원 서버, 소방서 서버 등으로 전송할 수 있다.
또한, 위험 상황 분석 장치(100)는 결정된 위험 레벨에 따라 보호자의 단말로 다른 형태의 알림 메시지를 전송할 수 있다.
일 개시에 의하여 위험 상황 분석 장치(100)는 주변 환경에 포함된 적어도 하나의 이미지를 분석하여, 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 대한 정보를 시간의 흐름에 따라 획득할 수 있다. 또한, 인물 및 사물의 움직임의 변화에 대한 정보에 대응하는 사용자의 생체 신호의 변화를 분석하여 주변 환경에 대한 위험 레벨을 결정할 수 있다.
나아가, 위험 상황 분석 장치(100)는 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 따라, 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보 및 활동 정보의 심장 박동수가 임계 값보다 빠르게 변화하는 경우, 주변 환경에 대한 위험 레벨을 상향 조정할 수 있다. 또는, 주변 환경에 포함된 인물 및 사물의 움직임, 사용자의 생체 신호 정보에 따라서 주변 환경에 대한 위험 레벨을 하향 조정할 수도 있다.
일 개시에 의하여, 주변 환경에 대한 위험 레벨을 정하는 것은 인공지능(AI) 엔진에 의해 구동되는 학습 네트워크 모델에 의해 수행될 수 있다. 인공지능 엔진은 주변 환경, 사용자의 식별 정보 및 생체 정보, 활동 속성에 따른 상태 그룹의 정보를 고려하여 주변 환경에 대한 위험 레벨을 결정할 수 있다.
예를 들어, 위험 상황 분석 장치(100)는 위험 레벨이 1인 경우, 위험 상황에 대한 정보를 포함하는 제 1 알림 정보를 전송할 수 있다. 이때, 위험 상황에 대한 정보는 급격한 변화가 발생한 사용자의 생체 정보, 사용자의 현재 활동에 대한 정보를 포함하며, 제 1 알림 정보는 텍스트 정보일 수 있다.
위험 레벨이 2인 경우, 제 1 알림 정보 및 위험 상황에 대한 주변 환경에 대한 이미지를 포함하는 제 2 알림 정보를 전송할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 텍스트 정보 및 현재 사용자의 주변 환경 및 현재 사용자의 영상을 포함하는 제 2 알림 정보를 전송할 수 있다.
위험 레벨이 3인 경우, 보호자의 단말로 제 2 알림 정보 및 위험 상황에 대한 영상을 포함하는 제 3 알림 정보를 전송할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 제 2 알림 정보 외에, 현재 사용자 주변의 영상을 실시간으로 전송할 수 있다. 또는, 사용자의 생체 신호가 급격히 변화한 시점에서의 영상을 전송할 수 있다.
위험 레벨이 4인 경우, 제 3 알림 정보를 전송함과 동시에 보호자의 단말로 영상 통화를 시도할 수 있다. 위험 상황 분석 장치(100)는 보호자의 단말 외에, 공공기관, 경찰서, 병원 등의 연락처로 전화통화를 시도할 수 있다.
도 6은 일 실시예에 따른 모바일 단말 형태의 위험 상황 분석 장치에서 사용자의 생체 신호를 감지하고 위험 상황을 분석하는 내용을 설명하기 위한 도면이다.
일 개시에 의하여, 위험 상황 분석 장치(100-b)는 모바일 단말의 형태일 수 있으며, 사용자와 근접한 위치에서 사용자(100)의 생체 신호를 획득할 수 있다. 또한, 위험 상황 분석 장치(100-b)는 사용자(100)에게 직접적으로 부착된 별개의 센서부를 이용하여 사용자(100)의 생체 신호를 획득할 수 있다.
예를 들어, 위험 상황 분석 장치(100-b)는 사용자의 체온을 측정하는 온도 센서, 사용자의 땀 배출량을 측정하는 습도 센서, 사용자의 피부 특성을 측정하는 반사 광학 센서, 사용자의 심장 박동을 측정하는 심박 센서, 사용자의 혈압을 측정하는 혈압 센서, 사용자의 신체 내의 임피던스 신호를 측정하는 임피던스 센서 및 사용자의 활동을 측정하는 동작 센서등을 이용하여 사용자의 생체 신호를 획득할 수 있다.
또한, 위험 상황 분석 장치(100-b)는 사용자의 몸에 부착된 별개의 센서부, 예를 들어 사용자의 피부의 온도를 온도 센서부, 사용자의 떨림을 측정하는 동작 센서부, 사용자의 심장 박동수를 검출하는 심박 센서부 등으로부터 생체 신호를 수신할 수 있다.
도 7을 일 실시예에 따른 의류에 장착된 센싱부를 이용하여 사용자의 위험 상황을 판단하는 특징을 설명하기 위한 도면이다.
예를 들어, 센싱부(701)는 사용자가 주로 착용하는 의류에 장착될 수 있다. 센싱부(701)는 사용자의 심장 박동수를 측정하기 위한 복수개의 센서들을 포함할 수 있으며, 복수개의 센서들은 사용자의 심장 근처에 위치하도록 배열될 수 있다. 센싱부(701)는 사용자의 심장 박동수를 주기적으로, 가장 근접한 위치에서 측정할 수 있어 정확한 심장 박동수를 센싱할 수 있는 장점이 있다. 센싱부(701)는 사용자의 심장 박동수를 측정한 값을 위험 상황 분석 장치(100)로 전송할 수 있다.
도 8은 일 실시예에 따른 양말에 장착된 센싱부를 이용하여 사용자의 위험 상황을 판단하는 내용을 설명하기 위한 도면이다.
예를 들어, 센싱부(801)는 사용자의 양말에 장착되어, 사용자의 동작, 피부의 온도, 압력, 습도 등을 센싱할 수 있다. 센싱부(801)는 복수개의 센서(802)를 포함할 수 있으며, 복수개의 센서(802)들은 각각 다른 신호를 센싱하는 신호일 수 있다. 예를 들어 센싱부(801)는 사용자의 보행에 따라 지면을 압박하는 힘을 측정하여 위험 상황 분석 장치(100)로 전송할 수 있다. 위험 상황 분석 장치(100)는 획득한 사용자의 센싱 신호를 분석할 수 있다.
도 9는 일 실시예에 따른 사용자의 생체신호를 분석하는 내용을 설명하기 위한 도면이다.
일 개시에 의하여, 위험 상황 분석 장치(100)는 생체신호를 이용하여 사용자의 현재 상태의 특징을 추출할 수 있다. 생체신호로부터 특징을 추출하는 일반적인 장치는 생체신호의 2차 미분신호에서 로컬 최소 지점(local minimum point)을 탐색하고, 로컬 최소 지점에 해당하는 시간(T1,T2,T3)과, 그 시간(T1,T2,T3)에 대응하는 전체 생체신호의 진폭(P1,P2,P3)을 특징점(characteristic point)으로 획득할 수 있다.
또한, 위험 상황 분석 장치(100)는 획득된 특징점들을 이용하여 생체정보 검출을 위한 특징을 추출할 수 있다. 이때, 로컬 최소 지점은 2차 미분신호의 일부 구간을 관찰했을 때 신호가 감소하다가 특정 지점을 중심으로 다시 증가하는 형태, 즉, 아래로 볼록한 형태를 가지는 지점을 의미한다.
도 10은 일 실시예에 따른 사용자 주변의 CCTV 장치를 이용하여 사용자의 주변 환경의 영상을 획득하는 내용을 설명하기 위한 도면이다.
위험 상황 분석 장치(100)는 앞서 설명한 절차에 따라 결정된 사용자의 현재 상태의 위험 레벨에 따라, 사용자가 위치한 곳의 CCTV(1001)로부터 사용자의 모습이 포함된 적어도 하나의 CCTV 이미지를 획득할 수 있다. 이때, CCTV(1001)는 위험 상황 분석 장치(100)와 미리 통신할 수 있도록 권한을 획득한 것일 수 있다. 또는, 위험 상황 분석 장치(100)는 공공기관, 건물 등의 서버에 요청함으로써, 사용자가 위치한 곳의 CCTV로부터 사용자를 포함하는 영상을 획득할 수 있다.
위험 상황 분석 장치(100)는 적어도 하나의 CCTV 이미지를 분석하여, 주변 환경에 대한 위험 레벨을 수정할 수 있다. 예를 들어, 위험 상황 분석 장치(100)는 사용자와 주변 환경을 동시에 촬영한 영상으로부터 사용자가 안전한 상태인지, 위험한 상태인지 여부를 판단하고, 위험 레벨을 변경할 수 있다.
한편, 일 실시예에 의하면, 위험 상황 분석 장치(1000)는 딥러닝 모델을 이용하여 정지 영상을 분석하기 전에, 정지 영상에 포함된 객체의 형상 또는 크기를 보상할 수 있다. 예를 들어, 위험 상황 분석 장치(1000)는 CCTV(1001)가 설치된 각도 및 위치 중 적어도 하나를 고려하여, 적어도 하나의 이미지에 포함된 객체의 형상 또는 크기를 보상하고, 형상 또는 크기가 보상된 객체의 자세와 기 정의된 자세를 비교할 수 있다.
예를 들어, 낙상과 관련된 자세의 객체를 포함하는 객체 이미지가 검출된 경우, 위험 상황 분석 장치(1000)는 사용자(10)의 상태가 낙상 상태인지 정확히 파악하기 위해, 일련의 이미지들(예컨대, 일정 기간 누적된 프레임들)을 분석하여, 객체의 제 1 움직임 변화에 대한 정보를 획득할 수 있다. 예를 들어, 사용자(10)가 침대에서 떨어져 바닥에 누워있는 이미지(예컨대, 제 n 프레임)가 검출된 경우, 위험 상황 분석 장치(1000)는 일정 기간 누적된 이미지들(예컨대, 제 n-10 프레임 ~ 제 n+10 프레임)을 분석하여 사용자(10)가 침대에서부터 바닥까지 떨어지는 움직임의 변화를 검출할 수 있다. 또한, 위험 상황 분석 장치(1000)는 바닥에 몸이 닿은 뒤의 객체의 움직임 변화를 검출할 수도 있다.
일 개시에 의한 위험 상황 분석 장치(1000)는 매칭된 그룹의 세팅 정보에 기초하여, 객체 이미지에 포함된 객체의 상황이 위험 상황인지 결정할 수 있다. 위험 상황 분석 장치(1000)는 객체가 매칭된 그룹의 세팅 정보 및 객체의 움직임 변화에 대한 정보에 기초하여, 객체의 상태가 낙상 상태인지 결정할 수 있다.
일 실시예에 의하면, 객체의 움직임 변화와 기 저장된 낙상을 나타내는 움직임 변화 사이의 유사도가 임계 값(예컨대, 90%)보다 큰 경우, 위험 상황 분석 장치(1000)는 객체의 상태를 낙상 상태로 결정할 수 있다.
일 실시예에 의하여 “기 저장된 낙상을 나타내는 움직임 변화”는 객체가 매칭된 그룹의 세팅 정보에 따라 설정될 수 있다. 일 실시예에 의하여, 낙상을 나타내는 움직임은 사용자의 프로파일 정보에 따라 결정될 수 있다. 예를 들어, 80대 노인의 낙상을 나타내는 넘어지는 속도, 넘어지는 모양, 팔다리의 형태 등의 움직임 변화는 10대 아이의 움직임 변화와 상이하게 설정될 수 있다.
반면, 객체의 움직임 변화와 기 저장된 낙상을 나타내는 움직임 변화 사이의 유사도가 임계 값(예컨대, 90%) 이하인 경우, 위험 상황 분석 장치(1000)는 객체의 상태를 낙상 상태가 아니라고 결정할 수 있다.
예를 들어, 사용자(10)의 움직임 변화가 낙상에 따른 움직임 패턴과 유사한 경우(예컨대, 사용자(10)가 침대에서 바닥으로 떨어진 후 더 이상 움직이지 못하는 경우), 위험 상황 분석 장치(1000)는 사용자(10)의 상태를 낙상 상태로 결정할 수 있다. 하지만, 사용자(10)의 움직임 변화가 낙상에 따른 움직임 패턴과 상이한 경우(예컨대, 객체가 침대에서 내려올 때 미끄러지면서 바닥에 엉덩이와 손바닥이 닿았지만 곧바로 일어나서 걸어간 경우), 위험 상황 분석 장치(1000)는 사용자(10)의 상태를 낙상 상태가 아니라고 결정할 수 있다.
따라서, 보다 객관적으로 촬영된 사용자의 영상을 보호자의 단말로 전송함으로써, 보호자로 하여금 명확하게 사용자의 안전 여부를 판단할 수 있도록 도울 수 있다. 나아가, 촬영된 영상은 추후 증거자료로서 활용될 수 있다.
도 11을 일 실시예에 따른 위험 상황 분석 장치의 상세 구성을 설명하기 위한 도면이다.
도 11에 도시된 바와 같이, 일 실시예에 따른 위험 상황 분석 장치(100)는 제어부(1300), 통신부(1500), 카메라(1610) 및 메모리(1700)를 포함할 수 있다. 그러나, 도 18에 도시된 구성 요소 모두가 위험 상황 분석 장치(100)의 필수 구성 요소인 것은 아니다. 도 11에 도시된 구성 요소보다 많은 구성 요소에 의해 위험 상황 분석 장치(100)가 구현될 수도 있고, 도 11에 도시된 구성 요소보다 적은 구성 요소에 의해 위험 상황 분석 장치(100)가 구현될 수도 있다.
예를 들어, 도 11에 도시된 바와 같이, 일 실시예에 따른 위험 상황 분석 장치(100)는, 제어부(1300), 통신부(1500), 및 메모리(1700) 이외에 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 및 A/V 입력부(1600)를 더 포함할 수도 있다.
예를 들어, 일 실시예에 따른 위험 상황 분석 장치(100)는 제어부(1300), 사용자 입력부(1100) 및 메모리(1700)를 기본적으로 포함할 수 있고, 일 실시예에 따른 위험 상황 분석 장치(100)는 제어부(1300), 통신부(1500), 및 메모리(1700) 이외에 통신부(1500), 출력부(1200), 센싱부(1400), 및 A/V 입력부(1600) 중 적어도 하나를 더 포함하는 위험 상황 분석 장치(100) 일 수 있다.
사용자 입력부(1100)는, 사용자가 위험 상황 분석 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
사용자 입력부(1100)는, 위험 상황 분석 장치(100)에 설치된 모듈의 동작을 제어하는 사용자 입력하기 위한 사용자 입력을 수신할 수 있다.
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다. 일 실시예에서, 출력부(1200)는 오디오, 비디오, 및/또는 진동 형태로 알림 메시지를 출력할 수 있다.
디스플레이부(1210)는 위험 상황 분석 장치(100)에서 처리되는 정보를 표시 출력한다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 위험 상황 분석 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 예를 들어, 음향 출력부(1220)는 이벤트가 발생하였음을 알리기 위한 경보음을 출력할 수 있다.
제어부(1300)는, 통상적으로 위험 상황 분석 장치(100)의 전반적인 동작을 제어한다. 일 개시에 의하여 제어부는 프로세서라고도 칭한다. 예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다. 또한, 제어부(1300)는 메모리(1700)에 저장된 프로그램들을 실행함으로써, 위험 상황 분석 장치(100)의 기능을 수행할 수 있다. 제어부(1300)는 적어도 하나의 프로세서를 구비할 수 있다. 제어부(1300)는 그 기능 및 역할에 따라, 복수의 프로세서들을 포함하거나, 통합된 형태의 하나의 프로세서를 포함할 수 있다. 일 실시예에서, 제어부(1300)는 메모리(1700)에 저장된 적어도 하나의 프로그램을 실행함으로써 알림 메시지를 제공하도록 하는 적어도 하나의 프로세서를 포함할 수 있다.
센싱부(1400)는, 위험 상황 분석 장치(100)의 상태, 사용자의 상태 또는 위험 상황 분석 장치(100) 주변의 상태를 감지하고, 감지된 정보를 제어부(1300)로 전달할 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(RGB sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(1500)는, 위험 상황 분석 장치(100)가 다른 장치(100-2) 및 다른 서버(300)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다. 다른 사용자 장치는 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다.
근거리 통신부(1500)(short-range wireless communication unit)(1510)는, 블루투스 통신부(1500), BLE(Bluetooth Low Energy) 통신부(1500), 근거리 무선 통신부(1500)(Near Field Communication unit), WLAN(와이파이) 통신부(1500), 지그비(Zigbee) 통신부(1500), 적외선(IrDA, infrared Data Association) 통신부(1500), WFD(Wi-Fi Direct) 통신부(1500), UWB(ultra wideband) 통신부(1500), Ant+ 통신부(1500) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1500)(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 위험 상황 분석 장치(100)이 방송 수신부(1530)를 포함하지 않을 수도 있다.
일 실시예에서, 통신부(1500)는 위험 상황 분석 장치(100)에 설치된 카메라로부터 복수의 프레임(frame)들을 포함하는 비디오 시퀀스를 수신할 수 있다. 일 실시예에서, 통신부(1500)는 위험 상황 분석 장치(100)에 설치된 모듈의 동작을 제어하기 위한 명령을 위험 상황 분석 장치(100)에 설치된 모듈에게 전송할 수 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 예를 들어, 카메라(1610)에 의해 촬영된 이미지는 이벤트가 발생하였는지를 결정하기 위한 정보로 활용될 수 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 장치 또는 사용자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)은 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(1700)는, 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 위험 상황 분석 장치(100)로 입력되거나 위험 상황 분석 장치(100)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(1700)는 플래시 메모리(1700) 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(1700)(예를 들어 SD 또는 XD 메모리(1700) 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리(1700), 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 여기서, 복수 개의 모듈들은 하드웨어가 아닌 소프트웨어로서, 기능적으로 동작하는 모듈을 의미하며, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 위험 상황 분석 장치(100)과 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1300)로 전달할 수 있다. 일 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
알림 모듈(1730)은 이벤트의 발생을 알리기 위한 신호를 발생할 수 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (11)

  1. 기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고, 센싱된 정보를 서버로 전송하는 웨어러블 디바이스; 및
    상기 웨어러블 디바이스로부터 수신된 센서 정보에 기초하여 상기 사용자의 상태를 모니터링하되, 상기 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 상기 사용자의 주변 환경을 상기 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고, 상기 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 상기 주변 환경에 대한 위험 레벨을 결정하고, 상기 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송하는 서버; 를 포함하는,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  2. 제 1 항에 있어서,
    상기 웨어러블 디바이스는,
    카메라를 구동하여 상기 사용자의 주변 환경에 대한 적어도 하나의 이미지를 획득하고,
    상기 서버는,
    상기 주변 환경에 포함된 적어도 하나의 이미지를 분석하여, 상기 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 대한 정보를 시간의 흐름에 따라 획득하고, 상기 인물 및 사물의 움직임의 변화에 대한 정보에 대응하는 사용자의 생체 신호의 변화를 분석하여 상기 주변 환경에 대한 위험 레벨을 결정하는,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  3. 제 2 항에 있어서,
    상기 서버는,
    상기 주변 환경에 포함된 인물 및 사물의 움직임의 변화에 따라, 상기 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보 및 활동 정보의 심장 박동수가 임계 값보다 빠르게 변화하는 경우, 상기 주변 환경에 대한 위험 레벨을 상향 조정하는,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  4. 제 1 항에 있어서,
    상기 서버는,
    유사한 활동속성을 갖는 복수의 사용자에 대한 프로파일 정보를 이용하여 상태 그룹을 생성하고, 상기 상태 그룹에 매칭되는 주변 환경의 위험 레벨을 판단하기 위한 세팅 정보를 결정하고, 상기 프로파일 정보는 성별, 연령, 병변, 평소 활동량, 연령별 언어 사용 정보, 보행속도, 활동 패턴, 보폭, 보조기구 장착여부, 스트레스 지수, 정신적 공감 능력, 감정 표현 능력을 포함하고, 상기 세팅 정보는 상기 상태 그룹을 생성하기 위하여 이용된 복수의 사용자에 대한 프로파일 정보의 평균 정보인 것인,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  5. 제 1 항에 있어서,
    상기 서버는,
    상기 결정된 위험 레벨에 따라, 상기 사용자가 위치한 곳의 CCTV로부터 상기 사용자의 모습이 포함된 적어도 하나의 CCTV 이미지를 획득하고, 상기 적어도 하나의 CCTV 이미지를 분석하여, 상기 주변 환경에 대한 위험 레벨을 수정하는,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  6. 제 1 항에 있어서,
    상기 웨어러블 디바이스는,
    상기 사용자의 체온을 측정하는 온도 센서, 상기 사용자의 땀 배출량을 측정하는 습도 센서, 상기 사용자의 피부 특성을 측정하는 반사 광학 센서, 상기 사용자의 심장 박동을 측정하는 심박 센서, 상기 사용자의 혈압을 측정하는 혈압 센서, 상기 사용자의 신체 내의 임피던스 신호를 측정하는 임피던스 센서 및 상기 사용자의 활동을 측정하는 동작 센서 중 적어도 하나를 이용하여 사용자의 생체 신호를 센싱하고,
    상기 서버는,
    상기 사용자의 체온 정보, 땀 배출량 정보, 피부 특성 정보, 심장 박동 정보, 혈압 정보, 임피던스 정보 및 활동 정보 중 적어도 하나를 고려하여, 실시간으로 사용자의 생체 신호 정보를 생성하는,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  7. 제 1 항에 있어서,
    상기 서버는,
    상기 위험 레벨이 1인 경우, 위험 상황에 대한 정보를 포함하는 제 1 알림 정보를 전송하고, 상기 위험 레벨이 2인 경우, 상기 제 1 알림 정보 및 위험 상황에 대한 주변 환경에 대한 이미지를 포함하는 제 2 알림 정보를 전송하고, 상기 위험 레벨이 3인 경우, 상기 보호자의 단말로 제 2 알림 정보 및 위험 상황에 대한 영상을 포함하는 제 3 알림 정보를 전송하고, 상기 위험 레벨이 4인 경우, 상기 제 3 알림 정보를 전송함과 동시에 상기 웨어러블 디바이스와 상기 보호자의 단말 간의 영상 통화를 시도하는,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  8. 제 1 항에 있어서,
    상기 서버는,
    인공지능(AI) 엔진에 의해 구동되는 학습 네트워크 모델에 의해 상기 주변 환경에 대한 위험 레벨을 정하는 동작을 수행하는,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  9. 제 1 항에 있어서,
    상기 사용자는 연령이 0세 이상 10세 이하의 아동으로서,
    상기 복수개의 상태 그룹은 운동 상태 그룹, 수면 상태 그룹, 식사 상태 그룹, 휴식 상태 그룹 및 학습 상태 그룹을 포함하고,
    상기 복수개의 상태 그룹의 세팅 정보는 상기 아동의 활동을 모니터링한 데이터에 기초하여 정해지는 것인,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  10. 제 1 항에 있어서,
    상기 사용자는 연령이 65세 이상의 노인으로서,
    상기 복수개의 상태 그룹은 운동 상태 그룹, 수면 상태 그룹, 식사 상태 그룹, 휴식 상태 그룹 및 학습 상태 그룹을 포함하고,
    상기 복수개의 상태 그룹의 세팅 정보는 상기 노인의 연령 및 병력 정보에 기초하여 학습된 데이터에 기초하여 정해지는 것인,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
  11. 하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서 각각에 의해 실행 가능한 명령어들을 저장하는 하나 이상의 메모리; 를 포함하고,
    상기 하나 이상의 프로세서는,
    상기 명령어들을 실행함으로써,
    기 정해진 주기마다 적어도 하나의 센서를 이용하여 사용자의 생체 신호를 센싱하고,
    상기 사용자의 생체 신호의 변화가 임계값을 벗어나는 경우, 상기 사용자의 주변 환경을 상기 사용자의 활동 속성에 따라 분류된 복수개의 상태 그룹 중 어느 하나의 상태 그룹에 매칭하고,
    상기 매칭된 상태 그룹의 세팅 정보 및 사용자의 생체 신호에 기초하여, 상기 주변 환경에 대한 위험 레벨을 정하고,
    상기 결정된 위험 레벨에 따라 보호자의 단말로 알림 메시지를 전송하는,
    위험 상황을 판단하고 사용자의 안전을 관리하는 시스템.
KR1020190023515A 2019-02-27 2019-02-27 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템 KR20200104759A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190023515A KR20200104759A (ko) 2019-02-27 2019-02-27 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190023515A KR20200104759A (ko) 2019-02-27 2019-02-27 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템

Publications (1)

Publication Number Publication Date
KR20200104759A true KR20200104759A (ko) 2020-09-04

Family

ID=72470645

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190023515A KR20200104759A (ko) 2019-02-27 2019-02-27 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템

Country Status (1)

Country Link
KR (1) KR20200104759A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113066259A (zh) * 2021-03-16 2021-07-02 深圳市沃特沃德信息有限公司 远程单向监听的方法、装置和计算机设备
CN114098719A (zh) * 2021-11-30 2022-03-01 歌尔科技有限公司 一种动作检测方法、装置和穿戴设备
CN114167977A (zh) * 2021-11-09 2022-03-11 上海卓菡科技有限公司 基于可穿戴设备的安全监测方法、装置、电子设备及系统
KR20220126846A (ko) * 2021-03-09 2022-09-19 (주)아와소프트 생체신호 모니터링 시스템
WO2023146198A1 (ko) * 2022-01-25 2023-08-03 삼성전자 주식회사 출력 장치를 제어하는 전자 장치 및 방법
CN117130016A (zh) * 2023-10-26 2023-11-28 深圳市麦微智能电子有限公司 基于北斗卫星的人身安全监测系统、方法、装置及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101677642B1 (ko) 2014-05-27 2016-11-18 엘지전자 주식회사 스마트 밴드 및 이를 이용한 위험 상황 모니터링 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101677642B1 (ko) 2014-05-27 2016-11-18 엘지전자 주식회사 스마트 밴드 및 이를 이용한 위험 상황 모니터링 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220126846A (ko) * 2021-03-09 2022-09-19 (주)아와소프트 생체신호 모니터링 시스템
CN113066259A (zh) * 2021-03-16 2021-07-02 深圳市沃特沃德信息有限公司 远程单向监听的方法、装置和计算机设备
CN114167977A (zh) * 2021-11-09 2022-03-11 上海卓菡科技有限公司 基于可穿戴设备的安全监测方法、装置、电子设备及系统
CN114098719A (zh) * 2021-11-30 2022-03-01 歌尔科技有限公司 一种动作检测方法、装置和穿戴设备
WO2023146198A1 (ko) * 2022-01-25 2023-08-03 삼성전자 주식회사 출력 장치를 제어하는 전자 장치 및 방법
CN117130016A (zh) * 2023-10-26 2023-11-28 深圳市麦微智能电子有限公司 基于北斗卫星的人身安全监测系统、方法、装置及介质
CN117130016B (zh) * 2023-10-26 2024-02-06 深圳市麦微智能电子有限公司 基于北斗卫星的人身安全监测系统、方法、装置及介质

Similar Documents

Publication Publication Date Title
KR20200104759A (ko) 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템
US20220101710A1 (en) Method and system to improve accuracy of fall detection using multi-sensor fusion
El-Bendary et al. Fall detection and prevention for the elderly: A review of trends and challenges
US11024142B2 (en) Event detector for issuing a notification responsive to occurrence of an event
KR20200104758A (ko) 위험 상황을 판단하고, 사용자의 안전을 관리하는 방법 및 장치
US10319209B2 (en) Method and system for motion analysis and fall prevention
US10602964B2 (en) Location, activity, and health compliance monitoring using multidimensional context analysis
US11382511B2 (en) Method and system to reduce infrastructure costs with simplified indoor location and reliable communications
Abbate et al. A smartphone-based fall detection system
US20220054092A1 (en) Eyewear with health assessment, risk monitoring and recovery assistance
CN112842258A (zh) 用于事件预防和预测的方法、处理器和计算机可读介质
US20180008191A1 (en) Pain management wearable device
Estudillo-Valderrama et al. Design and implementation of a distributed fall detection system—personal server
Rastogi et al. A systematic review on machine learning for fall detection system
US20190228633A1 (en) Fall Warning For A User
US20210052198A1 (en) System and method of detecting falls of a subject using a wearable sensor
KR20160148302A (ko) 주변 디바이스의 정보를 제공하는 시스템 및 방법
CN109152557A (zh) 用于短暂性脑缺血发作的早期检测的系统和方法
Fallahzadeh et al. Toward personalized and context-aware prompting for smartphone-based intervention
KR20200056660A (ko) 얼굴 내 미세움직임 기반 통증 모니터링 방법 및 시스템
TWI772762B (zh) 照護系統與自動照護方法
KR102171742B1 (ko) 노인 케어 시스템 및 그 방법
KR20120121074A (ko) 귓불 착용형 운전자 졸음 방지 시스템
US20230389880A1 (en) Non-obtrusive gait monitoring methods and systems for reducing risk of falling
KR102188076B1 (ko) 노년층 피보호자를 모니터링하기 위한 IoT 기술을 이용하는 방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal