KR102558653B1 - 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법 - Google Patents

스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법 Download PDF

Info

Publication number
KR102558653B1
KR102558653B1 KR1020220076587A KR20220076587A KR102558653B1 KR 102558653 B1 KR102558653 B1 KR 102558653B1 KR 1020220076587 A KR1020220076587 A KR 1020220076587A KR 20220076587 A KR20220076587 A KR 20220076587A KR 102558653 B1 KR102558653 B1 KR 102558653B1
Authority
KR
South Korea
Prior art keywords
user
monitored
data
tag
situation
Prior art date
Application number
KR1020220076587A
Other languages
English (en)
Inventor
이세훈
Original Assignee
주식회사 자딘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 자딘 filed Critical 주식회사 자딘
Priority to KR1020220076587A priority Critical patent/KR102558653B1/ko
Application granted granted Critical
Publication of KR102558653B1 publication Critical patent/KR102558653B1/ko

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0453Sensor means for detecting worn on the body to detect health condition by physiological monitoring, e.g. electrocardiogram, temperature, breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F13/00Bandages or dressings; Absorbent pads
    • A61F13/15Absorbent pads, e.g. sanitary towels, swabs or tampons for external or internal application to the body; Supporting or fastening means therefor; Tampon applicators
    • A61F13/42Absorbent pads, e.g. sanitary towels, swabs or tampons for external or internal application to the body; Supporting or fastening means therefor; Tampon applicators with wetness indicator or alarm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F13/00Bandages or dressings; Absorbent pads
    • A61F13/15Absorbent pads, e.g. sanitary towels, swabs or tampons for external or internal application to the body; Supporting or fastening means therefor; Tampon applicators
    • A61F13/45Absorbent pads, e.g. sanitary towels, swabs or tampons for external or internal application to the body; Supporting or fastening means therefor; Tampon applicators characterised by the shape
    • A61F13/49Absorbent articles specially adapted to be worn around the waist, e.g. diapers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission

Landscapes

  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Emergency Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Vascular Medicine (AREA)
  • Tourism & Hospitality (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Cardiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Child & Adolescent Psychology (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Biophysics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명의 일 실시예에 따른 스마트 케어 응급 안전 알림 시스템의 실행 방법은 감시 대상 사용자의 거주 환경 내에 위치하는 영상 촬영 기기가 감지 대상 사용자를 촬영하여 촬영 데이터를 생성하는 단계, 화재 경보기가 상기 감시 대상 사용자의 거주 환경 내에 위치하여 화재를 감지하는지 여부에 따라 화재 알림 소리를 발생하는 단계, 낙상 감지 장치가 상기 감시 대상 사용자의 거주 환경 내에 위치하여 상기 감시 대상 사용자의 낙상을 감지하는지 여부에 따라 낙상 알림 소리를 발생하는 단계, 상기 감시 대상 사용자의 신체에 착용되는 웨어러블 기기의 내측에 형성되어 있는 생체 센서가 상기 감시 대상 사용자의 생체 정보를 측정하여 제공하는 단계 및 응급 안전 모니터링 서버가 상기 영상 촬영 기기로부터 수신된 감시 대상 사용자에 대한 촬영 데이터, 화재 경보기의 작동 여부, 상기 낙상 감지 장치의 작동 여부 및 생체 정보를 기초로 상기 감시 대상 사용자에게 위험 상황이 발생하였는지 감시 대상 사용자를 모니터링하는 단계를 포함한다.

Description

스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법{SMART CARE NOTIFICATION AND METHOD PERFORMING THEOF}
본 발명은 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법에 관한 것이다.
최근 인구의 고령화와 핵가족화에 따라 보호가 필요한 독거노인의 위급상황 발생시 신속한 대처 등 사회 안전망 구축을 위한 방안으로 지난 2011년도부터 홀로 사는 독거노인과 독거노인 생활관리사를 연계해 주 1회 독거노인 가정을 방문하여 일상생활을 지원하고 주 2회 이상 양방향 화상통화가 가능한 안심폰으로 실시간 독거노인들의 안전을 확인하고 말벗서비스를 제공하기 위한 노인돌봄서비스를 시행하고 있다.
그러나, 독거노인의 경우 부피가 큰 안심폰을 항시 휴대하는 것에 불편함을 느끼며 수시로 충전해야 하기 때문에 대부분 가정 내에 비치시키는 형태로 이용하고 있는데, 안심폰을 휴대하지 않은 상태에서 안전사고가 발생하는 경우 즉각적인 조치를 받기가 제한되며, 독거노인 생활관리사가 독거노인의 안부확인을 위해 수차례 통화를 시도해야 하기 때문에 독거노인 생활관리사의 업무시간이 불필요하게 낭비되는 문제점이 있었다.
또한, 독거노인 생활관리사는 정서지원, 생활교육, 서비스연계, 댁내시스템 점검 및 관리, 집안청소 등 상당히 많은 일을 지원하고 있음에도 불구하고 약 월60만원의 저임금으로 인해 인력이 부족하여 독거노인 생활관리사 1인이 25명의 독거노인을 관리해야 하는 등 업무가 과중한 문제점이 있었다.
더욱이, 독거노인을 방문한 독거노인 생활관리사는 식사 및 세면 도움, 옷갈아입히기, 신체기능유지 및 증진, 화장실이용 도움, 외출동행 및 기타 등 방문 간에 수행한 세부 서비스의 항목을 기록하고 각 세부 서비스 항목 별 시작시간 및 종료시간, 대상자 및 업무상 특이사항을 방문서비스 제공기록지에 수기로 기록하여 결과보고해야 하기 때문에 업무과중이 더욱 심화되는 문제점이 있었다.
본 발명은 재실 중인 독거노인으로부터 나오는 생체 신호를 원격으로 감지하여 독거노인이 위급상황인지를 정밀하고 신속하게 판단할 수 있도록 하는 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 수면시와 같은 움직임이 거의 없는 상황에서도 위급상황이라고 판단되면 즉각적으로 관리자 단말기에 연락을 취하도록 함으로써 소중한 생명을 구할 수 있도록 하는 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 프라이버시가 요청된 영상 데이터에 대해서 3차원 영상 데이터를 통해 표시함으로써 감시 대상 사용자의 개인 정보를 보호하면서 감시 대상 사용자의 개인 정보를 관찰할 수 있도록 하는 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 영상 데이터를 분석하여 화재 감지, 낙상 감지 및 응급 상황 감지를 실행하여 전문가 단말에 제공함으로써 감시 대상 사용자를 보다 정밀하게 관찰할 수 있도록 하는 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법을 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
이러한 목적을 달성하기 위한 스마트 케어 응급 안전 알림 시스템은 감시 대상 사용자의 거주 환경 내에 위치하여 감지 대상 사용자를 촬영하여 촬영 데이터를 생성하는 영상 촬영 기기, 상기 감시 대상 사용자의 거주 환경 내에 위치하여 화재를 감지하여 화재알림 소리를 발생하는 화재 경보기, 상기 감시 대상 사용자의 거주 환경 내에 위치하여 상기 감시 대상 사용자의 낙상을 감지하여 낙상 알림 소리를 발생하는 낙상 감지 장치, 상기 감시 대상 사용자의 신체에 착용되는 웨어러블 기기의 내측에 형성되어 상기 감시 대상 사용자의 생체 정보를 측정하는 생체 센서 및 상기 영상 촬영 기기로부터 수신된 감시 대상 사용자에 대한 촬영 데이터, 화재 경보기의 작동 여부, 상기 낙상 감지 장치의 작동 여부 및 생체 정보를 기초로 상기 감시 대상 사용자에게 위험 상황이 발생하였는지 감시 대상 사용자를 모니터링하는 응급 안전 모니터링 서버를 포함한다.
또한, 이러한 목적을 달성하기 위한 스마트 케어 응급 안전 알림 시스템의 실행 방법은 감시 대상 사용자의 거주 환경 내에 위치하는 영상 촬영 기기가 감지 대상 사용자를 촬영하여 촬영 데이터를 생성하는 단계, 화재 경보기가 상기 감시 대상 사용자의 거주 환경 내에 위치하여 화재를 감지하는지 여부에 따라 화재알림 소리를 발생하는 단계, 낙상 감지 장치가 상기 감시 대상 사용자의 거주 환경 내에 위치하여 상기 감시 대상 사용자의 낙상을 감지하는지 여부에 따라 낙상 알림 소리를 발생하는 단계, 상기 감시 대상 사용자의 신체에 착용되는 웨어러블 기기의 내측에 형성되어 있는 생체 센서가 상기 감시 대상 사용자의 생체 정보를 측정하여 제공하는 단계 및 응급 안전 모니터링 서버가 상기 영상 촬영 기기로부터 수신된 감시 대상 사용자에 대한 촬영 데이터, 화재 경보기의 작동 여부, 상기 낙상 감지 장치의 작동 여부 및 생체 정보를 기초로 상기 감시 대상 사용자에게 위험 상황이 발생하였는지 감시 대상 사용자를 모니터링하는 단계를 포함한다.
전술한 바와 같은 본 발명에 의하면, 재실 중인 독거노인으로부터 나오는 생체 신호를 원격으로 감지하여 독거노인이 위급상황인지를 정밀하고 신속하게 판단할 수 있다는 장점이 있다.
또한 본 발명에 의하면, 수면시와 같은 움직임이 거의 없는 상황에서도 위급상황이라고 판단되면 즉각적으로 관리자 단말기에 연락을 취하도록 함으로써 소중한 생명을 구할 수 있다는 장점이 있다.
또한 본 발명에 의하면, 프라이버시가 요청된 영상 데이터에 대해서 3차원 영상 데이터를 통해 표시함으로써 감시 대상 사용자의 개인 정보를 보호하면서 감시 대상 사용자의 개인 정보를 관찰할 수 있다는 장점이 있다.
또한 본 발명에 의하면, 영상 데이터를 분석하여 화재 감지, 낙상 감지 및 응급 상황 감지를 실행하여 전문가 단말에 제공함으로써 감시 대상 사용자를 보다 정밀하게 관찰할 수 있다는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 스마트 케어 응급 안전 알림 시스템을 설명하기 위한 네트워크 구성도이다.
도 2는 본 발명의 일 실시예에 따른 응급 안전 모니터링 서버의 내부 구조를 설명하기 위한 블록도이다.
도 3은 본 발명에 따른 스마트 케어 응급 안전 알림 방법의 일 실시예를 설명하기 위한 흐름도이다.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
도 1은 본 발명의 일 실시예에 따른 스마트 케어 응급 안전 알림 시스템을 설명하기 위한 네트워크 구성도이다.
도 1을 참조하면, 스마트 케어 응급 안전 알림 시스템은 영상 촬영 기기(100), 응급 안전 모니터링 서버(200), 화재 경보기(300), 낙상 감지 장치(400), 전문가 단말(500), 독거 노인 단말(600) 및 생체 센서(700)를 포함한다.
영상 촬영 기기(100)는 감시 대상 사용자의 거주 환경 내에 위치하여 감지 대상 사용자를 촬영하여 촬영 데이터를 생성하는 장치이다. 영상 촬영 기기(100)에 의해 생성된 촬영 데이터는 영상 데이터 및 음성 데이터를 포함한다. 따라서, 응급 안전 모니터링 서버(200)는 영상 데이터 및 음성 데이터를 분석하여 감시 대상 사용자를 모니터링할 수 있다.
응급 안전 모니터링 서버(200)는 영상 촬영 기기(100)로부터 수신된 감시 대상 사용자에 대한 영상 데이터를 이용하여 위험 패턴을 추출하고, 미리 생성된 위험 패턴 빅데이터를 기초로 위험 상황이 발생하였는지 감시 대상 사용자를 모니터링하는 장치이다.
이를 위해, 응급 안전 모니터링 서버(200)는 영상 데이터 및 음성 데이터 각각을 전문가 단말(500)에 제공하고, 전문가 단말(500)에 의한 행동 패턴 분석 결과를 수신한다.
먼저, 응급 안전 모니터링 서버(200)는 영상 데이터 및 음성 데이터 중 일부 영상 데이터 및 일부 음성 데이터 각각을 추출하여 전문가 단말(500)에 제공한다. 이와 같은 이유는, 영상 데이터 및 음성 데이터 각각의 용량은 매우 크기 때문에 영유아 전문가가 많은 양의 데이터를 전부 확인하기 어렵기 때문이다.
이를 위해, 응급 안전 모니터링 서버(200)는 감시 대상 사용자의 식별자 별로 영상 데이터 및 음성 데이터를 분할한 후 분할된 영상 데이터 및 음성 데이터를 전문가 단말(500)에 제공하며, 추후에 전문가 단말(500)로부터 수신된 모니터링 결과가 빅데이터화된 경우 감시 대상 사용자 식별자 별로 영상 데이터 및 음성 데이터를 분할한 후 전문가 단말(500)에 제공하지 않고 내부에서 분석을 처리한다.
먼저, 응급 안전 모니터링 서버(200)는 영상 데이터 및 음성 데이터를 분석하여 상황 종류 별로 영상 데이터 및 음성 데이터를 분할한 후 분할된 영상 데이터 및 음성 데이터 각각에 상황 태그를 할당한다. 이때, 상황 태그는 낙상 감지 태그, 화재 감지 태그, 응급 상황 감지 태그 등을 포함한다.
일 실시예에서, 응급 안전 모니터링 서버(200)는 영상 데이터 및 음성 데이터를 분석하여 화재 관련 단어가 있거나 화재 경보기(300)가 작동하는 경우 화재 감지 태그를 할당한다.
다른 일 실시예에서, 응급 안전 모니터링 서버(200)는 영상 데이터 및 음성 데이터를 분석하여 낙상 발생 단어(예를 들어, 쿵)가 있거나 낙상 감지 장치(400)가 작동하는 경우 낙상 발생 가능성이 있는 경우 낙상 감지 태그를 할당한다.
또 다른 일 실시예에서, 응급 안전 모니터링 서버(200)는 영상 데이터 및 음성 데이터를 분석하여 해당 시점에 프라이버시 보호 녹화 요청이 되어 있으면 프라이버시 보호 태그를 할당할 수 있다.
그런 다음, 응급 안전 모니터링 서버(200)는 상황 태그가 각각 할당된 영상 데이터를 이용하여 감시 대상 사용자를 모니터링한다. 이때, 분석 대상 종류는 감시 대상 사용자가 응급 호출기를 누르는지 여부, 낙상이 발생되는지 여부, 화재가 발생하였는지 여부 등을 포함할 수 있다.
상기와 같이, 응급 안전 모니터링 서버(200)는 전문가 단말(500)로부터 수신된 모니터링 결과를 빅데이터화하여 저장함으로써 추후에는 전문가 단말(500)과의 통신 없이 내부에서 미리 구축된 빅데이터를 이용하여 모니터링 정보를 생성하여 전문가 단말(500)에 제공한다.
먼저, 응급 안전 모니터링 서버(200)는 화재 감지 태그가 할당된 영상 데이터 또는 간식 시간 태그가 할당된 영상 데이터와 함께 화재 감지 감지 센서로부터 화재 감지 정보가 수신되었는지 여부에 따라 화재가 발생하였는지 여부를 결정한다.
일 실시예에서, 응급 안전 모니터링 서버(200)는 화재 감지 태그가 할당된 영상 데이터를 분석하여 픽셀 중 화재와 관련된 픽셀의 색(즉, 회색, 빨간색 등)이 존재하는 픽셀의 수를 결정하고, 전체 픽셀의 수 대비 화재와 관련된 픽셀의 수가 차지하는 비율이 특정 비율 이상이고 이러한 시점에 해당하는 음성 데이터에서 화재 경보기(300)의 알림 소리가 발생되면 화재가 발생하였다고 판단할 수 있다.
다른 일 실시예에서, 응급 안전 모니터링 서버(200)는 화재 감지 태그가 할당된 영상 데이터를 분석하여 픽셀 중 화재와 관련된 픽셀의 색(즉, 회색, 빨간색 등)이 존재하는 픽셀의 수를 결정하고, 전체 픽셀의 수 대비 화재와 관련된 픽셀의 수가 차지하는 비율이 특정 비율 이하이고 이러한 시점에 해당하는 음성 데이터에서 화재 경보기(300)의 알림 소리가 발생되면 화재 경보기(300)에 이상이 필요하다고 판단할 수 있다.
또한, 응급 안전 모니터링 서버(200)는 낙상 감지 태그가 할당된 영상 데이터를 분석하여 감시 대상 사용자의 위치 및 미리 결정된 감지 대상 사용자의 주거 내부 환경 도면과 비교하여 낙상이 발생되는지 여부를 판단할 수 있다.
일 실시예에서, 응급 안전 모니터링 서버(200)는 낙상 감지 태그가 할당된 영상 데이터를 분석하여 감시 대상 사용자의 위치가 가구 위에 해당하면 감시 대상 사용자의 위치부터 가구의 둘레까지의 거리를 산출하고 거리가 특정 거리 이하이면 낙상 발생 가능으로 결정할 수 있다.
상기의 실시예에서, 응급 안전 모니터링 서버(200)는 낙생 발생 가능한 시점의 음성 데이터에서 낙상 감지 장치(400)의 알림 소리가 발생되면 낙상이 발생하였다고 판단할 수 있다.
또한, 응급 안전 모니터링 서버(200)는 프라이버시 보호 태그가 할당된 영상 데이터를 이용하여 감지 대상 사용자의 3차원 포즈 포즈 추정 방법을 통해 3차원 영상 데이터를 생성한 후 3차원 영상 데이터로 표시한다.
먼저, 응급 안전 모니터링 서버(200)는 영상 촬영 기기(100)에 의해 촬영된 영상 데이터로부터 적어도 하나의 영역(region)을 추출한다.
예를 들어, 응급 안전 모니터링 서버(200)는 영상의 픽셀 강도(light intensity)의 1차 미분 결과에 해당하는 그래디언트(gradient) 변화가 미리 설정된 기준을 초과하는 부분(예를 들어, 에지(edge))을 포함하는 적어도 하나의 영역을 검색하여 추출할 수 있다. 응급 안전 모니터링 서버(200)는 필요에 따라 영상의 픽셀 강도에 대한 1차 미분 결과 및/또는 2차 미분 결과를 활용하여 에지를 검출할 수도 있다.
그런 다음, 응급 안전 모니터링 서버(200)는 영상 촬영 기기(100)에 의해 촬영된 영상으로부터 추출된 2차원의 특징점들(feature points)에 기반하여 추적(tracking)된 영상 촬영 기기(100)의 포즈(pose) 정보를 수신한다. 이때, 영상 촬영 기기(100)의 포즈 정보는 예를 들어, 2차 영상 데이터에 대응되는 키 프레임(key frame) 및 제1 위치에서 제2 위치로의 영상 촬영 기기(100)의 이동에 따라 변화되는 포즈 변화량 중 적어도 하나를 포함할 수 있다.
여기서, "키 프레임"은 일반 프레임들 중 2차원 특징점이 추출되고, 두 프레임 사이에 특정 수 이상의 매칭이 되어 영상 간 상대적 위치를 결정할 수 있는 수준이 되는 두 프레임들에 해당한다.
예를 들어, 특징점의 위치 추출, 기술자(descriptor) 추출, 기술자를 이용한 특징점 매칭, 카메라의 포즈 계산 등에 많은 연산 시간이 소요된다. 따라서, 매 영상마다 해당 과정을 수행하기는 어려우므로 일 실시예에서는 키 프레임을 이용하여 상술한 과정을 수행할 수 있다.
이때, 촬영된 영상 데이터로부터 추출된 2차원의 특징점들은 성긴(sparse) 특징점들에 해당하며, 카메라의 위치 및 영상의 장면에 대한 기하 정보를 산출하는 특징 기반의 VSLAM 방법에 의해 추출된 것일 수 있다.
특징 기반의 VSLAM 방법은 추출된 영상 데이터의 특징점들에 기초하여 영상 데이터에 대응하는 프레임들 간의 6 자유도 이동 정보를 추적할 수 있다. 카메라의 포즈 정보는 예를 들어, 6 자유도 포즈 정보를 포함할 수 있다.
그 후, 응급 안전 모니터링 서버(200)는 적어도 하나의 영역 및 영상 촬영 기기(100)의 포즈 정보에 기초하여 영상 데이터의 제1 깊이 정보를 추정(estimate)한다.
예를 들어, 응급 안전 모니터링 서버(200)는 영상 촬영 기기(100)의 포즈 정보를 기초로, 제1 위치에서 제2 위치로의 영상 촬영 기기(100)의 이동에 따라 영상에 대응되는 키 프레임을 새로운 키 프레임으로 교체(replace)할 지 또는 키 프레임을 재정의(refine)할 지 여부를 결정할 수 있다. 모델링 장치는 상기 결정에 기초하여, 새로운 키 프레임에 대한 깊이 정보 또는 재정의된 키 프레임에 대한 깊이 정보 중 어느 하나의 깊이 정보를 영상의 제1 깊이 정보로 추정할 수 있다.
응급 안전 모니터링 서버(200)는 제1 깊이 정보에 기초하여 영상에 대응한 맵(map)의 모델링을 위한 3차원의 포인트 클라우드(point clouds)를 생성한다. 영상에 대응한 맵은 키 프레임들의 포즈 그래프(pose graph)에 의해 표현될 수 있다. 키 프레임들은 영상, 인버스 깊이 맵(inverse depth map), 및 인버스 깊이 맵의 분산(variance)에 의해 구성될 수 있다. 단안 SLAM(monocular SLAM)에서 깊이 불확실성(depth uncertainty)이 가우시안(Gaussian)에 의해 잘 모델링되지 않는다.
이와 같은 이유로, 고전적인 X,Y,Z 표현을 대신하여 역 깊이(inverse depth)를 사용하여 미리 결정된 캐릭터 및 식별자(예를 들어, 운동자 식별자 등)를 맵핑하여 표현한다. "인버스 깊이 맵"은 이와 같이 역 깊이를 사용하여 특징을 맵핑한 맵에 해당할 수 있다.
또한, 인버스 깊이 맵 및 인버스 깊이 맵의 분산은 픽셀들의 서브 셋(sub set)에 대하여 정의될 수 있다. 인버스 깊이 맵 및 인버스 깊이 맵의 분산은 영상에서 픽셀 강도의 그래디언트(Gradient) 변화가 미리 설정된 기준을 초과하는 모든 영역들에 대응한 것일 수 있다.
3차원의 포인트 클라우드는 예를 들어, 3차원 좌표를 가지고 있는 포인트들, 다시 말해 3차원 포인트들을 포함할 수 있으며, 포인트 클라우드 내의 3차원 포인트들은 불규칙하게 구성될 수 있다.
상기와 같이, 응급 안전 모니터링 서버(200)는 영상 데이터에 대해서 3차원 영상 데이터를 통해 표시함으로써 감시 대상 사용자의 개인 정보를 보호하면서 감시 대상 사용자의 개인 정보를 관찰할 수 있다는 장점이 있다.
또한, 응급 안전 모니터링 서버(200)는 스마트 케어 응급 안전 알림 시스템이 병원, 요양원 등에 설치되는 경우, 호실 별, 층별 및 환자 별로 센싱 정보를 그룹핑하여 관리한다.
독거 노인 단말(600)은 노인돌봄서비스의 일환으로 보호가 필요한 독거노인에게 제공되는 통신단말로서, 독거노인이 휴대하거나 상기 독거노인의 거주지에 설치되고, 119 호출버튼이 조작되면 119구급센터의 센터단말과 자동으로 통화연결되며 관리사 연결버튼이 조작되면 상기 관리사단말(110)과 자동으로 통화연결됨으로써, 안전사고 발생시 즉각적으로 119구급센터에 도움을 요청할 수 있으며, 말벚이 필요한 경우 버튼을 한번 누르는 것만으로 독거노인 생활관리사와 전화통화가 가능할 수 있다.
여기서, 상기 독거 노인 단말(600)은 상기 생체 센서(700)과 무선연결되어 감지된 생체 정보를 수신하고 수신된 생체 정보의 감지값이 설정된 응급알림 임계값과 대응하게 되면 전문가 단말(500)로 응급알림 메시지가 출력되거나 자동으로 통화연결됨으로써, 기절이나 부상 등과 같이 거동이 불편한 건강이상 상태가 발생한 경우 상기 전문가 단말(500)을 휴대하지 않더라도 119구급센터나 독거노인 생활관리사에게 응급발생상태를 알릴 수 있다.
생체 센서(700)는 웨어러블 기기로 구현되며 감시 대상 사용자의 생체 정보를 수집한다.
일 실시예에서, 생체 센서(700)는 목걸이형 또는 손목밴드형으로 구현되어 감시 대상 사용자의 맥박, 혈압, 호흡 등과 같은 생체 정보를 센싱할 수 있다.
다른 일 실시예에서, 생체 센서(700)는 감시 대상 사용자의 기저귀에 형성되어 기저귀가 젖었는지 여부를 센싱할 수 있다.
응급 안전 모니터링 서버(200)가 생체 센서(700)으로부터 기저귀의 수분 임계값을 초과한 생체 정보를 수신한 경우, 기저귀 교체 알림 메시지를 전문가 단말(500)로 출력할 수 있다. 예를 들어, 응급 안전 모니터링 서버(200)은 주기적으로 생체 센서(700)로부터 기저귀의 수분 정보가 포함된 생체 정보를 수신할 수 있고, 당해 기저귀의 교체 시점을 예측할 수 있다. 이를 위해, 응급 안전 모니터링 서버(200)은 기저귀의 사용자의 생체 정보를 이용할 수 있으며, 예측되는 교체 시점을 전문가(500)에 알릴 수 있다.
도 2는 본 발명의 일 실시예에 따른 응급 안전 모니터링 서버의 내부 구조를 설명하기 위한 블록도이다.
도 2를 참조하면, 응급 안전 모니터링 서버(200)는 촬영 데이터 분할부(210), 태그 할당부(220), 모니터링 정보 생성부(230) 및 3차원 모델링부(240)를 포함한다.
촬영 데이터 분할부(210)는 감시 대상 사용자의 식별자 별로 영상 데이터 및 음성 데이터를 분할한 후 분할된 영상 데이터 및 음성 데이터를 전문가 단말(500)에 제공하며, 추후에 전문가 단말(500)로부터 수신된 모니터링 결과가 빅데이터화된 경우 감시 대상 사용자 식별자 별로 영상 데이터 및 음성 데이터를 분할한 후 전문가 단말(500)에 제공하지 않고 내부에서 분석을 처리한다.
태그 할당부(220)는 촬영 데이터 분할부(210)에 의해 촬영된 영상 데이터 및 음성 데이터를 분석하여 상황 종류 별로 영상 데이터 및 음성 데이터를 분할한 후 분할된 영상 데이터 및 음성 데이터 각각에 상황 태그를 할당한다. 이때, 상황 태그는 낙상 감지 태그, 화재 감지 태그, 응급 상황 감지 태그 등을 포함한다.
일 실시예에서, 태그 할당부(220)는 영상 데이터 및 음성 데이터를 분석하여 화재 관련 단어가 있거나 화재 경보기(300)가 작동하는 경우 화재 감지 태그를 할당한다.
다른 일 실시예에서, 태그 할당부(220)는 영상 데이터 및 음성 데이터를 분석하여 낙상 발생 단어(예를 들어, 쿵)가 있거나 낙상 감지 장치(400)가 작동하는 경우 낙상 발생 가능성이 있는 경우 낙상 감지 태그를 할당한다.
또 다른 일 실시예에서, 태그 할당부(220)는 영상 데이터 및 음성 데이터를 분석하여 해당 시점에 프라이버시 보호 녹화 요청이 되어 있으면 프라이버시 보호 태그를 할당할 수 있다.
모니터링 정보 생성부(230)는 태그 할당부(220)에 의해 상황 태그가 각각 할당된 영상 데이터를 이용하여 감시 대상 사용자를 모니터링한다. 이때, 분석 대상 종류는 감시 대상 사용자가 응급 호출기를 누르는지 여부, 낙상이 발생되는지 여부, 화재가 발생하였는지 여부 등을 포함할 수 있다.
상기와 같이, 모니터링 정보 생성부(230)는 전문가 단말(500)로부터 수신된 모니터링 결과를 빅데이터화하여 저장함으로써 추후에는 전문가 단말(500)과의 통신 없이 내부에서 미리 구축된 빅데이터를 이용하여 모니터링 정보를 생성하여 전문가 단말(500)에 제공한다.
먼저, 모니터링 정보 생성부(230)는 화재 감지 태그가 할당된 영상 데이터 또는 간식 시간 태그가 할당된 영상 데이터와 함께 화재 감지 센서로부터 화재 감지 정보가 수신되었는지 여부에 따라 화재가 발생하였는지 여부를 결정한다.
일 실시예에서, 모니터링 정보 생성부(230)는 화재 감지 태그가 할당된 영상 데이터를 분석하여 픽셀 중 화재와 관련된 픽셀의 색(즉, 회색, 빨간색 등)이 존재하는 픽셀의 수를 결정하고, 전체 픽셀의 수 대비 화재와 관련된 픽셀의 수가 차지하는 비율이 특정 비율 이상이고 이러한 시점에 해당하는 음성 데이터에서 화재 경보기(300)의 알림 소리가 발생되면 화재가 발생하였다고 판단할 수 있다.
다른 일 실시예에서, 모니터링 정보 생성부(230)는 화재 감지 태그가 할당된 영상 데이터를 분석하여 픽셀 중 화재와 관련된 픽셀의 색(즉, 회색, 빨간색 등)이 존재하는 픽셀의 수를 결정하고, 전체 픽셀의 수 대비 화재와 관련된 픽셀의 수가 차지하는 비율이 특정 비율 이하이고 이러한 시점에 해당하는 음성 데이터에서 화재 경보기(300)의 알림 소리가 발생되면 화재 경보기(300)에 이상이 필요하다고 판단할 수 있다.
또한, 모니터링 정보 생성부(230)는 낙상 감지 태그가 할당된 영상 데이터를 분석하여 감시 대상 사용자의 위치 및 미리 결정된 감지 대상 사용자의 주거 내부 환경 도면과 비교하여 낙상이 발생되는지 여부를 판단할 수 있다.
일 실시예에서, 모니터링 정보 생성부(230)는 낙상 감지 태그가 할당된 영상 데이터를 분석하여 감시 대상 사용자의 위치가 가구 위에 해당하면 감시 대상 사용자의 위치부터 가구의 둘레까지의 거리를 산출하고 거리가 특정 거리 이하이면 낙상 발생 가능으로 결정할 수 있다.
상기의 실시예에서, 모니터링 정보 생성부(230)는 낙생 발생 가능한 시점의 음성 데이터에서 낙상 감지 장치(400)의 알림 소리가 발생되면 낙상이 발생하였다고 판단할 수 있다.
또한, 모니터링 정보 생성부(230)는 프라이버시 보호 태그가 할당된 영상 데이터인 경우, 3차원 모델링부(240)를 통해 생성된 3차원 영상 데이터를 표시한다.
먼저, 3차원 모델링부(240)는 영상 촬영 기기(100)에 의해 촬영된 영상 데이터로부터 적어도 하나의 영역(region)을 추출한다.
예를 들어, 3차원 모델링부(240)는 영상의 픽셀 강도(light intensity)의 1차 미분 결과에 해당하는 그래디언트(gradient) 변화가 미리 설정된 기준을 초과하는 부분(예를 들어, 에지(edge))을 포함하는 적어도 하나의 영역을 검색하여 추출할 수 있다. 3차원 모델링 장치(200)는 필요에 따라 영상의 픽셀 강도에 대한 1차 미분 결과 및/또는 2차 미분 결과를 활용하여 에지를 검출할 수도 있다.
그런 다음, 3차원 모델링부(240)는 영상 촬영 기기(100)에 의해 촬영된 영상으로부터 추출된 2차원의 특징점들(feature points)에 기반하여 추적(tracking)된 영상 촬영 기기(100)의 포즈(pose) 정보를 수신한다. 이때, 영상 촬영 기기(100)의 포즈 정보는 예를 들어, 2차 영상 데이터에 대응되는 키 프레임(key frame) 및 제1 위치에서 제2 위치로의 영상 촬영 기기(100)의 이동에 따라 변화되는 포즈 변화량 중 적어도 하나를 포함할 수 있다.
여기서, "키 프레임"은 일반 프레임들 중 2차원 특징점이 추출되고, 두 프레임 사이에 특정 수 이상의 매칭이 되어 영상 간 상대적 위치를 결정할 수 있는 수준이 되는 두 프레임들에 해당한다.
예를 들어, 특징점의 위치 추출, 기술자(descriptor) 추출, 기술자를 이용한 특징점 매칭, 카메라의 포즈 계산 등에 많은 연산 시간이 소요된다. 따라서, 매 영상마다 해당 과정을 수행하기는 어려우므로 일 실시예에서는 키 프레임을 이용하여 상술한 과정을 수행할 수 있다.
이때, 촬영된 영상 데이터로부터 추출된 2차원의 특징점들은 성긴(sparse) 특징점들에 해당하며, 카메라의 위치 및 영상의 장면에 대한 기하 정보를 산출하는 특징 기반의 VSLAM 방법에 의해 추출된 것일 수 있다.
특징 기반의 VSLAM 방법은 추출된 영상 데이터의 특징점들에 기초하여 영상 데이터에 대응하는 프레임들 간의 6 자유도 이동 정보를 추적할 수 있다. 카메라의 포즈 정보는 예를 들어, 6 자유도 포즈 정보를 포함할 수 있다.
그 후, 3차원 모델링부(240)는 적어도 하나의 영역 및 영상 촬영 기기(100)의 포즈 정보에 기초하여 영상 데이터의 제1 깊이 정보를 추정(estimate)한다.
예를 들어, 3차원 모델링부(240)는 영상 촬영 기기(100)의 포즈 정보를 기초로, 제1 위치에서 제2 위치로의 영상 촬영 기기(100)의 이동에 따라 영상에 대응되는 키 프레임을 새로운 키 프레임으로 교체(replace)할 지 또는 키 프레임을 재정의(refine)할 지 여부를 결정할 수 있다. 모델링 장치는 상기 결정에 기초하여, 새로운 키 프레임에 대한 깊이 정보 또는 재정의된 키 프레임에 대한 깊이 정보 중 어느 하나의 깊이 정보를 영상의 제1 깊이 정보로 추정할 수 있다.
3차원 모델링부(240)는 제1 깊이 정보에 기초하여 영상에 대응한 맵(map)의 모델링을 위한 3차원의 포인트 클라우드(point clouds)를 생성한다. 영상에 대응한 맵은 키 프레임들의 포즈 그래프(pose graph)에 의해 표현될 수 있다. 키 프레임들은 영상, 인버스 깊이 맵(inverse depth map), 및 인버스 깊이 맵의 분산(variance)에 의해 구성될 수 있다. 단안 SLAM(monocular SLAM)에서 깊이 불확실성(depth uncertainty)이 가우시안(Gaussian)에 의해 잘 모델링되지 않는다.
이와 같은 이유로, 고전적인 X,Y,Z 표현을 대신하여 역 깊이(inverse depth)를 사용하여 미리 결정된 캐릭터 및 식별자(예를 들어, 운동자 식별자 등)를 맵핑하여 표현한다. "인버스 깊이 맵"은 이와 같이 역 깊이를 사용하여 특징을 맵핑한 맵에 해당할 수 있다.
또한, 인버스 깊이 맵 및 인버스 깊이 맵의 분산은 픽셀들의 서브 셋(sub set)에 대하여 정의될 수 있다. 인버스 깊이 맵 및 인버스 깊이 맵의 분산은 영상에서 픽셀 강도의 그래디언트(Gradient) 변화가 미리 설정된 기준을 초과하는 모든 영역들에 대응한 것일 수 있다.
3차원의 포인트 클라우드는 예를 들어, 3차원 좌표를 가지고 있는 포인트들, 다시 말해 3차원 포인트들을 포함할 수 있으며, 포인트 클라우드 내의 3차원 포인트들은 불규칙하게 구성될 수 있다.
상기와 같이, 응급 안전 모니터링 서버(200)는 영상 데이터에 대해서 3차원 영상 데이터를 통해 표시함으로써 감시 대상 사용자의 개인 정보를 보호하면서 감시 대상 사용자의 개인 정보를 관찰할 수 있다는 장점이 있다.
도 3은 본 발명에 따른 스마트 케어 응급 안전 알림 방법의 일 실시예를 설명하기 위한 흐름도이다.
도 3을 참조하면, 감시 대상 사용자의 거주 환경 내에 위치하는 영상 촬영 기기(100)는 감지 대상 사용자를 촬영하여 촬영 데이터를 생성한다(단계 S310).
상기 감시 대상 사용자의 거주 환경 내에 위치하는 화재 경보기(300)는 거주 환경 내에 화재를 감지하는지 여부에 따라 화재알림 소리를 발생한다(단계 S320).
낙상 감지 장치(400)는 상기 감시 대상 사용자의 거주 환경 내에 위치하여 상기 감시 대상 사용자의 낙상을 감지하는지 여부에 따라 낙상 알림 소리를 발생한다(단계 S330).
상기 감시 대상 사용자의 신체에 착용되는 웨어러블 기기의 내측에 형성되어 있는 생체 센서(700)는 상기 감시 대상 사용자의 생체 정보를 측정하여 제공한다(단계 S340).
응급 안전 모니터링 서버(200)는 상기 영상 촬영 기기로부터 수신된 감시 대상 사용자에 대한 촬영 데이터, 화재 경보기의 작동 여부, 상기 낙상 감지 장치의 작동 여부 및 생체 정보를 기초로 상기 감시 대상 사용자에게 위험 상황이 발생하였는지 감시 대상 사용자를 모니터링한다(단계 S350).
한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.
100: 영상 촬영 기기,
200: 응급 안전 모니터링 서버,
210: 촬영 데이터 분할부,
220: 태그 할당부,
230: 모니터링 정보 생성부,
240: 3차원 모델링부,
300: 화재 경보기,
400: 낙상 감지 장치,
500: 전문가 단말,
600: 독거 노인 단말,
700: 생체 센서

Claims (3)

  1. 감시 대상 사용자의 식별자 별로 영상 데이터 및 음성 데이터를 분할하는 촬영 데이터 분할부;
    상기 촬영 데이터 분할부에 의해 촬영된 영상 데이터 및 음성 데이터를 분석하여 상황 종류 별로 영상 데이터 및 음성 데이터를 분할한 후 분할된 영상 데이터 및 음성 데이터 각각에 상황 태그를 할당하는 태그 할당부;
    영상 촬영 기기에 의해 촬영된 영상 데이터를 이용하여 사용자 별 3차원 영상 데이터를 생성하는 3차원 모델링부; 및
    상기 상황 태그 중 화재 감지 태그가 할당된 영상 데이터와 함께 화재 감지 센서로부터 화재 감지 정보가 수신되었는지 여부에 따라 화재가 발생하였는지 여부를 결정하고, 상기 상황 태그 중 낙상 감지 태그가 할당된 영상 데이터를 분석하여 감시 대상 사용자의 위치 및 미리 결정된 감지 대상 사용자의 주거 내부 환경 도면과 비교하여 낙상이 발생되는지 여부를 판단하고, 상기 상황 태그 중 프라이버시 보호 태그가 할당된 영상 데이터인 경우, 3차원 모델링부를 통해 생성된 3차원 영상 데이터를 표시하는 모니터링 정보 생성부를 포함하는 것을 특징으로 하는
    응급 안전 모니터링 서버.
  2. 삭제
  3. 응급 안전 모니터링 서버에서 실행되는 응급 안전 모니터링 방법에 있어서,
    감시 대상 사용자의 식별자 별로 영상 데이터 및 음성 데이터를 분할하는 단계;
    상기 영상 데이터 및 음성 데이터를 분석하여 상황 종류 별로 영상 데이터 및 음성 데이터를 분할한 후 분할된 영상 데이터 및 음성 데이터 각각에 상황 태그를 할당하는 단계;
    영상 촬영 기기에 의해 촬영된 영상 데이터를 이용하여 사용자 별 3차원 영상 데이터를 생성하는 단계;
    상기 상황 태그에 따라 응급 안전 모니터 정보를 생성하여 제공하는 단계를 포함하고,
    상기 응급 안전 모니터 정보를 생성하여 제공하는 단계는
    상기 상황 태그 중 화재 감지 태그가 할당된 영상 데이터와 함께 화재 감지 센서로부터 화재 감지 정보가 수신되었는지 여부에 따라 화재가 발생하였는지 여부를 결정하는 단계;
    상기 상황 태그 중 낙상 감지 태그가 할당된 영상 데이터를 분석하여 감시 대상 사용자의 위치 및 미리 결정된 감지 대상 사용자의 주거 내부 환경 도면과 비교하여 낙상이 발생되는지 여부를 판단하는 단계; 및
    상기 상황 태그 중 프라이버시 보호 태그가 할당된 영상 데이터인 경우, 3차원 모델링부를 통해 생성된 3차원 영상 데이터를 표시하는 단계를 포함하는 것을 특징으로 하는
    응급 안전 모니터링 방법.
KR1020220076587A 2022-06-23 2022-06-23 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법 KR102558653B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220076587A KR102558653B1 (ko) 2022-06-23 2022-06-23 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220076587A KR102558653B1 (ko) 2022-06-23 2022-06-23 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법

Publications (1)

Publication Number Publication Date
KR102558653B1 true KR102558653B1 (ko) 2023-07-25

Family

ID=87428539

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220076587A KR102558653B1 (ko) 2022-06-23 2022-06-23 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법

Country Status (1)

Country Link
KR (1) KR102558653B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160126371A (ko) * 2015-04-23 2016-11-02 주식회사 스마트씨솔루션 용변감지기 및 이를 포함하는 용변알림 시스템
KR102258832B1 (ko) * 2021-02-09 2021-05-28 김선일 실버 케어 시스템
KR102289606B1 (ko) * 2021-03-09 2021-08-12 김종환 응급 알림 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160126371A (ko) * 2015-04-23 2016-11-02 주식회사 스마트씨솔루션 용변감지기 및 이를 포함하는 용변알림 시스템
KR102258832B1 (ko) * 2021-02-09 2021-05-28 김선일 실버 케어 시스템
KR102289606B1 (ko) * 2021-03-09 2021-08-12 김종환 응급 알림 시스템

Similar Documents

Publication Publication Date Title
US10835186B2 (en) Systems for automatic assessment of fall risk
Auvinet et al. Fall detection with multiple cameras: An occlusion-resistant method based on 3-d silhouette vertical distribution
CN112784662A (zh) 基于视频的跌倒风险评价系统
Fu et al. An address-event fall detector for assisted living applications
US11276181B2 (en) Systems and methods for use in detecting falls utilizing thermal sensing
US10262517B2 (en) Real-time awareness of environmental hazards for fall prevention
CN111626210B (zh) 人员着装检测方法、处理终端、及存储介质
CN106599802B (zh) 一种基于云技术的智能楼道监控系统
KR100822476B1 (ko) 원격 응급상황 모니터링 시스템 및 방법
EP1483728B1 (en) Pattern recognition system and method for monitoring hand washing or application of a disinfectant
JP2020145595A (ja) 看視又は監視システム、又はプログラム
KR20200056660A (ko) 얼굴 내 미세움직임 기반 통증 모니터링 방법 및 시스템
CN113114977A (zh) 智能看护系统以及智能看护方法
CN114078603A (zh) 智能养老监护系统、方法及计算机设备、可读存储介质
JP2019152914A (ja) 保育施設児童見守りシステム及び情報処理方法
Chiu et al. A convolutional neural networks approach with infrared array sensor for bed-exit detection
CN111127838B (zh) 用于检测非活动对象的系统和方法
Amir et al. Real-time threshold-based fall detection system using wearable IoT
KR20200059628A (ko) 스켈레톤 영상 학습 기반의 독거노인 행동 패턴 모니터링 방법
KR102544147B1 (ko) 영상분석 기반 1인 낙상 감지 시스템 및 방법
KR102558653B1 (ko) 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법
KR20120095647A (ko) 홈 헬스케어 모니터링 장치 및 방법
Fern'ndez-Caballero et al. HOLDS: Efficient fall detection through accelerometers and computer vision
AU2021101323A4 (en) Method for fall prevention, fall detection and electronic fall event alert system for aged care facilities
Khawandi et al. Integrated monitoring system for fall detection in elderly

Legal Events

Date Code Title Description
GRNT Written decision to grant