KR102374021B1 - 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법 - Google Patents

환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법 Download PDF

Info

Publication number
KR102374021B1
KR102374021B1 KR1020200054387A KR20200054387A KR102374021B1 KR 102374021 B1 KR102374021 B1 KR 102374021B1 KR 1020200054387 A KR1020200054387 A KR 1020200054387A KR 20200054387 A KR20200054387 A KR 20200054387A KR 102374021 B1 KR102374021 B1 KR 102374021B1
Authority
KR
South Korea
Prior art keywords
user
fall
information
patient
movement
Prior art date
Application number
KR1020200054387A
Other languages
English (en)
Other versions
KR20210136323A (ko
Inventor
김문상
이덕원
이상협
전국성
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020200054387A priority Critical patent/KR102374021B1/ko
Publication of KR20210136323A publication Critical patent/KR20210136323A/ko
Application granted granted Critical
Publication of KR102374021B1 publication Critical patent/KR102374021B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0446Sensor means for detecting worn on the body to detect changes of posture, e.g. a fall, inclination, acceleration, gait
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0492Sensor dual technology, i.e. two or more technologies collaborate to extract unsafe condition, e.g. video tracking and RFID tracking
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Alarm Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템은 사용자(환자)의 신체에 착용되고, 사용자의 위치정보, 관성정보 및 고도정보 등을 포함하는 움직임 정보를 센싱하여 제공하는 웨어러블 센서모듈; 고정형으로 설치되어 설치 위치 주변에서 사용자의 낙상 형상을 스캔하는 고정형 영상 스캔 모듈 또는 사용자의 낙상위치로 이동하는 이동형 영상스캔모듈; 및 상기 웨어러블 센서모듈 및 상기 고정형 또는 이동형 영상스캔모듈에서 전송된 정보를 기초로 사용자(환자)의 낙상형상의 특징 및 패턴을 분석하고, 낙상상황을 판별하는 정보처리서버를 포함한다.

Description

환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법{System and method for determining a patient's fall situation}
본 발명은 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법에 관한 것이다.
최근 평균 수명의 증가와 출산률 저하로 인해 전 세계적으로 고령화가 사회적 문제로 대두되고 있다. 한국 국가통계포탈의 "장래인구추계" 자료에 의하면, 우리나라 65세 이상 노인인구의 비율은 2014년을 기준으로 12.7% 이다. 한국의 경우, 2000년에 이미 "고령화 사회"에 진입하였고, 2018년에는 노인인구 비율이 14.3%로 "고령사회"가 되고, 2026년에는 20.8%로 ‘초 고령 사회’에 도달할 것으로 전망된다. 고령자들은 다양한 주변 환경의 위험에 노출되어 있다. 특히, 다른 연령대에 비해 사고 발생 위험성이 높고 사고 발생시 일상생활의 장애에 의해 급격한 체력 저하 및 건강 악화가 수반된다. 이러한 고령자 사고 중 낙상이 차지하는 비율은 연령이 증가함에 따라 증가하고 있는 실정이다. 연구조사기관의 조사에 따르면 , 65세 이상 노인의 약 28~ 30 %, 70세 이상은 35 %, 75세 이상은 32 ~ 42 %, 80세 이상 고령자의 연간 낙상율은 50 % 정도로 보고되고 있다.
고령자에게 낙상은 비가동성과 같은 신체적 손상뿐만 아니라 사회심리학적 기능장애에 의한 정신적 피해를 초래한다. 그리고 최악의 경우, 낙상 합병증으로 인해 사망에 이를 수도 있다. 이처럼 고령자에게 치명적인 낙상을 검출하기 위해 크게 두 가지 방법이 존재한다. 하나의 방법은 영상 정보를 이용하여 낙상을 유무를 감지하는 것이고, 다른 하나는 낙상 대상이 되는 보행자에게 센서를 부착하여 낙상 유무를 검출하는 방식이다. 영상정보를 이용하여 낙상을 감지하는 방법의 경우, 보행자의 영상 정보를 사용하므로 사생활 침해의 문제가 존재한다.
센서를 이용하여 낙상 유무를 검출하는 방법의 경우, 센서를 허리, 가슴, 손목 등과 같이 보행자의 특정 신체부위에 부착한 상태에서 보행자의 다양한 자세 변화와 활동 상태를 모니터링하여 낙상 유무를 검출한다. 보행자의 착용 편리성을 위해 손목 시계 형태로 센서가 손목에 부착되는 것이 선호되고 있다. 그런데, 센서가 손목에 부착되는 형태의 경우, 손목의 자유로운 움직임으로 인해 낙상 검출률이 매우 낮은 문제가 존재한다. 즉, 낙상이 아님에도 낙상으로 검출되는 경우가 빈번하다.
한국공개특허공보 제10-2018-0127255호
본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법을 제공하는 데 그 목적이 있다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템은 사용자(환자)의 신체에 착용되고, 사용자의 관성정보 및 고도정보 또는 이외의 획득가능한 사용자의 움직임 정보를 센싱하여 제공하는 웨어러블 센서모듈; 사용자의 위치를 추적할 수 있는 위치 센서 모듈; 웨어러블 센서 모듈의 정보에서 낙상으로 판별되는 경우, 위치 센서의 위치 정보를 이용하여 사용자의 낙상위치로 이동한 후, 사용자의 낙상형상을 스캔하는 이동형 영상스캔모듈 또는 사용자 위치 주변에서 낙상 형상을 스캔하는 고정형 영상스캔모듈; 상기 웨어러블 센서 모듈, 위치 센서 모듈 및 상기 고정형 영상스캔모듈 또는 상기 이동형 영상스캔모듈에서 획득된 정보를 심층신경망 알고리즘 또는 기계학습 알고리즘에 적용시켜 사용자의 낙상 패턴을 분석하고, 낙상 상황을 판별하는 정보처리서버를 포함하고, 상기 정보처리서버는 환자의 낙상 상황을 판별한 후, 위치 정보나 시간 정보 또는 상황 정보를 이용하여 사용자(환자)의 낙상 상황(또는 낙상 여부)를 재판별하도록 상기 웨어러블 센서모듈에서 전송한 사용자(환자)의 이동에 따른 움직임 정보를 기초로 사용자(환자)의 자세정보를 판단하는 자세 판단부; 상기 자세 판단부에서 산출한 사용자의 움직임에 따른 자세정보를 기초로 움직임 또는 자세의 패턴을 학습하고, 학습된 움직임 또는 자세 패턴을 기초로 움직임 또는 자세 패턴의 관성정보 및 고도정보 등 움직임 정보의 기준값을 설정하는 학습부; 사용자(환자)의 움직임 또는 자세 패턴에 따른 관성정보(각속도, 가속도) 또는 고도 정보를 포함하는 움직임 정보를 기준값으로 하여 실측된 움직임 정보가 기준값을 크게 초과할 경우, 낙상으로 1차 판단하는 낙상 판단부; 상기 낙상 판단부에서 낙상으로 1차 판단한 판단결과를 수신하면, 사용자의 현위치 좌표정보를 고정형 영상스캔모듈 또는 이동형 영상스캔모듈로 전송하여 상기 이동형 영상스캔모듈이 해당 지점으로 이동하도록 제어하거나 해당 위치 근처의 고정형 영상스캔모듈을 제어하는 제어부; 및 낙상영상 내에 사용자의 신체 특징점을 기초로 사용자 이미지를 추출한 후, 추출된 사용자 이미지의 형상정보와 학습된 낙상형상정보를 비교하여 사용자의 쓰러짐 유무를 판단하는 낙상형상 판단부를 포함하고, 상기 정보처리서버는 상기 웨어러블 센서모듈의 모션 센서(가속도 / 각속도 / 각도 / 속도 또는 고도 등 움직임을 측정할 수 있는 정보 검출)의 센싱정보를 기초로 낙상 여부를 검출한 후, 검출 결과의 정확도를 향상시키기 위하여 낙상 이벤트 발생 위치, 시간 정보 또는 상황정보를 기초로 낙상 판단 결과를 재평가하는 것을 특징으로 한다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 방법은 웨어러블 센서모듈에서 사용자의 이동에 따른 위치정보 및 움직임 정보를 측정하여 정보처리서버로 전송하는 단계; 상기 정보처리서버에서 사용자의 움직임 정보(관성정보 및 고도정보)와 기준값을 비교하여 사용자의 낙상여부를 1차 판단하는 단계; 상기 정보처리서버에서 사용자의 움직임이 낙상으로 1차 판단되면, 사용자(환자)의 위치정보로 이동형 영상스캔모듈이 이동하도록 상기 이동형 영상스캔모듈의 동작을 제어하거나 해당 위치의 고정형 영상스캔모듈이 동작하도록 하는 단계; 상기 이동형 영상스캔모듈이 해당 위치로 이동되거나 사용자의 위치 근처의 고정형 영상스캔모듈이 동작되어, 해당 지점에 낙상된 사용자의 형상을 스캔한 후, 스캔영상(낙상영상)을 정보처리서버로 전송하는 단계; 상기 정보처리서버에서 상기 스캔영상(낙상영상) 내의 사용자의 신체 특징점을 기초로 추출된 사용자 신체 이미지(형상)을 정규화(normalization) 및 군집화(Clustering) 또는 분류화(Classification)한 후, 심층신경망 알고리즘 또는 기계학습(머신러닝) 알고리즘을 이용하여 데이터베이스 내에 학습하여 저장된 여러 낙상형상정보와 비교하여 낙상형상 유무를 판별하는 단계; 상기 낙상형상으로 판별되면, 사용자의 낙상을 2차 판단하는 단계; 및 사용자의 움직임이 낙상으로 2차 판별되면, 가족 또는 관리자의 단말을 호출하는 단계를 포함하고, 상기 웨어러블 센서모듈의 모션 센서의 센싱정보를 기초로 낙상여부를 검출한 검출결과의 정확도를 향상시키기 위하여 낙상 이벤트 발생 위치, 시간정보 또는 상황정보를 기초로 낙상 판단 결과를 재평가하는 단계; 및 사용자의 낙상이 검출되지 않더라도, 사용자가 특정 장소(복도, 현관, 화장실)에서 기 설정된 시간 동안 움직임이 없으면, 상기 이동형 영상스캔모듈을 상기 특정 장소로 이동하도록 제어하거나 사용자 위치 근처의 고정형 영상스캔모듈을 동작하도록 제어한 후, 사용자의 상황을 스캔하도록 고정형 또는 이동형 영상스캔모듈의 동작을 제어하는 단계를 더 포함하고, 상기 정보처리서버는 상기 웨어러블 센서모듈에서 전송한 사용자(환자)의 이동에 따른 움직임 정보를 기초로 사용자(환자)의 자세정보를 판단하는 자세 판단부; 상기 자세 판단부에서 산출한 사용자의 움직임에 따른 자세정보를 기초로 움직임 또는 자세의 패턴을 학습하고, 학습된 움직임 또는 자세 패턴을 기초로 움직임 또는 자세 패턴의 관성정보 및 고도정보 등 움직임 정보의 기준값을 설정하는 학습부; 사용자(환자)의 움직임 또는 자세 패턴에 따른 관성정보(각속도, 가속도) 또는 고도 정보를 포함하는 움직임 정보를 기준값으로 하여 실측된 움직임 정보가 기준값을 크게 초과할 경우, 낙상으로 1차 판단하는 낙상 판단부; 상기 낙상 판단부에서 낙상으로 1차 판단한 판단결과를 수신하면, 사용자의 현위치 좌표정보를 고정형 영상스캔모듈 또는 이동형 영상스캔모듈로 전송하여 상기 이동형 영상스캔모듈이 해당 지점으로 이동하도록 제어하거나 해당 위치 근처의 고정형 영상스캔모듈을 제어하는 제어부; 및 낙상영상 내에 사용자의 신체 특징점을 기초로 사용자 이미지를 추출한 후, 추출된 사용자 이미지의 형상정보와 학습된 낙상형상정보를 비교하여 사용자의 쓰러짐 유무를 판단하는 낙상형상 판단부를 포함하고, 상기 정보처리서버는 상기 웨어러블 센서모듈의 모션 센서 (가속도 / 각속도 / 각도 / 속도 또는 고도 등 움직임을 측정할 수 있는 정보 검출)의 센싱정보를 기초로 낙상 여부를 검출한 후, 검출 결과의 정확도를 향상시키기 위하여 낙상 이벤트 발생 위치, 시간 정보 또는 상황정보를 기초로 낙상 판단 결과를 재평가하는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법을 이용하면, 사용자의 움직임 정보(관성정보, 고도정보 또는 방향정보)와 낙상영상을 이용하여 보다 정밀하게 사용자(환자)의 낙상여부 및 위치를 판별할 수 있다는 이점이 있다.
도 1은 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템을 나타낸 블록도이다.
도 2는 도 1에 도시된 웨어러블 센서모듈의 세부구성을 나타낸 블록도이다.
도 3은 도 1에 도시된 정보처리서버의 세부구성을 나타낸 블록도이다.
도 4 및 도 5는 도 1에 도시된 학습부에서 수행하는 심층신경망 알고리즘의 일 예를 나타낸 도이다.
도 6은 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 방법을 설명한 흐름도이다.
도 7은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법을 보다 상세하게 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템을 나타낸 블록도이고, 도 2는 도 1에 도시된 웨어러블 센서모듈의 세부구성을 나타낸 블록도이고, 도 3은 도 1에 도시된 정보처리서버의 세부구성을 나타낸 블록도이고, 도 4 및 도 5는 도 1에 도시된 학습부에서 수행하는 심층신경망 알고리즘의 일 예를 나타낸 도이다.
먼저, 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템(100)은 웨어러블 센서모듈(200), 고정형 또는 이동형 영상스캔모듈(300) 및 정보처리 서버(400)를 포함한다.
상기 웨어러블 센서모듈(200)은 사용자(환자)의 신체에 착용되어, 사용자(환자)의 위치정보 및 움직임 정보를 센싱하여 후술하는 정보처리부로 제공하는 구성일 수 있다. 상기 웨어러블 센서모듈(200)은 사용자(환자)의 신체부위 어느 곳에서도 착용가능하도록 제작된다.
상기 웨어러블 센서모듈(200)는 고도, 관성(각속도, 가속도)을 측정하는 IMU 센서, 이외에 움직임을 측정할 수 있는 모션 센서(움직임 측정 센서) 중 적어도 하나 이상을 포함할 수 있으며, 위치를 측정할 수 있는 위치 센서가 포함된다. 또한, 웨어러블 센서모듈(200)의 시계열 정보는 시계열 분석을 위한 알고리즘을 통해 분석될 수 있다. 이 알고리즘은 RNN, LSTM, GRU 등 시계열 분석을 위한 딥러닝 알고리즘 뿐만 아니라, 딥러닝 알고리즘 이외의 시계열 데이터를 분석할 수 있는 알고리즘을 사용할 수 있다.
여기서, IMU 센서는 ① 고도를 직접 측정, ②대기압을 측정, ③ 가속도/각속도 등을 이용하여 계산하여 추정 등의 방식을 채용하는 센서일 수 있다. 또한, IMU 센서는 사용자(환자)의 이동에 따른 각속도 및 가속도를 측정하는 센서일 수 있고, 위치 센서는 무선 신호를 이용하여 사용자 또는 환자의 위치를 측정하는 센서일 수 있다.
한편, 웨어러블 센서모듈(200)은 위치 인식을 위해 Wifi, Widi, UWB, 블루투스, 적외선, 자외선, 초음파, GPS 또는 이와 유사한 기능을 가지는 무선 신호 모듈 중 1개 이상의 신호를 송수신할 수 있는 센서를 더 포함할 수 있다.
상기 웨어러블 센서모듈(200)은 상술한 복수 개의 센서들에서 계측한 계측정보를 상술한 정보처리 서버(400)로 전송하기 위한 통신부(201)를 포함할 수 있다.
상기 통신부(201)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.
또한, 상기 통신부(201)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.
또한, 상기 통신부(201)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신할 수 있다.
다음으로, 상기 고정형 또는 이동형 영상스캔모듈(300)은 사용자(환자)의 낙상 위치 근처에 고정되어 있거나, 낙상 위치로 이동하여 사용자의 낙상 상황 및 상태를 영상으로 스캔한 후, 스캔 영상을 상술한 정보처리서버(400)로 전송하는 구성일 수 있다. 스캔모듈은 2D / 3D 카메라 뿐만 아니라, Ridar, Laser Range Finder 등 형상 정보를 측정할 수 있는 센서를 모두 포함할 수 있다.
상기 고정형 또는 이동형 영상스캔모듈(300)은 후술하는 정보처리서버(400)로부터 사용자(환자)의 위치정보를 전송받아 사용자(환자)의 위치를 바라볼 수 있는 팬틸트 기능을 가질 수 있는 고정형 카메라 등의 영상 스캔 장치 이거나 사용자(환자)의 위치로 이동하는 이동형 로봇일 수 있다.
상기 고정형 또는 이동형 영상스캔모듈(300)은 낙상된 사용자(환자)의 쓰러진 형상 및 주변시설물을 스캔한 스캔영상을 정보처리서버(400)로 제공할 수 있다.
또한, 상기 고정형 또는 이동형 영상스캔모듈(300)은 음성발화 모듈, 음성인식 모듈 또는 행동인식 모듈을 탑재할 수 있고, 사용자의 위치 근처에 있는 카메라와 스피커를 이용하거나, 사용자의 위치로 이동 후, 사용자에게 말을 걸고, 사용자의 반응 유무를 확인할 수 있다.
다음으로, 정보처리서버(400)는 웨어러블 센서모듈(200)에서 센싱한 센싱정보를 기초로 사용자의 낙상여부를 판별한 후, 낙상으로 판별되면, 사용자(환자)의 낙상사고 위치를 고정형 또는 이동형 영상스캔모듈(300)로 제공하고, 상기 고정형 또는 이동형 영상스캔모듈(300)에서 전송한 스캔영상을 기초로 사용자의 낙상형상의 특징 및 패턴을 분석하여 낙상상황을 판별하는 기능을 수행한다.
한편, 정보처리서버(400)는 웨어러블 센서(움직임 / 각도 / 속도 / 가속도 / 각속도 / 고도 등 사용자의 움직임/모션 측정 또는 검출)의 센싱 정보를 기초로 낙상 여부를 검출한 검출 결과의 정확도를 향상시키기 위하여 위치 및 시간정보(상황정보)를 기초로 검출 결과를 재평가할 수 있다.
또한, 정보처리서버(400)는 사용자의 이벤트 발생 위치정보 및 웨어러블 센서(움직임 / 각도 / 속도 / 가속도 / 각속도 / 고도 등 사용자의 움직임/모션 측정 또는 검출)에서 검출된 센싱정보를 이용하여 낙상이라고 판단되는 상황이 검출되면, 이벤트 발생 위치를 통해 낙상의 위험도를 재평가할 수 있다. 예를 들어, 화장실에서 낙상 이벤트가 발생하면, 침대가 있는 곳보다 훨씬 위급한 상황으로 인지한다.
또한, 정보처리서버(400)는 웨어러블 센서에 의한 낙상이 검출되지 않더라도, 가만히 머물러 있지 않아야 할 장소(예를 들어, 복도, 현관, 화장실 등)에서 오랜 시간 동안 움직임이 없으면, 위험상황이 발생하였을 가능성이 있으므로 해당 위치의 고정형 영상스캔모듈을 동작하도록 제어하거나, 이동형 영상스캔모듈을 해당 위치로 이동하도록 제어한 후, 해당 위치의 상황을 다시 판단하도록 이동형 스캔모듈의 동작을 제어할 수 있다.
또한, 정보처리서버(400)는 사용자의 낙상이 검출되지 않더라도, 평소의 생활 패턴(움직임 패턴)과 다른 상황이 발생하면 고정형 영상스캔모듈이 동작하거나 또는 이동형 영상스캔모듈(300)이 이동하여 사용자의 상태(상황)이 판단되도록 스캔 모듈의 동작을 제어할 수 있다(예를 들어, 평소의 취침 시간이 아닌 시간에 소파가 있는 위치에서 오랫동안 움직임이 없으면, 고정형 영상스캔모듈이 동작하거나 또는 이동형 영상스캔모듈이 이동하여 상황을 파악함).
한편, 상기 정보처리서버(400)는 상기 고정형 또는 이동형 영상스캔모듈(300)에 내장된 내장형으로 제작될 수도 있다. 따라서, 상기 정보처리서버(400)는 내장형 서버 또는 외장형 서버일 수 있다.
보다 구체적으로, 상기 정보처리서버(400)는 자세 판단부(410), 학습부(420), 낙상 판단부(430), 제어부(440), 낙상형상 판단부(450) 및 호출부(460)를 포함할 수 있다.
먼저, 상기 자세 판단부(410)는 웨어러블 센서모듈(200)에서 전송한 사용자(환자)의 이동에 따른 움직임 정보를 기초로 사용자(환자)의 자세정보를 판단한다.
상기 자세 판단부(410)는 사용자(환자)의 움직임에 따른 각속도 정보, 가속도 정보, 고도 정보 또는 그 이외에 사용자의 움직임을 판단할 수 있는 정보를 기초로 사용자의 움직임 패턴을 분석하고, 움직임 패턴에 따른 사용자의 상황 또는 자세 등을 판단한다.
또한, 자세 판단부(410)는 인체의 중력선(B)과 중심선(D)을 이용하여 미리 설정된 자세분류 기준에 따라 대상자의 자세정보를 산출 및 평가할 수 있다.
참고로, 인체의 골격은 신체의 근육에 의해 지지되고 움직이는데, 근육이 과소 또는 과부하 상태이거나, 또는 비정상적으로 가능할 때의 자세는 정렬이 잘못된 상태가 될 수 있다. 이러한 근육 불균형은 신체를 부상과 긴장, 통증에 취약하게 만든다. 장시간 사용하지 않으면 자세를 유지하는 근육은 약해지고, 긴장되거나 통증을 유발할 수 있다. 또한 반복적인 움직임은 근육의 불균형을 일으켜 기능장애 및 보상작용을 초래할 수 있다.
이상적으로, 신체는 자세의 힘과 지구력을 발달시키기 위하여 균형 잡힌 활동이 필요하다. 올바른 자세의 이점은 관절, 인대, 근육의 올바른 운동뿐만 아니라, 일상적인 활동에서의 부상 및 통증의 위험성을 감소시키기 위해 신체를 최적의 자세로 유지시킨다. 이와 동시에 신체에서는 특정부위가 더 과하게 사용되지 않도록 혹은 보상하지 않도록, 체중의 분포를 분산시킨다. 최적의 정렬에서 최소한의 부하로 신체의 자세를 효율적으로 유지할 수 있다. 이는 움직임으로 영향을 미쳐, 효율적인 움직임을 만들어낸다.
중력선(B)과 중앙성(D)은 신체의 정적 평가인 자세평가를 위해 정확한 기준이 된다. 자세평가를 위해 사용자(환자)의 이동패턴, 각속도 정보, 가속도 정보, 고도정보, 또는 이에 준하는 움직임 정보를 이용하여 자세를 측정하고, 분류한다.
이는 또한, 관절가동범위 측정시 기 측정된 자세평가정보를 바탕을 확장된 연결점의 움직임 또는 이동여부를 관찰할 수 있다.
다음으로, 학습부(420)는 자세 판단부(410)에서 산출한 사용자의 움직임에 따른 자세정보를 기초로 사용자의 자세, 움직임, 또는 상황을 학습하고, 학습된 결과 패턴을 기초로 낙상 패턴의 정보의 기준값을 설정한다. 여기에서 낙상 패턴의 정보는 각속도 / 가속도 / 속도 / 각도 / 고도 등 사용자의 움직임을 측정할 수 있는 정보일 수 있다.
다음으로, 낙상 판단부(430)는 사용자의 자세, 움직임, 또는 상황을 기초로 사용자의 낙상여부를 1차 및 2차 판단한다.
상기 낙상 판단부(430)는 사용자(환자)의 자세, 움직임 및 상황 또는 행동 패턴에 따른 움직임 정보(각속도, 가속도, 각도, 속도 고도 등)를 기준 값으로 하여 실측된 움직임 정보(각속도, 가속도, 각도, 속도 고도 등)가 기준 값을 크게 초과할 경우, 낙상으로 1차 판단한다.
또한, 낙상 판단부(430)는 후술하는 낙상형상 판단부(450)의 결과값을 기초로 사용자(환자)의 낙상여부를 2차 판단하는 과정을 수행한다.
다음으로, 제어부(440)는 낙상 판단부(430)에서 낙상으로 1차 판단한 판단결과를 수신하면, 사용자의 현위치 좌표정보를 이동형 영상스캔모듈(300)로 전송하여 이동형 영상스캔모듈(300)이 해당 지점으로 이동하도록 제어하는 기능을 수행한다. 또는, 사용자의 현위치 좌표 정보 주변에 고정형 스캔모듈이 있을 경우, 해당 영상스캔모듈을 동작시키는 제어 기능을 수행할 수 있다.
다음으로, 낙상형상 판단부(450)는 고정형 또는 이동형 영상스캔모듈(300)에서 전송된 환자의 낙상영상(쓰러져있는 형상)을 기초로 낙상여부를 판단하는 구성일 수 있다.
낙상형상 판단부(450)는 낙상영상 내에 사용자의 신체 특징점을 기초로 사용자 이미지를 추출한 후, 추출된 사용자 이미지의 형상정보와 학습된 낙상형상정보를 비교하여 사용자의 쓰러짐 유무를 판단하는 구성일 수 있다.
낙상형상 판단부(450)는 낙상영상에 대해 이진화, 세션화, 잡음제거 중 하나 이상의 전처리를 수행할 수 있다. 또한, 가우시안 필터(Gaussian filter), 라플라시안 필터(Laplacian filter), 가우시안 차(Difference of Gaussian: DoG) 및 캐니 에지 검출(Canny edge detection) 등을 이용하여, 낙상영상을 변형 또는 개선시킬 수 있다.
일 예로, 낙상형상 판단부(450)는 가우시안 필터 등을 이용하여 잡음을 제거하고(Noise reduction), 에지 성분 검출을 위한 그라디언트(gradient) 연산을 수행하며(gradient operation), 끊어진 에지 라인을 보간 하는 비 최대치 억제를 수행하고(non-maximum suppression), 에지 맵을 이진화하는 히스테리시스 경계화(Hysteresis thresholding)를 수행할 수 있다.
한편, 상기 낙상형상 판단부(450)는 낙상영상 내의 사용자의 신체 특징점을 기초로 추출된 사용자 신체 이미지(형상)를 정규화(normalization) 및 군집화(Clustering) 또는 분류화(classification)한 후, 심층신경망 알고리즘을 이용하여 데이터베이스 내에 학습하여 저장된 여러 낙상형상정보와 비교하여 낙상여부를 2차 판단한다.
참고로, 군집화 과정은 분할 기법(partitioning methods) 및 계층적 기법(hierarchical methods)으로 분류되고, 분할기법(partitioning methods)의 군집화는 각 그룹은 적어도 하나의 데이터를 가지고 있어야 하며, 각 데이터는 정확히 하나의 그룹에 속해야한다는 규칙을 가지고 데이터 집합을 작은 그룹으로 분할하는 방식이고, 이러한 분할 기법의 군집화는 K-means, K-medoids, DBCAN 등의 기법 등이 있다.
계층적 기법(hierarchical methods)은 데이터 집합을 계층적으로 분해하는 방식으로 그 방식에 따라 또 다시 집괴적(agglomerative) 군집화와 분할적(divisive) 군집화로 분류된다.
참고로, 본 발명에 개시된 낙상형상 판단부(450)는 딥러닝 학습 알고리즘을 채용할 수 있고, 상기 딥러닝 학습 알고리즘은 Deep Belief Network, Autoencoder, CNN(Convolutional Neural Network), RNN(Recurrent Nerural Network), Deep Q-Network 등을 포함할 수 있고, 본 발명에서 열거한 딥러닝 학습 알고리즘은 일 예시일 뿐, 이에 한정되는 것은 아니다. 또한, 낙상형상 판단부(450)는 딥러닝 알고리즘 뿐만 아니라, 형상정보를 파악할 수 있는 SVM, k-means square 등 딥러닝 학습 알고리즘 이외의 머신러닝 알고리즘도 채택할 수 있으며, 단위 시간당 변화량을 계산하는 동적 변화량 계산식을 채택할 수도 있다.
다음으로, 호출부(460)는 낙상형상 판단부(450)에서 사용자(환자)의 낙상이 확인되면, 사용자(환자)의 가족단말 또는 관리자의 단말을 호출하는 구성일 수 있다.
도 6은 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 방법을 설명한 흐름도이다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 방법(S700)은 웨어러블 센서모듈(200)에서 사용자의 이동에 따른 위치정보 및 움직임 정보를 측정(S710)하여 정보처리서버(400)로 전송한다.
상기 움직임 정보는 관성정보(각속도 및 가속도) 및 고도정보를 포함하는 정보일 수 있다. 이때, 웨어러블 센서모듈(200)은 사용자의 신체 중 관절 부위 마다 부착될 수도 있다.
이후, 정보처리서버(400)는 사용자의 움직임 정보(관성정보 및 고도정보)와 기준값을 비교하여 사용자의 낙상여부를 판단(S720)한다. 여기서, 기준값은 사용자의 행동패턴의 평균값일 수 있다.
정보처리서버(400)에서 사용자의 움직임이 낙상으로 1차 판단되면, 사용자(환자)의 위치정보로 이동형 영상스캔모듈이 이동하도록 이동형 영상스캔모듈의 동작을 제어(S730)하거나, 사용자의 위치 근처의 고정형 영상스캔모듈의 동작을 제어한다.
이동형 영상스캔모듈(300)이 해당 위치로 이동되거나 고정형 영상스캔모듈이 사용될 수 있는 준비가 완료되면, 정보처리서버는 해당 지점에 낙상된 사용자의 형상을 스캔한 후, 스캔영상을 정보처리서버로 전송(S740)한다.
정보처리서버(400)는 스캔영상(낙상영상) 내의 사용자의 신체 특징점을 기초로 추출된 사용자 신체 이미지(형상)을 정규화(normalization) 및 군집화(Clustering)한 후, 심층신경망 알고리즘을 이용하여 데이터베이스 내에 학습하여 저장된 여러 낙상형상정보와 비교하여 낙상여부를 2차 판단(S750)한다.
정보처리서버(400)의 2차 판단결과가 낙상으로 판별되면, 사용자(환자)의 가족 또는 관리자의 단말을 호출(S760)한다. 이때, 호출정보는 사용자(환자)가 낙상된 낙상위치 정보를 포함할 수 있다.
따라서, 본 발명의 일 실시예에 따른 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법을 이용하면, 병원 환자의 낙상상황을 빠르게 인지함으로써, 환자의 낙상에 따른 위험을 줄여줄 수 있다는 이점이 있다.
또한, 기본의 환자의 움직임 정보 만으로 낙상상황 및 낙상상태를 판단하던 방식에 비해, 환자의 낙상상황 및 낙상상태를 보다 정밀하게 판단할 수 있다는 이점이 있다.
도 7은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.
컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다.
여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다.
또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다.
여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다.
예를 들어, 구성요소는 프로세서 상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터 상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.
이상에서 설명한 실시 예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다
100: 낙상 판별 시스템
200: 웨어러블 센서모듈
300: 고정형 또는 이동형 영상스캔모듈
400: 정보처리서버
410: 자세 판단부
420: 학습부
430: 낙상 판단부
440: 제어부
450: 낙상형상 판단부
460: 호출부

Claims (14)

  1. 사용자(환자)의 신체에 착용되고, 사용자의 관성정보 및 고도정보 또는 이외의 획득가능한 사용자의 움직임 정보를 센싱하여 제공하는 웨어러블 센서모듈;
    사용자의 위치를 추적할 수 있는 위치 센서 모듈;
    웨어러블 센서 모듈의 정보에서 낙상으로 판별되는 경우, 위치 센서의 위치 정보를 이용하여 사용자의 낙상위치로 이동한 후, 사용자의 낙상형상을 스캔하는 이동형 영상스캔모듈 또는 사용자 위치 주변에서 낙상 형상을 스캔하는 고정형 영상스캔모듈;
    상기 웨어러블 센서 모듈, 위치 센서 모듈 및 상기 고정형 영상스캔모듈 또는 상기 이동형 영상스캔모듈에서 획득된 정보를 심층신경망 알고리즘 또는 기계학습 알고리즘에 적용시켜 사용자의 낙상 패턴을 분석하고, 낙상 상황을 판별하는 정보처리서버를 포함하고,
    상기 정보처리서버는
    환자의 낙상 상황을 판별한 후, 위치 정보나 시간 정보 또는 상황 정보를 이용하여 사용자(환자)의 낙상 상황(또는 낙상 여부)를 재판별하도록 상기 웨어러블 센서모듈에서 전송한 사용자(환자)의 이동에 따른 움직임 정보를 기초로 사용자(환자)의 자세정보를 판단하는 자세 판단부;
    상기 자세 판단부에서 산출한 사용자의 움직임에 따른 자세정보를 기초로 움직임 또는 자세의 패턴을 학습하고, 학습된 움직임 또는 자세 패턴을 기초로 움직임 또는 자세 패턴의 관성정보 및 고도정보 등 움직임 정보의 기준값을 설정하는 학습부;
    사용자(환자)의 움직임 또는 자세 패턴에 따른 관성정보(각속도, 가속도) 또는 고도 정보를 포함하는 움직임 정보를 기준값으로 하여 실측된 움직임 정보가 기준값을 크게 초과할 경우, 낙상으로 1차 판단하는 낙상 판단부;
    상기 낙상 판단부에서 낙상으로 1차 판단한 판단결과를 수신하면, 사용자의 현위치 좌표정보를 고정형 영상스캔모듈 또는 이동형 영상스캔모듈로 전송하여 상기 이동형 영상스캔모듈이 해당 지점으로 이동하도록 제어하거나 해당 위치 근처의 고정형 영상스캔모듈을 제어하는 제어부; 및
    낙상영상 내에 사용자의 신체 특징점을 기초로 사용자 이미지를 추출한 후, 추출된 사용자 이미지의 형상정보와 학습된 낙상형상정보를 비교하여 사용자의 쓰러짐 유무를 판단하는 낙상형상 판단부를 포함하고,
    상기 정보처리서버는
    상기 웨어러블 센서모듈의 모션 센서(가속도 / 각속도 / 각도 / 속도 또는 고도 등 움직임을 측정할 수 있는 정보 검출)의 센싱정보를 기초로 낙상 여부를 검출한 후, 검출 결과의 정확도를 향상시키기 위하여 낙상 이벤트 발생 위치, 시간 정보 또는 상황정보를 기초로 낙상 판단 결과를 재평가하는 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 웨어러블 센서모듈은
    Wifi, Widi, UWB, 블루투스, 적외선, 자외선, 초음파, GPS, 또는 이와 유사한 기능을 하는 무선 신호 중 어느 하나 이상의 신호를 송수신하기 위한 위치센서 및
    사용자(환자)의 움직임에 따른 관성(각속도, 가속도) 및 고도 등을 측정하거나 또는 이 외의 사용자 움직임을 측정할 수 있는 모션 센서(움직임 측정 센서)를 포함하고,
    상기 모션 센서는 고도 직접 측정, 대기압 측정 또는 각도 / 속도 / 가속도 / 각속도 등을 이용하여 환자의 움직임을 측정하는 것을 특징으로 하는 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템.
  5. 제1항에 있어서,
    상기 정보처리서버는
    상기 웨어러블 센서모듈에서 센싱한 센싱정보를 기초로 사용자의 낙상여부를 1차 판별한 후, 낙상으로 판별되면, 사용자(환자)의 낙상사고 위치를 이동형 영상스캔모듈 또는 해당 위치 근처의 고정형 영상스캔모듈로 제공하고, 상기 고정형 영상스캔모듈 또는 이동형 영상스캔모듈에서 전송한 스캔 영상을 기초로 사용자의 낙상 형상의 특징 및 패턴을 분석하여 낙상상황을 판별하는 것을 특징으로 하는 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템.
  6. 삭제
  7. 제5항에 있어서,
    상기 정보처리서버는
    사용자의 낙상이 검출되지 않더라도, 사용자가 특정 장소(복도, 현관, 화장실)에서 기 설정된 시간 동안 움직임이 없으면, 사용자 위치 근처의 고정형 영상스캔모듈이 동작하도록 제어하거나 상기 이동형 영상스캔 모듈을 상기 특정 장소로 이동하도록 제어한 후, 사용자의 상황을 스캔하도록 상기 고정형 영상스캔모듈 또는 상기 이동형 영상스캔모듈의 동작을 제어하는 것을 특징으로 하는 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템.
  8. 제5항에 있어서,
    상기 정보처리서버는
    사용자의 낙상이 검출되지 않더라도, 사용자의 평소 생활 패턴(움직임 패턴)과 다른 상황이 발생하면 상기 이동형 영상스캔모듈이 사용자의 위치로 이동하거나, 사용자 위치 주변의 고정형 영상스캔모듈을 이용하여 사용자의 상태(상황)를 스캔하도록 상기 고정형 또는 이동형 영상스캔모듈의 동작을 제어하는 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템.
  9. 삭제
  10. 제1항에 있어서,
    상기 정보처리서버는
    상기 낙상형상 판단부에서 사용자(환자)의 낙상이 확인되면, 사용자(환자)의 가족단말 또는 관리자의 단말을 호출하는 호출부를 더 포함하는 것을 특징으로 하는 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템.
  11. 웨어러블 센서모듈에서 사용자의 이동에 따른 위치정보 및 움직임 정보를 측정하여 정보처리서버로 전송하는 단계;
    상기 정보처리서버에서 사용자의 움직임 정보(관성정보 및 고도정보)와 기준값을 비교하여 사용자의 낙상여부를 1차 판단하는 단계;
    상기 정보처리서버에서 사용자의 움직임이 낙상으로 1차 판단되면, 사용자(환자)의 위치정보로 이동형 영상스캔모듈이 이동하도록 상기 이동형 영상스캔모듈의 동작을 제어하거나 해당 위치의 고정형 영상스캔모듈이 동작하도록 하는 단계;
    상기 이동형 영상스캔모듈이 해당 위치로 이동되거나 사용자의 위치 근처의 고정형 영상스캔모듈이 동작되어, 해당 지점에 낙상된 사용자의 형상을 스캔한 후, 스캔영상(낙상영상)을 정보처리서버로 전송하는 단계;
    상기 정보처리서버에서 상기 스캔영상(낙상영상) 내의 사용자의 신체 특징점을 기초로 추출된 사용자 신체 이미지(형상)을 정규화(normalization) 및 군집화(Clustering) 또는 분류화(Classification)한 후, 심층신경망 알고리즘 또는 기계학습(머신러닝) 알고리즘을 이용하여 데이터베이스 내에 학습하여 저장된 여러 낙상형상정보와 비교하여 낙상형상 유무를 판별하는 단계;
    상기 낙상형상으로 판별되면, 사용자의 낙상을 2차 판단하는 단계; 및
    사용자의 움직임이 낙상으로 2차 판별되면, 가족 또는 관리자의 단말을 호출하는 단계를 포함하고,
    상기 웨어러블 센서모듈의 모션 센서의 센싱정보를 기초로 낙상여부를 검출한 검출결과의 정확도를 향상시키기 위하여 낙상 이벤트 발생 위치, 시간정보 또는 상황정보를 기초로 낙상 판단 결과를 재평가하는 단계; 및
    사용자의 낙상이 검출되지 않더라도, 사용자가 특정 장소(복도, 현관, 화장실)에서 기 설정된 시간 동안 움직임이 없으면, 상기 이동형 영상스캔모듈을 상기 특정 장소로 이동하도록 제어하거나 사용자 위치 근처의 고정형 영상스캔모듈을 동작하도록 제어한 후, 사용자의 상황을 스캔하도록 고정형 또는 이동형 영상스캔모듈의 동작을 제어하는 단계를 더 포함하고,
    상기 정보처리서버는
    상기 웨어러블 센서모듈에서 전송한 사용자(환자)의 이동에 따른 움직임 정보를 기초로 사용자(환자)의 자세정보를 판단하는 자세 판단부;
    상기 자세 판단부에서 산출한 사용자의 움직임에 따른 자세정보를 기초로 움직임 또는 자세의 패턴을 학습하고, 학습된 움직임 또는 자세 패턴을 기초로 움직임 또는 자세 패턴의 관성정보 및 고도정보 등 움직임 정보의 기준값을 설정하는 학습부;
    사용자(환자)의 움직임 또는 자세 패턴에 따른 관성정보(각속도, 가속도) 또는 고도 정보를 포함하는 움직임 정보를 기준값으로 하여 실측된 움직임 정보가 기준값을 크게 초과할 경우, 낙상으로 1차 판단하는 낙상 판단부;
    상기 낙상 판단부에서 낙상으로 1차 판단한 판단결과를 수신하면, 사용자의 현위치 좌표정보를 고정형 영상스캔모듈 또는 이동형 영상스캔모듈로 전송하여 상기 이동형 영상스캔모듈이 해당 지점으로 이동하도록 제어하거나 해당 위치 근처의 고정형 영상스캔모듈을 제어하는 제어부; 및
    낙상영상 내에 사용자의 신체 특징점을 기초로 사용자 이미지를 추출한 후, 추출된 사용자 이미지의 형상정보와 학습된 낙상형상정보를 비교하여 사용자의 쓰러짐 유무를 판단하는 낙상형상 판단부를 포함하고,
    상기 정보처리서버는
    상기 웨어러블 센서모듈의 모션 센서 (가속도 / 각속도 / 각도 / 속도 또는 고도 등 움직임을 측정할 수 있는 정보 검출)의 센싱정보를 기초로 낙상 여부를 검출한 후, 검출 결과의 정확도를 향상시키기 위하여 낙상 이벤트 발생 위치, 시간 정보 또는 상황정보를 기초로 낙상 판단 결과를 재평가하는 환자의 낙상상황을 판별하기 위한 낙상 판별 방법.
  12. 삭제
  13. 삭제
  14. 제11항에 있어서,
    사용자의 낙상이 검출되지 않더라도, 사용자의 평소 생활 패턴(움직임 패턴)과 다른 상황이 발생하면 상기 이동형 영상스캔모듈이 사용자의 위치로 이동하도록 제어하거나 사용자 위치 근처의 고정형 영상스캔모듈을 동작하도록 제어한 후, 사용자의 상황을 스캔하도록 상기 고정형 영상스캔모듈 또는 상기 이동형 영상스캔모듈의 동작을 제어하는 단계를 더 포함하는 것을 특징으로 하는 환자의 낙상상황을 판별하기 위한 낙상 판별 방법.
KR1020200054387A 2020-05-07 2020-05-07 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법 KR102374021B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200054387A KR102374021B1 (ko) 2020-05-07 2020-05-07 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200054387A KR102374021B1 (ko) 2020-05-07 2020-05-07 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20210136323A KR20210136323A (ko) 2021-11-17
KR102374021B1 true KR102374021B1 (ko) 2022-03-15

Family

ID=78702757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200054387A KR102374021B1 (ko) 2020-05-07 2020-05-07 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102374021B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075935A1 (ko) * 2022-10-07 2024-04-11 삼성전자주식회사 낙상 감지를 수행하기 위한 전자 장치 및 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102633577B1 (ko) * 2021-12-16 2024-02-02 금오공과대학교 산학협력단 위급상황 인지기능을 갖춘 가정용 홈케어 ai 낙상감지 시스템
CN116631155B (zh) * 2023-06-01 2024-07-05 深圳市震有智联科技有限公司 一种老人跌倒识别方法及自动呼救系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100988459B1 (ko) * 2008-06-24 2010-10-18 한국전자통신연구원 낙상 감지 장치 및 방법
KR101866974B1 (ko) * 2012-01-06 2018-06-14 한국전자통신연구원 행동 패턴 수집 장치 및 이를 이용한 행동 패턴 분석 시스템과 그 방법
KR102052883B1 (ko) 2017-05-19 2019-12-10 한국과학기술원 열화상 카메라를 이용한 낙상 예측 시스템 및 열화상 카메라를 이용한 낙상 예측 방법
KR20190004130A (ko) * 2017-07-03 2019-01-11 한국건설 주식회사 근접센서 기반 관리대상 인물 실내 움직임 실시간 추적시스템
KR20190082692A (ko) * 2019-06-21 2019-07-10 엘지전자 주식회사 안전관리 시스템 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075935A1 (ko) * 2022-10-07 2024-04-11 삼성전자주식회사 낙상 감지를 수행하기 위한 전자 장치 및 방법

Also Published As

Publication number Publication date
KR20210136323A (ko) 2021-11-17

Similar Documents

Publication Publication Date Title
KR102374021B1 (ko) 환자의 낙상상황을 판별하기 위한 낙상 판별 시스템 및 방법
Gu et al. Paws: Passive human activity recognition based on wifi ambient signals
US11385647B2 (en) Mobile body control system, control method, and storage medium
US10088549B2 (en) System and a method for tracking mobile objects using cameras and tag devices
JP2017501393A5 (ko)
CN106559749B (zh) 一种基于射频层析成像的多目标被动式定位方法
Chen et al. Activity recognition based on micro-Doppler signature with in-home Wi-Fi
KR20210040192A (ko) 전자파 흡수율(sar) 요건들을 충족시키도록 송신기 출력 전력을 제한하기 위한, 인체에 대한 휴대용 디바이스들의 송신기 안테나들의 근접도의 결정
US11256261B1 (en) System for movement of autonomous mobile device
Alhamoud et al. Presence detection, identification and tracking in smart homes utilizing bluetooth enabled smartphones
Zhu et al. TagCare: Using RFIDs to monitor the status of the elderly living alone
CN104224182A (zh) 一种监测人体跌倒的方法及装置
Lakshmi et al. Automatic accident detection via embedded GSM message interface with sensor technology
JP6890813B2 (ja) 行動検知システム、情報処理装置、プログラム
Li et al. Collaborative fall detection using smart phone and Kinect
KR102524373B1 (ko) 실내 보안 응용을 위한 인체 감지 레이다 시스템 및 이를 이용한 인체 감지 방법
Ding et al. Energy efficient human activity recognition using wearable sensors
US20230237676A1 (en) Information processing device and information processing method
EP4094679A1 (en) Millimeter wave (mmwave) mapping systems and methods for generating one or more point clouds and determining one or more vital signs for defining a human psychological state
Malla et al. Obstacle Detection and Assistance for Visually Impaired Individuals Using an IoT-Enabled Smart Blind Stick.
Zhao et al. Wear‐free indoor fall detection based on RFID and deep residual networks
Chiu et al. Human gait recognition using LiDAR and deep learning technologies
Tabbakha et al. Elderly action recognition system with location and motion data
Sansano-Sansano et al. Multimodal Sensor Data Integration for Indoor Positioning in Ambient‐Assisted Living Environments
Careem et al. Wirelessly indoor positioning system based on RSS Signal

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant