KR20190065859A - 인체 자세 및 행동 모니터링 장치 및 방법 - Google Patents

인체 자세 및 행동 모니터링 장치 및 방법 Download PDF

Info

Publication number
KR20190065859A
KR20190065859A KR1020170165424A KR20170165424A KR20190065859A KR 20190065859 A KR20190065859 A KR 20190065859A KR 1020170165424 A KR1020170165424 A KR 1020170165424A KR 20170165424 A KR20170165424 A KR 20170165424A KR 20190065859 A KR20190065859 A KR 20190065859A
Authority
KR
South Korea
Prior art keywords
human body
recognition
learning
behavior
pose
Prior art date
Application number
KR1020170165424A
Other languages
English (en)
Other versions
KR102439783B1 (ko
Inventor
김재환
김호원
정유구
한병옥
이지형
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170165424A priority Critical patent/KR102439783B1/ko
Publication of KR20190065859A publication Critical patent/KR20190065859A/ko
Application granted granted Critical
Publication of KR102439783B1 publication Critical patent/KR102439783B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

본 발명에 따른 인체 모니터링 장치는, 인체의 깊이 데이터를 획득하는 깊이정보 입력부, 상기 깊이 데이터를 이용하여 인체 포즈를 검출하는 포즈 검출부, 상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석하는 인식 및 분석부, 및 상기 인식되고 분석된 인체의 행동을 상기 인식 및 분석부로부터 전달받아 사용자에게 표시하는 클라이언트부를 포함할 수 있다.

Description

인체 자세 및 행동 모니터링 장치 및 방법 {Apparatus and method for monitoring a human pose and action}
본 발명은 인체 자세 및 행동 모니터링 장치 및 방법에 관한 것으로서, 특히 인체의 3차원 자세와 동작을 동시 인식 기반의 인체 모니터링 장치 및 방법에 관한 것이다.
최근 여러 연구결과로부터, 증가되는 영유아 돌연사 증후군(SIDS: Sudden Infant Death Syndrome)의 주된 원인으로 불안전한 수면자세가 입증되고 있다.
실예로, 1996~2008년 보고된 평상수면자세에서 발생한 168건 사고 중 75건(44.7%)이 엎드리거나 옆으로 누운 수면자세상태에서 발생한 것으로 확인되었다. 이러한 수면 자세는 영아돌연사증후군의 대표적인 위험요인으로 파악되고 있다.
영유아자세를 모니터링하기위한 기존 방법으로는 카메라로 입력받은 영상에 대한 직접적인 확인방법과 몸에 부착된 물리적 압력센서에 의한 간접적인 확인방법이 있다. 상기 방법은 시공간제약과 고가의 센서 및 기기설치, 센서부착의 불편함, 그리고 제한된 정보 제공이라는 단점이 존재한다.
본 발명은, 전술한 문제점들을 해결하고자 컴퓨터 비전 및 기계학습 기술을 이용한 인체 3차원 자세 및 동작 인식 기반의 인체 모니터링 장치 및 방법을 제공한다.
본 발명의 일 실시예에 따른 인체 자세 및 행동 모니터링 장치는, 인체의 깊이 데이터를 획득하는 깊이정보 입력부, 상기 깊이 데이터를 이용하여 인체 포즈를 검출하는 포즈 검출부, 상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석하는 인식 및 분석부, 및 상기 인식되고 분석된 인체의 행동을 상기 인식 및 분석부로부터 전달받아 사용자에게 표시하는 클라이언트부를 포함할 수 있다.
본 발명에 따른 인체 자세 및 행동 모니터링 기술은, 시공간 제약에서 벗어나 조명이 없는 곳에도 영유아의 자세 감지, 행동 인식 및 분석을 할 수 있으며, 불안전한 영유아수면자세로 인해 발생하는 사고를 사전에 감지하여 방지할 수 있다. 영유아뿐만 아니라 몸이 불편한 장애인, 환자 그리고 일반인들의 자세감지 및 행동인식, 분석에 활용될 수 있다. 또한, 가정, 병원 등을 포함한 다양한 곳에서 깊이센서와 솔루션 프로토콜을 연결한 후 용이하게 활용할 수 있다.
도 1은 본 발명의 일 실시예에 따른 인체 자세 및 행동 모니터링 장치를 나타내는 도면이다.
도 2는 깊이정보 입력부(100)에 의해 생성된 영유아의 인체 깊이 데이터의 일 예를 나타낸다.
도 3은 인식(prediction) 과정을 위한 상세 모듈들을 설명하기 위한 도면이다.
도 4는 서버(400)에서 수행되는 학습(training) 과정을 설명하기 위한 모듈들을 나타내는 도면이다.
도 5는 영아포즈인식을 위한 학습 데이터 생성의 일 실시예를 나타내는 도면이다.
도 6은 인체행동인식을 위한 서술자 데이터 생성의 일 실시예를 나타내는 도면이다.
도 7은 수학식 2와 수학식 3에 의한 각각의 학습-인식 성능을 비교한 결과를 나타내는 그래프이다.
도 8은 관절보정을 하기 전과 후의 결과를 비교한 일 실시예를 보여주는 도면이다.
도 9는 행동서술자로서 사용되는 특징 데이터들의 일 실시예를 설명하고 있는 도면이다.
도 10은 인식 및 학습 서버(400)와 클라이언트부(500) 간의 데이터 흐름을 설명하기 위한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
먼저, 본 발명에서 사용되는 용어들인 '포즈'와 '행동'은 다음과 같은 의미를 가질 수 있다.
포즈(pose): 정지된 인체 포스쳐(posture). 연속된 포즈는 임의의 제스쳐 혹은 행동으로 간주.
행동(action): 의미론적으로(semantic) 해석 가능한 연속된 포즈
도 1은 본 발명의 일 실시예에 따른 인체 자세 및 행동 모니터링 장치를 나타내는 도면이다. 인체 자세 및 행동 모니터링 장치(10)는 깊이정보 입력부(100), 인체 포즈 검출부(200), 인식 및 분석부(300), 인식 및 학습 서버(400) 및 클라이언트부(500)를 포함한다.
깊이정보 입력부(100)는 인체의 깊이 데이터를 획득하여 인체 포즈 검출부(200) 및 인식 및 학습 서버(400)로 제공한다. 깊이정보 입력부(100)는 깊이 센서가 될 수 있다.
인체 포즈 검출부(200)는 상기 깊이 데이터를 이용하여 인체의 3차원 포즈를 검출하고, 인식 및 분석부(300)는 상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석한다. 인식 및 분석부(300)에 의해 상기 인식되고 분석된 인체의 행동은 클라이언트부(500)로 제공되어 사용자에게 인체의 포즈 또는 동작을 표시한다. 클라이언트부(500)는 인체의 행동 모니터링 결과를 사용자에게 가시화하여 알릴 수 있다. 클라이언트부(500)는 예컨대 사용자의 스마트 폰, 테블릿 또는 컴퓨터가 될 수 있다.
이하, 영유아 인체의 포즈 및 행동을 인식, 모니터링하여 사용자에게 알리는 경우를 가정하여 인체 자세 및 행동 모니터링 장치(10)의 동작의 일 예를 설명한다.
깊이센서가 장착된 깊이정보 입력부(100)는 영유아의 인체 깊이 데이터를 생성한다. 도 2는 깊이정보 입력부(100)에 의해 생성된 영유아의 인체 깊이 데이터의 일 예를 나타낸다.
깊이정보 입력부(100)로부터 입력받은 영유아 인체 깊이데이터를 이용하여 영유아 인체영역들이 인식된 후 해당 영역에 해당되는 관절위치가 측정된다. 영유아 행동 인식을 위하여, 사전 측정한 관절 위치뿐만 아니라 프레임간 관절변위 속도, 가속도, 그리고 프레임내 관절상호간 여러 각도를 추출하여 행동학습 및 인식을 위한 서술자로 활용된다. 이러한 과정을 통해 인식, 분석된 영유아 행동은 특정 클라이언트의 스마트 폰 등을 통해 실시간 모니터링되며, 영유아의 상태가 표시된다. 일 예로, 모니터링 정보에는 현재 자세 상태에 대한 안전 및 위험 정도에 대한 알림이 포함될 수 있다.
도 3은 인식(prediction) 과정을 위한 상세 모듈들을 설명하기 위한 도면이다. 도 3에 도시된, Pre-trained BPC model 모듈(200-1), Pre-trained BJR model 모듈(200-2) 및 Pre-trained ACT model 모듈(300-2)은 인식 및 학습 서버(400)에서 사전학습(training/learning)된 모델들을 포함한다. 이 모델들은 도 1 및 도 3에서 묘사된 학습 GT(GroundTruth) 데이터와 사용자에 의해 사전선택된 임의의 교사학습(supervised learning) 알고리듬을 이용하여 사전학습 후 생성 및 저장된다.
Pre-trained BPC model 모듈(200-1)과 Pre-trained BJR model 모듈(200-2) 내의 Pre-trained BPC 모델과 Pre-trained BJR 모델은 neural network, support vector machine 및 deep learning 등과 같은 여러 교사학습 방법론들 중에서 랜덤 포레스트(random forest) 알고리듬을 이용하여 생성되며, Pre-trained ACT model 모듈(300-2) 내의 Pre-trained ACT 모델은 support vector regression 알고리듬을 이용하여 생성한다. 본 발명의 일 실시예에서 랜덤 포레스트 알고리즘을 이용하는 주된 이유는 실시간 자세검출 및 동작인식을 위한 인식(prediction)속도가 타 알고리듬들에 비하여 빠르다는 이점때문이다.
도 3에 도시한 바와같이, 입력받은 인체깊이 데이터에 기초하여, 사전학습된 BPC(Body Parts Classification) Model과 BJR(Body Joints Regression) Model에 의해 인체 3D 포즈가 인식(prediction)된다. 두 모델로부터 인식된 결과, 즉 분할된 인체영역과 해당관절 위치는 Recognized Body Joints 모듈(200-4)에 입력되어 관절위치보정 처리 후 Extraction ACT(ACTion) Descriptor 모듈(300-1) 에 입력되어 행동인식을 위한 서술자가 추출된다. 추출된 서술자는 사전학습된(pre-trained) ACT Model 모듈(300-2)의 인식 특징데이터로서 활용된다.
사전학습된 ACT Model 모듈(300-2)로부터 인식된 최종결과는 사전정의된 행동범주 내 각각 클래스에 대응되는 확률값으로 수치화되며, 가장 높은 확률값을 갖는 행동클래스의 결과가 서버 (400)을 통해 클라이언트부(500)의 Monitoring/Alarming Actions 모듈(500-1)로 전송된다.
도 4는 서버(400)에서 수행되는 학습(training) 과정을 설명하기 위한 모듈들을 나타내는 도면이다. 데이터의 흐름은 도 3의 인식과정과 유사하지만, 모듈별 역할은 다르다. 즉, 모듈 101에서는 도 5에 도시된 바와 같은 학습 GT데이터 세트가 입력되며, 모듈 201-1, 201-2와 301-2에서는 BPC, BJR 그리고 ACT 모델생성을 위한 학습이 수행된다. 생성된 모델들은 도 3의 모듈 200-1, 2와 300-2에 각각 저장된다.
도 5는 영아포즈인식을 위한 학습 데이터 생성의 일 실시예를 나타내는 도면이다. 도 5를 참조하면, 모듈 #201-1과 #201-2의 BPC/BJR 학습모델 생성에 활용되는 학습데이터로서 GT.2.의 인체분할영역 학습GT데이터는 BPC 모델 생성을 위해, 그리고 GT.3.의 인체3D관절위치 학습GT데이터는 BJR 학습(learning/training)모델 생성을 위해 각각 활용된다. GT.1.의 인체학습깊이데이터는 깊이정보 입력부(100)의 데이터 형식과 동일하다.
깊이 영상으로부터 영역 분할 및 3D위치 학습-인식을 위하여, 일반적으로 고려되는 깊이 특징데이터 추출식은 아래 수학식 1과 같으며, 학습을 위한 목적함수식인 수학식 2는 아래와 같다. 본 발명의 깊이정보 입력부(100)에서, 학습을 위한 특징데이터 추출 시, 수학식 1을 활용한다. 본 발명에서는, 목적함수의 경우, 일반적으로 이용되는 기존식의 문제점을 개선하고자 새로운 식을 이용한다.
Figure pat00001
수학식 1에서, D는 깊이데이터, x는 2차원 좌표위치, i 와 j 는 임의의 2차원 오프셋, dD는 해당위치의 깊이값을 나타낸다.
Figure pat00002
수학식 2에서
Figure pat00003
Figure pat00004
개의 특징데이터와 레이블로 구성된 학습샘플집합이며,
Figure pat00005
는 인체영역의 레이블집합이다.
본 발명에서는, Pre-trained BPC model 모듈(200-1)과 Pre-trained BJR model 모듈(200-2) 내의 Pre-trained BPC 모델과 Pre-trained BJR 모델은 랜덤 포레스트(random forest) 알고리듬을 이용하여 생성하며, 이 경우, 많이 이용되는 전형적인 학습목적함수식은 수학식 2와 같다.
본 발명에서는, 기존 수학식 2에 근거한 영역분할결과 성능을 개선하고자 모듈 201-1의 학습에 있어 다음의 수학식 3의 목적함수를 이용한다.
Figure pat00006
위 수학식 3에서,
Figure pat00007
는 인체중심과 인체 내 임의 3D위치간의 상대적 오프셋값을 갖는 연속적 회귀변수(continuous regression variable)로서 인체 형태(shape)의 암묵적(implicit) 표현을 위함이다.
사전학습된 BPC Model 모듈(200-1)에서 인식된 인체영역은 본질적으로 오차(잘못 인식된 영역 레이블)가 존재할 수 밖에 없으며, 이러한 오차는 차후(sequentially) 수행될 사전학습된 BJR Model 모듈(200-2)에 의한 인식과 사전학습된 ACT Model 모듈(300-2)에 의한 인식 성능에 직접적으로 영향을 끼친다. 본 발명에서는, 이러한 구조상의 문제점을 보완하고자, 사전학습된 BPC Model 모듈(200-1)의 학습-인식과정에 있어서 새로운 목적함수를 적용하고, 사전학습된 BJR Model 모듈(200-2)에 의한 인식과정 후 모듈 200-4에 의한 관절위치보정을 위해 새로운 방법을 적용한다.
기존 수학식 2에 의한 학습-인식은
Figure pat00008
와 같이 특징데이터와 깊이데이터가 주어졌을 시, 해당 레이블에 대한 확률값들(posterior probabilities)이 최대화되는 방향으로 수행된다. 그러나 본 발명에서 적용된 수학식 3에 의한 학습-인식은
Figure pat00009
의 영역레이블과 중심오프셋 변수에 대한 조인트확률값들(joint posterior probabilities)을 최대화하는 방향으로 수행된다. 이는 수학식 3에서와 같이 동일 영역 내의 특징데이터가 주어졌을 시 동일 레이블링되는 확률값들을 증가함과 동시에 동일 레이블을 갖는 데이터들일수록 유사한 상대적 오프셋(relative offset)을 갖는 확률값들을 증가하는 방향으로 동시 학습-인식이 수행된다.
도 7은 수학식 2와 수학식 3에 의한 각각의 학습-인식 성능을 비교한 결과를 나타내는 그래프이다. 도 7은 랜덤 포레스트 방법론으로 학습-인식 시 상이한 트리 깊이(depth)별로, 수학식 2와 수학식 3의 목적함수적용에 따른 학습-인식 오차율을 비교한 결과를 보여준다.
도 7에서 보듯이, 수학식 3의 목적함수를 적용한 학습모델에 대한 인식성능이 기존 목적함수에 비해 상대적으로 개선됨을 알 수 있다. 본 발명의 사전학습된 BPC Model 모듈(200-1)에서 다뤄지는 학습모델은 상기 목적함수를 적용한 모델결과이다.
Recognized Body Joints 모듈(200-4)에서는 이전 모듈에서 인식된 관절위치의 보정을 위하여 다음과 같은 방법을 이용한다. 관절위치인식에 있어 직접적으로 오차적인(erroneous) 영향을 끼치는 주된 요인은 타 영역으로 잘못 레이블링된 아웃라이어(outlier) 데이터들이다. 특히, 흩어져있는(scattered) 데이터들일수록 그 오차는 커진다. 본 발명에서는 정확한 관절위치측정을 위하여, 데이터밀도기반의 데이터군집(clustering)방법을 이용하여 노이즈로 간주할수 있는 아웃라이어 데이터들을 제거한다.
수학식 4는 본 발명의 일 실시예에 따른 관절위치보정방법의 수도 코드(pseudo-code)이다. 수학식 4에서,
Figure pat00010
은 레이블
Figure pat00011
에 해당되는 BPC 분할영역을 표시하며, 최종 관절위치는 아웃라이어가 제거된 여러 군집데이터들 중 가장 규모가 큰 군집을 대상으로 평균위치값을 측정함으로써 보정된다.
Figure pat00012
도 8은 관절보정을 하기 전과 후의 결과를 비교한 일 실시예를 보여주는 도면이다. 도 8에서, 좌측 도면은 왼쪽 손, 오른쪽 발, 왼쪽 발 영역에 대한 관절보정을 하기 전이고, 우측 도면은 관절보정을 한 후에 해당한다.
도 8의 좌측의 도면에서 보듯이, 왼손관절은 오른쪽 무릎쪽에 위치함을 볼수있는데, 이렇게 심한 오차의 발생원인은 왼손관절에 해당되는 영역 레이블링값이 왼쪽, 오른쪽 발부분에서도 측정되기 때문이며, 이러한 노이즈로 측정되는 레이블링 데이터 그룹들을 제거해야 도 8의 오른쪽 도면에서와 같이 정확하게 관절위치가 측정된다.
도 6은 인체행동인식을 위한 서술자 데이터 생성의 일 실시예를 나타내는 도면이다. 도 6의 좌측의 텍스트는 Extraction ACT(ACTion) Descriptor 모듈(300-1)에서의 행동서술자 추출 과정을 설명하고 있고, 도 6의 우측 부분은 행동서술자가 추출되는 인체의 해당부분들을 보여주고 있다.
도 9는 행동서술자로서 사용되는 특징 데이터들의 일 실시예를 설명하고 있는 도면이다.
도 9에 도시된 변수들 중에서
Figure pat00013
은 3D 월드좌표계상에서 정규화된 관절좌표를 말한다.
Figure pat00014
은 도 6에 도시된, 인체 PCA(Principle Component Analysis)의 베이시스(basis) 벡터이다. 수학식 4의 정의와 도 6의 좌측의 순서에 따라 차원이 224+n(n은 관절간 상호거리특징 차원)인 행동서술자(descriptor)벡터
Figure pat00015
가 생성된다. 이렇게 생성된 행동서술자와 사용자에 의해 사전정의된 교사학습알고리듬(본 발명에서는 SVR(Support Vector Regression)을 이용함)을 이용하여 인식 및 학습 서버(400)에서 학습된다. 학습(training)된 학습모델은 사전학습된 ACT Model 모듈(300-2)에 저장되어, 입력된 서술자에 대한 인식(prediction)을 수행하게 된다.
행동인식은 사전정의된 행동 클래스(class)들 기준 하에 입력 프레임(본 발명에서는 하나의 행동세그멘트를 7~10프레임으로 정의함) 행동에 해당되는 클래스에 대한 확률값들(posterior probabilities)이 최대화되는 방향으로 수행된다. 일 예로, 영유아 행동 인식의 경우 행동 클래스를 '위로누운자세', '엎드린자세', '기는 행동', '잡는 행동' 등으로 사용자의 요구에 따라 독립적으로 사전구축가능하다.
도 10은 인식 및 학습 서버(400)와 클라이언트부(500) 간의 데이터 흐름을 설명하기 위한 도면이다. 인식 및 학습 서버(400)는 버스(400-6)를 통하여 서로 통신하는 하나 이상의 프로세서(400-2), 저장소(메모리포함)(400-4), 깊이정ㅂ모 입력부(100)와 연결된 입력장치(400-1), 출력 장치(본 발명에서는 학습모델데이터집합)(400-5), 그리고 클라이언트부(500)와 연결되는 네트워크 인터페이스(400-3)을 포함한다.
클라이언트부(500)는 서버(400)로부터 행동인식결과를 입력받을 수 있는 네트워크 인터페이스(500-2)와 자세분석을 통한 모니터링 및 알림 모듈(500-1)을 포함할 수 있다.
상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (1)

  1. 인체 자세 및 행동 모니터링 장치에 있어서,
    인체의 깊이 데이터를 획득하는 깊이정보 입력부;
    상기 깊이 데이터를 이용하여 인체 포즈를 검출하는 포즈 검출부;
    상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석하는 인식 및 분석부; 및
    상기 인식되고 분석된 인체의 행동을 상기 인식 및 분석부로부터 전달받아 사용자에게 표시하는 클라이언트부를 포함하는 것을 특징으로 하는 인체 자세 및 행동 모니터링 장치.
KR1020170165424A 2017-12-04 2017-12-04 인체 자세 및 행동 모니터링 장치 및 방법 KR102439783B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170165424A KR102439783B1 (ko) 2017-12-04 2017-12-04 인체 자세 및 행동 모니터링 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170165424A KR102439783B1 (ko) 2017-12-04 2017-12-04 인체 자세 및 행동 모니터링 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190065859A true KR20190065859A (ko) 2019-06-12
KR102439783B1 KR102439783B1 (ko) 2022-09-02

Family

ID=66845756

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170165424A KR102439783B1 (ko) 2017-12-04 2017-12-04 인체 자세 및 행동 모니터링 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102439783B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220062166A (ko) 2020-11-06 2022-05-16 알바이오텍 주식회사 모빌리티 보행 훈련 장치
KR20220071403A (ko) * 2020-11-24 2022-05-31 연세대학교 산학협력단 밀도 기반 클러스터링을 이용한 사람 자세 데이터셋의 축약 장치 및 방법
KR20230063082A (ko) 2021-11-01 2023-05-09 알바이오텍 주식회사 서보모터와 코일스프링을 이용한 체중부하 조절 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110070058A (ko) * 2009-12-18 2011-06-24 한국전자통신연구원 동적 개체 모션 캡쳐 방법 및 그 장치
KR20120020106A (ko) * 2009-05-01 2012-03-07 마이크로소프트 코포레이션 모션 캡처를 위하여 모델 추적을 적용하는 시스템 및 방법
KR20130083997A (ko) * 2012-01-16 2013-07-24 삼성전자주식회사 신체 자세군 생성 장치 및 방법
KR20140005233A (ko) * 2011-02-18 2014-01-14 마이크로소프트 코포레이션 모션 인식
KR20140056992A (ko) 2012-11-02 2014-05-12 삼성전자주식회사 깊이 영상을 이용하는 동작 추정 방법 및 장치
KR20150028629A (ko) * 2013-09-06 2015-03-16 삼성전자주식회사 인체 분류기 학습 방법 및 상기 방법을 이용한 인체 분류 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체, 인체 분류 학습 장치 및 인체 분류 장치.
KR20160035212A (ko) * 2014-09-23 2016-03-31 경북대학교 산학협력단 센서와 카메라를 이용한 인체의 자세 측정 장치 및 이를 이용한 측정 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120020106A (ko) * 2009-05-01 2012-03-07 마이크로소프트 코포레이션 모션 캡처를 위하여 모델 추적을 적용하는 시스템 및 방법
KR20110070058A (ko) * 2009-12-18 2011-06-24 한국전자통신연구원 동적 개체 모션 캡쳐 방법 및 그 장치
KR20140005233A (ko) * 2011-02-18 2014-01-14 마이크로소프트 코포레이션 모션 인식
KR20130083997A (ko) * 2012-01-16 2013-07-24 삼성전자주식회사 신체 자세군 생성 장치 및 방법
KR20140056992A (ko) 2012-11-02 2014-05-12 삼성전자주식회사 깊이 영상을 이용하는 동작 추정 방법 및 장치
KR20150028629A (ko) * 2013-09-06 2015-03-16 삼성전자주식회사 인체 분류기 학습 방법 및 상기 방법을 이용한 인체 분류 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체, 인체 분류 학습 장치 및 인체 분류 장치.
KR20160035212A (ko) * 2014-09-23 2016-03-31 경북대학교 산학협력단 센서와 카메라를 이용한 인체의 자세 측정 장치 및 이를 이용한 측정 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220062166A (ko) 2020-11-06 2022-05-16 알바이오텍 주식회사 모빌리티 보행 훈련 장치
KR20220071403A (ko) * 2020-11-24 2022-05-31 연세대학교 산학협력단 밀도 기반 클러스터링을 이용한 사람 자세 데이터셋의 축약 장치 및 방법
KR20230063082A (ko) 2021-11-01 2023-05-09 알바이오텍 주식회사 서보모터와 코일스프링을 이용한 체중부하 조절 장치

Also Published As

Publication number Publication date
KR102439783B1 (ko) 2022-09-02

Similar Documents

Publication Publication Date Title
Khan et al. Review of fall detection techniques: A data availability perspective
Ramachandran et al. A survey on recent advances in wearable fall detection systems
US20220079472A1 (en) Deep-learning-based fall detection based on human keypoints
US11282389B2 (en) Pedestrian detection for vehicle driving assistance
Mirmahboub et al. Automatic monocular system for human fall detection based on variations in silhouette area
Aslan et al. Shape feature encoding via fisher vector for efficient fall detection in depth-videos
KR20190065859A (ko) 인체 자세 및 행동 모니터링 장치 및 방법
WO2015009951A1 (en) Fall detection using machine learning
CN109397703A (zh) 一种故障检测方法及装置
Mastorakis et al. Fall detection without people: A simulation approach tackling video data scarcity
US11580784B2 (en) Model learning device, model learning method, and recording medium
Htike et al. A monocular view-invariant fall detection system for the elderly in assisted home environments
WO2019003859A1 (ja) 見守り支援システム及びその制御方法、及びプログラム
EP3654276B1 (en) Analysis device, analysis method, and program
CN114469076A (zh) 一种融合身份特征的独居老人跌倒识别方法及系统
Pramerdorfer et al. Fall detection based on depth-data in practice
Liu et al. Automatic fall risk detection based on imbalanced data
Parisi et al. A neurocognitive robot assistant for robust event detection
Nguyen et al. Extracting silhouette-based characteristics for human gait analysis using one camera
Sree et al. A computer vision based fall detection technique for home surveillance
Thuc et al. An effective video-based model for fall monitoring of the elderly
Emeli et al. Robotic system to motivate spontaneous infant kicking for studies in early detection of cerebral palsy: a pilot study
Khan Classification and decision-theoretic framework for detecting and reporting unseen falls
CN114373142A (zh) 基于深度学习的行人跌倒检测方法
Arunnehru et al. Internet of things based intelligent elderly care system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant