KR102439783B1 - 인체 자세 및 행동 모니터링 장치 및 방법 - Google Patents
인체 자세 및 행동 모니터링 장치 및 방법 Download PDFInfo
- Publication number
- KR102439783B1 KR102439783B1 KR1020170165424A KR20170165424A KR102439783B1 KR 102439783 B1 KR102439783 B1 KR 102439783B1 KR 1020170165424 A KR1020170165424 A KR 1020170165424A KR 20170165424 A KR20170165424 A KR 20170165424A KR 102439783 B1 KR102439783 B1 KR 102439783B1
- Authority
- KR
- South Korea
- Prior art keywords
- behavior
- human body
- recognition
- human
- data
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Burglar Alarm Systems (AREA)
Abstract
본 발명에 따른 인체 모니터링 장치는, 인체의 깊이 데이터를 획득하는 깊이정보 입력부, 상기 깊이 데이터를 이용하여 인체 포즈를 검출하는 포즈 검출부, 상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석하는 인식 및 분석부, 및 상기 인식되고 분석된 인체의 행동을 상기 인식 및 분석부로부터 전달받아 사용자에게 표시하는 클라이언트부를 포함할 수 있다.
Description
본 발명은 인체 자세 및 행동 모니터링 장치 및 방법에 관한 것으로서, 특히 인체의 3차원 자세와 동작을 동시 인식 기반의 인체 모니터링 장치 및 방법에 관한 것이다.
최근 여러 연구결과로부터, 증가되는 영유아 돌연사 증후군(SIDS: Sudden Infant Death Syndrome)의 주된 원인으로 불안전한 수면자세가 입증되고 있다.
실예로, 1996~2008년 보고된 평상수면자세에서 발생한 168건 사고 중 75건(44.7%)이 엎드리거나 옆으로 누운 수면자세상태에서 발생한 것으로 확인되었다. 이러한 수면 자세는 영아돌연사증후군의 대표적인 위험요인으로 파악되고 있다.
영유아자세를 모니터링하기위한 기존 방법으로는 카메라로 입력받은 영상에 대한 직접적인 확인방법과 몸에 부착된 물리적 압력센서에 의한 간접적인 확인방법이 있다. 상기 방법은 시공간제약과 고가의 센서 및 기기설치, 센서부착의 불편함, 그리고 제한된 정보 제공이라는 단점이 존재한다.
본 발명은, 전술한 문제점들을 해결하고자 컴퓨터 비전 및 기계학습 기술을 이용한 인체 3차원 자세 및 동작 인식 기반의 인체 모니터링 장치 및 방법을 제공한다.
본 발명의 일 실시예에 따른 인체 자세 및 행동 모니터링 장치는, 인체의 깊이 데이터를 획득하는 깊이정보 입력부, 상기 깊이 데이터를 이용하여 인체 포즈를 검출하는 포즈 검출부, 상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석하는 인식 및 분석부, 및 상기 인식되고 분석된 인체의 행동을 상기 인식 및 분석부로부터 전달받아 사용자에게 표시하는 클라이언트부를 포함할 수 있다.
본 발명에 따른 인체 자세 및 행동 모니터링 기술은, 시공간 제약에서 벗어나 조명이 없는 곳에도 영유아의 자세 감지, 행동 인식 및 분석을 할 수 있으며, 불안전한 영유아수면자세로 인해 발생하는 사고를 사전에 감지하여 방지할 수 있다. 영유아뿐만 아니라 몸이 불편한 장애인, 환자 그리고 일반인들의 자세감지 및 행동인식, 분석에 활용될 수 있다. 또한, 가정, 병원 등을 포함한 다양한 곳에서 깊이센서와 솔루션 프로토콜을 연결한 후 용이하게 활용할 수 있다.
도 1은 본 발명의 일 실시예에 따른 인체 자세 및 행동 모니터링 장치를 나타내는 도면이다.
도 2는 깊이정보 입력부(100)에 의해 생성된 영유아의 인체 깊이 데이터의 일 예를 나타낸다.
도 3은 인식(prediction) 과정을 위한 상세 모듈들을 설명하기 위한 도면이다.
도 4는 서버(400)에서 수행되는 학습(training) 과정을 설명하기 위한 모듈들을 나타내는 도면이다.
도 5는 영아포즈인식을 위한 학습 데이터 생성의 일 실시예를 나타내는 도면이다.
도 6은 인체행동인식을 위한 서술자 데이터 생성의 일 실시예를 나타내는 도면이다.
도 7은 수학식 2와 수학식 3에 의한 각각의 학습-인식 성능을 비교한 결과를 나타내는 그래프이다.
도 8은 관절보정을 하기 전과 후의 결과를 비교한 일 실시예를 보여주는 도면이다.
도 9는 행동서술자로서 사용되는 특징 데이터들의 일 실시예를 설명하고 있는 도면이다.
도 10은 인식 및 학습 서버(400)와 클라이언트부(500) 간의 데이터 흐름을 설명하기 위한 도면이다.
도 2는 깊이정보 입력부(100)에 의해 생성된 영유아의 인체 깊이 데이터의 일 예를 나타낸다.
도 3은 인식(prediction) 과정을 위한 상세 모듈들을 설명하기 위한 도면이다.
도 4는 서버(400)에서 수행되는 학습(training) 과정을 설명하기 위한 모듈들을 나타내는 도면이다.
도 5는 영아포즈인식을 위한 학습 데이터 생성의 일 실시예를 나타내는 도면이다.
도 6은 인체행동인식을 위한 서술자 데이터 생성의 일 실시예를 나타내는 도면이다.
도 7은 수학식 2와 수학식 3에 의한 각각의 학습-인식 성능을 비교한 결과를 나타내는 그래프이다.
도 8은 관절보정을 하기 전과 후의 결과를 비교한 일 실시예를 보여주는 도면이다.
도 9는 행동서술자로서 사용되는 특징 데이터들의 일 실시예를 설명하고 있는 도면이다.
도 10은 인식 및 학습 서버(400)와 클라이언트부(500) 간의 데이터 흐름을 설명하기 위한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
먼저, 본 발명에서 사용되는 용어들인 '포즈'와 '행동'은 다음과 같은 의미를 가질 수 있다.
포즈(pose): 정지된 인체 포스쳐(posture). 연속된 포즈는 임의의 제스쳐 혹은 행동으로 간주.
행동(action): 의미론적으로(semantic) 해석 가능한 연속된 포즈
도 1은 본 발명의 일 실시예에 따른 인체 자세 및 행동 모니터링 장치를 나타내는 도면이다. 인체 자세 및 행동 모니터링 장치(10)는 깊이정보 입력부(100), 인체 포즈 검출부(200), 인식 및 분석부(300), 인식 및 학습 서버(400) 및 클라이언트부(500)를 포함한다.
깊이정보 입력부(100)는 인체의 깊이 데이터를 획득하여 인체 포즈 검출부(200) 및 인식 및 학습 서버(400)로 제공한다. 깊이정보 입력부(100)는 깊이 센서가 될 수 있다.
인체 포즈 검출부(200)는 상기 깊이 데이터를 이용하여 인체의 3차원 포즈를 검출하고, 인식 및 분석부(300)는 상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석한다. 인식 및 분석부(300)에 의해 상기 인식되고 분석된 인체의 행동은 클라이언트부(500)로 제공되어 사용자에게 인체의 포즈 또는 동작을 표시한다. 클라이언트부(500)는 인체의 행동 모니터링 결과를 사용자에게 가시화하여 알릴 수 있다. 클라이언트부(500)는 예컨대 사용자의 스마트 폰, 테블릿 또는 컴퓨터가 될 수 있다.
이하, 영유아 인체의 포즈 및 행동을 인식, 모니터링하여 사용자에게 알리는 경우를 가정하여 인체 자세 및 행동 모니터링 장치(10)의 동작의 일 예를 설명한다.
깊이센서가 장착된 깊이정보 입력부(100)는 영유아의 인체 깊이 데이터를 생성한다. 도 2는 깊이정보 입력부(100)에 의해 생성된 영유아의 인체 깊이 데이터의 일 예를 나타낸다.
깊이정보 입력부(100)로부터 입력받은 영유아 인체 깊이데이터를 이용하여 영유아 인체영역들이 인식된 후 해당 영역에 해당되는 관절위치가 측정된다. 영유아 행동 인식을 위하여, 사전 측정한 관절 위치뿐만 아니라 프레임간 관절변위 속도, 가속도, 그리고 프레임내 관절상호간 여러 각도를 추출하여 행동학습 및 인식을 위한 서술자로 활용된다. 이러한 과정을 통해 인식, 분석된 영유아 행동은 특정 클라이언트의 스마트 폰 등을 통해 실시간 모니터링되며, 영유아의 상태가 표시된다. 일 예로, 모니터링 정보에는 현재 자세 상태에 대한 안전 및 위험 정도에 대한 알림이 포함될 수 있다.
도 3은 인식(prediction) 과정을 위한 상세 모듈들을 설명하기 위한 도면이다. 도 3에 도시된, Pre-trained BPC model 모듈(200-1), Pre-trained BJR model 모듈(200-2) 및 Pre-trained ACT model 모듈(300-2)은 인식 및 학습 서버(400)에서 사전학습(training/learning)된 모델들을 포함한다. 이 모델들은 도 1 및 도 3에서 묘사된 학습 GT(GroundTruth) 데이터와 사용자에 의해 사전선택된 임의의 교사학습(supervised learning) 알고리듬을 이용하여 사전학습 후 생성 및 저장된다.
Pre-trained BPC model 모듈(200-1)과 Pre-trained BJR model 모듈(200-2) 내의 Pre-trained BPC 모델과 Pre-trained BJR 모델은 neural network, support vector machine 및 deep learning 등과 같은 여러 교사학습 방법론들 중에서 랜덤 포레스트(random forest) 알고리듬을 이용하여 생성되며, Pre-trained ACT model 모듈(300-2) 내의 Pre-trained ACT 모델은 support vector regression 알고리듬을 이용하여 생성한다. 본 발명의 일 실시예에서 랜덤 포레스트 알고리즘을 이용하는 주된 이유는 실시간 자세검출 및 동작인식을 위한 인식(prediction)속도가 타 알고리듬들에 비하여 빠르다는 이점때문이다.
도 3에 도시한 바와같이, 입력받은 인체깊이 데이터에 기초하여, 사전학습된 BPC(Body Parts Classification) Model과 BJR(Body Joints Regression) Model에 의해 인체 3D 포즈가 인식(prediction)된다. 두 모델로부터 인식된 결과, 즉 분할된 인체영역과 해당관절 위치는 Recognized Body Joints 모듈(200-4)에 입력되어 관절위치보정 처리 후 Extraction ACT(ACTion) Descriptor 모듈(300-1) 에 입력되어 행동인식을 위한 서술자가 추출된다. 추출된 서술자는 사전학습된(pre-trained) ACT Model 모듈(300-2)의 인식 특징데이터로서 활용된다.
사전학습된 ACT Model 모듈(300-2)로부터 인식된 최종결과는 사전정의된 행동범주 내 각각 클래스에 대응되는 확률값으로 수치화되며, 가장 높은 확률값을 갖는 행동클래스의 결과가 서버 (400)을 통해 클라이언트부(500)의 Monitoring/Alarming Actions 모듈(500-1)로 전송된다.
도 4는 서버(400)에서 수행되는 학습(training) 과정을 설명하기 위한 모듈들을 나타내는 도면이다. 데이터의 흐름은 도 3의 인식과정과 유사하지만, 모듈별 역할은 다르다. 즉, 모듈 101에서는 도 5에 도시된 바와 같은 학습 GT데이터 세트가 입력되며, 모듈 201-1, 201-2와 301-2에서는 BPC, BJR 그리고 ACT 모델생성을 위한 학습이 수행된다. 생성된 모델들은 도 3의 모듈 200-1, 2와 300-2에 각각 저장된다.
도 5는 영아포즈인식을 위한 학습 데이터 생성의 일 실시예를 나타내는 도면이다. 도 5를 참조하면, 모듈 #201-1과 #201-2의 BPC/BJR 학습모델 생성에 활용되는 학습데이터로서 GT.2.의 인체분할영역 학습GT데이터는 BPC 모델 생성을 위해, 그리고 GT.3.의 인체3D관절위치 학습GT데이터는 BJR 학습(learning/training)모델 생성을 위해 각각 활용된다. GT.1.의 인체학습깊이데이터는 깊이정보 입력부(100)의 데이터 형식과 동일하다.
깊이 영상으로부터 영역 분할 및 3D위치 학습-인식을 위하여, 일반적으로 고려되는 깊이 특징데이터 추출식은 아래 수학식 1과 같으며, 학습을 위한 목적함수식인 수학식 2는 아래와 같다. 본 발명의 깊이정보 입력부(100)에서, 학습을 위한 특징데이터 추출 시, 수학식 1을 활용한다. 본 발명에서는, 목적함수의 경우, 일반적으로 이용되는 기존식의 문제점을 개선하고자 새로운 식을 이용한다.
수학식 1에서, D는 깊이데이터, x는 2차원 좌표위치, i 와 j 는 임의의 2차원 오프셋, dD는 해당위치의 깊이값을 나타낸다.
본 발명에서는, Pre-trained BPC model 모듈(200-1)과 Pre-trained BJR model 모듈(200-2) 내의 Pre-trained BPC 모델과 Pre-trained BJR 모델은 랜덤 포레스트(random forest) 알고리듬을 이용하여 생성하며, 이 경우, 많이 이용되는 전형적인 학습목적함수식은 수학식 2와 같다.
본 발명에서는, 기존 수학식 2에 근거한 영역분할결과 성능을 개선하고자 모듈 201-1의 학습에 있어 다음의 수학식 3의 목적함수를 이용한다.
위 수학식 3에서, 는 인체중심과 인체 내 임의 3D위치간의 상대적 오프셋값을 갖는 연속적 회귀변수(continuous regression variable)로서 인체 형태(shape)의 암묵적(implicit) 표현을 위함이다.
사전학습된 BPC Model 모듈(200-1)에서 인식된 인체영역은 본질적으로 오차(잘못 인식된 영역 레이블)가 존재할 수 밖에 없으며, 이러한 오차는 차후(sequentially) 수행될 사전학습된 BJR Model 모듈(200-2)에 의한 인식과 사전학습된 ACT Model 모듈(300-2)에 의한 인식 성능에 직접적으로 영향을 끼친다. 본 발명에서는, 이러한 구조상의 문제점을 보완하고자, 사전학습된 BPC Model 모듈(200-1)의 학습-인식과정에 있어서 새로운 목적함수를 적용하고, 사전학습된 BJR Model 모듈(200-2)에 의한 인식과정 후 모듈 200-4에 의한 관절위치보정을 위해 새로운 방법을 적용한다.
기존 수학식 2에 의한 학습-인식은 와 같이 특징데이터와 깊이데이터가 주어졌을 시, 해당 레이블에 대한 확률값들(posterior probabilities)이 최대화되는 방향으로 수행된다. 그러나 본 발명에서 적용된 수학식 3에 의한 학습-인식은 의 영역레이블과 중심오프셋 변수에 대한 조인트확률값들(joint posterior probabilities)을 최대화하는 방향으로 수행된다. 이는 수학식 3에서와 같이 동일 영역 내의 특징데이터가 주어졌을 시 동일 레이블링되는 확률값들을 증가함과 동시에 동일 레이블을 갖는 데이터들일수록 유사한 상대적 오프셋(relative offset)을 갖는 확률값들을 증가하는 방향으로 동시 학습-인식이 수행된다.
도 7은 수학식 2와 수학식 3에 의한 각각의 학습-인식 성능을 비교한 결과를 나타내는 그래프이다. 도 7은 랜덤 포레스트 방법론으로 학습-인식 시 상이한 트리 깊이(depth)별로, 수학식 2와 수학식 3의 목적함수적용에 따른 학습-인식 오차율을 비교한 결과를 보여준다.
도 7에서 보듯이, 수학식 3의 목적함수를 적용한 학습모델에 대한 인식성능이 기존 목적함수에 비해 상대적으로 개선됨을 알 수 있다. 본 발명의 사전학습된 BPC Model 모듈(200-1)에서 다뤄지는 학습모델은 상기 목적함수를 적용한 모델결과이다.
Recognized Body Joints 모듈(200-4)에서는 이전 모듈에서 인식된 관절위치의 보정을 위하여 다음과 같은 방법을 이용한다. 관절위치인식에 있어 직접적으로 오차적인(erroneous) 영향을 끼치는 주된 요인은 타 영역으로 잘못 레이블링된 아웃라이어(outlier) 데이터들이다. 특히, 흩어져있는(scattered) 데이터들일수록 그 오차는 커진다. 본 발명에서는 정확한 관절위치측정을 위하여, 데이터밀도기반의 데이터군집(clustering)방법을 이용하여 노이즈로 간주할수 있는 아웃라이어 데이터들을 제거한다.
수학식 4는 본 발명의 일 실시예에 따른 관절위치보정방법의 수도 코드(pseudo-code)이다. 수학식 4에서, 은 레이블 에 해당되는 BPC 분할영역을 표시하며, 최종 관절위치는 아웃라이어가 제거된 여러 군집데이터들 중 가장 규모가 큰 군집을 대상으로 평균위치값을 측정함으로써 보정된다.
도 8은 관절보정을 하기 전과 후의 결과를 비교한 일 실시예를 보여주는 도면이다. 도 8에서, 좌측 도면은 왼쪽 손, 오른쪽 발, 왼쪽 발 영역에 대한 관절보정을 하기 전이고, 우측 도면은 관절보정을 한 후에 해당한다.
도 8의 좌측의 도면에서 보듯이, 왼손관절은 오른쪽 무릎쪽에 위치함을 볼수있는데, 이렇게 심한 오차의 발생원인은 왼손관절에 해당되는 영역 레이블링값이 왼쪽, 오른쪽 발부분에서도 측정되기 때문이며, 이러한 노이즈로 측정되는 레이블링 데이터 그룹들을 제거해야 도 8의 오른쪽 도면에서와 같이 정확하게 관절위치가 측정된다.
도 6은 인체행동인식을 위한 서술자 데이터 생성의 일 실시예를 나타내는 도면이다. 도 6의 좌측의 텍스트는 Extraction ACT(ACTion) Descriptor 모듈(300-1)에서의 행동서술자 추출 과정을 설명하고 있고, 도 6의 우측 부분은 행동서술자가 추출되는 인체의 해당부분들을 보여주고 있다.
도 9는 행동서술자로서 사용되는 특징 데이터들의 일 실시예를 설명하고 있는 도면이다.
도 9에 도시된 변수들 중에서 은 3D 월드좌표계상에서 정규화된 관절좌표를 말한다. 은 도 6에 도시된, 인체 PCA(Principle Component Analysis)의 베이시스(basis) 벡터이다. 수학식 4의 정의와 도 6의 좌측의 순서에 따라 차원이 224+n(n은 관절간 상호거리특징 차원)인 행동서술자(descriptor)벡터 가 생성된다. 이렇게 생성된 행동서술자와 사용자에 의해 사전정의된 교사학습알고리듬(본 발명에서는 SVR(Support Vector Regression)을 이용함)을 이용하여 인식 및 학습 서버(400)에서 학습된다. 학습(training)된 학습모델은 사전학습된 ACT Model 모듈(300-2)에 저장되어, 입력된 서술자에 대한 인식(prediction)을 수행하게 된다.
행동인식은 사전정의된 행동 클래스(class)들 기준 하에 입력 프레임(본 발명에서는 하나의 행동세그멘트를 7~10프레임으로 정의함) 행동에 해당되는 클래스에 대한 확률값들(posterior probabilities)이 최대화되는 방향으로 수행된다. 일 예로, 영유아 행동 인식의 경우 행동 클래스를 '위로누운자세', '엎드린자세', '기는 행동', '잡는 행동' 등으로 사용자의 요구에 따라 독립적으로 사전구축가능하다.
도 10은 인식 및 학습 서버(400)와 클라이언트부(500) 간의 데이터 흐름을 설명하기 위한 도면이다. 인식 및 학습 서버(400)는 버스(400-6)를 통하여 서로 통신하는 하나 이상의 프로세서(400-2), 저장소(메모리포함)(400-4), 깊이정ㅂ모 입력부(100)와 연결된 입력장치(400-1), 출력 장치(본 발명에서는 학습모델데이터집합)(400-5), 그리고 클라이언트부(500)와 연결되는 네트워크 인터페이스(400-3)을 포함한다.
클라이언트부(500)는 서버(400)로부터 행동인식결과를 입력받을 수 있는 네트워크 인터페이스(500-2)와 자세분석을 통한 모니터링 및 알림 모듈(500-1)을 포함할 수 있다.
상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
Claims (10)
- 인체 자세 및 행동 모니터링 장치에 있어서,
인체의 깊이 데이터를 획득하는 깊이정보 입력부;
상기 깊이 데이터를 이용하여 인체 포즈를 검출하는 포즈 검출부;
상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석하는 인식 및 분석부; 및
상기 인식되고 분석된 인체의 행동을 상기 인식 및 분석부로부터 전달받아 사용자에게 표시하는 클라이언트부를 포함하고,
상기 인식 및 분석부는,
상기 인체의 관절 영역 사이의 상호거리특징에 대응되는 차원의 행동서술자(descriptor)를 구성하고, 상기 행동서술자에 대응되는 행동 클래스를 예측하는 행동 서술자 검출(Extraction ACT(ACTion) Descriptor) 처리부를 더 포함하는 것을 특징으로 하는 인체 자세 및 행동 모니터링 장치. - 제1항에 있어서
상기 포즈 검출부는,
상기 인체의 영역에 대한 분할 학습을 수행하는 BPC(Body Parts Classification) model 학습 처리부,
상기 인체의 영역을 기반으로 상기 인체의 관절 영역에 대한 검출을 학습하는 BJR(Body Joints Regression) model 학습 처리부, 및
상기 BJR model 학습 처리부를 통해 검출된 상기 관절 영역을 기반으로 관절 위치를 보정하는 RBJ(Recognized Body Joints) 보정 처리부를 포함하는 인체 자세 및 행동 모니터링 장치. - 제2항에 있어서,
상기 RBJ 보정 처리부는,
데이터밀도기반의 데이터군집(clustering)방법을 이용하여 노이즈로 간주할수 있는 아웃라이어 데이터들을 제거하는 것을 특징으로 하는 인체 자세 및 행동 모니터링 장치. - 제3항에 있어서,
상기 RBJ 보정 처리부는,
아웃라이어가 제거된 여러 군집데이터들 중 가장 규모가 큰 군집을 대상으로 평균위치값을 측정함으로써, 최종 관절위치를 보정하는 것을 특징으로 하는 인체 자세 및 행동 모니터링 장치. - 삭제
- 제1항에 있어서,
상기 깊이정보 입력부는,
깊이데이터, 2차원 좌표위치, 2차원 오프셋, 깊이값 중, 적어도 하나를 획득하여 제공하는 인체 자세 및 행동 모니터링 장치. - 제2항에 있어서,
상기 BPC model 학습 처리부는,
인체중심과 인체 내 임의 3D위치간의 상대적 오프셋값을 갖는 연속적 회귀변수(continuous regression variable)를 사용하여 학습을 수행하는 인체 자세 및 행동 모니터링 장치. - 삭제
- 적어도 하나의 프로세서, 적어도 하나의 저장 매체, 적어도 하나의 입출력 장치를 포함하는 전자장치가, 인체 자세 및 행동을 모니터링하는 방법에 있어서,
인체의 깊이 데이터를 획득하는 과정과,
상기 깊이 데이터를 이용하여 인체 포즈를 검출하는 과정과,
상기 검출된 인체 포즈에 기초하여 3차원 행동을 인식하고 분석하는 과정과,
상기 인식되고 분석된 인체의 행동을 상기 인식 및 분석부로부터 전달받아 사용자에게 표시하는 과정을 포함하고,
상기 3차원 행동을 인식하고 분석하는 과정은,
상기 인체의 관절 영역 사이의 상호거리특징에 대응되는 차원의 행동서술자(descriptor)를 구성하고, 상기 행동서술자에 대응되는 행동 클래스를 예측하는 과정을 포함하는 것을 특징으로 하는 인체 자세 및 행동 모니터링 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170165424A KR102439783B1 (ko) | 2017-12-04 | 2017-12-04 | 인체 자세 및 행동 모니터링 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170165424A KR102439783B1 (ko) | 2017-12-04 | 2017-12-04 | 인체 자세 및 행동 모니터링 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190065859A KR20190065859A (ko) | 2019-06-12 |
KR102439783B1 true KR102439783B1 (ko) | 2022-09-02 |
Family
ID=66845756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170165424A KR102439783B1 (ko) | 2017-12-04 | 2017-12-04 | 인체 자세 및 행동 모니터링 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102439783B1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102565193B1 (ko) | 2020-11-06 | 2023-08-10 | 알바이오텍 주식회사 | 모빌리티 보행 훈련 장치 |
KR102446923B1 (ko) * | 2020-11-24 | 2022-09-22 | 연세대학교 산학협력단 | 밀도 기반 클러스터링을 이용한 사람 자세 데이터셋의 축약 장치 및 방법 |
KR102587931B1 (ko) | 2021-11-01 | 2023-10-10 | 알바이오텍 주식회사 | 서보모터와 코일스프링을 이용한 체중부하 조절 장치 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
KR101307341B1 (ko) * | 2009-12-18 | 2013-09-11 | 한국전자통신연구원 | 동적 개체 모션 캡쳐 방법 및 그 장치 |
US8761437B2 (en) * | 2011-02-18 | 2014-06-24 | Microsoft Corporation | Motion recognition |
KR101844291B1 (ko) * | 2012-01-16 | 2018-04-03 | 삼성전자주식회사 | 신체 자세군 생성 장치 및 방법 |
KR101925879B1 (ko) | 2012-11-02 | 2019-02-26 | 삼성전자주식회사 | 깊이 영상을 이용하는 동작 추정 방법 및 장치 |
KR20150028629A (ko) * | 2013-09-06 | 2015-03-16 | 삼성전자주식회사 | 인체 분류기 학습 방법 및 상기 방법을 이용한 인체 분류 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체, 인체 분류 학습 장치 및 인체 분류 장치. |
KR20160035212A (ko) * | 2014-09-23 | 2016-03-31 | 경북대학교 산학협력단 | 센서와 카메라를 이용한 인체의 자세 측정 장치 및 이를 이용한 측정 방법 |
-
2017
- 2017-12-04 KR KR1020170165424A patent/KR102439783B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20190065859A (ko) | 2019-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dhiman et al. | A review of state-of-the-art techniques for abnormal human activity recognition | |
US20220079472A1 (en) | Deep-learning-based fall detection based on human keypoints | |
US10332254B2 (en) | Computer Aided Diagnosis (CAD) apparatus and method | |
Khan et al. | Review of fall detection techniques: A data availability perspective | |
Chen et al. | Improving human action recognition using fusion of depth camera and inertial sensors | |
Akagündüz et al. | Silhouette orientation volumes for efficient fall detection in depth videos | |
Mirmahboub et al. | Automatic monocular system for human fall detection based on variations in silhouette area | |
Aslan et al. | Shape feature encoding via fisher vector for efficient fall detection in depth-videos | |
JP6814673B2 (ja) | 移動経路予測装置、及び移動経路予測方法 | |
US9489570B2 (en) | Method and system for emotion and behavior recognition | |
WO2017152794A1 (en) | Method and device for target tracking | |
CN110058699B (zh) | 一种基于智能移动设备传感器的用户行为识别方法 | |
KR102439783B1 (ko) | 인체 자세 및 행동 모니터링 장치 및 방법 | |
Fan et al. | Fall detection via human posture representation and support vector machine | |
Mastorakis et al. | Fall detection without people: A simulation approach tackling video data scarcity | |
Beddiar et al. | Fall detection using body geometry and human pose estimation in video sequences | |
Htike et al. | A monocular view-invariant fall detection system for the elderly in assisted home environments | |
Kadkhodamohammadi et al. | Articulated clinician detection using 3D pictorial structures on RGB-D data | |
Iazzi et al. | Fall detection system-based posture-recognition for indoor environments | |
Samanta et al. | On the role of head motion in affective expression | |
CN112561073A (zh) | 使用基于批次的主动学习方案训练机器学习模型 | |
CN115424315A (zh) | 微表情检测方法、电子设备及计算机可读存储介质 | |
Aftab et al. | A boosting framework for human posture recognition using spatio-temporal features along with radon transform | |
Parisi et al. | A neurocognitive robot assistant for robust event detection | |
Nguyen et al. | Extracting silhouette-based characteristics for human gait analysis using one camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |