KR101762010B1 - 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법 - Google Patents
스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법 Download PDFInfo
- Publication number
- KR101762010B1 KR101762010B1 KR1020150122086A KR20150122086A KR101762010B1 KR 101762010 B1 KR101762010 B1 KR 101762010B1 KR 1020150122086 A KR1020150122086 A KR 1020150122086A KR 20150122086 A KR20150122086 A KR 20150122086A KR 101762010 B1 KR101762010 B1 KR 101762010B1
- Authority
- KR
- South Korea
- Prior art keywords
- mutual
- data set
- features
- modeling
- rti
- Prior art date
Links
Images
Classifications
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G06K9/00342—
Abstract
본 발명은 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법에 관한 것으로서, 일실시예에 따른 상호 활동 모델링 방법은 비디오로부터 추출한 2차원 스켈레톤 위치의 데이터 세트를 입력받는 단계, 상기 입력된 데이터 세트로부터 오브젝트의 위치 좌표들을 연산하는 단계, 상기 연산된 오브젝트의 위치 좌표들로부터 상기 오브젝트의 움직임 속도 및 움직임 방향을 포함하는 트래킹 특징들을 계산하는 단계, 상기 오브젝트에 대응되는 상호 존과 상기 계산된 트래킹 특징들에 기초하여 상호 오브젝트를 결정하는 단계, 상기 결정된 상호 오브젝트에 대한 스켈레톤의 데이터 세트로부터 특징들을 계산하는 단계, 및 상기 계산된 특징들을 싱글 휴먼 액션들의 토픽들과 상호 그룹 활동들에 모델링하는 단계를 포함한다.
Description
스켈레톤 자세 데이터세트를 이용하여 비디오 기반하여 상호 활동 모델을 생성하는 기술에 관한 것이다.
최근 수십 년간 컴퓨터 비전과 인공 지능 커뮤니티에서 더 많은 관심을 받고 있지만, 인간 활동의 인식은 여전히 외관의 변화, 상호 폐색, 다중 객체의 상호 작용 등에 의한 도전 문제가 남아있다.
이전 기술들에서는 인체 구성요소들의 동작을 입력 특징으로 이용하여 인간 활동 인식에 노력을 기울인 반면, 근래의 기술들에서는 로우레벨 특징들을 수집하는 기술에 집중하고 있다. 예를 들어, 이미지 처리 기술들의 한계로 인해 스켈레톤과 같이 인체를 표현하는 기술 대신 위치 공간적-시간적 특징과 같은 로우레벨 특징들을 수집하는 기술에 집중하는 추세이다.
Y. Yang and D. Ramanan, "Articulated human detection with flexible mixtures of parts", Pattern Analysis and Machine Learning, IEEE Transaction on, vol. 36, no. 9, pp. 1775-1788, Sept 2014.
W. Yang, Y. Wang, and G. Mori, "Recognizing Human Actions from Still Images with Latent Poses", in Computer Vision and Pattern Recognition (CVPR), 2010 International Conference on. San Francisco, USA, IEEE, 2010, pp. 2030-2037
감시 카메라들로부터 캡쳐한 비디오로부터 휴먼 상호액션을 표현하는 기술이 제시된다.
그룹 내 또는 그룹들 상호 간에 있어, 상호 휴먼 객체 간 상호액션을 모델링하는 기술이 제시된다.
비-상호작용 오브젝트(non-interacted objects)를 생략함으로써, 계산 비용을 줄이는 것을 목적으로 한다.
특이 값이 데이터 집합에 포함되지 않기 때문에 기능의 훈련 데이터 세트의 품질을 향상시키는 것을 목적으로 한다.
싱글 오브젝트 액션 인식(single object action recognition)과 상호작용 그룹 활동 인식(interactive group activity recognition)을 구분하는데 있어, 분류의 정확도를 향상시키는 것을 목적으로 한다.
일실시예에 따른 상호 활동 모델링 방법은 비디오로부터 추출한 2차원 스켈레톤 위치의 데이터 세트를 입력받는 단계, 상기 입력된 데이터 세트로부터 오브젝트의 위치 좌표들을 연산하는 단계, 상기 연산된 오브젝트의 위치 좌표들로부터 상기 오브젝트의 움직임 속도 및 움직임 방향을 포함하는 트래킹 특징들을 계산하는 단계, 상기 오브젝트에 대응되는 상호 존과 상기 계산된 트래킹 특징들에 기초하여 상호 오브젝트를 결정하는 단계, 상기 결정된 상호 오브젝트에 대한 스켈레톤의 데이터 세트로부터 특징들을 계산하는 단계, 및 상기 계산된 특징들을 싱글 휴먼 액션들의 토픽들과 상호 그룹 활동들에 모델링하는 단계를 포함한다.
일실시예에 따른 상기 오브젝트의 위치 좌표들을 연산하는 단계는, 상기 입력된 데이터 세트로부터 몸통의 4조인트를 이용해서 상기 오브젝트에 대한 위치 좌표들을 검출하는 단계를 포함한다.
일실시예에 따른 상기 상호 오브젝트 및 상기 상호 오브젝트에 상응하는 비상호 오브젝트들은 상호 포텐셜 존과 상기 트래킹 특징들을 통해 결정된다.
일실시예에 따른 상기 오브젝트의 움직임 속도 및 움직임 방향을 포함하는 트래킹 특징들을 계산하는 단계는, 상기 오브젝트의 공간적-시간적 조인트 거리와 휴먼 오브젝트들 간에 상기 움직임 방향을 추출하되, 상기 스켈레톤의 위치 데이터세트로부터 추출하는 단계를 포함한다.
일실시예에 따른 상기 모델링하는 단계는, 모델링 알고리즘을 이용해서 상기 싱글 휴먼 액션들을 위한 확률 모델 및 상기 상호 그룹 활동들을 생성하는 단계를 포함한다.
일실시예에 따른 상호 오브젝트 식별 방법은 오브젝트의 위치 좌표들을 입력받는 단계, 상기 입력된 오브젝트의 위치 좌표들에 기초하여 상기 오브젝트로부터 미리 지정된 범위 내에 위치하는 싱글 상호 포텐셜 존들을 결정하는 단계, 상기 결정된 싱글 상호 포텐셜 존들에 기초하여 각 오브젝트에 대한 중첩 영역의 비율을 계산하는 단계, 및 각 오브젝트에 대한 그룹 아이디에 할당된 임계값과 상기 계산된 비율을 비교하여 상기 오브젝트를 식별하는 단계를 포함한다.
일실시예에 따른 상기 싱글 상호 포텐셜 존들을 결정하는 단계는, 상기 오브젝트의 위치 좌표와 원의 반지름에 기초하여 상기 싱글 상호 포텐셜 존들을 결정하는 단계를 포함한다.
일실시예에 따른 상기 비율은 각 오브젝트의 그룹 아이디를 결정하기 위한 임계값에 대비된다.
일실시예에 따른 특징 데이터 세트의 구성 방법은 그룹 아이디를 입력 받는 단계, 상기 그룹 아이디에 해당하는 각 그룹에 대한 오브젝트의 수를 비교하는 단계, 상기 비교된 오브젝트의 수를 고려하여 및 중에서 적어도 하나 이상의 좌표에 대한 특징들을 추출하는 단계, 상기 추출된 특징들에 상응하는 데이터세트를 인식하는 단계, 및 상기 인식된 데이터세트에 기초하여 인트라 오브젝트 데이터 세트와 인터 오브젝트 특징 데이터세트를 획득하는 단계를 포함한다.
일실시예에 따른 상기 특징들을 추출하는 단계는, 상기 그룹 내에 하나의 오브젝트가 있는 경우, x=y 좌표에 대한 특징들을 추출하는 단계를 포함한다.
일실시예에 따른 특징 데이터 세트의 구성 방법은 상기 오브젝트의 수의 비교 결과를 고려하여, 상기 오브젝트를 비상호 오브젝트와 상호 오브젝트의 두 그룹으로 분류하는 단계를 더 포함한다.
일실시예에 따른 상기 오브젝트를 비상호 오브젝트와 상호 오브젝트의 두 그룹으로 분류하는 단계는, 상기 오브젝트에 대한 공간적-시간적 조인트 거리와 움직임 방향 특징들은 추출하는 단계를 포함한다.
일실시예에 따른 상기 특징들을 추출하는 단계는, 싱글 액션 인식을 위한 인트라 오브젝트 특징 및 상호 활동 인식을 위한 데이터 세트와 인터 오브젝트 특징 중에서 적어도 하나 이상의 특징을 추출하는 단계를 포함한다.
일실시예에 따른 확률 모델 생성 방법은 특징 데이터세트를 입력받는 단계, K-평균 클러스터링 알고리즘을 적용하여 상기 특징 데이터세트들 내의 특징들을 코드워드들로 클러스터링하는 단계, 상기 클러스터링에 따른 인트라 오브젝트 특징들과 인터 오브젝트 특징들을 액션들과 활동들의 코드워드 히스토그램들로 맵핑하는 단계, 상기 맵핑된 히스토그램에 기반하는 계층 모델(hierarchical model)을 이용해서 워드들을 인코딩하는 단계, 및 상기 인코딩된 워드들을 이용해서 확률 모델을 출력하는 단계를 포함한다.
일실시예에 따른 상기 확률 모델을 출력하는 단계는, 계측 모델을 기반으로 하는 토픽 모델링에 기초하여 상기 확률 모델을 생성하는 단계를 포함한다.
일실시예에 따른 상호 활동 모델링 프로그램은 비디오로부터 추출한 2차원 스켈레톤 위치의 데이터 세트를 입력받는 명령어 세트, 상기 입력된 데이터 세트로부터 오브젝트의 위치 좌표들을 연산하는 명령어 세트, 상기 연산된 오브젝트의 위치 좌표들로부터 상기 오브젝트의 움직임 속도 및 움직임 방향을 포함하는 트래킹 특징들을 계산하는 명령어 세트, 상기 오브젝트에 대응되는 상호 존과 상기 계산된 트래킹 특징들에 기초하여 상호 오브젝트를 결정하는 명령어 세트, 상기 결정된 상호 오브젝트에 대한 스켈레톤의 데이터 세트로부터 특징들을 계산하는 명령어 세트, 및 상기 계산된 특징들을 싱글 휴먼 액션들의 토픽들과 상호 그룹 활동들에 모델링하는 명령어 세트를 포함한다.
실시예들에 따르면, 감시 카메라들로부터 캡쳐한 비디오로부터 휴먼 상호액션을 표현할 수 있다.
실시예들에 따르면, 그룹 내 또는 그룹들 상호 간에 있어, 상호 휴먼 객체 간 상호액션을 모델링할 수 있다.
실시예들에 따르면, 비-상호작용 오브젝트(non-interacted objects)를 생략함으로써, 계산 비용을 줄일 수 있다.
실시예들에 따르면, 특이 값이 데이터 집합에 포함되지 않기 때문에 기능의 훈련 데이터 세트의 품질을 향상시킬 수 있다.
실시예들에 따르면, 싱글 오브젝트 액션 인식(single object action recognition)과 상호작용 그룹 활동 인식(interactive group activity recognition)을 구분하는데 있어, 분류의 정확도를 향상시킬 수 있다.
도 1은 싱글 액션과 상호 활동 인식을 위한 모델링 방법에 대한 흐름도이다.
도 2는 14-조인트 휴먼 자세, 중심점의 결정, 오브젝트의 거리와 움직임 방향을 표현하는 도면이다.
도 3은 상호 작용 존 결정과 오브젝트 그룹 설립을 설명하는 도면이다.
도 4는 조인트 위치 정보를 이용해서 4특징들의 결정을 설명하는 도면이다.
도 5는 상호 작용 존 식별과 오브젝트 그룹 생성의 프로세스를 보여준다.
도 6은 인트라 오브젝트 특징 데이터세트와 인터 오브젝트 특징 데이터세트로 구분되는 두 특징 데이터세트들의 구성 프로세스를 나타낸다.
도 7은 두 특징 데이터세트를 위한 코드북 생성과 토픽 모델링의 프로세스를 도시한다.
도 8은 하나의 특징 벡터를 코드워드의 히스토그램으로 맵핑하는 실시예를 설명하는 도면이다.
도 9는 4-레벨 구조의 토픽 모델을 위한 계층 모델을 디스플레이 하는 도면이다.
도 2는 14-조인트 휴먼 자세, 중심점의 결정, 오브젝트의 거리와 움직임 방향을 표현하는 도면이다.
도 3은 상호 작용 존 결정과 오브젝트 그룹 설립을 설명하는 도면이다.
도 4는 조인트 위치 정보를 이용해서 4특징들의 결정을 설명하는 도면이다.
도 5는 상호 작용 존 식별과 오브젝트 그룹 생성의 프로세스를 보여준다.
도 6은 인트라 오브젝트 특징 데이터세트와 인터 오브젝트 특징 데이터세트로 구분되는 두 특징 데이터세트들의 구성 프로세스를 나타낸다.
도 7은 두 특징 데이터세트를 위한 코드북 생성과 토픽 모델링의 프로세스를 도시한다.
도 8은 하나의 특징 벡터를 코드워드의 히스토그램으로 맵핑하는 실시예를 설명하는 도면이다.
도 9는 4-레벨 구조의 토픽 모델을 위한 계층 모델을 디스플레이 하는 도면이다.
이하에서, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 이러한 실시예들에 의해 권리범위가 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명에서 사용되는 용어는, 연관되는 기술 분야에서 일반적이고 보편적인 것으로 선택되었으나, 기술의 발달 및/또는 변화, 관례, 기술자의 선호 등에 따라 다른 용어가 있을 수 있다. 따라서, 아래 설명에서 사용되는 용어는 기술적 사상을 한정하는 것으로 이해되어서는 안 되며, 실시예들을 설명하기 위한 예시적 용어로 이해되어야 한다.
또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세한 그 의미를 기재할 것이다. 따라서 아래 설명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 이해되어야 한다.
도 1은 싱글 액션과 상호 활동 인식을 위한 모델링 방법에 대한 흐름도이다.
일실시예에 따른 상호 활동 모델링 방법은 비디오로부터 추출한 2차원 스켈레톤 위치의 데이터 세트를 입력 받는다(단계 101).
입력 데이터는 조인트 위치 정보와 함께 휴먼 오브젝트 스켈레톤을 포함한다.
입력 데이터에 상응하는 출력은 분류기(classifier)를 서포트 하기 위한 필요한 싱글 오브젝트 액션들과 상호 작용 그룹 활동들에 기반하는 확률 모델이다. 이를 위해, 일실시예에 따른 상호 활동 모델링 방법은 입력된 데이터 세트로부터 오브젝트의 위치 좌표들을 연산한다(단계 102). 즉, 자세 추정을 위해서는 조인트의 위치를 결정해야만 하는데, 이를 위해 단계 102를 통해 오브젝트의 위치 좌표들을 연산한다.
예를 들어, 상호 활동 모델링 방법은 오브젝트의 위치 좌표들을 연산하기 위해 입력된 데이터 세트로부터 몸통의 4관절을 이용해서 오브젝트에 대한 위치 좌표들을 검출할 수 있다.
Yang의 연구 등에 따르면, 각 휴먼의 자세는 14 조인트 요소를 포함한다.
14 조인트 요소는 이후 도 2를 통해 구체적으로 설명한다.
다음으로, 일실시예에 따른 상호 활동 모델링 방법은 연산된 오브젝트의 위치 좌표들로부터 상기 오브젝트의 움직임 속도 및 움직임 방향을 포함하는 트래킹 특징들을 계산한다(단계 103). 또한, 일실시예에 따른 상호 활동 모델링 방법은 오브젝트에 대응되는 상호 존과 상기 계산된 트래킹 특징들에 기초하여 상호 오브젝트를 결정하고(단계 104), 결정된 상호 오브젝트에 대한 스켈레톤의 데이터 세트로부터 특징들을 계산한다(단계 105).
일례로, 트래킹 특징들을 계산하기 위해 일실시예에 따른 상호 활동 모델링 방법은 오브젝트의 공간적-시간적 조인트 거리와 휴먼 오브젝트들 간에 움직임 방향을 추출하되, 스켈레톤의 위치 데이터세트로부터 추출할 수 있다.
일실시예에 따른 상호 활동 모델링 방법은 계산된 특징들을 싱글 휴먼 액션들의 토픽들과 상호 그룹 활동들에 모델링하고(단계 106), 모델링 결과를 이용해서 확률 모델을 생성한다(단계 107).
예를 들어, 상호 활동 모델링 방법은 상호 그룹 활동들에 모델링 하기 위해 모델링 알고리즘을 이용해서 싱글 휴먼 액션들을 위한 확률 모델 및 상호 그룹 활동들을 생성할 수 있다.
도 2는 14-조인트 휴먼 자세, 중심점의 결정, 오브젝트의 거리와 움직임 방향을 표현하는 도면이다.
도 2에서 보는 바와 같이, 휴먼의 자세(201)는 14 조인트 요소를 포함한다. 또한, 오브젝트의 좌표를 지역화(localize) 하기 위해서는, 몸통(202)의 4 조인트들을 사용하여 중심점을 결정해야 한다.
구체적으로, 도 2에 도시된 각 포인트들은 오브젝트의 좌표로서, [수학식 1]에 의해 계산될 수 있다.
[수학식 1]
[수학식 2]
[수학식 3]
상호 작용 표현에 있어 중요한 것은 현재 장면에서 다른 오브젝트들과 상호 동작하는 오브젝트를 어떻게 식별하냐는 것이다.
검출된 모든 오브젝트들로부터 추출된 특징들을 계산하는 대신에, 특징 추출 스텝을 진행하기에 앞서 식별 처리를 수행하면 다음의 장점을 얻을 수 있다.
비-상호작용 오브젝트(non-interacted objects)를 생략함으로써, 계산 비용을 줄일 수 있다.
특이 값이 데이터 집합에 포함되지 않기 때문에 기능의 훈련 데이터 세트의 품질을 향상시킬 수 있다. 이것은 단일 객체들을 상호 작용에 따른 검출과 인식을 고려하지 않는 것을 의미한다.
싱글 오브젝트 액션 인식(single object action recognition)과 상호작용 그룹 활동 인식(interactive group activity recognition)을 구분하는데 있어, 분류의 정확도를 향상시킬 수 있다.
본 발명에서, IPZ(Interaction Potential Zone) 알고리즘을 사용할 수 있다.
IPZ(Interaction Potential Zone) 알고리즘은 도 3을 통해 상세히 설명한다.
도 3은 상호 작용 존 결정과 오브젝트 그룹 설립을 설명하는 도면이다.
도 3에 개시된 바와 같이, IPZ(Interaction Potential Zone) 알고리즘은 Group Interaction Zone (GIZ)을 검출하는데 필요한 기본 유닛이다
다음으로, 도 3의 도면부호 301과 같이 계산된 IPZ들간 중첩 영역의 비율(503)이 계산된다. 이 때의 비율(503)은 상호작용 휴먼 오브젝트들에 의하여 커버되는 전체 영역에 대한 중첩 영역의 비율로서, [수학식 4]에 의해서 산출될 수 있다.
[수학식 4]
휴먼 오브젝트의 세트는 [수학식 5]에 의해 수행될 수 있는 비교 연산을 통해서 할당되는 상호 작용들을 갖는다.
[수학식 5]
그룹 할당은 아래 세가지 상황으로 설명될 수 있다.
출력은 오브젝트의 그룹 식별자(GID, GroupID)에 대한 세트이다.
그러나, 그룹 식별자(GID, GroupID)를 할당하는 데는 특별한 케이스들이 있다.
예를 들어, 도 3의 도면부호 301에서 보는 바와 같이, GID=A의 오브젝트는 GID=B의 오브젝트 그룹 방향의 그룹으로 이동하는 경향을 나타낸다.
이러한 상황을 위해, 그룹 식별자(GID, GroupID)의 할당이 필요하다.
이러한 상황에서는 동적 객체에 대한 고려, 즉 F_v ^ X (T-1, T) ≥δ는 δ와 현재 개체를 식별하기 위해 속도 임계 값을 이동 또는 비 운동 상태인 점이 고려 되어야 한다.
현재 위치로부터의 움직임의 속도와 방향에 있어, 오브젝트의 위치는 [수학식 6]과 같이 다음 시간(next time (t+1))에서 계산된다.
[수학식 6]
만약, 다음 위치 값이 다른 그룹의 IPZ 내에 있다면, 오브젝트의 그룹 식별자(GID, GroupID), 는 [수학식 7]과 같이 로 식별되는 다음 목적지 그룹(next destination group)의 그룹 식별자(GID, GroupID)로 변경된다.
[수학식 7]
도면부호 302에 나타난 경우는 도 3에서 보는 바와 같다.
만약, 다음 위치 값이 다른 그룹의 IPZ의 외부라면, 로 식별되는 오브젝트의 그룹 식별자는 [수학식 8]과 같이 새로운 그룹 식별자로 변경된다. 이때의 새로운 그룹 식별자는 이미 존재하는 GID들(로 표시)과 중첩되지 않는다.
[수학식 8]
도 3의 도면부호 302에 나타난 상황에 적용될 수 있다.
싱글 오브젝트 액션 인식을 위한 오브젝트의 조인트들의 관계와, 상호 작용을 하는 그룹 활동 인식을 위한 두 오브젝트들의 조인트들 간 관계를 설명하기 위해, 본 발명에서는 공간-시간 차원(space-time dimension)에서 조인트 구성들 간 거리와 방향을 추출한다.
도 4는 조인트 위치 정보를 이용해서 4특징들의 결정을 설명하는 도면이다.
구체적으로, 공간-시간 조인트 특징들은 도면부호 401 내지 404에서 보는 바와 같이 스켈레톤 위치에 기반해서 계산된다.
공간 조인트 거리(401)는 프레임 내의 두 사람들 사이에 대한 모든 조인트들이 쌍 간 유클리디안 거리로 정의 될 수 있다. 즉, 공간 조인트 거리(401)는 상호 작용 자세와 두 조인트들 간 거리를 [수학식 9]를 이용해서 캡쳐한다.
[수학식 9]
임시 조인트 거리(Temporal joint distance)는 서로 다른 프레임들에 포함된 두 사람의 조인트들의 모든 쌍 간 유클리디안 거리(Euclidean distance)로 정의된다. 즉, 임시 조인트 거리(Temporal joint distance)는 [수학식 10]에 기반해서, 과 의 프레임에 상응하는 time와 에서의 상호 작용의 사지 쌍 간 거리를 측정한다.
[수학식 10]
공간 조인트 운동(Spatial joint motion)(403)은 상호 작용 자세에 있어 두 조인트들 사이의 각도를 캡쳐하고, 이는 [수학식 11]에 기반하여 산출될 수 있다.
[수학식 11]
시간 조인트 모션(404)의 경우, 조인트 들의 모든 쌍 사이에서 정의될 수 있는데, 상호 작용의 수족 쌍에 대한 각도를 와 에 해당하는 프레임의 과 에서 측정될 수 있다. 예를 들면, [수학식 12]를 통해 상호 작용의 수족 쌍에 대한 각도를 측정할 수 있다.
[수학식 12]
도 5는 상호 작용 존 식별과 오브젝트 그룹 생성의 프로세스를 보여준다.
도 5는 오브젝트 중심 좌표를 수집한다(단계 501). 상호 오브젝트 식별하기 위해서는 오브젝트의 위치 좌표들을 입력 받는다.
다음으로, 상호 작용 존 식별과 오브젝트 그룹을 생성하기 위해서는, 싱글 오브젝트 영역을 설립하고(단계 502), 중첩 비율을 계산할 수 있다(단계 503).
또한, 오브젝트에 대한 그룹 아이디에 할당된 임계값과 계산된 비율을 비교하여 오브젝트를 식별할 수 있다. 일례로, 싱글 상호 포텐셜 존들과 상기 중첩 영역의 비율은, 각각의 오브젝트에 대해서 식별될 수 있다.
또한, 오브젝트에 대한 그룹 아이디에 할당된 임계값과 계산된 비율을 비교하여 오브젝트를 식별할 수 있다. 일례로, 싱글 상호 포텐셜 존들과 상기 중첩 영역의 비율은, 각각의 오브젝트에 대해서 식별될 수 있고, 이때의 비율은 각 오브젝트의 그룹 아이디를 결정하기 위한 임계값에 대비될 수 있다.
다음으로, 상호 작용 존 식별과 오브젝트 그룹을 생성하기 위해서는 단계 504에서 반지름을 고려할 수 있다(단계 504).
계산된 IPZ들간 중첩 영역의 비율(503)은 상호작용 휴먼 오브젝트들에 의하여 커버되는 전체 영역에 대한 중첩 영역의 비율이다.
출력은 오브젝트의 그룹 식별자(GID, GroupID)에 대한 세트이다(단계 507).
그러나, 그룹 식별자(GID, GroupID)를 할당하는 데는 특별한 케이스들이 있다.
예를 들어, 도 3의 도면부호 301에서 보는 바와 같이, GID=A의 오브젝트는 GIDB의 오브젝트 그룹 방향의 그룹으로 이동하는 경향을 나타낸다.
이러한 상황을 위해, 그룹 식별자(GID, GroupID)의 할당이 필요하다.
도 6은 인트라 오브젝트 특징 데이터세트와 인터 오브젝트 특징 데이터세트로 구분되는 두 특징 데이터세트들의 구성 프로세스를 나타낸다.
도 6에서는 도 1의 단계 105의 특징 추출 과정을 구체적으로 설명한다.
일실시예에 따른 특징 데이터 세트의 구성 방법은 먼저, 그룹 아이디를 입력 받을 수 있다(단계 601).
즉, 특징 데이터세트를 추출하기 위해서는, 그룹 아이디에 기초해서 오브젝트를 두 개 그룹으로 구별 해야 한다. 예를 들어, 그룹 아이디에 기초해서 오브젝트를 비상호 오브젝트와 상호 오브젝트의 두 그룹으로 분류해야 하고, 이에 기초하여 오브젝트에 대한 공간적-시간적 조인트 거리와 움직임 방향 특징들이 추출해야 한다. 또한, 이를 위해, 싱글 액션 인식을 위한 인트라 오브젝트 특징 및 상호 활동 인식을 위한 데이터 세트와 인터 오브젝트 특징 중에서 적어도 하나 이상의 특징을 추출한다.
다음으로, 일실시예에 따른 특징 데이터 세트의 구성 방법은 상기 그룹 아이디에 해당하는 각 그룹에 대한 오브젝트의 수를 비교하여 오브젝트의 수가 2 이상인지 여부를 판단할 수 있다(단계 602).
이를 위해, 단계 602의 판단 결과 오브젝트의 수가 2 이상인 경우, 특징 데이터 세트의 구성 방법은 그룹 내에 하나의 오브젝트가 있는 경우, x=y 좌표에 대한 특징들을 추출한다(단계 603).
일실시예에 따른 특징 데이터 세트의 구성 방법은 단계 602의 판단 결과 오브젝트의 수가 2 이상이 아닌 경우, 그룹 내에 한 개 이상이 오브젝트가 있다면, 및 의 좌표에 대한 특징들을 추출할 수 있다(단계 604).
일실시예에 따른 특징 데이터 세트의 구성 방법은 추출된 특징들에 상응하는 데이터세트를 인식할 수 있다(단계 605).
특징들은 다른 오브젝트들과의 상호 작용을 시험하지 않고 싱글 동작을 인식하는데 이용될 수 있다.
만약, 현재 오브젝트가 다른 오브젝트들과 같은 그룹 아이디를 갖는 다면, 그룹들이 더 많은 오브젝트들로 구성됨을 의미한다. 이의 특징들은 단계 603, 604에서와 같이 와 의 컨디션에서 계산될 수 있다.
또한, 상기 인식된 데이터세트에 기초하여 인트라 오브젝트 특징 데이터세트(단계 606)와 인터 오브젝트 특징 데이터세트를 획득(단계 607)할 수 있다.
추출된 특징들은 인트라 오브젝트 특징 데이터세트는 공간 조인트 거리 특징 서브셋(Spatial joint distance feature subset), 임시 조인트 거리 특징 서브셋(Temporal joint distance feature subset), 공간 조인트 모션 특징 서브셋(Spatial joint motion feature subset), 임시 조인트 모션 특징 서브셋(Temporal joint motion feature subset)을 포함한다.
임시 조인트 거리 특징 서브셋(Temporal joint distance feature subset)은 으로 표현될 수 있고, 공간 조인트 모션 특징 서브셋(Spatial joint motion feature subset)은 으로 표현될 수 있다.
싱글 휴먼 오브젝트로부터 추출된 특징을 표현하기 위한 벡터는 다음과 같이 표현될 수 있다.
또한, 인터 오브젝트 특징 데이터세트는 다음의 구성요소를 포함할 수 있다.
공간 조인트 거리(Spatial joint distance)으로서, , 임시 조인트 거리(Temporal joint distance)으로서 , 공간 조인트 모션(Spatial joint motion)으로서 , 임시 조인트 모션(Temporal joint motion)으로서 를 포함한다.
상호 작용 휴먼 오브젝트로부터 추출된 특징을 표현하기 위해서는, 벡터 특징을 아래와 같이 표현할 수 있다.
두 특징 데이터세트들은 입력되는 비디오들과 2차원 매트리스에 따라서 프레임별로 수집된다. 두 특징 데이터세트들 중에서 하나는 인트라 오브젝트 특징 데이터세트와 다른 하나는 인터 오브젝트 특징 데이터세트에 대한 것이다.
도 7은 두 특징 데이터세트를 위한 코드북 생성과 토픽 모델링의 프로세스를 도시한다.
도 7에서는 도 1의 단계 106의 모델링 과정을 구체적으로 설명한다.
인트라 오브젝트 특징 데이터세트(701)와 인터 오브젝트 특징 데이터세트(702)를 포함하는 듀얼 구조 모델이 확률 모델을 생성하는데 이용될 수 있다.
모델은 "bag-of-words"방식, 즉, 파칭코 배분 모형의 가정에 기초하여 개발된다.
통계 분석은 워드들의 동시발생에 의한 히스토그램에 기반하는 분석될 수 있고, 이 모델을 지원하기 위해, 코드북은 단계 703에서와 같이 K-평균 클러스터링이 수행될 수 있다. 즉, 확률 모델 생성 방법은 K-평균 클러스터링 알고리즘을 적용하여 상기 특징 데이터세트들 내의 특징들을 코드워드들로 클러스터링을 수행할 수 있다(단계 703).
다음으로, 확률 모델 생성 방법은 클러스터링에 따른 인트라 오브젝트 특징들(704)과 인터 오브젝트 특징들(705)을 액션들과 활동들의 코드워드 히스토그램들로 맵핑할 수 있다.
다음으로, 확률 모델 생성 방법은 맵핑된 히스토그램에 기반하는 계층 모델(hierarchical model)을 이용해서 워드들을 인코딩한다(단계 706).
이후, 확률 모델 생성 방법은 인코딩된 워드들을 이용해서 확률 모델을 출력한다. 구체적으로, 액션(action)을 위한 확률 모델을 출력하거나(단계 707), 활동(activity)을 위한 확률 모델을 출력할 수 있다(단계 708).
확률 모델 생성 방법은 확률 모델을 출력하기 위해 계측 모델을 기반으로 하는 토픽 모델링에 기초하여 확률 모델을 생성할 수 있다.
도 8은 하나의 특징 벡터를 코드워드의 히스토그램으로 맵핑하는 실시예를 설명하는 도면이다.
인트라 오브젝트 벡터를 히스토그램에 맵핑하는 실시예에 해당한다.
도 9는 4-레벨 구조의 토픽 모델을 위한 계층 모델을 디스플레이 하는 도면이다.
"bag-of-words" 모델에 기반해서 학습하고 인식하기 위해서는, Pachinko Allocation Model (Li et al. 2006)과 같이 유연하고, 표현력있는 Latent Dirichlet Allocation (LDA)로부터 개발되어야 한다.
도 9에서는 버텀(bottom) 레벨에서 N 액션 워드들 또는 M 상호작용 워드들로 구성되고, 1번째 레벨에서 n1 액션 서브 토픽들, m1 상호작용 서브 토픽들로 구성되며, 2번째 레벨에서 n2 액션 서브 토픽들, m2 상호작용 서브 토픽들로 구성되며, 탑 레벨에서는 하나의 루트로 구성되는 4레벨의 계측적 구조를 나타낸다.
이 모델에 대한 전체 보고서는 Li(2006)에서 설명하고 있다.
결국, 본 발명을 이용하면 비-상호작용 오브젝트(non-interacted objects)를 생략함으로써, 계산 비용을 줄일 수 있다. 또한, 특이 값이 데이터 집합에 포함되지 않기 때문에 기능의 훈련 데이터 세트의 품질을 향상시킬 수 있으며, 싱글 오브젝트 액션 인식(single object action recognition)과 상호작용 그룹 활동 인식(interactive group activity recognition)을 구분하는데 있어, 분류의 정확도를 향상시킬 수 있다.
본 발명의 일실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
Claims (19)
- 컴퓨터에 의해 적어도 일시적으로 구현되는 상호 활동 모델링 방법에 있어서,
비디오로부터 추출한 2차원 스켈레톤 위치의 데이터 세트를 입력받는 단계;
상기 입력된 데이터 세트로부터 오브젝트의 위치 좌표들을 연산하는 단계;
상기 연산된 오브젝트의 위치 좌표들로부터 상기 오브젝트의 움직임 속도 및 움직임 방향을 포함하는 트래킹 특징들을 계산하는 단계;
상기 오브젝트에 대응되는 상호 존과 상기 계산된 트래킹 특징들에 기초하여 상호 오브젝트를 결정하는 단계;
상기 결정된 상호 오브젝트에 대한 스켈레톤의 데이터 세트로부터 특징들을 계산하는 단계; 및
상기 계산된 특징들을 싱글 휴먼 액션들의 토픽들과 상호 그룹 활동들에 모델링하는 단계
를 포함하는 상호 활동 모델링 방법.
- 제1항에 있어서,
상기 오브젝트의 위치 좌표들을 연산하는 단계는,
상기 입력된 데이터 세트로부터 몸통의 4조인트를 이용해서 상기 오브젝트에 대한 위치 좌표들을 검출하는 단계
를 포함하는 상호 활동 모델링 방법.
- 제1항에 있어서,
상기 상호 오브젝트 및 상기 상호 오브젝트에 상응하는 비상호 오브젝트들은 상호 포텐셜 존과 상기 트래킹 특징들을 통해 결정되는 상호 활동 모델링 방법.
- 제1항에 있어서,
상기 오브젝트의 움직임 속도 및 움직임 방향을 포함하는 트래킹 특징들을 계산하는 단계는,
상기 오브젝트의 공간적-시간적 조인트 거리와 휴먼 오브젝트들 간에 상기 움직임 방향을 추출하되, 상기 스켈레톤의 위치 데이터세트로부터 추출하는 단계
를 포함하는 상호 활동 모델링 방법.
- 제1항에 있어서,
상기 모델링하는 단계는,
모델링 알고리즘을 이용해서 상기 싱글 휴먼 액션들을 위한 확률 모델 및 상기 상호 그룹 활동들을 생성하는 단계
를 포함하는 상호 활동 모델링 방법.
- 컴퓨터에 의해 적어도 일시적으로 구현되는 상호 오브젝트 식별 방법에 있어서,
오브젝트의 위치 좌표들을 입력받는 단계;
상기 입력된 오브젝트의 위치 좌표들에 기초하여 상기 오브젝트로부터 미리 지정된 범위 내에 위치하는 싱글 상호 포텐셜 존들을 결정하는 단계;
상기 결정된 싱글 상호 포텐셜 존들에 기초하여 각 오브젝트에 대한 중첩 영역의 비율을 계산하는 단계; 및
각 오브젝트에 대한 그룹 아이디에 할당된 임계값과 상기 계산된 비율을 비교하여 상기 오브젝트를 식별하는 단계
를 포함하는 상호 오브젝트 식별 방법.
- 제6항에 있어서,
상기 싱글 상호 포텐셜 존들을 결정하는 단계는,
상기 오브젝트의 위치 좌표와 원의 반지름에 기초하여 상기 싱글 상호 포텐셜 존들을 결정하는 단계
를 포함하는 상호 오브젝트 식별 방법.
- 제6항에 있어서,
상기 싱글 상호 포텐셜 존들과 상기 중첩 영역의 비율은, 각각의 오브젝트에 대해서 식별되는 상호 오브젝트 식별 방법.
- 삭제
- 제10항에 있어서,
상기 특징들을 추출하는 단계는,
상기 그룹 내에 하나의 오브젝트가 있는 경우, x=y 좌표에 대한 특징들을 추출하는 단계
를 포함하는 특징 데이터 세트의 구성 방법.
- 제10항에 있어서,
상기 오브젝트의 수의 비교 결과를 고려하여, 상기 오브젝트를 비상호 오브젝트와 상호 오브젝트의 두 그룹으로 분류하는 단계
를 더 포함하는 특징 데이터 세트의 구성 방법.
- 제13항에 있어서,
상기 오브젝트를 비상호 오브젝트와 상호 오브젝트의 두 그룹으로 분류하는 단계는,
상기 오브젝트에 대한 공간적-시간적 조인트 거리와 움직임 방향 특징들은 추출하는 단계
를 포함하는 특징 데이터 세트의 구성 방법.
- 제10항에 있어서,
상기 특징들을 추출하는 단계는,
싱글 액션 인식을 위한 인트라 오브젝트 특징 및 상호 활동 인식을 위한 데이터 세트와 인터 오브젝트 특징 중에서 적어도 하나 이상의 특징을 추출하는 단계
를 포함하는 특징 데이터 세트의 구성 방법.
- 컴퓨터에 의해 적어도 일시적으로 구현되는 확률 모델 생성 방법에 있어서,
특징 데이터세트를 입력받는 단계;
K-평균 클러스터링 알고리즘을 적용하여 상기 특징 데이터세트들 내의 특징들을 코드워드들로 클러스터링하는 단계;
상기 클러스터링에 따른 인트라 오브젝트 특징들과 인터 오브젝트 특징들을 액션들과 활동들의 코드워드 히스토그램들로 맵핑하는 단계;
상기 맵핑된 히스토그램에 기반하는 계층 모델(hierarchical model)을 이용해서 워드들을 인코딩하는 단계; 및
상기 인코딩된 워드들을 이용해서 확률 모델을 출력하는 단계
를 포함하는 확률 모델 생성 방법.
- 제16항에 있어서,
상기 확률 모델을 출력하는 단계는,
계측 모델을 기반으로 하는 토픽 모델링에 기초하여 상기 확률 모델을 생성하는 단계
를 포함하는 확률 모델 생성 방법.
- 제1항 내지 제8항 및 제10항 내지 제17항 중에서 어느 한 항의 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
- 기록매체에 저장되는 상호 활동 모델링 프로그램으로서, 상기 프로그램은 컴퓨팅 시스템에서 실행되는:
비디오로부터 추출한 2차원 스켈레톤 위치의 데이터 세트를 입력받는 명령어 세트;
상기 입력된 데이터 세트로부터 오브젝트의 위치 좌표들을 연산하는 명령어 세트;
상기 연산된 오브젝트의 위치 좌표들로부터 상기 오브젝트의 움직임 속도 및 움직임 방향을 포함하는 트래킹 특징들을 계산하는 명령어 세트;
상기 오브젝트에 대응되는 상호 존과 상기 계산된 트래킹 특징들에 기초하여 상호 오브젝트를 결정하는 명령어 세트;
상기 결정된 상호 오브젝트에 대한 스켈레톤의 데이터 세트로부터 특징들을 계산하는 명령어 세트; 및
상기 계산된 특징들을 싱글 휴먼 액션들의 토픽들과 상호 그룹 활동들에 모델링하는 명령어 세트
를 포함하는 상호 활동 모델링 프로그램.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150122086A KR101762010B1 (ko) | 2015-08-28 | 2015-08-28 | 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150122086A KR101762010B1 (ko) | 2015-08-28 | 2015-08-28 | 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170025535A KR20170025535A (ko) | 2017-03-08 |
KR101762010B1 true KR101762010B1 (ko) | 2017-07-28 |
Family
ID=58403728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150122086A KR101762010B1 (ko) | 2015-08-28 | 2015-08-28 | 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101762010B1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101969230B1 (ko) * | 2017-10-20 | 2019-04-15 | 연세대학교 산학협력단 | 학습을 이용한 모션 인식 장치 및 방법과 이에 대한 기록 매체 |
KR20200056602A (ko) | 2018-11-15 | 2020-05-25 | 송응열 | 객체 움직임 인식 방법 및 장치 |
KR20220090248A (ko) | 2020-12-22 | 2022-06-29 | 주식회사 네오펙트 | 연속되는 이미지 프레임에 대한 스켈레톤 분석에 기초한 동일객체 식별장치 및 식별방법 |
KR20220170544A (ko) | 2021-06-23 | 2022-12-30 | 하대수 | 운동 보조를 위한 객체 움직임 인식 시스템 및 방법 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111093301B (zh) * | 2019-12-14 | 2022-02-25 | 安琦道尔(上海)环境规划建筑设计咨询有限公司 | 一种灯光控制方法及其系统 |
KR102338486B1 (ko) * | 2019-12-20 | 2021-12-13 | 한국전자기술연구원 | 3d 골격 정보를 이용한 사용자 동작 인식 방법 및 시스템 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110052006A1 (en) | 2009-08-13 | 2011-03-03 | Primesense Ltd. | Extraction of skeletons from 3d maps |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7366645B2 (en) | 2002-05-06 | 2008-04-29 | Jezekiel Ben-Arie | Method of recognition of human motion, vector sequences and speech |
-
2015
- 2015-08-28 KR KR1020150122086A patent/KR101762010B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110052006A1 (en) | 2009-08-13 | 2011-03-03 | Primesense Ltd. | Extraction of skeletons from 3d maps |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101969230B1 (ko) * | 2017-10-20 | 2019-04-15 | 연세대학교 산학협력단 | 학습을 이용한 모션 인식 장치 및 방법과 이에 대한 기록 매체 |
KR20200056602A (ko) | 2018-11-15 | 2020-05-25 | 송응열 | 객체 움직임 인식 방법 및 장치 |
KR20220090248A (ko) | 2020-12-22 | 2022-06-29 | 주식회사 네오펙트 | 연속되는 이미지 프레임에 대한 스켈레톤 분석에 기초한 동일객체 식별장치 및 식별방법 |
KR20220170544A (ko) | 2021-06-23 | 2022-12-30 | 하대수 | 운동 보조를 위한 객체 움직임 인식 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20170025535A (ko) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11188783B2 (en) | Reverse neural network for object re-identification | |
KR101762010B1 (ko) | 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법 | |
Jalal et al. | Robust human activity recognition from depth video using spatiotemporal multi-fused features | |
Jalal et al. | Shape and motion features approach for activity tracking and recognition from kinect video camera | |
Soomro et al. | Predicting the where and what of actors and actions through online action localization | |
Ni et al. | Multilevel depth and image fusion for human activity detection | |
Chattopadhyay et al. | Pose Depth Volume extraction from RGB-D streams for frontal gait recognition | |
CN104599287B (zh) | 对象跟踪方法和装置、对象识别方法和装置 | |
US20130028517A1 (en) | Apparatus, method, and medium detecting object pose | |
Singh et al. | Action recognition in cluttered dynamic scenes using pose-specific part models | |
Liciotti et al. | People detection and tracking from an RGB-D camera in top-view configuration: review of challenges and applications | |
Tran et al. | Social cues in group formation and local interactions for collective activity analysis | |
Ma et al. | A survey of human action recognition and posture prediction | |
Park et al. | 2D human pose estimation based on object detection using RGB-D information. | |
Waheed et al. | A novel deep learning model for understanding two-person interactions using depth sensors | |
Wilson et al. | Avot: Audio-visual object tracking of multiple objects for robotics | |
KR102371127B1 (ko) | 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템 | |
Ali et al. | Deep Learning Algorithms for Human Fighting Action Recognition. | |
JP6103765B2 (ja) | 行動認識装置、方法及びプログラム並びに認識器構築装置 | |
Jean et al. | Body tracking in human walk from monocular video sequences | |
Kamiński et al. | Human activity recognition using standard descriptors of MPEG CDVS | |
Wang et al. | Hand motion and posture recognition in a network of calibrated cameras | |
Liang et al. | Action recognition using local joints structure and histograms of 3d joints | |
Mademlis et al. | Exploiting stereoscopic disparity for augmenting human activity recognition performance | |
Hayashi et al. | Upper body pose estimation for team sports videos using a poselet-regressor of spine pose and body orientation classifiers conditioned by the spine angle prior |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |