KR101711736B1 - 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 - Google Patents
영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 Download PDFInfo
- Publication number
- KR101711736B1 KR101711736B1 KR1020150072935A KR20150072935A KR101711736B1 KR 101711736 B1 KR101711736 B1 KR 101711736B1 KR 1020150072935 A KR1020150072935 A KR 1020150072935A KR 20150072935 A KR20150072935 A KR 20150072935A KR 101711736 B1 KR101711736 B1 KR 101711736B1
- Authority
- KR
- South Korea
- Prior art keywords
- point
- points
- motion recognition
- straight line
- angle
- Prior art date
Links
Images
Classifications
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G06K9/00362—
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
골격 정보를 이용한 사용자 동작 인식 방법은 동작 인식 장치가 사람의 복수의 훈련 동작을 포함하는 훈련 영상에서 사람의 관절 지점 중 제1 복수의 관절 지점에 기반한 제1 특징점으로 이용하여 신경망 학습을 수행하는 단계, 상기 동작 인식 장치가 카메라로 사람의 입력 동작을 포함하는 입력 영상을 획득하는 단계, 상기 동작 인식 장치가 상기 입력 영상에서 상기 사람의 관절 지점 중 상기 제1 복수의 관절 지점과 동일한 위치의 제2 복수의 관절 지점에 기반한 제2 특징점을 추출하는 단계 및 상기 동작 인식 장치가 상기 제2 특징점을 상기 신경망 학습을 통해 형성한 신경망 네트워크에 입력하여 상기 입력 동작에 대응하는 훈련 동작을 결정하는 단계를 포함한다.
Description
이하 설명하는 기술은 영상에 사용자 동작을 인식하기 위한 기술에 관한 것이다.
모션 인식 기술은 사용자의 신체 움직임을 인식하여 컴퓨터와 상호 작용 하는 기술이다. 사람의 움직임을 컴퓨터 장치에 대한 인터페이싱 입력으로 사용할 수 있다.
모션 인식을 적용한 대표적인 예는 자이로 센서를 기반으로 한 스마트폰, 컨트롤러 센서를 기반으로 한 게임 콘솔 및 카메라 센서 기반의 스마트폰 등이 있다.
MS의 Kinect는 영상에 포함된 사람의 골격 정보를 추출하여 동작을 인식한다. 다만 Kinect는 원거리에서 사람의 골격 정보를 추적하므로 정밀한 인식을 제공하지 못하는 한계가 있다.
이하 설명하는 기술은 영상에 포함된 사람의 골격 정보 중 동작을 정확하게 인식할 수 있는 특징점을 이용하는 동작 인식 방법을 제공하고자 한다.
영상에서 동작 인식을 위한 특징점 추출 방법은 동작 인식 장치가 카메라로 깊이 정보를 갖는 영상을 획득하는 단계, 동작 인식 장치가 영상에 포함된 객체를 추출하고, 객체의 골격 정보를 추출하는 단계, 동작 인식 장치가 골격 정보 중 복수의 지점에 대한 좌표를 결정하는 단계 및 동작 인식 장치가 복수의 지점이 형성하는 각도 및 복수의 지점과 특정 평면이 형성하는 각도를 특징점으로 결정하는 단계를 포함한다. 객체는 사람이고, 골격 정보는 사람의 관절 및 주요뼈에 해당하는 복수의 지점을 포함할 수 있다.
골격 정보를 이용한 사용자 동작 인식 방법은 동작 인식 장치가 사람의 복수의 훈련 동작을 포함하는 훈련 영상에서 사람의 관절 지점 중 제1 복수의 관절 지점에 기반한 제1 특징점으로 이용하여 신경망 학습을 수행하는 단계, 동작 인식 장치가 카메라로 사람의 입력 동작을 포함하는 입력 영상을 획득하는 단계, 동작 인식 장치가 입력 영상에서 사람의 관절 지점 중 제1 복수의 관절 지점과 동일한 위치의 제2 복수의 관절 지점에 기반한 제2 특징점을 추출하는 단계 및 동작 인식 장치가 제2 특징점을 신경망 학습을 통해 형성한 신경망 네트워크에 입력하여 입력 동작에 대응하는 훈련 동작을 결정하는 단계를 포함한다.
특징점은 복수의 지점 중 3개의 지점이 형성하는 2개의 직선 사이의 각도 및 3개의 지점 중 2개의 지점이 형상하는 직선과 특정 평면과의 각도 중 적어도 하나일 수 있다.
이하 설명하는 기술은 다른 장비 없이 영상을 통해 사람의 골격 정보를 추적하여 비교적 손쉽게 동작을 인식할 수 있다. 또한 이하 설명하는 기술은 사람의 골격 정보 중 동작을 명확하게 인식할 수 있는 특징점을 사용하고, 신경망 기계학습을 통해 사전에 마련된 기준으로 입력 동작을 명확하게 구분한다.
도 1은 골격 정보에 기반하여 동작을 인식하는 동작 인식 장치에 대한 구성을 도시한 블록도의 예이다.
도 2는 사람의 골격 정보에 대한 예이다.
도 3은 사람을 포함하는 깊이 영상에서 골격 정보를 도시한 예이다.
도 4는 골격 정보 중 일부를 이용한 특징점에 대한 예이다.
도 5는 골격 정보 중 일부를 이용한 다른 특징점에 대한 예이다.
도 6은 영상에서 동작 인식을 위한 특징점 추출 방법에 대한 순서도의 예이다.
도 7은 골격 정보를 이용한 사용자 동작 인식 방법에 대한 순서도의 예이다.
도 2는 사람의 골격 정보에 대한 예이다.
도 3은 사람을 포함하는 깊이 영상에서 골격 정보를 도시한 예이다.
도 4는 골격 정보 중 일부를 이용한 특징점에 대한 예이다.
도 5는 골격 정보 중 일부를 이용한 다른 특징점에 대한 예이다.
도 6은 영상에서 동작 인식을 위한 특징점 추출 방법에 대한 순서도의 예이다.
도 7은 골격 정보를 이용한 사용자 동작 인식 방법에 대한 순서도의 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다. 따라서, 본 명세서를 통해 설명되는 각 구성부들의 존재 여부는 기능적으로 해석되어야 할 것이며, 이러한 이유로 이하 설명하는 골격 정보를 이용한 사용자 동작 인식 방법의 구성은 이하 설명하는 기술의 목적을 달성할 수 있는 한도 내에서 대응하는 도면과는 상이해질 수 있음을 명확히 밝혀둔다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
도 1은 골격 정보에 기반하여 동작을 인식하는 동작 인식 장치(100)에 대한 구성을 도시한 블록도의 예이다. 도 1에서는 사람이 일정한 동작을 취하고 있고, 동작 인식 장치(100)가 제1 카메라(111) 및 제2 카메라(112)를 통해 사용자를 포함한 영상을 획득하고 있다. 동작 인식 장치(100)는 두 개의 카메라로 깊이 정보가 있는 영상을 획득한다. 두 개의 카메라는 RGB 카메라일 수도 있고, 적외선 카메라일 수도 있다. 깊이 정보 영상을 생성하는 과정은 널리 알려진 것이므로 자세한 설명은 생략한다.
도 1에서는 동작 인식 장치(100)의 구성으로 두 개의 카메라(111 및 112)만을 도시하였다. 후술하겠지만 동작 인식 장치(100)는 사람(객체)을 추출하고, 사람의 골격 정보를 기반으로 특징점을 추출한다. 따라서 동작 인식 장치(100)는 획득한 영상을 저장하는 저장 매체, 영상 처리를 위한 중앙 처리 장치 등과 같은 장치를 포함한다. 동작 인식 장치(100)는 일종의 컴퓨터 장치라고 할 수 있다. 동작인식 장치(100)는 게임 콘솔, 스마트 TV, PC, 스마트 도어락, 수화 번역 장치 등과 같은 장치일 수 있다.
동작 인식 장치(100)는 일정한 동작을 취하는 사람이 포함된 영상을 획득하고, 이미지 처리 기법을 통해 획득한 영상에서 사람을 추출한다. 사람 추출은 영상에서 배경을 제외한 특정 객체를 추출하는 기법을 이용한다.
깊이 정보는 인간의 양안을 모델로 한두 개 이상의 카메라를 활용하여 얻은 두 영상/동영상 사이의 변위정보(disparity information)을 3차원 정보로 변환하여 얻거나 적외선 센서를 이용하여 원거리에서 3차원 깊이를 측정 할 수 있다. 깊이 정보는 [0,255] 사이의 픽셀 값을 갖는 흑백이미지로 표현한다. 피사체가 카메라의 기준점에서 가까울수록 밝은 영역으로 표현되고, 멀수록 어둡게 표현된다. 깊이 영상에서 사람은 배경보다 앞에 위치하여 배경보다 밝게 표현되는 특성이 있다. 이러한 특성을 반영하여 컬러 정보와 깊이 정보의 혼합을 통해 영상으로부터 사람을 구분 할 수 있다.
동작 인식 장치(100)는 영상에서 사람을 추출하고, 추가적인 이미지 처리 기법을 사용하여 사람의 골격(skeleton) 정보를 추출한다. 적외선 카메라로 얻은 깊이 정보 값은 전경 또는 배경 내에서 평탄한 값을 가지며, 가까이 있는 물체 중에서도 사람의 골격을 가진 객체를 사람으로 인식한다. 도 2는 사람의 골격 정보에 대한 예이다.
골격 정보는 사람의 관절 부위 및 몸의 움직임에 관여하는 주요한 뼈의 위치를 포함한다. 팔에서 골격 정보는 손 지점, 손목 지점, 팔꿈치 지점 및 어깨 지점을 포함하고, 다리에서 골격 정보는 발 지점, 발목 지점, 무릎 지점 및 엉덩이 지점을 포함한다. 나머지 골격 정보는 머리 지점, 어깨 중심 지점, 척추 지점, 엉덩이 중심 지점을 포함한다. 도 2는 모두 20개의 위치를 골격 정보로 도시한다.
동작 인식 장치(100)는 일정한 지점을 기준으로 골격 정보에 포함되는 각 부위의 위치를 3차원 좌표로 결정할 수 있다.
도 3은 사람을 포함하는 깊이 영상에서 골격 정보를 도시한 예이다.
도 3(a)는 사람이 나타난 깊이 영상에서 사람에 해당하는 객체를 구분하고, 객체에 대한 골격화를 수행한 예에 해당한다. 도 3(a)에서 사람 내부에 직선으로 표현된 부분이 골격화의 결과물에 해당한다.
골격화는 이진영상에서 물체의 크기와 모양을 요약하는 선 과 곡선의 집합을 만드는 과정이다. 골격을 정의하는 방법이 다양하므로 주어진 물체에서 서로 다른 모양의 골격이 있을 수 있다. 다만 동작 인식 장치(100)가 인식하는 영상은 사람에 대한 영상이므로, 사람의 해부학적인 구조는 유사하여 골격화에 따른 결과물로 유사한다. 골격화는 침식연산을 이용해 수행한다. 골격화는 서로 다른 방향성이 여러 개 있는 침식마스크를 이용하여 영상 내의 물체를 서서히 깎아 침식을 반복하여 객체의 하부 구조를 나타낸다. 사람의 구조적인 특징에 대한 정보를 기반으로 골격화 결과물인 직선의 길이, 직선의 위치 및 직선의 휘어짐 등을 기준으로 전술한 골격 정보를 결정할 수 있다. 도 3(a)에서는 골격 정보를 직선에서 작은 점으로 표시하였다. 도 3(a)에서 어깨 지점, 팔꿈치 지점 및 손목 지점은 별도로 표시하였다.
도 3(b)는 깊이 정보 영상에서 골격 정보의 위치만을 십자 모양으로 도시한 예이다. 동작 인식 장치(100)는 획득한 영상에서 사람의 골격 정보를 결정하고, 이후 사람의 동작에 따라 각 골격 정보의 위치를 추적할 수 있다.
동작 인식 장치(100)는 골격 정보의 위치를 기반으로 특징점을 추출한다. 해당 특징점이 사람의 동작을 인식하는 기준이 된다.
동작 인식 장치(100)는 앞서 설명한 20개의 골격 정보를 조합하여 고차원의 특징점을 생성할 수 있다. 예컨대, R={p1, p2, .. pn} 이라는 골격 정보가 있을 때 z1=p1+p2, z2=p1*p3 과 같은 조합을 통해 특징점 Z={z1, z2, … , zm}를 생성할 수 있다. 결국 복수의 골격 정보를 이용하여 다양한 특징점을 생성할 수 있다.
도 4 및 도 5를 통해 몇 가지 특징점을 추출하는 과정을 설명한다. 도 4는 골격 정보 중 일부를 이용한 특징점에 대한 예이다. 도 4(a)는 일정한 동작을 취한 사람 영상을 도시하고, 도 4(b)는 골격 정보의 위치 중 일부를 이용하여 특징점을 결정하는 예를 도시한다.
먼저 동작 인식 장치(100)는 골격 정보에 대한 3차원 좌표값을 결정한 상태라고 전제한다. 도 4에서 골격 정보는 왼쪽 어깨 지점(P1), 왼쪽 팔꿈치 지점(P2) 및 왼쪽 손목 지점(P3)을 사용한다. 각 골격 정보에 대한 3차원 좌표는 P1(x1, y1, z1), P2(x2, y2, z2) 및 P3(x3, y3, z3)이다. 아래와 같이 3가지 특징점을 구할 수 있다. 한편 x, y, z 축은 특정한 기준에 따라 설정될 수 있다.
(1) 두 개의 직선 사이의 각도(u)
P1과 P2는 하나의 직선(제1 직선)을 형성하고, P2와 P3도 하나의 직선(제2 직선)을 형성한다. 따라서 제1 직선과 제2 직선 사이의 각도(u)를 특징점으로 삼을 수 있다. 제1 직선과 제2 직선 사이의 각도(u)는 아래의 수학식 1을 통해 연산할 수 있다.
P1과 P2가 형성하는 제1 직선과 제1 평면 사이의 각도()를 특징점으로 삼을 수 있다. 제1 평면은 다양한 기준의 평면을 사용할 수 있다. 예컨대, 도 4에서는 z축에 평행한 축을 제1 평면으로 사용하였다. 제1 직선과 제1 평면 사이의 각도()는 아래의 수학식 2를 통해 연산할 수 있다.
또는 P2와 P3가 형성하는 제2 직선과 제1 평면 사이의 각도를 특징점으로 삼을 수도 있을 것이다.
(3) 하나의 직선과 제2 평면 사이의 각도(θ)
P1과 P2가 형성하는 제1 직선과 제2 평면 사이의 각도(θ)를 특징점으로 삼을 수 있다. 제2 평면은 다양한 기준의 평면을 사용할 수 있다. 예컨대, 도 4에서는 y축에 평행한 축을 제2 평면으로 사용하였다. 제1 직선과 제1 평면 사이의 각도(θ)는 아래의 수학식 3을 통해 연산할 수 있다.
도 4는 사람의 왼팔에 대해서 3가지 특징점을 도시한 것이다. 동일한 방법으로 사람의 오른팔에 대해서도 3가지 특징점을 추출할 수 있다.
도 5는 골격 정보 중 일부를 이용한 다른 특징점에 대한 예이다. 도 5는 다리의 골격 정보를 이용한 예를 도시한다. 도 5(a)는 일정한 동작을 취한 사람 영상을 도시하고, 도 5(b)는 골격 정보의 위치 중 일부를 이용하여 특징점을 결정하는 예를 도시한다.
도 5에서 골격 정보는 오른쪽 엉덩이 지점(Q1), 오른쪽 무릎 지점(Q2) 및 오른쪽 발목 지점(Q3)을 사용한다. 각 골격 정보에 대한 3차원 좌표는 Q1(x1, y1, z1), Q2(x2, y2, z2) 및 Q3(x3, y3, z3)이다.
도 4에 대한 설명과 동일한 방법으로 (1) Q1과 Q2가 형성하는 제1 직선과 Q2와 Q3가 형성하는 제2 직선 사이의 각도(u), (2) Q1과 Q2가 형성하는 제1 직선과 제1 평면인 z축에 평행한 평면 사이의 각도() 및 (3) Q1과 Q2가 형성하는 제1 직선과 제2 평면인 y축에 평행한 평면 사이의 각도(θ)를 특징점으로 결정할 수 있다.
또한 왼쪽 발에 대해서도 동일한 방법으로 3개의 특징점을 추출할 수 있다.
도 4 및 도 5에서 설명한 바와 같이 왼쪽 팔, 오른쪽 팔, 왼쪽 다리 및 오른쪽 다리의 일부 골격 정보를 이용하여 각각 3개의 특징점을 추출한다면, 모두 12개의 특징점을 마련할 수 있다.
도 6은 영상에서 동작 인식을 위한 특징점 추출 방법(300)에 대한 순서도의 예이다. 전술한 특징점 추출을 정리하면 동작 인식 장치는 먼저 카메라로 깊이 정보를 갖는 영상을 획득한다(310). 동작 인식 장치는 영상에 포함된 특정 객체(사람)을 추출한다. 동작 인식 장치는 추출한 객체의 골격 정보를 추출한다(320). 동작 인식 장치는 골격 정보 중 특징점의 기준으로 사용하는 복수의 지점에 대한 3차원 위치를 결정한다(330). 마지막으로 동작 인식 장치는 3차원 위치를 결정한 복수의 지점 중 일부 또는 전부가 형성하는 직선 사이의 각도 및 직선과 특정 평면 사이의 각도 중 적어도 하나를 특징점으로 결정한다(340).
전술한 특징점 외에 다른 다양한 특징점이 사용될 수도 있다. 기본적으로 골격 정보 중 다른 지점(머리 지점, 어깨 중심 지점, 척추 지점 등)을 사용할 수도 있다. 어떤 동작을 인터페이스로 사용하느냐에 따라 특징점에 사용하는 골격 정보가 달라질 수 있다. 또한 사람의 동작이 몸 전체의 동작인지, 팔과 같이 일부의 동작인지에 따라 특징점이 달라질 수도 있다.
전술한 특징점(u)는 인접한 골격 정보가 형성하는 직선을 사용하였지만, 반드시 인접한 골격 정보 사이의 직선을 사용하지 않을 수도 있다. 나아가 각도를 결정하기 위한 기준이 되는 직선이나 평면을 다른 것을 사용할 수도 있다. 즉 매우 다양한 조합의 특징점 생성이 가능하다.
도 7은 골격 정보를 이용한 사용자 동작 인식 방법(400)에 대한 순서도의 예이다.
동작 인식 장치가 사용자 동작을 인식하기 위해서는 먼저 사용자 동작에 대한 참조 데이터가 필요하다. 다양한 방법을 사용할 수 있지만, 기본적으로 기계학습 중 신경망 학습을 기준으로 설명한다.
기계학습은 적용 어플리케이션과 데이터의 형태에 따라 감독 학습(supervised learning)과 무감독 학습(unsupervised learning)으로 구분 할 수 있다. 무감독 학습의 목적은 학습을 위한 입력과 출력의 관계가 없어 입력 패턴의 유형을 파악하여 입력 간 공통적인 특성을 파악하는 것이다. 반면 감독 학습은 입력과 출력의 쌍이 미리 알려진 사전 정보로부터 입출력을 매핑하는 함수를 학습하는 과정이다. 즉 시스템은 입력 벡터 x와 이에 대한 올바른 응답 y를 학습 데이터로 제공받아 함수 f를 학습하고, 학습하지 않은 새로운 데이터 x'가 들어 왔을 때 출력 y'를 추론하는 학습을 학습한다. 따라서 사용자 동작 인식을 위해서는 감독 학습 기법을 이용한다.
기계학습의 일종인 신경망 학습은 감독학습 중 하나로 입력 데이터에 X에 대해 올바른 정답 Y를 학습하는 방식이다. 동작 인식 장치는 N개의 동작에 해당하는 Label 1~Label N 모션을 각각 여러 번 입력 받은 후 각 동작에 대한 12개의 특징점(입력X)들을 입력 후 학습하여 Label1 ~ Label N 모션을 판별할 수 있는 신경망 네트워크를 생성한다. 신경망 학습의 결과로 노드의 구조 정보와 노드 간 연결 계수를 얻는다.
동작 인식 장치는 사람의 훈련 동작을 포함하는 훈련 영상을 이용하여 특징점을 추출한다. 학습을 위한 동작을 훈련 동작이라고 하고, 훈련 동작이 포함된 영상을 훈련 영상이라고 명명한다. 추출한 특징점은 전술한 바와 같이 골격 정보 중 복수의 관절 지점을 이용하여 생성한다. 학습 과정에 사용되는 복수의 관절 지점을 제1 복수의 관절 지점이라고 명명한다. 학습 과정에서 제1 복수의 관절 지점을 사용하여 추출한 특징점을 제1 특징점이라고 명명한다. 제1 특징점은 전술한 바와 같은 12개의 특징점일 수 있다. 동작 인식 장치는 복수의 훈련 동작을 제1 특징점을 기준으로 신경망 학습을 수행한다(410).
동작 인식 장치는 훈련 동작들에 대한 신경망 학습이 완료되지 않았다면(420의 No) 반복적으로 신경망 학습을 수행하고(410), 훈련 동작들에 대한 신경망 학습이 완료되었다면(420의 Yes) 동작 인식이 필요한 영상을 대기한다.
동작 인식 장치가 두 개의 카메라로 동작 인식이 필요한 입력 영상을 획득한다(430). 두 개의 카메라를 사용하는 이유는 깊이 정보를 갖는 영상을 생성하기 위함이다.
동작 인식 장치는 입력 영상에서 영사에 포함된 객체(사람)을 추출하고, 추출한 사람에서 골격 정보를 추출한다. 사람이라는 객체에서 복수의 관절 지점을 결정한다(440). 입력 영상에서 결정한 복수의 관절 지점을 제2 복수의 관절 지점이라고 명명한다. 제2 복수의 관절 지점은 학습 단계에서 사용한 제1 복수의 관절 지점과 동일한(대응되는) 위치여야 한다.
동작 인식 장치는 제2 복수의 관절 지점 중 복수의 지점을 사용하여 특징점을 결정한다(450). 입력 영상에 대한 특징점을 제2 특징점이라고 명명한다. 제2 특징점은 제1 특징점과 대응된다. 제1 특징점이 도 4 및 도 5에서 설명한 12개의 특징점이라면, 제2 특징점도 동일한 12개의 특징점이어야 한다.
동작 인식 장치는 최종적으로 제2 특징점을 신경망 네트워크에 입력하여 최종적으로 결정되는 동작을 입력 동작으로 인식한다. 예컨대, 학습 과정에서 N개의 동작에 대한 신경망 네트워크를 생성했다면, 동작 인식 장치는 입력 동작을 N개의 동작 중 하나로 판단한다.
동작 인식 장치는 입력 영상에서 학습과정과 동일한 절차로 특징점 12개를 추출하고, 학습을 이용해 취득한 파라미터 세트(신경망 네트워크의 경우 노드의 구조와 노드 간 연결 계수)를 이용하여 학습한 신경망 네트워크에 입력하면 최종 출력 노드에서 Label1 ~ Label N 모션 중 1개로 판별 한다. 신경망 네트워크를 통해 모션을 판별하는 한편 새로운 동작을 인식하면서 얻어진 신경망 정보는 410으로 피드백 되어 신경망을 업데이트 한다(470).
본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시예는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.
100 : 동작 인식 장치 111 : 제1 카메라
112 : 제2 카메라
112 : 제2 카메라
Claims (12)
- 동작 인식 장치가 카메라로 깊이 정보를 갖는 영상을 획득하는 단계;
상기 동작 인식 장치가 상기 영상에 포함된 객체를 추출하고, 상기 객체의 골격 정보를 추출하는 단계;
상기 동작 인식 장치가 상기 골격 정보 중 복수의 지점에 대한 좌표를 결정하는 단계; 및
상기 동작 인식 장치가 상기 복수의 지점이 형성하는 각도를 특징점으로 결정하는 단계를 포함하되,
상기 특징점은 상기 복수의 지점 중 3개의 지점이 형성하는 2개의 직선 사이의 각도 및 상기 복수의 지점 중 2개의 지점이 형상하는 직선과 특정 평면과의 각도 중 적어도 하나인 영상에서 동작 인식을 위한 특징점 추출 방법. - 제1항에 있어서,
상기 객체는 사람이고, 상기 골격 정보는 사람의 관절 및 주요뼈에 해당하는 복수의 지점을 포함하는 영상에서 동작 인식을 위한 특징점 추출 방법. - 삭제
- 제1항에 있어서,
상기 복수의 지점 중 한쪽 팔의 어깨 지점, 팔꿈치 지점 및 손목 지점에 대해
상기 특징점은 상기 어깨 지점과 상기 팔꿈치 지점이 형성하는 제1 직선과 상기 팔꿈치 지점과 상기 손목 지점이 형성하는 제2 직선 사이의 각도, 상기 제1 직선과 제1 평면이 형성하는 각도 및 상기 제1 직선과 제2 평면이 형성하는 각도 중 적어도 하나인 영상에서 동작 인식을 위한 특징점 추출 방법. - 제1항에 있어서,
상기 복수의 지점 중 한쪽 다리의 엉덩이 지점, 무릎 지점 및 발목 지점에 대해
상기 특징점은 상기 엉덩이 지점과 상기 무릎 지점이 형성하는 제1 직선과 상기 무릎 지점과 상기 발목 지점이 형성하는 제2 직선 사이의 각도, 상기 제1 직선과 제1 평면이 형성하는 각도 및 상기 제1 직선과 제2 평면이 형성하는 각도 중 적어도 하나인 영상에서 동작 인식을 위한 특징점 추출 방법. - 동작 인식 장치가 사람의 복수의 훈련 동작을 포함하는 훈련 영상에서 사람의 관절 지점 중 제1 복수의 관절 지점에 기반한 제1 특징점으로 이용하여 신경망 학습을 수행하는 단계;
상기 동작 인식 장치가 카메라로 사람의 입력 동작을 포함하는 입력 영상을 획득하는 단계;
상기 동작 인식 장치가 상기 입력 영상에서 상기 사람의 관절 지점 중 상기 제1 복수의 관절 지점과 동일한 위치의 제2 복수의 관절 지점에 기반한 제2 특징점을 추출하는 단계; 및
상기 동작 인식 장치가 상기 제2 특징점을 상기 신경망 학습을 통해 형성한 신경망 네트워크에 입력하여 상기 입력 동작에 대응하는 훈련 동작을 결정하는 단계를 포함하되,
상기 제1 특징점 및 제2 특징점 각각은 상기 복수의 지점 중 3개의 지점이 형성하는 2개의 직선 사이의 각도 및 상기 복수의 지점 중 2개의 지점이 형상하는 직선과 특정 평면과의 각도 중 적어도 하나이고, 상기 제1 특징점 및 상기 제2 특징점은 서로 대응되는 지점이 형성하는 각도인 골격 정보를 이용한 사용자 동작 인식 방법. - 제6항에 있어서,
상기 동작 인식 장치는 상기 훈련 영상 및 상기 입력 영상 각각에서 상기 사람을 추출하고, 추출한 사람 영상의 골격화를 수행하고, 골격화로 생성된 객체를 사람의 골격 정보를 기준으로 사람의 관절 부위 및 주요뼈 부위에 해당하는 복수의 관절 지점을 결정하는 골격 정보를 이용한 사용자 동작 인식 방법. - 제6항에 있어서,
상기 수행하는 단계는
상기 동작 인식 장치가 상기 제1 복수의 지점에 대한 좌표를 결정하는 단계;
상기 동작 인식 장치가 상기 제1 복수의 지점이 형성하는 각도 및 상기 복수의 지점과 특정 평면이 형성하는 각도를 상기 제1 특징점으로 결정하는 단계; 및
상기 제1 특징점을 기준으로 신경망 학습을 수행하여 신경망 네트워크를 마련하는 단계를 포함하되,
상기 수행하는 단계는 상기 복수의 훈련 동작 각각에 대해 반복적으로 수행되는 골격 정보를 이용한 사용자 동작 인식 방법. - 제6항에 있어서,
상기 추출하는 단계는
상기 동작 인식 장치가 상기 제2 복수의 지점에 대한 좌표를 결정하는 단계; 및
상기 동작 인식 장치가 상기 제2 복수의 지점이 형성하는 각도 및 상기 복수의 지점과 특정 평면이 형성하는 각도를 상기 제2 특징점으로 결정하는 단계를 포함하는 골격 정보를 이용한 사용자 동작 인식 방법. - 제6항에 있어서,
상기 제1 복수의 지점은 i)왼쪽 팔의 어깨 지점, 왼쪽 팔의 팔꿈치 지점 및 왼쪽 팔의 손목 지점, ii) 오른쪽 팔의 어깨 지점, 오른쪽 팔의 팔꿈치 지점 및 오른쪽 팔의 손목 지점, iii) 왼쪽 다리의 엉덩이 지점, 왼쪽 다리의 무릎 지점 및 왼쪽 다리의 발목 지점 및 iv) 오른쪽 다리의 엉덩이 지점, 오른쪽 다리의 무릎 지점 및 오른쪽 다리의 발목 지점 중 적어도 하나인 골격 정보를 이용한 사용자 동작 인식 방법. - 제6항에 있어서,
상기 특징점은 어깨 지점과 팔꿈치 지점이 형성하는 제1 직선과 상기 팔꿈치 지점과 손목 지점이 형성하는 제2 직선 사이의 각도, 상기 제1 직선과 제1 평면이 형성하는 각도 및 상기 제1 직선과 제2 평면이 형성하는 각도 중 적어도 하나인 골격 정보를 이용한 사용자 동작 인식 방법. - 제6항에 있어서,
상기 특징점은 엉덩이 지점과 무릎 지점이 형성하는 제1 직선과 상기 무릎 지점과 발목 지점이 형성하는 제2 직선 사이의 각도, 상기 제1 직선과 제1 평면이 형성하는 각도 및 상기 제1 직선과 제2 평면이 형성하는 각도 중 적어도 하나인 골격 정보를 이용한 사용자 동작 인식 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150072935A KR101711736B1 (ko) | 2015-05-26 | 2015-05-26 | 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150072935A KR101711736B1 (ko) | 2015-05-26 | 2015-05-26 | 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160138729A KR20160138729A (ko) | 2016-12-06 |
KR101711736B1 true KR101711736B1 (ko) | 2017-03-02 |
Family
ID=57576619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150072935A KR101711736B1 (ko) | 2015-05-26 | 2015-05-26 | 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101711736B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101965972B1 (ko) | 2017-10-12 | 2019-04-04 | 동국대학교 산학협력단 | 나선 신경망을 이용한 신체 움직임 기반 개인 식별 시스템 및 방법 |
KR20190048614A (ko) | 2017-10-31 | 2019-05-09 | 에스케이텔레콤 주식회사 | 포즈 인식 방법 및 장치 |
KR20240128197A (ko) | 2023-02-17 | 2024-08-26 | 전주대학교 산학협력단 | 인공지능 기반의 지능형 신체 인터페이스 장치 및 방법 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229418B (zh) * | 2018-01-19 | 2021-04-02 | 北京市商汤科技开发有限公司 | 人体关键点检测方法和装置、电子设备、存储介质和程序 |
KR102577472B1 (ko) | 2018-03-20 | 2023-09-12 | 한국전자통신연구원 | 동작 인식을 위한 가상 학습 데이터를 생성하는 방법 및 장치 |
CN108664896A (zh) * | 2018-04-16 | 2018-10-16 | 彭友 | 基于OpenPose的击剑动作获取方法及计算机存储介质 |
CN111045511B (zh) * | 2018-10-15 | 2022-06-07 | 华为技术有限公司 | 基于手势的操控方法及终端设备 |
KR102233157B1 (ko) * | 2018-12-31 | 2021-03-26 | 중앙대학교 산학협력단 | 딥러닝 기반의 재실자 포즈 분류를 이용한 재실자 활동량 산출 방법 및 시스템 |
DE102019201583A1 (de) * | 2019-02-07 | 2020-08-13 | Audi Ag | Benutzererkennungsvorrichtung zum Ermitteln einer Identität eines Benutzers |
CN110532861B (zh) * | 2019-07-18 | 2021-03-23 | 西安电子科技大学 | 基于骨架引导多模态融合神经网络的行为识别方法 |
KR102377767B1 (ko) * | 2019-08-05 | 2022-03-23 | 금오공과대학교 산학협력단 | 손동작 및 팔동작 학습기반 수화 번역 시스템 및 방법 |
CN111898571A (zh) * | 2020-08-05 | 2020-11-06 | 北京华捷艾米科技有限公司 | 动作识别系统及方法 |
KR102385150B1 (ko) * | 2021-01-14 | 2022-04-08 | 강원대학교산학협력단 | 영상 및 딥러닝 기반의 심폐소생술 실시간 술기 평가방법 |
KR102340519B1 (ko) * | 2021-09-09 | 2021-12-20 | 하대수 | 선과 면 인식 기반의 운동자세 분석 시스템 및 방법 |
CN113706699B (zh) * | 2021-10-27 | 2022-02-08 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及计算机可读存储介质 |
CN114863558A (zh) * | 2022-04-19 | 2022-08-05 | 长三角信息智能创新研究院 | 一种人体训练动作的识别与计数方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100199228A1 (en) | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture Keyboarding |
KR20120052610A (ko) * | 2010-11-16 | 2012-05-24 | 삼성전자주식회사 | 신경망 학습을 통한 동작 인식 방법 및 장치 |
US9821224B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Driving simulator control with virtual skeleton |
KR101956275B1 (ko) * | 2012-09-26 | 2019-06-24 | 삼성전자주식회사 | 영상으로부터 신체 골격 및 신체 부위 정보 검출 방법 및 장치 |
-
2015
- 2015-05-26 KR KR1020150072935A patent/KR101711736B1/ko active IP Right Grant
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101965972B1 (ko) | 2017-10-12 | 2019-04-04 | 동국대학교 산학협력단 | 나선 신경망을 이용한 신체 움직임 기반 개인 식별 시스템 및 방법 |
KR20190048614A (ko) | 2017-10-31 | 2019-05-09 | 에스케이텔레콤 주식회사 | 포즈 인식 방법 및 장치 |
US11205066B2 (en) | 2017-10-31 | 2021-12-21 | Sk Telecom Co., Ltd. | Pose recognition method and device |
KR20240128197A (ko) | 2023-02-17 | 2024-08-26 | 전주대학교 산학협력단 | 인공지능 기반의 지능형 신체 인터페이스 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20160138729A (ko) | 2016-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101711736B1 (ko) | 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 | |
Mueller et al. | Real-time hand tracking under occlusion from an egocentric rgb-d sensor | |
CN109636831B (zh) | 一种估计三维人体姿态及手部信息的方法 | |
CN111460875B (zh) | 图像处理方法及装置、图像设备及存储介质 | |
CN113706699B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
JP7015152B2 (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
KR101639161B1 (ko) | 골격 정보를 이용한 사용자 인증 방법 | |
US20130063560A1 (en) | Combined stereo camera and stereo display interaction | |
CN111402290A (zh) | 一种基于骨骼关键点的动作还原方法以及装置 | |
CN110913751A (zh) | 具有滑动检测和校正功能的可穿戴眼睛跟踪系统 | |
CN104933734A (zh) | 一种基于多kinect的人体姿态数据融合方法 | |
CN112083800A (zh) | 基于自适应手指关节规则滤波的手势识别方法及系统 | |
CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
Zou et al. | Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking | |
US20230290101A1 (en) | Data processing method and apparatus, electronic device, and computer-readable storage medium | |
CN106504063B (zh) | 一种虚拟头发试戴视频展示系统 | |
EP3309713B1 (en) | Method and device for interacting with virtual objects | |
CN111881807A (zh) | 基于人脸建模及表情追踪的vr会议控制系统及方法 | |
CN116863044A (zh) | 人脸模型的生成方法、装置、电子设备及可读存储介质 | |
KR20000074633A (ko) | 실시간 가상캐릭터 시스템 | |
KR101519589B1 (ko) | 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법 | |
KR101447958B1 (ko) | 신체 부분 검출 방법 및 장치 | |
Jiang et al. | Observation-oriented silhouette-aware fast full body tracking with Kinect | |
CN113569775B (zh) | 一种基于单目rgb输入的移动端实时3d人体动作捕捉方法及系统、电子设备、存储介质 | |
Shi et al. | Error elimination method in moving target tracking in real-time augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20200102 Year of fee payment: 4 |