KR101772890B1 - 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법 - Google Patents

손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법 Download PDF

Info

Publication number
KR101772890B1
KR101772890B1 KR1020160037120A KR20160037120A KR101772890B1 KR 101772890 B1 KR101772890 B1 KR 101772890B1 KR 1020160037120 A KR1020160037120 A KR 1020160037120A KR 20160037120 A KR20160037120 A KR 20160037120A KR 101772890 B1 KR101772890 B1 KR 101772890B1
Authority
KR
South Korea
Prior art keywords
gesture
hand
lsp
feature
voxel
Prior art date
Application number
KR1020160037120A
Other languages
English (en)
Inventor
우운택
장영균
전익범
김태균
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020160037120A priority Critical patent/KR101772890B1/ko
Application granted granted Critical
Publication of KR101772890B1 publication Critical patent/KR101772890B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/6202
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

사용자에게 착용된 깊이 카메라에 의해 촬영되는 손의 제 1 시퀀스 영상을 획득하는 단계; 획득한 제 1 시퀀스 영상 내 복수의 프레임 각각의 손에 복수의 복셀(voxel)로 나뉘어진 사각 큐브(rectangular cube)를 매핑하는 단계; 복수의 프레임 각각에 대해, 사각 큐브를 구성하는 복수의 복셀들의 정적 복셀 특징(static voxel feature)을 추출하고, 추출된 정적 복셀 특징을 인코딩하여 제 1 LSP 특징(layer shape pattern feature)을 획득하는 단계; 및 제 1 LSP 특징을 랜덤 포레스트에 입력하여, 제 1 시퀀스 영상에서 손의 홀딩 제스쳐에 대응하는 물체의 종류와 손의 조작 제스쳐에 대응하는 조작의 종류를 판단하는 단계를 포함하는 것을 특징으로 하는 본 발명의 일 실시예에 따른 제스쳐 감지 장치에 의한 제스쳐 감지 방법이 개시된다.

Description

손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법{GESTURE DETECTING APPARATUS FOR DETERMINING KINDS OF OBJECT AND KINDS OF MANIPULATION CORRESPONDING TO HOLDING GESTURE AND MANIPULATION GESTURE OF HAND, AND GESTURE DETECTING METHOD THEREOF}
본 발명은 가상 현실 및 증강 현실 분야에 관한 것이다. 보다 구체적으로, 본 발명은 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법에 관한 것이다.
최근의 HMD(head mounted display)의 발전은 증강 현실(augmented reality: AR) 및 가상 현실(virtual reality: VR) 환경에서 가상 물체와 상호작용을 하는 것과 같은 다양한 경험을 제공한다. HMD를 착용한 상태에서 가상 물체와 상호작용을 하는데 있어 맨 손(bare hand)를 사용하는 것이 가장 자연스러운 방법이다. AR 및 VR에서 맨손 기반의 제스쳐 감지에 대한 연구들은 예를 들어, 장면 네비게이션(scene navigation)(참고 문헌 [1]), 물체 이동(참고 문헌 [2]), 3D 모델 어셈블리(참고 문헌 [3]) 등과 같은 상호 작용 시나리오를 제안하고 있다. 그러나, 이들 맨손 기반의 상호 작용의 대부분은 일인칭 시점(egocentric viewpoint)에서의 상호 작용에 활용하기는 어렵다. 이는, 일인칭 시점에서는 손의 일부분에 의해 가상 정보가 자주 사라지기(occluded) 때문이다. 더 나아가, 매우 작은(손톱 크기의) 물체의 선택 및 회전 조작과 같은 정교한 상호 작용은 여전히 어려운 문제점으로 남아있다.
본 명세서에서 참조되는 참고 문헌의 리스트는 다음과 같다.
[1] Z. Pan, Y. Li, M. Zhang, C. Sun, K. Guo, X. Tang, and S. Z. Zhou. A real-time multi-cue hand tracking algorithm based on computer vision. In Proceedings of the 2010 IEEE Virtual Reality Conference, VR '10, pages 219-222, Washington, DC, USA, 2010. IEEE Computer Society.
[2] G. Hackenberg, R. McCall, and W. Broll. Lightweight palm and finger tracking for real-time 3D gesture control. In Virtual Reality Conference (VR), 2011 IEEE, pages 19 -26, march 2011.
[3] R. Wang, S. Paris, and J. Popovi'c. 6D hands: Markerless hand-tracking for computer aided design. In Proceedings of the 24th Annual ACM Symposium on User Interface Software and Technology, UIST '11, pages 549-558, New York, NY, USA, 2011. ACM.
[4] S. Melax, L. Keselman, and S. Orsten. Dynamics based 3D skeletal hand tracking. In Proceedings of the 2013 Graphics Interface Conference, GI '13, pages 63-70, Toronto, Ont., Canada, Canada, 2013.
[5] D. Tang, T.-H. Yu, and T.-K. Kim. Real-time articulated hand pose estimation using semi-supervised transductive regression forests. In The IEEE International Conference on Computer Vision (ICCV), December 2013.
[6] H. Liang and J. Yuan. Hand parsing and gesture recognition with a commodity depth camera. In Computer Vision and Machine Learning with RGB-D Sensors, pages 239-265. Springer, 2014.
[7] H. Liang, J. Yuan, and D. Thalmann. Parsing the hand in depth images. IEEE Trans. on Multimedia, 16(5):1241-1253, 2014.
[8] Y. Jang, S.-T. Noh, H. J. Chang, T.-K. Kim, and W. Woo. 3D Finger CAPE: Clicking action and position estimation under self-occlusions in egocentric viewpoint. IEEE Trans. on Vis. Comput. Graph., 21(4):0-10, April 2015.
본 발명의 일 실시예에 따른 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법은 사용자에게 보다 정교한 AR 및 VR 상호 작용을 제공하는 것을 목적으로 한다.
또한, 본 발명의 일 실시예에 따른 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법은 사용자에게 착용되는 깊이 카메라 외에 사용자에게 별도의 장치의 장착을 요구하지 않는 것을 목적으로 한다.
또한, 본 발명의 일 실시예에 따른 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법은 AR 및 VR 환경에서 사용자의 홀딩 제스쳐에 기초하여 사용자가 조작하고자 하는 물체를 정확하게 소환(summon)하고, 소환된 물체에 대한 자유로운 조작을 가능하게 하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 제스쳐 감지 장치에 의한 제스쳐 감지 방법은,
사용자에게 착용된 깊이 카메라에 의해 촬영되는 손의 제 1 시퀀스 영상을 획득하는 단계; 상기 획득한 제 1 시퀀스 영상 내 복수의 프레임 각각의 손에 복수의 복셀(voxel)로 나뉘어진 사각 큐브(rectangular cube)를 매핑하는 단계; 상기 복수의 프레임 각각에 대해, 상기 사각 큐브를 구성하는 복수의 복셀들의 정적 복셀 특징(static voxel feature)을 추출하고, 추출된 정적 복셀 특징을 인코딩하여 제 1 LSP 특징(layer shape pattern feature)을 획득하는 단계; 및 상기 제 1 LSP 특징을 랜덤 포레스트(random forest)에 입력하여, 상기 제 1 시퀀스 영상에서 손의 홀딩(holding) 제스쳐에 대응하는 물체의 종류와 손의 조작(manipulation) 제스쳐에 대응하는 조작의 종류를 판단하는 단계를 포함하고, 상기 랜덤 포레스트는, 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 알고 있는 손의 제 2 시퀀스 영상의 복수의 프레임 각각으로부터 획득된 제 2 LSP 특징에 기초하여 구성될 수 있다.
상기 사각 큐브를 매핑하는 단계는, 상기 복수의 프레임 각각의 손을 구성하는 복수의 3차원 픽셀들을 내부에 포함하도록 상기 사각 큐브를 손에 매핑하는 단계를 포함할 수 있다.
상기 정적 복셀 특징은, 상기 복수의 복셀들 각각의 내부에 포함된 상기 손의 3차원 픽셀들의 개수를 엘리먼트로 포함할 수 있다.
상기 제스쳐 감지 방법은, 상기 사각 큐브를 구성하는 복수의 복셀 각각의 내부에 포함된 상기 손의 3차원 픽셀들의 개수를 정규화(normalization)하는 단계를 더 포함할 수 있다.
상기 제 1 LSP 특징은, 상기 사각 큐브를 구성하는 복수의 복셀 플레인(voxel plane) 각각의 내부에 상기 3차원 픽셀들이 포함된 정도를 나타낼 수 있다.
상기 제 1 LSP 특징을 획득하는 단계는, 상기 획득한 제 1 시퀀스 영상 내 복수의 프레임 각각에서 손의 손바닥의 지향(orientation) 방향을 결정하는 단계; 상기 제 1 시퀀스 영상 내 복수의 프레임 각각에서의 소정 지점을 원점으로 하고, 상기 결정된 지향 방향에 따라 로컬 좌표의 각 축(axis)의 방향을 결정하는 단계; 및 상기 복수의 복셀 플레인에 대해 상기 로컬 좌표 상에서의 인덱스를 매핑하는 단계를 포함할 수 있다.
로컬 좌표의 제 1 축 상의 어느 하나의 복셀 플레인에 대한 LSP 엘리먼트는, 상기 어느 하나의 복셀 플레인이 제 2 축 또는 제 3 축을 따라 n개의 층으로 구분되어 있는 경우, 각 층의 복셀 내의 3차원 픽셀의 밀도에 대응하여 상기 n개의 층 각각에 할당된 값이 나열된 값을 포함할 수 있다.
상기 n개의 층 각각에 할당된 값을 나열할 때, 원점으로부터 가장 멀리 떨어진 층에 할당된 값은 가장 큰 자릿수(positional number)를 갖고, 상기 원점과 가장 가까운 층에 할당된 값은 가장 작은 자릿수를 갖도록 나열될 수 있다.
상기 제스쳐 감지 방법은, 상기 랜덤 포레스트를 구성하는 단계를 더 포함하고, 상기 랜덤 포레스트를 구성하는 단계는, 상기 랜덤 포레스트의 트리 내 최상위 층의 스플릿 노드(split node)의 분할 함수(split function)를 정적(static) 함수로 결정하고, 상기 최상위 층의 스플릿 노드의 분할 함수의 파라미터를 최적화하는 단계; 및 상기 최상위 층의 스플릿 노드에서 나뉘어진 학습 데이터 세트를 입력받는 하위층의 스플릿 노드에 대해서는, 상기 학습 데이터 세트 중 동일한 홀딩 제스쳐 라벨로 라벨링된 데이터의 가장 큰 확률 두 번째로 큰 확률 사이의 차이가 임계값보다 큰 경우, 분할 함수를 동적(dynamic) 함수로 결정하고, 상기 차이가 임계값 이하인 경우, 분할 함수를 정적 함수로 결정하는 단계를 포함할 수 있다.
상기 랜덤 포레스트를 구성하는 단계는, 상기 하위층의 스플릿 노드의 분할 함수가 동적 함수로 결정된 경우, 상기 하위층의 스플릿 노드의 하위층에 위치하는 모든 스플릿 노드에 대해서는 분할 함수를 동적 함수로 결정하는 단계를 포함할 수 있다.
상기 정적 함수는, 어느 하나의 프레임에서 획득된 LSP 특징에 포함된 LSP 엘리먼트를 나타내고, 상기 동적 함수는, 어느 하나의 프레임에서 획득된 LSP 특징에 포함된 LSP 엘리먼트와 다른 하나의 프레임에서 획득된 LSP 특징에 포함된 LSP 엘리먼트의 차이를 나타낼 수 있다.
상기 판단하는 단계는, 상기 랜덤 포레스트의 복수의 트리 각각에서 결정된 물체의 종류와 조작의 종류의 확률의 평균과 기 설정된 임계 값을 비교하여, 상기 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에 따른 제스쳐 감지 장치는, 사용자에게 착용된 깊이 카메라에 의해 촬영되는 손의 제 1 시퀀스 영상을 획득하는 영상 획득부; 상기 획득한 제 1 시퀀스 영상 내 복수의 프레임 각각의 손에 복수의 복셀로 나뉘어진 사각 큐브를 매핑하는 영상 처리부; 상기 복수의 프레임 각각에 대해, 상기 사각 큐브를 구성하는 복수의 복셀들의 정적 복셀 특징을 추출하고, 추출된 정적 복셀 특징을 인코딩하여 제 1 LSP 특징을 획득하는 특징 추출부; 및 상기 제 1 LSP 특징을 랜덤 포레스트에 입력하여, 상기 제 1 시퀀스 영상에서 손의 홀딩 제스쳐에 대응하는 물체의 종류와 해당 물체에 대한 조작의 종류를 판단하는 판단부를 포함하고, 상기 랜덤 포레스트는, 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 알고 있는 손의 제 2 시퀀스 영상의 복수의 프레임 각각으로부터 획득된 제 2 LSP 특징에 기초하여 구성될 수 있다.
본 발명의 일 실시예에 따른 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법이 달성할 수 있는 일부의 효과는 다음과 같다.
i) 사용자에게 보다 정교한 AR 및 VR 상호 작용을 제공할 수 있다.
ii) 사용자에게 착용되는 깊이 카메라 외에 사용자에게 별도의 장치의 장착을 요구하지 않는다.
iii) AR 및 VR 환경에서 사용자의 홀딩 제스쳐에 기초하여 사용자가 조작하고자 하는 물체를 정확하게 소환하고, 소환된 물체에 대한 자유로운 조작을 가능하게 한다.
다만, 본 발명의 일 실시예에 따른 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 제스쳐 감지 방법을 설명하기 위한 개략적인 도면이다.
도 2는 손의 글로벌 좌표를 로컬 좌표로 변환하는 내용을 설명하기 위한 도면이다.
도 3은 사각 큐브로부터 추출된 정적 복셀 특징을 설명하기 위한 도면이다.
도 4 및 도 5는 정적 복셀 특징을 LSP 특징으로 인코딩하는 방법을 설명하기 위한 도면이다.
도 6은 손의 제 2 시퀀스 영상의 복수의 프레임 각각으로부터 획득된 제 2 LSP 특징에 기초하여 구성된 랜덤 포레스트의 트리를 나타내는 예시적인 도면이다.
도 7(a) 및 도 7(b)는 종래의 기술과 본 발명의 일 실시예에 따라 판단되는 물체의 종류의 정확도를 비교하기 위한 도면이다.
도 8은 종래의 기술과 본 발명의 일 실시예에 따라 판단되는 조작의 종류의 정확도를 비교하기 위한 도면이다.
도 9는 본 발명의 다른 실시예에 따른 제스쳐 감지 장치의 구성을 나타내는 블록도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명은 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, 이 구성요소는 어떤 역할들을 수행한다. 그렇지만, 구성 요소는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 구성요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있다. 또한, 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.
본 발명은 사용자의 요구에 따라 사용자의 손에 물체(예를 들어, 스마트폰)를 소환(summon)하고, 소환된 물체를 조작할 수 있게 한다는 개념으로부터 도출되었다. 일반적으로, 사용자는 일상적으로 많이 사용되는 장비의 홀딩 제스쳐나 이를 조작하는 조작 제스쳐에 대해 학습하고 있다. 이러한 제스쳐는 직관적이며, 기억하기 쉽다. 본 발명의 일 실시예에서는 사용자가 실제의 물체를 홀딩하고 있지 않더라도 사용자의 손의 제스쳐만을 가지고 사용자가 어떠한 물체를 홀딩하고, 어떠한 방식으로 조작하고자 하는지를 판단할 수 있다.
도 1은 본 발명의 일 실시예에 따른 제스쳐 감지 방법을 설명하기 위한 개략적인 도면이다.
본 발명의 일 실시예에 따른 제스쳐 감지 장치는 사용자에게 착용된 깊이 카메라(depth camera)에 의해 촬영되는 손의 제 1 시퀀스 영상(V)을 획득한다. 제 1 시퀀스 영상(V)은 복수의 프레임을 포함할 수 있다. 깊이 카메라는 사용자에게 착용되는 HMD에 장착될 수 있다.
제스쳐 감지 장치는 일반적인 3D 손바닥 자세 추정기(palm pose estimator)
Figure 112016029745783-pat00001
로 손바닥의 회전 R 및 이동 T를 나타내는 변환 정보 M을 추정한다. 여기서, 3D 손바닥 자세 추정기는 예를 들어, 참고 문헌 [4]가 참조될 수 있다. 그리고, 제스쳐 감지 장치는 손의 회전이나 이동에 영향을 받지 않는 특징을 추출하기 위해 손의 3차원 픽셀의 좌표를 변환한다.
도 2는 손의 글로벌 좌표를 로컬 좌표로 변환하는 내용을 설명하기 위한 도면으로서, 도면부호 210은 인덱스 0에 대응하는 프레임에 포함된 손, 도면부호 220은 인덱스 k에 대응하는 프레임에 포함된 손을 나타내며, 동일한 손의 새끼손가락이라도 카메라 중심의 카메라 좌표(camera coordinate)에 따르면 서로 상이한 좌표를 갖게 된다. 제스쳐 감지 장치는 손의 3차원 픽셀들의 카메라 좌표를 아래의 수학식 1에 따라 각 프레임의 소정 지점(p)을 원점으로 하는 로컬 좌표(local coordinate) 또는 손 좌표(hand coordinate)로 변환할 수 있다.
[수학식 1]
Figure 112016029745783-pat00002
상기 수학식 1에서
Figure 112016029745783-pat00003
은 인덱스 0 및 인덱스 k에 대응하는 프레임에 포함된 손의 3차원 픽셀의 로컬 좌표,
Figure 112016029745783-pat00004
Figure 112016029745783-pat00005
각각은 인덱스 0 및 인덱스 k에 대응하는 프레임에 포함된 손의 3차원 픽셀의 카메라 좌표,
Figure 112016029745783-pat00006
Figure 112016029745783-pat00007
각각은 인덱스 0 및 인덱스 k에 대응하는 프레임에 포함된 손의 변환 정보로서, 3 by 3의 회전 매트릭스(rotation matrix) R과 3 by 1의 이동 매트릭스(translation matrix) T로 구성된 손바닥 변환 매트릭스를 나타낸다.
다시 도 1을 참조하면, 제스쳐 감지 장치는 각 프레임의 정적 복셀 특징 xi(i는 프레임의 인덱스로서, 0 내지 m)의 집합인 정적-동적 복셀 특징
Figure 112016029745783-pat00008
= x[ 0:m ] (m은 복수의 프레임 중 마지막 프레임의 인덱스)을 추출한다. 정적 복셀 특징 xi는 복수의 복셀들(
Figure 112016029745783-pat00009
)을 엘리먼트로 포함하며, Cz는 복셀
Figure 112016029745783-pat00010
내에 포함된 3차원 픽셀의 평균 깊이 값, Nc는 복셀
Figure 112016029745783-pat00011
내에 포함된 3차원 픽셀의 개수를 나타낸다.
도 3은 사각 큐브(300)로부터 추출된 정적 복셀 특징을 설명하기 위한 도면으로서, 기 설정된 개수의 복셀로 나뉘어진 사각 큐브(300)가 손의 3차원 픽셀들을 포함하도록 손에 매핑된 경우, 각 복셀에 포함된 3차원 픽셀의 개수들이 정적 복셀 특징 xi로 포함될 수 있다. 복수의 프레임 중 첫 번째 프레임에 대응하는 정적 복셀 특징 x0로부터 마지막 프레임에 대응하는 정적 복셀 특징 xm의 집합은 제 1 시퀀스 영상의 정적-동적 복셀 특징
Figure 112016029745783-pat00012
에 해당한다.
제스쳐 감지 장치는 복셀에 포함된 3차원 픽셀의 개수가 획득되면, 거리에 영향을 받지 않도록 3차원 픽셀의 개수를 정규화할 수 있다. 만약, 손이 카메라에 더 가까워진다면, 하나의 복셀에 더 많은 3차원 픽셀이 포함되게 되기 때문이다. 제스쳐 감지 장치는 i번째 복셀인
Figure 112016029745783-pat00013
내의 3차원 픽셀의 개수인
Figure 112016029745783-pat00014
는 다음의 수학식 2에 따라 정규화된다.
[수학식 2]
Figure 112016029745783-pat00015
수학식 2에서
Figure 112016029745783-pat00016
는 복셀
Figure 112016029745783-pat00017
내의 정규화된 3차원 픽셀의 개수,
Figure 112016029745783-pat00018
는 정규화되기 전의 복셀
Figure 112016029745783-pat00019
내의 3차원 픽셀의 개수,
Figure 112016029745783-pat00020
는 복셀
Figure 112016029745783-pat00021
내의 3차원 픽셀의 카메라 좌표에서의 평균 깊이 값, b는 정규화된 3차원 픽셀의 개수가 음수(negative number)가 되지 않도록 3차원 픽셀의 개수를 이동시키기 위한 상수 값을 나타낸다.
또한, 상기 수학식 2에서 c는 3차원 픽셀 개수를 정규화시키기 위해 적용되는 상수 인자 값을 나타내며, 아래의 수학식 3에 따라 계산될 수 있다.
[수학식 3]
Figure 112016029745783-pat00022
수학식 3에서
Figure 112016029745783-pat00023
(·)1,
Figure 112016029745783-pat00024
(·)2 각각은 두 개의 서로 다른 프레임 내에서 캡쳐(capture)된 동일한 i번째 복셀
Figure 112016029745783-pat00025
를 나타낸다. 제스쳐 감지 장치는 c 값을 획득하기 위해 가장 큰 깊이 차이를 갖는 두 개의 프레임을 의도적으로 선택할 수 있다.
도 3에 도시된 바와 같이, 하나의 사각 큐브에 총 75개의 복셀이 포함된 경우, 정적 복셀 특징 xi는 총 75개의 엘리먼트를 갖게 된다. 모든 복셀에 대한 3차원 픽셀 개수를 엘리먼트로 포함하는 경우, 그 개수가 매우 많아지게 되므로, 본 발명의 일 실시예에서는 도 1에 도시된 바와 같이, 동적-정적 복셀 특징
Figure 112016029745783-pat00026
의 각 정적 복셀 특징 xi를 LSP 특징
Figure 112016029745783-pat00027
로 인코딩한다. 여기서 동적-정적 복셀 특징
Figure 112016029745783-pat00028
에 포함된 각 정적 복셀 특징 xi에 포함된 3차원 픽셀의 개수는 정규화되어 있을 수 있다. 동적-정적 복셀 특징
Figure 112016029745783-pat00029
의 각 정적 복셀 특징 xi를 LSP 특징
Figure 112016029745783-pat00030
로 인코딩하는 방법에 대해서는 도 4 및 도 5를 참조하여 설명한다.
도 4 및 도 5는 정적 복셀 특징을 LSP 특징으로 인코딩하는 방법을 설명하기 위한 도면이다.
LSP 특징 는 사각 큐브를 구성하는 복수의 복셀 플레인(voxel plane) 각각의 내부에 3차원 픽셀들이 포함된 정도를 나타낸다. LSP 특징
Figure 112016029745783-pat00032
은 복수의 복셀 플레인 각각의 내부에 3차원 픽셀들이 포함된 정도를 나타내는 LSP 엘리먼트들을 포함할 수 있다.
전술한 바와 같이, 3D 손바닥 자세 추정기
Figure 112016029745783-pat00033
에 의해 손바닥의 회전 R 및 이동 T를 나타내는 변환 정보 M가 획득되면, 복수의 프레임 각각에서 손의 손바닥의 지향(orientation) 방향이 결정되고, 이에 따라 소정 지점을 원점으로 하였을 때의 로컬 좌표의 각 축(x축, y축 및 z축)의 방향이 결정될 수 있다. 사각 큐브를 구성하는 복수의 복셀 플레인에 대해서는 로컬 좌표 상에서의 인덱스가 매핑되고, 어느 하나의 위치에 매핑된 복셀 플레인에 대응하는 LSP 엘리먼트들이 추출되어 LSP 특징에 포함될 수 있다. 사각 큐브를 구성하는 복셀 플레인은
Figure 112016029745783-pat00034
로 표현될 수 있는데, 여기서,
Figure 112016029745783-pat00035
는 로컬 좌표 상의 특정 축을 나타내고,
Figure 112016029745783-pat00036
는 특정 축에서의 인덱스를 나타낸다. 또한, 복셀 플레인
Figure 112016029745783-pat00037
에 대응하는 LSP 엘리먼트는
Figure 112016029745783-pat00038
로 표현될 수 있으며, 여기서 axis는 복셀 플레인
Figure 112016029745783-pat00039
의 LSP 값을 추출하기 위한 계산 방향을 나타낸다. 예를 들어, axis가 y인 경우,
Figure 112016029745783-pat00040
의 LSP 값을 y축의 방향으로 계산하였다는 것을 의미한다.
도 5(a)는 x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)을 도시하고 있다. 도 5(b)는 어느 하나의 프레임에서 x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)을 도시하고 있고, 도 5(c)는 다른 하나의 프레임에서 x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)을 도시하고 있다. 도 5(b) 및 도 5(c)에서 음영 부분은 3차원 픽셀이 위치하는 영역을 가리킨다.
제스쳐 감지 장치는 x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)의 대응하는 y축 LSP 엘리먼트와 z축 LSP 엘리먼트를 추출한다. 구체적으로, 제스쳐 감지 장치는 x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)이 y축을 따라 n개의 층으로 구분되어 있는 경우, 각 층의 복셀 내의 3차원 픽셀의 밀도에 대응하여 상기 n개의 층 각각에 할당된 값이 나열된 값을 y축 LSP 엘리먼트로 추출하고, x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)이 z축을 따라 m개의 층으로 구분되어 있는 경우, 각 층의 복셀 내의 3차원 픽셀의 밀도에 대응하여 상기 m개의 층 각각에 할당된 값이 나열된 값을 z축 LSP 엘리먼트로 추출한다. 도면으로 도시되지는 않았으나, y축 상에 위치하는 복셀 플레인에 대해서는 x축 LSP 엘리먼트와 z축 LSP 엘리먼트가 추출되고, z축 상에 위치하는 복셀 플레인에 대해서는 x축 LSP 엘리먼트와 y축 LSP 엘리먼트가 추출된다. 사각 큐브를 구성하는 모든 복셀 플레인에 대해 LSP 엘리먼트들이 추출될 수 있다.
도 5(b)에 도시된 바와 같이, x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)이 y축을 따라 5개의 층으로 구성되어 있는 경우, 각 층에서의 3차원 픽셀의 밀도를 계산하여 그에 대응하는 값을 할당한다. 도 5(b)에서는 1층부터 5층까지 모두 1이 할당된 것을 알 수 있다. 제스쳐 감지 장치는 원점에서 가장 멀리 떨어진 층에 할당된 값이 가장 높은 자릿수를 가지며, 원점에 가까워질수록 자릿수가 작아지도록 각 층에 할당된 값을 나열한다. 이에 따라, 제스쳐 감지 장치는 y축 LSP 엘리먼트를 11111로 결정한다.
또한, 도 5(b)에서 x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)이 z축을 따라 3개의 층으로 구성되어 있는 경우, 각 층에서의 3차원 픽셀의 밀도를 계산하여 그에 대응하는 값을 할당한다. 도 5(b)에서는 1층에 5, 2층에 0, 3층에 0이 할당된 것을 알 수 있다. 제스쳐 감지 장치는 원점에서 가장 멀리 떨어진 층에 할당된 값이 가장 높은 자릿수를 가지며, 원점에 가까워질수록 자릿수가 작아지도록 각 층에 할당된 값을 나열한다. 이에 따라, 제스쳐 감지 장치는 z축 LSP 엘리먼트를 005로 결정한다.
제스쳐 감지 장치는 3차원 픽셀에 밀도에 대응하는 값을 각 층에 할당할 때, 8진수 시스템(octal number system)에 의할 수 있다. 즉, 3차원 픽셀의 밀도가 클수록 큰 수를 각 층에 할당하되, 최대 값은 7로 제한하는 것이다. 이에 의하면, 도 5(b)의 y축 LSP 엘리먼트 11111은 10진수로 변환되어 4681의 값을 갖고, z축 LSP 엘리먼트 005는 10진수로 변환되어 5의 값을 갖게 된다.
다음으로, 도 5(c)에서 x축의 인덱스 2의 위치에 매핑된 복셀 플레인(500)이 y축을 따라 5개의 층으로 구성되어 있는 경우, 각 층에서의 3차원 픽셀의 밀도를 계산하여 그에 대응하는 값을 할당한다. 도 5(c)에서는 1층에 1, 2층에 2, 3층에 2, 4층 및 5층에 0이 할당된 것을 알 수 있다. 이에 따라, 제스쳐 감지 장치는 y축 LSP 엘리먼트를 00221로 결정할 수 있다. 또한, 복셀 플레인(500)이 z축을 따라 3개의 층으로 구성되어 있는 경우, 도 5(c)와 같이 1층에 3, 2층에 1 및 3층에 1을 할당할 수 있으며, 이에 따라, 제스쳐 감지 장치는 z축 LSP 엘리먼트를 113으로 결정한다. 제스쳐 감지 장치는 y축 LSP 엘리먼트로 00221을 결정하고, z축 LSP 엘리먼트로 113을 결정할 수도 있으나, 이들을 10진수로 변환한 값인 145와 75 각각을 y축 LSP 엘리먼트와 z축 LSP 엘리먼트로 결정할 수도 있다.
도 4를 보면, 제스쳐 감지 장치는 복수의 프레임 각각에 대응하는 정적 복셀 특징 xi를 인코딩하여 복수의 LSP 특징(
Figure 112016029745783-pat00041
)을 획득할 수 있다. 하나의 사각 큐브 내에 10 * 10 * 10의 복셀이 존재하는 경우, 정적 복셀 특징 xi의 엘리먼트는 1000개에 해당하나, LSP 특징의 LSP 엘리먼트는 60개 (10*2 + 10*2 + 10*2)로 축소될 수 있다.
제스쳐 감지 장치는 하나의 프레임에서 추출된 복수의 LSP 엘리먼트들을 기 설정된 순서로 나열하고, 나열된 LSP 엘리먼트들에 인덱스를 부여할 수 있다. LSP 엘리먼트의 변수를
Figure 112016029745783-pat00042
,
Figure 112016029745783-pat00043
, axis라 할 때, 예를 들어, LSP 엘리먼트들에 대한 인덱스는 다음과 같이 부여될 수 있다.
[Index:
Figure 112016029745783-pat00044
,
Figure 112016029745783-pat00045
, axis], [0: x, 0, Y], [1: x, 0, Z], [2: x, 1, Y], [3: x, 1, Z], [4: y, 0, X], [5: y, 0, Z], [6: y, 1, X], [7: y, 1, Z], [8: z, 0, X], [9: z, 0, Y], [10: z, 1, X], [11: z, 1, Y]
이상과 같이, 본 발명의 일 실시예에 따른 제스쳐 감지 장치는 복수의 프레임을 포함하는 제 1 시퀀스 영상이 획득되면, 제 1 시퀀스 영상으로부터 복수의 제 1 LSP 특징을 추출하고, 추출된 제 1 LSP 특징에 기초하여, 제 1 시퀀스 영상의 손의 홀딩 제스쳐에 대응하는 물체의 종류와 조작 제스쳐에 대응하는 조작의 종류를 판단할 수 있다. 제스쳐 감지 장치는 홀딩 제스쳐에 대응하는 물체의 종류와 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위해 랜덤 포레스트를 미리 구성해 놓을 수 있는데, 이에 대해서는 도 6을 참조하여 설명한다.
도 6은 손의 제 2 시퀀스 영상의 복수의 프레임 각각으로부터 추출되어 인코딩된 제 2 LSP 특징에 기초하여 구성된 랜덤 포레스트의 트리(600)를 나타내는 예시적인 도면이다. 랜덤 포레스트는 제스쳐 감지 장치에 의해 구성될 수도 있지만, 미리 구성되어 제스쳐 감지 장치에 저장될 수도 있다. 이하에서는, 제스쳐 감지 장치가 랜덤 포레스트를 구성할 때의 방법을 설명한다.
먼저, 제스쳐 감지 장치는 홀딩 제스쳐에 대응하는 물체의 종류(a)와 조작 제스쳐에 대응하는 조작의 종류(a')를 미리 알고 있는 손의 제 2 시퀀스 영상으로부터 복수의 제 2 LSP 특징을 획득할 수 있다. 홀딩 제스쳐에 대응하는 물체는 예를 들어, 볼펜, 스마트폰, 스프레이 등의 다양한 물체를 포함할 수 있으며, 조작 제스쳐에 대응하는 조작은 예를 들어, 프레싱(pressing), 중립(neutral), 릴리즈(release) 등을 포함할 수 있으나, 이에 한정되지는 않는다.
랜덤 포레스트는 이진 결정 트리(binary decision tree)의 앙상블(ensemble)로서, 각각의 트리는 두 가지 종류의 노드, 즉, 스플릿 노드(split node)와 리프 노드(leaf node)를 포함한다. 본 발명에서의 랜덤 포레스트의 각 스플릿 노드들은 입력 데이터에 대하여, 특정 업무의 분할 함수를 수행하고, 이를 왼쪽의 하위 노드로 라우팅할지, 오른쪽의 하위 노드로 라우팅할지를 결정한다. 리프 노드는 물체의 종류 및 조작의 종류를 나타내는 종단 노드로서 물체의 종류의 확률과 조작의 종류의 확률을 저장한다.
랜덤 포레스트 내의 각 트리는 현재의 훈련(또는 학습) 데이터를 재귀적으로(recursively) 분할하고, 두 개의 자손 노드(child node)로 보내면서 성장한다. 트리의 각 노드에서는 무작위로 분할 후보들
Figure 112016029745783-pat00046
이 생성되며, 여기서,
Figure 112016029745783-pat00047
은 분할 함수이고,
Figure 112016029745783-pat00048
은 임계 값으로서, 제스쳐 감지 장치는 스플릿 노드에서 가장 큰 정보 게인(information gain: IG)을 제공하는 최적의 파라미터 세트인
Figure 112016029745783-pat00049
를 찾는다.
본 발명의 일 실시예에서, 각 스플릿 노드에서의 분할 함수
Figure 112016029745783-pat00050
은 아래의 수학식 4에 따라 결정된다.
[수학식 4]
Figure 112016029745783-pat00051
수학식 4에서
Figure 112016029745783-pat00052
는 분할 함수,
Figure 112016029745783-pat00053
는 정적 함수로서 LSP 특징에 포함된 LSP 엘리먼트,
Figure 112016029745783-pat00054
는 동적 함수로서,
Figure 112016029745783-pat00055
는 LSP 특징에 포함된 LSP 엘리먼트, p 및 q는 시퀀스 영상의 마지막 m 프레임으로부터의 선행 오프셋, idx는 LSP 특징에 포함된 LSP 엘리먼트들 중 어느 하나를 나타내는 인덱스를 나타낸다.
본 발명의 일 실시예에서 제스쳐 감지 장치는 트리에서 상위 계층(top layer)에 위치하는 스플릿 노드에 대해서는 정적 함수를 할당하고, 하위 계층(bottom layer)에 위치하는 스플릿 노드에 대해서는 동적 함수를 할당한다. 즉, 상위 계층에서 정적 함수에 의해 홀딩 제스쳐에 대응하는 물체의 종류가 어느 정도 확정된 뒤에, 하위 계층에서 조작 제스쳐에 대응하는 조작의 종류를 판단하는 것이다.
구체적으로, 제스쳐 감지 장치는 트리 내 최상위 층의 스플릿 노드의 분할 함수를 정적 함수로 결정하고, 정적 함수의 파라미터(p, idx)를 무작위로 선택하면서 입력되는 데이터 세트를 분할하여 하위 노드로 전달한다. IG가 최대가 되는 파라미터가 선택되면, 제스쳐 감지 장치는 최상위 계층의 분할 함수의 파라미터 최적화를 완료하고, 학습 데이터를 하위 노드로 전달한다. 최상위 층에 위치하는 스플릿 노드의 분할 함수는 항상 정적 함수로 결정된다.
분할 함수
Figure 112016029745783-pat00056
과 무작위로 선택된 임계 값
Figure 112016029745783-pat00057
에 기초하여, 주어진 데이터 세트
Figure 112016029745783-pat00058
가 서브 세트인
Figure 112016029745783-pat00059
Figure 112016029745783-pat00060
로 분할되되,
Figure 112016029745783-pat00061
이고,
Figure 112016029745783-pat00062
이다. 그리고, IG는 아래의 수학식 5에 따라 결정된다.
[수학식 5]
Figure 112016029745783-pat00063
상기 수학식 5에서 H(·)은 새넌 엔트로피(shannon's entropy)로서, 아래의 수학식 6에 따라 결정된다.
[수학식 6]
Figure 112016029745783-pat00064
상기 수학식 5 및 수학식 6에서
Figure 112016029745783-pat00065
는 데이터 세트
Figure 112016029745783-pat00066
내에서 g로 라벨링된 제스쳐의 확률,
Figure 112016029745783-pat00067
는 제스쳐 타입(예를 들어, 홀딩 제스쳐 및 조작 제스쳐)과 관련된 현재 층(layer)에 의존하는 제스쳐 라벨의 집합을 나타낸다. 예를 들어,
Figure 112016029745783-pat00068
가 상위 계층에서 복수의 홀딩 제스쳐 라벨 {0:N}의 집합을 나타낸다면, 라벨 g는 0, 1, 2, …, N 중에서의 하나의 라벨에 해당할 것이고,
Figure 112016029745783-pat00069
가 하위 계층에서의 복수의 조작 제스쳐 라벨 {P, N, R}의 집합을 나타낸다면, 라벨 g는 P(pressing), N(neutral) 및 R(release) 중에서의 하나의 라벨에 해당할 것이다.
최상위 계층의 하위에 위치하는 스플릿 노드에서는, 전달되는 데이터 세트에 포함된 데이터들의 대부분이 어느 하나의 물체의 종류에 대응하는 홀딩 제스쳐를 나타내는 것으로 라벨링(labelling)되어 있는지에 따라, 분할 함수가 정적 함수 또는 동적 함수로 결정된다. 다시 말하면, 최상의 층의 스플릿 노드에서 나뉘어진 데이터 세트를 입력받는 하위층의 스플릿 노드에서는, 데이터 세트 중 동일한 제스쳐 라벨로 라벨링된 데이터의 데이터 세트 내에서의 가장 큰 확률 (또는 비율)과 두 번째로 큰 확률 (또는 비율) 사이의 차이가 임계값보다 큰 경우, 분할 함수를 동적 함수로 결정하고, 그렇지 않다면, 분할 함수를 정적 함수로 결정하는 것이다. 상기 임계값은 예를 들어, 0.9로 결정될 수 있다. 예를 들어, 데이터 세트 중 스프레이로 라벨링된 데이터의 확률이 가장 크고, 스마트폰으로 라벨링된 데이터의 확률이 두 번째로 크고, 스프레이로 라벨링된 데이터의 확률과 스마트폰으로 라벨링된 데이터의 확률 사이의 차이가 임계값보다 큰 경우, 해당 데이터 세트의 대부분의 데이터는 스프레이를 홀딩하고 있는 것이므로, 제스쳐 감지 장치는 해당 스플릿 노드에서 더 이상 홀딩 제스쳐를 판단할 필요가 없다고 결정하고, 분할 함수를 동적 함수로 결정하는 것이다.
데이터 세트 중 동일한 물체를 홀딩하고 있는 것으로 라벨링된 데이터가 많다는 것은 상위 계층의 스플릿 노드에서 물체의 종류의 판단이 거의 완료되었다는 것을 의미하기 때문에, 하위 계층에서는 더 이상 물체의 종류를 판단하지 않는다.
도 6을 보면, 최상위 계층의 스플릿 노드(610)에서의 분할 함수는 정적 함수로 결정되고, 두 번째 계층의 좌측 스플릿 노드(620)에서의 분할 함수는 동적 함수로, 우측 스플릿 노드(630)에서의 분할 함수는 정적 함수로 결정되는 것을 알 수 있다. 또한, 두 번째 계층의 좌측 스플릿 노드(620)에서의 분할 함수가 동적 함수로 결정된 이후에는, 하위 계층의 모든 스플릿 노드의 분할 함수가 동적 함수로 결정된다는 것을 알 수 있다.
제스쳐 감지 장치는 동적 함수로 결정된 스플릿 노드에 대해서도 파라미터(p, q, idx)를 무작위로 선택하면서 입력되는 데이터 세트를 분할하여 하위 노드로 전달한다. IG가 최대가 되는 파라미터가 선택되면, 제스쳐 감지 장치는 분할 함수의 파라미터 최적화를 완료하고, 학습 데이터를 하위 노드로 전달한다. 동적 함수에서는 서로 다른 프레임에 대응하는 서로 다른 LSP 특징의 LSP 엘리먼트를 비교하기 때문에, 손의 특정 부분의 이동 경향이 판단될 수 있다.
트리의 성장은 중단 기준에 만족할 때까지 재귀적으로 반복된다. 중단 기준은 예를 들어, 데이터 세트의 샘플이 개수가 기 설정된 최소 개수보다 작거나, 트리의 깊이(depth)가 기 설정된 값을 초과하는 경우나, 현재의 노드로 전달된 분할 데이터 세트의 모든 조작 제스쳐의 라벨들이 동일한 라벨에 해당하는 경우일 수 있다.
트리의 각 리프 노드에는 홀딩 제스쳐의 확률과 조작 제스쳐의 확률이 저장된다.
도 5를 참조하여 설명하였던 제 1 LSP 특징들이 이진 트리에 입력되면, 물체의 종류에 대응하는 홀딩 제스쳐의 확률과, 조작의 종류에 대응하는 조작 제스쳐의 확률이 아래의 수학식 7에 따라 결정된다.
[수학식 7]
Figure 112016029745783-pat00070
상기 수학식 7에서,
Figure 112016029745783-pat00071
는 홀딩 제스쳐
Figure 112016029745783-pat00072
의 확률, A는 홀딩 제스쳐들의 집합,
Figure 112016029745783-pat00073
는 조작 제스쳐
Figure 112016029745783-pat00074
의 확률, B는 조작 제스쳐들의 집합을 나타낸다.
홀딩 제스쳐
Figure 112016029745783-pat00075
의 확률과, 조작 제스쳐
Figure 112016029745783-pat00076
의 확률은 랜덤 포레스트 내 트리들의 리프 노드에 저장된 값을 평균함으로써, 아래의 수학식 8과 같이 결정된다.
[수학식 8]
Figure 112016029745783-pat00077
제스쳐 감지 장치는 랜덤 포레스트의 복수의 트리 각각에서 결정된 물체의 종류와 조작의 종류의 확률의 평균과 기 설정된 임계 값을 비교하여, 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 최종적으로 판단할 수 있다.
이하에서는, 도 7 및 도 8을 참조하여 본 발명의 일 실시예에 따른 제스쳐 감지 방법의 효과를 살펴본다.
도 7(a) 및 도 7(b) 각각은 다양한 시점(view point)에서 관측된 데이터 세트를 참고 문헌 [6] 및 [7]의 종래 기술에 적용한 경우와, 본 발명의 일 실시예에 따른 제스쳐 감지 방법에 적용한 경우, 물체의 종류의 판단 정확도를 비교하기 위한 그래프이다.
도 7(a)을 참조하면, 종래 기술에 의한 경우, 물체 종류의 판단 정확도가 60.00%를 보이는 반면에, 도 7(b)를 참조하면, 본 발명의 제스쳐 감지 방법에 의한 경우, 정확도가 91.36%까지 향상된 것을 알 수 있다.
다음으로, 도 8은 데이터 세트가 입력되었을 때, 참고 문헌 [8]에 따른 조작의 종류의 판단 정확도와, 제스쳐 감지 방법에 따른 조작의 종류의 판단 정확도를 비교하기 위한 ROC(Receiver Operating Characteristic) 그래프이다. 도 8은 엄지 손가락에 대한 조작 종류의 판단 정확도를 나타내는데, 종래 기술에 따르면 89.80%의 정확도를 보이는데 반해, 본 발명에 따르면, 95.59%의 정확도를 보이고 있다.
도 9는 본 발명의 다른 실시예에 따른 제스쳐 감지 장치(900)의 구성을 나타내는 블록도이다.
도 9를 참조하면, 본 발명의 다른 실시예에 따른 제스쳐 감지 장치(900)는 영상 획득부(910), 영상 처리부(930), 특징 추출부(950) 및 판단부(970)를 포함할 수 있다. 영상 획득부(910), 영상 처리부(930), 특징 추출부(950) 및 판단부(970)는 적어도 하나의 마이크로 프로세서로 구현될 수 있으며, 도시되지 않은 메모리에 저장된 프로그램에 따라 동작할 수 있다.
본 발명의 다른 실시예에 따른 제스쳐 감지 장치(900)는 사용자에게 착용 가능한 장치로서, 깊이 카메라를 더 포함할 수도 있다. 또는, 구현예에 따라서는, 제스쳐 감지 장치(900)는 사용자에게 착용된 깊이 카메라와는 별개의 컴퓨터로서 구현될 수도 있다.
영상 획득부(910)는 사용자에게 착용된 깊이 카메라에 의해 촬영되는 손의 제 1 시퀀스 영상을 획득한다. 또한, 영상 획득부(910)는 랜덤 포레스트 구성을 위한 제 2 시퀀스 영상을 획득할 수 있다.
영상 처리부(930)는 제 1 시퀀스 영상 내 복수의 프레임 각각의 손에 복수의 복셀로 나뉘어진 사각 큐브를 매핑한다.
특징 추출부(950)는 제 1 시퀀스 영상 내 복수의 프레임 각각에 대해, 사각 큐브를 구성하는 복수의 복셀 각각의 내부에 포함된 손의 3차원 픽셀들의 개수를 나타내는 정적 복셀 특징을 추출하고, 추출된 정적 복셀 특징을 인코딩하여 제 1 LSP 특징을 획득한다.
판단부(970)는 제 1 LSP 특징을 랜덤 포레스트에 입력하여, 제 1 시퀀스 영상에서 손의 홀딩 제스쳐에 대응하는 물체의 종류와 조작 제스쳐에 대응하는 조작의 종류를 판단할 수 있다. 상기 랜덤 포레스트는 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 알고 있는 손의 제 2 시퀀스 영상의 복수의 프레임 각각으로부터 획득된 제 2 LSP 특징에 기초하여 구성될 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.
상기 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함할 수 있으나, 이에 한정되는 것은 아니다.
첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
900: 제스쳐 감지 장치
910: 영상 획득부
930: 영상 처리부
950: 특징 추출부
970: 판단부

Claims (14)

  1. 사용자에게 착용된 깊이 카메라에 의해 촬영되는 손의 제 1 시퀀스 영상을 획득하는 단계;
    상기 획득한 제 1 시퀀스 영상 내 복수의 프레임 각각의 손에 복수의 복셀(voxel)로 나뉘어진 사각 큐브(rectangular cube)를 매핑하는 단계;
    상기 복수의 프레임 각각에 대해, 상기 사각 큐브를 구성하는 복수의 복셀들의 정적 복셀 특징(static voxel feature)을 추출하고, 추출된 정적 복셀 특징을 인코딩하여 제 1 LSP 특징(layer shape pattern feature)을 획득하는 단계; 및
    상기 제 1 LSP 특징을 랜덤 포레스트(random forest)에 입력하여, 상기 제 1 시퀀스 영상에서 손의 홀딩(holding) 제스쳐에 대응하는 물체의 종류와 손의 조작(manipulation) 제스쳐에 대응하는 조작의 종류를 판단하는 단계를 포함하고,
    상기 랜덤 포레스트는, 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 알고 있는 손의 제 2 시퀀스 영상의 복수의 프레임 각각으로부터 획득된 제 2 LSP 특징에 기초하여 구성된 것을 특징으로 하는, 제스쳐 감지 장치에 의한 제스쳐 감지 방법.
  2. 제1항에 있어서,
    상기 사각 큐브를 매핑하는 단계는,
    상기 복수의 프레임 각각의 손을 구성하는 복수의 3차원 픽셀들을 내부에 포함하도록 상기 사각 큐브를 손에 매핑하는 단계를 포함하는 것을 특징으로 하는 제스쳐 감지 방법.
  3. 제1항에 있어서,
    상기 정적 복셀 특징은,
    상기 복수의 복셀들 각각의 내부에 포함된 상기 손의 3차원 픽셀들의 개수를 엘리먼트로 포함하는 것을 특징으로 하는 제스쳐 감지 방법.
  4. 제3항에 있어서,
    상기 제스쳐 감지 방법은,
    상기 사각 큐브를 구성하는 복수의 복셀 각각의 내부에 포함된 상기 손의 3차원 픽셀들의 개수를 정규화(normalization)하는 단계를 더 포함하는 것을 특징으로 하는 제스쳐 감지 방법.
  5. 제1항에 있어서,
    상기 제 1 LSP 특징은,
    상기 사각 큐브를 구성하는 복수의 복셀 플레인(voxel plane) 각각의 내부에 3차원 픽셀들이 포함된 정도를 나타내는 것을 특징으로 하는 제스쳐 감지 방법.
  6. 제5항에 있어서,
    상기 제 1 LSP 특징을 획득하는 단계는,
    상기 획득한 제 1 시퀀스 영상 내 복수의 프레임 각각에서 손의 손바닥의 지향(orientation) 방향을 결정하는 단계;
    상기 제 1 시퀀스 영상 내 복수의 프레임 각각에서의 소정 지점을 원점으로 하고, 상기 결정된 지향 방향에 따라 로컬 좌표의 각 축(axis)의 방향을 결정하는 단계; 및
    상기 복수의 복셀 플레인에 대해 상기 로컬 좌표 상에서의 인덱스를 매핑하는 단계를 포함하는 것을 특징으로 하는 제스쳐 감지 방법.
  7. 제5항에 있어서,
    로컬 좌표의 제 1 축 상의 어느 하나의 복셀 플레인에 대한 LSP 엘리먼트는,
    상기 어느 하나의 복셀 플레인이 제 2 축 또는 제 3 축을 따라 n개의 층으로 구분되어 있는 경우, 각 층의 복셀 내의 3차원 픽셀의 밀도에 대응하여 상기 n개의 층 각각에 할당된 값이 나열된 값을 포함하는 것을 특징으로 하는 제스쳐 감지 방법.
  8. 제7항에 있어서,
    상기 n개의 층 각각에 할당된 값을 나열할 때, 원점으로부터 가장 멀리 떨어진 층에 할당된 값은 가장 큰 자릿수(positional number)를 갖고, 상기 원점과 가장 가까운 층에 할당된 값은 가장 작은 자릿수를 갖도록 나열되는 것을 특징으로 하는 제스쳐 감지 방법.
  9. 제1항에 있어서,
    상기 제스쳐 감지 방법은,
    상기 랜덤 포레스트를 구성하는 단계를 더 포함하고,
    상기 랜덤 포레스트를 구성하는 단계는,
    상기 랜덤 포레스트의 트리 내 최상위 층의 스플릿 노드(split node)의 분할 함수(split function)를 정적(static) 함수로 결정하고, 상기 최상위 층의 스플릿 노드의 분할 함수의 파라미터를 최적화하는 단계; 및
    상기 최상위 층의 스플릿 노드에서 나뉘어진 학습 데이터 세트를 입력받는 하위층의 스플릿 노드에 대해서는, 상기 학습 데이터 세트 중 동일한 홀딩 제스쳐 라벨로 라벨링된 데이터의 가장 큰 확률 두 번째로 큰 확률 사이의 차이가 임계값보다 큰 경우, 분할 함수를 동적(dynamic) 함수로 결정하고, 상기 차이가 임계값 이하인 경우, 분할 함수를 정적 함수로 결정하는 단계를 포함하는 것을 특징으로 하는 제스쳐 감지 방법.
  10. 제9항에 있어서,
    상기 랜덤 포레스트를 구성하는 단계는,
    상기 하위층의 스플릿 노드의 분할 함수가 동적 함수로 결정된 경우, 상기 하위층의 스플릿 노드의 하위층에 위치하는 모든 스플릿 노드에 대해서는 분할 함수를 동적 함수로 결정하는 단계를 포함하는 것을 특징으로 하는 제스쳐 감지 방법.
  11. 제9항에 있어서,
    상기 정적 함수는, 어느 하나의 프레임에서 획득된 LSP 특징에 포함된 LSP 엘리먼트를 나타내고,
    상기 동적 함수는, 어느 하나의 프레임에서 획득된 LSP 특징에 포함된 LSP 엘리먼트와 다른 하나의 프레임에서 획득된 LSP 특징에 포함된 LSP 엘리먼트의 차이를 나타내는 것을 특징으로 하는 제스쳐 감지 방법.
  12. 제1항에 있어서,
    상기 판단하는 단계는,
    상기 랜덤 포레스트의 복수의 트리 각각에서 결정된 물체의 종류와 조작의 종류의 확률의 평균과 기 설정된 임계 값을 비교하여, 상기 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하는 단계를 포함하는 것을 특징으로 하는 제스쳐 감지 방법.
  13. 하드웨어와 결합되어 제1항 내지 제12항 중 어느 하나의 항의 제스쳐 감지 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  14. 사용자에게 착용된 깊이 카메라에 의해 촬영되는 손의 제 1 시퀀스 영상을 획득하는 영상 획득부;
    상기 획득한 제 1 시퀀스 영상 내 복수의 프레임 각각의 손에 복수의 복셀로 나뉘어진 사각 큐브를 매핑하는 영상 처리부;
    상기 복수의 프레임 각각에 대해, 상기 사각 큐브를 구성하는 복수의 복셀들의 정적 복셀 특징을 추출하고, 추출된 정적 복셀 특징을 인코딩하여 제 1 LSP 특징을 획득하는 특징 추출부; 및
    상기 제 1 LSP 특징을 랜덤 포레스트에 입력하여, 상기 제 1 시퀀스 영상에서 손의 홀딩 제스쳐에 대응하는 물체의 종류와 해당 물체에 대한 조작의 종류를 판단하는 판단부를 포함하고,
    상기 랜덤 포레스트는, 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 알고 있는 손의 제 2 시퀀스 영상의 복수의 프레임 각각으로부터 획득된 제 2 LSP 특징에 기초하여 구성된 것을 특징으로 하는 제스쳐 감지 장치.
KR1020160037120A 2016-03-28 2016-03-28 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법 KR101772890B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160037120A KR101772890B1 (ko) 2016-03-28 2016-03-28 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160037120A KR101772890B1 (ko) 2016-03-28 2016-03-28 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법

Publications (1)

Publication Number Publication Date
KR101772890B1 true KR101772890B1 (ko) 2017-08-31

Family

ID=59761186

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160037120A KR101772890B1 (ko) 2016-03-28 2016-03-28 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법

Country Status (1)

Country Link
KR (1) KR101772890B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012079177A (ja) 2010-10-04 2012-04-19 Panasonic Corp 仮想物体操作装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012079177A (ja) 2010-10-04 2012-04-19 Panasonic Corp 仮想物体操作装置

Similar Documents

Publication Publication Date Title
US11501527B2 (en) Visual-inertial positional awareness for autonomous and non-autonomous tracking
JP7486565B2 (ja) クラウド支援型の新しい視点を利用したローカルマップデータの生成
US11842514B1 (en) Determining a pose of an object from rgb-d images
CN109298629B (zh) 在未绘制地图区域中引导移动平台的系统及方法
CN102184558B (zh) 概率分布云的多质心压缩
US10402663B1 (en) Visual-inertial positional awareness for autonomous and non-autonomous mapping
KR101848959B1 (ko) 컬러 채널 및 광학 마커
CN109255749B (zh) 自主和非自主平台中的地图构建优化
Jang et al. Metaphoric hand gestures for orientation-aware VR object manipulation with an egocentric viewpoint
KR20150108888A (ko) 제스처 인식을 위한 부분 및 상태 검출
KR101563297B1 (ko) 영상에서 행동을 인식하는 방법 및 장치
JP2019066238A (ja) 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
CN113592015B (zh) 定位以及训练特征匹配网络的方法和装置
CN109933190B (zh) 一种头戴显示设备及其交互方法
CN111667005A (zh) 一种采用rgbd视觉传感的人体交互系统
US20200302245A1 (en) Action classification based on manipulated object movement
CN110751097A (zh) 一种半监督的三维点云手势关键点检测方法
CN111324746B (zh) 视觉定位方法、装置、电子设备和计算机可读存储介质
CN111858996A (zh) 室内定位方法、装置、电子设备及存储介质
Kharroubi et al. Marker-less mobile augmented reality application for massive 3d point clouds and semantics
Lei et al. GaussNav: Gaussian Splatting for Visual Navigation
JP2015011526A (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
CN112488126A (zh) 特征图处理方法、装置、设备以及存储介质
KR101772890B1 (ko) 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법
KR20120008211A (ko) 로봇의 물체 인식 및 자세 추정 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant