KR101745651B1 - 손 제스처 인식 시스템 및 방법 - Google Patents
손 제스처 인식 시스템 및 방법 Download PDFInfo
- Publication number
- KR101745651B1 KR101745651B1 KR1020160037571A KR20160037571A KR101745651B1 KR 101745651 B1 KR101745651 B1 KR 101745651B1 KR 1020160037571 A KR1020160037571 A KR 1020160037571A KR 20160037571 A KR20160037571 A KR 20160037571A KR 101745651 B1 KR101745651 B1 KR 101745651B1
- Authority
- KR
- South Korea
- Prior art keywords
- hand
- gesture
- gesture recognition
- hand region
- depth image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G06K9/00355—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G06K9/20—
-
- G06K9/6202—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 손 제스처 인식 기술에 관한 것으로, 본 발명의 일 측면에 따른 손 제스처 인식 시스템은, 제스처 인식 영역을 촬영하여 깊이 이미지를 획득하는 영상 촬영부; 상기 깊이 이미지로부터 손 영역을 추출하는 손 영역 추출부; 및 추출된 손 영역을 분석하여, 상기 깊이 이미지에 포함되어 있는 손 제스처를 놓기 제스처 혹은 잡기 제스처로 인식하는 손 제스처 인식부를 포함한다.
Description
본 발명은 손 제스처 인식 기술에 관한 것으로, 손 전체에 대한 영상을 바탕으로 손 제스처를 인식함으로써, 인식률을 높일 수 있는 손 제스처 인식 시스템 및 방법에 관한 것이다.
최근, 인체의 포즈 및 움직임을 추정함으로써, 직관적인 상호작용 방법들을 가능하게 하는 기술이, 게임, 로봇, 교육, 미디어, 감시 등 다양한 응용 분야에서 활용되고 있다. 상기 기술은, 행동 인식, 의도 인식, 컴퓨터 비전, 가상현실, 증강현실 등과 결합되어 활용되고 있다.
특히 손 제스처 인식은 스마트 IT 기기의 개발과 더불어 사용자와 기기 간의 효율적이면서도 자연스러운 상호작용 및 정보 교환을 위한 방법으로 주목받고 있다.
특히 비전-기반 제스처 인식의 장점은 기존의 컴퓨터 사용에서와 같이 키보드나 마우스 같은 추가적인 장비 없이 기기에 기본적으로 장착된 영상 획득 장치를 활용함으로써 추가적인 비용 없이 수행할 수 있다는 장점으로 인해 로봇 제어, 컴퓨터 게임, 스마트 TV, 스마트 폰 등에서 이를 활용하기 위한 많은 연구들이 진행되고 있다
종래의 비전-기반 제스처 인식 기술로는, 깊이 카메라를 이용하여 획득되는 손 영상을 기반으로 잡기 제스처 및 놓기 제스처를 인식하는 기술이 있는데, 종래에는 엄지와 검지 2개의 손가락에 대한 영상을 기반으로 잡기 및 놓기 제스처를 인식하였다.
이러한 2개의 손가락을 바탕으로 한 잡기 및 놓기 제스처 인식은 오류 발생율이 높다는 문제점이 있다.
이러한 종래 기술과 관련된 선행기술문헌으로는 비특허문헌인 “SpaceTop: Integrating 2D and Spatial 3D Interactions in a See-through Desktop Environment”, Jinha Lee, Alex Olwal, Hiroshi Ishii, Cati Boulanger, CHI 2013: Changing Perspectives, Paris, France, Session: 3D User Interfaces가 있다.
이러한 종래 기술과 관련된 선행기술문헌으로는 비특허문헌인 “SpaceTop: Integrating 2D and Spatial 3D Interactions in a See-through Desktop Environment”, Jinha Lee, Alex Olwal, Hiroshi Ishii, Cati Boulanger, CHI 2013: Changing Perspectives, Paris, France, Session: 3D User Interfaces가 있다.
따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 손 전체에 대한 영상을 바탕으로 손 제스처를 인식함으로써, 인식률을 높일 수 있는 손 제스처 인식 시스템 및 방법을 제공함에 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 일 측면에 따른 손 제스처 인식 시스템은, 제스처 인식 영역을 촬영하여 깊이 이미지를 획득하는 영상 촬영부; 상기 깊이 이미지로부터 손 영역을 추출하는 손 영역 추출부; 및 추출된 손 영역을 분석하여, 상기 깊이 이미지에 포함되어 있는 손 제스처를 놓기 제스처 혹은 잡기 제스처로 인식하는 손 제스처 인식부를 포함한다.
상기 손 영역 추출부는, 상기 깊이 이미지에 1차 이진화를 수행하고, 1차 이진화 처리된 깊이 이미지로부터 손 영역을 결정하고, 결정된 손 영역에 2차 이진화를 수행하여 최종적으로 상기 손 영역을 추출하도록 구성된다.
상기 손 영역 추출부는, 1차 이진화로서 일반 이진화를 수행하고, 2차 이진화로서 적응적 이진화를 수행하도록 구성된다.
상기 손 영역 추출부는, 1차 이진화 처리된 깊이 이미지에 레이블링 알고리즘을 적용하여 검출되는 손 영역 후보 중 기 설정되는 한계값과 비교하여, 상기 한계값 이상인 손 영역 후보를 상기 손 영역으로 결정하도록 구성된다.
상기 손 영역 추출부는, 상기 손 영역 후보의 개수가 2개 이상인 것으로 판단되면, 가장 큰 2개의 손 영역 후보를 상기 손 영역으로 결정하도록 구성된다.
상기 손 영역 추출부는, 상기 손 영역 후보의 개수가 2개 미만인 것으로 판단되면, 검출된 손 영역 후보를 상기 손 영역으로 결정하도록 구성된다.
상기 손 영역 추출부는, 상기 손 영역 후보 중 상기 한계값 이상인 손 영역 후보가 없는 경우, 상기 깊이 이미지에 손 영역이 없는 것으로 판단하도록 구성된다.
상기 손 제스처 인식부는, 추출된 손 영역에 적응적 이진화를 수행하여 제스처 인식 영역을 검출하고, 검출된 제스처 인식 영역의 개수를 바탕으로, 손 제스처를 상기 놓기 제스처 혹은 상기 잡기 제스처로 인식하도록 구성된다.
상기 손 제스처 인식부는, 상기 제스처 인식 영역의 개수가 설정값 이상인지를 판단하여, 상기 제스처 인식 영역의 개수가 상기 설정값 이상이면, 상기 손 제스처를 상기 놓기 제스처인 것으로 인식하고, 상기 제스처 인식 영역의 개수가 상기 설정값 미만이면, 상기 손 제스처를 상기 잡기 제스처로 인식하도록 구성된다.
또한, 본 발명의 타 측면에 따른 손 제스처 인식 방법은, 제스처 인식 영역을 촬영하여 깊이 이미지를 획득하는 단계; 상기 깊이 이미지를 분석하여, 손 영역이 추출되는지를 판단하는 단계; 상기 손 영역이 추출되면, 추출된 손 영역에 적응적 이진화를 수행하여 제스처 인식 영역을 검출하는 단계; 및 검출된 제스처 인식 영역의 개수를 바탕으로, 상기 깊이 이미지에 포함되어 있는 손 제스처를 놓기 제스처 혹은 잡기 제스처로 인식하는 단계를 포함한다.
상기 손 영역이 추출되는지를 판단하는 단계는, 상기 깊이 이미지에 1차 이진화를 수행하고, 1차 이진화 처리된 깊이 이미지로부터 손 영역을 결정하고, 결정된 손 영역에 2차 이진화를 수행하여 최종적으로 상기 손 영역을 추출하는 것을 포함한다.
상기 손 영역이 추출되는지를 판단하는 단계에 있어서의 상기 1차 이진화는 일반 이진화이고, 상기 2차 이진화는 적응적 이진화이다.
상기 손 영역이 추출되는지를 판단하는 단계는, 1차 이진화 처리된 깊이 이미지에 레이블링 알고리즘을 적용하여 검출되는 손 영역 후보 중 기 설정되는 한계값과 비교하여, 상기 한계값 이상인 손 영역 후보를 상기 손 영역으로 결정하는 것을 포함한다.
상기 손 영역이 추출되는지를 판단하는 단계는, 상기 손 영역 후보의 개수가 2개 이상인 것으로 판단되면, 가장 큰 2개의 손 영역 후보를 상기 손 영역으로 결정하는 것을 포함한다.
상기 손 영역이 추출되는지를 판단하는 단계는, 상기 손 영역 후보의 개수가 2개 미만인 것으로 판단되면, 검출된 손 영역 후보를 상기 손 영역으로 결정하는 것을 포함한다.
상기 손 영역이 추출되는지를 판단하는 단계는, 상기 손 영역 후보 중 상기 한계값 이상인 손 영역 후보가 없는 경우, 상기 깊이 이미지에 손 영역이 없는 것으로 판단하는 것을 포함한다.
상기 인식하는 단계는, 상기 제스처 인식 영역의 개수가 설정값 이상인지를 판단하여, 상기 제스처 인식 영역의 개수가 상기 설정값 이상이면, 상기 손 제스처를 상기 놓기 제스처인 것으로 인식하고, 상기 제스처 인식 영역의 개수가 상기 설정값 미만이면, 상기 손 제스처를 상기 잡기 제스처로 인식하는 것을 포함한다.
종래에는 잡기 제스처 및 놓기 제스처에 대한 인식이 2개의 손가락을 바탕으로 이루어졌기 때문에 오류의 발생이 많았던 반면, 본 발명에서는 손 전체를 인식하여 손 제스처가 잡기 제스처인지 놓기 제스처인지를 판단하기 때문에, 손 제스처 인식률을 높일 수 있다.
또한, 본 발명의 손 제스처 인식 기술을 이용하여 기기를 제어하면, 해당 기기를 보다 정확하게 제어하는 것이 가능하다.
도 1은 본 발명의 실시 예에 따른 손 제스처 인식 시스템의 구성을 도시한 구성도이다.
도 2는 본 발명의 실시 예에 따른 손 제스처 인식 시스템에 의해 인식되는 손 제스처의 일례를 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 손 제스처 인식 방법에 따른 손 제스처 인식 과정을 도시한 순서도이다.
도 4a는 영상 촬영부가 하방에 위치하는 손을 촬영하는 일례를 도시한 도면이다.
도 4b는 영상 촬영부가 전방에 위치하는 손을 촬영하는 일례를 도시한 도면이다.
도 5는 본 발명의 실시 예에 따른 손 제스처 인식부가 제스처 인식 영역을 검출하는 과정의 일례를 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 손 제스처 인식부가 제스처 인식 영역을 검출하는 과정의 다른 예를 도시한 도면이다.
도 7은 본 발명의 실시 예에 따른 손 영역 추출 동작에 따른 순서를 도시한 순서도이다.
도 2는 본 발명의 실시 예에 따른 손 제스처 인식 시스템에 의해 인식되는 손 제스처의 일례를 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 손 제스처 인식 방법에 따른 손 제스처 인식 과정을 도시한 순서도이다.
도 4a는 영상 촬영부가 하방에 위치하는 손을 촬영하는 일례를 도시한 도면이다.
도 4b는 영상 촬영부가 전방에 위치하는 손을 촬영하는 일례를 도시한 도면이다.
도 5는 본 발명의 실시 예에 따른 손 제스처 인식부가 제스처 인식 영역을 검출하는 과정의 일례를 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 손 제스처 인식부가 제스처 인식 영역을 검출하는 과정의 다른 예를 도시한 도면이다.
도 7은 본 발명의 실시 예에 따른 손 영역 추출 동작에 따른 순서를 도시한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하, 본 발명의 실시 예에 따른 손 제스처 인식 시스템 및 방법에 대하여 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 손 제스처 인식 시스템의 구성을 도시한 구성도이고, 도 2는 본 발명의 실시 예에 따른 손 제스처 인식 시스템에 의해 인식되는 손 제스처의 일례를 도시한 도면으로서, 도 2(a)는 잡기 제스처의 일례를 도시하고 있고, 도 2(b)는 놓기 제스처의 일례를 도시하고 있다.
도 1을 참조하면, 본 발명의 실시 예에 따른 손 제스처 인식 시스템(이하 ‘시스템’, 100)은 획득되는 영상으로부터 손 영역을 추출하고, 추출된 손 영역을 바탕으로 손 제스처를 인식하도록 구성되며, 이때 시스템(100)은 깊이 이미지를 기반으로 손 제스처를 인식한다.
이를 위하여, 상기 시스템(100)은 영상 촬영부(110), 손 영역 추출부(130) 및 손 제스처 인식부(150)로 구성될 수 있으나, 상기 시스템(100)의 구성은 일례로서, 상기 언급된 구성 이외의 다른 구성을 더 포함할 수 있다.
상기 영상 촬영부(110)는 할당된 영역 내를 촬영하여 깊이 이미지를 획득할 수 있도록 구현되며, 이때, 영상 촬영부(110)가 촬영하는 영역이 제스처 인식 영역이 된다.
그리고, 상기 시스템(100)을 이용하고자 하는 사용자는 제스처 인식 영역 내에 손이 위치하도록 하되, 손바닥이 영상 촬영부(110)를 향하도록 위치시킨다.
이때, 사용자는 원하는 목적을 위하여 오른손 혹은 외손 중 하나의 손을 위치시킬 수도 있고, 두 손을 모두 위치시킬 수 있다.
상기 손 영역 추출부(130)는 영상 촬영부(110)에 의해 획득되는 깊이 이미지로부터 손 영역을 추출하며, 손 영역 추출부(130)에 의해 추출되는 손 영역은 1개일 수도 있고 2개일 수도 있다.
즉, 사용자가 하나의 손을 제스처 인식 영역에 위치시킨 경우에는 손 영역 추출부(130)가 1개의 손 영역을 추출하게 되고, 사용자가 두 손을 제스처 인식 영역에 위치시킨 경우에는 손 영역 추출부(130)가 2개의 손 영역을 추출하게 된다.
우선, 상기 손 영역 추출부(130)는 영상 촬영부(110)로부터 제공되는 깊이 이미지에 대한 이진화를 하며, 이때, 일반 이진화를 이용하여 할 수 있다.
그리고, 상기 손 영역 추출부(130)는 이진화 처리된 깊이 이미지로부터 손 영역을 결정하는데, 이때, 레이블링 알고리즘을 통해 검출되는 영역(검출 영역)을 기 설정되는 한계값과 비교하여, 한계값 이상이면 손 영역으로 결정한다.
이때, 레이블링 알고리즘을 통해 검출되는 영역은 하나도 존재하지 않을 수도 있고, 다수 존재할 수도 있다.
만약, 레이블링 알고리즘을 통해 검출되는 영역 중 한계값 이상인 영역이 존재하지 않는 경우는, 손 영역 추출부(130)는 영상 촬영부(110)에 의해 획득된 깊이 이미지에 손 영역이 존재하지 않는 것으로 판단한다.
그리고, 상기 손 영역 추출부(130)는 한계값 이상의 검출 영역이 2개 이상 존재하는 경우, 검출 영역 중 가장 큰 2개의 영역을 손 영역으로 결정한다.
한편, 상기 손 영역 추출부(130)는 손 영역이 결정되면, 결정된 손 영역에 적응적 이진화 처리를 수행하여 팔목 부분을 제거하여, 최종적으로 손 영역을 추출한다.
상기 손 제스처 인식부(150)는 손 영역 추출부(130)로부터 제공되는 손 영역을 분석하여 손 제스처를 인식하되, 놓기 제스처인지 잡기 제스처인지를 인식한다.
이때, 상기 손 제스처 인식부(150)는 손 영역을 분석한 결과, 도 2의 (a)와 같은 형태이면 잡기 제스처로 인식하고, 도 2의 (b)와 같은 형태이면 놓기 제스처로 인식한다.
구체적으로, 상기 손 제스처 인식부(150)는 손 영역 추출부(130)로부터 제공되는 손 영역에 적응적 이진화 처리를 수행하여 덩어리를 검출하는데, 본 발명에 있어서의 덩어리는 제스처 인식을 위한 영역이므로 제스처 인식 영역으로 정의될 수 있다.
이후, 상기 손 제스처 인식부(150)는 제스처 인식 영역을 검출한 후, 제스처 인식 영역이 3개 이상이면 놓기 제스처로 인식하고, 제스처 인식 영역이 2개 이하이면 잡기 제스처로 인식한다.
이상에서는 본 발명의 실시 예에 따른 손 제스처 인식 시스템의 구성 및 기능에 대해서 살펴보았다. 이하에서는 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 손 제스처 인식 시스템을 이용한 손 제스처 인식 방법에 대해서 구체적으로 살펴보기로 한다.
도 3은 본 발명의 실시 예에 따른 손 제스처 인식 방법에 따른 손 제스처 인식 과정을 도시한 순서도이다.
도 3을 참조하면, 먼저 영상 촬영부(110)가 제스처 인식 영역을 촬영하여 깊이 이미지를 획득하고(S300), 영상 촬영부(110)에 의해 획득된 깊이 이미지는 손 영역 추출부(130)로 제공된다.
도 4에는 영상 촬영부(110)가 제스처 인식 영역 내의 손을 촬영하는 일례가 도시되어 있으며, 도 4a에는 영상 촬영부(110a)가 하방에 위치하는 손을 촬영하는 일례가 도시되어 있고, 도 4b에는 영상 촬영부(110b)가 전방에 위치하는 손을 촬영하는 일례가 도시되어 있다.
이때, 상기 시스템(100)을 이용하고자 하는 사용자는 제스처 인식 영역 내(A, B)에 손이 위치하도록 하되, 손바닥이 위로 향하도록 위치시킨다. 이때, 사용자는 원하는 목적을 위하여 오른손 혹은 외손 중 하나의 손을 위치시킬 수도 있고, 두 손을 모두 위치시킬 수 있다.
이후, 손 영역 추출부(130)는 획득된 깊이 이미지를 분석하여, 손 영역이 추출되는지를 판단한다(S310). 이때, 상기 단계 S310에서의 손 영역 추출과 관련된 구체적인 과정은 후술하도록 한다.
상기 단계 S310에서의 판단 결과, 손 영역이 추출되지 않은 것으로 판단되면(S310-No), 손 제스처 인식 동작은 종료된다.
반면, 상기 단계 S310에서의 판단 결과, 손 영역이 추출되는 것으로 판단되면(S310-Yes), 손 제스처 인식부(150)는 추출된 손 영역에 적응적 이진화를 수행하여 제스처 인식 영역을 검출한다(S320).
상기 단계 S320 이후, 손 제스처 인식부(150)는 검출된 제스처 인식 영역의 개수를 바탕으로, 단계 S300에서 촬영된 깊이 이미지에 포함되어 있는 손 제스처가 놓기 제스처인지 잡기 제스처인지를 인식한다(S330).
이때, 손 제스처 인식부(150)는, 검출된 제스처 인식 영역의 개수와 기 설정되는 설정값의 비교를 통해, 제스처 인식 영역의 개수가 설정값 이상인지를 판단하여(S331), 제스처 인식 영역의 개수가 설정값 이상이면(S331-Yes), 손 제스처를 놓기 제스처인 것으로 인식하고(S332), 제스처 인식 영역의 개수가 설정값 미만이면(S331-No), 손 제스처를 잡기 제스처로 인식한다(S333).
예를 들어, 상기 설정값이 3인 경우, 손 제스처 인식부(150)는 제스처 인식 영역의 개수가 3 이상이면 손 제스처를 놓기 제스처인 것으로 인식하고, 제스처 인식 영역의 개수가 2 이하이면 손 제스처를 잡기 제스처로 인식한다.
도 5에는 본 발명의 실시 예에 따른 손 제스처 인식부가 제스처 인식 영역을 검출하는 과정의 일례가 도시되어 있고, 도 6에는 본 발명의 실시 예에 따른 손 제스처 인식부가 제스처 인식 영역을 검출하는 과정의 다른 예가 도시되어 있다.
도 5에서와 같이, 도 5(a)에 도시된 깊이 이미지에 대해, 도 5(b)와 같이 적응적 이진화 처리가 수행되어, 도 5(c)와 같은 제스처 인식 영역이 검출된 경우, 손 제스처 인식부(150)는 깊이 이미지에 포함된 손 제스처를 놓기 제스처로 인식한다.
반면, 도 6에서와 같이, 도 6(a)에 도시된 깊이 이미지에 대해, 도 6(b)와 같이 적응적 이진화 처리가 수행되어, 도 6(c)와 같은 제스처 인식 영역이 검출된 경우, 손 제스처 인식부(150)는 깊이 이미지에 포함된 손 제스처를 잡기 제스처로 인식한다.
이상에서는 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 손 제스처 인식 시스템을 이용한 손 제스처 인식 방법에 대한 전체적인 동작에 대해서 구체적으로 살펴보았다. 이하에서는 손 제스처 인식 방법 중 손 영역을 추출하는 과정(S310)에 대해서 구체적으로 살펴보기로 한다.
도 7은 본 발명의 실시 예에 따른 손 영역 추출 동작에 따른 순서를 도시한 순서도이다.
도 7을 참조하면, 단계 S300에 따라 획득된 깊이 이미지에 대해 손 영역 추출부(130)는 이진화를 수행하며(S311), 단계 S311에서 수행되는 이진화는 일반 이진화일 수 있다.
상기 단계 S311 이후, 손 영역 추출부(130)는 이진화 처리된 깊이 이미지로부터 손 영역을 결정한다(S312).
구체적으로, 손 영역 추출부(130)는 이진화 처리된 깊이 이미지에 레이블링 알고리즘을 적용하여 손 영역 후보를 검출한다(S312a). 이때 손 영역 후보는 레이블링 알고리즘을 적용하여 검출되는 영역 중 기 설정되는 한계값과 비교하여, 한계값 이상인 영역이다.
상기 단계 S312a 이후, 손 영역 추출부(130)는 손 영역 후보의 개수가 0개를 초과하는지를 판단하고(S312b), 0개를 초과하지 않는 경우(S312b-No), 즉 하나의 손 영역 후보도 검출되지 않은 경우는, 깊이 이미지에 손 영역이 존재하지 않는 경우로서, 손 제스처 인식 과정이 종료된다.
반면, 상기 단계 S312b에서의 판단 결과, 손 영역 후보의 개수가 0개를 초과하는 경우(S312b-Yes), 손 영역 후보의 개수가 2개 이상인지를 판단한다(S312c).
상기 단계 S312c에서의 판단 결과, 손 영역 후보의 개수가 2개 이상인 것으로 판단되면(S312c-Yes), 손 영역 추출부(130)는 가장 큰 2개의 손 영역 후보를 손 영역으로 결정한다(S312d).
한편, 상기 단계 S312c에서의 판단 결과, 손 영역 후보의 개수가 2개 미만인 것으로 판단되면(S312c-No), 손 영역 추출부(130)는 손 영역 후보를 손 영역으로 결정한다(S312e).
이와 같은 과정에 따라 손 영역이 결정되면, 손 영역 추출부(130)는 결정된 손 영역에 이진화를 수행하여 팔목 부분을 제거하여 최종적으로 손 영역을 추출하며(S313), 단계 S313에서 수행되는 이진화는 적응적 이진화일 수 있다.
한편, 본 발명에 따른 손 제스처 인식 시스템 및 방법을 실시 예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.
따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 손 제스처 인식 시스템
110 : 영상 촬영부
130 : 손 영역 추출부
150 : 손 제스처 인식부
110 : 영상 촬영부
130 : 손 영역 추출부
150 : 손 제스처 인식부
Claims (8)
- 할당된 영역을 촬영하여 깊이 이미지를 획득하는 영상 촬영부;
상기 깊이 이미지로부터 손 영역을 추출하는 손 영역 추출부; 및
추출된 손 영역을 분석하여, 상기 깊이 이미지에 포함되어 있는 손 제스처를 놓기 제스처 혹은 잡기 제스처로 인식하는 손 제스처 인식부를 포함하고,
상기 손 제스처 인식부는, 추출된 손 영역에 적응적 이진화를 수행하여 제스처 인식 영역을 검출하고, 검출된 제스처 인식 영역의 개수가 설정값 이상이면 상기 손 제스처를 상기 놓기 제스처로 인식하고, 검출된 제스처 인식 영역의 개수가 상기 설정값 미만이면 상기 손 제스처를 상기 잡기 제스처로 인식하도록 구성되는 것인
손 제스처 인식 시스템. - 제 1 항에 있어서,
상기 손 영역 추출부는, 상기 깊이 이미지에 1차 이진화를 수행하고, 1차 이진화 처리된 깊이 이미지로부터 손 영역을 결정하고, 결정된 손 영역에 2차 이진화를 수행하여 최종적으로 상기 손 영역을 추출하도록 구성되는 것
인 손 제스처 인식 시스템. - 제 2 항에 있어서,
상기 손 영역 추출부는, 1차 이진화 처리된 깊이 이미지에 레이블링 알고리즘을 적용하여 검출되는 손 영역 후보 중 기 설정되는 한계값과 비교하여, 상기 한계값 이상인 손 영역 후보를 상기 손 영역으로 결정하도록 구성되는 것
인 손 제스처 인식 시스템. - 삭제
- 제스처 인식 영역을 촬영하여 깊이 이미지를 획득하는 단계;
상기 깊이 이미지를 분석하여, 손 영역이 추출되는지를 판단하는 단계;
상기 손 영역이 추출되면, 추출된 손 영역에 적응적 이진화를 수행하여 제스처 인식 영역을 검출하는 단계; 및
검출된 제스처 인식 영역의 개수를 바탕으로, 상기 깊이 이미지에 포함되어 있는 손 제스처를 놓기 제스처 혹은 잡기 제스처로 인식하는 단계를 포함하고,
상기 인식하는 단계는, 상기 제스처 인식 영역의 개수가 설정값 이상인지를 판단하여, 상기 제스처 인식 영역의 개수가 상기 설정값 이상이면, 상기 손 제스처를 상기 놓기 제스처인 것으로 인식하고, 상기 제스처 인식 영역의 개수가 상기 설정값 미만이면, 상기 손 제스처를 상기 잡기 제스처로 인식하는 것을 포함하는
손 제스처 인식 방법. - 제 5 항에 있어서,
상기 손 영역이 추출되는지를 판단하는 단계는, 상기 깊이 이미지에 1차 이진화를 수행하고, 1차 이진화 처리된 깊이 이미지로부터 손 영역을 결정하고, 결정된 손 영역에 2차 이진화를 수행하여 최종적으로 상기 손 영역을 추출하는 것을 포함하는
손 제스처 인식 방법. - 제 6 항에 있어서,
상기 손 영역이 추출되는지를 판단하는 단계는, 1차 이진화 처리된 깊이 이미지에 레이블링 알고리즘을 적용하여 검출되는 손 영역 후보 중 기 설정되는 한계값과 비교하여, 상기 한계값 이상인 손 영역 후보를 상기 손 영역으로 결정하는 것을 포함하는
손 제스처 인식 방법. - 삭제
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160037571A KR101745651B1 (ko) | 2016-03-29 | 2016-03-29 | 손 제스처 인식 시스템 및 방법 |
US15/273,386 US10013070B2 (en) | 2016-03-29 | 2016-09-22 | System and method for recognizing hand gesture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160037571A KR101745651B1 (ko) | 2016-03-29 | 2016-03-29 | 손 제스처 인식 시스템 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101745651B1 true KR101745651B1 (ko) | 2017-06-09 |
Family
ID=59220007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160037571A KR101745651B1 (ko) | 2016-03-29 | 2016-03-29 | 손 제스처 인식 시스템 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10013070B2 (ko) |
KR (1) | KR101745651B1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704072A (zh) * | 2017-06-10 | 2018-02-16 | 济南大学 | 一种手势交互过程中用户手势的自动纠错方法 |
KR20180059110A (ko) * | 2016-11-25 | 2018-06-04 | 한국전자통신연구원 | 제스처 인식 기반 무인기 제어 장치 및 방법 |
KR20190096210A (ko) * | 2018-02-08 | 2019-08-19 | 경상대학교산학협력단 | 스마트 이러닝 시스템의 사용자 핸드 제스처 감응 방법 |
KR102321359B1 (ko) * | 2020-06-02 | 2021-11-02 | 국민대학교산학협력단 | 손 모양 및 조도 센서에 기초하여 가상현실 콘텐츠를 제어하는 휴대용 단말 및 이를 포함하는 vr 뷰어 시스템 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI710973B (zh) * | 2018-08-10 | 2020-11-21 | 緯創資通股份有限公司 | 手勢識別方法、手勢識別模組及手勢識別系統 |
US11900616B2 (en) * | 2019-01-08 | 2024-02-13 | Hangzhou Taro Positioning Technology Co., Ltd. | Determining region-of-interest of an object using image-based object tracking |
US11182909B2 (en) | 2019-12-10 | 2021-11-23 | Google Llc | Scalable real-time hand tracking |
CN111142664B (zh) * | 2019-12-27 | 2023-09-01 | 恒信东方文化股份有限公司 | 一种多人实时手部追踪系统及追踪方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100667156B1 (ko) * | 2004-12-10 | 2007-01-12 | 한국전자통신연구원 | 휴대형 카메라로 획득한 문자영상의 문자영역선택을 통한문자인식 장치 및 그 방법 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6002808A (en) * | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
EP1717684A3 (en) * | 1998-01-26 | 2008-01-23 | Fingerworks, Inc. | Method and apparatus for integrating manual input |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
JP5174684B2 (ja) * | 2006-03-14 | 2013-04-03 | プライムセンス リミテッド | スペックル・パターンを用いた三次元検出 |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US9317124B2 (en) * | 2006-09-28 | 2016-04-19 | Nokia Technologies Oy | Command input by hand gestures captured from camera |
US9213890B2 (en) * | 2010-09-17 | 2015-12-15 | Sony Corporation | Gesture recognition system for TV control |
US20120274589A1 (en) * | 2011-04-28 | 2012-11-01 | De Angelo Michael J | Apparatus, system, and method for remote interaction with a computer display or computer visualization or object |
KR20130055119A (ko) * | 2011-11-18 | 2013-05-28 | 전자부품연구원 | 싱글 적외선 카메라 방식의 투영 영상 터치 장치 |
JP5593339B2 (ja) * | 2012-02-07 | 2014-09-24 | 日本システムウエア株式会社 | 自動車のステアリングハンドルを用いるジェスチャー認識装置と手の認識方法及びそのプログラム |
US20150220149A1 (en) * | 2012-02-14 | 2015-08-06 | Google Inc. | Systems and methods for a virtual grasping user interface |
US9524028B2 (en) * | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
US9274607B2 (en) * | 2013-03-15 | 2016-03-01 | Bruno Delean | Authenticating a user using hand gesture |
KR101436050B1 (ko) * | 2013-06-07 | 2014-09-02 | 한국과학기술연구원 | 손모양 깊이영상 데이터베이스 구축방법, 손모양 인식방법 및 손모양 인식 장치 |
KR101374720B1 (ko) * | 2013-07-15 | 2014-03-17 | 전자부품연구원 | 손동작 기반 가상 마우스 제어장치 및 그 방법 |
KR101472455B1 (ko) * | 2013-07-18 | 2014-12-16 | 전자부품연구원 | 손동작 기반 사용자 인터페이스장치 및 그 방법 |
JP6221505B2 (ja) * | 2013-08-22 | 2017-11-01 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US20150138078A1 (en) * | 2013-11-18 | 2015-05-21 | Eyal Krupka | Hand pose recognition using boosted look up tables |
US20150139487A1 (en) * | 2013-11-21 | 2015-05-21 | Lsi Corporation | Image processor with static pose recognition module utilizing segmented region of interest |
US9436872B2 (en) * | 2014-02-24 | 2016-09-06 | Hong Kong Applied Science and Technology Research Institute Company Limited | System and method for detecting and tracking multiple parts of an object |
RU2014108870A (ru) * | 2014-03-06 | 2015-09-20 | ЭлЭсАй Корпорейшн | Процессор изображений, содержащий систему распознавания жестов с распознаванием неподвижной позы кисти на основе первого и второго наборов признаков |
RU2014108820A (ru) * | 2014-03-06 | 2015-09-20 | ЭлЭсАй Корпорейшн | Процессор изображений, содержащий систему распознавания жестов с функциональными возможностями обнаружения и отслеживания пальцев |
RU2014111793A (ru) * | 2014-03-27 | 2015-10-10 | ЭлЭсАй Корпорейшн | Процессор обработки изображений с распознаванием статических поз руки с использованием триангуляции и сглаживания контуров |
US9785824B2 (en) * | 2014-04-15 | 2017-10-10 | Infineon Technologies Ag | Apparatus and a method for detecting a motion of an object in a target space |
US20160026857A1 (en) * | 2014-07-23 | 2016-01-28 | Lsi Corporation | Image processor comprising gesture recognition system with static hand pose recognition based on dynamic warping |
KR20160025823A (ko) | 2014-08-28 | 2016-03-09 | 전자부품연구원 | 깊이영상 기반 손영역 검출 시스템 및 방법 |
WO2016042039A1 (en) * | 2014-09-16 | 2016-03-24 | Foundation For Research And Technology - Hellas (Forth) | Gesture recognition apparatuses, methods and systems for human-machine interaction |
JP2016091457A (ja) * | 2014-11-10 | 2016-05-23 | 富士通株式会社 | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム |
US9696795B2 (en) * | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10168785B2 (en) * | 2015-03-03 | 2019-01-01 | Nvidia Corporation | Multi-sensor based user interface |
US10254845B2 (en) * | 2016-01-05 | 2019-04-09 | Intel Corporation | Hand gesture recognition for cursor control |
-
2016
- 2016-03-29 KR KR1020160037571A patent/KR101745651B1/ko active IP Right Grant
- 2016-09-22 US US15/273,386 patent/US10013070B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100667156B1 (ko) * | 2004-12-10 | 2007-01-12 | 한국전자통신연구원 | 휴대형 카메라로 획득한 문자영상의 문자영역선택을 통한문자인식 장치 및 그 방법 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180059110A (ko) * | 2016-11-25 | 2018-06-04 | 한국전자통신연구원 | 제스처 인식 기반 무인기 제어 장치 및 방법 |
KR101973174B1 (ko) | 2016-11-25 | 2019-04-26 | 한국전자통신연구원 | 제스처 인식 기반 무인기 제어 장치 및 방법 |
CN107704072A (zh) * | 2017-06-10 | 2018-02-16 | 济南大学 | 一种手势交互过程中用户手势的自动纠错方法 |
KR20190096210A (ko) * | 2018-02-08 | 2019-08-19 | 경상대학교산학협력단 | 스마트 이러닝 시스템의 사용자 핸드 제스처 감응 방법 |
KR102045860B1 (ko) * | 2018-02-08 | 2019-11-18 | 경상대학교산학협력단 | 스마트 이러닝 시스템의 사용자 핸드 제스처 감응 방법 |
KR102321359B1 (ko) * | 2020-06-02 | 2021-11-02 | 국민대학교산학협력단 | 손 모양 및 조도 센서에 기초하여 가상현실 콘텐츠를 제어하는 휴대용 단말 및 이를 포함하는 vr 뷰어 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US20170285759A1 (en) | 2017-10-05 |
US10013070B2 (en) | 2018-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101745651B1 (ko) | 손 제스처 인식 시스템 및 방법 | |
US8934673B2 (en) | Image processing method and apparatus for detecting target | |
Nguyen et al. | Robust biometric recognition from palm depth images for gloved hands | |
US11294470B2 (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
KR101581954B1 (ko) | 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법 | |
JP6360050B2 (ja) | 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム | |
KR101364571B1 (ko) | 영상 기반의 손 검출 장치 및 그 방법 | |
US20150077329A1 (en) | Eye tracking-based user interface method and apparatus | |
US8897490B2 (en) | Vision-based user interface and related method | |
KR101551576B1 (ko) | 로봇 청소기, 제스쳐 인식 장치 및 방법 | |
WO2012081012A1 (en) | Computer vision based hand identification | |
US9218060B2 (en) | Virtual mouse driving apparatus and virtual mouse simulation method | |
US20150227789A1 (en) | Information processing apparatus, information processing method, and program | |
CN107273869B (zh) | 手势识别控制方法和电子设备 | |
KR101559502B1 (ko) | 실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체 | |
JP5174492B2 (ja) | 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム | |
KR101404018B1 (ko) | 손동작 인식 장치 및 그 방법 | |
Zhang et al. | ReflecTouch: Detecting grasp posture of smartphone using corneal reflection images | |
KR101281461B1 (ko) | 영상분석을 이용한 멀티 터치 입력 방법 및 시스템 | |
CN113282164A (zh) | 一种处理方法和装置 | |
Czupryna et al. | Real-time vision pointer interface | |
KR101868520B1 (ko) | 손 제스처 인식 방법 및 그 장치 | |
US20150103205A1 (en) | Method of controlling digital apparatus and image capture method by recognition of hand shape, and apparatus therefor | |
CN109814712B (zh) | 一种基于虚拟交互装置的手势识别系统 | |
Vo et al. | Automatic hand gesture segmentation for recognition of Vietnamese sign language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |