KR101169583B1 - 가상마우스 구동방법 - Google Patents

가상마우스 구동방법 Download PDF

Info

Publication number
KR101169583B1
KR101169583B1 KR20100109198A KR20100109198A KR101169583B1 KR 101169583 B1 KR101169583 B1 KR 101169583B1 KR 20100109198 A KR20100109198 A KR 20100109198A KR 20100109198 A KR20100109198 A KR 20100109198A KR 101169583 B1 KR101169583 B1 KR 101169583B1
Authority
KR
South Korea
Prior art keywords
virtual mouse
driving
image
index finger
images
Prior art date
Application number
KR20100109198A
Other languages
English (en)
Other versions
KR20120047556A (ko
Inventor
이길재
Original Assignee
주식회사 매크론
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 매크론 filed Critical 주식회사 매크론
Priority to KR20100109198A priority Critical patent/KR101169583B1/ko
Priority to US13/883,441 priority patent/US20130229348A1/en
Priority to PCT/KR2011/008210 priority patent/WO2012060598A2/ko
Priority to CN2011800534963A priority patent/CN103201706A/zh
Publication of KR20120047556A publication Critical patent/KR20120047556A/ko
Application granted granted Critical
Publication of KR101169583B1 publication Critical patent/KR101169583B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 사람의 피부색에 관계없고 어느 정도의 외란이 있는 일반 환경에서도 구현 가능한 새로운 방식의 가상마우스 구동방법에 관한 것이다. 본 발명에 따른 가상마우스 구동방법은 손의 모양 변화에 기초하여 제어되는 가상마우스를 구동하는 방법에 있어서, 카메라에서 서로 다른 시점에 촬영된 복수의 영상을 입력받는 단계와, 복수의 영상 간의 차 영상을 추출하는 단계와, 추출된 차 영상에 기초하여 가상마우스를 구동하는 단계를 포함한다.

Description

가상마우스 구동방법{Virture mouse driving method}
본 발명은 가상마우스 구동방법에 관한 것으로, 보다 구체적으로는 화상 카메라로부터 획득한 손의 영상 정보를 이용하여 가상 마우스를 구동하는 방법에 관한 발명이다.
디스플레이 디바이스들이 스마트 시스템으로 진화함에 따라 디스플레이 디바이스와의 상호 작용이 중요시되고 있다. 스마트 디스플레이 디바이스들은 컴퓨터와 유사하게 디스플레이 디바이스 화면상의 위치에 따른 명령 입력이 가능해야 한다. 이와 같은 명령 입력이 가능한 수단으로 가장 일반화되어 있는 입력 디바이스는 마우스이다. 또한 최근 각광받고 있는 스마트폰의 경우에는 터치 스크린을 이용하여 화면상의 위치에 따른 명령입력을 할 수 있다.
위치 기반 명령을 내리기 위한 기존의 터치 스크린을 이용한 입력 방식은 디스플레이 디바이스와의 접촉을 통해 명령을 전송하므로 여러 제한이 발생한다. 즉 디스플레이 디바이스가 손으로 접촉 가능한 거리 내에 있을 때만 사용이 가능하다. 또한 마우스의 경우 물리적인 크기와 형태를 지니고 있어 스마트한 입력도구는 아니다.
최근에는 비접촉 방식으로 가상 마우스와 같이 디스플레이 디바이스에 명령을 전달할 수 있는 입력 디바이스들이 출현하고 있다. 특히 게임분야에서 3차원 카메라를 이용하여 동작 인식을 통해 명령을 전달할 수 있는 방법이 개발되고 있다. 3차원 카메라를 이용하는 방법은, 입력 영상에서 제스처를 수행하는 오브젝트 영상과 배경 영상을 분리하기 용이한 장점을 가지고 있으나, 입력디바이스가 복잡하고 고가인 단점이 있다. 또한 해상도가 낮아 큰 동작을 이용하여 명령을 입력해야 하므로 사용자가 사용하는데 있어 큰 불편을 야기한다.
한편, 가상마우스와 관련된 선행 기술로서는 한국공개특허 제2007-0030398호, 한국등록특허 제0687737호, 한국공개특허 제2008-0050218호 등이 있다. 상기 특허들의 경우 카메라로 입력되는 영상으로부터 한손 또는 양손의 제스쳐를 인식하여 가상 마우스의 역할을 구현할 수 있는 방법들을 제안하고 있다. 이때, 인식방법에 있어 기본적으로 손가락의 정지된 모양을 이용하여 특정 명령을 인식하기 때문에, 손가락의 정지된 모양을 인식하기 위해서는 손가락들과 배경영상을 분리하는 과정이 필요하며, 이를 위해서는 손의 컬러 정보를 이용하여 손의 영역을 배경 영상으로부터 분리해 내야 하는 과정이 필수적이다. 이 경우 손의 컬러의 절대값을 이용하여야 하는데 사람마다 손 색깔이 틀리므로 정교한 모델 등록 과정과 인식 작업이 이루어져야 하고, 배경과 손 색깔이 비슷할 경우나 배경의 밝기가 일정하지 않은 경우에는 손을 분리해내기가 힘들어 지는 문제점이 있어 잘 정리된 실험실 환경이 아닌 외란이 있는 일반 환경에서는 구현하기 힘든 문제점이 있다.
따라서, 사람의 피부색에 관계없고 어느 정도의 외란이 있는 일반 환경에서도 구현 가능한 새로운 방식의 가상마우스 구동방법의 개발이 요구된다.
본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 사람의 피부색에 관계없고 어느 정도의 외란이 있는 일반 환경에서도 구현 가능한 새로운 방식의 가상마우스 구동방법을 제공하는 것이다.
상기 목적을 달성하기 위하여, 본 발명에 따른 가상마우스 구동방법은 손의 모양 변화에 기초하여 제어되는 가상마우스를 구동하는 방법에 있어서, 화상 카메라에서 서로 다른 시점에 촬영된 복수의 영상을 입력받는 단계와, 상기 복수의 영상 간의 차 영상을 추출하는 단계와, 상기 추출된 차 영상에 기초하여 상기 가상마우스를 구동하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 상기 차 영상으로부터 사용자의 엄지손가락과 검지손가락이 붙고 떨어지는 움직임 정보를 추출하고, 상기 움직임 정보를 상기 가상마우스의 클릭 신호로 이용하는 것이 바람직하다.
또한, 본 발명에 따르면 상기 복수의 영상들로부터 차 영상을 연속적으로 추출하고, 상기 연속된 차 영상에서 상기 엄지손가락 또는 상기 검지손가락의 위치가 변해가는 것을 분석함으로써 상기 움직임 정보를 추출하는 것이 바람직하다.
또한, 본 발명에 따르면 상기 엄지손가락과 상기 검지손가락이 붙고 떨어지는 횟수를 인식하여 특정 명령신호로 사용하는 것이 바람직하다.
상기한 구성의 본 발명에 따르면, 사람의 피부색에 관계없고 어느 정도의 외란이 있는 일반 환경에서도 정확하게 구동되는 가상마우스 시스템을 구현할 수 있다.
도 1은 본 발명의 일 실시예에 따른 가상마우스 구동방법을 구현하기 위한 장치의 개략적인 구성도이다.
도 2는 도 1에 도시된 손동작 인식부에서의 처리과정을 설명하기 위한 개략적인 흐름도이다.
도 3은 차 영상을 설명하기 위한 도면이다.
도 4 및 도 5는 연속된 영상 및 이에 따른 차 영상을 나타내는 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 가상마우스 구동방법에 관하여 설명한다.
도 1은 본 발명의 일 실시예에 따른 가상마우스 구동방법을 구현하기 위한 장치의 개략적인 구성도이며, 도 2는 도 1에 도시된 손동작 인식부에서의 처리과정을 설명하기 위한 개략적인 흐름도이다. 그리고, 도 3은 차 영상을 설명하기 위한 도면이며, 도 4 및 도 5는 연속된 영상 및 이에 따른 차 영상을 나타내는 도면이다.
도 1 내지 도 5를 참조하면, 먼저 본 실시예에 따른 가상마우스 구동방법은 가상마우스 시스템에서 구현되는데, 가상마우스 시스템(100)는 카메라(10)와, 영상입력부(20)와, 손동작 인식부(30)와, 명령전달부(40)로 구성된다.
카메라(10)는 렌즈로부터 입력되는 영상을 CCD 또는 CMOS와 같은 촬상 소자를 통해 촬영하여 출력하는 것으로, 예를 들어 디지털 카메라로 구현될 수 있으며, 사용자의 손의 영상을 촬영하여 영상입력부로 전송한다.
영상입력부(20)에서는 카메라에서 촬영된 영상을 실시간으로 입력받는다.
손동작 인식부(30)에서는 영상입력부에 입력된 영상으로부터 차 영상을 추출한다. 차 영상이란, 2차원 영상에서 오브젝트를 분리하기 위한 영상처리 방법 중 하나로, 두 개의 영상을 서로 비교하여 변화가 있는 부분의 영상만을 표시한 영상이다. 즉, 도 3의 (a) 및 (b)의 영상을 비교하면 검지손가락의 위치에만 변화가 있으며, 따라서 도 3의 (a)와 (b)의 차 영상은 도 3의 (c)와 같이 표현된다. 그리고, 이렇게 획득된 차 영상으로부터 사용자의 엄지손가락과 검지손가락이 붙고 떨어지는 움직임 정보를 추출하고, 이 움직임 정보는 명령전달부로 전송된다.
이때, 도 3에서와 같이 두 개 영상으로부터 얻어진 하나의 차 영상만을 이용하는 경우에는, 엄지손가락과 검지손가락이 떨어져 있다가 붙은 것인지, 반대로 붙어 있다가 떨어진 것인지를 파악하기 어렵다. 따라서, 복수의 영상 예를 들어 도 4의 (a)에 도시된 바와 같이 5개의 시점에 촬영된 영상으로부터, 도 4의 (b)와 같이 연속된 4개의 차 영상을 확보하고, 이 차 영상에서 검지손가락의 위치가 변화하는 비교하면, 엄지손가락과 검지손가락이 붙는 것인지 떨어지는 것인지를 확인할 수 있다. 도 4의 (b)를 보면 검지손가락이 아래쪽(엄지손가락쪽)으로 위치가 변화하는 것이 확인되므로, 이 경우에는 엄지손가락과 검지손가락이 떨어진 상태에서 붙는 것이다. 반대로, 도 5의 (b)를 보면 검지손가락이 위쪽으로 위치가 변화하므로, 엄지손가락과 검지손가락이 붙은 상태에서 떨어지는 것이 된다.
이와 같이 연속된 복수의 차 영상을 이용하면 엄지손가락과 검지손가락의 움직임 정보를 더 정확하게 획득할 수 있다. 또한, 다수의 차 영상을 통해 손가락 움직임의 방향성을 확인하기 때문에, 일부 외부의 외란이 있더라도 이를 배제할 수 있고, 정확한 움직임 정보를 획득할 수 있다(외란의 경우 손가락과 같은 방향성이 없기 때문에 배제가능. 또한, 차 영상의 크기와 각도 및 모양 등의 형태 분석을 통해 외란 배제 가능).
한편, 손 동작에 따라서 여러가지 다양한 형태의 차 영상을 확보할 수 있으나, 본 실시예에서는 엄지손가락과 검지손가락이 붙었다 떨어지는 것을 사용하는데, 그 이유는 다음과 같다. 먼저, 엄지와 검지를 붙이는 동작은 일반적인 상태에서 극히 발생하기 힘든 동작이기 때문에 일반적인 타 동작들과 용이하게 구분 가능하며 인식 오류의 가능성이 낮다. 그리고, 확실한 차 영상을 발생시키기 때문에 영상처리하기에도 적당하다. 또한, 동작이 간단하므로 오랫동안 사용자가 반복 동작을 연속적으로 수행해도 힘들거나 피곤하지 않은 장점이 있기 때문이다.
또한, 손동작 인식부(30)에서는 마우스의 이동동작을 구현하기 위해 손의 전체 또는 일부 영상을 계속 추적한다. 이는 영상 추적에 쓰이는 일반적인 방법으로 추적대상 영상(tracking 영역)을 손의 전체 또는 일부 영상으로 설정한 다음, 이동할 수 있는 공간을 설정하고 공간내에서 가장 유사도가 높은 위치를 찾으면 손이 이동한 위치를 계산하며, 이를 연속적으로 행하면 가상마우스의 이동동작을 구현하는 이동신호가 된다. 이와 같은 가상마우스의 이동방식은 이미 잘 알려진 방식이므로, 더 이상의 설명은 생략한다.
명령전달부(40)에서는 손동작 인식부에서 출력된 정보, 즉 손의 움직임(마우스 위치이동) 및 손가락의 움직임 정보(마우스 클릭)에 따라 그에 대응되는 구동신호를 출력하고, 이에 따라 가상마우스가 구동된다. 예를 들어, 손가락이 한번 붙었다 떨어지면 마우스를 클릭하는 클릭신호를 출력한다.
그리고, 손가락이 두 번 붙었다 떨어지면 입력 디바이스의 초기시작시점을 알리는 신호로 사용할 수 있다. 즉, 동작인식을 이용한 입력 디바이스를 구현하는 데 있어 초기 시작 시점을 정의하는데 어려움이 있다. 초기 시작 시점을 알기 위한 기존 방법으로는 미리 화면에 영역표시를 하고, 그 영역 표시 내에 손을 일치시킬 때 초기시작시점으로 인식한다. 하지만, 이와 같은 방식는 사용자가 화면의 영역 내에 손을 위치시키는 정교한 동작이 필요하며, 따라서 시스템을 시작시키기 위한 시간이 많이 필요하다. 그러나, 본 실시예와 같이 엄지손가락과 검지손가락이 붙고 떨어지는 동작을 두 번 수행할 때를 기준으로 하면, 초기시작시점을 빠르게 인식할 수 있다.
또한, 마우스를 클릭한 채 이동하는 드래그 동작과 클릭하지 않고 이동하는 동작을 구분하기 위해, 엄지손가락과 검지손가락이 붙은 채로 이동하는지 떨어진 채로 이동하는지를 인식하고, 이에 따른 구동신호를 출력할 수 있다. 즉, 가상마우스의 버튼을 클릭하고 이동하는 상태를 손가락을 붙이고 이동하는 동작으로 인식하고, 가상마우스의 버튼을 클릭하지 않고 이동하는 상태를 손가락을 떼고 이동하는 동작으로 인식하면 드래그 동작을 수행할 수 있다.
또한, 디스플레이 디바이스를 효과적으로 제어하기 위해서는 마우스의 기본동작 이외의 동작이 필요할 수 있다. 예를 들면 볼륨 조정이라든가 기본 메뉴 화면으로의 복귀 등이 필요할 수 있다. 이 경우 클릭동작(손가락이 붙었다 떨어지는 동작)의 횟수를 인식하여 다양한 명령을 정의할 수 있다. 예를 들면, 클릭을 세번 수행할 경우 기본 메뉴 화면으로 복귀하도록 할 수 있다.
상술한 바와 같이, 본 실시예에 따른 가상마우스 구동방법에서는 기본적으로 차 영상을 이용하여 손의 움직임 정보를 추출한다. 따라서, 피부색에 영향을 받지 않아 이용자에 대한 모델 등록이 필요하지 않고 인종에 따른 인식 오류 문제도 존재하지 않는다. 또한, 주변 환경의 색이나 조명 밝기에도 영향을 받지 않으며, 어느 정도의 외란이 있는 일반 환경에서도 가상마우스 시스템을 효율적으로 구현할 수 있다.
또한, 엄지손가락과 검지손가락의 움직임을 이용하므로, 사용자가 반복 동작을 연속적으로 수행해도 힘들거나 피곤하지 않으며, 일반적인 타 동작들과 용이하게 구분 가능하므로 인식 오류의 가능성이 낮다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
100...가상마우스 시스템 10...카메라
20...영상입력부 30...손동작인식부
40...명령전달부

Claims (6)

  1. 손의 모양 변화에 기초하여 제어되는 가상마우스를 구동하는 방법에 있어서,
    카메라에서 서로 다른 시점에 촬영된 복수의 영상을 입력받는 단계와,
    상기 복수의 영상간의 차 영상을 추출하는 단계와,
    상기 추출된 차 영상에 기초하여 상기 가상마우스를 구동하는 단계를 포함하며,
    상기 복수의 영상들로부터 연속된 복수의 차 영상을 추출하고, 상기 연속된 차 영상에서 사용자의 검지손가락의 위치가 변해가는 것을 분석함으로써 사용자의 검지손가락의 움직임 정보를 추출하며, 상기 움직임 정보를 상기 가상 마우스의 클릭 신호로 이용하되,
    연속된 3개 이상의 차 영상을 분석하여, 상기 검지손가락의 움직임의 방향이 상방향에서 하방향으로 바뀌거나 또는 상기 검지손가락의 움직임의 방향이 하방향에서 상방향으로 바뀔 때의 움직임 정보를 상기 가상 마우스의 클릭신호로 이용하는 것을 특징으로 하는 가상 마우스의 구동방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    사용자의 손의 위치이동을 계산하여 상기 가상마우스의 이동신호로 이용하되,
    사용자의 엄지손가락과 검지손가락이 붙은 상태로 이동하는 것은 상기 가상마우스의 버튼을 클릭한 채 이동하는 신호로 이용하고,
    상기 엄지손가락과 상기 검지손가락이 떨어진 채 이동하는 것은 상기 가상마우스의 버튼을 클릭하지 않은 채로 이동하는 신호로 이용하는 것을 특징으로 하는 가상마우스의 구동방법.
KR20100109198A 2010-11-04 2010-11-04 가상마우스 구동방법 KR101169583B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR20100109198A KR101169583B1 (ko) 2010-11-04 2010-11-04 가상마우스 구동방법
US13/883,441 US20130229348A1 (en) 2010-11-04 2011-10-31 Driving method of virtual mouse
PCT/KR2011/008210 WO2012060598A2 (ko) 2010-11-04 2011-10-31 가상마우스 구동방법
CN2011800534963A CN103201706A (zh) 2010-11-04 2011-10-31 虚拟鼠标的驱动方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20100109198A KR101169583B1 (ko) 2010-11-04 2010-11-04 가상마우스 구동방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020110058534A Division KR20120047746A (ko) 2011-06-16 2011-06-16 가상마우스 구동방법

Publications (2)

Publication Number Publication Date
KR20120047556A KR20120047556A (ko) 2012-05-14
KR101169583B1 true KR101169583B1 (ko) 2012-07-31

Family

ID=46024932

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20100109198A KR101169583B1 (ko) 2010-11-04 2010-11-04 가상마우스 구동방법

Country Status (4)

Country Link
US (1) US20130229348A1 (ko)
KR (1) KR101169583B1 (ko)
CN (1) CN103201706A (ko)
WO (1) WO2012060598A2 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101489069B1 (ko) 2013-05-30 2015-02-04 허윤 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치
KR101492813B1 (ko) * 2013-08-27 2015-02-13 주식회사 매크론 웨어러블 디스플레이용 입력장치
KR102378503B1 (ko) 2020-12-29 2022-03-24 울산대학교 산학협력단 무형 마우스를 통한 정보의 입출력 방법 및 비일시성의 컴퓨터 판독 가능 기록 매체

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2631739B1 (en) * 2012-05-21 2016-02-03 Huawei Technologies Co., Ltd. Contactless gesture-based control method and apparatus
WO2015065341A1 (en) * 2013-10-29 2015-05-07 Intel Corporation Gesture based human computer interaction
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
JP2008234594A (ja) * 2007-03-23 2008-10-02 Denso Corp 操作入力装置
KR100962569B1 (ko) * 2008-05-29 2010-06-11 고려대학교 산학협력단 손의 모양 변화에 기초하여 제어되는 가상 마우스 장치 및그 구동 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070031292A (ko) * 2004-03-22 2007-03-19 아이사이트 모빌 테크놀로지 엘티디 사용자 명령을 프로세서에 입력하기 위한 시스템 및 방법
KR20070025138A (ko) * 2005-08-31 2007-03-08 노성렬 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
CN101650594A (zh) * 2008-08-14 2010-02-17 宏碁股份有限公司 根据动态图像的控制方法
CN101727177B (zh) * 2008-10-30 2012-09-19 深圳富泰宏精密工业有限公司 鼠标模拟系统及其应用方法
TW201020896A (en) * 2008-11-19 2010-06-01 Nat Applied Res Laboratories Method of gesture control
US9417699B2 (en) * 2008-12-23 2016-08-16 Htc Corporation Method and apparatus for controlling a mobile device using a camera
US8112719B2 (en) * 2009-05-26 2012-02-07 Topseed Technology Corp. Method for controlling gesture-based remote control system
US20120056901A1 (en) * 2010-09-08 2012-03-08 Yogesh Sankarasubramaniam System and method for adaptive content summarization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
JP2008234594A (ja) * 2007-03-23 2008-10-02 Denso Corp 操作入力装置
KR100962569B1 (ko) * 2008-05-29 2010-06-11 고려대학교 산학협력단 손의 모양 변화에 기초하여 제어되는 가상 마우스 장치 및그 구동 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101489069B1 (ko) 2013-05-30 2015-02-04 허윤 동작 기반의 정보 입력 방법 및 이러한 방법을 사용한 입력 장치
KR101492813B1 (ko) * 2013-08-27 2015-02-13 주식회사 매크론 웨어러블 디스플레이용 입력장치
WO2015030482A1 (ko) * 2013-08-27 2015-03-05 주식회사 매크론 웨어러블 디스플레이용 입력장치
KR102378503B1 (ko) 2020-12-29 2022-03-24 울산대학교 산학협력단 무형 마우스를 통한 정보의 입출력 방법 및 비일시성의 컴퓨터 판독 가능 기록 매체

Also Published As

Publication number Publication date
WO2012060598A2 (ko) 2012-05-10
CN103201706A (zh) 2013-07-10
US20130229348A1 (en) 2013-09-05
KR20120047556A (ko) 2012-05-14
WO2012060598A3 (ko) 2012-09-13

Similar Documents

Publication Publication Date Title
US11009950B2 (en) Arbitrary surface and finger position keyboard
US11720181B2 (en) Cursor mode switching
JP6259545B2 (ja) 3dシーンでジェスチャーを入力するシステム及び方法
EP2907004B1 (en) Touchless input for a user interface
EP2352112B1 (en) Remote control system for electronic device and remote control method thereof
KR101169583B1 (ko) 가상마우스 구동방법
KR20120045667A (ko) 움직임 인식을 이용한 사용자 인터페이스 장치 및 방법
KR20130105725A (ko) 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전
CN103809733A (zh) 人机交互系统和方法
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
KR20150094680A (ko) 타겟팅 및 누르기 내추럴 사용자 입력
WO2017057106A1 (ja) 入力装置、入力方法、及びプログラム
CN105630134A (zh) 识别操作事件的方法和装置
KR101233793B1 (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
KR20210003515A (ko) 인터렉티브모드를지원하는증강현실구현장치
KR20120047746A (ko) 가상마우스 구동방법
Choondal et al. Design and implementation of a natural user interface using hand gesture recognition method
US9529443B2 (en) Remote controller for motion recognition
Maidi et al. Interactive media control using natural interaction-based Kinect
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
KR20130096073A (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
KR101506197B1 (ko) 양손을 이용한 동작인식 입력방법
WO2023124113A1 (zh) 三维空间中的交互方法、装置、存储介质及电子装置
WO2014014461A1 (en) System and method for controlling an external system using a remote device with a depth sensor
CN112567319A (zh) 一种信号输入的方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
A107 Divisional application of patent
AMND Amendment
J201 Request for trial against refusal decision
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150603

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160624

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170627

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180530

Year of fee payment: 7