KR20130096073A - Virtual mouse driving method using hand motion recognition - Google Patents

Virtual mouse driving method using hand motion recognition Download PDF

Info

Publication number
KR20130096073A
KR20130096073A KR1020120017604A KR20120017604A KR20130096073A KR 20130096073 A KR20130096073 A KR 20130096073A KR 1020120017604 A KR1020120017604 A KR 1020120017604A KR 20120017604 A KR20120017604 A KR 20120017604A KR 20130096073 A KR20130096073 A KR 20130096073A
Authority
KR
South Korea
Prior art keywords
hand
drag
movement
trajectory
virtual mouse
Prior art date
Application number
KR1020120017604A
Other languages
Korean (ko)
Inventor
한연수
조남현
Original Assignee
주식회사 매크론
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 매크론 filed Critical 주식회사 매크론
Priority to KR1020120017604A priority Critical patent/KR20130096073A/en
Publication of KR20130096073A publication Critical patent/KR20130096073A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A virtual mouse driving method using a hand movement recognition is provided to analyze the moving trajectory of whole hands for recognizing the movement, and to implement a virtual mouse in low resolution. CONSTITUTION: A device analyzes a photographed hand movement, and activates a virtual mouse. The device extracts a portion of the hand performing the predetermined movement. The device analyzes the trajectory of the hand by analyzing the location change of the extracted portion from photographed images (S601-S609). The device classifies the trajectory into a click action, a drag and drop action, and a pointer movement. [Reference numerals] (A1) Start; (B1) Analyze the moving trajectory of hands; (B2,C2,C3,C6,D2,E2,E6,E9,E7) No; (B3,B4,C1,C5,D1,E1,E4,E5,E8) Yes; (C4) Is a dragging initiated?; (E3) Is a dragging not initiated?; (F1) Perform a click action; (F2) Perform a drag initiating movement; (F3) Successive dragging; (F4) Perform a drop action; (G1) Release a mouse control reserving; (G2) Move a pointer; (S601) Is a trajectory in a stopping movement?; (S602) Did a stopping movement occur in the near past?; (S603) Did the trajectory change the direction to 180°?; (S604) Is it a regular pointer movement?; (S605) Is the mouse control in a reserving state?; (S606) Set the mount control reserving state; (S607) Is the trajectory moved downwards?; (S608) Set the mount control reserving state; (S609) Is the trajectory moved to one direction

Description

손 동작 인식을 이용한 가상 마우스 구동 방법{Virtual mouse driving method using hand motion recognition}Virtual mouse driving method using hand motion recognition

본 발명은 디스플레이 디바이스의 가상 마우스 구동 방법에 관한 것으로, 카메라에서 얻은 영상에서 손의 동작을 인식하고 손의 특정 영역을 추적하여 손의 위치와 동작에 관한 정보를 추출하고, 이를 디스플레이 디바이스를 제어하는데 사용할 수 있게 하는 방법에 관한 것이다.The present invention relates to a method of driving a virtual mouse of a display device, which recognizes the motion of a hand in an image obtained from a camera, tracks a specific area of the hand, extracts information about the position and motion of the hand, and controls the display device. It is about how to make it available.

디스플레이 디바이스들이 스마트 시스템으로 진화함에 따라 디스플레이 디바이스와의 상호 작용이 중요시되고 있다. 스마트 디스플레이 디바이스들은 컴퓨터와 유사하게 디스플레이 디바이스 화면상의 위치에 따른 명령 입력이 가능해야 한다. 이와 같은 명령 입력이 가능한 수단으로 가장 일반화되어 있는 입력 디바이스는 마우스이다. 또한 최근 각광받고 있는 스마트폰의 경우에는 터치 스크린을 이용하여 화면상의 위치에 따른 명령입력을 할 수 있다.As display devices have evolved into smart systems, interaction with display devices has become important. Smart display devices should be able to input commands according to their position on the display device screen, similar to a computer. The input device most commonly used as a means for inputting such a command is a mouse. In addition, in the case of smart phones that are in the spotlight recently, a command input according to a position on a screen may be performed using a touch screen.

위치 기반 명령을 내리기 위한 기존의 터치 스크린을 이용한 입력 방식은 디스플레이 디바이스와의 접촉을 통해 명령을 전송하므로 여러 제한이 발생한다. 즉 디스플레이 디바이스가 손으로 접촉 가능한 거리 내에 있을 때만 사용이 가능하다. 또한 마우스의 경우 물리적인 크기와 형태를 지니고 있어 스마트한 입력도구는 아니다. The input method using a conventional touch screen for giving a location-based command transmits a command through contact with a display device, causing various limitations. That is, it can be used only when the display device is within a reachable distance by hand. Also, the mouse is not a smart input tool because it has a physical size and shape.

최근에는 비접촉 방식으로 디스플레이 디바이스에 명령을 전달할 수 있는 입력 디바이스들이 출현하고 있다. 특히 게임분야에서 3차원 카메라를 이용하여 동작 인식을 통해 명령을 전달할 수 있는 방법이 개발되고 있다. 3차원 카메라를 이용하는 방법은, 입력 영상에서 제스처를 수행하는 오브젝트 영상과 배경 영상을 분리하기 용이한 장점을 가지고 있으나, 입력디바이스가 복잡하고 고가인 단점이 있다. 또한 해상도가 낮아 큰 동작을 이용하여 명령을 입력해야 하므로 사용자가 사용하는데 있어 큰 불편을 야기한다. Recently, input devices capable of transmitting a command to a display device in a contactless manner have emerged. In particular, in the game field, a method for transmitting a command through motion recognition using a 3D camera has been developed. The method of using the 3D camera has an advantage of easily separating the object image and the background image from which the gesture is performed from the input image, but the input device is complicated and expensive. In addition, since the resolution is low, a user must input a command using a large operation, which causes a great inconvenience for the user.

저가의 입력 디바이스를 구성하기 위해, 공개특허 10-2009-0124172와 같이 2차원 카메라 영상에서 손의 제스처(hand gesture)를 인식하여 스마트 TV나 셋톱 박스 등을 제어하고자 하는 시도가 있었다.In order to construct an inexpensive input device, an attempt has been made to control a smart TV or a set-top box by recognizing a gesture of a hand in a 2D camera image as shown in Patent Publication 10-2009-0124172.

또한, 최근 출시된 스마트 TV에 구현되어 있는 동작인식 기능은 카메라를 향해 팔을 수직 위로 들어올린 후 손을 펴서 카메라가 손을 인식할 때까지 좌우로 흔들어 주어 포인터를 화면에 표시한 후, 포인터를 클릭하고자 하는 아이콘 위에 위치시켜 펴져 있던 다섯 손가락 모두를 접었다 펴는 동작을 클릭으로 인식하게 한다.In addition, the motion recognition function implemented in the recently launched smart TV raises the arm vertically upward toward the camera and then spreads the hand to shake the left and right until the camera recognizes the hand to display the pointer on the screen. Position the mouse on the icon you want to click on so that all five fingers are folded and extended.

하지만, 이와 같은 클릭 방법은 키보드 입력이나 게임과 같이 클릭하는 동작을 많이 필요로 하는 경우 손가락을 접었다 폈다 하는 동작을 반복함으로 인해 손의 근육을 많이 움직이게 하여 손의 피로도를 높일 수 있다. 따라서, 클릭 기능을 좀 더 편리하게 구현할 필요가 있다.However, such a click method can increase the hand fatigue by moving the finger muscles a lot by repeating the action of folding and releasing the finger when a lot of clicking operations are required such as keyboard input or a game. Therefore, it is necessary to implement the click function more conveniently.

또한, 다른 클릭 구현 방법으로 검지 손가락을 접었다 펴는 동작을 이용하기도 하는데, TV와 같이 원거리에서 동작 인식을 구현하고자 할 때 손가락 하나를 인식하기 위해서는 고해상도 카메라가 요구되므로 비용이 증가하는 단점이 있다.In addition, another method of implementing a click may use an operation of folding and unfolding the index finger. However, when implementing a motion recognition at a long distance such as a TV, a high resolution camera is required to recognize one finger, which increases the cost.

디스플레이 디바이스를 제어하는 손동작 인식을 이용하는 가상마우스를 구현하는데 있어서, 클릭과 드래그 앤 드롭 기능을 사용자의 피로도를 감소시켜 편의성을 증대하고 이를 저가의 비용으로 구현하는 것이 본 발명에서 해결하고자 하는 과제이다 In implementing a virtual mouse using hand gesture recognition for controlling a display device, it is a problem to be solved in the present invention to reduce the user fatigue and to increase convenience and lower cost.

본 발명에 따른 가상마우스의 구동방법은 손의 움직임을 이용하는 가상 마우스를 구동하는 방법에 있어서, 촬영된 손의 움직임을 분석하여, 가상 마우스 활성화 동작으로서의 기설정된 손의 움직임이 이루어지면 가상 마우스를 활성화하는 단계와, 상기 기설정된 손의 움직임을 수행한 손의 일부 영역을 추출하는 단계와, 촬영된 영상 내에서 상기 추출된 영역의 위치가 변화되는 것을 분석하여, 상기 손의 궤적을 분석하는 단계와, 상기 분석된 손의 궤적에 따라 클릭 동작, 드래그 앤 드롭 동작 및 포인터 이동 동작으로 구분하는 단계를 포함하는 것을 특징으로 한다.In the method of driving a virtual mouse according to the present invention, in the method of driving a virtual mouse using hand movement, by analyzing the movement of the photographed hand, the virtual mouse is activated when a predetermined hand movement as a virtual mouse activation operation is made. And extracting a partial region of a hand that has performed the movement of the predetermined hand, analyzing a change in the position of the extracted region in the captured image, and analyzing a trajectory of the hand; And dividing the image into a click operation, a drag and drop operation, and a pointer movement operation according to the analyzed hand trajectory.

본 발명에 따르면, 상기 손은 손가락 전체를 편 상태에서 움직이는 것을 특징으로 한다.According to the invention, the hand is characterized in that moving the entire finger in the open state.

또한, 본 발명에 따르면 상기 클릭 동작은 클릭하고자 하는 위치에서 상기 손의 이동 속도를 감속하여 정지한 후, 일방향으로 손을 이동하였다가 다시 상기 일방향의 반대 방향으로 이동하여 정지하는 동작으로 정의되는 것이 바람직하다.In addition, according to the present invention, the click motion is defined as an operation of stopping the moving speed of the hand at a position to be clicked and then stopping, then moving the hand in one direction and moving in the opposite direction to the one direction again. desirable.

또한, 본 발명에 따르면 상기 클릭 동작은 클릭하고자 하는 위치에서 기설정된 방향으로 기설정된 거리만큼 손을 이동한 후, 상기 기설정된 방향의 반대 방향으로 손을 이동하여 상기 클릭하고자 하는 위치에서 기설정된 오차거리 이내의 위치로 되돌아오는 동작으로 정의되는 것이 바람직하다.Further, according to the present invention, the click operation is a predetermined error at the position to be clicked by moving the hand in a direction opposite to the predetermined direction after moving the hand by a predetermined distance from a position to be clicked. It is preferably defined as an operation returning to a position within a distance.

또한, 본 발명에 따르면 상기 클릭 동작은 기설정된 시간 이내에 수행되어야 하는 것이 바람직하다.In addition, according to the present invention, it is preferable that the click operation be performed within a predetermined time.

또한, 본 발명에 따르면 상기 클릭 동작이 이루어지는 동안에는 화면 상에서의 포인터의 위치가 고정되는 것이 바람직하다.According to the present invention, it is preferable that the position of the pointer on the screen is fixed while the click operation is performed.

또한, 본 발명에 따르면 상기 드래그 앤 드롭 동작은 드래그(drag) 동작과 드롭(drop) 동작으로 이루어지며, 상기 드래그 동작은, 드래그를 개시하는 드래그 개시 동작과, 상기 드래그가 개시된 이후 드래깅을 수행하는 연속 동작으로 이루어지며, 상기 드래그 개시 동작은, 드래깅을 시작하고자 하는 위치에서 손의 이동 속도를 감속하여 정지한 후 하방향으로 기설정된 거리만큼 기설정된 시간 내에 손을 이동한 후 기설정된 시간 동안 정지하는 동작으로 정의되며, 상기 연속 동작은 드래그 개시 이후 손을 목적 위치로 움직이는 동작으로 정의되는 것이 바람직하다.In addition, according to the present invention, the drag and drop operation includes a drag operation and a drop operation. The drag operation includes a drag start operation for initiating a drag and a dragging operation after the drag is started. The drag initiation operation is performed by decelerating and stopping the moving speed of the hand at a position to start dragging, and then moving the hand within a predetermined time by a predetermined distance in the downward direction and stopping for a predetermined time. The continuous motion is preferably defined as an motion of moving a hand to a target position after the start of dragging.

또한, 본 발명에 따르면 상기 드롭 동작은 드래그 동작이 인식된 이후에 기설정된 방향으로 기설정된 거리만큼 기설정된 시간 내에 손을 이동한 후, 기설정된 시간 동안 정지하는 동작으로 정의하는 것이 바람직하다.In addition, according to the present invention, the drop operation is preferably defined as an operation of stopping a predetermined time after moving a hand within a predetermined time by a predetermined distance in a predetermined direction after the drag operation is recognized.

상기한 구성의 본 발명에 따르면, 클릭 동작, 드래그 앤 드롭 동작 등을 사용자가 적은 피로감으로 편리하게 수행할 수 있으며, 손 전체가 움직이는 궤적을 분석하여 동작을 인식하게 되므로 저해상도로 구현할 수 있는 장점을 가진다. According to the present invention having the above-described configuration, the user can conveniently perform a click operation, a drag and drop operation, etc. with little fatigue, and analyze the trajectory of the entire hand to recognize the motion, thereby realizing the low resolution. Have

도 1은 본 발명의 일 실시예에 따른 가상마우스 구동방법을 구현하기 위한 장치의 개략적인 구성도이다.
도 2는 클릭 동작의 실시 예이다.
도 3은 도 2의 클릭 동작시의 마우스 포인터 궤적이다.
도 4는 드래그 앤 드롭 동작의 실시 예이다.
도 5는 도 4의 드래그 앤 드롭 동작시의 마우스 포인터 궤적이다.
도 6은 손의 이동 궤적을 일반 포인터 이동과 클릭, 드래그 개시, 드롭 동작과 구분하기 위한 흐름도로서, 이 흐름도는 손의 궤적을 추적하는 과정에서 카메라에서 영상이 촬영될 때마다 실시간으로 반복 수행된다.
1 is a schematic block diagram of an apparatus for implementing a virtual mouse driving method according to an embodiment of the present invention.
2 is an embodiment of a click operation.
3 is a mouse pointer trajectory during the click operation of FIG. 2.
4 is an embodiment of a drag and drop operation.
5 is a mouse pointer trajectory during the drag and drop operation of FIG. 4.
FIG. 6 is a flowchart for distinguishing a hand movement trajectory from a normal pointer movement and a click, drag initiation, and drop operation. The flowchart is repeated in real time whenever an image is captured by a camera while tracking a hand trajectory. .

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 따른 가상마우스 구동방법에 관하여 설명한다.Hereinafter, a method of driving a virtual mouse according to a preferred embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 가상마우스 구동방법을 구현하기 위한 장치의 개략적인 구성도이고, 도 2는 클릭 동작의 실시예이고, 도 3은 도 2의 클릭 동작시의 마우스 포인터 궤적이며, 도 4는 드래그 앤 드롭 동작의 실시 예이고, 도 5는 도 4의 드래그 앤 드롭 동작시의 마우스 포인터 궤적이며, 도 6은 손의 이동 궤적을 일반 포인터 이동과 클릭, 드래그 개시, 드롭 동작과 구분하기 위한 흐름도로서, 이 흐름도는 손의 궤적을 추적하는 과정에서 카메라에서 영상이 촬영될 때마다 실시간으로 반복 수행된다.1 is a schematic configuration diagram of an apparatus for implementing a virtual mouse driving method according to an embodiment of the present invention, FIG. 2 is an embodiment of a click operation, and FIG. 3 is a mouse pointer trajectory during the click operation of FIG. 4 is an embodiment of a drag and drop operation, FIG. 5 is a mouse pointer trajectory during the drag and drop operation of FIG. 4, and FIG. 6 is a general pointer movement and click, drag start, and drop operation of a hand movement trajectory. This flowchart is repeated in real time whenever an image is taken by the camera in the process of tracking the hand trajectory.

도 1 내지 도 6을 참조하면, 먼저 본 실시 예에 따른 가상마우스 구동방법은 가상마우스 시스템에서 구현되는데, 가상마우스 시스템(100)는 카메라(10)와, 영상입력부(20)와, 손동작 인식부(30)와, 명령전달부(40)로 구성된다.1 to 6, first, a virtual mouse driving method according to the present embodiment is implemented in a virtual mouse system. The virtual mouse system 100 includes a camera 10, an image input unit 20, and a hand gesture recognition unit. 30, and the command transmission unit 40.

카메라(10)는 렌즈로부터 입력되는 영상을 CCD 또는 CMOS와 같은 촬상 소자를 통해 촬영하여 출력하는 것으로, 예를 들어 디지털 카메라로 구현될 수 있으며, 사용자의 손의 영상을 촬영하여 영상입력부로 전송한다. 특히, 본 실시예의 경우 카메라는 2차원 카메라가 이용된다. 이와 같이, 2차원 카메라를 이용하는 것은, 3차원 카메라 보다 경제적으로 이점이 있고, 해상도가 상대적으로 높기 때문이다. The camera 10 captures and outputs an image input from a lens through an imaging device such as a CCD or a CMOS, and may be implemented as, for example, a digital camera. The camera 10 captures an image of a user's hand and transmits the image to a video input unit. . In particular, in the present embodiment, a two-dimensional camera is used for the camera. As described above, the use of the two-dimensional camera is more economically advantageous than the three-dimensional camera, and the resolution is relatively high.

영상입력부(20)에서는 카메라에서 촬영된 영상을 실시간으로 입력받는다. The image input unit 20 receives an image captured by the camera in real time.

손동작 인식부(30)에서는 연속된 복수의 입력 영상에서 공지된 영상 처리 기법을 이용하여 손에서 특징이 될 수 있는 영역을 추출해 내고, 손 영역의 위치좌표를 설정한다. 특히, 본 실시예의 경우 사용자는 모든 손가락을 편 상태에서 손을 움직이며, 손동작 인식부는 손가락이 펴진 상태의 손에서 특징 영역을 추출해 내어 손의 위치좌표를 설정한다. 예를 들어, 손 영역의 위치 좌표로는 손바닥의 무게 중심의 좌표 등이 될 수 있다.The hand gesture recognition unit 30 extracts a region that may be a feature of the hand from a plurality of consecutive input images by using a known image processing technique, and sets position coordinates of the hand region. In particular, in the present embodiment, the user moves the hand in a state where all the fingers are open, and the hand gesture recognition unit extracts a feature region from the hand in an extended state of the finger to set the position coordinates of the hand. For example, the position coordinate of the hand region may be a coordinate of the center of gravity of the palm.

그리고, 이와 같이 손가락이 펴진 상태에서의 손의 움직임을 인식하는 것은, 손가락이 펴진 상태에서는 손의 특징을 추출할 수 있는 손의 면적이 증가하기 때문에 카메라와 멀리 떨어진 거리에서의 인식(예를 들어 TV에서 가상마우스가 활용되는 경우)이 가능하다는 장점과, 손가락이 펴진 상태에서 손의 외곽 영역이 주변의 다른 사물들과 차별화되기 때문에 인식에 유리한 장점을 가지기 때문이다. Recognizing the movement of the hand in a state where the finger is opened in this way is that the recognition of the distance from the camera is far (eg The virtual mouse is used in the TV), and since the outer area of the hand is distinguished from other objects around when the finger is open, it is advantageous for recognition.

손동작 인식부는 연속된 복수의 입력 영상에서 손 영역의 위치좌표가 변화되는 것을 분석하여, 손의 궤적을 분석하며, 분석된 손의 궤적에 따라 가상마우스 활성화 동작, 클릭 동작, 드래그 앤 드롭 동작 및 포인터 이동 동작으로 구분한다. The hand gesture recognition unit analyzes the position coordinates of the hand region in a plurality of consecutive input images, analyzes the hand trajectory, and activates a virtual mouse activation, click action, drag and drop operation, and pointer according to the analyzed hand trajectory. It is divided into movement operation.

먼저, 가상마우스 활성화 동작이란 가상마우스를 활성화 하기 위한 동작을 의미하는데, 여기서 가상마우스의 활성화란 디스플레이 디바이스(예를 들어, 모니터나 TV 화면 등)에 포인터(마우스 포인터)가 표시되도록 동기화시키는 것을 의미한다. 이 가상마우스 활성화 동작은 임의의 동작, 예를 들어 손으로 원을 그리는 동작 등으로 정의될 수 있으며, 이와 같이 정의된 활성화 동작이 수행되면 손동작 인식부에서 이를 분석하여 가상마우스를 활성화시킨다. 그리고, 가상마우스가 활성화되면 디스플레이 디바이스에 포인터가 표시되며, 이 포인터는 손의 위치좌표가 변경되는 것에 대응하여 디스플레이 디바이스의 화면상에서 이동된다.First, a virtual mouse activation operation means an operation for activating a virtual mouse, where activation of a virtual mouse means synchronization of a pointer (mouse pointer) to be displayed on a display device (for example, a monitor or a TV screen). do. The virtual mouse activation operation may be defined as an arbitrary operation, for example, an operation of drawing a circle by hand, and when the defined activation operation is performed, the hand gesture recognition unit analyzes it to activate the virtual mouse. When the virtual mouse is activated, a pointer is displayed on the display device, and the pointer is moved on the screen of the display device in response to the change of the position coordinate of the hand.

이하, 가상마우스 활성화 동작, 클릭 동작, 드래그 앤 드롭 동작 및 포인터 이동 동작에 관하여 설명한다.Hereinafter, a virtual mouse activation operation, a click operation, a drag and drop operation, and a pointer movement operation will be described.

클릭 동작은 디스플레이 디바이스의 화면상에 나타나 있는 메뉴아이콘(즉, 클릭 동작을 인식할 수 있는 아이콘), 예를 들어 폴더, 단축아이콘, 하이퍼텍스트 등을 클릭(click)하는 동작을 의미하며, 다음과 같은 방법으로 동작으로 정의된다. The click operation refers to an operation of clicking a menu icon (ie, an icon for recognizing the click operation) displayed on the screen of the display device, for example, a folder, a shortcut icon, a hypertext, and the like. In the same way, an action is defined.

먼저, 도 2와 같이 사용자가 손바닥이 정면을 향한 상태에서 손의 움직임을 멈춘 위치 즉 클릭하고자 하는 위치를 Pa 로 가정한 후 사용자가 클릭하기 위해 도 2와 같이 아래 방향으로 기설정된 거리 만큼 이동시킨 후(즉, 도 2의 Pb로 이동) 다시 위쪽 방향으로 손을 이동하여 원래의 위치 Pc(여기서, Pc는 Pa와 동일한 위치이거나 Pa와 기설정된 오차거리 이내의 위치를 의미함)로 돌아와 움직임을 멈춘다.First, as shown in FIG. 2, assuming that the user stops the movement of the hand while the palm is facing in front, that is, the position to click Pa, the user moves the predetermined distance downward as shown in FIG. 2 to click. Afterwards (ie, moving to Pb in FIG. 2), the hand is moved upwards to return to the original position Pc (where Pc means the same position as Pa or a position within Pa and a predetermined error distance). Stop

여기서, 도 2의 t2 시점의 분석 절차를 도 6을 참조하여 설명하면 다음과 같다. 이때 클릭 동작이 이루어지는데 소요되는 기설정된 제한 시간을 Ctp, 클릭 동작시 손의 일 방향으로의 이동량에 대한 임계치를 Cdp라고 정한다. 도 2의 t2 시점에서 정지 동작이 인식되면(도 6. 601), 그때 손의 위치를 Pc 라고 한다. 그리고, 인접한 과거시간(t2 - Ctp) ~ (t2) 사이에 정지 동작이 발생했는지 분석하여(도 6. 602) 과거의 정지 시점 t1을 찾아낸다. 그리고, t1 ~ t2 사이의 손의 궤적이 도 3과 같이 궤적이 아래쪽 방향으로 내려갔다가 위쪽 방향으로 올라오는 것처럼 180°방향 전환 하였다면(도 6. 603) 클릭 동작으로 인식한다. 이때, 클릭 소요 시간 (t2 - t1)은 기설정된 제한 시간인 Ctp보다 작아야 하고, 손의 일방향 이동거리 (Pb - Pa) 는 임계치 Cdp 보다 작은 조건을 만족해야 한다. 그리고, 클릭 동작이 정지되는 위치 Pc 는 클릭 시작위치 Pa를 기준으로 기설정된 오차거리 내에 있어야 올바른 클릭 동작으로 인식한다.Herein, the analysis procedure at time t2 in FIG. 2 will be described with reference to FIG. 6. At this time, the predetermined time limit for the click operation is set to C tp , and the threshold for the amount of movement in one direction of the hand during the click operation is set as C dp . If the stop motion is recognized at time t2 in Fig. 2 (Fig. 6.601), then the position of the hand is called Pc. Then, it is analyzed whether the stop operation has occurred between adjacent past times (t2-C tp ) to (t2) (Fig. 6.602) and finds the past stop time t1. If the trajectory of the hand between t1 and t2 is changed to 180 ° as shown in FIG. 3, the trajectory descends downward and ascends upward (FIG. 6.603), it is recognized as a click operation. At this time, the click time t2-t1 must be smaller than the predetermined time limit C tp , and the one-way movement distance Pb-Pa of the hand must satisfy a condition smaller than the threshold C dp . The position Pc at which the click operation is stopped is recognized as a correct click operation only when it is within a preset error distance based on the click start position Pa.

드래그 앤 드롭 동작이란, 디스플레이 디바이스의 화면 상에서 아이콘 등의 위치를 변경시키는 동작을 의미한다. 드래그 앤 드롭 동작은, 아이콘을 정하여 위치를 이동시키는 드래그 동작과, 이동된 위치에 아이콘을 위치시키는 드롭 동작으로 이루어진다.The drag and drop operation refers to an operation of changing a position of an icon or the like on the screen of the display device. The drag and drop operation is composed of a drag operation of determining an icon and moving a position, and a drop operation of placing an icon at the moved position.

그리고, 드래그 동작은 드래그를 개시하는 드래그 개시 동작과, 드래그 개시 이후 드래깅(즉, 위치를 옮기는 과정)을 하는 연속 동작으로 이루어진다. 드래그 개시 동작은 도 4에서와 같이 드래깅을 시작하고자 하는 위치(예를 들어, 아이콘 위)에서 손의 이동 속도를 감속하여 정지한 후 일방향(하방향)으로 기설정된 거리 만큼 기설정된 시간 내에 손을 이동한 후 일정 시간 정지하는 동작으로 정의하며, 이 동작 후에 손을 움직이면 드래깅의 연속 동작인 것으로 정의한다. The drag operation includes a drag start operation for initiating a drag and a continuous operation for dragging (ie, moving a position) after the start of the drag. As shown in FIG. 4, the drag initiation operation is performed by decelerating and stopping the movement speed of the hand at a position (for example, an icon) to start dragging, and then moving the hand within a predetermined time by a predetermined distance in one direction (down direction). It is defined as an operation that stops for a certain time after moving, and it is defined as a continuous operation of dragging when a hand is moved after this operation.

도 4의 손이 정지되어 있는 t2 시점에서의 분석 절차를 도 6 에 따라 설명하면 다음과 같다. 이때, 드래그 개시 동작 소요 시간에 대한 임계치를 Dtp, 드래그 개시 동작을 위한 손의 하방향 이동량에 대한 임계치(기설정된 거리)를 Ddp 라고 가정한다. 도 6의 601 단계와, 도 6의 602 단계를 거쳐 손의 위치 Pa, Pb와 정지 시간 t1, t2를 분석하여, t2 에서 t1 사이의 손의 궤적이 도 5의 (a)에 나타난 것처럼 하방향으로 이동하되 궤적이 180° 방향전환이 되지 않았다면, 도 6의 607 단계와 같이 드래그 개시 동작으로 인식한다. 이때, 드래그 개시 소요 시간 (t2 - t1) 은 임계치 Dtp보다 작아야 하고, 손의 일방향 이동거리 (Pb - Pa) 는 임계치 Ddp 보다 작은 조건을 만족해야 한다. 이후, 손의 움직임은 정해진 아이콘을 목적한 위치로 이동시키는 드래깅의 연속 동작으로 본다.The analysis procedure at time t2 at which the hand of FIG. 4 is stopped will be described with reference to FIG. 6 as follows. In this case, it is assumed that the threshold for the time required for the drag start operation is D tp , and the threshold (preset distance) for the amount of downward movement of the hand for the drag start operation is D dp . By analyzing the position Pa, Pb and the stop time t1, t2 of the hand through step 601 of FIG. 6 and step 602 of FIG. 6, the trajectory of the hand between t2 and t1 is downward as shown in FIG. If the trajectory is moved to 180 ° but the direction is not changed 180 °, it is recognized as a drag start operation as in step 607 of FIG. At this time, the drag start time t2-t1 must be smaller than the threshold D tp , and the one-way movement distance Pb-Pa of the hand must satisfy a condition smaller than the threshold D dp . Then, the movement of the hand is regarded as a continuous operation of dragging to move the predetermined icon to the desired position.

한편, 드래그 개시 동작을 하는데 있어서 손의 이동방향을 아래 방향으로 하는 것은 기존 마우스의 버튼을 누르는 동작과 유사하며, 손을 들어 중력의 방향인 아래쪽으로 움직여 손의 움직임에 에너지가 적어 손의 움직임에 대한 피로도를 덜어주는데 있다.On the other hand, in the start of drag operation, the direction of hand movement is similar to the action of pushing a button of a conventional mouse, and the hand is moved downwards in the direction of gravity to lift the hand so that the energy of the hand is less. To relieve fatigue.

드롭 동작은 드래그 동작이 인식된 이후에, 도 4에서와 같이 드롭을 시작하고자 하는 위치(Pc)에서 손의 이동 속도를 감속하여 정지한 후, 기설정된 방향으로 기설정된 거리 만큼 기설정된 시간 내에 손을 이동한 후(Pd의 위치), 기설정된 시간동안 정지하는 동작으로 정의한다. 도 4의 손이 정지되어 있는 t4 시점에서의 분석 절차를 도 6 에 따라 설명하면 다음과 같다. 이때, 드롭 동작 소요 시간에 대한 임계치를 Dtp, 드롭을 위한 손의 일방향 이동량에 대한 임계치를 Ddp 라고 가정한다. 도 6의 601단계, 도 6의 602 단계 및 도 6의 603단계를 거쳐 손의 위치 Pc, Pd 와 정지 시간 t3, t4를 구하여, t4에서 t3사이의 손의 궤적이 도 5의 (b)처럼 일방향으로 이동하였다면, 도 6의 609 단계와 같이(이때, 드래그는 개시된 상태) 드롭 동작으로 인식한다. 이때, 드롭 동작 소요 시간 (t4 - t3) 은 임계치 Dtp보다 작아야 하고, 손의 일방향 이동거리 (Pd - Pc)는 임계치 Ddp 보다 작은 조건을 만족해야 한다. After the drag operation is recognized, as shown in FIG. 4, the drop operation stops by decelerating the moving speed of the hand at the position Pc where the drop operation is to be started, and then, within the preset time by a predetermined distance in the preset direction. After moving (the position of Pd), it is defined as an operation to stop for a predetermined time. An analysis procedure at time t4 at which the hand of FIG. 4 is stopped will be described with reference to FIG. 6. In this case, it is assumed that the threshold for the time required for the drop operation is D tp and the threshold for the one-way movement amount of the hand for the drop is D dp . The position Pc, Pd of the hand, and the stop times t3 and t4 are obtained through step 601 of FIG. 6, step 602 of FIG. 6 and step 603 of FIG. If it has moved in one direction, as in step 609 of FIG. 6 (at this time, dragging is started), it is recognized as a drop operation. At this time, the drop operation time t4-t3 must be smaller than the threshold D tp , and the one-way movement distance Pd-Pc of the hand must satisfy a condition smaller than the threshold D dp .

한편, 손의 움직임에 따라 무조건적으로 마우스의 포인터가 이동하게 되면 클릭 동작, 드래그 개시 동작 및 드롭 동작을 수행하는 동안에도 디스플레이 디바이스상의 마우스 포인터의 위치가 바뀌게 되어 정확한 위치제어를 하기가 어려워 진다. 따라서, 본 발명에서는 손의 움직임이 클릭, 드래그 개시, 드롭 동작을 수행중인지 아니면 일반적인 마우스 포인터의 이동 동작인지를 구분하여 클릭, 드래그 개시, 드롭 동작을 수행하는 중에는 포인터의 위치를 화면 상에서 고정하여 사용자가 원하는 위치에서 상기 동작이 수행되도록 제어한다. On the other hand, if the pointer of the mouse is unconditionally moved according to the movement of the hand, the position of the mouse pointer on the display device is changed even during the click operation, the drag start operation, and the drop operation, making it difficult to accurately control the position. Therefore, in the present invention, the user's position is fixed on the screen during the click, drag start, and drop operation by distinguishing whether the hand movement is performing a click, drag start, and drop operation or a general mouse pointer movement. Control to perform the operation at a desired position.

이를 위해, 도 2의 t1 시점에서 t1의 인접한 과거 시간(t1 - Ctp) 동안 정지동작이 발생하지 않았다고 가정한다면, 도 6의 606 단계에서와 같이 마우스 제어상태를 유보하여 포인터를 이동시키지 않는다. 이후, 손의 궤적을 분석하여 마우스 제어가 유보 상태(도 6의, 601단계 및 605단계)이면, 손의 궤적이 일반 포인터 이동인지(도 6의 604단계)를 판단하여, 일반 포인터 이동이면 마우스 제어 유보 상태를 해제(도 6의 608단계)하여 포인터를 이동시키고, 일반 포인터 이동이 아닌 상기 클릭, 드래그 개시, 드롭 동작을 수행하는 과정이라면 마우스 제어 유보 상태를 유지시킨다. 이때, 궤적이 미리 정의한 일방향으로 움직이는지, 그 이동 거리가 임계치(Cdp, Ddp) 내에 있는지, 동작 소요 시간 임계치(Ctp, Dtp)내에 있는지를 판단조건으로 한다. To this end, if it is assumed that the stop operation does not occur during the adjacent past time t1-C tp of t1 at the time t1 of FIG. 2, the pointer is not moved by retaining the mouse control state as in step 606 of FIG. 6. After analyzing the hand trajectory, if the mouse control is in a reserved state (steps 601 and 605 of FIG. 6), it is determined whether the hand trajectory is a general pointer movement (step 604 of FIG. 6). The control reservation is released (step 608 of FIG. 6) to move the pointer, and if the click, drag start, and drop operations are performed instead of the normal pointer movement, the mouse control reservation is maintained. At this time, it is determined whether the trajectory moves in one direction defined in advance, whether the movement distance is within the thresholds C dp and D dp , or within the operation time thresholds C tp and D tp .

한편, 위에서 설명된 이동거리, 소요시간(즉, 임계치 시간), 이동방향, 정지시간 등은 사전에 정해질 수 있다. 다만, 본 실시예의 경우 이동 거리 임계치는 카메라가 궤적을 분석할 수 있는 거리(20mm)에서부터 사용자가 손을 움직이는데 에너지가 많이 소요되지 않는 범위(100mm)내로 설정하여 두고, 동작 소요 시간 임계치는 사용자가 상기 동작을 무리하지 않게 수행할 수 있을 만큼의 시간(0.5초 ~ 2초)을 범위로 설정하여 일반인을 대상으로 한 실험을 실시하여 분석한 결과, 이동 거리 임계치는 40mm이내, 동작 소요 시간 임계치는 1초 이내의 조건으로 설정하는 것이 실험 대상자들이 동작을 쉽게 습득하고 사용할 수 있는 조건임을 알 수 있었다.Meanwhile, the moving distance, the required time (ie, the threshold time), the moving direction, and the stopping time described above may be determined in advance. However, in this embodiment, the moving distance threshold is set within a range (100mm) where the camera does not require much energy to move the hand from the distance (20mm) from which the camera can analyze the trajectory, and the operation time threshold is set by the user. As a result of analyzing the experiment for the general public by setting the time (0.5 seconds ~ 2 seconds) to the extent that the operation can be performed without difficulty, the moving distance threshold is less than 40mm, the operating time threshold is It was found that setting the condition within 1 second was a condition that the subjects could easily learn and use the operation.

그리고, 명령 전달부(40)에서는 가상 마우스의 위치와 클릭, 드래그 앤 드롭, 포인터 이동에 관한 명령을 디스플레이 디바이스와 상호 통신이 가능한 프로토콜로 변환하여 전송한다In addition, the command transfer unit 40 converts a command related to the position, click, drag and drop, and pointer movement of the virtual mouse into a protocol that can communicate with the display device and transmits the converted command.

이상에서 본 발명의 바람직한 실시 예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the above-described specific preferred embodiments, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Various modifications can be made by those skilled in the art, and such changes are within the scope of the claims.

100...가상마우스 시스템(100)
10...카메라(10) 20...영상입력부
30...손동작 인식부 40...명령전달부
100 ... Virtual Mouse System (100)
10 ... camera (10) 20 ... video input
30 ... Hand gesture recognition part 40 ... Command delivery part

Claims (9)

손의 움직임을 이용하는 가상 마우스를 구동하는 방법에 있어서,
촬영된 손의 움직임을 분석하여, 가상 마우스 활성화 동작으로서의 기설정된 손의 움직임이 이루어지면 가상 마우스를 활성화하는 단계와,
상기 기설정된 손의 움직임을 수행한 손의 일부 영역을 추출하는 단계와,
촬영된 영상 내에서 상기 추출된 영역의 위치가 변화되는 것을 분석하여, 상기 손의 궤적을 분석하는 단계와,
상기 분석된 손의 궤적에 따라 클릭 동작, 드래그 앤 드롭 동작 및 포인터 이동 동작으로 구분하는 단계를 포함하는 것을 특징으로 하는 가상마우스의 구동방법.
In the method of driving a virtual mouse using the movement of the hand,
Analyzing the movement of the photographed hand and activating the virtual mouse when a predetermined hand movement as a virtual mouse activation is performed;
Extracting a partial region of a hand on which the preset hand movement is performed;
Analyzing the position of the extracted region in the captured image to analyze the trajectory of the hand;
And classifying the mouse into a click operation, a drag and drop operation, and a pointer movement operation according to the analyzed hand trajectory.
제1항에 있어서,
상기 손은 손가락 전체를 편 상태에서 움직이는 것을 특징으로 하는 가상마우스의 구동방법.
The method of claim 1,
The hand is a method of driving a virtual mouse, characterized in that for moving the entire finger in the open state.
제2항에 있어서,
상기 클릭 동작은 클릭하고자 하는 위치에서 상기 손의 이동 속도를 감속하여 정지한 후, 일방향으로 손을 이동하였다가 다시 상기 일방향의 반대 방향으로 이동하여 정지하는 동작으로 정의되는 것을 특징으로 하는 가상마우스의 구동방법.
The method of claim 2,
The click operation is defined as an operation of declining the moving speed of the hand at a position to be clicked and then stopping and then moving the hand in one direction and then moving in the opposite direction to the one direction to stop the virtual mouse. Driving method.
제2항에 있어서,
상기 클릭 동작은 클릭하고자 하는 위치에서 기설정된 방향으로 기설정된 거리만큼 손을 이동한 후, 상기 기설정된 방향의 반대 방향으로 손을 이동하여 상기 클릭하고자 하는 위치에서 기설정된 오차거리 이내의 위치로 되돌아오는 동작으로 정의되는 것을 특징으로 하는 가상마우스의 구동방법.
The method of claim 2,
The click operation moves a hand by a predetermined distance in a predetermined direction from a position to be clicked, and then moves the hand in a direction opposite to the predetermined direction to return to a position within a predetermined error distance from the position to be clicked. Method of driving a virtual mouse, characterized in that the coming operation.
제3항 또는 제4항에 있어서,
상기 클릭 동작은 기설정된 시간 이내에 수행되어야 하는 것을 특징으로 하는 가상마우스의 구동방법.
The method according to claim 3 or 4,
And wherein the click operation should be performed within a preset time.
제5항에 있어서,
상기 클릭 동작이 이루어지는 동안에는 화면 상에서의 포인터의 위치가 고정되는 것을 특징으로 하는 가상마우스의 구동방법.
The method of claim 5,
The position of the pointer on the screen is fixed while the click operation is performed.
제2항에 있어서,
상기 드래그 앤 드롭 동작은 드래그(drag) 동작과 드롭(drop) 동작으로 이루어지며,
상기 드래그 동작은, 드래그를 개시하는 드래그 개시 동작과, 상기 드래그가 개시된 이후 드래깅을 수행하는 연속 동작으로 이루어지며,
상기 드래그 개시 동작은, 드래깅을 시작하고자 하는 위치에서 손의 이동 속도를 감속하여 정지한 후 하방향으로 기설정된 거리만큼 기설정된 시간 내에 손을 이동한 후 기설정된 시간 동안 정지하는 동작으로 정의되며,
상기 연속 동작은 드래그 개시 이후 손을 목적 위치로 움직이는 동작으로 정의되는 것을 특징으로 하는 가상마우스의 구동방법.
The method of claim 2,
The drag and drop operation is composed of a drag operation and a drop operation,
The drag operation may include a drag start operation of initiating a drag and a continuous operation of performing dragging after the drag is started.
The drag initiation operation is defined as an operation of stopping a hand for a predetermined time after moving the hand within a predetermined time by a predetermined distance in a downward direction after decelerating and stopping the movement speed of the hand at a position to start dragging.
The continuous operation is a virtual mouse driving method, characterized in that the movement of moving the hand to the target position after the start of the drag.
제7항에 있어서,
상기 드롭 동작은 드래그 동작이 인식된 이후에 기설정된 방향으로 기설정된 거리만큼 기설정된 시간 내에 손을 이동한 후, 기설정된 시간 동안 정지하는 동작으로 정의하는 것을 특징으로 하는 가상마우스의 구동방법.
The method of claim 7, wherein
The drop operation may be defined as an operation of stopping a hand for a predetermined time after moving a hand within a predetermined time in a predetermined distance after the drag operation is recognized.
제7항 또는 제8항에 있어서,
상기 드래그 개시 동작 및 상기 드롭 동작이 이루어지는 동안에는 화면 상에서의 포인터의 위치가 고정되는 것을 특징으로 하는 가상마우스의 구동방법
9. The method according to claim 7 or 8,
The method of driving a virtual mouse, wherein the position of the pointer on the screen is fixed during the drag start operation and the drop operation.
KR1020120017604A 2012-02-21 2012-02-21 Virtual mouse driving method using hand motion recognition KR20130096073A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120017604A KR20130096073A (en) 2012-02-21 2012-02-21 Virtual mouse driving method using hand motion recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120017604A KR20130096073A (en) 2012-02-21 2012-02-21 Virtual mouse driving method using hand motion recognition

Publications (1)

Publication Number Publication Date
KR20130096073A true KR20130096073A (en) 2013-08-29

Family

ID=49219134

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120017604A KR20130096073A (en) 2012-02-21 2012-02-21 Virtual mouse driving method using hand motion recognition

Country Status (1)

Country Link
KR (1) KR20130096073A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9817507B2 (en) 2014-11-17 2017-11-14 Samsung Electronics Co., Ltd. Method and apparatus for detecting movement of object based on event
US9891713B2 (en) 2014-02-19 2018-02-13 Samsung Electronics Co., Ltd. User input processing method and apparatus using vision sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9891713B2 (en) 2014-02-19 2018-02-13 Samsung Electronics Co., Ltd. User input processing method and apparatus using vision sensor
US9817507B2 (en) 2014-11-17 2017-11-14 Samsung Electronics Co., Ltd. Method and apparatus for detecting movement of object based on event

Similar Documents

Publication Publication Date Title
CN107422950B (en) Projection touch image selection method
US11294470B2 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
CN104410883B (en) The mobile wearable contactless interactive system of one kind and method
JP6360050B2 (en) Method and system for simultaneous human-computer gesture-based interaction using unique noteworthy points on the hand
US20150220149A1 (en) Systems and methods for a virtual grasping user interface
US10095033B2 (en) Multimodal interaction with near-to-eye display
CN108845668B (en) Man-machine interaction system and method
JP6259545B2 (en) System and method for inputting a gesture in a 3D scene
US20150220150A1 (en) Virtual touch user interface system and methods
US8648808B2 (en) Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof
EP2538305A2 (en) System and method for close-range movement tracking
US20110118877A1 (en) Robot system and method and computer-readable medium controlling the same
US20130141327A1 (en) Gesture input method and system
CN109634300A (en) Based on the multiple no-manned plane control system and method every empty-handed gesture and ultrasonic wave touch feedback
KR101374720B1 (en) Virtual mouse control apparatus based on hand gesture and method thereof
US20130293460A1 (en) Computer vision based control of an icon on a display
WO2016026365A1 (en) Man-machine interaction method and system for achieving contactless mouse control
KR20150094680A (en) Target and press natural user input
WO2013149475A1 (en) User interface control method and device
KR101169583B1 (en) Virture mouse driving method
WO2014048251A1 (en) Touch identification apparatus and identification method
KR101233793B1 (en) Virtual mouse driving method using hand motion recognition
KR20130096073A (en) Virtual mouse driving method using hand motion recognition
KR101525011B1 (en) tangible virtual reality display control device based on NUI, and method thereof
CN107367966B (en) Man-machine interaction method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application