KR101579649B1 - Interface apparatus using gesture - Google Patents

Interface apparatus using gesture Download PDF

Info

Publication number
KR101579649B1
KR101579649B1 KR1020130120250A KR20130120250A KR101579649B1 KR 101579649 B1 KR101579649 B1 KR 101579649B1 KR 1020130120250 A KR1020130120250 A KR 1020130120250A KR 20130120250 A KR20130120250 A KR 20130120250A KR 101579649 B1 KR101579649 B1 KR 101579649B1
Authority
KR
South Korea
Prior art keywords
gesture
button
input means
finger
input
Prior art date
Application number
KR1020130120250A
Other languages
Korean (ko)
Other versions
KR20150041824A (en
Inventor
강익수
Original Assignee
강익수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강익수 filed Critical 강익수
Priority to KR1020130120250A priority Critical patent/KR101579649B1/en
Publication of KR20150041824A publication Critical patent/KR20150041824A/en
Application granted granted Critical
Publication of KR101579649B1 publication Critical patent/KR101579649B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 손가락에 착용하는 입력수단의 신호와 제스처를 연동하여 사용자의 입력시점을 파악하고, 이를 이용하여 제스처 인식의 정확도를 향상시켜 기존의 제스처 인식의 시스템보다 업그레이드되어 기존의 마우스나 키보드처럼 정확성, 편의성, 실용성을 확보한 제스처를 이용한 인터페이스장치에 관한 것이다.
본 발명에 의하면, 제스처 영상을 획득하기 위한 영상획득수단; 제스처와 연동되어 사용되는 신호를 입력받기 위한 입력수단; 및 상기 입력수단을 통해 입력받은 신호와 상기 영상획득수단으로부터 전달받은 제스처 영상으로부터 제스처를 인식하여 상기 인식된 제스처에 상응하는 명령어로 변환 및 처리하는 제어수단;을 포함하는 제스처를 이용한 인터페이스 장치를 제공한다.
The present invention relates to a gesture recognizing system that can recognize a user's input time by interlocking a signal of an input means worn on a finger and a gesture, , An interface device using a gesture ensuring convenience and practicality.
According to the present invention, there is provided an image processing apparatus comprising: image acquiring means for acquiring a gesture image; Input means for receiving a signal used in conjunction with a gesture; And control means for recognizing a gesture from a signal received through the input means and a gesture image transmitted from the image acquiring means and converting the processed gesture into a command corresponding to the recognized gesture, and an interface device using the gesture do.

Description

제스처를 이용한 인터페이스 장치{INTERFACE APPARATUS USING GESTURE}[0001] INTERFACE APPARATUS USING GESTURE [0002]

본 발명은 제스처를 이용한 인터페이스 장치에 관한 것이다. 보다 상세하게 설명하면, 손가락에 착용하는 입력수단의 신호와 제스처를 연동하여 사용자의 입력시점을 파악하고, 이를 이용하여 제스처 인식의 정확도를 향상시켜 기존의 제스처 인식의 시스템보다 업그레이드되어 기존의 마우스나 키보드처럼 정확성, 편의성, 실용성을 확보한 제스처를 이용한 인터페이스장치에 관한 것이다. The present invention relates to an interface device using a gesture. More specifically, the present invention relates to a gesture recognition system and a gesture recognition system. The gesture recognition system includes a gesture recognition unit, And an interface device using a gesture ensuring accuracy, convenience, and practicality as a keyboard.

새롭고 다양한 디지털 미디어의 보편화와 그에 맞는 각종 단말 장치의 등장과 함께, 다양한 입력 장치들이 등장하여 사용되고 있다. 기존의 대표적인 휴대형 입력 장치들로는 리모트 컨트롤러(이하, 리모컨이라 한다), 키보드, 마우스를 들 수 있다. Various input devices have been introduced and used along with the universalization of new and various digital media and the emergence of various terminal devices corresponding thereto. Exemplary portable input devices include a remote controller (hereinafter referred to as a remote controller), a keyboard, and a mouse.

하지만, 이러한 기존의 입력 장치들은 사용의 복잡성, 물리적 공간의 제약으로 인해 점차 새로운 입력 장치들이 이들의 기능을 대체하고 있으며, 이러한 현상은 특히 소형 단말 장치에 있어 두드러지게 나타나고 있다. 특히 이러한 입력 장치들의 대부분은 보고, 듣고 ,말하고, 만지고 혹은 움직이는 인간의 감각을 이용하여 인간친화적인 것이 특징이다. However, these conventional input devices gradually replace the functions of the new input devices due to the complexity of use and the limitation of the physical space, and this phenomenon is particularly remarkable in small-sized terminal devices. In particular, most of these input devices are characterized by being human-friendly using the human sense of seeing, hearing, speaking, touching or moving.

기존의 입력 장치를 대체, 또는 별도의 사용 가치를 지닐 것으로 예상되는 입력 장치들 중 하나로, 공간에서의 사용자의 동작을 인식하고 이를 해석하여 제어 대상 장치로 명령을 내리는 방식 및 장치들이 연구되고 있다.A method and an apparatus for recognizing an operation of a user in a space and issuing an instruction to the control target apparatus by interpreting the operation of the user in one of input devices expected to have a substitute value or a substitute for an existing input device have been researched.

3차원 공간상의 움직임을 감지하는 방법들 중 하나로, 카메라를 이용하여 사용자의 움직임을 실시간으로 파악하여 이를 해석하는 방법이 있다. 이 경우 일반 카메라가 아닌 3차원 영상을 획득할 수 있는 뎁스카메라(Depth Camera)가 필요하다. 특히 도 1과 같이 종래의 뎁스카메라를 이용한 시스템은 뎁스카메라만으로 사용자의 움직임을 파악하며, 사용자의 손가락이 정해진 가상의 공간(touch zone)에 들어오면 현재 손가락이 가리키는 대상을 선택하는 것으로 한다. 하지만, 이러한 뎁스카메라의 특성상 가림현상으로 인해 오류가 발생할 수 있으며, 명령을 내리기 위한 의도를 가진 사용자의 움직임만을 파악하기가 어렵다는 문제가 발생한다. One of the methods for detecting motion in three-dimensional space is to understand the movement of a user in real time using a camera and to analyze it. In this case, a depth camera capable of acquiring a three-dimensional image rather than a general camera is required. In particular, as shown in FIG. 1, a system using a conventional depth camera grasps the movement of a user with only a depth camera, and when a user's finger enters a predetermined virtual zone (touch zone), the current finger is selected. However, due to the nature of such a depth camera, an error may occur due to a blurring phenomenon, and it is difficult to grasp only a motion of a user who intends to issue a command.

한국등록특허공보 제10-1079270호Korean Patent Registration No. 10-1079270

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서 손가락에 착용하는 입력수단의 신호와 제스처를 연동하여 사용자의 입력시점을 파악하고, 이를 이용하여 제스처 인식의 정확도를 향상시켜 기존의 제스처 인식의 시스템보다 업그레이드되어 기존의 마우스나 키보드처럼 정확성, 편의성, 실용성을 확보한 제스처를 이용한 인터페이스장치를 제공하는데 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a gesture recognition method and a gesture recognition method, The present invention aims at providing an interface device using a gesture that has been upgraded from a system and secured with accuracy, convenience, and practicality as an existing mouse or keyboard.

본 발명에 의하면, 제스처 영상을 획득하기 위한 영상획득수단; 제스처와 연동되어 사용되는 신호를 입력받기 위한 입력수단; 및 상기 입력수단을 통해 입력받은 신호와 상기 영상획득수단으로부터 전달받은 제스처 영상으로부터 제스처를 인식하여 상기 인식된 제스처에 상응하는 명령어로 변환 및 처리하는 제어수단;을 포함하는 제스처를 이용한 인터페이스 장치를 제공한다. According to the present invention, there is provided an image processing apparatus comprising: image acquiring means for acquiring a gesture image; Input means for receiving a signal used in conjunction with a gesture; And control means for recognizing a gesture from a signal received through the input means and a gesture image transmitted from the image acquiring means and converting the processed gesture into a command corresponding to the recognized gesture, and an interface device using the gesture do.

한편, 상기 입력수단은 손가락에 착용 가능한 형태로서 바닥면에 상기 입력수단을 접촉한 상태에서 사용하는 것을 특징으로 한다. On the other hand, the input means is used in a state in which the input means is in contact with the floor surface as a form wearable on the finger.

한편, 상기 입력수단은 정면버튼, 좌측버튼, 우측버튼 및 상면버튼을 포함하며, 상기 정면버튼은 바닥면에 접촉된 상태에서 상기 입력수단의 커서가 이동되도록 하며, 상기 상면버튼은 상기 입력수단의 커서가 가리키는 대상을 스크롤시키며, 상기 좌측버튼 및 우측버튼은 가리키는 대상을 선택하는 기능을 가지며, 상기 입력수단의 기능은 상기 제어수단을 통해 지정될 수 있는 것을 특징으로 한다.The input unit may include a front button, a left button, a right button, and an upper button, and the front button may move the cursor of the input unit while the front button is in contact with the floor, And the left button and the right button have a function of selecting an object to be indicated, and the function of the input means can be specified through the control means.

한편, 상기 입력수단은 손가락에 착용 가능한 형태로서 바닥면으로부터 일정거리만큼 이격된 상태에서 상기 입력수단을 사용하는 것을 특징으로 한다. Meanwhile, the input means may be wearable on the finger, and the input means may be used while being spaced apart from the floor surface by a certain distance.

한편, 상기 입력수단은 정면버튼, 좌측버튼, 우측버튼 및 상면버튼을 포함하며, 상기 좌측버튼 및 우측버튼은 착용한 손가락의 좌측 및 우측의 손가락과 접지되어 있는지를 판단하며, 상기 정면버튼은 손가락이 가리키는 대상을 선택하며, 상기 상면버튼은 손가락이 가리키는 대상을 스크롤시키는 기능을 가지며, 상기 입력수단의 기능은 상기 제어수단을 통해 지정될 수 있는 것을 특징으로 한다.The input unit includes a front button, a left button, a right button, and a top button, and the left button and the right button determine whether the left and right fingers of the worn finger are in contact with each other. Wherein the upper surface button has a function of scrolling the object pointed by the finger, and the function of the input means can be specified through the control means.

본 발명은 사용자의 움직임 중 명령을 내리기 위한 의도를 가진 제스처를 구분할 수 있으며, 이는 제스처 인식의 정확도를 향상시킬 수 있는 효과가 있다. The present invention can distinguish a gesture having an intention to make an instruction of a user's motion, which can improve the accuracy of gesture recognition.

또한 뎁스카메라가 없을 때나 뎁스카메라가 있지만 손을 바닥에 붙이고 사용할 때 본 발명의 입력수단을 통해 2차원적으로(입력수단을 바닥면에 접촉한 상태에서 사용) 기존의 마우스와 유사한 기능을 구현할 수 있을 뿐만 아니라 본 발명의 입력수단을 통해 3차원적으로(입력수단을 바닥면과 일정거리만큼 이격된 상태에서 사용) 제스처에 의한 명령을 정확하게 조절할 수 있는 효과가 있다. Also, when there is no depth camera or a depth camera but the hand is attached to the floor, it can be implemented in two dimensions (using the input means in contact with the floor surface) through the input means of the present invention. In addition, it is possible to precisely control a command by the gesture three-dimensionally (using the input means at a distance from the floor surface by a certain distance) through the input means of the present invention.

도 1은 종래의 뎁스카메라를 이용하여 제스처를 인식하는 시스템을 나타내는 구성도이다.
도 2는 본 발명의 실시예에 따른 제스처를 이용한 인터페이스 장치의 구성도이다.
도 3은 본 발명의 실시예에 따른 제스처를 이용한 인터페이스 장치가 실제 구현되는 상태를 나타내는 도면이다.
1 is a block diagram showing a system for recognizing a gesture using a conventional depth camera.
2 is a configuration diagram of an interface device using a gesture according to an embodiment of the present invention.
3 is a diagram illustrating a state in which an interface device using a gesture according to an embodiment of the present invention is actually implemented.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to constituent elements of each drawing, it should be noted that the same constituent elements are denoted by the same reference numerals even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 2는 본 발명의 실시예에 따른 제스처를 이용한 인터페이스 장치의 구성도이고, 도 3은 본 발명의 실시예에 따른 제스처를 이용한 인터페이스 장치가 실제 구현되는 상태를 나타내는 도면이다. FIG. 2 is a configuration diagram of an interface device using a gesture according to an embodiment of the present invention, and FIG. 3 is a diagram illustrating a state in which an interface device using a gesture according to an embodiment of the present invention is actually implemented.

도 2 및 도 3을 참조하면, 본 발명에 의한 제스처를 이용한 인터페이스 장치(10)는 영상획득수단(100), 입력수단(200) 및 제어수단(300)을 포함한다. 2 and 3, an interface device 10 using a gesture according to the present invention includes an image acquiring unit 100, an input unit 200, and a control unit 300.

상기 영상획득수단(100)은 사용자의 제스처 영상을 획득하는 역할을 한다. 대표적으로 상기 영상획득수단(100)은 뎁스카메라(Depth camera) 등과 같은 형태로 구성될 것이며, 사람의 제스처 영상을 촬영하는 역할을 할 것이다. 특히 도 3을 보면, 영상획득수단(100)은 뎁스카메라의 형태로 구현되어 있으며, 이러한 뎁스카메라의 위치는 모니터(400)의 상단에 위치할 수도 있고, 또는 바닥면에 위치하여 바닥면의 상면을 촬영하는 형태로 구성될 수도 있을 것이다. The image acquiring unit 100 acquires a gesture image of the user. Typically, the image acquisition means 100 will be configured in the form of a depth camera or the like, and will take a role of shooting a gesture image of a person. 3, the image acquiring unit 100 is implemented in the form of a depth camera. The depth camera may be located at the top of the monitor 400, or may be located on the bottom surface, As shown in FIG.

상기 입력수단(200)은 제스처와 연동되어 사용되는 신호를 입력받는 역할을 한다. 특히 상기 입력수단(200)은 손가락에 착용 가능한 형태로서 구성되는 것이 바람직하다. 상기 입력수단(200)은 2차원적으로 또는 3차원적으로 이용이 가능하다. 즉, 2차원적이라 함은 바닥면에 입력수단(200)을 접촉한 상태에서 마치 마우스와 유사하게 사용하는 것을 말한다. 그리고 3차원적이라 함은 바닥면으로부터 일정거리만큼 이격된 상태에서 입력수단(200)을 사용하는 것을 말한다. 특히 입력수단(200)의 기능은 제어수단(300)을 통해 지정되어 다양하게 사용될 수 있을 것이다. The input means 200 receives a signal to be used in conjunction with a gesture. Particularly, it is preferable that the input means 200 is configured as a form wearable on a finger. The input means 200 can be used two-dimensionally or three-dimensionally. That is, the term " two-dimensional " means that the input means 200 is used in a state similar to a mouse in a state in which the input means 200 is in contact with the bottom surface. The term " three-dimensional object " refers to the use of the input means 200 while being spaced apart from the floor surface by a certain distance. In particular, the function of the input means 200 may be specified through the control means 300 and used variously.

좀 더 자세히 살펴보면, 상기 입력수단(200)은 정면버튼(210), 좌측버튼(220), 우측버튼(230) 및 상면버튼(240)을 포함한다. 이러한 버튼(210, 220, 230, 240)들은 버튼형태 뿐만 아니라 터치형태로도 구성이 가능할 것이다. 각 버튼들의 기능은 제어수단(300)을 통해 지정되어 다양한 형태로 활용이 가능할 것이다.More specifically, the input unit 200 includes a front button 210, a left button 220, a right button 230, and a top button 240. These buttons 210, 220, 230, and 240 may be configured as a touch as well as a button. The function of each button may be designated through the control means 300 and utilized in various forms.

만약, 2차원적으로 입력수단(200)을 이용할 경우, 마치 사용자가 마우스를 이용하는 경우와 비슷하다. 예를 들어, 정면버튼(210)은 바닥면에 접촉된 상태에서 입력수단(200)의 커서가 이동되도록 하며, 상면버튼(240)은 입력수단(200)이 가리키는 대상을 스크롤(상하 또는 좌우 이동)시키며, 좌측버튼(220) 및 우측버튼(230)은 가리키는 대상을 선택할 때 사용될 수 있다. If the input means 200 is used two-dimensionally, it is similar to the case where the user uses a mouse. For example, when the front button 210 is in contact with the floor, the cursor of the input means 200 is moved. The top button 240 scrolls the target pointed by the input means 200 ), And the left button 220 and the right button 230 can be used to select an object to be pointed.

따라서 2차원적으로 입력수단(200)을 이용하는 경우에는 손가락에 상기 입력수단(200)을 착용한 상태에서 정면버튼(210)을 바닥면에 접촉시켜 마치 마우스가 이동하는 것처럼 입력수단(200)의 커서를 이동시키는 것과 동일한 형태가 될 것이며, 상면버튼(240)은 마우스의 스크롤 기능(상하 또는 좌우 이동)과 동일한 형태가 될 것이며, 좌측버튼(220)과 우측버튼(230)은 마우스의 왼쪽버튼과 오른쪽버튼과 동일하게 모니터(400) 등의 출력장치에서 커서가 가리키는 대상을 선택하는 기능 등을 하게 될 것이다. Therefore, when the input means 200 is used two-dimensionally, the front button 210 is brought into contact with the floor surface while the input means 200 is worn on the finger, The upper button 240 will have the same shape as the scroll function of the mouse (up or down or left and right), and the left button 220 and the right button 230 will have the same shape as moving the cursor. And a function of selecting an object indicated by the cursor on an output device such as the monitor 400 in the same manner as the right button.

또한 3차원적으로 입력수단(200)을 이용할 경우, 도 3에서 보는 바와 같이 사용자가 바닥면으로부터 일정거리만큼 이격된 상태에서 한손 또는 양손의 손가락(500)에 입력수단(200)을 착용한 상태에서 사용이 될 것이다. 3, when the input means 200 is used three-dimensionally, as shown in FIG. 3, when the user is separated from the floor by a predetermined distance and the input means 200 is worn on the finger 500 of one or both hands Will be used in.

이때, 좌측버튼(220) 및 우측버튼(230)은 일반적인 기능 뿐만 아니라 착용한 손가락의 좌측 및 우측의 손가락과 접지되어 있는지를 판단하는 기능을 가진다. 따라서, 검지(두번째 손가락)와 중지(세번째 손가락)가 붙은 경우에는 좌측버튼(220)이 눌려지거나 터치될 것이며, 약지(네번째 손가락)와 중지(세번째 손가락)가 붙은 경우에는 우측버튼(230)이 눌려지거나 터치될 것이다. 즉, 검지와 중지 또는 약지와 중지가 붙어 있는지는 좌측버튼(220)과 우측버튼(230)이 눌려져 있는지로 판단하여 두 손가락(검지와 중지 또는 약지와 중지) 또는 세 손가락(검지, 중지 및 약지)에 의한 제스처인지를 판단할 수 있게 된다. At this time, the left button 220 and the right button 230 have a function of judging whether or not the left and right fingers of the worn finger are in contact with the ground, as well as general functions. Accordingly, when the index finger (second finger) and the stop finger (third finger) are attached, the left button 220 is pressed or touched. When the finger (fourth finger) It will be pressed or touched. That is, it is judged whether the left button 220 and the right button 230 are pressed to determine whether the finger is detected and stopped or the finger and stop are attached. The two fingers (index finger, stop finger or stop finger) It is possible to judge whether the gesture is caused by the gesture.

또한 입력수단(200)이 손가락에 착용된 상태에서 정면버튼(210)을 누르거나 터치할 경우 모니터(400) 상에서 손가락이 가리키는 대상을 선택할 수 있으며, 상면버튼(240)을 누르거나 터치할 경우 모니터(400) 상에서 손가락이 가리키는 대상을 스크롤(상하 또는 좌우 이동)시킬 수 있을 것이다. When the front button 210 is pressed or touched while the input means 200 is worn on the finger, the user can select an object to be pointed by the finger on the monitor 400. When the user touches or touches the top button 240, The user can scroll (vertically or horizontally) a target pointed by the finger on the display 400.

도 3에서 상기 입력수단(200)은 손가락에 끼워지는 일반적인 형태로 표현했을뿐 얼마든지 디자인적인 변형은 가능할 것이다. 또한 입력수단(200)이 2차원적인지 아니면 3차원적인지는 영상획득수단(100)을 통해 전체적인 손의 위치가 바닥면에 접촉했는지 또는 바닥면으로부터 일정거리만큼 이격되었는지를 파악하여 결정할 수 있을 것이다. In FIG. 3, the input means 200 may be modified in design as long as it is expressed in a general form to be inserted in a finger. Also, the input means 200 may be two-dimensionally or three-dimensionally determined by determining whether the position of the entire hand is in contact with the floor surface or a predetermined distance from the floor surface through the image acquisition means 100.

따라서 한손 또는 양손의 손가락에 입력수단(200)을 착용한 상태에서 어떠한 제스처를 취할 경우 영상획득수단(100)이 실시간으로 제스처 영상을 획득하게 되고, 입력수단(200)의 버튼들의 누름 혹은 터치와 연동되어 해당 제스처에 대해 정의된 동작을 하게 되는 것이다. 따라서 입력수단(200)의 입력값과 제스처를 연동시켜 제스처의 입력시점을 정확히 파악할 수 있고, 이를 이용하여 제스처에 의한 인식의 정확도를 향상시켜 제스처 인식에 대한 오차를 줄일 수 있게 된다. Therefore, when any gesture is taken with the input means 200 worn on the fingers of one hand or both hands, the image acquiring means 100 acquires the gesture image in real time, and the pressing or touching of the buttons of the input means 200 The gesture is interlocked and the action defined for the gesture is performed. Therefore, the input time of the gesture can be accurately grasped by interlocking the input value of the input means 200 with the gesture, and the accuracy of recognition by the gesture can be improved by using the input time of the gesture.

상기 제어수단(300)은 입력수단(200)을 통해 입력받은 신호와 영상획득수단(100)으로부터 전달받은 영상을 처리하여 제스처를 인식하고 정의된 명령어로 변환 및 처리하는 역할을 한다. 상기 제어수단(300)은 컴퓨터나 서버 등에 일정한 프로그램 형식으로 내장될 수 있을 것이다. 따라서 입력수단(200)의 각 버튼들(210, 220, 230, 240)의 기능이나 두 손가락 또는 세 손가락의 움직임 등에 대한 각각의 기능별 정의는 제어수단(300)을 통해 사용자가 정의할 수 있을 것이다. 그리고 이러한 제스처에 상응하는 명령 수행은 모니터(400) 등을 통해 사용자가 확인할 수 있을 것이다. The control unit 300 processes the signal input through the input unit 200 and the image received from the image acquiring unit 100, recognizes the gesture, and converts and processes the gesture into a defined command. The control means 300 may be embedded in a computer or a server in a predetermined program format. Therefore, each function definition of the function of each button 210, 220, 230, 240 of the input means 200 or the movement of two or three fingers can be defined by the user through the control means 300 . The instruction execution corresponding to the gesture may be confirmed by the user through the monitor 400 or the like.

따라서 본 발명에 의한 제스처를 이용한 인터페이스 장치를 이용할 경우 3차원 CAD(computer-aided design) 입력장치, 역동적인 프리젠테이션 도구, 태블릿 PC 대용 혹은 게임 입력장치 등으로 사용이 가능할 것이다. 그리고 본 발명에 의한 제스처를 이용한 인터페이스 장치를 이용할 경우 제스처 인식에 대한 정확성, 편의성, 실용성을 모두 확보할 수 있게 된다. Therefore, when the interface device using the gesture according to the present invention is used, it can be used as a three-dimensional computer-aided design (CAD) input device, a dynamic presentation tool, a tablet PC substitute, or a game input device. When the interface device using the gesture according to the present invention is used, accuracy, convenience, and practicality of gesture recognition can be secured.

이상의 설명은 본 발명을 예시적으로 설명한 것에 불과한 것으로, 본 발명이 속하는 기술분야에서 통상의 지식을 가지는 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 변형이 가능할 것이다. 따라서 본 명세서에 개시된 실시예들은 본 발명을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 사상과 범위가 한정되는 것은 아니다. 본 발명의 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. Therefore, the embodiments disclosed in the present specification are intended to illustrate rather than limit the present invention, and the scope and spirit of the present invention are not limited by these embodiments. The scope of the present invention should be construed according to the following claims, and all the techniques within the scope of the present invention should be construed as being included in the scope of the present invention.

10: 제스처를 이용한 인터페이스 장치
100: 영상획득수단
200: 입력수단
210: 정면버튼
220: 좌측버튼
230: 우측버튼
240: 상면버튼
300: 제어수단
400: 모니터
500: 손가락
10: Interface device using gestures
100: image acquiring means
200: input means
210: Front button
220: Left button
230: Right button
240: Top button
300: control means
400: Monitor
500: Finger

Claims (5)

제스처 영상을 획득하기 위한 영상획득수단;
제스처와 연동되어 사용되는 신호를 입력받기 위한 입력수단; 및
상기 입력수단을 통해 입력받은 신호와 상기 영상획득수단으로부터 전달받은 제스처 영상으로부터 제스처를 인식하여 상기 인식된 제스처에 상응하는 명령어로 변환 및 처리하는 제어수단;을 포함하되,
상기 입력수단은 손가락에 착용 가능한 형태로서 바닥면에 상기 입력수단을 접촉한 상태에서 사용할 수 있으며, 상기 입력수단은 정면버튼, 좌측버튼, 우측버튼 및 상면버튼을 포함하며, 상기 정면버튼은 바닥면에 접촉된 상태에서 상기 입력수단의 커서가 이동되도록 하며, 상기 상면버튼은 상기 입력수단의 커서가 가리키는 대상을 스크롤 시키며, 상기 좌측버튼 및 우측버튼은 가리키는 대상을 선택하는 기능을 가지며,
또는 상기 입력수단은 손가락에 착용 가능한 형태로서 바닥면으로부터 일정거리만큼 이격된 상태에서 상기 입력수단을 사용 가능하며, 상기 입력수단은 정면버튼, 좌측버튼, 우측버튼 및 상면버튼을 포함하며, 상기 좌측버튼 및 우측버튼은 착용한 손가락의 좌측 및 우측의 손가락과 접지되어 있는지를 판단하며, 상기 정면버튼은 손가락이 가리키는 대상을 선택하며, 상기 상면 버튼은 손가락이 가리키는 대상을 스크롤시키는 기능을 가지며, 상기 입력수단의 기능은 상기 제어수단을 통해 지정될 수 있는 것을 특징으로 하는 제스처를 이용한 인터페이스 장치.
An image acquiring means for acquiring a gesture image;
Input means for receiving a signal used in conjunction with a gesture; And
And control means for recognizing the gesture from the signal input through the input means and the gesture image transmitted from the image acquiring means and converting and processing the gesture image into a command corresponding to the recognized gesture,
Wherein the input means includes a front button, a left button, a right button and a top button, and the front button is a bottom surface The upper surface button scrolls the object indicated by the cursor of the input means and the left button and the right button select the object to be pointed to,
Alternatively, the input means can be used with the input means in a form wearable on the finger and spaced a distance from the floor surface, and the input means includes a front button, a left button, a right button and a top button, Wherein the front button is used to select an object to be pointed by the finger and the top button has a function of scrolling an object to which the finger is pointing, And the function of the input means can be designated through the control means.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020130120250A 2013-10-10 2013-10-10 Interface apparatus using gesture KR101579649B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130120250A KR101579649B1 (en) 2013-10-10 2013-10-10 Interface apparatus using gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130120250A KR101579649B1 (en) 2013-10-10 2013-10-10 Interface apparatus using gesture

Publications (2)

Publication Number Publication Date
KR20150041824A KR20150041824A (en) 2015-04-20
KR101579649B1 true KR101579649B1 (en) 2015-12-22

Family

ID=53035120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130120250A KR101579649B1 (en) 2013-10-10 2013-10-10 Interface apparatus using gesture

Country Status (1)

Country Link
KR (1) KR101579649B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101196291B1 (en) * 2010-07-26 2012-11-09 이종우 Terminal providing 3d interface by recognizing motion of fingers and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090049868A (en) * 2007-11-14 2009-05-19 엘지전자 주식회사 Remote control apparatus and its method for controlling mobile terminal
KR101079270B1 (en) 2009-06-29 2011-11-03 한국과학기술원 Three dimensional input device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101196291B1 (en) * 2010-07-26 2012-11-09 이종우 Terminal providing 3d interface by recognizing motion of fingers and method thereof

Also Published As

Publication number Publication date
KR20150041824A (en) 2015-04-20

Similar Documents

Publication Publication Date Title
KR101872426B1 (en) Depth-based user interface gesture control
EP2817693B1 (en) Gesture recognition device
CA2811868C (en) Operation input apparatus, operation input method, and program
KR101791366B1 (en) Enhanced virtual touchpad and touchscreen
US20160092062A1 (en) Input support apparatus, method of input support, and computer program
WO2012154001A3 (en) Touch recognition method in a virtual touch device that does not use a pointer
WO2013190538A1 (en) Method for touchless control of a device
US20160162098A1 (en) Method for providing user interface using multi-point touch and apparatus for same
US20150355769A1 (en) Method for providing user interface using one-point touch and apparatus for same
US20150253918A1 (en) 3D Multi-Touch
TWI486815B (en) Display device, system and method for controlling the display device
JPWO2012111227A1 (en) Touch-type input device, electronic apparatus, and input method
KR101579649B1 (en) Interface apparatus using gesture
KR101394604B1 (en) method for implementing user interface based on motion detection and apparatus thereof
CN106575184B (en) Information processing apparatus, information processing method, and computer readable medium
Chen et al. Unobtrusive touch‐free interaction on mobile devices in dirty working environments
KR101506197B1 (en) A gesture recognition input method using two hands
KR20140086805A (en) Electronic apparatus, method for controlling the same and computer-readable recording medium
AU2015252151B2 (en) Enhanced virtual touchpad and touchscreen
KR20140101276A (en) Method of displaying menu based on depth information and space gesture of user
KR101184742B1 (en) Contactless method for recognizing a direction by hand movement
Morelli et al. Back-Pointer—Fitts' law analysis of natural mobile camera based interactions
KR20140021166A (en) Two-dimensional virtual touch apparatus
TW201537389A (en) Gesture recognition method for motion sensing detector
TWI540516B (en) Three dimensional hand-writing input method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181016

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191109

Year of fee payment: 5