KR101348763B1 - Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor - Google Patents

Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor Download PDF

Info

Publication number
KR101348763B1
KR101348763B1 KR1020120051979A KR20120051979A KR101348763B1 KR 101348763 B1 KR101348763 B1 KR 101348763B1 KR 1020120051979 A KR1020120051979 A KR 1020120051979A KR 20120051979 A KR20120051979 A KR 20120051979A KR 101348763 B1 KR101348763 B1 KR 101348763B1
Authority
KR
South Korea
Prior art keywords
gesture
electronic device
recognized
information
unit
Prior art date
Application number
KR1020120051979A
Other languages
Korean (ko)
Other versions
KR20130128143A (en
Inventor
이도훈
장원앙
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Priority to KR1020120051979A priority Critical patent/KR101348763B1/en
Publication of KR20130128143A publication Critical patent/KR20130128143A/en
Application granted granted Critical
Publication of KR101348763B1 publication Critical patent/KR101348763B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 디스플레이 화면에 표시되는 선택 메뉴판의 직접적인 선택 없이 카메라에서 촬영된 영상을 이용하여 사용자의 손동작에 따른 움직임(제스처)만을 인식하여 전자기기의 인터페이스를 조작하기 위한 장치 및 방법을 제공하기 위한 것으로서, 상기 선택 메뉴판을 기반으로 움직이는 손동작의 움직임의 연속적으로 촬영영상을 출력하는 영상 획득부와, 상기 영상 획득부에서 출력되는 영상에서 인식되는 사용자 신체의 포인트의 개수에 따라 적어도 2개 이상의 제스처를 인식하는 제스처 인식부와, 미리 저장되어 있는 제스처 정보 중 상기 인식된 제스처와 비교하여 서로 매칭되는 제스처 정보를 검출하는 제스처 정보 비교부와, 상기 검출된 제스처 정보를 이용하여 순서열을 생성하고, 생성된 순서열에 상응하는 전자기기의 조작 명령 메시지를 미리 저장되어 있는 저장부에서 검출하여 해당 전자기기의 주 제어부로 출력하는 기능 처리부를 포함하여 구성되는데 있다.The present invention provides an apparatus and method for manipulating an interface of an electronic device by recognizing only a movement (gesture) according to a user's hand gesture using an image captured by a camera without directly selecting a selection menu plate displayed on a display screen. At least two gestures according to the number of points of the user's body recognized in the image output from the image acquisition unit; Generating a sequence sequence using a gesture recognition unit for recognizing a gesture, a gesture information comparison unit for detecting gesture information matched with each other in comparison with the recognized gesture among prestored gesture information, and a sequence sequence using the detected gesture information, Operation command message of the electronic device corresponding to the generated sequence Detected in the storage unit that is pre-stored in it consists of including the function processor and outputting to the main control unit of the electronic apparatus.

Description

손동작에 의한 인터페이스 조작 장치 및 방법, 그리고 컴퓨터로 읽을 수 있는 기록매체{Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor}Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor}

본 발명은 카메라에서 촬영된 영상을 이용하여 사용자의 움직임(제스처)을 인식하여 전자기기의 인터페이스를 조작하기 위한 장치 및 방법에 관한 것으로, 특히 사용자의 손끝점을 인식하여 구분되는 손동작에 따라 생성되는 순서열로 조작 명령을 정의함으로써, 전자기기의 인터페이스를 조작하기 위한 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for manipulating an interface of an electronic device by recognizing a user's movement (gesture) using an image captured by a camera, and in particular, generated according to a hand gesture distinguished by recognizing a user's finger point. An apparatus and method for manipulating an interface of an electronic device by defining operation commands in an ordered sequence.

최근 스마트폰과 같이 터치패널을 구비한 전자기기들이 많이 사용되고 있다. 이러한 터치패널 기술은 기존 마우스로 조작 가능한 컴퓨터 등의 전자기기와 비교할 때, 디스플레이에 포인터를 표시할 필요가 없다. 즉, 사용자는 전자기기 조작을 위해 포인터(컴퓨터의 커서)를 해당 위치(예, 프로그램 아이콘)까지 이동시킬 필요 없이, 손가락을 직접 아이콘 위로 이동한 후 터치하여 동작을 수행한다.Recently, electronic devices having a touch panel such as a smart phone are widely used. This touch panel technology does not need to display a pointer on the display, compared to electronic devices such as computers that can be operated with a conventional mouse. That is, the user does not need to move the pointer (cursor of the computer) to a corresponding position (for example, a program icon) in order to operate the electronic device. Instead, the user directly moves a finger over the icon and touches it.

이러한 터치패널 기술에서는 기존 전자기기 제어수단으로 필수적인 포인터 이동단계가 불필요하여 전자기기의 빠른 조작이 가능하다.In such a touch panel technology, a pointer movement step, which is essential as an existing electronic device control unit, is unnecessary, so that the electronic device can be quickly operated.

그러나 터치패널 기술은 위와 같은 편리성에도 불구하고 사용자가 디스플레이 표시면을 직접 터치해야 하기 때문에 원격에서는 이용할 수 없다는 단점이 있다. 따라서 터치패널 기술을 채용하는 전자기기라 하더라도 원격 조작을 위해서는 종래 리모컨과 같은 장치에 의존할 수밖에 없다.However, despite the above convenience, the touch panel technology cannot be used remotely because the user needs to touch the display surface directly. Therefore, even an electronic device employing a touch panel technology can not but rely on a device such as a conventional remote control for remote operation.

최근 원격 전자기기 제어장치로서 터치패널 기술과 같이 정확한 지점에 포인터를 생성할 수 있는 장치, 즉 2대의 카메라를 이용하여 디스플레이 전면을 촬영한 후 촬영된 이미지로부터 사용자의 눈과 손가락의 연장 직선이 디스플레이와 만나는 점에 포인터를 생성시키는 기술이 공개된 특허출원 문헌(국내공개특허 제2010-0129629호 2010.12.09)에서 공개된 바 있다.Recently, as a remote electronic control device, a device capable of generating a pointer at an accurate point, such as touch panel technology, that is, a straight line of the user's eyes and fingers is displayed from the captured image after photographing the front of the display using two cameras. A technique for generating a pointer at a point meeting with has been disclosed in the published patent application document (Korean Patent Publication No. 2010-0129629 2010.12.09).

그러나 이러한 종래기술들은 반드시 디스플레이 화면에 원격 조작을 통한 선택 메뉴판을 표시하여야 하고, 사용자는 디스플레이 화면에 표시되는 메뉴판을 화면에 생성된 포인터를 이동시키면서 직접 선택(터치)을 수행하여야 한다. 이에 따라, 디스플레이 화면에 표시되는 선택 메뉴판은 원거리에서도 식별이 가능해야 함은 물론 선택 메뉴판에 표시되는 메뉴 중 원거리에서 특정 메뉴를 정확하게 선택해야 함에 따라, 디스플레이 화면에 표시되는 선택 메뉴판의 크기를 크고 선명하게 표시하여야 한다. However, these conventional technologies must display a selection menu panel through a remote operation on the display screen, and the user must directly select (touch) the menu panel displayed on the display screen while moving the pointer generated on the screen. Accordingly, the selection menu panel displayed on the display screen must be distinguishable from a distance, and the size of the selection menu panel displayed on the display screen must be accurately selected from a long distance among the menus displayed on the selection menu panel. Should be displayed large and clear.

이에 따라, 디스플레이 화면의 전체 또는 많은 부분을 선택 메뉴판으로 가려야만 하는 문제점이 있을 뿐만 아니라, 선택 메뉴판이 표시되는 디스플레이 화면 역시 커야만 하는 문제점이 있다. 이때, 디스플레이 화면이 크기 위해서는 소형의 전자기기에는 그 적용이 불가능하거나 사용상에 어려움이 있는 문제점이 있다. Accordingly, not only the entire screen or a large portion of the display screen needs to be covered by the selection menu panel, but also the display screen on which the selection menu panel is displayed also needs to be large. At this time, the display screen is large, there is a problem that can not be applied to a small electronic device or difficult to use.

따라서 본 발명은 상기와 같은 문제점을 해결하기 위해 안출한 것으로서, 디스플레이 화면에 표시되는 선택 메뉴판의 직접적인 선택 없이 카메라에서 촬영된 영상을 이용하여 사용자의 손동작에 따른 움직임(제스처)만을 인식하여 전자기기의 인터페이스를 조작하기 위한 장치 및 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention has been made to solve the above problems, by using only the image captured by the camera without direct selection of the selection menu panel displayed on the display screen to recognize the movement (gesture) according to the user's hand gestures electronic devices It is an object of the present invention to provide an apparatus and method for operating the interface of the.

본 발명의 다른 목적은 사용자의 손동작의 정의하고, 정의된 손동작의 순서열을 행렬로 구성하고, 행렬의 인덱스를 조합으로 하나의 명령어를 정의함으로써, 미리 저장되어 있는 순서열과 매칭되는 명령을 수행 후, 해당되는 명령의 결과를 음성으로 안내하는 전자기기의 인터페이스를 조작하기 위한 장치 및 방법을 제공하는데 있다.Another object of the present invention is to define a user's hand gestures, configure a sequence of the defined hand gestures as a matrix, and define a single command by combining the indices of the matrix, thereby performing a command matching a previously stored sequence. The present invention provides an apparatus and method for manipulating an interface of an electronic device for guiding a result of a corresponding command by voice.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 손동작에 의한 인터페이스 조작 장치의 특징은 상기 선택 메뉴판을 기반으로 움직이는 손동작의 움직임의 연속적으로 촬영영상을 출력하는 영상 획득부와, 상기 영상 획득부에서 출력되는 영상에서 인식되는 사용자 신체의 포인트의 개수에 따라 적어도 2개 이상의 제스처를 인식하는 제스처 인식부와, 미리 저장되어 있는 제스처 정보 중 상기 인식된 제스처와 비교하여 서로 매칭되는 제스처 정보를 검출하는 제스처 정보 비교부와, 상기 검출된 제스처 정보를 이용하여 순서열을 생성하고, 생성된 순서열에 상응하는 전자기기의 조작 명령 메시지를 미리 저장되어 있는 저장부에서 검출하여 해당 전자기기의 주 제어부로 출력하는 기능 처리부를 포함하여 구성되는데 있다.In order to achieve the above object, a feature of an interface manipulation apparatus by a hand gesture according to the present invention is an image acquisition unit for continuously outputting a photographed image of a movement of a hand movement based on the selection menu plate, and in the image acquisition unit. A gesture recognition unit for recognizing at least two or more gestures according to the number of points of the user's body recognized in the output image, and a gesture for detecting gesture information matched with each other in comparison with the recognized gestures among previously stored gesture information Generates an order sequence using the information comparison unit and the detected gesture information, detects an operation command message of the electronic device corresponding to the generated order sequence in a storage unit that is stored in advance, and outputs it to the main control unit of the corresponding electronic device. It is configured to include a function processing unit.

바람직하게 미리 저장되어 있는 선택 메뉴판 정보 중 해당되는 전자기기의 인터페이스 조작을 선택하기 위한 선택 메뉴판을 상기 디스플레이부에 제공하는 화면 처리부를 더 포함하여 구성되는 것을 특징으로 한다.Preferably, the apparatus further comprises a screen processing unit which provides the display unit with a selection menu plate for selecting an interface operation of a corresponding electronic device from among previously stored selection menu plate information.

바람직하게 상기 디스플레이부는 전자기기에 일체형으로 구비되거나, 또는 별도로 구비되는 독립적인 기기인 것을 특징으로 한다.Preferably, the display unit is integrally provided with an electronic device, or is an independent device provided separately.

바람직하게 상기 제스처 인식부에서 인식되는 포인트는 손끝점인 것을 특징으로 한다.Preferably, the point recognized by the gesture recognition unit is a fingertip point.

바람직하게 상기 기능 처리부는 상기 순서열을 행렬로 구성하고, 행렬의 인덱스를 제스처 정보로 표현하여 행렬의 제스처 정보들의 조합으로 하나의 조작 명령 메시지를 저장부에서 검출하는 것을 특징으로 한다.Preferably, the function processing unit configures the sequence as a matrix, and expresses an index of the matrix as gesture information to detect a manipulation command message in the storage unit by combining gesture information of the matrix.

바람직하게 상기 기능 처리부는 상기 해당 전자기기 주 제어부의 출력을 광무선 통신 방식 또는 근거리 유무선 통신 방식을 이용하여 제공하는 것을 특징으로 한다.Preferably, the function processing unit may provide an output of the main control unit of the electronic device using an optical wireless communication method or a short-range wired or wireless communication method.

바람직하게 상기 제스처 인식부에서 포인트의 개수에 따라 인식되는 제스처의 인식 결과를 음성을 통해 외부로 출력하는 음성 안내부를 더 포함하는 것을 특징으로 한다.Preferably, the gesture recognition unit may further include a voice guide unit configured to output the recognition result of the gesture recognized according to the number of points to the outside through voice.

바람직하게 상기 음성 안내부는 상기 기능 처리부에서 출력되는 전자기기의 조작 명령 메시지를 음성을 통해 외부로 출력하는 것을 특징으로 한다.Preferably, the voice guide unit outputs an operation command message of the electronic device output from the function processor to the outside through voice.

바람직하게 상기 인터페이스 조작 장치는 적어도 하나 이상의 전자기기의 인터페이스 조작을 위한 선택 메뉴판 정보를 저장하는 선택 메뉴판 정보 DB, 손끝점의 개수에 따라 정의되는 제스처 정보를 저장하는 제스처 정보 DB, 제스처 정보에 상응하는 조작 명령 메시지를 순서열에 따라 다수의 전자기기 별로 저장하는 조작 명령 정보 DB, 5가지 손동작 인식 및 전자기기의 조작 명령에 해당되는 음성 정보를 저장하는 음성 정보 DB를 포함하는 저장부를 더 포함하는 것을 특징으로 한다.Preferably, the interface manipulation apparatus includes a selection menu plate information DB for storing selection menu plate information for interface manipulation of at least one or more electronic devices, a gesture information DB for storing gesture information defined according to the number of fingertips, and gesture information. The apparatus further includes a storage unit including a manipulation command information DB for storing a corresponding manipulation command message for each of a plurality of electronic devices according to an order sequence, and a voice information DB storing five hand gesture recognition and voice information corresponding to the manipulation command of the electronic device. It is characterized by.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 손동작에 의한 인터페이스 조작 방법의 특징은 (A) 사용자의 움직임을 통해 인식되는 사용자 신체의 포인트의 개수에 따라 적어도 2개 이상의 제스처를 인식하는 단계와, (B) 상기 인식된 제스처가 미리 정의되어 있는 순서열의 마지막 번째 제스처가 될 때 까지 상기 (A) 과정을 반복 수행하는 단계와, (C) 상기 마지막 번째까지 인식된 제스처를 이용하여 순서열을 생성하고, 상기 생성된 순서열에 상응하여 미리 저장되어 있는 전자기기의 조작 명령 메시지와 비교하여 매칭되는 전자기기의 조작 명령 메시지를 검출하는 단계와, (D) 상기 검출된 전자기기의 조작 명령 메시지를 해당되는 전자기기 주 제어부로 출력하는 단계를 포함하여 이루어지는데 있다.Features of the interface operation method by the hand gesture according to the present invention for achieving the above object is (A) recognizing at least two or more gestures in accordance with the number of points of the user's body recognized through the movement of the user, (B) repeating step (A) until the recognized gesture becomes the last gesture of a predefined sequence, and (C) generating the sequence using the recognized gesture up to the last And detecting an operation command message of a matched electronic device in comparison with an operation command message of an electronic device previously stored in correspondence with the generated sequence, and (D) converting the operation command message of the detected electronic device into a corresponding message. And outputting to the main control unit of the electronic device.

바람직하게 상기 (A) 단계 이전에 디스플레이부 및 카메라를 활성화시켜, 상기 디스플레이부에는 미리 저장되어 있는 인터페이스 조작을 선택하기 위한 선택 메뉴판을 표시하고, 상기 카메라에는 전면에 위치하는 사용자를 촬영하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the step of activating the display unit and the camera before step (A), displaying a selection menu panel for selecting a pre-stored interface operation on the display unit, and photographing a user located in front of the camera It characterized in that it further comprises.

바람직하게 상기 (A) 단계는 (A1) 사용자의 움직임이 감지되면, 감지되는 사용자의 움직임을 통해 손끝점을 인식하는 단계와, (A2) 상기 인식되는 손끝점의 개수에 따라 5가지의 손동작(제스처)으로 구분하는 단계와, (A3) 미리 저장되어 있는 제스처 정보와 비교하여 매칭여부를 통해 제스처 인식을 수행하는 단계를 포함하는 것을 특징으로 한다.Preferably, in step (A), when the user's movement is detected, step (A1) recognizes a fingertip through the detected user's movement, and (A2) five hand gestures according to the number of the recognized fingertips ( Gesture), and (A3) performing gesture recognition by matching with the previously stored gesture information.

바람직하게 상기 (A1) 단계는 미리 설정된 시간동안 인식되는 손끝점의 변화를 판단하는 단계와, 상기 판단 결과, 손끝점의 변화가 없는 경우에는 손끝점의 인식이 성공한 것으로 판단하는 단계와, 상기 판단 결과, 손끝점의 변화가 있는 경우에는 손끝점의 인식이 실패한 것으로 판단하고 상기 (A) 단계를 반복하는 것을 특징으로 한다.Preferably, the step (A1) is a step of determining the change of the fingertip point recognized for a predetermined time, and if the change of the fingertip point, as a result of the determination, determining that the fingertip recognition is successful, and the determination As a result, when there is a change in the fingertip, it is determined that the recognition of the fingertip has failed, and the above step (A) is repeated.

바람직하게 상기 (A3) 단계에서 매칭이 이루어지지 않는 경우에는 제스처 인식이 실패한 것으로 판단하여 상기 (A) 단계를 반복하는 것을 특징으로 한다.Preferably, when matching is not performed in the step (A3), it is determined that gesture recognition has failed, and the step (A) is repeated.

바람직하게 상기 인식된 적어도 2개 이상의 제스처를 음성으로 외부로 출력하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.The method may further include outputting the recognized at least two gestures to the outside by voice.

바람직하게 상기 (C) 단계는 상기 생성된 순서열을 행렬로 구성하는 단계와,Preferably, the step (C) comprises the step of constructing the generated sequence sequence in a matrix,

상기 첫 번째 인식된 제스처를 첫 번째 행렬로 이용하여 열의 인덱스로 설정하는 단계와, 상기 두 번째 인식된 제스처를 두 번째 행렬로 이용하여 행의 인덱스로 설정하는 단계와, 상기 첫 번째 행렬 및 두 번째 행렬의 제스처 정보들의 행렬 조합으로 선택되는 하나의 전자기기의 조작 명령 메시지를 검출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.Setting the first recognized gesture as an index of a column using the first recognized gesture, setting the index of a row using the second recognized gesture as a second matrix, the first matrix and the second And detecting an operation command message of one electronic device selected by the matrix combination of the gesture information of the matrix.

바람직하게 상기 전자기기 주 제어부로 출력되는 전자기기의 조작 명령 메시지를 음성을 통해 외부로 출력하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include outputting an operation command message of the electronic device output to the main controller of the electronic device to the outside through a voice.

또한, 위에서 설명하고 있는 손동작에 의한 인터페이스 조작 방법의 각 단계를 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 구성하는데 그 특징이 있다.In addition, the present invention is characterized in that a computer-readable recording medium having recorded thereon a program for executing each step of the method for operating an interface by hand operation described above.

이상에서 설명한 바와 같은 본 발명에 따른 손동작에 의한 인터페이스 조작 장치 및 방법은 디스플레이 화면에 표시되는 선택 메뉴판의 직접적인 선택 없이 카메라에서 촬영된 영상을 이용하여 사용자의 손동작에 따른 움직임(제스처)만을 인식하여 전자기기의 인터페이스를 조작할 수 있어, 디스플레이 화면에 표시되는 선택 메뉴판의 크기를 작게 제작하거나 또는 식별력이 다소 떨어지는 반투명으로 표시할 수 있어 디스플레이 화면에 표시되고 있는 기존 영상의 가림 현상을 최소화 할 수 있다. As described above, the apparatus and method for manipulating an interface by hand according to the present invention recognizes only a movement (gesture) according to a user's hand gesture using an image captured by a camera without directly selecting a selection menu panel displayed on a display screen. The interface of the electronic device can be operated to reduce the size of the selection menu displayed on the display screen or to display it with semi-transparency that is somewhat indistinguishable, thereby minimizing the occlusion of the existing image displayed on the display screen. have.

또한 작은 크기의 선택 메뉴판을 통해서도 정확한 전자기기의 인터페이스의 조작이 가능함에 따라 소형의 전자기기에도 손쉽게 적용이 가능한 효과가 있다.In addition, since the interface of the electronic device can be precisely manipulated through a small selection menu board, it can be easily applied to a small electronic device.

도 1 은 본 발명의 바람직한 실시예에 따른 손동작에 의한 인터페이스 조작 장치의 구성을 나타낸 블록도
도 2 는 본 발명에 따른 제스처 인식부에서 촬영 영상을 이용하여 손끝점의 개수를 통해 5가지 손동작을 구분하여 정의하는 과정을 설명하기 위한 도면
도 3 은 본 발명의 바람직한 실시예에 따른 손동작에 의한 인터페이스 조작의 방법을 설명하기 위한 흐름도
도 4 는 본 발명에 따른 손동작에 의한 인터페이스 조작 방법을 휴대전화나 유선전화의 번호 키패드의 배치에 적용하여 설명하기 위한 제 1 실시예
도 5 는 본 발명에 따른 손동작에 의한 인터페이스 조작 방법을 문자입력을 이용한 전화번호 검색 키패드에 적용하여 설명하기 위한 제 2 실시예
1 is a block diagram showing the configuration of the interface operation apparatus by the hand gesture according to a preferred embodiment of the present invention
2 is a view for explaining a process of classifying and defining five hand gestures using the number of fingertips by using a captured image in the gesture recognition unit according to the present invention.
3 is a flowchart illustrating a method of interface manipulation by hand gesture according to a preferred embodiment of the present invention.
Fig. 4 is a first embodiment for explaining the method of operating an interface by hand operation according to the present invention by arranging a number keypad of a mobile telephone or a landline telephone.
Figure 5 is a second embodiment for explaining the method of operating the interface by the hand gesture according to the present invention applied to the telephone number search keypad using the character input

본 발명의 다른 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the detailed description of the embodiments with reference to the accompanying drawings.

본 발명에 따른 손동작에 의한 인터페이스 조작 장치 및 방법의 바람직한 실시예에 대하여 첨부한 도면을 참조하여 설명하면 다음과 같다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Referring to the accompanying drawings, a preferred embodiment of the interface operation apparatus and method by a hand gesture according to the present invention will be described. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. It is provided to let you know. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and are not intended to represent all of the technical ideas of the present invention. Therefore, various equivalents It should be understood that water and variations may be present.

도 1 은 본 발명의 바람직한 실시예에 따른 손동작에 의한 인터페이스 조작 장치의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an interface manipulation apparatus by hand operation according to a preferred embodiment of the present invention.

도 1과 같이, 인터페이스 조작 장치(100)는 화면 처리부(110)와, 영상 획득부(120)와, 제스처 인식부(130)와, 제스처 정보 비교부(140)와, 기능 처리부(150)와, 음성 안내부(160)와, 저장부(170)를 포함하여 구성된다.As shown in FIG. 1, the interface manipulation apparatus 100 includes a screen processing unit 110, an image acquisition unit 120, a gesture recognition unit 130, a gesture information comparison unit 140, a function processing unit 150, , The voice guide unit 160 and the storage unit 170 are configured.

상기 화면 처리부(110)는 저장부(170)에 미리 저장되어 있는 선택 메뉴판 정보 중 해당되는 전자기기(300)의 인터페이스 조작을 선택하기 위한 선택 메뉴판을 디스플레이부(200)에 제공한다. 이때, 상기 디스플레이부(200)는 상기 전자기기에 일체형으로 구비된 디스플레이부일 수도 있지만, 상기 전자기기(300)와는 별도로 구성되는 독립적인 기기일 수도 있다. The screen processing unit 110 provides the display unit 200 with a selection menu board for selecting an interface operation of the electronic device 300 among the selection menu board information previously stored in the storage unit 170. In this case, the display unit 200 may be a display unit integrally provided with the electronic device, but may be an independent device configured separately from the electronic device 300.

상기 영상 획득부(120)는 상기 디스플레이부(200)에서 표시된 선택 메뉴판을 기반으로 움직이는 손동작의 움직임(제스처)을 카메라를 통해 촬영하여 연속적으로 촬영영상을 출력한다. 이때, 상기 영상 획득부(120)는 촬영영상에서 고정된 캡처 사진을 출력하는 것이 아니라, 연속적인 손동작의 움직임을 실시간 촬영되는 동영상을 출력한다.The image acquisition unit 120 outputs a photographed image continuously by capturing a motion (gesture) of a hand movement moving on the basis of the selection menu panel displayed on the display unit 200. In this case, the image acquisition unit 120 does not output a fixed captured picture from the captured image, but outputs a video of real-time shooting of continuous hand movements.

상기 제스처 인식부(130)는 상기 영상 획득부(120)에서 촬영되는 영상에서 손끝점을 인식한다. 즉, 도 2에서 도시하고 있는 것과 같이, 인식되는 손끝점의 개수에 따라 5가지 손동작으로 구분하여 정의한다.The gesture recognition unit 130 recognizes a fingertip point in the image captured by the image acquisition unit 120. That is, as illustrated in FIG. 2, five hand gestures are defined according to the number of recognized fingertip points.

상기 제스처 정보 비교부(140)는 저장부(170)에 미리 저장되어 있는 제스처 정보 중 상기 인식된 손끝점의 개수에 따라 구분되는 5가지 손동작과 비교하여 서로 매칭되는 제스처 정보를 검출한다. The gesture information comparison unit 140 detects gesture information that is matched with each other in comparison with five hand gestures classified according to the number of the recognized fingertip points among gesture information previously stored in the storage unit 170.

이때, 상기 제스처 정보는 손끝점의 개수에 따른 5가지의 손동작을 나타내며, 도 2(a)와 같이 5가지 손동작 중 손끝점의 개수가 1개인 경우는 첫 번째 제스처를 나타내고, 도 2(b)와 같이 5가지 손동작 중 손끝점의 개수가 2개인 경우는 두 번째 제스처를 나타내고, 도 2(c)와 같이 5가지 손동작 중 손끝점의 개수가 3개인 경우는 세 번째 제스처를 나타내고, 도 2(d)와 같이 5가지 손동작 중 손끝점의 개수가 4개인 경우는 네 번째 제스처를 나타내며, 도 2(e)와 같이 5가지 손동작 중 손끝점의 개수가 5개인 경우는 다섯 번째 제스처를 나타낸다.In this case, the gesture information indicates five hand gestures according to the number of fingertip points. When the number of fingertip points is one of five hand gestures as shown in FIG. 2 (a), the gesture information indicates the first gesture, and FIG. 2 (b). As shown in FIG. 2 (c), when the number of fingertips is two, five fingers indicate a second gesture. As shown in FIG. As shown in d), when the number of the fingertips is four among the five hand gestures, the fourth gesture is shown. When the number of the fingertips is five among the five hand gestures as shown in FIG.

상기 기능 처리부(150)는 상기 제스처 정보 비교부(140)를 통해 검출된 제스처 정보를 이용하여 순서열을 생성하고, 이렇게 생성된 순서열에 상응하여 미리 저장부(170)에 저장되어 있는 전자기기의 조작 명령 메시지를 검출하여 해당 전자기기 주 제어부(300)로 출력한다. 이때, 상기 순서열을 (X,Y)의 행렬로 구성하고, 행렬의 인덱스를 제스처 정보로 표현한다. 그리고 X 행렬에 위치하는 제스처 정보는 열의 순서열을 나타내고, Y 행렬에 위치하는 제스처 정보는 행의 순서열을 나타냄으로써, X 행렬 및 Y 행렬의 제스처 정보들의 조합으로 하나의 조작 명령을 정의한다. The function processor 150 generates an order sequence using the gesture information detected by the gesture information comparison unit 140, and corresponds to the generated order sequence of the electronic device previously stored in the storage unit 170. The operation command message is detected and output to the main controller 300 of the electronic device. In this case, the sequence is configured by a matrix of (X, Y), and the index of the matrix is expressed by gesture information. The gesture information located in the X matrix indicates an order sequence of columns, and the gesture information located in the Y matrix indicates an order sequence of rows, thereby defining one operation command by a combination of gesture information of the X matrix and the Y matrix.

한편, 상기 기능 처리부(150)에서 상기 해당 전자기기 주 제어부(300)로의 출력은 일반 리모컨에서 사용되고 있는 적외선 통신과 같은 광무선 통신 방식을 이용하거나, 또는 별도의 공지되어 있는 근거리 유무선 통신 방식을 이용하여 제공한다. On the other hand, the output from the function processing unit 150 to the main controller 300 of the corresponding electronic device using an optical wireless communication method such as infrared communication used in the general remote control, or using a separate known short-range wired or wireless communication method To provide.

상기 음성 안내부(160)는 상기 제스처 인식부(130)에서 촬영되는 영상에서 손끝점을 인식할 때, 인식되는 손끝점의 개수에 따라 구분되는 5가지 손동작의 인식 결과를 스피커를 통해 외부로 음성으로 출력한다. 또한 상기 기능 처리부(150)에서 전자기기의 조작 명령 메시지를 출력하며, 이때, 출력되는 전자기기의 조작 명령 정보를 스피커를 통해 외부로 음성으로 출력한다.When the voice guide unit 160 recognizes the fingertip point from the image captured by the gesture recognition unit 130, voice recognition results of five hand gestures divided according to the number of the recognized fingertip point to the outside through the speaker Will output In addition, the function processing unit 150 outputs an operation command message of the electronic device, and at this time, outputs the operation command information of the output electronic device to the outside through a speaker.

상기 저장부(170)는 적어도 하나 이상의 전자기기의 인터페이스 조작을 위한 선택 메뉴판 정보를 저장하는 선택 메뉴판 정보 DB(171)와, 손끝점의 개수에 따라 정의되는 제스처 정보를 저장하는 제스처 정보 DB(172)와, 제스처 정보에 상응하는 조작 명령 메시지를 순서열에 따라 다수의 전자기기 별로 저장하는 조작 명령 정보 DB(173)와, 5가지 손동작 인식 및 전자기기의 조작 명령에 해당되는 음성 정보를 저장하는 음성 정보 DB(174)를 포함한다.
The storage unit 170 includes a selection menu plate information DB 171 for storing selection menu plate information for interface manipulation of at least one or more electronic devices, and a gesture information DB for storing gesture information defined according to the number of fingertips. 172, an operation command information DB 173 for storing operation command messages corresponding to gesture information for each of a plurality of electronic devices according to a sequence, and voice information corresponding to five hand gesture recognition and operation commands of the electronic device; Voice information DB 174 to be included.

이와 같이 구성된 본 발명에 따른 손동작에 의한 인터페이스 조작의 동작을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다. 도 1 또는 도 2와 동일한 참조부호는 동일한 기능을 수행하는 동일한 부재를 지칭한다. Referring to the accompanying drawings, the operation of the interface operation by the hand motion according to the present invention configured as described above will be described in detail as follows. Like reference numerals in FIG. 1 or FIG. 2 denote the same members performing the same function.

도 3 은 본 발명의 바람직한 실시예에 따른 손동작에 의한 인터페이스 조작의 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of interface manipulation by hand gesture according to a preferred embodiment of the present invention.

도 3을 참조하여 설명하면, 먼저 화면 처리부(110) 및 영상 획득부(120)는 디스플레이부(200) 및 카메라(영상 획득부(120))를 활성화 시킨다(S10). 이에 따라 상기 디스플레이부(200)에는 저장부(170)에 미리 저장되어 있는 인터페이스 조작을 선택하기 위한 선택 메뉴판이 표시되고, 상기 카메라(120)는 전면에 위치하는 사용자를 촬영하게 된다(S20).Referring to FIG. 3, first, the screen processor 110 and the image acquirer 120 activate the display 200 and the camera (the image acquirer 120) (S10). Accordingly, the display unit 200 displays a selection menu panel for selecting an interface operation previously stored in the storage unit 170, and the camera 120 captures a user located at the front surface (S20).

이에 제스처 인식부(130)는 촬영되는 영상을 통해 사용자의 움직임이 감지되면(S30), 감지되는 사용자의 움직임을 통해 손끝점을 인식하고, 제스처 정보 비교부(140)는 상기 인식되는 손끝점의 개수에 따라 5가지의 손동작(제스처)으로 구분한 후, 저장부(170)에 미리 저장되어 있는 제스처 정보와 비교하여 매칭여부를 통해 제스처 인식을 수행한다(S40). 이때, 매칭이 이루어지지 않는 경우에는 제스처 인식이 실패한 것으로 처리한다.When the gesture recognition unit 130 detects a user's movement through the captured image (S30), the gesture recognition unit 130 recognizes a fingertip through the detected user's movement, and the gesture information comparing unit 140 recognizes the fingertip of the recognized fingertip. After dividing into five hand gestures (gestures) according to the number, gesture recognition is performed by matching with the gesture information previously stored in the storage unit 170 (S40). In this case, if no match is made, the gesture recognition is treated as a failure.

한편, 상기 제스처의 인식에 있어서, 사용자의 움직임만을 통해서 손끝점을 연속적으로 인식하는 경우에는 사용자의 의미 없는 움직임을 통해서도 잘못 인식이 이루어질 수 있는 문제점이 있다. 이러한 문제점은 제스처 인식의 정확성을 확보하지 못할 수가 있다. 따라서 제스처 인식을 위해 미리 설정된 시간동안 인식되는 손끝점이 달라지지 않는 경우에만 제스처 인식이 성공한 것으로 판단하는 것이 바람직하다. 실 예로서, 15 프레임 이내 또는 1초 이내에 제스처 인식(손끝점의 개수) 결과가 달라지면 이는 제스처 인식이 실패한 것으로 판단하고 선택 메뉴 화면(S20)에서 다시 사용자의 움직임을 감지하는 과정(S30)부터 다시 수행되도록 한다.On the other hand, in the recognition of the gesture, when the fingertips are continuously recognized only by the user's movement, there is a problem that the recognition can be made wrong through the user's meaningless movement. This problem may not ensure the accuracy of gesture recognition. Therefore, it is preferable to determine that the gesture recognition is successful only when the fingertip recognized for a predetermined time for gesture recognition does not change. For example, if the result of the gesture recognition (the number of fingertips) is changed within 15 frames or within 1 second, it is determined that the gesture recognition has failed, and again from the process of detecting the user's movement again in the selection menu screen S20 (S30). To be performed.

그리고 이렇게 인식된 5가지의 손동작에 따른 제스처는 음성 안내부(160)에 의해 스피커(미도시)로 외부에 음성으로 출력함으로써, 사용자에게 자신이 수행한 제스처를 인터페이스 조작 장치(100)에서 인식했는지를 알려준다(S50). 이처럼, 사용자의 움직임에 따른 제스처가 성공적으로 인식되었다는 것을 사용자에게 안내함으로써, 사용자는 언제 다음 손동작을 입력해야 하는지를 쉽게 알아차릴 수 있으며, 다음 손동작으로 올 수 있는 손동작을 추려서 음성으로 안내하면 입력해야 할 경우의 수가 줄어들어 불필요한 정보의 양을 줄이고, 보다 정확한 명령을 입력할 수 있게 된다. And the gestures according to the five hand gestures recognized as described above are output to the outside by a voice (not shown) by the voice guide unit 160, so that the user's gesture is recognized by the interface manipulation apparatus 100. Tells (S50). In this way, by informing the user that the gesture according to the user's movement has been successfully recognized, the user can easily recognize when to input the next hand gesture, and if the voice gesture guides the hand gesture that can come to the next hand gesture, The number of cases is reduced, reducing the amount of unnecessary information and allowing more accurate commands to be entered.

상기 인식된 제스처가 미리 정의되어 있는 순서열의 마지막 번째 제스처가 될 때 까지 상기 과정(S20~S50)을 반복 수행하게 된다(S60). 본 명세서에서는 순서열을 행렬로 구성하고, 행렬의 인덱스를 제스처 정보로 표현함으로써, X 행렬 및 Y 행렬의 제스처 정보만이 필요하므로 2 번째의 제스처가 인식될 때까지 상기 과정(S20~S50)을 반복 수행하게 된다. 그러나 이는 바람직한 실시예의 설명을 위한 것으로 그 제한을 위한 것이 아니므로, 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능하다.The process (S20 ~ S50) is repeated until the recognized gesture is the last gesture of the predefined sequence (S60). In the present specification, since the sequence sequence is composed of a matrix and the index of the matrix is represented by gesture information, only the gesture information of the X matrix and the Y matrix is needed, and thus the processes S20 to S50 are performed until the second gesture is recognized. Will be repeated. However, this is for the description of the preferred embodiment and not for the limitation, and various embodiments are possible within the scope of the technical idea of the present invention.

한편, 상기 5가지의 손동작을 통해 인식되는 제스처는 도 2(a) 내지 도 2(e)에서 도시하고 있는 것과 같이, 제스처 인식부(130)를 통해 인식되는 손끝점의 개수에 따라 첫 번째 제스처에서 다섯 번째 제스처까지로 구분할 수 있다.Meanwhile, the gestures recognized through the five hand gestures are the first gestures according to the number of fingertip points recognized through the gesture recognition unit 130, as shown in FIGS. 2 (a) to 2 (e). To the fifth gesture.

따라서 기능 처리부(150)는 마지막 번째까지 인식된 제스처를 이용하여 순서열을 생성할 수 있으며, 이렇게 생성된 순서열에 상응하여 미리 저장부(170)에 저장되어 있는 전자기기의 조작 명령 메시지와 비교하여 매칭되는 전자기기의 조작 명령 메시지를 검출할 수 있게 된다(S70). 이때, 상기 순서열을 행렬로 구성하고, 첫 번째 인식된 제스처를 X 행렬로 이용하여 열의 인덱스로 설정하고, 두 번째(마지막 번째) 인식된 제스처를 Y 행렬로 이용하여 행의 인덱스로 설정하며, X 행렬 및 Y 행렬의 제스처 정보들의 행렬 조합으로 선택되는 하나의 전자기기의 조작 명령 메시지를 검출한다. Therefore, the function processor 150 may generate an order sequence using the gesture recognized until the last time, and compare the generated command sequence with an operation command message of the electronic device previously stored in the storage unit 170 in correspondence to the generated order sequence. It is possible to detect the operation command message of the matching electronic device (S70). In this case, the sequence sequence is configured as a matrix, the first recognized gesture is set as an index of a column using the X matrix, and the second (last) recognized gesture is set as an index of a row using the Y matrix, The operation command message of one electronic device selected by the matrix combination of the gesture information of the X matrix and the Y matrix is detected.

상기 순서열을 통해 전자기기의 조작 명령 메시지를 검출하는 방법은 아래에서 다양한 실시예를 통해 상세히 설명하도록 하겠다. A method of detecting an operation command message of an electronic device through the sequence will be described in detail with reference to various embodiments below.

그리고 상기 검출된 전자기기의 조작 명령 메시지는 음성 안내부(160)에 의해 스피커(미도시)로 외부에 음성으로 출력함으로써, 사용자에게 전자기기의 수행될 명령을 알려준다(S80). 또한 기능 처리부(150)에 의해 해당되는 전자기기 주 제어부(300)로 출력한다(S90).
In addition, the detected operation command message of the electronic device outputs a voice to the speaker (not shown) to the outside by the voice guide unit 160 to inform the user of the command to be performed by the electronic device (S80). In addition, the function processing unit 150 outputs to the corresponding electronic device main control unit 300 (S90).

한편, 위에서 잠깐 설명하였던 순서열을 통한 전자기기의 조작 명령 메시지의 검출 방법을 바람직한 실시예를 통해 상세히 설명하면 다음과 같다. 다음 제 1 실시예 및 제 2 실시예는 순서열을 행렬로 구성한 경우만을 설명하고 있으나, 이는 하나의 바람직한 실시예로서, 본 발명의 기술적 사상의 범위 내에서 순서열을 이용한 다양한 실시예가 가능할 것이다.Meanwhile, a method of detecting an operation command message of the electronic device through the sequence described briefly above will be described in detail with reference to the following preferred embodiments. The following first and second embodiments illustrate only the case where the order sequence is configured as a matrix, but as one preferred embodiment, various embodiments using the order sequence may be possible within the scope of the inventive concept.

제 1 1st 실시예Example

도 4 는 본 발명에 따른 손동작에 의한 인터페이스 조작 방법을 휴대전화나 유선전화의 번호 키패드의 배치에 적용하여 설명하기 위한 제 1 실시예이다.Fig. 4 is a first embodiment for explaining the method of operating an interface by hand operation according to the present invention in the arrangement of the number keypad of a cellular phone or a landline.

이때, 전화번호의 직접 입력은 0부터 9까지 숫자의 입력에 대한 10가지 명령과, 전화걸기, 번호 1개 삭제, 번호 2개 삭제, 최소에 대한 4가지 명령으로 총 14가지로 정의할 수 있다. 그리고 전화번호를 입력해야 하기 때문에 기존의 휴대전화나 유선전화의 번호 키패드 디자인을 그대로 행렬로 표현하며, 가장 인식하기 쉬운 형태로 구성한다.At this time, the direct input of the telephone number can be defined as 10 commands for the input of numbers from 0 to 9, and four commands for dialing, deleting one number, deleting two numbers, and at least fourteen. . And because the phone number must be entered, the number keypad design of the existing mobile phone or landline phone is expressed in a matrix as it is, and is configured in the form that is most easily recognized.

이와 같은 번호 키패드 디자인을 통해 전화번호 직접입력 명령을 수행하는 경우를 도 4를 참조하여 설명하면 다음과 같다.A case of directly performing a telephone number input command through the number keypad design as described above will be described with reference to FIG. 4.

먼저, 전화번호 1을 입력하는 경우 입력해야 하는 제스처는 도 4(a)와 같이 <제스처 A, 제스처 A>를 연속해서 입력해서 행렬의 인덱스 조합을 제공하면 된다. 그리고 숫자 5를 입력하는 경우 명령은 도 4(b)와 같이 <제스처 B, 제스처 B>를 연속해서 입력해서 행렬의 인덱스 조합을 제공하면 된다. 그리고 전화번호 입력이 모두 끝난 뒤 전화를 걸때는 도 4(c)와 같이 <제스처 D, 제스처 C>를 연속해서 입력해서 행렬의 인덱스 조합을 제공하면 된다.First, when the phone number 1 is input, the gesture to be input may be a combination of indexes of the matrix by continuously inputting <gesture A, gesture A> as shown in FIG. In the case of inputting the number 5, the command may provide a combination of indices of the matrix by continuously inputting <gesture B and gesture B> as shown in FIG. 4 (b). When making a phone call after all phone number input is completed, as shown in FIG. 4 (c), <gesture D and gesture C> may be continuously input to provide an index combination of the matrix.

또한 전화번호 직접입력은 사용자가 잘못 입력하거나 다른 제스처로 인식할 수 있기 때문에 입력뿐만 아니라 삭제 혹은 종료에 해당하는 명령도 정의해야 할 필요가 있다.In addition, since direct input of a telephone number can be recognized by a user incorrectly or by another gesture, it is necessary to define a command corresponding to deletion or termination as well as input.

따라서 그 명령을 ‘Action_op'로 나타내고, 다음 수학식 1과 같이 정의할 수 있다. 그러므로 수학식 1에서 정의된 행렬의 인덱스 조합을 연속해서 입력하면 정의된 해당 명령을 수행한다.Therefore, the command is represented as 'Action_op', and can be defined as in Equation 1 below. Therefore, if the index combination of the matrix defined in Equation 1 is input continuously, the defined command is executed.

Figure 112012039163212-pat00001
Figure 112012039163212-pat00001

제 2 Second 실시예Example

도 5 는 본 발명에 따른 손동작에 의한 인터페이스 조작 방법을 문자입력을 이용한 전화번호 검색 키패드에 적용하여 설명하기 위한 제 2 실시예이다.FIG. 5 is a second embodiment for explaining a method of operating an interface by hand operation according to the present invention to a telephone number search keypad using character input.

이때, 문자검색은 최소한의 명령으로 원하는 항목을 검색할 수 있어야 하며, 목록의 상, 하 이동이 가능해야 한다. 또한 한글은 자음과 모음의 조합에 따라 정렬이 가능하며, 그러한 특성을 이용하여 효율적인 검색을 위한 행렬을 구성하였다.At this time, the text search should be able to search the desired items with the minimum command, and should be able to move up and down the list. In addition, Hangul can be sorted according to the combination of consonants and vowels, and by using such characteristics, we constructed a matrix for efficient searching.

도 5(a)와 같이 <제스처 A, 제스처 A>로 구성된 명령은 전호번호부 상에 ‘ㄱ'(기역)으로 시작하는 항목 중 제일 첫 번째 것을 검색하여 선택한다. 또한 도 5(b)와 같이 <제스처 B, 제스처 C>로 구성된 명령은 ‘ㅅ'(시옷)으로 시작하는 항목 중 제일 첫 번째 것을 검색하여 선택하며, 마찬가지로 도 5(c)와 같이 <제스처 D, 제스처 C>로 구성된 명령은 현재 선택된 항목의 한 단계 아래에 있는 항목을 선택하게 된다. 그리고 원하는 항목을 모두 성공적으로 검색한 뒤 도 5(d)와 같이 <제스처 X, 제스처 C>로 구성된 명령을 선택하면 전화를 걸게 된다.
As shown in FIG. 5 (a), the command composed of <gesture A, gesture A> is selected by searching for the first one among items starting with 'a' in the phone book. In addition, as shown in FIG. 5 (b), the command composed of <gesture B, gesture C> is selected by searching for the first one among items starting with 'ㅅ' (swear), and as shown in FIG. , Command C> will select an item one level below the currently selected item. After successfully searching for all the desired items, if a command consisting of <gesture X, gesture C> is selected as shown in FIG.

한편, 본 발명의 도 3에서 도시하고 있는 손동작에 의한 인터페이스 조작 방법의 과정은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하다. 즉, 본 발명에 따른 방법에 포함된 여러 단계들은 컴퓨터로 읽을 수 있는 기록매체에 저장될 수 있다. 상기 매체는 마그네틱 저장매체(예: 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독매체(예: CD-ROM, DVD), 디지털 저장매체(예: USB 메모리, 메모리 카드(SD, CF, MS, XD) 등) 및 캐리어 웨이브(예: 인터넷을 통한 전송)와 같은 기록매체를 포함한다.On the other hand, the process of the interface operation method by the hand gesture shown in Figure 3 of the present invention can be written as a program that can be executed in a computer. That is, the various steps involved in the method according to the present invention may be stored in a computer readable recording medium. The medium may be a magnetic storage medium such as a ROM, a floppy disk, a hard disk, etc., an optical reading medium such as CD-ROM or DVD, a digital storage medium such as a USB memory, XD), etc.) and carrier waves (e.g., transmission over the Internet).

상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술적 분야의 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. Although the technical spirit of the present invention described above has been described in detail in a preferred embodiment, it should be noted that the above-described embodiment is for the purpose of description and not of limitation. It will be apparent to those skilled in the art that various modifications may be made without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

Claims (18)

디스플레이부에 표시되는 선택 메뉴판을 기반으로 움직이는 손동작의 연속적인 촬영영상을 출력하는 영상 획득부와,
상기 영상 획득부에서 출력되는 영상에서 인식되는 사용자 신체의 포인트의 개수에 따라 적어도 2개 이상의 제스처를 인식하는 제스처 인식부와,
미리 저장되어 있는 제스처 정보 중 상기 인식된 제스처와 비교하여 서로 매칭되는 제스처 정보를 검출하는 제스처 정보 비교부와,
상기 검출된 제스처 정보를 이용하여 순서열을 생성하고, 생성된 순서열에 상응하는 전자기기의 조작 명령 메시지를 미리 저장되어 있는 저장부에서 검출하여 해당 전자기기의 주 제어부로 출력하는 기능 처리부를 포함하여 구성되는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
An image acquisition unit for outputting a continuous photographed image of a moving gesture based on a selection menu displayed on a display unit;
A gesture recognition unit recognizing at least two or more gestures according to the number of points of the user's body recognized in the image output from the image acquisition unit;
A gesture information comparison unit which detects gesture information matched with each other by comparing with the recognized gesture among gesture information stored in advance;
A function processor configured to generate an order sequence using the detected gesture information, and detect an operation command message of the electronic device corresponding to the generated order sequence in a storage unit that is stored in advance and output the same to the main controller of the corresponding electronic device; Interface operation apparatus by a hand gesture, characterized in that configured.
제 1 항에 있어서,
미리 저장되어 있는 선택 메뉴판 정보 중 해당되는 전자기기의 인터페이스 조작을 선택하기 위한 선택 메뉴판을 상기 디스플레이부에 제공하는 화면 처리부를 더 포함하여 구성되는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
The method of claim 1,
And a screen processing unit which provides a display unit with a selection menu panel for selecting an interface operation of a corresponding electronic device from among selection menu panel information stored in advance.
제 2 항에 있어서,
상기 디스플레이부는 전자기기에 일체형으로 구비되거나, 또는 별도로 구비되는 독립적인 기기인 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
3. The method of claim 2,
The display unit is a handheld interface operation apparatus, characterized in that the electronic device is provided as an integrated device or separately provided.
제 1 항에 있어서,
상기 제스처 인식부에서 인식되는 포인트는 손끝점인 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
The method of claim 1,
Points recognized by the gesture recognition unit is an interface manipulation device by a hand gesture, characterized in that the fingertip point.
제 1 항에 있어서,
상기 기능 처리부는 상기 순서열을 행렬로 구성하고, 행렬의 인덱스를 제스처 정보로 표현하여 행렬의 제스처 정보들의 조합으로 하나의 조작 명령 메시지를 저장부에서 검출하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
The method of claim 1,
The function processing unit configures the sequence as a matrix, and expresses an index of the matrix as gesture information to detect a single operation command message in the storage unit by combining gesture information of the matrix. .
제 1 항에 있어서,
상기 기능 처리부는 상기 해당 전자기기 주 제어부의 출력을 광무선 통신 방식 또는 근거리 유무선 통신 방식을 이용하여 제공하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
The method of claim 1,
And the function processing unit provides an output of the main controller of the electronic device using an optical wireless communication method or a short-range wireless or wireless communication method.
제 1 항에 있어서,
상기 제스처 인식부에서 포인트의 개수에 따라 인식되는 제스처의 인식 결과를 음성을 통해 외부로 출력하는 음성 안내부를 더 포함하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
The method of claim 1,
And a voice guide unit which outputs a result of recognizing a gesture recognized by the gesture recognition unit according to the number of points to the outside through a voice.
제 7 항에 있어서,
상기 음성 안내부는 상기 기능 처리부에서 출력되는 전자기기의 조작 명령 메시지를 음성을 통해 외부로 출력하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
The method of claim 7, wherein
And the voice guide unit outputs an operation command message of the electronic device output from the function processor to the outside through voice.
제 1 항에 있어서, 상기 인터페이스 조작 장치는
적어도 하나 이상의 전자기기의 인터페이스 조작을 위한 선택 메뉴판 정보를 저장하는 선택 메뉴판 정보 DB, 손끝점의 개수에 따라 정의되는 제스처 정보를 저장하는 제스처 정보 DB, 제스처 정보에 상응하는 조작 명령 메시지를 순서열에 따라 다수의 전자기기 별로 저장하는 조작 명령 정보 DB, 5가지 손동작 인식 및 전자기기의 조작 명령에 해당되는 음성 정보를 저장하는 음성 정보 DB를 포함하는 저장부를 더 포함하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 장치.
The apparatus of claim 1, wherein the interface manipulation device is
A selection menu plate information DB for storing selection menu plate information for interface operation of at least one or more electronic devices, a gesture information DB for storing gesture information defined according to the number of fingertips, and an operation command message corresponding to the gesture information According to the hand gesture further comprises a storage unit including a manipulation command information DB for storing a plurality of electronic devices according to the column, five hand gesture recognition and a voice information DB for storing voice information corresponding to the operation command of the electronic device Interface operation device.
(A) 사용자의 움직임을 통해 인식되는 사용자 신체의 포인트의 개수에 따라 적어도 2개 이상의 제스처를 인식하는 단계와,
(B) 상기 인식된 제스처가 미리 정의되어 있는 순서열의 마지막 번째 제스처가 될 때 까지 상기 (A) 과정을 반복 수행하는 단계와,
(C) 상기 마지막 번째까지 인식된 제스처를 이용하여 순서열을 생성하고, 상기 생성된 순서열에 상응하여 미리 저장되어 있는 전자기기의 조작 명령 메시지와 비교하여 매칭되는 전자기기의 조작 명령 메시지를 검출하는 단계와,
(D) 상기 검출된 전자기기의 조작 명령 메시지를 해당되는 전자기기 주 제어부로 출력하는 단계를 포함하여 이루어지는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 방법.
(A) recognizing at least two or more gestures according to the number of points of the user's body recognized through the user's movement,
(B) repeating step (A) until the recognized gesture becomes the last gesture of a predefined sequence;
(C) generating an order sequence using the gesture recognized up to the last, and detecting an operation command message of the matched electronic device in comparison with an operation command message of an electronic device previously stored corresponding to the generated order sequence; Steps,
And (D) outputting an operation command message of the detected electronic device to a corresponding main controller of the electronic device.
제 10 항에 있어서,
상기 (A) 단계 이전에 전자기기에 포함되어 있는 디스플레이부 및 카메라를 활성화시켜, 상기 디스플레이부에는 미리 저장되어 있는 인터페이스 조작을 선택하기 위한 선택 메뉴판을 표시하고, 상기 카메라에는 전면에 위치하는 사용자를 촬영하는 단계를 더 포함하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 방법.
11. The method of claim 10,
By activating the display unit and the camera included in the electronic device before the step (A), the display unit displays a selection menu panel for selecting a pre-stored interface operation, the user located in front of the camera Interface operation method according to the hand gesture, characterized in that it further comprises the step of photographing.
제 10 항에 있어서, 상기 (A) 단계는
(A1) 사용자의 움직임이 감지되면, 감지되는 사용자의 움직임을 통해 손끝점을 인식하는 단계와,
(A2) 상기 인식되는 손끝점의 개수에 따라 5가지의 손동작(제스처)으로 구분하는 단계와,
(A3) 미리 저장되어 있는 제스처 정보와 비교하여 매칭여부를 통해 제스처 인식을 수행하는 단계를 포함하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 방법.
The method of claim 10, wherein step (A)
(A1) when the movement of the user is detected, recognizing a fingertip through the detected movement of the user;
(A2) dividing into five hand gestures (gestures) according to the number of fingertip points recognized;
(A3) A method of operating an interface by a hand gesture, comprising performing gesture recognition through matching with respect to previously stored gesture information.
제 12 항에 있어서, 상기 (A1) 단계는
미리 설정된 시간동안 인식되는 손끝점의 변화를 판단하는 단계와,
상기 판단 결과, 손끝점의 변화가 없는 경우에는 손끝점의 인식이 성공한 것으로 판단하는 단계와,
상기 판단 결과, 손끝점의 변화가 있는 경우에는 손끝점의 인식이 실패한 것으로 판단하고 상기 (A) 단계를 반복하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 방법.
The method of claim 12, wherein step (A1)
Determining a change in the fingertip recognized for a preset time;
Judging that the recognition of the fingertip is successful when there is no change of the fingertip as a result of the determination;
If the result of the determination is that there is a change in the fingertip, it is determined that the recognition of the fingertip has failed, and the step (A) is repeated.
제 12 항에 있어서,
상기 (A3) 단계에서 매칭이 이루어지지 않는 경우에는 제스처 인식이 실패한 것으로 판단하여 상기 (A) 단계를 반복하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 방법.
13. The method of claim 12,
If the matching is not performed in the step (A3), it is determined that the gesture recognition has failed, and repeating the step (A), characterized in that for repeating the step (A).
제 10 항에 있어서,
상기 인식된 적어도 2개 이상의 제스처를 음성으로 외부로 출력하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 방법.
11. The method of claim 10,
And outputting the recognized at least two or more gestures to the outside by voice.
제 10 항에 있어서, 상기 (C) 단계는
상기 생성된 순서열을 행렬로 구성하는 단계와,
첫 번째 인식된 제스처를 첫 번째 행렬로 이용하여 열의 인덱스로 설정하는 단계와,
두 번째 인식된 제스처를 두 번째 행렬로 이용하여 행의 인덱스로 설정하는 단계와,
상기 첫 번째 행렬 및 두 번째 행렬의 제스처 정보들의 행렬 조합으로 선택되는 하나의 전자기기의 조작 명령 메시지를 검출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 방법.
11. The method of claim 10, wherein step (C)
Organizing the generated sequence into a matrix;
Setting the index of the column using the first recognized gesture as the first matrix,
Setting the second recognized gesture as the index of the row using the second matrix;
And detecting an operation command message of one electronic device selected from a matrix combination of gesture information of the first matrix and the second matrix.
제 10 항에 있어서,
상기 전자기기 주 제어부로 출력되는 전자기기의 조작 명령 메시지를 음성을 통해 외부로 출력하는 단계를 더 포함하는 것을 특징으로 하는 손동작에 의한 인터페이스 조작 방법.
11. The method of claim 10,
And outputting an operation command message of the electronic device output to the main controller of the electronic device to the outside through a voice.
제 10 항 내지 제 17 항 중 어느 하나에 의한 손동작에 의한 인터페이스 조작 방법의 각 단계를 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing each step of the interface operating method by hand gestures according to any one of claims 10 to 17.
KR1020120051979A 2012-05-16 2012-05-16 Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor KR101348763B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120051979A KR101348763B1 (en) 2012-05-16 2012-05-16 Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120051979A KR101348763B1 (en) 2012-05-16 2012-05-16 Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor

Publications (2)

Publication Number Publication Date
KR20130128143A KR20130128143A (en) 2013-11-26
KR101348763B1 true KR101348763B1 (en) 2014-01-16

Family

ID=49855399

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120051979A KR101348763B1 (en) 2012-05-16 2012-05-16 Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor

Country Status (1)

Country Link
KR (1) KR101348763B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220019348A1 (en) * 2018-12-06 2022-01-20 Tae Ho Kang Touch interface device and control method
WO2020116683A1 (en) * 2018-12-06 2020-06-11 강태호 Smart remote control for controlling device by using touch pattern, and control method for smart remote control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060070280A (en) * 2004-12-20 2006-06-23 한국전자통신연구원 Apparatus and its method of user interface using hand gesture recognition
KR100687690B1 (en) 2006-01-24 2007-02-27 엠텍비젼 주식회사 Digital processing apparatus capable of inputting data using camera and inputting method thereof
KR101017936B1 (en) 2008-09-18 2011-03-04 동명대학교산학협력단 The system controled a action of the display device, based a gesture information recognition of the user
KR20110042806A (en) * 2009-10-20 2011-04-27 에스케이텔레콤 주식회사 Apparatus and method for providing user interface by gesture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060070280A (en) * 2004-12-20 2006-06-23 한국전자통신연구원 Apparatus and its method of user interface using hand gesture recognition
KR100687690B1 (en) 2006-01-24 2007-02-27 엠텍비젼 주식회사 Digital processing apparatus capable of inputting data using camera and inputting method thereof
KR101017936B1 (en) 2008-09-18 2011-03-04 동명대학교산학협력단 The system controled a action of the display device, based a gesture information recognition of the user
KR20110042806A (en) * 2009-10-20 2011-04-27 에스케이텔레콤 주식회사 Apparatus and method for providing user interface by gesture

Also Published As

Publication number Publication date
KR20130128143A (en) 2013-11-26

Similar Documents

Publication Publication Date Title
JP6997734B2 (en) Handwritten keyboard for screen
KR101872426B1 (en) Depth-based user interface gesture control
CN106687889B (en) Display portable text entry and editing
US9104306B2 (en) Translation of directional input to gesture
KR101947034B1 (en) Apparatus and method for inputting of portable device
KR100856203B1 (en) User inputting apparatus and method using finger mark recognition sensor
JP5802667B2 (en) Gesture input device and gesture input method
EP2045699A2 (en) Gesture determination apparatus and method
US20140108992A1 (en) Partial gesture text entry
US20110055753A1 (en) User interface methods providing searching functionality
US20120306740A1 (en) Information input device using virtual item, control method therefor, and storage medium storing control program therefor
KR20120096849A (en) An apparatus and method for inputting command using gesture
CN103186345A (en) Text segment selecting method and field selecting method, device and terminal
JPWO2004097722A1 (en) Handwritten character input device and handwritten character input processing method
US20160239177A1 (en) Display control apparatus, control method therefor, and storage medium storing control program therefor
EP4307096A1 (en) Key function execution method, apparatus and device, and storage medium
EP2746911A1 (en) Mobile electronic device and key display program
KR101348763B1 (en) Apparatus and method for controlling interface using hand gesture and computer-readable recording medium with program therefor
KR101373654B1 (en) Character input terminal by recognization of divided drag region, server for downloading application program
KR102245706B1 (en) Method for processing data and an electronic device thereof
KR20150072625A (en) Method and apparatus for controlling pointer by voice recognition
JP6232694B2 (en) Information processing apparatus, control method thereof, and program
CN112306242A (en) Interaction method and system based on book-space gestures
KR101901233B1 (en) Image zoom-in/out apparatus using of touch screen direction and method therefor
KR102167774B1 (en) Telephone application image control method, program and computer readable recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161213

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171204

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee