KR20140144560A - Method for operating a gesture recognition apparatus - Google Patents

Method for operating a gesture recognition apparatus Download PDF

Info

Publication number
KR20140144560A
KR20140144560A KR20130066679A KR20130066679A KR20140144560A KR 20140144560 A KR20140144560 A KR 20140144560A KR 20130066679 A KR20130066679 A KR 20130066679A KR 20130066679 A KR20130066679 A KR 20130066679A KR 20140144560 A KR20140144560 A KR 20140144560A
Authority
KR
South Korea
Prior art keywords
gesture
user
gesture recognition
language
data
Prior art date
Application number
KR20130066679A
Other languages
Korean (ko)
Inventor
송종화
송지영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR20130066679A priority Critical patent/KR20140144560A/en
Publication of KR20140144560A publication Critical patent/KR20140144560A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

According to an embodiment of the present invention, the operating method of a gesture recognition apparatus comprises: a step of recognizing a gesture of a user; a step of comparing the recognized gesture with a database and determining a language corresponding to the recognized gesture; a step of converting the determined language into a speech signal; and a step of outputting the speech signal. As a result, the present invention can recognize a gesture of a user, convert the gesture into a speech, and output the speech and, in addition, can convert the gesture into a speech of another language and output the speech, thereby improving convenience of use for the user.

Description

제스처 인식 기기의 동작 방법{Method for operating a gesture recognition apparatus}[0001] The present invention relates to a gesture recognition apparatus,

본 발명은 제스처 인식 기기 및 그 동작 방법에 관한 것이며, 더욱 상세하게는 사용자의 제스처를 인식하여 음성으로 변환 출력하고, 다른 언어로도 변환 출력할 수 있어, 사용자의 이용 편의성을 향상시킬 수 있는 제스처 인식 기기 및 그 동작 방법에 관한 것이다.The present invention relates to a gesture recognition apparatus and an operation method thereof, and more particularly, to a gesture recognition apparatus and a gesture recognition method that can recognize a gesture of a user, And a method of operating the same.

휴대 단말기, TV 등 전자기기들의 기능 및 서비스는 점점 다양화되는 추세에 있다.The functions and services of electronic devices such as portable terminals and TVs are becoming increasingly diversified.

하지만, 이러한 전자기기들을 이용함에 있어서, 사용자는 단말 또는 원격제어장치를 이용하여, 복잡한 조작을 입력해야 원하는 기능을 활용할 수 있게 되는 불편함이 있다. However, in using such electronic devices, the user has to input complicated operations using a terminal or a remote control device, so that the user can use the desired functions.

이러한, 사용자 인터페이스의 개선을 위하여 사용자의 제스처를 인식하는 기술에 대한 연구가 증가하고 있다. 또한, 명령 입력 외에도 제스처 인식 기술을 이용하여 사용자의 편의성을 향상시킬 수 있는 기술에 대한 연구가 증가하고 있다.In order to improve the user interface, there is an increasing research on techniques for recognizing a user's gesture. In addition, there is an increasing research on techniques that can improve user convenience by using gesture recognition technology in addition to command input.

본 발명의 목적은, 사용자의 제스처를 인식하여 음성으로 변환 출력하고, 다른 언어로도 변환 출력할 수 있어, 사용자의 이용 편의성을 향상시킬 수 있는 제스처 인식 기기 및 그 동작 방법을 제공함에 있다.An object of the present invention is to provide a gesture recognition device and a method for operating the gesture recognition device capable of recognizing a user's gesture, converting the output of the gesture into voice, and converting and outputting the same to another language.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 제스처 인식 기기의 동작 방법은 사용자의 제스처(gesture)를 인식하는 단계, 인식된 제스처를 데이터베이스와 비교하여, 인식된 제스처에 대응하는 언어를 판별하는 단계, 판별된 언어를 음성 신호로 변환하는 단계와 음성 신호를 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating a gesture recognition device, comprising: recognizing a gesture of a user; comparing the recognized gesture with a database to determine a language corresponding to the recognized gesture; Converting the identified language into a voice signal, and outputting the voice signal.

본 발명에 따르면, 사용자의 제스처를 인식하여 음성으로 변환 출력하고, 다른 언어로도 변환 출력할 수 있어, 사용자의 이용 편의성을 향상시킬 수 있다. According to the present invention, the gesture of the user can be recognized and converted into voice, output to other languages, and user convenience can be improved.

도 1은 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이다.
도 2는 본 발명의 실시예에 따른 제스처 인식 과정을 설명하기 위해 참조되는 도면이다.
도 3은 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이다.
도 4와 도 5는 본 발명의 실시예에 따른 제스처 인식 기기의 동작 방법을 설명하기 위해 참조되는 도면이다.
도 6은 본 발명의 일 실시예에 따른 제스처 인식 기기의 내부 블록도이다.
도 7은 도 6의 인식부의 일 실시예에 따른 내부 블록도이다.
도 8a 내지 도 8d는 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 설명하기 위해 참조되는 도면이다.
도 9는 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이다.
1 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an exemplary embodiment of the present invention.
2 is a diagram for explaining a gesture recognition process according to an embodiment of the present invention.
3 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an exemplary embodiment of the present invention.
4 and 5 are diagrams for explaining a method of operating a gesture recognition apparatus according to an embodiment of the present invention.
6 is an internal block diagram of a gesture recognition apparatus according to an embodiment of the present invention.
7 is an internal block diagram according to an embodiment of the recognition unit of FIG.
8A to 8D are diagrams for explaining a method of operating a gesture recognition apparatus according to an embodiment of the present invention.
9 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description, and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.

대화 상대방이 자신이 구사할 수 없는 언어를 할 경우, 대화하기가 어렵고, 외국어는 잘 알고 있으나, 발음이 안 좋은 사람도 대화가 어려울 때가 있다.If a person who speaks a language is unable to speak, it is difficult to communicate and he / she knows a foreign language.

또한, 말을 하지 못하는 사람과 대화하려면, 수화를 익혀야 한다.Also, if you want to talk to someone who can not speak, you have to learn sign language.

본 발명은 제스처 인식 기술을 이용하여 대화가 어려운 상대방과도 원활하게 대화를 나누는데 도움을 줄 수 있는 제스처 인식 기기 및 그 동작 방법을 제공할 수 있다.The present invention can provide a gesture recognition device and a method of operating the same that can help smooth conversation with another party having difficulty in conversation using the gesture recognition technology.

도 1은 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이고, 도 2는 본 발명의 실시예에 따른 제스처 인식 과정을 설명하기 위해 참조되는 도면이다.FIG. 1 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an exemplary embodiment of the present invention. FIG. 2 is a flowchart illustrating a gesture recognition process according to an exemplary embodiment of the present invention. Referring to FIG.

도 1을 참조하면, 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법은 먼저 사용자의 제스처(gesture)를 인식한다.(S110)1, an operation method of a gesture recognition apparatus according to an embodiment of the present invention first recognizes a gesture of a user (S110)

본 발명의 일실시예에 따르면, 도 2의 (a)와 같이, 근전도 센서(210)를 통해 상기 사용자의 손 또는 손가락들의 움직임 중 적어도 하나를 인식할 수 있다.According to an embodiment of the present invention, at least one of the movements of the user's hands or fingers may be recognized through the electromyogram sensor 210, as shown in FIG.

또는, 상기 제스처 인식 단계(S110)는, 6축 센서를 통해 상기 사용자의 손 또는 손가락들의 움직임 중 적어도 하나를 인식할 수 있다. 도 2의 (b)는 암(arm) 밴드 타입의 제스처 인식 기기에 6축 센서가 구비되는 예를 도시한 것이다. 하지만, 본 발명의 실시예에 따른 제스처 인식 기기는 그 형태에 한정되지 않는다. 예를 들어, 제스처 인식을 위한 센서를 구비하는 인식부는 시계 타입(type), 암 밴드 타입, 칩 형태로 부착되는 타입 등 다양한 방식이 이용될 수 있다. 또한, 근전도 센서(210) 역시 시계 타입(type), 암 밴드 타입, 칩 형태로 부착되는 타입 등 다양한 방식이 이용될 수 있다. Alternatively, the gesture recognition step (S110) may recognize at least one of a movement of the user's hand or fingers through a six-axis sensor. FIG. 2 (b) shows an example in which a six-axis sensor is provided in an arm band type gesture recognition device. However, the gesture recognition device according to the embodiment of the present invention is not limited to this form. For example, the recognition unit having a sensor for gesture recognition may be various types such as a clock type, an arm band type, and a chip type. In addition, the electromyogram sensor 210 may be of various types such as a clock type, an arm band type, a chip type, and the like.

본 발명의 일실시예에 따르면, 허공에 키보드 자판을 치듯이 손가락을 움직이거나, 수화를 하면 근전도 센서나 6축 센서를 통해 사용자의 손 및/또는 손가락의 움직임을 감지(Detect)할 수 있다.According to an embodiment of the present invention, when a finger is moved or hydrated as if touching a keyboard, a motion of a user's hand and / or a finger can be detected through an electromyographic sensor or a six-axis sensor.

한편, 상기 제스처 인식 단계(S110)는, 근전도 센서(210)를 통해 상기 사용자의 손가락들의 근전도를 인식하는 단계, 상기 인식된 근전도 데이터의 노이즈를 제거하는 단계, 상기 인식된 근전도 데이터에 기초하여 상기 손가락들의 움직임을 조합하는 단계를 포함할 수 있다. 한편, 근전도 센서(210)를 이용한 구체적인 실시예는 도 8a 내지 도 9를 참조하여 후술한다.Meanwhile, the gesture recognition step (S110) may include recognizing an electromyogram of the user's fingers through the electromyogram sensor 210, removing noise of the recognized electromyogram data, determining, based on the recognized electromyogram data, And combining the movements of the fingers. Meanwhile, a specific embodiment using the electromyogram sensor 210 will be described later with reference to Figs. 8A to 9.

한편, 상기 제스처 인식 단계(S110)는, 다양한 센싱 수단을 통하여 상기 사용자의 동작 데이터를 수집하는 단계, 상기 수집된 데이터를 분석하여 상기 사용자의 제스처를 추정하는 단계를 포함할 수 있다.Meanwhile, the gesture recognition step (S110) may include collecting operation data of the user through various sensing means, and estimating the gesture of the user by analyzing the collected data.

한편, 본 발명에 따른 제스처 인식 기기는, 상기 인식된 제스처를 데이터베이스와 비교하여, 상기 인식된 제스처에 대응하는 언어를 판별하고,(S120) 상기 판별된 언어를 음성 신호로 변환할 수 있다.(S130) 여기서, 상기 데이터베이스는 제스처와 대응되는 언어 및 단어의 매핑(mapping) 테이블 형태로 저장되고 관리될 수 있고, 제스처 인식 기기 내에 구비되거나 외부의 서버에 구비될 수도 있다. Meanwhile, the gesture recognition device according to the present invention may compare the recognized gesture with a database to determine a language corresponding to the recognized gesture (S120), and convert the identified language into a voice signal. S130) Here, the database may be stored and managed in the form of a mapping table of a language and a word corresponding to a gesture, and may be provided in a gesture recognition device or an external server.

한편, 상기 음성 신호 변환 단계(S130)는, 상기 음성 신호를 상기 판별된 언어와 동일하거나 유사한 의미의 다른 종류의 언어에 대응하는 음성 신호로 변환할 수 있다.Meanwhile, the speech signal conversion step (S130) may convert the speech signal into a speech signal corresponding to a different language of the same or similar meaning to the identified language.

한편, 사용자의 설정에 따라 상기 인식된 제스처에 대응하는 언어는 변경되거나 복수의 언어를 이용할 수 있다. 예를 들어, 사용자는 모국어에 대응하는 제스처를 입력하지만, 제스처 인식 기기는 사용자의 모국어를 판별하고, 모국어에서 판별된 단어와 동일하거나 가장 유사한 단어의 외국어로 언어를 전환할 수 있다.On the other hand, the language corresponding to the recognized gesture may be changed or a plurality of languages may be used according to the setting of the user. For example, the user inputs a gesture corresponding to the mother tongue, but the gesture recognition device can determine the mother tongue of the user and switch the language to a foreign language of the same or similar word as the word determined in the mother tongue.

이후, 상기 음성 신호를 출력한다.(S140) 제스처 인식 기기가 스피커를 구비한 경우에는 직접 스피커를 통하여 실제 대화로 음성을 내보내서 대화를 진행할 수 있다. 또는 외부의 스피커, 휴대 단말기 등의 출력 수단으로 상기 음성 신호를 전송하여 해당 기기가 음성을 실제 출력하도록 제어할 수 있다.Then, the voice signal is output (S140). In the case where the gesture recognition device has a speaker, voice can be transmitted through the speaker directly to the conversation. Alternatively, the voice signal may be transmitted to an output means such as an external speaker, a portable terminal, or the like so that the corresponding device can actually output the voice.

도 3은 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이고, 도 4와 도 5는 본 발명의 실시예에 따른 제스처 인식 기기의 동작 방법을 설명하기 위해 참조되는 도면이다.FIG. 3 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an embodiment of the present invention. FIGS. 4 and 5 are views for explaining an operation method of a gesture recognition apparatus according to an embodiment of the present invention.

도면들을 참조하면, 제스처 인식 기기는 근전도, 6축센서 등을 이용하여 손가락, 손목의 움직임을 포착할 수 있다.(S311) 예를 들어, 근전도, 6축센서 등을 이용하여 사용자의 수화 제스처 동작을 감지할 수 있다.Referring to the drawings, a gesture recognition device can capture movements of a finger and a wrist using an electromyogram, a six-axis sensor, or the like (S311). For example, Lt; / RTI >

또한, 근전도를 이용하여 손가락의 움직임을 포착할 수 있다.(S312) 예를 들어, 근전도 센서 등을 이용하여 사용자의 가상 키보드를 치는 동작을 감지할 수 있다.In addition, the movement of the finger can be captured using the EMG (S312). For example, it is possible to detect the operation of hitting the user's virtual keyboard by using an EMG sensor or the like.

한편, 제스처 인식 기기는 X,Y,Z축 움직임(각도), 근전도 등 데이터를 수집하고,(S320), 데이터 분석하여 손가락 및/또는 손목의 움직임을 추정한다.(S330)Meanwhile, the gesture recognition device collects data such as X, Y, and Z axis movements (angles) and EMG data (S320), and analyzes the data to estimate movements of the finger and / or wrist (S330)

이후, 제스처 인식 기기는 데이터베이스(DB)에 저장된 움직임-언어 데이터들을 참조하여 제스처를 판별된 언어로 변환할 수 있다.(S340) 또한, 데이터베이스(DB)는 수화 제스처와 관련된 데이터도 포함할 수 있다.Thereafter, the gesture recognition device may convert the gesture into the identified language by referring to the motion-language data stored in the database (DB) (S340). The database (DB) may also include data related to the sign language gesture .

한편, 필요한 경우, 예를 들어, 타 외국인과 대화가 필요할 경우, 타 외국어로 변환하는 단계를 더 포함할 수 있다.(S350) Meanwhile, if necessary, for example, if conversation with another foreigner is required, the conversion may further include a step of converting into another foreign language (S350)

언어 변환 후에 제스처 인식 기기는 구비된 스피커 또는 외부의 연결된 출력 수단을 통해 해당 음성 신호가 실제로 출력되도록 제어할 수 있다.(S360) After the language conversion, the gesture recognition device can control the voice signal to be actually outputted through the speaker or the external output means (S360)

예를 들어, 말을 할 수 없는 사용자가 다른 사람과 대화할 경우, 수화에 대응하는 제스처(411) 또는 가상의 키보드를 치는 듯한 제스처(420)를 입력하면, 제스처 인식 기기는 스피커(510)를 통하여 사용자의 제스처에 대응하는 음성(520)이 실제로 출력하도록 제어할 수 있다. 또한, 대화 상대방은 사용자의 제스처 대신 출력된 음성(520)을 듣고, 대답(530)하면서 대화를 원활하게 진행할 수 있다.For example, when a user who can not talk talks with another person, the gesture recognition device inputs the gesture 411 corresponding to sign language or the virtual keyboard 420, So that the voice 520 corresponding to the gesture of the user can be actually output. In addition, the conversation partner can smoothly proceed with the conversation while listening to the output voice 520 instead of the user's gesture and in response (530).

또는, 사용자가 구사할 수 없는 언어를 쓰는 사람과 대화할 때 또는 상대 외국인이 사용자의 발음을 잘 알아듣지 못할 때에 제스처(411, 420)를 입력하여 대응하는 언어의 음성(520)을 스피커(510)로 출력할 수 있다. 또한, 대화 상대방은 사용자의 제스처 대신 출력된 음성(520)을 듣고, 대답(530)하면서 대화를 원활하게 진행할 수 있다.Alternatively, when the user speaks with a person who can not speak the user or when the foreigner can not understand the pronunciation of the user, the gesture 411, 420 is input to the speaker 510, . In addition, the conversation partner can smoothly proceed with the conversation while listening to the output voice 520 instead of the user's gesture and in response (530).

도 6은 본 발명의 일 실시예에 따른 제스처 인식 기기의 내부 블록도이고, 도 7은 도 6의 인식부의 일 실시예에 따른 내부 블록도이다. 도 8a 내지 도 9는 본 발명의 실시예에 따른 제스처 인식 기기의 동작 방법을 설명하기 위해 참조되는 도면이다.FIG. 6 is an internal block diagram of a gesture recognition apparatus according to an embodiment of the present invention, and FIG. 7 is an internal block diagram according to an embodiment of the recognition unit of FIG. 8A to 9 are views for explaining a method of operating a gesture recognition apparatus according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일실시예에 제스처 인식 기기는, 제스처 인식부(610), 제어부(620), 저장부(630), 인터페이스부(640), 스피커(650)를 포함할 수 있다. 6, the gesture recognition apparatus according to an embodiment of the present invention may include a gesture recognition unit 610, a control unit 620, a storage unit 630, an interface unit 640, and a speaker 650 have.

제스처 인식부(610)는 사용자의 제스처를 인식하기 위한 각종 센서류를 구비할 수 있다. 예를 들어, 제스처 인식부(610)는 6축 센서, 가속도 센서, 근전도(EMG) 센서 등 센서 수단 중 적어도 하나를 구비할 수 있다. The gesture recognition unit 610 may include various sensors for recognizing the gesture of the user. For example, the gesture recognition unit 610 may include at least one of sensor means such as a six-axis sensor, an acceleration sensor, and an EMG sensor.

제어부(620)는, 제스처 인식 기기 내의 전반적인 동작을 제어할 수 있다.The control unit 620 can control the overall operation in the gesture recognition device.

저장부(630)는, 제어부(620) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.The storage unit 630 may store a program for each signal processing and control in the control unit 620, and may store signal processed video, audio, or data signals.

한편, 저장부(630)는, 사용자의 제스처 움직임에 대응하는 언어를 판별하기 위해 사용되는 데이터베이스를 구비할 수 있다. 또한, 적어도 한 국가의 수화 제스처 및 언어 테이블을 저장하고 있을 수 있다.Meanwhile, the storage unit 630 may include a database used for discriminating a language corresponding to a gesture motion of the user. It may also store at least one country's sign language gestures and language tables.

인터페이스부(640)는 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있고, 물리적으로 분리되어 있는 센서 등과 통신하거나 외부의 기기와 통신할 수 있다.The interface unit 640 may provide an interface for connecting to a wired / wireless network including an Internet network, and may communicate with a physically separated sensor or the like or may communicate with an external device.

한편, 제어부(620)는 제스처 인식부(610), 인터페이스부(640)를 통해 입력되는 데이터를 신호 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The control unit 620 may process the input data through the gesture recognition unit 610 and the interface unit 640 to generate and output a signal for video or audio output.

제어부(620)에서 신호 처리된 영상 신호와 음성 신호는, 스피커(650)를 통해 출력될 수 있다. 또는, 제어부(620)에서 신호 처리된 영상 신호와 음성 신호는, 인터페이스부(640)를 통해, 휴대 단말기 등 외부 기기로 전송될 수 있다.The video signal and audio signal processed by the control unit 620 can be outputted through the speaker 650. [ Alternatively, the video signal and the audio signal processed by the control unit 620 can be transmitted to an external device such as a portable terminal through the interface unit 640.

도 7은 근전도를 이용하여 제스처를 인식하는 경우의 제스처 인식부의 구체적인 구성의 일예를 나타낸 것이고, 도 8a 내지 도 8d, 도 9는 근전도 데이터를 이용한 제스처 인식 과정의 구체적인 예를 설명하기 위해 참조되는 도면이다.FIG. 7 shows an example of a specific configuration of a gesture recognition unit when recognizing a gesture using an electromyogram. FIGS. 8A to 8D and 9 are diagrams for explaining a specific example of a gesture recognition process using EMG data to be.

도면들을 참조하면, 사용자의 팔 중 특정 위치, 예를 들어, 채널 1(Ch.1), 채널 2(Ch.2), 채널 3(Ch.3)에 근전도 센서 및 증폭기(EMG Amplification Device, 710)가 연결되어, 각 근육의 근전도 데이터를 측정하게 된다. Referring to the drawings, an electromyogram sensor and an amplifier (EMG Amplification Device) 710 are connected to a specific position of a user's arm, for example, channel 1 (Ch.1), channel 2 (Ch.2) ) Are connected to measure the EMG data of each muscle.

하나의 채널에서는 근전도 데이터가 도 8b와 같은 파형으로 측정되고, A/D 컨버터(720)에서 데이터는 디지털로 변환될 수 있다. 한편, 도 8c는 상기 3개의 채널에서 측정된 데이터를 예시한다.In one channel, the EMG data is measured in waveform as shown in FIG. 8B, and the data in the A / D converter 720 can be converted into digital data. On the other hand, FIG. 8C illustrates data measured on the three channels.

신호 처리부(730)는 타임 샘플 추출부(Time Sample Extraction, 731), 특징 추출부(Feature Extraction, 732), 전환부(Transformation, 730)를 포함할 수 있고, 수집한 근전도 시그널을 정확히 뽑을 수 있도록 노이즈(Noise)를 제거한 후, 도 8d와 같이, 소정 시점의 데이터를 추출할 수 있다.The signal processing unit 730 may include a time sample extraction unit 731, a feature extraction unit 732, and a transformation unit 730 so that the collected EMG signal can be accurately extracted After the noise is removed, data at a predetermined point in time can be extracted as shown in FIG. 8D.

이후 분급기(Classifier, 740)는 각 손가락의 움직임을 조합하여 손의 움직임을 추정할 수 있다. 한편, 실시예에 따라서는 분급기(740)가 아닌 제어부(620)에서 움직임을 추정할 수 있다.The classifier 740 can then estimate movement of the hand by combining the movements of the fingers. On the other hand, according to the embodiment, the controller 620 can estimate the motion instead of the classifier 740. [

예를 들어, 두번째 손가락의 근전도를 측정하는 채널 1(Ch.1)의 데이터로부터 두번째 손가락을 편안하게 늘어뜨린 상태로 판단하고, 세번째 손가락의 근전도를 측정하는 채널 2(ch.2)의 데이터로부터 세번째 손가락을 편안하게 늘어뜨린 상태로 판단하고, 엄지 손가락의 근전도를 측정하는 채널 3(Ch.3)의 데이터로부터 엄지손가락은 말아쥐고 힘을 준 상태로 판단할 수 있다.For example, it is determined from the data of channel 1 (Ch. 1) measuring the electromyogram of the second finger that the second finger is comfortably sagged, and from the data of channel 2 (ch.2) measuring the electromyogram of the third finger It is judged that the third finger is laid comfortably, and from the data of the channel 3 (Ch.3) measuring the electromyogram of the thumb, the thumb can be grasped and judged as a force.

이에 따라, 사용자의 손 동작이 얇은 무언가를 잡고 있는 형태로 판단할 수 있다.Thus, it is possible to judge that the hand motion of the user is holding something thin.

도 9에 예시된 사용자의 손 동작을 다시 살펴보면, 두번째 손가락의 움직임을 감지한 채널 1(Ch.1)의 데이터로부터 두번째 손가락을 말아쥔 상태로 판단하고, 세번째 손가락의 움직임을 감지한 채널 2(Ch.2)의 데이터로부터 세번째 손가락을 말아쥔 상태로 판단하고, 엄지 손가락의 움직임을 감지한 채널 3(Ch.3)의 데이터로부터 엄지손가락은 말아쥐고 힘을 뺀 상태로 판단한 경우, 도 9와 같이 타원형 형태의 무언가를 잡고 있는 형태로 판단할 수 있다.9, it is determined that the second finger is grasped from the data of the channel 1 (Ch.1) that senses the movement of the second finger, and the channel 2 Ch. 2), and judges that the third finger is grasped from the data of the channel 3 (Ch.3) in which the movement of the thumb is sensed. You can judge it as a form holding something like an elliptical shape.

본 발명에 따르면, 사용자의 제스처를 인식하여 음성으로 변환 출력하고, 다른 언어로도 변환 출력할 수 있어, 사용자의 이용 편의성을 향상시킬 수 있다. According to the present invention, the gesture of the user can be recognized and converted into voice, output to other languages, and user convenience can be improved.

본 발명에 따른 제스처 인식 기기 및 그 동작 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The gesture recognition apparatus and the operation method thereof according to the present invention are not limited to the configuration and method of the embodiments described above, but the embodiments can be applied to all or some of the embodiments May be selectively combined.

한편, 본 발명의 제스처 인식 기기의 동작 방법은 제스처 인식 기기에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method of operating the gesture recognition apparatus of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by a processor included in the gesture recognition apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

610: 인식부
620: 제어부
630 : 저장부
640 : 인터페이스부
650 : 스피커
610:
620:
630:
640:
650: Speaker

Claims (6)

사용자의 제스처(gesture)를 인식하는 단계;
상기 인식된 제스처를 데이터베이스와 비교하여, 상기 인식된 제스처에 대응하는 언어를 판별하는 단계;
상기 판별된 언어를 음성 신호로 변환하는 단계; 및,
상기 음성 신호를 출력하는 단계;를 포함하는 제스처 인식 기기의 동작 방법.
Recognizing a user's gesture;
Comparing the recognized gesture with a database to determine a language corresponding to the recognized gesture;
Converting the identified language into a voice signal; And
And outputting the voice signal.
제1항에 있어서,
상기 제스처 인식 단계는, 근전도 센서를 통해 상기 사용자의 손가락들의 근전도를 인식하는 단계, 상기 인식된 근전도 데이터의 노이즈를 제거하는 단계, 상기 인식된 근전도 데이터에 기초하여 상기 손가락들의 움직임을 조합하는 단계를 포함하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.
The method according to claim 1,
The gesture recognition step may include recognizing an electromyogram of the user's fingers through an electromyogram sensor, removing noise of the recognized electromyogram data, and combining the motions of the fingers based on the recognized electromyogram data The gesture recognition apparatus comprising:
제1항에 있어서,
상기 제스처 인식 단계는, 근전도 센서를 통해 상기 사용자의 손 또는 손가락들의 움직임 중 적어도 하나를 인식하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.
The method according to claim 1,
Wherein the gesture recognition step recognizes at least one of movement of the user's hand or fingers through an electromyogram sensor.
제1항에 있어서,
상기 제스처 인식 단계는, 6축 센서를 통해 상기 사용자의 손 또는 손가락들의 움직임 중 적어도 하나를 인식하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.
The method according to claim 1,
Wherein the gesture recognition step recognizes at least one of movement of the user's hand or fingers through a six-axis sensor.
제1항에 있어서,
상기 제스처 인식 단계는, 상기 사용자의 동작 데이터를 수집하는 단계, 상기 수집된 데이터를 분석하여 상기 사용자의 제스처를 추정하는 단계를 포함하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.
The method according to claim 1,
Wherein the gesture recognition step includes collecting operation data of the user and estimating a gesture of the user by analyzing the collected data.
제1항에 있어서,
상기 음성 신호 변환 단계는, 상기 음성 신호를 상기 판별된 언어와 동일하거나 유사한 의미의 다른 종류의 언어에 대응하는 음성 신호로 변환하는 것을 특징으로 하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.
The method according to claim 1,
Wherein the voice signal conversion step converts the voice signal into a voice signal corresponding to a different language of the same or similar meaning to the identified language.
KR20130066679A 2013-06-11 2013-06-11 Method for operating a gesture recognition apparatus KR20140144560A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130066679A KR20140144560A (en) 2013-06-11 2013-06-11 Method for operating a gesture recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130066679A KR20140144560A (en) 2013-06-11 2013-06-11 Method for operating a gesture recognition apparatus

Publications (1)

Publication Number Publication Date
KR20140144560A true KR20140144560A (en) 2014-12-19

Family

ID=52674777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130066679A KR20140144560A (en) 2013-06-11 2013-06-11 Method for operating a gesture recognition apparatus

Country Status (1)

Country Link
KR (1) KR20140144560A (en)

Similar Documents

Publication Publication Date Title
US10546582B2 (en) Information processing device, method of information processing, and program
KR100995130B1 (en) The system for recogniging of user touch pattern using touch sensor and accelerometer sensor
JP5789270B2 (en) User interface providing apparatus and method using surface acoustic signal, and device having user interface
WO2016150001A1 (en) Speech recognition method, device and computer storage medium
WO2014135023A1 (en) Man-machine interaction method and system of intelligent terminal
CN107799126A (en) Sound end detecting method and device based on Supervised machine learning
WO2003046706A1 (en) Detecting, classifying, and interpreting input events
TW201218023A (en) Efficient gesture processing
CN109994111B (en) Interaction method, interaction device and mobile terminal
US10770077B2 (en) Electronic device and method
CN111984180B (en) Terminal screen reading method, device, equipment and computer readable storage medium
CN108510988A (en) A kind of speech recognition system and method for deaf-mute
CN105867595A (en) Human-machine interaction mode combing voice information with gesture information and implementation device thereof
CN107491254A (en) A kind of gesture operation method, device and mobile terminal
WO2016036197A1 (en) Hand movement recognizing device and method
CN111785267A (en) Interaction control method and device and computer readable storage medium
KR101567154B1 (en) Method for processing dialogue based on multiple user and apparatus for performing the same
Swee et al. Malay sign language gesture recognition system
KR20140144560A (en) Method for operating a gesture recognition apparatus
US20160048372A1 (en) User Interaction With an Apparatus Using a Location Sensor and Microphone Signal(s)
CN101976186B (en) Voice recognition method of computer and computer
JP2019164232A (en) Sharing terminal, method and program, and sharing system and method
KR100499030B1 (en) Interface device using lip recognizer on PDA and the method
CN111326175A (en) Prompting method for interlocutor and wearable device
CN105872921A (en) Mobile phone microphone multi-program simultaneous operation system and control method thereof

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid