KR20140144560A - Method for operating a gesture recognition apparatus - Google Patents
Method for operating a gesture recognition apparatus Download PDFInfo
- Publication number
- KR20140144560A KR20140144560A KR20130066679A KR20130066679A KR20140144560A KR 20140144560 A KR20140144560 A KR 20140144560A KR 20130066679 A KR20130066679 A KR 20130066679A KR 20130066679 A KR20130066679 A KR 20130066679A KR 20140144560 A KR20140144560 A KR 20140144560A
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- user
- gesture recognition
- language
- data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Abstract
Description
본 발명은 제스처 인식 기기 및 그 동작 방법에 관한 것이며, 더욱 상세하게는 사용자의 제스처를 인식하여 음성으로 변환 출력하고, 다른 언어로도 변환 출력할 수 있어, 사용자의 이용 편의성을 향상시킬 수 있는 제스처 인식 기기 및 그 동작 방법에 관한 것이다.The present invention relates to a gesture recognition apparatus and an operation method thereof, and more particularly, to a gesture recognition apparatus and a gesture recognition method that can recognize a gesture of a user, And a method of operating the same.
휴대 단말기, TV 등 전자기기들의 기능 및 서비스는 점점 다양화되는 추세에 있다.The functions and services of electronic devices such as portable terminals and TVs are becoming increasingly diversified.
하지만, 이러한 전자기기들을 이용함에 있어서, 사용자는 단말 또는 원격제어장치를 이용하여, 복잡한 조작을 입력해야 원하는 기능을 활용할 수 있게 되는 불편함이 있다. However, in using such electronic devices, the user has to input complicated operations using a terminal or a remote control device, so that the user can use the desired functions.
이러한, 사용자 인터페이스의 개선을 위하여 사용자의 제스처를 인식하는 기술에 대한 연구가 증가하고 있다. 또한, 명령 입력 외에도 제스처 인식 기술을 이용하여 사용자의 편의성을 향상시킬 수 있는 기술에 대한 연구가 증가하고 있다.In order to improve the user interface, there is an increasing research on techniques for recognizing a user's gesture. In addition, there is an increasing research on techniques that can improve user convenience by using gesture recognition technology in addition to command input.
본 발명의 목적은, 사용자의 제스처를 인식하여 음성으로 변환 출력하고, 다른 언어로도 변환 출력할 수 있어, 사용자의 이용 편의성을 향상시킬 수 있는 제스처 인식 기기 및 그 동작 방법을 제공함에 있다.An object of the present invention is to provide a gesture recognition device and a method for operating the gesture recognition device capable of recognizing a user's gesture, converting the output of the gesture into voice, and converting and outputting the same to another language.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 제스처 인식 기기의 동작 방법은 사용자의 제스처(gesture)를 인식하는 단계, 인식된 제스처를 데이터베이스와 비교하여, 인식된 제스처에 대응하는 언어를 판별하는 단계, 판별된 언어를 음성 신호로 변환하는 단계와 음성 신호를 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating a gesture recognition device, comprising: recognizing a gesture of a user; comparing the recognized gesture with a database to determine a language corresponding to the recognized gesture; Converting the identified language into a voice signal, and outputting the voice signal.
본 발명에 따르면, 사용자의 제스처를 인식하여 음성으로 변환 출력하고, 다른 언어로도 변환 출력할 수 있어, 사용자의 이용 편의성을 향상시킬 수 있다. According to the present invention, the gesture of the user can be recognized and converted into voice, output to other languages, and user convenience can be improved.
도 1은 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이다.
도 2는 본 발명의 실시예에 따른 제스처 인식 과정을 설명하기 위해 참조되는 도면이다.
도 3은 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이다.
도 4와 도 5는 본 발명의 실시예에 따른 제스처 인식 기기의 동작 방법을 설명하기 위해 참조되는 도면이다.
도 6은 본 발명의 일 실시예에 따른 제스처 인식 기기의 내부 블록도이다.
도 7은 도 6의 인식부의 일 실시예에 따른 내부 블록도이다.
도 8a 내지 도 8d는 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 설명하기 위해 참조되는 도면이다.
도 9는 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이다.1 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an exemplary embodiment of the present invention.
2 is a diagram for explaining a gesture recognition process according to an embodiment of the present invention.
3 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an exemplary embodiment of the present invention.
4 and 5 are diagrams for explaining a method of operating a gesture recognition apparatus according to an embodiment of the present invention.
6 is an internal block diagram of a gesture recognition apparatus according to an embodiment of the present invention.
7 is an internal block diagram according to an embodiment of the recognition unit of FIG.
8A to 8D are diagrams for explaining a method of operating a gesture recognition apparatus according to an embodiment of the present invention.
9 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description, and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.
대화 상대방이 자신이 구사할 수 없는 언어를 할 경우, 대화하기가 어렵고, 외국어는 잘 알고 있으나, 발음이 안 좋은 사람도 대화가 어려울 때가 있다.If a person who speaks a language is unable to speak, it is difficult to communicate and he / she knows a foreign language.
또한, 말을 하지 못하는 사람과 대화하려면, 수화를 익혀야 한다.Also, if you want to talk to someone who can not speak, you have to learn sign language.
본 발명은 제스처 인식 기술을 이용하여 대화가 어려운 상대방과도 원활하게 대화를 나누는데 도움을 줄 수 있는 제스처 인식 기기 및 그 동작 방법을 제공할 수 있다.The present invention can provide a gesture recognition device and a method of operating the same that can help smooth conversation with another party having difficulty in conversation using the gesture recognition technology.
도 1은 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이고, 도 2는 본 발명의 실시예에 따른 제스처 인식 과정을 설명하기 위해 참조되는 도면이다.FIG. 1 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an exemplary embodiment of the present invention. FIG. 2 is a flowchart illustrating a gesture recognition process according to an exemplary embodiment of the present invention. Referring to FIG.
도 1을 참조하면, 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법은 먼저 사용자의 제스처(gesture)를 인식한다.(S110)1, an operation method of a gesture recognition apparatus according to an embodiment of the present invention first recognizes a gesture of a user (S110)
본 발명의 일실시예에 따르면, 도 2의 (a)와 같이, 근전도 센서(210)를 통해 상기 사용자의 손 또는 손가락들의 움직임 중 적어도 하나를 인식할 수 있다.According to an embodiment of the present invention, at least one of the movements of the user's hands or fingers may be recognized through the
또는, 상기 제스처 인식 단계(S110)는, 6축 센서를 통해 상기 사용자의 손 또는 손가락들의 움직임 중 적어도 하나를 인식할 수 있다. 도 2의 (b)는 암(arm) 밴드 타입의 제스처 인식 기기에 6축 센서가 구비되는 예를 도시한 것이다. 하지만, 본 발명의 실시예에 따른 제스처 인식 기기는 그 형태에 한정되지 않는다. 예를 들어, 제스처 인식을 위한 센서를 구비하는 인식부는 시계 타입(type), 암 밴드 타입, 칩 형태로 부착되는 타입 등 다양한 방식이 이용될 수 있다. 또한, 근전도 센서(210) 역시 시계 타입(type), 암 밴드 타입, 칩 형태로 부착되는 타입 등 다양한 방식이 이용될 수 있다. Alternatively, the gesture recognition step (S110) may recognize at least one of a movement of the user's hand or fingers through a six-axis sensor. FIG. 2 (b) shows an example in which a six-axis sensor is provided in an arm band type gesture recognition device. However, the gesture recognition device according to the embodiment of the present invention is not limited to this form. For example, the recognition unit having a sensor for gesture recognition may be various types such as a clock type, an arm band type, and a chip type. In addition, the
본 발명의 일실시예에 따르면, 허공에 키보드 자판을 치듯이 손가락을 움직이거나, 수화를 하면 근전도 센서나 6축 센서를 통해 사용자의 손 및/또는 손가락의 움직임을 감지(Detect)할 수 있다.According to an embodiment of the present invention, when a finger is moved or hydrated as if touching a keyboard, a motion of a user's hand and / or a finger can be detected through an electromyographic sensor or a six-axis sensor.
한편, 상기 제스처 인식 단계(S110)는, 근전도 센서(210)를 통해 상기 사용자의 손가락들의 근전도를 인식하는 단계, 상기 인식된 근전도 데이터의 노이즈를 제거하는 단계, 상기 인식된 근전도 데이터에 기초하여 상기 손가락들의 움직임을 조합하는 단계를 포함할 수 있다. 한편, 근전도 센서(210)를 이용한 구체적인 실시예는 도 8a 내지 도 9를 참조하여 후술한다.Meanwhile, the gesture recognition step (S110) may include recognizing an electromyogram of the user's fingers through the
한편, 상기 제스처 인식 단계(S110)는, 다양한 센싱 수단을 통하여 상기 사용자의 동작 데이터를 수집하는 단계, 상기 수집된 데이터를 분석하여 상기 사용자의 제스처를 추정하는 단계를 포함할 수 있다.Meanwhile, the gesture recognition step (S110) may include collecting operation data of the user through various sensing means, and estimating the gesture of the user by analyzing the collected data.
한편, 본 발명에 따른 제스처 인식 기기는, 상기 인식된 제스처를 데이터베이스와 비교하여, 상기 인식된 제스처에 대응하는 언어를 판별하고,(S120) 상기 판별된 언어를 음성 신호로 변환할 수 있다.(S130) 여기서, 상기 데이터베이스는 제스처와 대응되는 언어 및 단어의 매핑(mapping) 테이블 형태로 저장되고 관리될 수 있고, 제스처 인식 기기 내에 구비되거나 외부의 서버에 구비될 수도 있다. Meanwhile, the gesture recognition device according to the present invention may compare the recognized gesture with a database to determine a language corresponding to the recognized gesture (S120), and convert the identified language into a voice signal. S130) Here, the database may be stored and managed in the form of a mapping table of a language and a word corresponding to a gesture, and may be provided in a gesture recognition device or an external server.
한편, 상기 음성 신호 변환 단계(S130)는, 상기 음성 신호를 상기 판별된 언어와 동일하거나 유사한 의미의 다른 종류의 언어에 대응하는 음성 신호로 변환할 수 있다.Meanwhile, the speech signal conversion step (S130) may convert the speech signal into a speech signal corresponding to a different language of the same or similar meaning to the identified language.
한편, 사용자의 설정에 따라 상기 인식된 제스처에 대응하는 언어는 변경되거나 복수의 언어를 이용할 수 있다. 예를 들어, 사용자는 모국어에 대응하는 제스처를 입력하지만, 제스처 인식 기기는 사용자의 모국어를 판별하고, 모국어에서 판별된 단어와 동일하거나 가장 유사한 단어의 외국어로 언어를 전환할 수 있다.On the other hand, the language corresponding to the recognized gesture may be changed or a plurality of languages may be used according to the setting of the user. For example, the user inputs a gesture corresponding to the mother tongue, but the gesture recognition device can determine the mother tongue of the user and switch the language to a foreign language of the same or similar word as the word determined in the mother tongue.
이후, 상기 음성 신호를 출력한다.(S140) 제스처 인식 기기가 스피커를 구비한 경우에는 직접 스피커를 통하여 실제 대화로 음성을 내보내서 대화를 진행할 수 있다. 또는 외부의 스피커, 휴대 단말기 등의 출력 수단으로 상기 음성 신호를 전송하여 해당 기기가 음성을 실제 출력하도록 제어할 수 있다.Then, the voice signal is output (S140). In the case where the gesture recognition device has a speaker, voice can be transmitted through the speaker directly to the conversation. Alternatively, the voice signal may be transmitted to an output means such as an external speaker, a portable terminal, or the like so that the corresponding device can actually output the voice.
도 3은 본 발명의 일실시예에 따른 제스처 인식 기기의 동작 방법을 보여주는 순서도이고, 도 4와 도 5는 본 발명의 실시예에 따른 제스처 인식 기기의 동작 방법을 설명하기 위해 참조되는 도면이다.FIG. 3 is a flowchart illustrating an operation method of a gesture recognition apparatus according to an embodiment of the present invention. FIGS. 4 and 5 are views for explaining an operation method of a gesture recognition apparatus according to an embodiment of the present invention.
도면들을 참조하면, 제스처 인식 기기는 근전도, 6축센서 등을 이용하여 손가락, 손목의 움직임을 포착할 수 있다.(S311) 예를 들어, 근전도, 6축센서 등을 이용하여 사용자의 수화 제스처 동작을 감지할 수 있다.Referring to the drawings, a gesture recognition device can capture movements of a finger and a wrist using an electromyogram, a six-axis sensor, or the like (S311). For example, Lt; / RTI >
또한, 근전도를 이용하여 손가락의 움직임을 포착할 수 있다.(S312) 예를 들어, 근전도 센서 등을 이용하여 사용자의 가상 키보드를 치는 동작을 감지할 수 있다.In addition, the movement of the finger can be captured using the EMG (S312). For example, it is possible to detect the operation of hitting the user's virtual keyboard by using an EMG sensor or the like.
한편, 제스처 인식 기기는 X,Y,Z축 움직임(각도), 근전도 등 데이터를 수집하고,(S320), 데이터 분석하여 손가락 및/또는 손목의 움직임을 추정한다.(S330)Meanwhile, the gesture recognition device collects data such as X, Y, and Z axis movements (angles) and EMG data (S320), and analyzes the data to estimate movements of the finger and / or wrist (S330)
이후, 제스처 인식 기기는 데이터베이스(DB)에 저장된 움직임-언어 데이터들을 참조하여 제스처를 판별된 언어로 변환할 수 있다.(S340) 또한, 데이터베이스(DB)는 수화 제스처와 관련된 데이터도 포함할 수 있다.Thereafter, the gesture recognition device may convert the gesture into the identified language by referring to the motion-language data stored in the database (DB) (S340). The database (DB) may also include data related to the sign language gesture .
한편, 필요한 경우, 예를 들어, 타 외국인과 대화가 필요할 경우, 타 외국어로 변환하는 단계를 더 포함할 수 있다.(S350) Meanwhile, if necessary, for example, if conversation with another foreigner is required, the conversion may further include a step of converting into another foreign language (S350)
언어 변환 후에 제스처 인식 기기는 구비된 스피커 또는 외부의 연결된 출력 수단을 통해 해당 음성 신호가 실제로 출력되도록 제어할 수 있다.(S360) After the language conversion, the gesture recognition device can control the voice signal to be actually outputted through the speaker or the external output means (S360)
예를 들어, 말을 할 수 없는 사용자가 다른 사람과 대화할 경우, 수화에 대응하는 제스처(411) 또는 가상의 키보드를 치는 듯한 제스처(420)를 입력하면, 제스처 인식 기기는 스피커(510)를 통하여 사용자의 제스처에 대응하는 음성(520)이 실제로 출력하도록 제어할 수 있다. 또한, 대화 상대방은 사용자의 제스처 대신 출력된 음성(520)을 듣고, 대답(530)하면서 대화를 원활하게 진행할 수 있다.For example, when a user who can not talk talks with another person, the gesture recognition device inputs the
또는, 사용자가 구사할 수 없는 언어를 쓰는 사람과 대화할 때 또는 상대 외국인이 사용자의 발음을 잘 알아듣지 못할 때에 제스처(411, 420)를 입력하여 대응하는 언어의 음성(520)을 스피커(510)로 출력할 수 있다. 또한, 대화 상대방은 사용자의 제스처 대신 출력된 음성(520)을 듣고, 대답(530)하면서 대화를 원활하게 진행할 수 있다.Alternatively, when the user speaks with a person who can not speak the user or when the foreigner can not understand the pronunciation of the user, the
도 6은 본 발명의 일 실시예에 따른 제스처 인식 기기의 내부 블록도이고, 도 7은 도 6의 인식부의 일 실시예에 따른 내부 블록도이다. 도 8a 내지 도 9는 본 발명의 실시예에 따른 제스처 인식 기기의 동작 방법을 설명하기 위해 참조되는 도면이다.FIG. 6 is an internal block diagram of a gesture recognition apparatus according to an embodiment of the present invention, and FIG. 7 is an internal block diagram according to an embodiment of the recognition unit of FIG. 8A to 9 are views for explaining a method of operating a gesture recognition apparatus according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일실시예에 제스처 인식 기기는, 제스처 인식부(610), 제어부(620), 저장부(630), 인터페이스부(640), 스피커(650)를 포함할 수 있다. 6, the gesture recognition apparatus according to an embodiment of the present invention may include a
제스처 인식부(610)는 사용자의 제스처를 인식하기 위한 각종 센서류를 구비할 수 있다. 예를 들어, 제스처 인식부(610)는 6축 센서, 가속도 센서, 근전도(EMG) 센서 등 센서 수단 중 적어도 하나를 구비할 수 있다. The
제어부(620)는, 제스처 인식 기기 내의 전반적인 동작을 제어할 수 있다.The
저장부(630)는, 제어부(620) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다.The
한편, 저장부(630)는, 사용자의 제스처 움직임에 대응하는 언어를 판별하기 위해 사용되는 데이터베이스를 구비할 수 있다. 또한, 적어도 한 국가의 수화 제스처 및 언어 테이블을 저장하고 있을 수 있다.Meanwhile, the
인터페이스부(640)는 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있고, 물리적으로 분리되어 있는 센서 등과 통신하거나 외부의 기기와 통신할 수 있다.The
한편, 제어부(620)는 제스처 인식부(610), 인터페이스부(640)를 통해 입력되는 데이터를 신호 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The
제어부(620)에서 신호 처리된 영상 신호와 음성 신호는, 스피커(650)를 통해 출력될 수 있다. 또는, 제어부(620)에서 신호 처리된 영상 신호와 음성 신호는, 인터페이스부(640)를 통해, 휴대 단말기 등 외부 기기로 전송될 수 있다.The video signal and audio signal processed by the
도 7은 근전도를 이용하여 제스처를 인식하는 경우의 제스처 인식부의 구체적인 구성의 일예를 나타낸 것이고, 도 8a 내지 도 8d, 도 9는 근전도 데이터를 이용한 제스처 인식 과정의 구체적인 예를 설명하기 위해 참조되는 도면이다.FIG. 7 shows an example of a specific configuration of a gesture recognition unit when recognizing a gesture using an electromyogram. FIGS. 8A to 8D and 9 are diagrams for explaining a specific example of a gesture recognition process using EMG data to be.
도면들을 참조하면, 사용자의 팔 중 특정 위치, 예를 들어, 채널 1(Ch.1), 채널 2(Ch.2), 채널 3(Ch.3)에 근전도 센서 및 증폭기(EMG Amplification Device, 710)가 연결되어, 각 근육의 근전도 데이터를 측정하게 된다. Referring to the drawings, an electromyogram sensor and an amplifier (EMG Amplification Device) 710 are connected to a specific position of a user's arm, for example, channel 1 (Ch.1), channel 2 (Ch.2) ) Are connected to measure the EMG data of each muscle.
하나의 채널에서는 근전도 데이터가 도 8b와 같은 파형으로 측정되고, A/D 컨버터(720)에서 데이터는 디지털로 변환될 수 있다. 한편, 도 8c는 상기 3개의 채널에서 측정된 데이터를 예시한다.In one channel, the EMG data is measured in waveform as shown in FIG. 8B, and the data in the A /
신호 처리부(730)는 타임 샘플 추출부(Time Sample Extraction, 731), 특징 추출부(Feature Extraction, 732), 전환부(Transformation, 730)를 포함할 수 있고, 수집한 근전도 시그널을 정확히 뽑을 수 있도록 노이즈(Noise)를 제거한 후, 도 8d와 같이, 소정 시점의 데이터를 추출할 수 있다.The
이후 분급기(Classifier, 740)는 각 손가락의 움직임을 조합하여 손의 움직임을 추정할 수 있다. 한편, 실시예에 따라서는 분급기(740)가 아닌 제어부(620)에서 움직임을 추정할 수 있다.The
예를 들어, 두번째 손가락의 근전도를 측정하는 채널 1(Ch.1)의 데이터로부터 두번째 손가락을 편안하게 늘어뜨린 상태로 판단하고, 세번째 손가락의 근전도를 측정하는 채널 2(ch.2)의 데이터로부터 세번째 손가락을 편안하게 늘어뜨린 상태로 판단하고, 엄지 손가락의 근전도를 측정하는 채널 3(Ch.3)의 데이터로부터 엄지손가락은 말아쥐고 힘을 준 상태로 판단할 수 있다.For example, it is determined from the data of channel 1 (Ch. 1) measuring the electromyogram of the second finger that the second finger is comfortably sagged, and from the data of channel 2 (ch.2) measuring the electromyogram of the third finger It is judged that the third finger is laid comfortably, and from the data of the channel 3 (Ch.3) measuring the electromyogram of the thumb, the thumb can be grasped and judged as a force.
이에 따라, 사용자의 손 동작이 얇은 무언가를 잡고 있는 형태로 판단할 수 있다.Thus, it is possible to judge that the hand motion of the user is holding something thin.
도 9에 예시된 사용자의 손 동작을 다시 살펴보면, 두번째 손가락의 움직임을 감지한 채널 1(Ch.1)의 데이터로부터 두번째 손가락을 말아쥔 상태로 판단하고, 세번째 손가락의 움직임을 감지한 채널 2(Ch.2)의 데이터로부터 세번째 손가락을 말아쥔 상태로 판단하고, 엄지 손가락의 움직임을 감지한 채널 3(Ch.3)의 데이터로부터 엄지손가락은 말아쥐고 힘을 뺀 상태로 판단한 경우, 도 9와 같이 타원형 형태의 무언가를 잡고 있는 형태로 판단할 수 있다.9, it is determined that the second finger is grasped from the data of the channel 1 (Ch.1) that senses the movement of the second finger, and the channel 2 Ch. 2), and judges that the third finger is grasped from the data of the channel 3 (Ch.3) in which the movement of the thumb is sensed. You can judge it as a form holding something like an elliptical shape.
본 발명에 따르면, 사용자의 제스처를 인식하여 음성으로 변환 출력하고, 다른 언어로도 변환 출력할 수 있어, 사용자의 이용 편의성을 향상시킬 수 있다. According to the present invention, the gesture of the user can be recognized and converted into voice, output to other languages, and user convenience can be improved.
본 발명에 따른 제스처 인식 기기 및 그 동작 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The gesture recognition apparatus and the operation method thereof according to the present invention are not limited to the configuration and method of the embodiments described above, but the embodiments can be applied to all or some of the embodiments May be selectively combined.
한편, 본 발명의 제스처 인식 기기의 동작 방법은 제스처 인식 기기에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method of operating the gesture recognition apparatus of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by a processor included in the gesture recognition apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
610: 인식부
620: 제어부
630 : 저장부
640 : 인터페이스부
650 : 스피커 610:
620:
630:
640:
650: Speaker
Claims (6)
상기 인식된 제스처를 데이터베이스와 비교하여, 상기 인식된 제스처에 대응하는 언어를 판별하는 단계;
상기 판별된 언어를 음성 신호로 변환하는 단계; 및,
상기 음성 신호를 출력하는 단계;를 포함하는 제스처 인식 기기의 동작 방법.Recognizing a user's gesture;
Comparing the recognized gesture with a database to determine a language corresponding to the recognized gesture;
Converting the identified language into a voice signal; And
And outputting the voice signal.
상기 제스처 인식 단계는, 근전도 센서를 통해 상기 사용자의 손가락들의 근전도를 인식하는 단계, 상기 인식된 근전도 데이터의 노이즈를 제거하는 단계, 상기 인식된 근전도 데이터에 기초하여 상기 손가락들의 움직임을 조합하는 단계를 포함하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.The method according to claim 1,
The gesture recognition step may include recognizing an electromyogram of the user's fingers through an electromyogram sensor, removing noise of the recognized electromyogram data, and combining the motions of the fingers based on the recognized electromyogram data The gesture recognition apparatus comprising:
상기 제스처 인식 단계는, 근전도 센서를 통해 상기 사용자의 손 또는 손가락들의 움직임 중 적어도 하나를 인식하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.The method according to claim 1,
Wherein the gesture recognition step recognizes at least one of movement of the user's hand or fingers through an electromyogram sensor.
상기 제스처 인식 단계는, 6축 센서를 통해 상기 사용자의 손 또는 손가락들의 움직임 중 적어도 하나를 인식하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.The method according to claim 1,
Wherein the gesture recognition step recognizes at least one of movement of the user's hand or fingers through a six-axis sensor.
상기 제스처 인식 단계는, 상기 사용자의 동작 데이터를 수집하는 단계, 상기 수집된 데이터를 분석하여 상기 사용자의 제스처를 추정하는 단계를 포함하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.The method according to claim 1,
Wherein the gesture recognition step includes collecting operation data of the user and estimating a gesture of the user by analyzing the collected data.
상기 음성 신호 변환 단계는, 상기 음성 신호를 상기 판별된 언어와 동일하거나 유사한 의미의 다른 종류의 언어에 대응하는 음성 신호로 변환하는 것을 특징으로 하는 것을 특징으로 하는 제스처 인식 기기의 동작 방법.
The method according to claim 1,
Wherein the voice signal conversion step converts the voice signal into a voice signal corresponding to a different language of the same or similar meaning to the identified language.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130066679A KR20140144560A (en) | 2013-06-11 | 2013-06-11 | Method for operating a gesture recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130066679A KR20140144560A (en) | 2013-06-11 | 2013-06-11 | Method for operating a gesture recognition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140144560A true KR20140144560A (en) | 2014-12-19 |
Family
ID=52674777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130066679A KR20140144560A (en) | 2013-06-11 | 2013-06-11 | Method for operating a gesture recognition apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20140144560A (en) |
-
2013
- 2013-06-11 KR KR20130066679A patent/KR20140144560A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10546582B2 (en) | Information processing device, method of information processing, and program | |
KR100995130B1 (en) | The system for recogniging of user touch pattern using touch sensor and accelerometer sensor | |
JP5789270B2 (en) | User interface providing apparatus and method using surface acoustic signal, and device having user interface | |
WO2016150001A1 (en) | Speech recognition method, device and computer storage medium | |
WO2014135023A1 (en) | Man-machine interaction method and system of intelligent terminal | |
CN107799126A (en) | Sound end detecting method and device based on Supervised machine learning | |
WO2003046706A1 (en) | Detecting, classifying, and interpreting input events | |
TW201218023A (en) | Efficient gesture processing | |
CN109994111B (en) | Interaction method, interaction device and mobile terminal | |
US10770077B2 (en) | Electronic device and method | |
CN111984180B (en) | Terminal screen reading method, device, equipment and computer readable storage medium | |
CN108510988A (en) | A kind of speech recognition system and method for deaf-mute | |
CN105867595A (en) | Human-machine interaction mode combing voice information with gesture information and implementation device thereof | |
CN107491254A (en) | A kind of gesture operation method, device and mobile terminal | |
WO2016036197A1 (en) | Hand movement recognizing device and method | |
CN111785267A (en) | Interaction control method and device and computer readable storage medium | |
KR101567154B1 (en) | Method for processing dialogue based on multiple user and apparatus for performing the same | |
Swee et al. | Malay sign language gesture recognition system | |
KR20140144560A (en) | Method for operating a gesture recognition apparatus | |
US20160048372A1 (en) | User Interaction With an Apparatus Using a Location Sensor and Microphone Signal(s) | |
CN101976186B (en) | Voice recognition method of computer and computer | |
JP2019164232A (en) | Sharing terminal, method and program, and sharing system and method | |
KR100499030B1 (en) | Interface device using lip recognizer on PDA and the method | |
CN111326175A (en) | Prompting method for interlocutor and wearable device | |
CN105872921A (en) | Mobile phone microphone multi-program simultaneous operation system and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |