KR20220074066A - Device for Recognition and Recognition Method of Input Language Through Machine Learning - Google Patents

Device for Recognition and Recognition Method of Input Language Through Machine Learning Download PDF

Info

Publication number
KR20220074066A
KR20220074066A KR1020200162142A KR20200162142A KR20220074066A KR 20220074066 A KR20220074066 A KR 20220074066A KR 1020200162142 A KR1020200162142 A KR 1020200162142A KR 20200162142 A KR20200162142 A KR 20200162142A KR 20220074066 A KR20220074066 A KR 20220074066A
Authority
KR
South Korea
Prior art keywords
language
input
machine learning
unit
user
Prior art date
Application number
KR1020200162142A
Other languages
Korean (ko)
Other versions
KR102443304B1 (en
Inventor
김승찬
황보민서
김혜주
김민아
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020200162142A priority Critical patent/KR102443304B1/en
Publication of KR20220074066A publication Critical patent/KR20220074066A/en
Application granted granted Critical
Publication of KR102443304B1 publication Critical patent/KR102443304B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/32Monitoring with visual or acoustical indication of the functioning of the machine
    • G06F11/324Display of status information
    • G06F11/327Alarm or error message display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

본 발명은 사용자의 움직임을 감지하여 입력되는 언어의 종류를 인식하는 것으로, 보다 상세하게는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법에 관한 것이다. 이를 위해, 사용자(5)의 신체 일부에 부착되어 사용자(5)의 언어 입력시 발생하는 동작을 감지하는 관성센서(130); 언어 입력에 관한 동작을 기계학습하는 기계학습부(330); 기계학습부(330)로부터의 학습 모델 및 관성센서(130)의 동작신호에 기초하여 언어를 제 1 언어로 추론하는 추론부(230); 언어가 입력되는 입력장치에 구비되고, 입력된 언어를 제 2 언어로 판단하는 제 2 제어부(210); 제 1 언어와 제 2 언어가 같은 언어인지를 판단하는 제 2 제어부(210); 및 제 1 언어와 제 2 언어가 다를 경우 경고를 발생하는 경고수단을 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치가 제공된다.The present invention recognizes a type of input language by sensing a user's movement, and more particularly, relates to an apparatus and method for recognizing an input language through machine learning. To this end, an inertial sensor 130 attached to a body part of the user 5 to detect a motion occurring when the user 5 inputs a language; a machine learning unit 330 for machine learning an operation related to language input; an inference unit 230 for inferring a language as a first language based on a learning model from the machine learning unit 330 and an operation signal of the inertial sensor 130; a second control unit 210 provided in an input device into which a language is input, and configured to determine the input language as a second language; a second control unit 210 that determines whether the first language and the second language are the same language; and warning means for generating a warning when the first language and the second language are different from each other.

Description

기계학습을 통한 입력 언어의 인식장치 및 인식방법{Device for Recognition and Recognition Method of Input Language Through Machine Learning}Device for Recognition and Recognition Method of Input Language Through Machine Learning

본 발명은 사용자의 움직임을 감지하여 입력되는 언어의 종류를 인식하는 것으로, 보다 상세하게는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법에 관한 것이다. The present invention recognizes a type of input language by sensing a user's movement, and more particularly, relates to an apparatus and method for recognizing an input language through machine learning.

컴퓨터의 소프트웨어(예 : 워드프로세서, 채팅, 엑셀, 파워포인트 등) 상에서 키보드를 통해 언어(예 : 한국어)를 입력하는 경우가 많다. 그런데, 사용자가 한국어를 입력하더라도 실수로 또는 자동으로 컴퓨터의 자판이 영어로 변환되어 있어서 알파벳이 입력되는 경우가 있다. 또는 그 반대로 사용자가 영어를 입력하고자 하더라도 컴퓨터의 자판이 한글로 변환되어 있어서 한글이 입력되는 경우가 있다. In many cases, the language (eg Korean) is input through the keyboard on the computer software (eg word processor, chatting, Excel, PowerPoint, etc.). However, even when a user inputs Korean, there are cases in which the alphabet is input because the keyboard of the computer is converted into English by mistake or automatically. Or, conversely, even if the user wants to input English, there are cases where the computer keyboard is converted into Korean, so that Korean is input.

이러한 오류 입력이 발생하는 경우, 사용자는 입력된 글자를 모두 지우고 자판의 언어를 원하는 한글로 전환한 뒤 다시 한글을 입력해야 했다. 일부 워드프로세서에서는 이러한 오류 입력을 인식하여 자동으로 한글 변환해주는 기능도 있으나 특정 소프트웨어에 국한되어 일반적으로 사용되질 못했다. When such an error input occurred, the user had to erase all the entered characters, switch the keyboard language to the desired Korean, and then re-enter Korean. Some word processors have a function that recognizes these error inputs and automatically converts them into Hangul, but they were limited to specific software and were not generally used.

1. 대한민국 특허등록 제 10-1809278 호 (사용자의 움직임을 감지하여 문자를 입력하는 장치 및 방법),1. Republic of Korea Patent Registration No. 10-1809278 (Device and method for inputting text by detecting user's movement), 2. 대한민국 특허공개 제 10-2006-0030456 호(사용자의 키입력과 움직임을 결합한 문자 및 기능 입력방법 및 그를 이용한 단말기).2. Korean Patent Laid-Open No. 10-2006-0030456 (a method for inputting characters and functions combining a user's key input and movement and a terminal using the same).

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 해결하고자 하는 과제는 사용자에게 부착된 웨어러블기기에서 입력 동작을 인식하고, 입력동작에 따라 추론된 제 1 언어가 입력된 제 2 언어와 같은지 여부를 비교판단하도록 하는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법을 제공하는 것이다. Accordingly, the present invention has been devised to solve the above problems, and the object of the present invention is to recognize an input operation in a wearable device attached to a user, and input the first language inferred according to the input operation. An object of the present invention is to provide an apparatus for recognizing an input language and a method for recognizing an input language through machine learning to compare and determine whether it is the same as a second language.

본 발명의 제 2 목적은, 언어별 입력 동작의 특징을 기계학습함으로써 입력동작으로 입력되는 제 1 언어를 정확히 추론할 수 있는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법을 제공하는 것이다. A second object of the present invention is to provide an apparatus and method for recognizing an input language through machine learning that can accurately infer a first language input as an input operation by machine learning the characteristics of an input operation for each language.

본 발명의 제 3 목적은 추론된 제 1 언어와 입력된 제 2 언어가 동일한지 여부를 판단하여 사용자에게 경고할 수 있는 기계학습을 통한 입력 언어의 인식 장치 및 인식 방법을 제공하는 것이다. A third object of the present invention is to provide an apparatus and method for recognizing an input language through machine learning that can warn a user by determining whether an inferred first language and an input second language are the same.

다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood

상기의 기술적 과제를 달성하기 위하여, 사용자(5)의 신체 일부에 부착되어 사용자(5)의 언어 입력시 발생하는 동작을 감지하는 관성센서(130); 언어 입력에 관한 동작을 기계학습하는 기계학습부(330); 기계학습부(330)로부터의 학습 모델 및 관성센서(130)의 동작신호에 기초하여 언어를 제 1 언어로 추론하는 추론부(230); 언어가 입력되는 입력장치에 구비되고, 입력된 언어를 제 2 언어로 판단하는 제 2 제어부(210); 제 1 언어와 제 2 언어가 같은 언어인지를 판단하는 제 2 제어부(210); 및 제 1 언어와 제 2 언어가 다를 경우 경고를 발생하는 경고수단;을 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치가 제공된다. In order to achieve the above technical problem, an inertial sensor 130 attached to a body part of the user 5 to detect a motion occurring when the user 5 inputs a language; a machine learning unit 330 for machine learning an operation related to language input; an inference unit 230 for inferring a language as a first language based on a learning model from the machine learning unit 330 and an operation signal of the inertial sensor 130; a second control unit 210 provided in an input device into which a language is input, and configured to determine the input language as a second language; a second control unit 210 that determines whether the first language and the second language are the same language; and warning means for generating a warning when the first language and the second language are different from each other.

또한, 관성센서(130)는 웨어러블기기(100) 내에 구비될 수 있다. Also, the inertial sensor 130 may be provided in the wearable device 100 .

또한, 기계학습부(330)는 동작 프로파일의 진폭, 주기 및 반복되는 부분 파형 중 적어도 하나에 기초하여 기계학습을 하고, 지도학습(supervised learning) 기법으로 학습할 수 있다. Also, the machine learning unit 330 may perform machine learning based on at least one of an amplitude, a period, and a repeated partial waveform of the motion profile, and may learn using a supervised learning technique.

또한, 관성센서(130)는 웨어러블기기(100)에 탑재되고, 웨어러블기기(100)는 통신을 위한 제 1 통신부(120)를 더 포함하며, 추론부(230) 및 제 2 제어부(210)는 입력장치에 탑재되고, 입력장치는 제 1 통신부(120)와의 통신을 위한 제 2 통신부(220)를 더 포함할 수 있다. In addition, the inertial sensor 130 is mounted on the wearable device 100, the wearable device 100 further includes a first communication unit 120 for communication, and the inference unit 230 and the second control unit 210 are It is mounted on the input device, and the input device may further include a second communication unit 220 for communication with the first communication unit 120 .

또한, 기계학습부(330)는 서버(300)에 탑재되고, 서버(300)는 제 2 통신부(220)와의 통신을 위한 제 3 통신부(320)를 더 포함할 수 있다. In addition, the machine learning unit 330 is mounted on the server 300 , and the server 300 may further include a third communication unit 320 for communication with the second communication unit 220 .

또한, 경고수단은 웨어러블기기(100)에 탑재되는 제 1 경고부(130) 및 입력장치에 탑재되는 제 2 경고부(240) 중 적어도 하나이다. In addition, the warning means is at least one of the first warning unit 130 mounted on the wearable device 100 and the second warning unit 240 mounted on the input device.

또한, 입력장치는 컴퓨터(10), 스마트폰(20), 태블릿PC 중 하나이다. In addition, the input device is one of the computer 10, the smartphone 20, and the tablet PC.

상기와 같은 본 발명의 목적은 또 다른 카테고리로써, 기계학습부(330)가 사용자(5)의 언어 입력시 발생하는 동작을 기계학습하는 단계(S200); 및 제 3 통신부(320)가 기계학습의 모델을 입력장치의 추론부(210)로 전송하는 단계(S220);가 사전에 수행되거나 정기적으로 수행되면서, 사용자(5)의 신체 일부에 부착된 관성센서(130)가 사용자(5)의 언어 입력시 발생하는 동작으로부터 동작신호를 검출하는 단계(S100, S110); 제 1 통신부(120)가 동작신호를 입력장치로 전송하는 단계(S120); 추론부(230)가 동작신호에 기초하여 입력언어를 제 1 언어로 추론하는 단계(S130); 입력장치의 제 2 제어부(210)가 입력된 제 2 언어와 추론된 제 1 언어가 같은 언어인지를 판단하는 단계(S140); 만약, 제 1 언어와 제 2 언어가 다를 경우 경고수단이 경고를 발생하는 단계(S150);를 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식방법에 의해서도 달성될 수 있다. As another object of the present invention as described above, the machine learning unit 330 machine-learning an operation that occurs when the user 5 inputs a language (S200); And while the third communication unit 320 transmits the machine learning model to the inference unit 210 of the input device (S220); performed in advance or regularly performed, the inertia attached to the body part of the user 5 Detecting, by the sensor 130, an operation signal from an operation occurring when the user 5 inputs a language (S100, S110); The first communication unit 120 transmitting the operation signal to the input device (S120); Inferring, by the reasoning unit 230, the input language as the first language based on the operation signal (S130); determining, by the second control unit 210 of the input device, whether the input second language and the inferred first language are the same language (S140); If the first language and the second language are different, the warning means generates a warning ( S150 ).

또한, 경고단계(S150)는, 제 2 제어부(210)가 제 2 언어를 제 1 언어로 변환하는 단계를 더 포함할 수 있다. Also, the warning step ( S150 ) may further include the step of the second controller 210 converting the second language into the first language.

또한, 제 1, 2 언어는 한국어, 영어, 일본어, 중국어, 스페인어, 독일어, 프랑스어를 포함하는 그룹으로부터 서로 다르게 선택되는 언어일 수 있다. Also, the first and second languages may be languages selected differently from a group including Korean, English, Japanese, Chinese, Spanish, German, and French.

본 발명의 일실시예에 따르면, 사용자에게 부착된 웨어러블기기에서 입력 동작을 인식하고, 입력동작에 따라 추론된 제 1 언어가 입력된 제 2 언어와 같은지 여부를 비교판단할 수 있다. 따라서, 사용자는 웨어러블기기의 착용만으로 잘못된 언어의 입력을 통지받을 수 있고, 한영 오타를 방지할 수 있다. 만약 사용자(5)가 시각장애인 경우에도 키보드의 한/영 구분을 편리하게 할 수 있다. According to an embodiment of the present invention, the wearable device attached to the user may recognize an input operation, and compare and determine whether the first language inferred according to the input operation is the same as the input second language. Accordingly, the user may be notified of input of an incorrect language only by wearing the wearable device, and typos in Korean and English may be prevented. Even if the user 5 is visually impaired, it is possible to conveniently distinguish between Korean and English on the keyboard.

또한, 언어별 입력 동작의 특징을 기계학습함으로써 입력동작으로 입력되는 제 1 언어를 정확히 추론할 수 있다. 이는 언어의 구조와 자판의 위치에 기초한 것이므로 사용자의 성별, 나이, 입력속도 등과 무관하여 제 1 언어를 정확히 추론할 수 있다. In addition, it is possible to accurately infer the first language input as the input motion by machine learning the characteristics of the input motion for each language. Since this is based on the structure of the language and the location of the keyboard, the first language can be accurately inferred regardless of the user's gender, age, input speed, etc.

또한, 추론된 제 1 언어와 입력된 제 2 언어가 동일한지 여부를 판단하여 사용자에게 경고할 수 있다. 따라서, 사용자는 즉시 잘못된 언어의 입력을 인지할 수 있고, 고치거나 자판을 변경할 수 있다. In addition, it is possible to warn the user by determining whether the inferred first language and the input second language are the same. Accordingly, the user can immediately recognize the input of the wrong language, and can correct or change the keyboard.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치를 컴퓨터에서 사용하고 있는 사용상태도,
도 2는 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치를 스마트폰에서 사용하고 있는 사용상태도,
도 3은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치의 개략적인 블럭도,
도 4a는 한국어를 입력할 때 본 발명에 따른 웨어러블기기(100)의 관성센서(130)가 감지하는 프로파일을 나타내는 그래프,
도 4b는 영어를 입력할 때 본 발명에 따른 웨어러블기기(100)의 관성센서(130)가 감지하는 프로파일을 나타내는 그래프,
도 5는 본 발명의 구성요소인 기계학습부(330)의 구체적인 내부 블럭도,
도 6은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식방법을 나타내는 흐름도이다.
The following drawings attached to this specification illustrate preferred embodiments of the present invention, and serve to further understand the technical spirit of the present invention together with the detailed description of the present invention to be described later, so that the present invention is described in such drawings It should not be construed as being limited only to
1 is a state diagram in which an apparatus for recognizing an input language through machine learning is used in a computer according to an embodiment of the present invention;
2 is a state diagram in which the device for recognizing input language through machine learning is used in a smart phone according to an embodiment of the present invention;
3 is a schematic block diagram of an apparatus for recognizing an input language through machine learning according to an embodiment of the present invention;
4A is a graph showing a profile detected by the inertial sensor 130 of the wearable device 100 according to the present invention when Korean is input;
4B is a graph showing a profile detected by the inertial sensor 130 of the wearable device 100 according to the present invention when English is input;
5 is a detailed internal block diagram of the machine learning unit 330, which is a component of the present invention;
6 is a flowchart illustrating a method for recognizing an input language through machine learning according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily carry out the present invention. However, since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment may have various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.

본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of the terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component. When a component is referred to as being “connected to” another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. Meanwhile, other expressions describing the relationship between elements, that is, "between" and "between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprise" or "have" are not intended to refer to the specified feature, number, step, action, component, part or any of them. It is intended to indicate that a combination exists, and it should be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms defined in the dictionary should be interpreted as being consistent with the meaning of the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present invention.

실시예의embodiment 구성 composition

이하, 첨부된 도면을 참조하여 바람직한 실시예의 구성을 상세히 설명하기로 한다. 도 1은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치를 컴퓨터에서 사용하고 있는 사용상태도이고, 도 2는 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치를 스마트폰에서 사용하고 있는 사용상태도이다. 도 1 및 도 2에 도시된 바와 같이, 사용자는 웨어러블기기(100, wearable device)를 착용하고 언어를 입력한다. Hereinafter, the configuration of the preferred embodiment will be described in detail with reference to the accompanying drawings. 1 is a state diagram of a computer using an apparatus for recognizing an input language through machine learning according to an embodiment of the present invention, and FIG. 2 is an apparatus for recognizing an input language through machine learning according to an embodiment of the present invention. It is a usage state diagram in use in a smartphone. 1 and 2 , a user wears a wearable device 100 and inputs a language.

본 발명에서 웨어러블기기(100)는 시계, 반지, 안경, 목걸이, 헤드폰 뿐만 아니라 의류, 모자, 신발, 핸드백, 가방 등에 구비되는 전자기기를 포함한다. 웨어러블기기(100)는 독립된 전원(예 : 2차전지)과 디스플레이(예 : 터치스크린 또는 LED) 및 입력장치(버튼, 터치 등)을 포함한다. 본 발명에서 웨어러블기기의 일실시예로써 스마트워치(smart watch)를 도시하고 설명한다. 웨어러블기기(100)는 사용자(5)의 손목에 착용된다. In the present invention, the wearable device 100 includes electronic devices provided in clothes, hats, shoes, handbags, bags, etc. as well as watches, rings, glasses, necklaces, and headphones. The wearable device 100 includes an independent power source (eg, a secondary battery), a display (eg, a touch screen or LED), and an input device (button, touch, etc.). In the present invention, a smart watch is shown and described as an embodiment of a wearable device. The wearable device 100 is worn on the wrist of the user 5 .

입력장치는 컴퓨터(10)의 키보드(14)이거나 스마트폰(20)의 키보드 어플리케이션(22)이 될 수 있다. The input device may be the keyboard 14 of the computer 10 or the keyboard application 22 of the smart phone 20 .

도 3은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식 장치의 개략적인 블럭도이다. 도 3에 도시된 바와 같이, 웨어러블기기(100)는 제 1 제어부(110), 제 1 통신부(120) 및 관성센서(130)를 포함한다. 3 is a schematic block diagram of an apparatus for recognizing an input language through machine learning according to an embodiment of the present invention. As shown in FIG. 3 , the wearable device 100 includes a first control unit 110 , a first communication unit 120 , and an inertial sensor 130 .

제 1 제어부(110)는 마이컴, CPU 또는 AP(어플리케이션 프로세서)가 될 수 있다. The first control unit 110 may be a microcomputer, a CPU, or an AP (application processor).

제 1 통신부(120)는 입력장치와 양방향 데이터 통신이 가능하고, 유선 또는 무선이 가능하다. 제 1 통신부(120)는 와이파이, NFC, 4G 통신망, 무선-LAN, 블루투스와 같은 무선 모듈이 될 수 있고, USB 케이블과 같은 유선 통신모듈이 될 수 있다. 제 1 통신부(120)는 관성센서(130)의 동작신호를 전송하고, "경고"를 수신할 수 있다. The first communication unit 120 may perform two-way data communication with the input device, and may be wired or wireless. The first communication unit 120 may be a wireless module such as Wi-Fi, NFC, 4G communication network, wireless-LAN, or Bluetooth, and may be a wired communication module such as a USB cable. The first communication unit 120 may transmit an operation signal of the inertial sensor 130 and receive a “warning”.

관성센서(130)는 자이로센서, 가속도 센서 등이 될 수 있고, 사용자(5)의 언어 입력동안 발생하는 3차원 진동을 감지하여 시계열의 동작신호로 출력한다. The inertial sensor 130 may be a gyro sensor, an acceleration sensor, or the like, detects a three-dimensional vibration generated during the user's input of a language 5, and outputs it as a time-series motion signal.

제 1 경고부(140)는 다른 언어가 입력되었을 때, 사용자에게 경고를 보내기 위한 구성요소이다. 제 1 경고부(140)는 웨어러블기기(100)의 LED, LCD, 스피커, 부져, 진동발생장치 등이 될 수 있다. The first warning unit 140 is a component for sending a warning to the user when another language is input. The first warning unit 140 may be an LED, an LCD, a speaker, a buzzer, a vibration generating device, and the like of the wearable device 100 .

입력장치는 컴퓨터(10) 또는 스마트폰(20) 또는 태블릿PC나 노트북이 될 수 있다. 제 2 제어부(210)는 마이컴, CPU 또는 AP(어플리케이션 프로세서)가 될 수 있다. The input device may be a computer 10 or a smart phone 20 or a tablet PC or a notebook computer. The second control unit 210 may be a microcomputer, a CPU, or an AP (application processor).

제 2 통신부(220)는 웨어러블기기(100)와 양방향 데이터 통신이 가능하고, 서버(300)와 데이터 통신이 가능하며, 유선 또는 무선이 가능하다. 제 2 통신부(220)는 와이파이, NFC, 4G 통신망, 무선-LAN, 블루투스와 같은 무선 모듈이 될 수 있고, USB 케이블, 랜선, 광통신선, 전용선과 같은 유선 통신모듈이 될 수 있다. 제 2 통신부(220)는 제 1 통신부(120)로부터 동작신호를 수신하고, "경고"를 송신할 수 있다. 제 2 통신부(220)는 서버(300)로부터 기계학습의 모델을 수신한다. The second communication unit 220 may perform two-way data communication with the wearable device 100 , and may perform data communication with the server 300 , and may be wired or wireless. The second communication unit 220 may be a wireless module such as Wi-Fi, NFC, 4G communication network, wireless-LAN, or Bluetooth, and may be a wired communication module such as a USB cable, a LAN line, an optical communication line, and a dedicated line. The second communication unit 220 may receive the operation signal from the first communication unit 120 and transmit a “warning”. The second communication unit 220 receives the machine learning model from the server 300 .

추론부(230)는 기계학습부(330)가 학습한 모델이 탑재되며, 수신된 동작신호가 입력되었을 때, 무슨 언어인지를 추론하여 출력한다. The inference unit 230 is loaded with the model learned by the machine learning unit 330, and when the received motion signal is input, infers what language it is and outputs it.

제 2 경고부(140)는 다른 언어가 입력되었을 때, 사용자에게 경고를 보내기 위한 구성요소이다. 제 2 경고부(240)는 입력장치의 LED, LCD, 스피커, 부져, 진동발생장치 등이 될 수 있다. The second warning unit 140 is a component for sending a warning to the user when another language is input. The second warning unit 240 may be an LED of an input device, an LCD, a speaker, a buzzer, a vibration generating device, and the like.

서버(300)는 제 3 통신부(320), 제 3 제어부(310) 및 기계학습부(330)를 포함한다. 제 3 통신부(320)는 입력장치 또는 웨어러블기기(100)와 양방향 데이터 통신이 가능하고, 유선 또는 무선이 가능하다. 제 3 통신부(320)는 와이파이, NFC, 4G 통신망, 무선-LAN, 블루투스와 같은 무선 모듈이 될 수 있고, USB 케이블, 랜선, 광통신선, 전용선과 같은 유선 통신모듈이 될 수 있다. 제 3 통신부(320)는 제 1 통신부(120) 또는 제 2 통신부(220)로부터 동작신호를 수신할 수 있다. 제 3 통신부(320)는 웨어러블기기(100) 또는 입력장치로 기계학습의 모델을 전송한다. The server 300 includes a third communication unit 320 , a third control unit 310 , and a machine learning unit 330 . The third communication unit 320 may perform two-way data communication with the input device or the wearable device 100, and may be wired or wireless. The third communication unit 320 may be a wireless module such as Wi-Fi, NFC, 4G communication network, wireless-LAN, or Bluetooth, and may be a wired communication module such as a USB cable, LAN line, optical communication line, or dedicated line. The third communication unit 320 may receive an operation signal from the first communication unit 120 or the second communication unit 220 . The third communication unit 320 transmits the machine learning model to the wearable device 100 or the input device.

기계학습부(330)는 언어와 동작신호로 이루어진 다수의 데이터 세트를 학습훈련 데이터(training data)로서 입력받아 기계학습(딥러닝)함으로써 모델을 생성한다. 모델 생성의 학습형태는 지도학습(supervised learning) 기법이 사용된다. 지도학습 기법은 학습훈련 데이터 내에 동작신호(340)와 언어가 같이 포함되어 입력됨으로서 학습하는 기법이다. 지도학습(supervised learning) 기법의 구체적인 방법으로는 SVM(Support Vector Machine), 나이브 베이즈 분류기(Naive bayes classifiers), 판단트리(Decision tree), 랜덤 포레스트(Random forest) 등의 방법이 적용될 수 있으며, 피드포워드(feed-forward) 신경망(Neural Network), 합성곱 신경망(CNN, Convolutional Neural Network), 순환(Recurrent) 신경망도 활용될 수 있다. 즉, 기계학습부(330)는 동작신호(340)의 진폭, 주기 및 반복되는 부분 파형, 특징점 등을 추출하여 딥러닝에 사용한다. The machine learning unit 330 receives a plurality of data sets consisting of language and motion signals as training data and generates a model by machine learning (deep learning). A supervised learning technique is used as the learning form of model creation. The supervised learning technique is a technique for learning by inputting the motion signal 340 and the language together in the learning training data. As a specific method of the supervised learning technique, methods such as SVM (Support Vector Machine), Naive bayes classifiers, Decision tree, Random forest, etc. can be applied, A feed-forward neural network, a convolutional neural network (CNN), and a recurrent neural network may also be utilized. That is, the machine learning unit 330 extracts the amplitude, period, and repeated partial waveforms and feature points of the operation signal 340 and uses them for deep learning.

이러한 기계학습부(330)는 대량의 데이터를 학습하기 위해 서버(300)에 구비하였으나 선택에 따라 컴퓨터(10), 스마트폰(20) 또는 웨어러블기기(100) 내에 구비할 수도 있다. The machine learning unit 330 is provided in the server 300 to learn a large amount of data, but may be provided in the computer 10 , the smart phone 20 , or the wearable device 100 according to selection.

도 5는 본 발명의 구성요소인 기계학습부(330)의 구체적인 내부 블럭도이다. 비록, 도 5에서는 피드포워드 신경망을 모델로 도시하고 설명하였으나, 기계학습부(330)가 반드시 이에 국한되는 것은 아니면 전술한 다양한 기법이 적용될 수 있다. 기계학습부(330)의 입력으로는 동작신호(340)와 언어(예 : 한국어)가 입력되고, 추론되는 출력은 각 언어(350)의 종류별 확률(예 : 한국어 95.1%, 몽골어 2.1%, 영어 0.1% 등)이 된다. 보다 구체적으로 '1'은 한국어, '2'는 영어, '3'은 일본어, '4'는 중국어, '5'는 스페인어, '6'은 독일어, '7'은 프랑스어와 같이 매칭하여 숫자를 입력한다. 추론되는 제 1 언어(350)는 가장 확률이 높은 언어가 된다.5 is a detailed internal block diagram of the machine learning unit 330, which is a component of the present invention. Although the feedforward neural network is illustrated and described as a model in FIG. 5 , the above-described various techniques may be applied unless the machine learning unit 330 is necessarily limited thereto. As an input of the machine learning unit 330, an operation signal 340 and a language (eg, Korean) are input, and the inferred output is a probability for each type of each language 350 (eg, Korean 95.1%, Mongolian 2.1%, English). 0.1%, etc.). More specifically, '1' is Korean, '2' is English, '3' is Japanese, '4' is Chinese, '5' is Spanish, '6' is German, and '7' is French. Enter The inferred first language 350 becomes the most probable language.

기계학습부(330) 중 활성 함수는 신경망의 개별 뉴런에 들어오는 입력신호의 총합을 출력신호로 변환하는 함수하며, 활성 함수는 ReLU(rectified linear unit)를 사용하였다. The activation function of the machine learning unit 330 converts the sum total of input signals entering individual neurons of the neural network into an output signal, and a rectified linear unit (ReLU) is used as the activation function.

아핀(Affine) 레이어(또는 아핀 변환)에서는 행렬의 내적 연산이 이루어진다. 이러한 ReLU 레이어와 Affine 레이어는 필요에 따라 복수층을 배열하도록 기계학습부(330)의 모델을 설계할 수 있다. In the affine layer (or affine transform), the dot product operation of a matrix is performed. The model of the machine learning unit 330 may be designed to arrange a plurality of layers of the ReLU layer and the Affine layer as needed.

소프트맥스(Soft Max) 함수는 하나의 언어를 추론한다. 소프트맥스 함수는 0과 1.0 사이의 실수로서 함수의 출력을 분류의 확률로 해석한다. The Soft Max function infers one language. The softmax function interprets the output of the function as a real number between 0 and 1.0 as a probability of classification.

실시예의embodiment 동작 movement

이하, 첨부된 도면을 참조하여 바람직한 실시예의 동작을 상세히 설명하기로 한다.Hereinafter, the operation of the preferred embodiment will be described in detail with reference to the accompanying drawings.

도 4a는 한국어를 입력할 때 본 발명에 따른 웨어러블기기(100)의 관성센서(130)가 감지하는 시계열 프로파일을 나타내는 그래프이고, 도 4b는 영어를 입력할 때 본 발명에 따른 웨어러블기기(100)의 관성센서(130)가 감지하는 시계열 프로파일을 나타내는 그래프이다. 도 4a 및 도 4b에 도시된 바와 같이, 한국어를 입력하는 경우 단어의 구조(예 : 가나다라) 및 자판의 배치에 따라 한국어만의 독특한 동작신호가 검출된다. 즉, 한국어 입력은 영어 입력에 비해 진폭이 크다는 것을 알 수 있고, 이는 기계학습을 통해 분리해 낼 수 있다. 또한, 동작신호에서 이러한 특징들을 일일이 분리하여 입력하지 않아도 되고, 검출된 신호 전체를 학습훈련 데이터로 사용하는 편리성이 있다. 4A is a graph showing a time series profile detected by the inertial sensor 130 of the wearable device 100 according to the present invention when Korean is input, and FIG. 4B is a wearable device 100 according to the present invention when English is input. It is a graph showing the time series profile detected by the inertial sensor 130 of the. As shown in FIGS. 4A and 4B , when Korean is input, a unique operation signal unique to Korean is detected according to the structure of a word (eg, Ganadara) and the layout of the keyboard. That is, it can be seen that the Korean input has a larger amplitude than the English input, and this can be separated through machine learning. In addition, it is not necessary to separately input these characteristics from the motion signal, and there is a convenience in using the entire detected signal as learning and training data.

도 6은 본 발명의 일실시예에 따른 기계학습을 통한 입력 언어의 인식방법을 나타내는 흐름도이다. 도 6에 도시된 바와 같이, 먼저, 도 5와 같은 기계학습부(330)가 사용자(5)의 언어 입력시 발생하는 동작을 기계학습한다(S200).6 is a flowchart illustrating a method for recognizing an input language through machine learning according to an embodiment of the present invention. As shown in FIG. 6 , first, the machine learning unit 330 as shown in FIG. 5 machine learns an operation that occurs when the user 5 inputs a language ( S200 ).

학습이 완료된 모델은 제 3 통신부(320)를 통해 입력장치의 추론부(210)로 전송된다(S220). 추론부(210)는 모델을 저장하고, 모델을 이용하여 추론할 수 있는 상태가 된다. 이러한 과정은 사전에 수행되며, 정기적으로 또는 부정기적으로 반복됨으로써 사용자의 습관이나 사용 형태를 반영한 최신의 모델로 유지되도록 한다. The learned model is transmitted to the inference unit 210 of the input device through the third communication unit 320 (S220). The reasoning unit 210 stores the model and enters a state in which it can be inferred using the model. This process is performed in advance, and it is repeated regularly or irregularly to keep the model up to date reflecting the user's habits and usage patterns.

그 다음, 사용자(5)가 웨어러블기기(100)를 손목에 착용하고 컴퓨터(10)의 키보드(140)에 제 1 언어(예 : 한국어)를 입력한다(S100). 그러면, 관성센서(130)가 사용자(5)의 타이핑시 발생하는 손목 동작, 손가락의 동작, 타이핑시의 충격 등으로부터 동작신호를 검출한다(S110).Next, the user 5 wears the wearable device 100 on the wrist and inputs a first language (eg, Korean) on the keyboard 140 of the computer 10 ( S100 ). Then, the inertial sensor 130 detects a motion signal from a wrist motion, a finger motion, an impact at the time of typing, etc. generated when the user 5 types ( S110 ).

그 다음, 제 1 통신부(120)가 동작신호를 입력장치로 전송한다(S120).Then, the first communication unit 120 transmits the operation signal to the input device (S120).

전송된 동작신호는 추론부(230)로 보내져서 추론부(230)가 동작신호에 기초하여 입력언어를 제 1 언어(예 : 한국어)로 추론한다(S130).The transmitted motion signal is sent to the reasoning unit 230, and the reasoning unit 230 infers the input language as the first language (eg, Korean) based on the motion signal (S130).

그 다음, 컴퓨터(10)의 제 2 제어부(210)가 실제로 타이핑되어 입력된 제 2 언어와 추론된 제 1 언어가 같은 언어인지를 판단한다(S140). 만약, 추론된 제 1 언어가 한국어이고, 입력된 제 2 언어도 한국어라면 같은 언어라고 판단하여 별다른 경고없이 단어를 계속 입력받는다. Next, the second control unit 210 of the computer 10 determines whether the actually typed and input second language and the inferred first language are the same language ( S140 ). If the inferred first language is Korean and the input second language is also Korean, it is determined that it is the same language and the word continues to be input without any particular warning.

그런데, 만약, 제 1 언어(예 : 한국어)와 제 2 언어(예 : 영어)가 다를 경우 경고수단이 경고를 발생한다(S150). 이는 사용자(5)가 실수로 언어전환 키를 눌렀거나 워드프로세서가 자동으로 언어를 전환했거나, 프로그램이 처음 시작될 때 디폴트로 내정된 언어로 변경되는 등의 의도치 않은 이벤트로 인해 발생한다. However, if the first language (eg, Korean) and the second language (eg, English) are different, the warning means generates a warning ( S150 ). This occurs due to an unintended event such as the user 5 accidentally pressing the language change key, the word processor automatically switching the language, or changing the language to the default language when the program is first started.

경고단계(S150)에서 웨어러블기기(100)는 경고음, 진동, LCD 화면의 점멸 등을 통해 잘못된 입력임을 사용자(5)에게 고지한다. 입력장치에서는 경고음, 경고 문자, 화면 점멸 등을 통해 잘못된 입력임을 사용자(5)에게 고지한다. In the warning step ( S150 ), the wearable device 100 notifies the user 5 that it is an erroneous input through a warning sound, vibration, flickering of the LCD screen, and the like. The input device notifies the user 5 that it is an incorrect input through a warning sound, a warning text, a screen flickering, and the like.

그리고, 선택적으로 제 2 제어부(210)가 제 2 언어(영어)를 제 1 언어(한국어)로 자동 변환하여 사용자(5)의 편의성을 높힐 수 있다. And, optionally, the second control unit 210 may automatically convert the second language (English) into the first language (Korean) to increase the convenience of the user 5 .

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of the preferred embodiments of the present invention disclosed as described above is provided to enable any person skilled in the art to make and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way in combination with each other. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that are not explicitly cited in the claims may be combined to form an embodiment, or may be included as new claims by amendment after filing.

5 : 사용자,
10 : 입력장치(컴퓨터),
12 : 모니터,
14 : 키보드,
20 : 입력장치(스마트폰),
22 : 키보드어플리케이션,
100 : 웨어러블기기,
110 : 제 1 제어부,
120 : 제 1 통신부,
130 : 관성센서,
140 : 제 1 경고부,
210 : 제 2 제어부,
220 : 제 2 통신부,
230 : 추론부,
240 : 제 2 경고부,
300 : 서버,
310 : 제 3 제어부,
320 : 제 3 통신부,
330 : 기계학습부,
340 : 동작신호,
350 : 제 1 언어.
5: user;
10: input device (computer),
12: monitor,
14: keyboard;
20: input device (smartphone),
22: keyboard application,
100: wearable device,
110: a first control unit;
120: a first communication unit;
130: inertial sensor,
140: first warning unit;
210: a second control unit;
220: a second communication unit;
230: reasoning unit,
240: a second warning unit;
300 : server,
310: a third control unit;
320: a third communication unit;
330: machine learning unit,
340: operation signal,
350: first language.

Claims (11)

사용자(5)의 신체 일부에 부착되어 상기 사용자(5)의 언어 입력시 발생하는 동작을 감지하는 관성센서(130);
상기 언어 입력에 관한 동작을 기계학습하는 기계학습부(330);
상기 기계학습부(330)로부터의 학습 모델 및 상기 관성센서(130)의 동작신호에 기초하여 상기 언어를 제 1 언어로 추론하는 추론부(230);
상기 언어가 입력되는 입력장치에 구비되고, 입력된 언어를 제 2 언어로 판단하는 제 2 제어부(210);
상기 제 1 언어와 상기 제 2 언어가 같은 언어인지를 판단하는 상기 제 2 제어부(210); 및
상기 제 1 언어와 상기 제 2 언어가 다를 경우 경고를 발생하는 경고수단;을 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.
an inertial sensor 130 attached to a body part of the user 5 to detect a motion occurring when the user 5 inputs a language;
a machine learning unit 330 for machine learning an operation related to the language input;
an inference unit 230 for inferring the language as a first language based on a learning model from the machine learning unit 330 and an operation signal of the inertial sensor 130;
a second control unit 210 provided in an input device into which the language is input, and configured to determine the input language as a second language;
the second control unit 210 for determining whether the first language and the second language are the same language; and
and warning means for generating a warning when the first language and the second language are different from each other.
제 1 항에 있어서,
상기 관성센서(130)는 웨어러블기기(100) 내에 구비되는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.
The method of claim 1,
The inertial sensor 130 is an input language recognition device through machine learning, characterized in that provided in the wearable device (100).
제 1 항에 있어서,
상기 기계학습부(330)는 상기 동작 프로파일의 진폭, 주기 및 반복되는 부분 파형 중 적어도 하나에 기초하여 기계학습을 하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.
The method of claim 1,
The machine learning unit (330) is an input language recognition device through machine learning, characterized in that the machine learning based on at least one of the amplitude, period, and repeated partial waveforms of the motion profile.
제 3 항에 있어서,
상기 기계학습부(330)는 지도학습(supervised learning) 기법으로 학습하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.
4. The method of claim 3,
The machine learning unit 330 is a device for recognizing an input language through machine learning, characterized in that learning by a supervised learning technique.
제 1 항에 있어서,
상기 관성센서(130)는 웨어러블기기(100)에 탑재되고,
상기 웨어러블기기(100)는 통신을 위한 제 1 통신부(120)를 더 포함하며,
상기 추론부(230) 및 상기 제 2 제어부(210)는 입력장치에 탑재되고,
상기 입력장치는 상기 제 1 통신부(120)와의 통신을 위한 제 2 통신부(220)를 더 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.
The method of claim 1,
The inertial sensor 130 is mounted on the wearable device 100,
The wearable device 100 further includes a first communication unit 120 for communication,
The reasoning unit 230 and the second control unit 210 are mounted on the input device,
The input device further comprises a second communication unit 220 for communication with the first communication unit 120. A device for recognizing an input language through machine learning.
제 5 항에 있어서,
상기 기계학습부(330)는 서버(300)에 탑재되고,
상기 서버(300)는 상기 제 2 통신부(220)와의 통신을 위한 제 3 통신부(320)를 더 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.
6. The method of claim 5,
The machine learning unit 330 is mounted on the server 300,
The server 300 is an input language recognition apparatus through machine learning, characterized in that it further comprises a third communication unit (320) for communication with the second communication unit (220).
제 5 항에 있어서,
상기 경고수단은
상기 웨어러블기기(100)에 탑재되는 제 1 경고부(130) 및
상기 입력장치에 탑재되는 제 2 경고부(240) 중 적어도 하나인 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.
6. The method of claim 5,
The warning means
A first warning unit 130 mounted on the wearable device 100, and
An apparatus for recognizing an input language through machine learning, characterized in that it is at least one of the second warning units (240) mounted on the input device.
제 1 항에 있어서,
상기 입력장치는 컴퓨터(10), 스마트폰(20), 태블릿PC 중 하나인 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식 장치.
The method of claim 1,
The input device is a computer 10, a smart phone 20, a device for recognizing an input language through machine learning, characterized in that one of a tablet PC.
기계학습부(330)가 사용자(5)의 언어 입력시 발생하는 동작을 기계학습하는 단계(S200); 및
제 3 통신부(320)가 상기 기계학습의 모델을 입력장치의 추론부(210)로 전송하는 단계(S220);가 사전에 수행되거나 정기적으로 수행되면서,
사용자(5)의 신체 일부에 부착된 관성센서(130)가 상기 사용자(5)의 언어 입력시 발생하는 동작으로부터 동작신호를 검출하는 단계(S100, S110);
제 1 통신부(120)가 상기 동작신호를 입력장치로 전송하는 단계(S120);
추론부(230)가 상기 동작신호에 기초하여 입력언어를 제 1 언어로 추론하는 단계(S130);
상기 입력장치의 제 2 제어부(210)가 입력된 제 2 언어와 추론된 상기 제 1 언어가 같은 언어인지를 판단하는 단계(S140);
만약, 상기 제 1 언어와 상기 제 2 언어가 다를 경우 경고수단이 경고를 발생하는 단계(S150);를 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식방법.
The machine learning unit 330 machine learning an operation that occurs when the user 5 inputs a language (S200); and
The third communication unit 320 transmits the machine learning model to the inference unit 210 of the input device (S220); is performed in advance or is performed regularly,
Detecting, by the inertial sensor 130 attached to a body part of the user 5, an operation signal from an operation generated when the user 5 inputs a language (S100, S110);
The first communication unit 120 transmitting the operation signal to the input device (S120);
Inferring, by the reasoning unit 230, the input language as the first language based on the operation signal (S130);
determining, by the second control unit 210 of the input device, whether the input second language and the inferred first language are the same language (S140);
and if the first language and the second language are different from each other, the warning means generates a warning (S150).
제 9 항에 있어서,
상기 경고단계(S150)는,
상기 제 2 제어부(210)가 상기 제 2 언어를 상기 제 1 언어로 변환하는 단계를 더 포함하는 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식방법.
10. The method of claim 9,
The warning step (S150),
The method of recognizing an input language through machine learning, further comprising the step of the second controller (210) converting the second language into the first language.
제 9 항에 있어서,
상기 제 1, 2 언어는 한국어, 영어, 일본어, 중국어, 스페인어, 독일어, 프랑스어를 포함하는 그룹으로부터 서로 다르게 선택되는 언어인 것을 특징으로 하는 기계학습을 통한 입력 언어의 인식방법.
10. The method of claim 9,
The first and second languages are languages selected differently from a group including Korean, English, Japanese, Chinese, Spanish, German, and French.
KR1020200162142A 2020-11-27 2020-11-27 Device for Recognition and Recognition Method of Input Language Through Machine Learning KR102443304B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200162142A KR102443304B1 (en) 2020-11-27 2020-11-27 Device for Recognition and Recognition Method of Input Language Through Machine Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200162142A KR102443304B1 (en) 2020-11-27 2020-11-27 Device for Recognition and Recognition Method of Input Language Through Machine Learning

Publications (2)

Publication Number Publication Date
KR20220074066A true KR20220074066A (en) 2022-06-03
KR102443304B1 KR102443304B1 (en) 2022-09-15

Family

ID=81982491

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200162142A KR102443304B1 (en) 2020-11-27 2020-11-27 Device for Recognition and Recognition Method of Input Language Through Machine Learning

Country Status (1)

Country Link
KR (1) KR102443304B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060030456A (en) 2004-10-05 2006-04-10 삼성전자주식회사 Method and apparatus for character input and function selection by combining user's key input and motion
KR100634496B1 (en) * 2003-06-16 2006-10-13 삼성전자주식회사 Input language recognition method and apparatus and method and apparatus for automatically interchanging input language modes employing the same
JP2015038705A (en) * 2013-08-19 2015-02-26 キヤノン株式会社 Electronic apparatus, control method and program for the same, and memory medium
KR20160041557A (en) * 2014-10-08 2016-04-18 엘지전자 주식회사 Mobile terminal and method for controlling the same
JP2017037488A (en) * 2015-08-10 2017-02-16 株式会社日本総合研究所 Input support device, input support method, and program
KR101809278B1 (en) 2011-11-07 2017-12-15 한국전자통신연구원 Apparatus and method of inputting characters by sensing motion of user
KR20180132493A (en) * 2017-06-02 2018-12-12 삼성전자주식회사 System and method for determinig input character based on swipe input
KR20190034949A (en) * 2017-09-25 2019-04-03 이은규 Method and system for security service using biometric and behavior information

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100634496B1 (en) * 2003-06-16 2006-10-13 삼성전자주식회사 Input language recognition method and apparatus and method and apparatus for automatically interchanging input language modes employing the same
KR20060030456A (en) 2004-10-05 2006-04-10 삼성전자주식회사 Method and apparatus for character input and function selection by combining user's key input and motion
KR101809278B1 (en) 2011-11-07 2017-12-15 한국전자통신연구원 Apparatus and method of inputting characters by sensing motion of user
JP2015038705A (en) * 2013-08-19 2015-02-26 キヤノン株式会社 Electronic apparatus, control method and program for the same, and memory medium
KR20160041557A (en) * 2014-10-08 2016-04-18 엘지전자 주식회사 Mobile terminal and method for controlling the same
JP2017037488A (en) * 2015-08-10 2017-02-16 株式会社日本総合研究所 Input support device, input support method, and program
KR20180132493A (en) * 2017-06-02 2018-12-12 삼성전자주식회사 System and method for determinig input character based on swipe input
KR20190034949A (en) * 2017-09-25 2019-04-03 이은규 Method and system for security service using biometric and behavior information

Also Published As

Publication number Publication date
KR102443304B1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
US11493993B2 (en) Systems, methods, and interfaces for performing inputs based on neuromuscular control
Lee et al. Smart wearable hand device for sign language interpretation system with sensors fusion
US20110248914A1 (en) System and Method for Virtual Touch Typing
US20160195928A1 (en) Closed loop feedback interface for wearable devices
US9531404B2 (en) Computer input device and method of using the same
US20060125659A1 (en) Text input method and apparatus using bio-signals
WO2004017187A2 (en) Data input device for individuals with limited hand function
CN103543837A (en) Keyboard-free input method and device achieving same
Lee et al. Quadmetric optimized thumb-to-finger interaction for force assisted one-handed text entry on mobile headsets
US20130249821A1 (en) Method and System for Virtual Keyboard
Streli et al. TapType: Ten-finger text entry on everyday surfaces via Bayesian inference
Gu et al. Qwertyring: Text entry on physical surfaces using a ring
Chen et al. Predicting opportune moments to deliver notifications in virtual reality
Farooq et al. A comparison of hardware based approaches for sign language gesture recognition systems
MX2022011556A (en) Electronic aerosol provision system.
KR102269466B1 (en) Method and apparatus for inputting character based on motion recognition
KR101497829B1 (en) Watch type device utilizing motion input
KR102443304B1 (en) Device for Recognition and Recognition Method of Input Language Through Machine Learning
WO2015191644A1 (en) Finger position sensing and display
Belkacem et al. TEXTile: Eyes-free text input on smart glasses using touch enabled textile on the forearm
KR101521288B1 (en) Apparatus for glove-type wireless interface and operating method thereof
Shatilov et al. MyoKey: Inertial motion sensing and gesture-based QWERTY keyboard for extended realities
Ljubic et al. Tilt-based support for multimodal text entry on touchscreen smartphones: using pitch and roll
Krishnan et al. Gesture recognizer and communicator using flex sensors and accelerometer with logistic regression
Ravikumar et al. A fuzzy-logic based morse code entry system with a touch-pad interface for physically disabled persons

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right